ELEMENTOS DE C

´
ALCULO NUM
´
ERICO
Ricardo G. Dur´an, Silvia B. Lassalle y Julio D. Rossi
´
Indice General
Cap´ıtulo 1. Punto flotante y redondeo 1
1. Punto flotante 1
2. Redondeo 3
3. Ejercicios 11
Cap´ıtulo 2. Normas y condicionamiento de una matriz. 15
1. Ejercicios 29
Cap´ıtulo 3. Resoluci´on de sistemas lineales. 35
1. M´etodos directos 35
2. M´etodos iterativos 40
3. Ejercicios 60
Cap´ıtulo 4. Resoluci´on de ecuaciones no lineales. 65
1. M´etodo de bisecci´on. 65
2. M´etodo regula falsi 68
3. M´etodo de Newton-Raphson. 69
4. M´etodo de punto fijo 76
5. M´etodo de la secante 79
6. Ejercicios 83
Cap´ıtulo 5. Interpolaci´on 87
1. Interpolaci´on de Lagrange 87
2. Error de interpolaci´on 90
3. Forma de Newton 92
4. Polinomios de Tchebychev - Minimizaci´on del Error 95
5. Interpolaci´on de Hermite 102
6. Interpolaci´on por polinomios a trozos 104
7. Ejercicios 107
Cap´ıtulo 6. Polinomios ortogonales y aproximaci´on por cuadrados m´ınimos. 111
1. Preliminares 112
2. Soluci´on de los Problemas de Aproximaci´on 118
3. Ejercicios 127
Cap´ıtulo 7. Integraci´on num´erica 131
1. F´ormulas de Newton-Cˆotes 132
2. Estimaci´on del error 139
3. F´ormulas de cuadratura compuestas 143
3
4
´
INDICE GENERAL
4. Convergencia de los m´etodos de cuadratura 148
5. Cuadratura Gaussiana 150
6. Ejercicios 154
Cap´ıtulo 8. Resoluci´on de ecuaciones diferenciales ordinarias. 159
1. M´etodos de Euler y Taylor de orden k 162
2. M´etodos de Runge-Kutta 164
3. An´alisis de los Errores 166
4. M´etodos multipaso lineales 170
5. M´etodos de paso variable 176
6. Ejercicios 177
CAP´ıTULO 1
Punto flotante y redondeo
El objeto de este cap´ıtulo es analizar la representaci´on de los n´ umeros en una computadora y la
propagaci´on de los errores de redondeo al realizar c´alculos.
Como la cantidad de informaci´on que puede guardarse en una computadora es finita, la m´aquina
trabajar´a s´olo con un conjunto finito de n´ umeros. A ´estos los llamaremos n´ umeros de m´aquina.
En consecuencia, toda vez que de nuestros datos o c´alculos surja un n´ umero que no pertenece a
este conjunto finito, ´este deber´a ser reemplazado por una aproximaci´on (el n´ umero de m´aquina
m´as cercano). Este reemplazo da lugar a lo que llamamos errores de redondeo.
Al realizar c´alculos estos errores de redondeo se propagan y esto puede llevar a resultados
totalmente incorrectos como veremos en algunos ejemplos simples.
En las aplicaciones del c´alculo num´erico es pr´acticamente imposible determinar exactamente la
magnitud de los errores de redondeo. Lo que si puede hacerse, y es de fundamental importancia,
es identificar las posibles causas de que los errores se propaguen m´as de lo admisible. Esto
permite mejorar los algoritmos o determinar que m´etodo es m´as conveniente para resolver un
problema. Un claro ejemplo de esto, que veremos m´as adelante, aparece cuando se utiliza el
m´etodo de eliminaci´on de Gauss para resolver un sistema de ecuaciones lineales. En este caso,
el an´alisis de la propagaci´on de errores permite determinar la forma m´as eficiente de aplicar el
m´etodo.
Por otra parte, es fundamental distinguir cuando la propagaci´on excesiva de errores se debe a
que el algoritmo utilizado es “malo” o inestable o a que el problema en s´ı mismo est´a “mal
condicionado”. En el primer caso se puede (se debe!) tratar de mejorar el m´etodo de resoluci´on
mientras que en el segundo caso el problema es m´as esencial. Los ejemplos que presentaremos
ilustrar´an estos dos casos.
1. Punto flotante
En lo que sigue supondremos que los n´ umeros de m´aquina son los que aparecen en la pantalla.
Esto no es exacto pues en realidad la computadora opera internamente con los n´ umeros desarro-
llados en base 2 y no en base 10. Este abuso de lenguaje es s´olo para mayor claridad (el lector
podr´a observar que todo nuestro an´alisis puede repetirse trabajando en base 2).
Observemos primero que un n´ umero real cualquiera, x ∈ IR, x > 0, puede escribirse como
2 1. PUNTO FLOTANTE Y REDONDEO
x = 0, a
1
a
2
. . . a
k
. . . 10
l
= r 10
l
,
1
10
≤ r < 1 (es decir, a
1
,= 0)
Pero en una computadora no se pueden poner infinitos d´ıgitos. Por lo tanto, se trabaja s´olo
con n´ umeros de desarrollo finito y de una longitud dada. De la misma forma, el exponente l
(es decir el orden del n´ umero) estar´a limitado a cierto rango. En consecuencia los n´ umeros de
m´aquina ser´an de la forma
x = 0, a
1
a
2
....a
m
10
l
= q 10
l
−M
1
≤ l ≤ M
2
, , a
1
,= 0
m´as los correspondientes negativos y el cero. Los n´ umeros m, M
1
y M
2
dependen de la m´aquina.
Esta representaci´on de los n´ umeros es la que se llama de punto flotante.
Los n´ umeros de m´aquina forman un conjunto finito de n´ umeros racionales. La cantidad de
n´ umeros de m´aquina que hay entre 1/10 y 1 es,
#¦x / 1/10 ≤ x < 1¦ = 9 10
m−1
.
En general, la cantidad que hay entre 10
l
y 10
l+1
es tambi´en 9 10
m−1
. Esto nos dice que
los n´ umeros de m´aquina no est´an uniformemente distribuidos. S´ı lo est´a el subconjunto que
est´a entre 10
l
y 10
l+1
para cada l. En particular, los n´ umeros m´as grandes est´an m´as separa-
dos. Resulta ´ util para la comprensi´on hacer un dibujo de los n´ umeros de m´aquina en la recta
num´erica (Ejercicio). Al analizar la propagaci´on de errores de redondeo se aclarar´a por qu´e esta
distribuci´on de los n´ umeros es m´as razonable que una uniforme.
Sea x ∈ IR. Para simplificar notaci´on supondremos x > 0 (claramente todas las consideraciones
que haremos se aplican an´alogamente a los n´ umeros negativos). Hay dos posibilidades: que x
est´e o no en el rango de los n´ umeros de m´aquina. Si al hacer c´alculos aparece un n´ umero en
la segunda situaci´on, por ser muy grande o muy chico, la computadora nos dar´a un mensaje
indic´andolo.
Supongamos entonces que x est´a en el rango de la m´aquina, o sea,
x = 0, a
1
a
2
....a
m
.......10
l
M
1
≤ l ≤ M
2
, a
1
,= 0
Este x est´a entre dos n´ umeros de m´aquina,
x

≤ x ≤ x

Supongamos, para simplificar, que a
m
,= 9 (analice el lector el caso contrario). Entonces tenemos
x

= 0, a
1
a
2
....a
m
10
l
y
x

= 0, a
1
a
2
....(a
m
+ 1)10
l
2. REDONDEO 3
2. Redondeo
Hay dos formas de aproximar a x. Una es por truncamiento: se elige siempre x

es decir el
mayor de los n´ umeros de m´aquina que son menores que x. La otra forma es tomar el m´as
pr´oximo a x entre x

y x

. A esta forma de aproximar se la conoce por redondeo y es la que
usan habitualmente las computadoras.
Veamos que error cometemos al aproximar un n´ umero por redondeo. Usaremos la notaci´on
x

= x redondeado
El error absoluto ser´a
[x −x

[ ≤
1
2
1
10
m
10
l
Mientras que el error relativo se puede acotar de la forma siguiente
[x −x

[
[x[

1
2
10
l−m
0, a
1
a
2
....a
m
....10
l
y como
0, a
1
a
2
....a
m
.... ≥
1
10
se tiene que
[x −x

[
[x[
≤ 5 10
−m
Es decir que el error relativo es del orden de 10
−m
si nuestra m´aquina trabaja con m d´ıgitos.
Es importante observar que, si bien el error absoluto que introduce el redondeo depende de la
magnitud del n´ umero, el relativo, que es el m´as significativo, es independiente de ´esta, est´a con-
trolado en t´erminos de la cantidad de d´ıgitos con la que trabaja nuestra computadora (Ejercicio:
meditar que tiene que ver esto con la distribuci´on no uniforme de los n´ umeros de m´aquina).
Si tenemos
x

= 0, a
1
a
2
....a
m
10
l
, a
1
,= 0
decimos que conocemos a x con m d´ıgitos significativos, lo que equivale, seg´ un vimos, a conocerlo
con un error relativo del orden de 10
−m
. Observar la importancia de la condici´on a
1
,= 0: de lo
contrario los d´ıgitos dejan de ser significativos.
4 1. PUNTO FLOTANTE Y REDONDEO
Observemos que
x

= x(1 +δ)
con
[δ[ ≤ ε = 5 10
−m
Este ε es el error de redondeo unitario, es decir, que el error que se comete al aproximar x por
x

es xδ con [δ[ ≤ ε, de esta forma el error [x −x

[ ser´a menor o igual que ε[x[.
Este valor, ε, depende de la m´aquina y se lo llama el ε de la m´aquina. Recordemos que, seg´ un lo
comentado antes, el verdadero ε de m´aquina no es exactamente ´este debido a que la computadora
trabaja en base 2. Pero desde el punto de vista pr´actico s´olo interesa el orden de ε (y ´este s´ı es
correcto!).
Ejercicio: calcular el ε exacto suponiendo que la m´aquina trabaja en base 2 con k d´ıgitos.
Otra forma de interpretar el significado del ε de la m´aquina es la siguiente: ε nos dice cu´al es el
menor n´ umero tal que, en la m´aquina,
1 +ε ,= 1
O sea, si se le suma a 1 algo menor que ε, “desaparece” debido al redondeo. En efecto, seg´ un la
m´aquina tendremos
1 + 4 10
−m
= 1, 0....04 = 0, 10....00 10 = 1
en cambio,
1 +ε = 1, 0....06 = 0, 10....01 10 ,= 1
Si sumamos exactamente ε el resultado depender´a de como redondee la m´aquina en el caso en
que x equidista de dos n´ umeros de m´aquina, es decir, cuando la cifra m+ 1 es justo 5.
M´as en general, el orden del menor n´ umero que sumado a un x da, en la m´aquina, un resultado
distinto de x es ε[x[.
Es fundamental observar que ε no es el menor n´ umero que se puede representar en la m´aquina
(y est´a muy lejos de ´este!). Este ´ ultimo depende de M
1
y no de m.
Veamos ahora algunos de los problemas que surgen debido al redondeo.
Empecemos por sumar dos n´ umeros. Como vimos, si sumamos dos n´ umeros de ordenes muy
distintos, el m´as chico puede “desaparecer”. Por ejemplo, si m = 5 y
2. REDONDEO 5
x = 78473000; y = 24
tenemos
x

= 0, 78473 10
8
; y

= 0, 24 10
2
es decir que x e y son n´ umeros de m´aquina. Entonces,
x +y = 78473024
y por lo tanto,
(x +y)

= 0.78473 10
8
= x

= x
En particular, esto nos dice que si tenemos que sumar varios n´ umeros x
1
, x
2
, .....x
N
conviene
hacerlo de menor a mayor (¿Por qu´e?).
En el ejemplo anterior el problema no es muy importante ya que no se pierden d´ıgitos significa-
tivos, es decir, el orden del error relativo no se agranda (se est´a perdiendo la informaci´on de un
n´ umero que es despreciable respecto del otro sumando).
El problema es mucho m´as serio cuando deben restarse dos n´ umeros parecidos. En este caso,
debido a lo que se conoce como “cancelaci´on catastr´ofica”, pueden perderse d´ıgitos significativos
o, en otras palabras, agrandarse mucho el error relativo.
Consideremos como antes m = 5 y tomemos
x = 0, 372154876; y = 0, 372023264
entonces,
x

= 0, 37215; y

= 0, 37202
y por lo tanto,
x −y = 0, 000131612
mientras que
x

−y

= 0, 00013 = 0, 13 10
−3
Observemos qu´e sucedi´o: x e y estaban representados con 5 d´ıgitos significativos pero al restarlos
quedaron s´olo 2 del resultado. En consecuencia el error relativo creci´o de manera tal que si bien
el error relativo en x e y era del orden de 10
−5
el del resultado es del orden de 10
−2
.
6 1. PUNTO FLOTANTE Y REDONDEO
Como conclusi´on observamos que hay que tratar de evitar restar n´ umeros “casi iguales”. Por
ejemplo, supongamos que queremos calcular
y =
_
x
2
+ 1 −1
para valores de x peque˜ nos. Si lo hacemos directamente, estamos en la situaci´on anterior. En
cambio podemos proceder de la siguiente manera:
y =
_
x
2
+ 1 −1 =
(

x
2
+ 1 −1)(

x
2
+ 1 + 1)
(

x
2
+ 1 + 1)
=
x
2
(

x
2
+ 1 + 1)
y utilizar la ´ ultima expresi´on para calcular y. Si los c´alculos fueran exactos ambas f´ormulas
dar´ıan el mismo resultado pero, debido al redondeo, dan resultados distintos. Por ejemplo,
trabajando con 5 d´ıgitos, si x = 0, 0312 obtenemos con la primera f´ormula y = 0, 0004 (un
solo d´ıgito significativo si bien conociamos x exactamente). Mientras que con la segunda, y =
0, 00048662 (que tiene cuatro d´ıgitos significativos correctos).
El mismo problema surge al calcular y = x −sin x para x peque˜ no. En este caso se puede usar
el desarrollo de Taylor,
y = x −sinx =
x
3
3!

x
5
5!
+
x
7
7!
.....
y calcular y sumando los primeros t´erminos de la serie.
Otro caso en el que la cancelaci´on de d´ıgitos significativos puede presentarse es en la resoluci´on
de una ecuaci´on cuadr´atica
ax
2
+bx +c = 0
si utilizamos la f´ormula habitual
x
1
=
−b +

b
2
−4ac
2a
y x
2
=
−b −

b
2
−4ac
2a
Consideremos por ejemplo,
x
2
−10
5
x + 1 = 0
Los primeros d´ıgitos exactos de las ra´ıces son
x
1
= 99999.99999
y
x
2
= 0.000010000000001
2. REDONDEO 7
Usando la f´ormula para x
2
tenemos
x
2
=
10
5


10
10
−4
2
Si trabajamos con ocho d´ıgitos el 4 desaparece y x
2
resulta igual a cero. Otra vez hemos restado
dos n´ umeros parecidos!
Esto se puede solucionar calculando primero x
1
y luego obtener x
2
usando que x
2
=
c
ax
1
.
En general, la forma correcta de encontrar las ra´ıces en el caso en que ac sea despreciable respecto
de b, es calculando primero
x
1
=
−b − sign(b)

b
2
−4ac
2a
y luego la otra raiz como hicimos en el ejemplo. De esta forma se evita la p´erdida de d´ıgitos
significativos.
Un problema fundamental del c´alculo num´erico es la resoluci´on de sistemas de ecuaciones lineales.
Veamos como los errores de redondeo pueden afectar la soluci´on a´ un en problemas de dos
ecuaciones con dos inc´ognitas. Tratemos de resolver el siguiente sistema utilizando el m´etodo
de eliminaci´on de Gauss,
_
ε 1
1 1
__
x
y
_
=
_
1
2
_
Pongamos, a modo de ejemplo, ε = 10
−6
y supongamos que la m´aquina trabaja con cinco d´ıgitos.
Multiplicando la primera fila por
1
ε
= 10
6
y rest´andosela a la segunda obtenemos
_
10
−6
1
0 1 −10
6
__
x
y
_
=
_
1
2 −10
6
_
pero, con el redondeo a cinco cifras nos queda
_
10
−6
1
0 −10
6
__
x
y
_
=
_
1
−10
6
_
(perdimos la informaci´on de la segunda ecuaci´on!).
Mientras que el resultado exacto es
_
10
−6
1
0 −999999
__
x
y
_
=
_
1
−999998
_
8 1. PUNTO FLOTANTE Y REDONDEO
Hasta aqui el error no parece grave. Pero veamos: si utilizamos la matriz obtenida con la m´aquina
y despejamos de la segunda ecuaci´on obtenemos la soluci´on y

= 1 y luego, reemplazando en la
primera, x

= 0.
Pero la soluci´on verdadera es
y =
1 −2 10
−6
1 −10
−6
∼ 1 = y

x =
1
1 −10
−6
,= 0 = x

Observemos que x − x

= x =
1
1−10
−6
es aproximadamente 1. Adem´as el error relativo es 1
(catastr´ofico!).
Analicemos qu´e sucedi´o. Al hacer las restas 1 −
1
ε
, 2 −
1
ε
se introduce un peque˜ no error en
la matriz triangulada que se propaga a la soluci´on. Este error, al perder la sexta cifra, no es
significativo respecto de y pero al reemplazar en la primera ecuaci´on queda,
εx

= 1 −y

, y entonces x =
1
ε
(1 −y

)
Esto implica que el error y

−y se amplifica por un factor
1
ε
dando lugar a un error grande en x.
Veamos ahora que pasa si hacemos el mismo proceso de eliminaci´on de Gauss pero intercam-
biando las filas de lugar. Queda
_
1 1
10
−6
1
__
x
y
_
=
_
2
1
_
Operando (fila 2 - ε fila 1), obtenemos
_
1 1
0 1 −10
−6
__
x
y
_
=
_
2
1 −2 10
−6
_
y con el redondeo a cinco cifras nos queda
_
1 1
0 1
__
x
y
_
=
_
2
1
_
que tiene como soluci´on y

= 1, x

= 1.
¿Qu´e pas´o? El intercambio de filas permiti´o obtener un resultado correcto evitando la propaga-
ci´on catastr´ofica del error que se daba en el otro caso. Veremos m´as adelante que esto es algo
general: conviene elegir como “pivote” (elemento por el que se divide) para la eliminaci´on de
Gauss el que tenga mayor valor absoluto.
En este ejemplo, la primera forma de resolver era un algoritmo “malo” o inestable en el sentido
de que amplificaba los errores llevando a resultados absolutamente err´oneos. Sin embargo, esto
2. REDONDEO 9
se solucion´o intercambiando el orden de las filas, o sea, modificando el algoritmo. Esto muestra
que el error en el primer caso se deb´ıa a la forma de resolver y no a algo inherente al problema
en s´ı mismo.
Hay casos de naturaleza esencialmente diferente en los cuales el problema que se quiere resolver
est´a “mal condicionado”. Esto significa que peque˜ nos cambios en los datos implican grandes
cambios en la soluci´on. Esto hace que los errores de redondeo puedan amplificarse mucho
independientemente del m´etodo que usemos para resolverlo.
Veamos un ejemplo de esto. Supongamos que nuestra m´aquina trabaja con 3 d´ıgitos y trunca.
Resolvamos el sistema
_
0.780 0.563
0.913 0.659
__
x
y
_
=
_
0.217
0.254
_
La soluci´on exacta es x = 1, y = −1.
Teniendo en cuenta lo visto antes, intercambiamos filas antes de hacer la eliminaci´on de Gauss.
Obtenemos
_
0.913 0.659
0 0.001
__
x
y
_
=
_
0.254
0.001
_
y en consecuencia y

= 1 y x

= −0.443 que no tiene nada que ver con la soluci´on exacta. En
particular, el error es mayor que la soluci´on misma!
Lo que sucede en este ejemplo es que la matriz est´a “mal condicionada” (m´as adelante precisare-
mos lo que esto significa) y habr´a problemas independientemente del algoritmo que utilicemos.
Otro ejemplo de problema “mal condicionado” es el siguiente. Las ra´ıces de
(x −2)
2
= 10
−6
son
x
1
= 2 + 10
−3
x
2
= 2 −10
−3
en cambio, las ra´ıces de
(x −2)
2
= 0
son x
1
= x
2
= 2.
Este ejemplo trivial muestra que un peque˜ no cambio en un coeficiente de la ecuaci´on polinomial
puede dar lugar a un cambio de otro orden en las ra´ıces. En este caso, un cambio de 10
−6
en el
t´ermino independiente origina un cambio de 10
−3
en las ra´ıces.
Un ejemplo m´as interesante es el estudiado por Wilkinson en 1963. Se trata de calcular las
ra´ıces de
10 1. PUNTO FLOTANTE Y REDONDEO
p(x) = (x −1)(x −2)......(x −19)(x −20) = x
20
−210x
19
+....
Wilkinson demostr´o que al cambiar el coeficiente −210 por −210 − 2
−23
las ra´ıces 16 y 17 se
transforman en el par complejo
16.73... +i2.812... 16.73... −i2.812...
Para finalizar, veamos otro ejemplo de algoritmo inestable. El problema consiste en calcular
E
n
=
_
1
0
x
n
e
x−1
dx n = 1, 2, ...
Integrando por partes se obtiene
E
n
=
_
1
0
x
n
e
x−1
dx = x
n
e
x−1
[
1
0

_
1
0
nx
n−1
e
x−1
dx
es decir
E
n
= 1 −nE
n−1
y es f´acil ver que
E
1
= 1/e
con lo que tenemos definida la sucesi´on E
n
en forma recursiva.
Usando esta relaci´on recursiva para calcular con una m´aquina que trabaje con seis d´ıgitos se
obtiene,
E
1
∼ 0.367879
E
2
∼ 0.264242
E
3
∼ 0.207274
.
.
.
E
9
∼ −0.0684800
cuando en realidad
E
9
∼ 0.0916
con lo que el resultado computacional es p´esimo.
En este caso lo que sucede es que el error de E
n−1
se amplifica multiplic´andose por n. Entonces
en nueve pasos se multiplica por 9!, obteni´endose un error de
9! error inicial = 9! 4.412 10
−7
∼ 0.1601
que resulta mayor que el verdadero E
9
.
3. EJERCICIOS 11
Como conclusi´on el algoritmo es malo. Pero observemos que no lo es el problema en s´ı mismo.
Como alternativas podemos calcular E
n
por integraci´on num´erica o bien hacer el siguiente truco.
Observemos que
E
n−1
=
1 −E
n
n
y como
E
n

_
1
0
x
n
dx =
1
n + 1
→ 0
podemos empezar de E
20
∼ 0 e ir hacia atr´as usando E
n−1
=
1−En
n
. Este algoritmo es estable
(el error en cada paso se multiplica por algo menor que uno).
Como conclusi´on, los ejemplos analizados en esta secci´on muestran la diferencia entre el caso
en el cual la amplificaci´on de los errores de redondeo se debe a que el problema est´a “mal
condicionado” o “mal planteado” y el caso en el que dicha amplificaci´on se debe al uso de un
“algoritmo inestable”. Es fundamental distinguir entre ambos casos y, por otra parte, encontrar
las causas de la propagaci´on indebida de errores con el objeto de mejorar los algoritmos.
3. Ejercicios
(1) Utilizando el m´etodo de redondeo:
(a) Hallar el n´ umero de m´aquina m´as pr´oximo a 125.6 y a= 126 si trabaja con
• Base 10 y mantisa de 2 d´ıgitos.
• Base 2 y mantisa de 8 d´ıgitos.
(b) Verificar para x = 125.6, la conocida cota para el error relativo
[
x −fl(x)
x
[ ≤
si = 1/2β
1−d
donde β es la base y d la longitud de la mantisa.
(c) ¿Cu´al es, en cada caso, el valor que da la m´aquina como resultado de las operaciones
126 + 125.6 y 126 −125.6? ¿Cu´al es el error relativo de estos resultados?
(2) Utilizando el m´etodo de truncamiento:
(a) Rehacer el Ejercicio 1, con el correspondiente, es decir: = β
−d+1
, donde β y d
son como antes.
(b) Demostrar que, en este caso, es el menor n´ umero de m´aquina tal que 1 + ,= 1.
¿Cu´anto da β +?
(3) Mostrar que fl(x) tiene (para ambos m´etodos) una escritura de la forma
fl(x) = x(1 +δ
x
)
donde [δ
x
[ ≤ . (Usar la cota para el error relativo).
(4) P´erdida de d´ıgitos significativos:
(a) Si x, y ≥ 0 demostrar que
¸
¸
¸
x +y −fl(fl(x) +fl(y))
x +y
¸
¸
¸ ≤ 2 +
2
.
12 1. PUNTO FLOTANTE Y REDONDEO
Observar que en la expresi´on 2 +
2
el valor de
2
es despreciable dado que es
peque˜ no.
(b) Si x e y no poseen el mismo signo, ¿puede repetir la misma cuenta? (Sugerencia:
recordar el error relativo de 126 − 125.6 en el ejercicio 1, item (c), utilizando la
computadora binaria con mantisa de 8 d´ıgitos.)
(5) Un ejemplo que muestra que algunas de las reglas de la aritm´etica no son v´alidas para
operaciones de punto flotante.
(a) Intentar anticipar el resultado de los siguientes c´alculos:
(i) (1 +

2
) +

2
(ii) 1 + (

2
+

2
)
(iii)
_
(1 +

2
) +

2
_
−1 (iv)
_
1 + (

2
+

2
)
_
−1
(b) Efectuar estos c´alculos usando Matlab y comprobar las predicciones hechas.
(6) Hallar la ra´ız menor en m´odulo de la ecuaci´on
x
2
−40x + 0.25 = 0,
utilizando aritm´etica de 4 d´ıgitos y comparar con el resultado obtenido utilizando arit-
m´etica exacta. Calcular el error relativo y asegurarse de comprender de d´onde viene la
p´erdida de d´ıgitos significativos. ¿Se le ocurre c´omo calcular con mayor precisi´on dicha
ra´ız? ¿Cu´al es el error relativo con el nuevo m´etodo?
(7) Hallar una forma de calcular sin p´erdida de d´ıgitos significativos las siguientes cantida-
des, para x ∼ 0:
(a) (α +x)
n
−α
n
(b) α −
_
α
2
−x
(c) cos x −1
(d) sin(α +x) −sin(α)
(8) Se pretende calcular las sumas S
N
=

N
k=1
a
k
con N ∈ IN. Llamemos
´
S
N
al valor
calculado que se logra de hacer fl(

S
N−1
+a
N
).
(a) S
N
=
N

k=1
1
k
. Mostrar que
´
S
N
se estaciona a partir de alg´ un N suficientemente
grande. Deducir que a partir de entonces S
N
,=
´
S
N
.
(b) Idem (a) para la suma S
N
=
N

k=1
2
−k+100
+ 1
k
. Encontrar, haciendo un programa
en Matlab, el valor de N para el cual
´
S
N
se estaciona.
(9) El desarrollo de Taylor de la funci´on e
x
proporciona una forma muy inestable de cal-
cular este valor cuando x es negativo. Hacer un programa en Matlab que estime e
−12
evaluando el desarrollo de Taylor hasta grado n de la funci´on e
x
en x = −12, para
n = 1, . . . , 100. Comparar con el valor exacto: 0.000006144212353328210 . . . ¿Cu´ales
son las principales fuentes de error? Realizar otra estimaci´on= de e
−12
con alg´ un
otro m´etodo que evite los problemas del m´etodo anterior (Sugerencia: Considerar
e
−x
= 1/e
x
).
(10) Calcular en Matlab los valores: sen(π/2 + 2π10
j
) c= on 1 ≤ j ≤ 18. ¿Cu´anto deber´ıa
dar? ¿Qu´e est´a pasando?
(11) Aproximaci´on de la derivada de una funci´on.
3. EJERCICIOS 13
(a) Llamamos derivada discreta de f en x = 1 al valor
d
h
f(1) =
f(1 +h) −f(1)
h
.
Utilizando el desarrollo de Taylor, demostrar que
[f

(1) −d
h
f(1)[ ≤ [f

(1)[
h
2
+o(h) (h → 0)
siempre que f sea suficientemente derivable.
(b) Considerar la funci´on f(x) = x
2
. Hacer un programa en Matlab que calcule
los valores de d
h
f(1) para aproximar f

(1), d´andole a h los valores 10
−18
, 10
−17.9
,
10
−17.8
, . . . , 10
−1
y grafique los resultados obtenidos. Decidir si ´estos se contradicen
con el resultado del ´ıtem anterior. Hacer un an´alisis de los c´alculos efectuados para
calcular d
h
f(1), teniendo en cuenta que la m´aquina utiliza aritm´etica de punto
flotante.
(c) Repetir el ´ıtem anterior, d´andole otros valores a h, de modo que el resultado resulte
m´as confiable.
(12) Las funciones de Bessel J
n
se pueden definir del siguiente modo:
J
n
(x) =
1
π
_
π
0
cos(xsin θ −nθ)dθ.
y verifican que [J
n
(x)[ ≤ 1. Se sabe adem´as que J
n+1
(x) = 2n/xJ
n
(x) − J
n−1
(x).
Con los valores estimados J
0
(1) ∼ 0.7651976865, J
1
(1) ∼ 0.4400505857 y la recurrencia
dada, hacer un programa en Matlab para calcular J
2
(1), J
3
(1), . . . , J
10
(1). Decidir si
la condici´on [J
n
(x)[ ≤ 1 deja de satisfacerse. ¿Qu´e esta sucediendo?
(13) Dada la funci´on Φ : IR → IR definida por
Φ(x) =

k=1
1
k(k +x)
,
consideramos las siguiente dos maneras de estimar num´ericamente el valor de Φ(x) para
un x fijo:
• sumar los primeros n t´erminos de la serie Φ(x),
• teniendo en cuenta que Φ(1) = 1, definir
Ψ(x) = Φ(x) −Φ(1) =

k=1
(
1
k(k +x)

1
k(k + 1)
) =

k=1
1 −x
k(k + 1)(k +x)
,
luego expresar Φ(x) = 1+Ψ(x) y, de este modo, estimar Φ(x) como 1 m´as la suma
de los primeros n t´erminos de la serie Ψ(x).
Predecir cu´al de las dos maneras converge m´as r´apidamente. Luego, hacer un
programa que calcule y grafique el resultado obtenido con los dos m´etodos propuestos
para calcular Φ(0), con n = 1, . . . , 100. Comparar con el resultado exacto, que es
π
2
6
.
(14) Algoritmo para calcular π.
Comenzar inicializando las variables a, b, c, d y e del siguiente modo: a = 0, b = 1,
c = 1/

2, d = 1/4, e = 1. Luego, iterar n veces en el orden dado las siguientes
f´ormulas:
a = b, b =
b +c
2
, c =

ca, d = d −e(b −a)
2
, e = 2e.
14 1. PUNTO FLOTANTE Y REDONDEO
Finalmente, el valor de π puede estimarse como f = b
2
/d, o como g = (b +c)
2
/(4d).
Hacer un programa que calcule los valores de π estimados por f y g cuando n =
1, 2, . . . , 10. ¿Qu´e estimaci´on converge m´as r´apido? ¿Cu´an precisos son sus resultados?
El valor de π correcto hasta 36 d´ıgitos es
π = 3.14159265358979323846264338327950288
CAP´ıTULO 2
Normas y condicionamiento de una matriz.
Consideramos el sistema de n ecuaciones con n inc´ognitas
Ax = b
con A ∈ IR
n×n
, x ∈ IR
n
y b ∈ IR
n
y nos preguntamos cu´anto afectar´a a la soluci´on un error
en el dato b. Para poder dar una respuesta debemos decidir primero c´omo medir el error. Es
decir, necesitamos dar alguna forma de medir vectores de IR
n
. Una forma posible es utilizar la
longitud o norma eucl´ıdea del vector, o sea,
|x|
2
=
_
x
2
1
+..... +x
2
n
Pero ´esta no es la ´ unica medida razonable y en muchos casos es conveniente trabajar con otras.
Por ejemplo, podemos decir que un vector es “chico” si lo son todas sus componentes y tomar
entonces como medida de x la siguiente, llamada “norma infinito”,
|x|

= max
1≤i≤n
[x
i
[
Otra elecci´on natural es la “norma uno”,
|x|
1
= [x
1
[ +..... +[x
n
[
o m´as en general la “norma p”,
|x|
p
= ([x
1
[
p
+..... +[x
n
[
p
)
1
p
con 1 ≤ p < ∞.
Todas estas formas de medir resultan equivalentes en el sentido de que, si x es “chico” en una de
las normas entonces lo es en cualquier otra, puesto que una norma mayora a la otra salvo una
constante que depende s´olo de n. Por ejemplo, utilizando la desigualdad de Schwartz se obtiene
|x|
1


n|x|
2
y por otra parte, es f´acil ver que,
|x|
2
≤ |x|
1
16 2. NORMAS Y CONDICIONAMIENTO
Tambi´en se verifica f´acilmente que
|x|

≤ |x|
1
≤ n|x|

M´as en general, decimos que una norma en IR
n
es una manera de asignar a cada x un n´ umero |x|
de tal forma que se verifiquen las siguientes propiedades, an´alogas a las que cumple la longitud
usual,
1) |x| ≥ 0 ∀x ∈ IR
n
2) |x| = 0 si y solo si x = 0.
3) |λx| = [λ[|x| ∀λ ∈ IR, ∀x ∈ IR
n
4) |x +y| ≤ |x| +|y| ∀x ∈ IR
n
, ∀y ∈ IR
n
(desigualdad triangular)
Una vez que sabemos como medir vectores podemos hablar tambi´en de la distancia entre dos
vectores x e y la cual est´a dada por |x−y|. En particular, esto permite hablar de convergencia
de sucesiones: x
n
→ x si |x −x
n
| → 0.
Tanto para medir el error como para analizar la convergencia de una sucesi´on elegiremos la
norma que nos resulte m´as conveniente en cada caso. Esto est´a justificado por el hecho de
que todas las normas son equivalentes: convergencia en una de ellas implica convergencia en
cualquier otra. M´as a´ un, se tiene el siguiente resultado.
Teorema 2.1. Dadas dos normas en IR
n
, | | y | |

, existen constantes C
1
y C
2
que dependen
s´olo de n y de las normas consideradas (en particular, son independientes de x) tales que
C
1
|x| ≤ |x|

≤ C
2
|x| ∀x ∈ IR
n
Demostraci´ on. Basta ver que una norma cualquiera | | es equivalente a la norma eucl´ıdea usual,
| |
2
. Sea ¦e
i
¦ la base can´onica de IR
n
y definamos la constante C = (

n
i=1
|e
i
|
2
)
1/2
, la cual
depende s´olo de n y de | |. Utilizando las propiedades de la norma y la desigualdad de Schwartz
obtenemos
|x| = |
n

i=1
x
i
e
i
| ≤
n

i=1
[x
i
[|e
i
| ≤ (
n

i=1
[x
i
[
2
)
1/2
(
n

i=1
|e
i
|
2
)
1/2
= C|x|
2
(2.1)
Queremos ver ahora que existe una constante K tal que
|x|
2
≤ K|x| ∀x ∈ IR
n
(2.2)
Supongamos que una tal K no existe y veamos que se llega a una contradicci´on. En efecto, si
(2.2) no se cumple para ning´ un K tenemos, en particular, que dado m ∈ IN, existe y
m
∈ IR
n
tal
que
2. NORMAS Y CONDICIONAMIENTO 17
|y
m
|
2
≥ m|y
m
|
y llamando x
m
= y
m
/|y
m
|
2
obtenemos |x
m
|
2
= 1 y
|x
m
| ≤
1
m
(2.3)
pero, toda sucesi´on acotada en la norma eucl´ıdea tiene una subsucesi´on convergente. Entonces
existe una subsucesi´on de (x
m
), (x

m
) tal que
|x

m
−x|
2
→ 0
para cierto x ∈ IR
n
. Pero entonces por (2.1), tambi´en vale que
|x

m
−x| → 0
Por otra parte, por (2.3) tenemos que |x

m
| → 0 y en consecuencia, por unicidad del l´ımite,
resulta x = 0. Pero observemos finalmente que, por la desigualdad triangular,
¸
¸
¸|x

m
|
2
−|x|
2
¸
¸
¸ ≤ |x

m
−x|
2
y entonces se llega a la contradicci´on 1 = |x

m
|
2
→ |x|
2
= 0, finalizando la demostraci´on.
Ahora s´ı, estamos en condiciones de abordar el problema de c´omo afecta el error en los datos a
la soluci´on de un sistema lineal cuya matriz A es inversible. Si se reemplaza el dato b por b+∆b,
la soluci´on x del sistema ser´a modificada de tal forma que tendremos
A(x + ∆x) = (b + ∆b)
o equivalentemente,
A∆x = ∆b
y nos preguntamos que relaci´on hay entre
|∆x|
|x|
y
|∆b|
|b|
Veamos primero el siguiente ejemplo simple,
_
4.1 2.8
9.7 6.6
__
x
1
x
2
_
=
_
4.1
9.7
_
La soluci´on es
x =
_
1
0
_
18 2. NORMAS Y CONDICIONAMIENTO
Observemos que
|b|
1
= 13.8 |x|
1
= 1
Si modificamos b poniendo
b

= b + ∆b =
_
4.11
9.70
_
entonces la soluci´on es
x

= x + ∆x =
_
0.34
0.97
_
y se obtiene en consecuencia
|∆b|
1
= 0.01 |∆x|
1
= 1.63
con lo que el error relativo se amplific´o mucho, en efecto,
|∆b|
1
|b|
1
= 0.7246 10
−3
mientras que
|∆x|
1
|x|
1
= 1.63
Nuestro objetivo es tratar de entender a qu´e se debe este comportamiento y poder predecir,
dada una matriz A, cu´al ser´a el factor de amplificaci´on del error relativo o, al menos, dar una
cota de ´este en t´erminos de A.
Analicemos primero el caso de una matriz diagonal.
_
λ
1
0
0 λ
2
__
x
1
x
2
_
=
_
b
1
b
2
_
La soluci´on es (si λ
1
, λ
2
,= 0)
x
1
=
b
1
λ
1
x
2
=
b
2
λ
2
Por ejemplo, si
A =
_
1000 0
0
1
100
_
entonces,
x
1
=
b
1
1000
x
2
= 100b
2
2. NORMAS Y CONDICIONAMIENTO 19
Si ponemos b

= b + ∆b con
∆b =
_
0
∆b
2
_
b =
_
b
1
0
_
entonces,
x
1
=
b
1
1000
∆x
2
= 100∆b
2
obteni´endose
10
5
|∆b|
2
|b|
2
=
|∆x|
2
|x|
2
es decir que el error relativo se multiplic´o por 10
5
.
Si en cambio elegimos
∆b =
_
∆b
1
0
_
b =
_
0
b
2
_
tenemos entonces,
∆x
1
=
1
1000
∆b
1
x
2
= 100b
2
y en consecuencia,
1
10
5
|∆b|
2
|b|
2
=
|∆x|
2
|x|
2
o sea que en este caso el error relativo se redujo en un factor 10
5
. En general, para una matriz
diagonal
A =
_
λ
1
0
0 λ
2
_
con [λ
1
[ > [λ
2
[, el error relativo puede multiplicarse por

1
[

2
[
en el peor de los casos y por

2
[

1
[
en el mejor de los casos.
20 2. NORMAS Y CONDICIONAMIENTO
En general, el error tendr´a componentes en cualquier direcci´on por lo que es de esperar que si

1
|

2
|
es grande los errores relativos se amplifiquen.
El mismo an´alisis puede hacerse en IR
n
. Si A es una matriz diagonal
A =
_
_
λ
1
0

0 λ
N
_
_
el error relativo se puede amplificar, a lo sumo, por un factor

max
[

min
[
siendo λ
max
y λ
min
los de m´aximo y m´ınimo valor absoluto entre los λ
j
(observemos que λ
min
,= 0
pues estamos suponiendo que A es inversible). Este cociente se llama n´ umero de condici´on o de
condicionamiento de A en la norma | |
2
y lo denotaremos Cond
2
(A).
Ahora veamos como definir el n´ umero de condici´on para una matriz A arbitraria. Comencemos
por el caso en que A sea sim´etrica, es decir a
ij
= a
ji
. En este caso A se puede diagonalizar,
es decir, existe una base de autovectores ¦v
1
, ...., v
n
¦. Adem´as, por ser A sim´etrica podemos
considerar que la base es ortonormal. Entonces, si Ax = b , A(x + ∆x) = b + ∆b y
x =
n

i=1
α
i
v
i
∆x =
n

i=1
β
i
v
i
tenemos,
|x|
2
2
=
n

i=1
α
2
i
|∆x|
2
2
=
n

i=1
β
2
i
y adem´as, si llamamos λ
i
al autovalor correspondiente a v
i
,
b =
n

i=1
α
i
λ
i
v
i
∆b =
n

i=1
β
i
λ
i
v
i
y en consecuencia,
|b|
2
2
=
n

i=1
α
2
i
λ
2
i
|∆b|
2
2
=
n

i=1
β
2
i
λ
2
i
Entonces, si λ
max
y λ
min
son los autovalores de m´aximo y m´ınimo valor absoluto respectivamente,
obtenemos
|∆x|
2
2
|x|
2
2
=

n
i=1
β
2
i

n
i=1
α
2
i

1/[λ
min
[
2
1/[λ
max
[
2
|∆b|
2
2
|b|
2
2
o sea
2. NORMAS Y CONDICIONAMIENTO 21
|∆x|
2
|x|
2


max
[

min
[
|∆b|
2
|b|
2
es decir que el n´ umero Cond
2
(A) =
|λmax|

min
|
es una cota para el factor de amplificaci´on del error
relativo. M´as a´ un, esta cota es la mejor posible pues la desigualdad se convierte en una igualdad
para cierta elecci´on de b y ∆b (b en la direcci´on correspondiente al m´aximo autovalor y ∆b en
la correspondiente al m´ınimo).
Para generalizar el n´ umero de condici´on a cualquier matriz observemos que, en el caso de una
sim´etrica, la direcci´on correspondiente al autovalor de m´aximo valor absoluto nos da la direcci´on
de “m´axima expansi´on”, es decir, si miramos el cociente entre la longitud de Ax y la de x
|Ax|
2
|x|
2
´este ser´a m´aximo entre todos los x cuando x est´a en la direcci´on correspondiente a λ
max
. En
efecto, si escribimos x en la base de autovectores ¦v
1
, ..., v
n
¦
x =
n

i=1
α
i
v
i
entonces,
Ax =
n

i=1
α
i
λ
i
v
i
y de ac´a resulta que
|Ax|
2
≤ [λ
max
[|x|
2
y tomando x = v
j
con λ
j
= λ
max
se ve que se verifica la igualdad.
An´alogamente, la direcci´on de “m´ınima expansi´on” corresponde a la asociada a λ
min
, la cual
corresponde tambi´en a la de “m´axima expansi´on” de la inversa de A.
El an´alisis realizado para matrices sim´etricas nos muestra que el factor de amplificaci´on del error
relativo est´a relacionado con los m´aximos factores de expansi´on de A y de su inversa. Teniendo
en cuenta esto, definimos para una matriz arbitraria A ∈ IR
n×n
y una norma de vectores | |
cualquiera, la norma matricial asociada como
|A| = max
0=x∈IR
n
|Ax|
|x|
Es decir, la norma de A nos da lo m´aximo que “agranda” el multiplicar por A medido en la
norma de vectores dada. Es f´acil ver que
22 2. NORMAS Y CONDICIONAMIENTO
|A| = max
x=1
|Ax|
y en particular, esto muestra que el m´aximo existe, o sea que la norma esta bien definida (|Ax|
es una funci´on continua de x y por lo tanto, alcanza su m´aximo en el conjunto de vectores de
norma igual a uno pues ´este es cerrado y acotado).
De la definici´on se desprende la siguiente desigualdad que usaremos frecuentemente,
|Ax| ≤ |A||x| ∀x ∈ IR
n
valiendo la igualdad para algun x. Tambi´en es f´acil ver que
|AB| ≤ |A||B| ∀A ∈ IR
n×n
, ∀B ∈ IR
n×n
(2.4)
Por otra parte puede verificarse que |A| es la menor entre todas las constantes C para las cuales
vale la desigualdad
|Ax| ≤ C|x| ∀x ∈ IR
n
siendo ´esta otra forma usual de definir la norma matricial.
Como ejemplo tenemos que, por lo visto antes, si A es sim´etrica entonces
|A|
2
= [λ
max
[
donde el sub´ındice 2 nos indica cual es la norma de vectores correspondiente.
An´alogamente tenemos que para A inversible y sim´etrica
|A
−1
|
2
=
1

min
[
y por lo tanto,
|A|
2
|A
−1
|
2
=

max
[

min
[
En general introducimos entonces la siguiente
Definici´ on 2.2. Sea A ∈ IR
n×n
una matriz inversible y sea | | una norma en IR
n
definimos el
n´ umero de condici´on de A como
Cond(A) = |A||A
−1
|
2. NORMAS Y CONDICIONAMIENTO 23
Es claro que Cond(A) depende de la norma de vectores elegida.
Es f´acil ver que valen las siguientes propiedades,
Cond(A) = Cond(A
−1
)
y
Cond(A) ≥ 1 ∀A ∈ IR
n×n
En efecto, la primera es obvia mientras que, para ver la segunda, utilizamos la propiedad (2.4)
y obtenemos
1 = |I| = |AA
−1
| ≤ |A||A
−1
| = Cond(A)
Podemos ahora probar el siguiente resultado fundamental
Teorema 2.3. Si A ∈ IR
n×n
es inversible, b, ∆b ∈ IR
n
, Ax = b y A(x+∆x) = b +∆b entonces,
|∆x|
|x|
≤ Cond(A)
|∆b|
|b|
(2.5)
valiendo la igualdad para alguna elecci´on de b y ∆b.
Adem´as,
1
Cond(A)
|∆b|
|b|

|∆x|
|x|
(2.6)
y nuevamente, vale la igualdad para ciertos b y ∆b.
Demostraci´on. Se tiene que
A(∆x) = ∆b
y entonces,
|∆x|
|x|

|A
−1
||∆b|
|x|
=
|A
−1
||∆b|
|b|
|b|
|x|

|A
−1
||∆b|
|b|
|A|
donde para la ´ ultima desigualdad hemos usado que |b| = |Ax| ≤ |A||x|. Por lo tanto (2.5)
vale.
Observemos adem´as que si elegimos ∆b tal que |∆x| = |A
−1
∆b| = |A
−1
||∆b|, x tal que
|Ax| = |A||x| (lo que siempre se puede por la definici´on de la norma matricial) y b = Ax
resulta la igualdad en (2.5).
Ahora, para ver la desigualdad (2.6) observemos que ´esta puede escribirse como
24 2. NORMAS Y CONDICIONAMIENTO
|∆b|
|b|
≤ Cond(A)
|∆x|
|x|
la cual, teniendo en cuenta que Cond(A) = Cond(A
−1
), es exactamente la desigualdad (2.5)
aplicada a A
−1
con lo que el teorema est´a demostrado.
Veamos ahora que el n´ umero de condici´on tambi´en tiene que ver con la propagaci´on del error
que se cometa en los coeficientes del sistema. Como veremos m´as adelante, el teorema siguiente
es tambi´en de suma importancia en el an´alisis del error de redondeo en la eliminaci´on de Gauss.
Teorema 2.4. Si A ∈ IR
n×n
es inversible, E ∈ IR
n×n
, b ∈ IR
n
, Ax = b y (A+E)(x + ∆x) = b
entonces, llamando ˜ x = x + ∆x tenemos
|∆x|
|˜ x|
≤ Cond(A)
|E|
|A|
(2.7)
y si
Cond(A)
|E|
|A|
≤ δ < 1
entonces,
|∆x|
|x|

1
1 −δ
Cond(A)
|E|
|A|
(2.8)
Demostraci´ on. Tenemos
Ax = b A˜ x = b −E˜ x
y entonces,
−E˜ x = A∆x
por lo que conclu´ımos que
|∆x| ≤ |A
−1
||E||˜ x| ≤ Cond(A)
|E|
|A|
|˜ x|
lo que prueba (2.7).
Ahora observemos que
|˜ x|
|x|
=
|x + ∆x|
|x|

|x| +|∆x|
|x|
= 1 +
|∆x|
|x|
2. NORMAS Y CONDICIONAMIENTO 25
lo cual, junto con la desigualdad anterior implica que
|∆x|
|x|
≤ Cond(A)
|E|
|A|
_
1 +
|∆x|
|x|
_
≤ Cond(A)
|E|
|A|

|∆x|
|x|
lo que concluye la demostraci´on de (2.8).
Veamos ahora como calcular algunas normas matriciales. Dada A ∈ IR
n×n
se llama radio
espectral de A a
ρ(A) = [λ
max
[
siendo λ
max
el de m´aximo valor absoluto entre todos los autovalores de A, incluyendo los com-
plejos.
Ya vimos que si A es sim´etrica entonces,
|A|
2
= ρ(A)
En general, para A ∈ IR
n×n
arbitraria se tiene
|A|
2
=
_
ρ(A
T
A)
donde A
T
es la matriz traspuesta de A. En efecto, como A
T
A es sim´etrica, existe una base
ortonormal de autovectores ¦v
j
¦. Llamando µ
j
a los autovalores correspondientes tenemos
A
T
Av
j
= µ
j
v
j
j = 1, ....., n
y si x =

n
i=1
α
i
v
i
entonces, por la ortonormalidad de los v
j
resulta |x|
2
2
=

n
i=1
α
2
j
y en
consecuencia, teniendo en cuenta que A
T
Ax =

n
i=1
α
j
µ
j
v
j
, se tiene que para todo x ∈ IR
n
|Ax|
2
2
|x|
2
2
=
x
T
A
T
Ax
|x|
2
2
=

n
i=1
α
2
j
µ
j

n
i=1
α
2
j
≤ ρ(A
T
A)
es decir que
|A|
2

_
ρ(A
T
A)
y tomando x = v
j
con µ
j
= µ
max
se ve que vale la igualdad.
El c´alculo de la norma 2 de una matriz involucra el c´alculo de autovalores, el cual es un problema
complicado. Sin embargo, otras normas son mucho m´as f´aciles de calcular. Por ejemplo, se tiene
que
26 2. NORMAS Y CONDICIONAMIENTO
|A|

= max
1≤i≤n
n

j=1
[a
ij
[
Para ver esto observemos primero que, para todo x ∈ IR
n
vale
|Ax|

= max
1≤i≤n
[
N

j=1
a
ij
x
j
[≤ |x|

max
1≤i≤n
N

j=1
[a
ij
[
y entonces,
|A|

≤ max
1≤i≤n
n

j=1
[a
ij
[
Para ver que vale la otra desigualdad, sea k tal que

n
j=1
[a
kj
[ es m´axima y tomemos
x =
_
_
_
_
sg(a
k1
)
sg(a
k2
)

sg(a
kn
)
_
_
_
_
donde sg(a) = 1 si a ≥ 0 y sg(a) = −1 si a < 0. Entonces,
(Ax)
k
=
n

j=1
[a
kj
[
y en particular, |Ax|

n
j=1
[a
kj
[ y como |x|

= 1 obtenemos
|Ax|

|x|


n

j=1
[a
kj
[
y conclu´ımos que
|A|

≥ max
1≤i≤n
n

j=1
[a
ij
[
De manera similar puede verse, aunque no lo haremos aqui, que
|A|
1
= max
1≤j≤n
n

i=1
[a
ij
[
2. NORMAS Y CONDICIONAMIENTO 27
Hemos visto que el n´ umero Cond(A) nos da una medida de cu´an mala es una matriz en cuanto
a la propagaci´on de los errores relativos. Si este n´ umero es grande se dice que la matriz est´a
“mal condicionada”.
Si A es una matriz singular y, para cierto b, el sistema Ax = b tiene alguna soluci´on, entonces
tendr´a infinitas y ´estas formar´an una variedad lineal de IR
n
. Es decir que sin cambiar nada
b se pueden obtener soluciones tan distantes como se quiera. En otras palabras, en este caso
tendr´ıamos ∆b = 0 mientras que ∆x ser´ıa arbitrariamente grande.
En consecuencia, es natural esperar que el n´ umero Cond(A) nos de una medida de cu´an cerca
est´a A de ser singular. Esto es efectivamente as´ı y lo formalizaremos en el pr´oximo teorema.
Pero antes veamos algunos ejemplos. Sea ε ∼ 0 entonces la matriz
A =
_
1 1 +ε
1 −ε 1
_
est´a cerca de la matriz singular
B =
_
1 1
1 1
_
y en este caso
A
−1
= ε
−2
_
1 −1 −ε
−1 +ε 1
_
entonces,
|A|

= 2 +ε |A
−1
|

= (2 +ε)ε
−2
y en consecuencia,
Cond

(A) =
_
2 +ε
ε
_
2
>
4
ε
2
Es importante recalcar que esta “distancia a las matrices singulares” debe entenderse en forma
relativa al tama˜ no de A. En este ejemplo tenemos no s´olo que |A−B|

es chica sino que lo es
en relaci´on con |A|

. En efecto,
|A−B|

|A|

=
ε
2 +ε
<
ε
2
En particular, estar “cerca” de ser singular no tiene nada que ver con el tama˜ no del determinante.
Para aclarar esto veamos algunos casos simples. Por ejemplo, si ε ∼ 0, la matriz
28 2. NORMAS Y CONDICIONAMIENTO
A =
_
ε 0
0 ε
_
tiene determinante muy peque˜ no pero es una matriz buen´ısima en cuanto a la propagaci´on de
errores relativos pues Cond(A) = 1.
En cambio,
A =
_
1 0
0
1
ε
_
tiene determinante grande pero, en las normas 2, 1 o ∞, Cond(A) = 1/ε
Damos ahora el resultado que relaciona el n´ umero de condici´on de una matriz con su distancia
relativa a las matrices singulares.
Teorema 2.5. Dadas A ∈ IR
n×n
inversible y una norma de vectores cualquiera se tiene
1
Cond(A)
= inf
B singular
|A−B|
|A|
Demostraci´ on. Sea B ∈ IR
n×n
una matriz singular y tomemos x ,= 0 tal que Bx = 0. Entonces,
|x| = |A
−1
(A−B)x| ≤ |A
−1
||A−B||x|
y en consecuencia,
1 ≤ |A
−1
||A−B|
lo cual muestra que
1
Cond(A)

|A−B|
|A|
∀B ∈ IR
n×n
singular (2.9)
Entonces, para concluir el teorema, falta ver que hay una B singular para la cual vale la igualdad
en (2.9). Para esto, sean y tal que |A
−1
y| = |A
−1
||y| y x tal que Ax = y. Como y puede
tomarse con norma arbitraria, lo elegimos de tal forma que |y| = 1/|A
−1
| y en consecuencia
|x| = 1.
Sea ahora z un vector tal que
z
T
x = 1 (2.10)
y
z
T
u ≤ 1 ∀u ∈ IR
n
tal que |u| = 1 (2.11)
1. EJERCICIOS 29
La existencia de un tal z es la parte m´as t´ecnica de la demostraci´on y omitiremos la escri-
tura formal. Sin embargo, observemos que es intuitivamente claro si analizamos el significado
geom´etrico: los u que verifican la ecuaci´on z
T
u = 1 forman un hiperplano (es decir, una variedad
lineal de dimensi´on n −1). Por lo tanto, que haya un z verificando (2.10) y (2.11) significa que
hay un hiperplano que pasa por x y que deja a la bola unitaria B
1
= ¦u ∈ IR
n
: |u| ≤ 1¦ de un
lado. La existencia de tal hiperplano es clara si se tiene en cuenta que, para toda norma, B
1
es
un conjunto convexo y que x est´a en el borde de ´este. Observemos tambi´en que, en el caso de
la norma | |
2
, se tiene que z = x.
Definamos ahora B = A − yz
T
y veamos que esta matriz es singular y cumple con la igualdad
que quer´ıamos. En efecto,
Bx = Ax −yz
T
x = y −y = 0
y por lo tanto, B es singular.
Por otra parte, |A − B| = |yz
T
|, pero por (2.11) tenemos que [z
T
u[ ≤ 1 para todo u tal que
|u| = 1 puesto que, si z
T
u < 0 entonces, [z
T
u[ = −z
T
u = z
T
(−u) ≤ 1 ya que | − u| = 1.
Entonces,
|yz
T
u| = |y|[z
T
u[ ≤
1
|A
−1
|
∀u ∈ IR
n
tal que |u| = 1
y por lo tanto,
|A−B| ≤
1
|A
−1
|
lo que concluye la demostraci´on.
1. Ejercicios
(1) Calcular la norma 2 de la matriz A =
_
3 0
4 5
_
.
(2) Se quiere estimar la norma 2 de una matriz A ∈ IR
3×3
como el m´aximo del valor
|Ax|
2
/|x|
2
entre varios vectores x ∈ IR
3
no nulos generados al azar. Hacer un progra-
ma que pida el ingreso de una matriz A y luego
• genere los primeros 100 t´erminos de la siguiente sucesi´on:
s
1
= 0, s
k+1
= max
_
s
k
,
|Ax
k
|
2
|x
k
|
2
_
donde los x
k
∈ IR
3
son vectores no nulos generados al azar cuyas coordenadas
est´en el intervalo [−1, 1].
• grafique la sucesi´on calculada, junto con el valor exacto de la norma de la matriz.
30 2. NORMAS Y CONDICIONAMIENTO
Recordar que tanto la norma de un vector como de una matriz se calculan en Matlab
con el comando norm. Tener en cuenta que los vectores generados al azar (comando
rand) tienen coordenadas en el intervalo [0, 1]. Chequear, adem´as, que estos vectores
generados resulten no nulos.
(3) Sea A =
_
_
3 0 0
0
5
4
3
4
0
3
4
5
4
_
_
. Calcular cond
2
(A) y cond

(A).
(4) Probar que si A ∈ IR
n×n
es una matriz inversible y | | es una norma matricial, la
condici´on de A verifica la desigualdad:
1
cond(A)
≤ inf
_
|A−B|
|A|
: B es singular
_
Nota: M´as a´ un, vale la igualdad, pero la otra desigualdad es un poco m´as compli-
cada de probar. De dicha igualdad se puede concluir que cond(A) mide la distancia
relativa de A a la matriz singular m´as pr´oxima.
(5) (a) Mostrar que cond

(A) → ∞ cuando ε → 0 para
(i) A =
_
_
1 1 1
1 ε ε
2
1 0 0
_
_
, (ii) B =
_
_
1 0 1 +ε
2 3 4
1 −ε 0 1
_
_
.
(b) Concluir que la condici´on de las matrices A y B del ´ıtem anterior tienden a infinito,
cualquiera sea la norma considerada.
(6) Sea A la matriz del ejercicio 3. Se quiere resolver el sistema Ax = b para un valor
de b ,= 0 que se conoce con una precisi´on mayor que 10
−3
; es decir, se conoce el valor
conjunto de b + ∆b y se sabe que el error relativo
|∆b|
2
|b|
2
< 10
−3
.
(a) Estimar el error relativo de la soluci´on hallada ˜ x = x + ∆x.
(b) Encuentre un ejemplo para b y ∆b ,= 0 de modo que
∆x
2
x
2
sea exactamente
cond
2
(A)
∆b
2
b
2
.
(7) Sea x la soluci´on exacta al sistema Ax = b y ˜ x la soluci´on obtenida num´ericamente. Se
llama “vector residual” a r := b −A˜ x. Si e = x − ˜ x se tiene Ae = r. Mostrar que:
1
cond(A)
|r|
|b|

|e|
|x|
≤ cond(A)
|r|
|b|
.
Concluir que para una matriz mal condicionada los m´etodos num´ericos no aseguran
buena aproximaci´on.
(8) Para cada n ∈ IN, se definen A
n
=
_
1 2
2 4 +
1
n
2
_
, b
n
= (1, 2 −
1
n
2
) y se quiere resolver
el sistema A
n
x = b
n
. Utilizando cierto m´etodo num´erico se obtiene como resultado el
vector (1, 0).
(a) Calcular el vector residual producido por esta soluci´on tentativa. ¿Puede decirse
que para n grande la soluci´on es razonablemente confiable?
(b) Resolver A
n
x = b
n
en forma exacta, calcular cond

(A
n
) y verificar la cota de error
del ejercicio 7.
(9) Sea D
n
la matriz diagonal de n n con elementos diagonales iguales a 1/10. Calcular
el determinante de D
n
y ver que det(D
n
) → 0 si n → ∞. ¿D
n
est´a mal condicionada?
1. EJERCICIOS 31
(10) (a) Escribir un programa en Matlab que resuelva un sistema Ax = b, A ∈ IR
n×n
usando eliminaci´on gaussiana sin pivoteo.
(b) Adaptar el programa del ´ıtem anterior para que calcule la matriz A
−1
.
(11) Para cada n ∈ IN, se quiere calcular la soluci´on del sistema lineal:
10
−n
x + 2y = 8
x +y = 2
utilizando eliminaci´on gaussiana sin pivoteo, con aritm´etica de punto flotante de 3
d´ıgitos y sistema de redondeo.
(a) Para n = 2 y n = 3, analizar si el resultado difiere significativamente de la soluci´on
real.
(b) Para n = 3, repetir el m´etodo de eliminaci´on gaussiana eligiendo el pivote m´as
conveniente.
32 2. NORMAS Y CONDICIONAMIENTO
(12) Obtener la descomposici´on LU de la matriz
_
_
_
_
2 4 −1 0
4 10 −1 −1
6 10 −7 1
0 2 1 −2
_
_
_
_
de las siguientes dos
maneras:
(a) mediante el algoritmo de eliminaci´on gaussiana,
(b) despejando los coeficientes de L y U ordenadamente.
(13) Sea A ∈ IR
n×n
una matriz que admite descomposici´on LU.
(a) Estimar cu´antas operaciones se necesitan para calcular esta descomposici´on de A,
despejando los coeficientes de L y U.
(b) Se quiere calcular el determinante de A. Para n ≥ 2, mostrar que si esto se hace
mediante el desarrollo sucesivo por alguna fila o columna, entonces se requieren
m´as de n! operaciones. Estimar cu´antas operaciones se necesitan para calcularlo
si se utiliza la descomposici´on LU.
(14) Demostrar que si todos los menores principales de una matriz A ∈ IR
n×n
son no singu-
lares, entonces ´esta admite descomposici´on LU.
(15) Probar que la matriz no singular:
_
_
0 0 1
1 0 0
0 1 0
_
_
no tiene una descomposici´on LU, mientras que la matriz singular A−I s´ı la tiene. Dar
la matriz de permutaciones P tal que PA tenga una factorizaci´on LU.
(16) Considerar el algoritmo de eliminaci´on gaussiana sin pivoteo aplicado a un sistema
Ax = b donde A ∈ IR
n×n
es una matriz tridiagonal. Demostrar que si A es adem´as
estrictamente diagonal dominante, entonces durante la ejecuci´on del algoritmo no se
encuentra ning´ un pivote nulo. (Ayuda: demostrar que si A es estrictamente diagonal
dominante, entonces luego de hacer cada etapa de la eliminaci´on la matriz resultante
tambi´en lo es.)
(17) Sea A ∈ IR
n×n
una matriz tridiagonal tal que en el proceso de eliminaci´on gaussiana
no se encuentra ning´ un pivote nulo. Demostrar que A admite descomposici´on LU con
L y U tambi´en tridiagonales.
(18) Adaptar el programa del ejercicio 10 para que resuelva un sistema de ecuaciones Ax = b,
donde A ∈ IR
n×n
es una matriz tridiagonal. Utilizar el comando flops de Matlab para
conocer la cantidad de operaciones efectuadas y comparar con las que se requieren al
resolver el mismo sistema utilizando los comandos inv y ¸, que no est´an especialmente
pensados para matrices tridiagonales.
1. EJERCICIOS 33
(19) La n-´esima matriz de Hilbert H
n
∈ IR
n×n
, se define de la siguiente manera
(H
n
)
i,j
=
1
i +j −1
.
Estas matrices son un ejemplo de matrices mal condicionadas y por tal motivo se las
utiliza habitualmente para testear rutinas num´ericas.
(a) Demostrar que cond

(H
n
) ≥ n
2
.
(b) Utilizar su programa del ejercicio 10 para calcular la inversa de la matriz de Hilbert
H
9
. Verificar su resultado calculando los productos H
9
H
−1
9
y H
−1
9
H
9
. Comparar
con el resultado obtenido mediante el comando inv.
Nota: En realidad, cond

(H
n
) es mucho mayor que n
2
. Estas matrices pueden ob-
tenerse en Matlab mediante el comando hilb(n) y su condici´on infinito puede calcularse
con el comando cond.
(20) Considerar el sistema de ecuaciones lineales Ax = b, con
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 2 3 4 5 6 7 8 9 10
2 1 0 0 0 0 0 0 0 0
3 0 1 0 0 0 0 0 0 0
4 0 0 1 0 0 0 0 0 0
5 0 0 0 1 0 0 0 0 0
6 0 0 0 0 1 0 0 0 0
7 0 0 0 0 0 1 0 0 0
8 0 0 0 0 0 0 1 0 0
9 0 0 0 0 0 0 0 1 0
10 0 0 0 0 0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Utilizando el comando lu de Matlab, verificar que la eliminaci´on gaussiana puede crear
elementos no nulos en lugares donde inicialmente hab´ıa ceros (es decir, se produce una
matriz densa a pesar de partir de una matriz rala). En muchas aplicaciones, uno debe
resolver un sistema de ecuaciones lineales del orden de 10
4
10
4
donde hay a lo sumo
5 elementos no nulos por fila. Es decir, hay a lo sumo 5 10
4
elementos no nulos en la
matriz, cifra bastante inferior a la cantidad total de elementos. Calcular qu´e cantidad
de bytes (2 bytes por elemento) ocupar´ıa una matriz densa de esas dimensiones. Este
tipo de situaci´on motiva el estudio de m´etodos de resoluci´on de sistemas con matrices
ralas que no involucren un llenado excesivo.
(21) Utilizar el Teorema de Cholesky para demostrar que las siguientes propiedades de una
matriz son equivalentes:
• A es sim´etrica y definida positiva
• hay un conjunto de vectores linealmente independientes x
1
, x
2
, , x
n
de IR
n
, tales
que a
ij
= (x
i
)
t
x
j
.
(22) Considerar la matriz
_
_
4 2 −2
2 5 5
−2 5 11
_
_
.
Mostrar que es definida positiva y calcular su descomposici´on de Cholesky.
(23) Estimar cu´antas operaciones se requieren para hallar la descomposici´on de Cholesky de
una matriz sim´etrica y definida positiva A ∈ IR
n×n
.
CAP´ıTULO 3
Resoluci´on de sistemas lineales.
El objetivo de este cap´ıtulo es estudiar diferentes formas de resolver un sistema lineal de n
ecuaciones con n inc´ognitas. Para dar soiluci´on a este problema se pueden emplear dos grandes
subclases de m´etodos; los directos y los iterados. Dentro de los m´etodos de c´alculo directo se en-
cuentran el de triangulaci´on de Gauss, el de descomposici´on LU y el m´etodo de Cholesky. Entre
los m´etodos iterativos m´as usuales encontramos el de Jacobi, Gauss-Seidel y el de relajaci´on.
1. M´etodos directos
1.1. Triangulaci´on de Gauss y descomposici´on LU. El proceso de triangulaci´on de
Gauss puede verse como el resultado que se obtiene de multiplicar por matrices de la siguiente
forma,
Primer paso: Multiplicar por
L
1
=
_
_
_
_
_
1 0 0
m
21
1 0
.
.
.
.
.
.
.
.
.
m
N1
0 1
_
_
_
_
_
con
m
i1
= −
a
i1
a
11
Entonces L
1
A tendr´a la forma
L
1
A =
_
_
_
_
_
a
11
a
12
a
1N
0 a
1
22
a
1
2N
.
.
.
.
.
.
.
.
.
0 a
1
N2
a
1
NN
_
_
_
_
_
Segundo paso: Multiplicar por
36 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
L
2
=
_
_
_
_
_
_
_
1 0 0
0 1 0
0 m
32
0
.
.
.
.
.
.
.
.
.
0 m
N2
1
_
_
_
_
_
_
_
y nos queda
L
2
L
1
A =
_
_
_
_
_
a
11
a
12
a
1N
0 a
2
22
a
2
2N
.
.
.
.
.
.
.
.
.
0 0 a
2
NN
_
_
_
_
_
As´ı sucesivamente hasta llegar a una matriz triangular suprior
L
N−1
L
N−2
L
2
L
1
A = U =
_
_
_
_
_
u
11
u
12
u
1N
0 u
22
u
2N
.
.
.
.
.
.
.
.
.
0 0 u
NN
_
_
_
_
_
.
Es f´acil ver que la inversa de L
1
viene dada por
(L
1
)
−1
=
_
_
_
_
_
1 0 0
−m
21
1 0
.
.
.
.
.
.
.
.
.
−m
N1
0 1
_
_
_
_
_
y, en general, L
−1
j
es como L
j
pero cambiando los signos de los m
ji
.
Entonces podemos escribir A como sigue,
A = L
−1
1
L
−1
2
L
−1
N−1
U,
adem´as, observemos que la matriz L = L
−1
1
L
−1
2
L
−1
N−1
es de la forma
L = L
−1
1
L
−1
2
L
−1
N−1
=
_
_
_
_
_
1 0 0
−m
21
1 0
.
.
.
.
.
.
.
.
.
−m
N1
−m
N2
1
_
_
_
_
_
As´ı hemos demostrado el siguiente teorema,
1. M
´
ETODOS DIRECTOS 37
Teorema 3.1. Si no hace falta intercambiar filas en la eliminaci´on de Gauss se obtiene
A = LU
donde U es triangular superior y L es triangular inferior con 1 en la diagonal.
Adem´as tenemos el siguiente corolario.
Corolario 3.2.
det(A) = det(U).
En el caso general, si hace falta cambiar filas, se tiene
PA = LU
con P una matriz de permutaciones.
1.2. Descomposici´on de Cholesky. En el caso en que A ∈ IR
N×N
es definida positiva y
sim´etrica una descomposici´on L−U (con U = L
T
) puede obtenerse m´as eficientemente mediante
el m´etodo de Cholesky.
Definici´ on 3.3. A ∈ IR
N×N
se dice definida positiva si
¸x, Ax) > 0 ∀x ,= 0
Observemos que si A = LL
T
con L una matriz inversible, entonces
(1) A es sim´etrica.
(2) A es definida positiva pues ¸x, Ax) = |L
T
x|
2
2
> 0, ∀x ,= 0.
En consecuencia, para que A pueda escribirse como LL
T
con L inversible es necesario que A sea
sim´etrica y definida positiva.
Ahora, para lograr una descomposici´on de la forma LL
T
, analicemos primero el caso simple,
A ∈ IR
3×3
. Planteamos A = LL
T
y nos queda
A =
_
_
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
_
_
_
_
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
_
_
Entonces, despejando los coeficientes, se obtiene
a
11
= l
2
11
l
11
=

a
11
a
12
= l
11
l
21
l
21
=
a
12
l
11
etc.
38 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Ahora veamos algunas propiedades que nos ser´an muy ´ utiles. En el caso general en que A ∈
IR
N×N
sea sim´etrica (i.e. A = A
T
) y definida positiva se tienen las siguientes propiedades,
(1) a
ii
> 0 para cualquier i = 1, ..., N, pues
0 < ¸e
i
, Ae
i
) = a
ii
(2) Los menores principales s
j
son positivos (esto fue demostrado en algebra lineal).
Ahora observamos que lo que hicimos en 3 3 se puede hacer en N N, es decir,
A = LL
T
si y solo si
a
ik
=
k

j=1
l
ij
l
kj
.
Es decir,
a
ik
=
k−1

j=1
l
ij
l
kj
+l
ik
l
kk
.
Entonces, despejando,
l
ik
=
_
a
ik

k−1
j=1
l
ij
l
kj
_
l
kk
i > k.
Adem´as
a
kk
=
k

j=1
l
2
kj
=
k−1

j=1
l
2
kj
+l
2
kk
y entonces
l
kk
=
¸
¸
¸
¸
_
_
_
a
kk

k−1

j=1
l
2
kj
_
_
Obtenemos, de esta manera, una forma recursiva para el c´alculo de los elementos l
ij
.
1. M
´
ETODOS DIRECTOS 39
Para k = 1, 2, ...., N hacemos
_
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
_
l
11
→ l
21
l
N1
l
22
→ l
32
l
N2
.
.
.
.
.
.
l
N−1N−1
→ l
NN−1
l
NN
Para que el algoritmo de Cholesky est´e bien definido necesitamos ver que el argumento de la
ra´ız cuadrada involucrada en el c´alculo de l
kk
sea positivo; es decir,
a
kk

k−1

j=1
l
2
kj
> 0.
Veamos que ´esto es una consecuencia de ser A definida positiva. Argumentemos por inducci´on.
El a
11
es positivo, entonces existe l
11
positivo tal que l
2
11
= a
11
. Supongamos que llegamos hasta
el paso k, es decir
l
11
, l
22
, . . . , l
k−1k−1
son todos n´ umeros reales positivos y supongamos que
a
kk

k−1

j=1
l
2
kj
≤ 0.
Entonces
l
kk
=
¸
¸
¸
¸
_
_
_
a
kk

k−1

j=1
l
2
kj
_
_
= 0 ´o es un n´ umero en C.
Pero si llamamos A
k
al menor principal de A y L
k
al menor principal de L, las matrices que se
obtienen son de tama˜ no k k
A
k
=
_
_
_
a
11
a
1k
.
.
.
.
.
.
.
.
.
a
k1
a
kk
_
_
_ y L
k
=
_
_
_
l
11
l
1k
.
.
.
.
.
.
.
.
.
l
k1
l
kk
_
_
_
y resulta f´acil ver que
A
k
= L
k
L
T
k
.
Entonces
0 < det(A
k
) = (det(L
k
))
2
= l
2
11
l
2
k−1k−1
l
2
kk
;
40 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
como los primeros factores son positivos el ´ ultimo, l
2
kk
debe tambi´en ser positivo, absurdo.
Para terminar, hagamos las siguientes observaciones, el algoritmo de Cholesky es m´as conve-
niente que el de Gauss (L −U) porque,
(1) El n´ umero de operaciones es O(N
3
/6) (en lugar de O(N
3
/3)).
(2) Es estable, sin necesidad de “pivoteo”. Los l
ij
no crecen respecto de A pues
a
kk
=
k

j=1
l
2
kj
implica que
[l
kj
[ ≤

a
kk
2. M´etodos iterativos
Estos m´etodos convienen en general para matrices ralas (i.e. con muchos ceros). Este tipo de
matrices aparecen, por ejemplo, cuando se discretizan ecuaciones diferenciales.
Como antes el objetivo es resolver
Ax = b
con A una matriz inversible.
Los m´etodos iterativos generan una sucesi´on
x
0
→ x
1
→ x
2

donde x
k+1
se calcula a partir de x
k
.
2.1. M´etodo de Jacobi. Empecemos con un ejemplo para ver como funciona el m´etodo
de Jacobi,
_
4x
1
+x
2
= 5
x
1
+ 4x
2
= 5
La soluci´on es
x =
_
1
1
_
y llamaremos
b =
_
5
5
_
El m´etodo de Jacobi calcula x
k+1
a partir de x
k
de la siguiente forma
2. M
´
ETODOS ITERATIVOS 41
_
4x
k+1
1
= 5 −x
k
2
4x
k+1
2
= 5 −x
k
1
Es decir
x
k+1
=
_
0 −
1
4

1
4
0
_
x
k
+
b
4
.
Entonces si empezamos con x
0
= (0, 0), tenemos
x
0
=
_
_
0
0
_
_
→ x
1
=
_
_
5
4
5
4
_
_
→ x
2
=
_
_
15
16
15
16
_
_

Convergencia y estimaci´on del error
En forma matricial la iteraci´on de Jacobi se escribe como
x
k+1
= Bx
k
+c.
Por otro lado la soluci´on exacta, x, cumple que
x = Bx +c,
entonces el error e
k
= x
k
−x verifica
e
k+1
= Be
k
y entonces, iterando esta ´ ultima igualdad,
e
k
= B
k
e
0
.
En nuestro ejemplo observamos que
|B|

=
1
4
y entonces
|B
k
|

≤ |B|
k

≤ (
1
4
)
k
→ 0 k → ∞.
De ´esto conclu´ımos que
|e
k
|


_
1
4
_
k
|e
0
|

→ 0
es decir la iteraci´on converge cualquiera sea el dato inicial x
0
.
Por supuesto, esto no es cierto en general. La convergencia depende de como sea la matriz B.
Si |B| < 1 para alguna norma asociada a una norma de vectores entonces el m´etodo converger´a
cualquiera sea la condici´on inicial y si no no.
En el caso general, A ∈ IR
N×N
supongamos a
ii
,= 0, ∀i (si A es inversible esto se puede obtener
reordenando). Despejamos x
i
de la i−´esima ecuaci´on, para i = 1, ..., N tenemos
x
k+1
i
=
_
b
i

i−1
j=1
a
ij
x
k
j

N
j=i+1
a
ij
x
k
j
_
a
ii
42 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Resulta natural utilizar las componentes ya calculadas x
k+1
1
, . . . , x
k+1
i−1
para calcular la nueva
aproximaci´on x
k+1
i
, resultando el m´etodo de Gauss-Seidel.
2.2. M´etodo de Gauss-Seidel. Para i = 1, . . . , N;
x
k+1
i
=
_
b
i

i−1
j=1
a
ij
x
k+1
j

N
j=i+1
a
ij
x
k
j
_
a
ii
Escritura matricial de la iteraci´on Escribimos
A = D +L +U
A =
_
_
_
a
11
0
.
.
.
0 a
NN
_
_
_+
_
_
_
0 a
1N
.
.
.
.
.
.
.
.
.
0 0
_
_
_+
_
_
_
0 0
.
.
.
.
.
.
.
.
.
a
N1
0
_
_
_
Entonces
Ax = b
si y solo si
Dx = −(L +U)x +b
Tanto el m´etodo de Jacobi como el de Gauss-Seidel pueden escribirse en la forma
x
k+1
= Bx
k
+c.
(1) Jacobi
x
k+1
= −D
−1
(L +U)x
k
+D
−1
b
(2) Gauss-Seidel
x
k+1
= −(D +L)
−1
Ux
k
+ (D +L)
−1
b
Si escribimos e
k
= x
k
−x y usamos que la soluci´on exacta x cumple
x = −D
−1
(L +U)x +D
−1
b
y
x = −(D +L)
−1
Ux + (D +L)
−1
b
respectivamente, tenemos
e
k+1
= −D
−1
(L +U)e
k
= B
J
e
k
e
k+1
= −(D +L)
−1
Ue
k
= B
GS
e
k
En general, si la iteraci´on est´a dada por una matriz B, o sea,
e
k+1
= Be
k
tenemos
e
k
= B
k
e
0
2. M
´
ETODOS ITERATIVOS 43
Entonces si queremos que e
k
→ 0 para todo dato inicial, es necesario que B
k
→ 0. El siguiente
objetivo es dar una caracterizaci´on de las matrices con esta propiedad.
En el ejemplo dedujimos que B
k
→ 0 del hecho de que |B| < 1. Sin embargo |B|

podr´ıa ser
grande y B
k
→ 0. Por ejemplo
B =
_
1
2
1000
0
1
2
_
Observemos que |B|

= 1000.5. Sin embargo B
k
→ 0. En efecto B =
1
2
_
1 2000
0 1
_
.
En general las matrices de la forma C =
_
1 a
0 1
_
verifican que C
k
=
_
1 ka
0 1
_
Entonces
B
k
= (
1
2
)
k
_
1 k2000
0 1
_
y se tiene que (B
k
)
ij
→ 0, ∀i, j y esto implica que B
k
→ 0.
Vale destacar que para que B
k
→ 0 basta que exista alguna norma tal que |B| < 1.
El segundo ejemplo trata el caso en que A es sim´etrica. En este caso se puede diagonalizar, es
decir, existe S tal que
SAS
−1
=
_
_
_
λ
1
0
.
.
.
0 λ
N
_
_
_
con λ
i
los autovalores de A. En este caso
A
k
= S
−1
_
_
_
λ
k
1
0
.
.
.
0 λ
k
N
_
_
_S
y se tiene que
A
k
→ 0
si y solo si
max
i

i
[ = ρ(A) < 1
Esto es cierto en general, pero si A no es diagonalizable es m´as dif´ıcil de probar.
En el caso en que A es sim´etrica se tiene
ρ(A) = |A|
2
entonces, si ρ(A) < 1 se tiene que |A|
2
< 1 y entonces A
k
→ 0.
En general vale que,
ρ(A) ≤ |A| para cualquier norma
44 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
y aunque ρ(A) no es una norma, se tiene
Teorema 3.4.
ρ(A) = inf

|A|
O sea ∀ε > 0 existe una norma tal que
ρ(A) ≤ |A| ≤ ρ(A) +ε.
Demostraci´ on. Primero veamos que
ρ(A) ≤ |A|.
Observamos que |A| en IR es igual a |A| en C (ejercicio).
Sea x tal que
Ax = λ
max
x x ,= 0
entonces

max
[|x| = |Ax| ≤ |A||x|
y as´ı

max
[ = ρ(A) ≤ |A|
Ahora veamos que dado ε > 0 existe una norma con
|A| ≤ ρ(A) +ε.
Queremos definir |x|, para x ∈ IR
N
. Recordemos la forma de Jordan de una matriz. En alguna
base ¦v
i
¦, una matriz B se transforma en
_
_
_
J
1
0
.
.
.
0 J
r
_
_
_
donde los J
i
son los ”bloques de Jordan”,
J
i
=
_
_
_
_
_
λ
i
1 0
0 λ
i
0
.
.
.
0 0 λ
i
_
_
_
_
_
Esta es la forma normal usual. Sin embargo, puede obtenerse una nueva base en la cual la
transformaci´on lineal toma la forma an´aloga pero con los
˜
J
i
=
_
_
_
_
_
λ
i
ε 0
0 λ
i
0
.
.
.
0 0 λ
i
_
_
_
_
_
2. M
´
ETODOS ITERATIVOS 45
donde ε es positivo y arbitrario. Esto se logra re-escalando la base. Miremos, por ejemplo, el
bloque 1,
J
1
=
_
_
_
_
_
λ
1
1 0
0 λ
1
0
.
.
.
0 0 λ
1
_
_
_
_
_
en la base v
1
, ..., v
m
. Si T es la transformaci´on lineal asociada a B tenemos
Tv
1
= λ
1
v
1
Tv
2
= v
1

1
v
2
Tv
3
= v
2

1
v
3
.
.
.
Tv
m
= v
m−1

1
v
m
Ahora definamos ˜ v
1
= v
1
, ˜ v
2
= εv
2
, ˜ v
3
= ε
2
v
3
,......, ˜ v
m
= ε
m−1
v
m
. Tenemos entonces
T ˜ v
1
= λ
1
˜ v
1
T ˜ v
2
= ε˜ v
1

1
˜ v
2
T ˜ v
3
= ε˜ v
2

1
˜ v
3
.
.
.
T ˜ v
m
= ε˜ v
m−1

1
˜ v
m
Por lo tanto en la base ˜ v
1
, ....., ˜ v
m
queda el bloque
˜
J
1
=
_
_
_
_
_
λ
1
ε 0
0 λ
1
0
.
.
.
0 0 λ
1
_
_
_
_
_
Hecho esto, definamos la norma de la siguiente manera, dado x lo escribimos en la base ˜ v
i
,
x =

α
i
˜ v
i
y definimos
|x| = max [α
i
[
es decir la norma | |

en esa base.
Entonces, es f´acil ver que,
|A| = ρ(A) +ε
pues |A| es el m´aximo de

j
[a
ij
[ si |A| es la norma asociada a |x|.
Corolario 3.5.
B
k
→ 0 si y solo si ρ(B) < 1.
46 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Demostraci´ on. Veamos primero la vuelta. Si ρ(B) < 1 por el teorema anterior existe una norma
tal que |B| < 1, entonces
|B
k
| ≤ |B|
k
→ 0
. Ahora para la ida, supongamos que ρ(B) ≥ 1, entonces existe z ∈ C
N
, z ,= 0, tal que
Bz = λ
max
z
y entonces
B
k
z = λ
k
max
z
Esto implica que
|B
k
z| = ρ(B)
k
|z|
no tiende a cero.
Tomando parte real e imaginaria se ve que hay alg´ un x ∈ IR
N
tal que B
k
x no tiende a cero.
Ahora veamos otra forma de probar estos resultados.
Teorema 3.6.
B
k
→ 0 si y solo si ρ(B) < 1
Demostraci´ on. B es semejante a una matriz triangular (forma de Jordan), o sea, existe una
matriz C tal que
CBC
−1
= J
con J la forma de Jordan de B.
Ahora dado ε > 0 multiplicamos por la matriz diagonal
D =
_
_
_
_
_
ε
−1
0 0
0 ε
−2
0
.
.
.
0 0 ε
−N
_
_
_
_
_
y su inversa para obtener
DJD
−1
=
_
_
_
_
_
ε
−1
0 0
0 ε
−2
0
.
.
.
0 0 ε
−N
_
_
_
_
_
J
_
_
_
_
_
ε 0 0
0 ε
2
0
.
.
.
0 0 ε
N
_
_
_
_
_
=
_
_
_
_
_
λ
1
ε 0
0 λ
2
0
.
.
.
0 0 λ
k
_
_
_
_
_
En general la matriz J = (α
ij
) tiene coeficientes no nulos solo en la diagonal y en los lugares
(i, i + 1). Y al multiplicar por D y D
−1
quedan ε y 0 en lugar de 1 y 0 en la forma de Jordan.
2. M
´
ETODOS ITERATIVOS 47
En conclusi´on, queda
DCBC
−1
D
−1
=
_
_
_
_
_
λ
1
ε 0
0 λ
2
0
.
.
.
0 0 λ
k
_
_
_
_
_
= A
Para simplificar llamemos S = DC y nos queda
SBS
−1
= A
Ahora observamos que
|A|

= ρ(B) +ε
pues
|A|

= max
j

[a
ij
[
Pero,
B
k
= S
−1
A
k
S
Entonces,
|B
k
|

≤ |S
−1
|

|A
k
|

|S|

= Cond(S)|A
k
|


≤ Cond(S)|A|
k

≤ Cond(S)(ρ(B) +ε)
k
→ 0
si ε es tal que ρ(B) +ε < 1.
Observemos que Cond(S) ∼
1
ε
N−1
.
Corolario 3.7.
|B
k
|
1/k
→ ρ(B)
Demostraci´on. Basta probarlo para la norma | |

pues todas las normas son equivalentes. Ya
vimos que ∀ε,
|B
k
|

≤ Cond(S)(ρ(B) +ε)
k

C
ε
N−1
(ρ(B) +ε)
k
Por otro lado se ve f´acil que
ρ(B)
k
≤ ρ(B
k
) ≤ |B
k
|

Entonces
ρ(B)
k
≤ |B
k
|


C
ε
N−1
(ρ(B) +ε)
k
.
Luego,
ρ(B) ≤ |B
k
|
1/k

≤ (
C
ε
N−1
)
1/k
(ρ(B) +ε) → (ρ(B) +ε)
O sea, ∀ε existe k a partir del cual
ρ(B) ≤ |B
k
|
1/k

≤ (ρ(B) + 2ε)
es decir
|B
k
|
1/k

→ ρ(B)
48 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Ahora observemos lo siguiente, para B sim´etrica ya sab´ıamos que |B
k
| = ρ(B)
k
. En general esto
no es cierto pero, para k grande vale que |B
k
| ∼ ρ(B)
k
. Esto da una manera de comparar dos
m´etodos iterativos (por ejemplo Jacobi y Gauss-Seidel). Supongamos que el m´etodo i (i = 1, 2)
tiene la matriz de iteraci´on B
i
. Si
ρ(B
1
) < ρ(B
2
)
entonces
|B
k
1
| < |B
k
2
|
para k grande. O sea el m´etodo 1 es mejor asint´oticamente (aunque para un n´ umero dado de
iteraciones podr´ıa ser mejor el 2).
2.3. An´alisis de los m´etodos de Jacobi y Gauss-Seidel.
Definici´ on 3.8. Una matriz A ∈ IR
N×N
es estrictamente diagonal dominante si
[a
ii
[ >

i=j
[a
ij
[ ∀i
Si A es estrictamente diagonal dominante entonces tanto Jacobi como Gauss-Seidel convergen.
Teorema 3.9. Si A es estrictamente diagonal dominante el m´etodo de Jacobi converge.
Demostraci´ on. Recordemos que
A = D +L +U B
J
= −D
−1
(L +U)
En este caso es f´acil ver que
|B
J
|

< 1
En efecto, B
J
= (b
ij
) con
b
ij
=
a
ij
a
ii
i ,= j b
ii
= 0
entonces
|B
J
|

= max
i

i=j
[a
ij
[
[a
ii
[
< 1
pues A es estrictamente diagonal dominante.
Teorema 3.10. Si A es estrictamente diagonal dominante el m´etodo de Gauss-Seidel converge.
Demostraci´ on. Como antes recordemos que
A = D +L +U B
GS
= −(L +D)
−1
U.
Hay que ver que ρ(B) < 1. Sea λ un autovalor de B y x un autovector con |x|

= 1. Entonces
tenemos,
−(L +D)
−1
Ux = λx
2. M
´
ETODOS ITERATIVOS 49
y esto es equivalente a
−Ux = λ(L +D)x

N

j=i+1
a
ij
x
j
= λ
i

j=1
a
ij
x
j
.
O bien,
λa
ii
x
i
= −λ
i

j=1
a
ij
x
j

N

j=i+1
a
ij
x
j
Sea i tal que |x|

= [x
i
[ ≥ [x
j
[, entonces
[λ[[a
ii
[ ≤ [λ[
i−1

j=1
[a
ij
[ +
N

j=i+1
[a
ij
[.
De esta forma obtuvimos
[λ[ ≤

N
j=i+1
[a
ij
[
[a
ii
[ −

i−1
j=1
[a
ij
[
< 1
pues A es estrictamente diagonal dominante.
2.4. Matrices sim´etricas definidas positivas. Un caso importante es el de A sim´etrica
y definida positiva. En este caso veremos,
(1) Jacobi no es necesariamente convergente.
(2) Gauss-Seidel es convergente.
Empecemos con un ejemplo. Sea a tal que 0 < a < 1 y tomemos
A =
_
_
1 a a
a 1 a
a a 1
_
_
Esta matriz A es sim´etrica y definida positiva. Para ver que es definida positiva hay que ver
que los menores principales son positivos.
A
1
= (1)
A
2
=
_
1 a
a 1
_
det(A) = 1 −a
2
> 0
y adem´as
det(A) = 1 + 2a
3
−3a
2
= (a −1)
2
(a +
1
2
) > 0 si a > −
1
2
Analicemos el m´etodo de Jacobi en este caso,
B
J
= −D
−1
(L +U) =
_
_
0 −a −a
−a 0 −a
−a −a 0
_
_
.
50 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Calculemos los autovalores de B, el polinomio caracter´ıstico es
p(λ) = det
_
_
λ a a
a λ a
a a λ
_
_
= λ
3
+ 2a
3
−3a
2
λ.
Observemos que p(a) = 0 entonces λ
1
= a y como p

(a) = 0, λ
1
= a es una raiz doble de p.
Dividiendo p por (λ −a)
2
se obtiene que la tercer raiz es λ
3
= −2a. Entonces si
1 > a ≥
1
2
se tiene que
ρ(B) = 2a ≥ 1
y con esto no se puede asegurar que el m´etodo de Jacobi converja para cualquier dato inicial.
Conclusi´ on: A sim´etrica definida positiva no implica que el m´etodo de Jacobi sea necesaria-
mente convergente.
Observaci´ on 3.11. Tomando
A =
_
_
_
_
_
_
1
1
2
1
2
1
2
1
1
2
1
2
1
2
1
_
_
_
_
_
_
tenemos que ρ(B
J
) = 1, con lo cual Jacobi no converge. Entonces la condici´on estricta es
necesaria en el teorema que muestra la convergencia para A estrictamente diagonal dominante.
Observaci´ on 3.12.
A = D +L +L
T
Puede demostrarse que si D −(L +L
T
) es definida positiva, entonces
ρ(B
J
) < 1
si y s´olo si A es definida positiva . En particular, si
A = D +L +L
T
y
˜
A = D −(L +L
T
)
son definidas positivas, se tiene que
ρ(B
J
) < 1
o sea Jacobi converge para A y para
˜
A (la matriz
˜
B
J
= −B
J
, s´olo cambia de signo). Para una
demostraci´on de este hecho ver Isaacson-Keller (pag 72).
Ejemplo 3.13. Para la matriz
A =
_
_
1 a a
a 1 a
a a 1
_
_
con
1
2
≤ a < 1 se tiene
˜
A =
_
_
1 −a −a
−a 1 −a
−a −a 1
_
_
.
2. M
´
ETODOS ITERATIVOS 51
Y resulta que
˜
A no es definida positiva.
Ahora analicemos que pasa con el m´etodo de Gauss-Seidel en este mismo ejemplo.
A =
_
_
1 a a
a 1 a
a a 1
_
_
y entonces
L +D =
_
_
1 0 0
a 1 0
a a 1
_
_
y U =
_
_
0 a a
0 0 a
0 0 0
_
_
.
Calculando obtenemos
(L +D)
−1
=
_
_
1 0 0
−a 1 0
a
2
−a −a 1
_
_
.
Entonces B = B
GS
= −(L +D)
−1
U es
B =
_
_
0 −a −a
0 a
2
a
2
−a
0 a
2
−a
3
2a
2
−a
3
_
_
.
Veamos los autovalores de B,
λI −B =
_
_
λ a a
0 λ −a
2
a −a
2
0 −a
2
+a
3
λ −2a
2
+a
3
_
_
.
Tenemos λ
1
= 0. Para simplificar, ahora consideremos el caso particular a =
1
2
, para este valor
de a se obtiene
B =
_
_
0 −
1
2

1
2
0
1
4

1
4
0
1
8
3
8
_
_
.
Y entonces,
8B =
_
_
0 −4 −4
0 2 −2
0 1 3
_
_
y λI −8B =
_
_
λ 4 4
0 λ −2 2
0 −1 λ −3
_
_
.
Con lo cual,
det(λI −8B) = λ((λ −2)(λ −3) + 2).
Las ra´ıces de (λ −2)(λ −3) + 2 son
λ
2
=
5 +

−7
2
λ
3
=
5 −

−7
2
Como ´estos son los autovalores de 8B los autovalores de B son
λ
1
= 0 λ
2
=
5 +

−7
16
λ
2
=
5 −

−7
16
.
52 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Observemos que

2
[ = [λ
3
[ =

32
16
=

2
4
< 1.
Entonces el m´etodo de Gauss-Seidel converge.
M´as adelante veremos que si A es sim´etrica y definida positiva entonces Gauss-Seigel converge.
En particular este ejemplo nos da un caso donde el m´etodo de Gauss-Seigel converge pero Jacobi
no, o sea ρ(B
GS
) < 1 y ρ(B
J
) ≥ 1.
Ahora veremos un ejemplo “al rev´es´´, es decir donde Jacobi converge pero Gauss-Seigel no.
Ejemplo 3.14. (Collatz 1942, ver Varga, pag 74). Sea
A =
_
_
1 2 −2
1 1 1
2 2 1
_
_
.
Para el m´etodo de Jacobi nos queda
B
J
=
_
_
0 −2 2
−1 0 −1
−2 −2 0
_
_
λI −B
J
=
_
_
λ 2 −2
1 λ 1
2 2 λ
_
_
entonces
p(λ) = λ
3
y los autovalores resultan ser
λ
1
= λ
2
= λ
3
= 0
Entonces B
J
es nilpotente, ρ(B
J
) = 0 y el m´etodo converge en tres pasos.
e
3
= B
3
J
e
0
= 0
Ahora analicemos el m´etodo de Gauss-Seidel para este ejemplo.
L +D =
_
_
1 0 0
1 1 0
2 2 1
_
_
; −U =
_
_
0 −2 2
0 0 −1
0 0 0
_
_
y (L +D)
−1
=
_
_
1 0 0
−1 1 0
0 −2 1
_
_
En consecuencia,
B
GS
= −(L +D)
−1
U =
_
_
0 −2 2
0 2 −3
0 0 2
_
_
y
λI −B
GS
=
_
_
λ 2 −2
0 λ −2 3
0 0 λ −2
_
_
Los autovalores resultan ser
λ
1
= 0 λ
2
= 2 λ
3
= 2
2. M
´
ETODOS ITERATIVOS 53
entonces ρ(B
GS
) = 2 y el m´etodo de Gauss-Seidel no converge.
Conclu´ımos que en este ejemplo el m´etodo de Jacobi converge en tres pasos pero Gauss-Seidel
no converge (existen datos iniciales para los cuales no converge).
Modificando trivialmente este ejemplo puede obtenerse un ejemplo en que ambos m´etodos con-
vergen y se tiene ρ(B
J
) < ρ(B
GS
) < 1. Sea
A =
_
_
5 2 −2
1 5 1
2 2 5
_
_
que es estrictamente diagonal dominante y entonces Jacobi y Gauss-Seidel ambos convergen.
Veamos un ejemplo m´as.
Ejemplo 3.15. Este es un ejemplo para el cual ninguno de los dos m´etodos converge.
A =
_
_
2 1 −1
−2 2 −2
1 1 2
_
_
.
Aplicando Jacobi resulta
B
J
=
_
_
0 −
1
2
1
2
1 0 1

1
2

1
2
0
_
_
λI −B
J
=
_
_
λ
1
2

1
2
−1 λ −1
1
2
1
2
λ
_
_
con lo cual,
p(λ) = λ
3
+
5
4
λ
y los autovalores de B
J
resultan
λ
1
= 0 λ
2
= i

5
2
λ
3
= −i

5
2
.
Entonces,
ρ(B
J
) =

5
2
> 1
y en consecuencia Jacobi no converge.
Para Gauss-Seidel se tiene
L +D =
_
_
2 0 0
−2 2 0
1 1 2
_
_
; (L +D)
−1
=
_
_
_
_
_
_
1
2
0 0
1
2
1
2
0

1
2

1
4
1
2
_
_
_
_
_
_
y
54 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
−(L +D)
−1
U =
1
4
_
_
0 −2 2
0 −2 6
0 2 −4
_
_
de donde p(λ) = λ
3
+
5
4
λ
2

1
4
λ y calculando las ra´ıces de p(λ) obtenemos con aproximaci´on los
autovalores λ
1
= 0, λ
2
= 0.1514 y λ
3
= −1.6514 y por tanto
ρ(B
GS
) = [λ
3
[ > 1
y entonces el m´etodo de Gauss-Seigel no converge.
Ejemplo 3.16. Caso IR
2
En este caso es f´acil analizar el m´etodo de Jacobi y el de Gauss-Seidel.
A =
_
a
11
a
12
a
21
a
22
_
entonces
B
J
= −D
−1
(L +U) =
_
0 −
a
12
a
11

a
21
a
22
0
_
y
B
GS
= −(D +L)
−1
U =
_
0 −
a
12
a
11
0
a
12
a
21
a
11
a
22
_
.
Entonces,
ρ(B
J
) =
¸
[a
12
a
21
[
[a
11
a
22
[
ρ(B
GS
) =
[a
12
a
21
[
[a
11
a
22
[
.
Es decir,
ρ(B
GS
) = ρ(B
J
)
2
.
Como conclusi´on en IR
2
Jacobi converge si y solo si Gauss-Seidel converge. Y si convergen (o
sea ρ < 1) es mejor asint´oticamente Gauss-Seidel, pues en este caso ρ(B
GS
) < ρ(B
J
).
Por ejemplo, si A es estrictamente diagonal dominante, entonces convergen los dos m´etodos. Y
esto en IR
2
es decir [a
12
[ < [a
11
[ y [a
21
[ < [a
22
[.
Si A es sim´etrica y definida positiva entonces convergen ambos m´etodos en IR
2
, pues
a
11
> 0 a
12
= a
21
det A = a
11
a
22
−a
2
12
> 0
entonces
a
11
a
22
> a
2
12
a
2
12
a
11
a
22
= ρ(B
GS
) = ρ(B
J
)
2
< 1.
El ejemplo anterior se generaliza para el m´etodo de Gauss-Seidel en IR
N
pero no para el m´etodo
de Jacobi.
Veamos ahora el ´ ultimo ejemplo de esta serie.
2. M
´
ETODOS ITERATIVOS 55
Ejemplo 3.17. Sea A ∈ IR
3
una matriz tridiagonal entonces,
ρ(B
GS
) = ρ(B
J
)
2
Si ponemos A =
_
_
a
11
a
12
0
a
21
a
22
a
23
0 a
32
a
33
_
_
entonces B
J
= −D
−1
(L + U) =
_
_
0 −
a
12
a
11
0

a
21
a
22
0 −
a
23
a
22
0 −
a
32
a
33
0
_
_
y
det(λI −B
J
) = λ
3
−λ
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Y entonces
ρ(B
J
) =
¸
¸
¸
¸
¸
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
¸
¸
¸
¸
.
Para el m´etodo de Gauss-Seidel se tiene
L +D =
_
_
a
11
0 0
a
21
a
22
0
0 a
32
a
33
_
_
y U =
_
_
0 a
12
0
0 0 a
23
0 0 0
_
_
.
Entonces
B
GS
= −(L +D)
−1
U =
_
_
_
_
_
_
0 −
a
12
a
11
0
0
a
12
a
21
a
11
a
22

a
23
a
22
0 −
a
12
a
21
a
32
a
11
a
22
a
33
a
23
a
32
a
22
a
33
_
_
_
_
_
_
det(λI −B
GS
) = λ
3
−λ
2
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Y los autovalores resultan ser
λ
1
= λ
2
= 0 λ
3
=
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Entonces,
ρ(B
GS
) =
¸
¸
¸
¸
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
¸
¸
¸
¸
= ρ(B
J
)
2
Los autovalores de Jacobi son los autovalores de B
J
= −D
−1
(L +U) y resultan ser las ra´ıces µ
de
det(µI +D
−1
(L +U)) = det(D
−1
(µD +L +U))
= det(D
−1
) det(µD +L +U)
y como por hip´otesis det(D
−1
) ,= 0 (asumimos a
ii
,= 0), µ son las ra´ıces de
det(µD +L +U).
56 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
An´alogamente, los autovalores λ de B
GS
= −(L +D)
−1
U son las ra´ıces de
det(µI + (L +D)
−1
U) = det((L +D)
−1
(µ(L +D) +U))
= det((L +D)
−1
) det(µ(L +D) +U)
y como det((L +D)
−1
) ,= 0, λ son las ra´ıces de
det(µ(L +D) +U).
Lema 3.18. Sea A ∈ IR
N×N
tridiagonal entonces, para todo α ,= 0 se tiene que
det(D +L +U) = det(D +αL +α
−1
U)
Demostraci´ on. Basta ver que las matrices A = D + L + U y D + αL + α
−1
U son semejantes.
Pongamos
A =
_
_
_
_
_
_
_
d
1
a
1
0 0
b
2
d
2
a
2
0
0 b
3
d
3
.
.
.
.
.
.
.
.
.
.
.
.
a
N−1
0 . . . b
N−1
d
N
_
_
_
_
_
_
_
y consideremos
C =
_
_
_
_
_
1 0 0
0 α 0
.
.
.
.
.
.
.
.
.
0 α
N−1
_
_
_
_
_
Entonces,
CAC
−1
=
_
_
_
_
_
_
_
d
1
α
−1
a
1
0 0
αb
2
d
2
α
−1
a
2
0
0 αb
3
d
3
.
.
.
.
.
.
.
.
.
.
.
.
α
−1
a
N−1
0 . . . αb
N−1
d
N
_
_
_
_
_
_
_
= D +αL +α
−1
U
Teorema 3.19. Sea A ∈ IR
N×N
una matriz tridiagonal y sean λ los autovalores no nulos de
B
GS
, µ los autovalores no nulos de B
J
, entonces λ y µ se relacionan de la siguiente manera
λ = µ
2
.
En particular,
ρ(B
GS
) = ρ(B
J
)
2
.
2. M
´
ETODOS ITERATIVOS 57
Demostraci´on. Los λ son autovalores de B
GS
y por lo anterior son ra´ıces de
det(λ(L +D) +U) = 0
pero λ(L +D) +U es tridiagonal y por el lema anterior
det(λD +αλL +α
−1
U) = 0
Si λ ,= 0 sea α tal que α
2
=
1
λ
. Entonces,
0 = α
−N
det(λαD +L +U)
y como los autovalores de B
J
son las ra´ıces µ de det(µD +L +U) = 0 resulta que
µ = λα
Pero como α
2 1
λ
se tiene que
µ
2
= λ.
Ahora observemos que en lo anterior, dado λ ,= 0 autovalor de B
GS
encontramos µ autovalor de
B
J
con µ
2
= λ, pero en realidad es un si y solo si. Es decir, dado µ autovalor de B
J
, λ = µ
2
resulta ser un autovalor de B
GS
,
det(µD +L +U) = 0
si y solo si
det(µ
2
D +µ(L +U)) = 0
si y solo si (por el lema previo)
det(µ
2
D +αµL +α
−1
µU) = 0
y tomando α = µ se tiene
det(µ
2
(D +L) +U)) = 0.
Entonces µ
2
es autovalor de B
GS
.
Convergencia del m´etodo de Gauss-Seidel para A ∈ IR
N×N
sim´etrica
Como los autovalores de A ∈ IR
N×N
pueden ser complejos, trabajaremos directamente con
A ∈ C
N×N
.
Recordemos algunas definiciones
Definici´ on 3.20. Si A ∈ C
N×N
de define A

= A
T
o sea A

es la matriz que en el lugar i, j
tiene al elemento a

ij
= a
ji
.
Definici´ on 3.21. A ∈ C
N×N
es Hermitiana si
A

= A.
58 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Observemos que si A ∈ IR
N×N
, A

= A
T
y Hermitiana significa sim´etrica.
Si z ∈ C
N
y A es Hermitiana entonces
z

Az ∈ IR.
En general para A cualquiera z

Az = z

A

z. Veamos esto,
z

Az =

ij
z
i
a
ij
z
j
y entonces
z

Az =

ij
z
i
a
ij
z
j
= z

A

z
Teorema 3.22. Sea A ∈ C
N×N
Hermitiana y definida positiva (o sea z

Az > 0 ∀z ,= 0),
entonces el m´etodo de Gauss-Seidel es convergente.
Demostraci´ on.
A = L +D +L

con
L =
_
_
_
_
_
0 0 0
a
21
0 0
.
.
.
.
.
.
a
N1
0
_
_
_
_
_
Hay que ver que ρ(B
GS
) < 1 donde B
GS
= −(L +D)
−1
L

.
Observemos que B
GS
puede escribirse como
B
GS
= I −(L +D)
−1
A
Sea λ ∈ C un autovalor de B
GS
y z ∈ C
N
, z ,= 0, un autovector correspondiente a λ, es decir
(I −(L +D)
−1
A)z = λz
o bien
(L +D)z −Az = λ(L +D)z
y esto es equivalente a
Az = (1 −λ)(L +D)z
Como Az ,= 0 se deduce que λ ,= 1. Multiplicando por z

se obtiene
1
1 −λ
=
z

(L +D)z
z

Az
tomando conjugado y recordando que z

Az ∈ IR y que D es real se tiene
1
1 −λ
=
z

(L +D)

z
z

Az
=
z

(L

+D)z
z

Az
.
Y sumando estas dos igualdades se obtiene
2Re(
1
1 −λ
) = 1 +
z

Dz
z

Az
> 1
2. M
´
ETODOS ITERATIVOS 59
pues z

Az > 0 y z

Dz > 0 (a
ii
> 0 si A es definida positiva).
Entonces si λ = α +iβ, tenemos
1
1 −λ
=
1
1 −α −iβ
1 −α +iβ
1 −α +iβ
=
1 −α +iβ
(1 −α)
2
+ (β)
2
.
Y de esta forma
Re(
1
1 −λ
) =
1 −α
(1 −α)
2
+ (β)
2
y por lo anterior
1 −α
(1 −α)
2
+ (β)
2
>
1
2
es decir
2(1 −α) > 1 −2α +α
2

2
y esto es equivalente a
1 > α
2

2
.
Hemos conseguido ver que
[λ[ < 1.
Se puede probar que si A ∈ C
N×N
es Hermitiana y con a
ii
> 0 entonces el m´etodo de Gauss-
Seigel converge si y solo si A es definida positiva (ver Isaacson-Keller pag. 71).
2.5. M´etodo SOR. La idea del m´etodo SOR (succesive overrrelaxation / sobre relajaci´on
sucesiva) es tomar un “promedio” entre el x
k
i
y el x
k+1
i
de Gauss-Seidel (promedio entre comillas
pues los pesos no son necesariamente menores o iguales que 1).
Dado ω un par´ametro se define
x
k+1
i
= (1 −ω)x
k
i

_
_
b
i

i−1

j=1
a
ij
x
k+1
j

N

j=i+1
a
ij
x
k
j
_
_
1
a
ii
En forma matricial escribimos como antes A = L +D +U queda
(D +ωL)x
k+1
= ((1 −ω)D −ωU)x
k
+ωb
entonces
x
k+1
= B
ω
x
k
+ (D +ωL)
−1
ωb
con
B
ω
= (D +ωL)
−1
((1 −ω)D −ωU)
Observemos que B
1
= B
GS
.
En principio, ω es arbitrario. Sin embargo el siguiente teorema nos dice que es necesario que
[ω − 1[ < 1 para que haya convergencia (o sea para que ρ(B
ω
) < 1). Si ω ∈ IR entonces hace
falta que 0 < ω < 2.
Teorema 3.23. (Kahan) Sea A ∈ C
N×N
, con a
ii
,= 0, entonces
ρ(B
ω
) ≥ [1 −ω[
60 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Demostraci´ on. Si L es triangular inferior con ceros en la diagonal entonces det(D
−1
) = det((D+
ωL)
−1
). En consecuencia,
det(B
ω
) = det((D +ωL)
−1
) det((1 −ω)D −ωU)
= det(D
−1
) det((1 −ω)D −ωU)
= det((1 −ω)I −ωD
−1
U)
= det((1 −ω)I) = (1 −ω)
N
Pero como det(B
ω
) =

i
λ
i
se tiene que
ρ(B
ω
) ≥ [1 −ω[
Si ω ∈ IR, una condici´on necesaria para que el m´etodo converja es que 0 < ω < 2. Esta condici´on
es tambi´en suficiente si A es sim´etrica definida positiva.
El problema consiste en encontrar el par´ametro ´optimo (o cercano al ´optimo) para acelerar la
convergencia. Para ciertas clases de matrices esto puede hacerse (ver libro Varga, Ortega o
Smith).
3. Ejercicios
(1) Escribir un programa que implemente el m´etodo de Jacobi y otro el de Gauss-Seidel
con las siguientes condiciones:
• que incluya una restricci´on al n´ umero de iteraciones
• que finalice si el m´etodo se estaciona
(2) Decidir para cada uno de los siguientes sistemas, si los m´etodos de Jacobi y de Gauss-
Seidel son convergentes (sugerencia: utilizar los comandos tril, diag y eig de Matlab).
En caso afirmativo usarlos para resolver el sistema. Si ambos m´etodos convergen,
determinar cu´al converge m´as r´apido. ¿Es la matriz del sistema diagonal dominante?
¿y sim´etrica y definida positiva?
(a)
_
_
3 1 1
2 6 1
1 1 4
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
5
9
6
_
_
, (b)
_
_
_
_
5 7 6 5
7 10 8 7
6 8 10 9
5 7 9 10
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
23
32
33
31
_
_
_
_
(3) Dar ejemplos donde converja el m´etodo de Jacobi y no lo haga el de Gauss-Seidel y
viceversa.
(4) Considerar el sistema Ax = b para A =
_
2 1
3 6
_
y b = (8, 21). Mostrar que el m´etodo
de Jacobi converge; hacer un programa que lo modele y a la vez grafique en el plano la
sucesi´on de aproximaciones obtenidas empezando en cada uno de lo siguientes valores
iniciales
(a) x
0
= (1, 4) (b) x
0
= (1, 0) (c) x
0
= (5, 2)
(5) Considerar el sistema
_
x −y = 0
x +y = 0
. Estudiar autovalores y autovectores de la matriz
de iteraci´on asociada al m´etodo de Gauss-Seidel, decidir si el m´etodo es convergente o
3. EJERCICIOS 61
no y, sin hacer c´alculos, predecir el comportamiento de las sucesiones que se obtienen
con los siguientes valores iniciales.
(a) x
0
= (2, 0) (b) x
0
= (−0.03, 0.03) (c) x
0
= (0, 1)
Decidir si en este caso el m´etodo de Jacobi resulta convergente.
(6) (a) Mostrar que toda matriz A ∈ IR
n×n
con det(A) > 1 tiene un autovalor λ, real o
complejo, con [λ[ > 1.
(b) Decidir si el m´etodo de Jacobi converge o no para un sistema dado por la matriz
A =
_
_
−1 1 2
4 −1 3
5 6 −1
_
_
.
(7) Sean A, B ∈ IR
3×3
las matrices
A =
_
_
a c 0
c a c
0 c a
_
_
; B =
_
_
0 b 0
b 0 b
0 b 0
_
_
.
(a) Probar que lim
n→∞
B
n
= 0 si y s´olo si [b[ <

2/2.
(b) Dar condiciones necesarias y suficientes sobre a, c ∈ IR para la convergencia de los
m´etodos de Jacobi y de Gauss-Seidel aplicados a la resoluci´on de Ax = v.
(8) (a) Probar que si A tiene una base de autovectores v
i
, con autovalores λ
i
, la matriz
B = I +sA, s ∈ IR
tiene los mismos autovectores, con autovalores ν
i
= 1 +sλ
i
.
(b) Sabiendo que los autovalores de la matriz A ∈ IR
(n−1)×(n−1)
A =
_
_
_
_
_
_
_
_
−2 1 0 0
1 −2 1 0 0


0 1 −2 1
0 0 1 −2
_
_
_
_
_
_
_
_
son λ
j
= −4 sin
πj
2n
, j = 1, . . . , n − 1, decidir si el m´etodo de Jacobi aplicado a
Ax = b es convergente o no.
(c) Decidir si el m´etodo de Gauss-Seidel resulta convergente. En caso afirmativo, ¿qu´e
m´etodo converge m´as r´apido?
Comentario: Este problema es interesante por sus aplicaciones, pues
corresponde a la discretizaci´on de la ecuaci´on de Poisson en una di-
mensi´on espacial:
_
¸
_
¸
_
d
2
u
dx
2
= f(x), x ∈ [0, 1];
u(0) = u(1) = 0.
(9) Sea B
J
la matriz asociada al m´etodo de Jacobi de un sistema dado. Estimar
(a) cu´antas multiplicaciones y divisiones se requieren para calcular B
J
.
(b) cu´antas multiplicaciones y divisiones se requieren para para realizar una iteraci´on
con el m´etodo de Jacobi.
62 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
(c) si ρ(B
J
) < 1, cu´antas iteraciones se necesitan para reducir el error del m´etodo en
m´as de 10
−m
(en funci´on de ρ(B
J
)).
(d) cu´antas multiplicaciones y divisiones se requieren para calcular la soluci´on del
sistema por el m´etodo de eliminaci´on gaussiana.
(e) cu´antas iteraciones del m´etodo de Jacobi podr´ıan realizarse antes de igualar la
cantidad de operaciones necesarias al usar el m´etodo de eliminaci´on gaussiana.
(10) Sean B
J
y B
GS
las matrices asociadas al m´etodo de Jacobi y de Gauss-Seidel respec-
tivamente del sistema Ax = b.
(a) Mostrar que si A(i, k) = 0 entonces, el elemento B
J
(i, k) = 0. Notar que si A es
una matriz rala (con muchos ceros) entonces B
J
tambi´en lo es. Luego, en cada
iteraci´on se requieren pocas multiplicaciones.
(b) Mostrar que λ = 0 siempre es un autovalor de B
GS
. ¿De qu´e autovector?
(11) Dada una matriz
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
y un vector b ∈ IR
3
, se quiere resolver el sistema de ecuaciones Ax = b; para lo cual
se considera el siguiente m´etodo iterativo, que es un caso particular de los m´etodos
llamados Jacobi por bloques:
x
k+1
= −
_
_
a
11
a
12
0
a
21
a
22
0
0 0 a
33
_
_
−1

_
_
0 0 a
13
0 0 a
23
a
31
a
32
0
_
_
x
k
+
_
_
a
11
a
12
0
a
21
a
22
0
0 0 a
33
_
_
−1
b,
Este m´etodo resulta convergente para los siguientes datos:
A =
_
_
8 2 −3
−3 9 4
3 −1 7
_
_
y b =
_
_
−20
62
0
_
_
.
Hacer un programa que calcule la sucesi´on de aproximaciones generada con valor inicial
el vector nulo y que se detenga cuando |x
k+1
− x
k
|

≤ 10
−4
(es decir, cuando la
iteraci´on “se estabiliza”).
(12) Sea A ∈ IR
n×n
. Probar que λ = 1 es autovalor de la matriz de Jacobi (o Gauss-Seidel)
de A si y solo si A es no inversible.
(13) Para resolver el sistema Ax = b, se utiliza un m´etodo iterativo cuya matriz de iteraci´on
J es diagonalizable y satisface ρ(J) < 1. Sea e
k
el vector error en el k-´esimo paso.
(a) Demostrar que |e
k
|

= O(ρ(J)
k
).
(b) Probar que si e
k
,= 0 para todo k ∈ IN y ρ(J) ,= 0, la sucesi´on (|e
k
|

)
k∈IN
tiende
a 0 linealmente.
(14) Utilizar la iteraci´on de Gauss-Seidel para resolver el sistema A
n
x = b
n
para
A
n
=
_
1 2
2 4 +
1
n
2
_
y b
n
= (1, 2 −
1
n
2
).
¿C´omo es la convergencia? ¿Tiene ´esto que ver con el mal condicionamiento de A? Dar
un ejemplo de una matriz mal condicionada para la cual la convergencia sea r´apida.
(15) Hacer un programa que pida el ingreso de una matriz A y un vector b y luego
• calcule las matrices de iteraci´on de los m´etodos de Jacobi y Gauss-Seidel.
3. EJERCICIOS 63
• calcule el menor de los radios espectrales de las dos matrices anteriores y, si este
valor resulta menor a 1, entonces realice las primeras 10 iteraciones del m´etodo
correspondiente (o de cualquiera de los dos m´etodos en caso de que los radios
espectrales resulten coincidentes), con valor inicial el vector nulo.
(16) Considerar el sistema Ax = b para A =
_
64 −6
6 −1
_
y b = (1, 2).
(a) Demostrar que el m´etodo de Jacobi converge para todo dato inicial. Verificar, sin
embargo, que la matriz no es diagonal dominante.
(b) Sea J la matriz de iteraci´on. Hallar las normas 1, ∞ y 2 de J. Hallar una norma
| | en la cual |J| sea < 1.
CAP´ıTULO 4
Resoluci´on de ecuaciones no lineales.
En muchos problemas, aparece en forma natural, la necesidad de calcular el valor de x donde
una funci´on f se anula, es decir, una ra´ız de f. En general, con las herramientas anal´ıticas que
se usan para estudiar y graficar funciones suaves (derivables) s´olo podemos analizar si hay un
intervalo [a, b] donde el gr´afico de f cruza el eje x.
En este cap´ıtulo, veremos distintos m´etodos que nos permitir´an aproximar el valor de una ra´ız,
´este valor suele hallarse por aproximaciones sucesivas y por ende los m´etodos a utilizar son
iterativos. En muchas ocasiones, s´olo tiene sentido encontrar una soluci´on aproximada. A veces,
el c´alculo exacto no es posible ya sea porque se trata de una ra´ız irracional (f(x) = x
2
− 2) o
porque la funci´on viene dada por coeficientes cuyos valores se conocen s´olo en forma aproximada.
Lo importante al utilizar m´etodos que estimen el valor deseado es, como venimos remarcando
en estas notas, poder controlar el error que se comete al utilizar un valor aproximado en lugar
del exacto.
El problema se plantea de la siguiente manera: Dada f : IR → IR (o bien f : [a, b] → IR) se
quiere encontrar r tal que
f(r) = 0.
El c´alculo aproximado de ra´ıces puede dividirse en dos etapas. En la primera, se separan las
ra´ıces. Es decir, se busca un subintervalo de [a, b] que contenga una y s´olo una ra´ız de f. Para
asegurar la existencia de al menos una ra´ız en el intervalo propuesto se utiliza el teorema de
Bolzano. Para asegurar que no hay m´as de una ra´ız se usa el teorema de Rolle, es decir, se
verifica que la derivada primera no cambie de signo en dicho intervalo. En la segunda etapa, se
aplica un m´etodo para aproximar la ra´ız aislada.
Antes de describir el primer m´etodo de estas notas, el de bisecci´on, recordamos el teorema de
Bolzano.
Teorema 4.1. Bolzano Sea f : [a, b] → IR continua en [a, b]. Si f(a)f(b) < 0 (o sea f(a) y
f(b) tienen distinto signo) entonces existe alguna ra´ız de f en el intervalo [a, b].
1. M´etodo de bisecci´on.
Este m´etodo, que se apoya en la idea geom´etrica del teorema de Bolzano, permite construir una
sucesi´on (x
n
)
n∈IN
que converge a la soluci´on de f(x) = 0 de la siguiente manera.
66 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Supongamos que f(a)f(b) < 0. Calculemos c =
a+b
2
. Supongamos, por ejemplo, que f(a) > 0 y
f(b) < 0, entonces
(1) Si f(c) = 0 listo.
(2) Si f(c) < 0, habr´a una ra´ız en [a, c].
(3) Si f(c) > 0, habr´a una ra´ız en [c, b].
Ahora se elige el subintervalo, cuya longitud es la mitad de [a, b] y que contiene a la ra´ız. Este
proceso se sigue sucesivamente.
As´ı se genera una sucesi´on x
1
=
a+b
2
∈ [a
1
, b
1
], x
2
∈ [a
2
, b
2
], x
3
∈ [a
3
, b
3
] . . . donde cada intervalo
[a
n
, b
n
] mide la mitad del anterior,
b
1
−a
1
=
b −a
2
b
2
−a
2
=
b
1
−a
1
2
=
b −a
4
.
.
.
b
n
−a
n
= =
b −a
2
n
Adem´as,
a ≤ a
1
≤ a
2
≤ . . . ≤ b
b ≥ b
1
≥ b
2
≥ . . . ≥ a
Entonces a
n
y b
n
son sucesiones mon´otonas y acotadas y en consecuencia convergen, es decir,
existen los l´ımites
lim
n→∞
a
n
y lim
n→∞
b
n
.
Y como
[b
n
−a
n
[ ≤
b −a
2
n
→ 0
se tiene que
lim
n→∞
a
n
= lim
n→∞
b
n
= r.
En cada paso se verifica f(a
n
)f(b
n
) ≤ 0 y tomando l´ımite (usando que f es continua) resulta
f(r)
2
≤ 0.
Entonces r es la ra´ız buscada pues cumple, f(r) = 0.
1. M
´
ETODO DE BISECCI
´
ON. 67
Por otra parte el error puede acotarse de la siguiente forma. Tenemos que
x
n
=
a
n−1
+b
n−1
2
entonces
[r −x
n
[ ≤
1
2
(b
n−1
−a
n−1
) ≤
b −a
2
n
.
Resumiendo, hemos demostrado,
Teorema 4.2. Si f : [a, b] → IR es continua y f(a)f(b) < 0 entonces, el m´etodo de bisecci´on
genera una sucesi´on x
n
tal que,
(1) x
n
→ r con f(r) = 0,
(2) [r −x
n
[ ≤
b −a
2
n
.
Una de las ventajas que tiene el m´etodo de bisecci´on es que converge para cualquier f continua,
es decir no hace falta derivabilidad como en otros m´etodos que veremos mas adelante.
Ejemplo 4.3. Calculemos

2.
Tomemos f(x) = x
2
−2 y [a, b] = [1, 3]. Se tiene f(1) = −1 < 0 < f(3) = 7 y con un gr´afico de
f podemos asegurar que no hay otra ra´ız positiva. La suecsi´on que produce el m´etodo es:
x
1
= 2 f(x
1
) = 2 [a
1
, b
1
] = [1, 2]
x
2
= 1.5 f(x
2
) = 0.25 [a
2
, b
2
] = [1, 1.5]
x
3
= 1.25 f(x
3
) = −0.4375 [a
3
, b
3
] = [1.25, 1.5]
x
4
= 1.375 f(x
4
) = −0.109375 [a
4
, b
4
] = [1.375, 1.5]
x
5
= 1.4375 f(x
5
) = 0.06640625 [a
5
, b
5
] = [1.375, 1.4375]
x
6
= 1.40625 f(x
6
) = −0.022 . . . [a
6
, b
6
] = [1.40625, 1.4375]
x
7
= 1.421875 f(x
7
) = 0.02 . . . [a
7
, b
7
] = [1.40625, 1.421875]
x
8
= 1.4140625 . . .
Para x
8
, vemos que la aproximaci´on lograda tiene 4 cifras exactas. Fue necesario hacer ocho
pasos para obtener cuatro cifras exactas (

2 = 1.4142 . . .).
Del an´alisis hecho en general sab´ıamos que,
68 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
[

2 −x
8
[ ≤
b −a
2
8
=
2
2
8
=
1
128
.
Entonces el error relativo es
[

2 −x
8
[

2

1
128

2
≤ 0.005 . . . ∼
5
1000
.
La desventaja del m´etodo de bisecci´on es que converge muy lentamente, por ejemplo en compa-
raci´on con el m´etodo de Newton-Raphson que veremos m´as adelante.
En cada paso la cota del error, (b −a)/2
n
, se reduce a la mitad,
[e
n+1
[ ≤
b −a
2
n
.
En consecuencia se reduce
1
10
en tres o cuatro pasos (se gana una cifra en tres o cuatro pasos).
2. M´etodo regula falsi
Este m´etodo llamado “regula falsi” o de falsa posici´on puede verse tanto como una variante del
m´etodo de bisecci´on como del m´etodo Newton-Raphson, que veremos en la pr´oxima secci´on.
Supongamos, nuevamente, que tenemos una funci´on f : [a, b] → IR continua que verifica
f(a)f(b) < 0 (entonces existe una ra´ız, r, en [a, b], por el teorema de Bolzano) y supongamos
que la ra´ız es ´ unica en ese intervalo.
Definimos x
1
como la intersecci´on de la recta secante L con el eje x (en lugar de tomar el
promedio
b−a
2
, como se hace con el m´etodo de bisecci´on).
La recta L, que une los puntos (a, f(a)) con (b, f(b)) tiene ecuaci´on:
y −f(a) =
f(b) −f(a)
b −a
(x −a).
Como x
1
es el valor de x que cumple y = 0, se tiene,
x
1
= a −
f(a)
f(b) −f(a)
(b −a) =
af(b) −bf(a)
f(b) −f(a)
Si f(x
1
) ,= 0 entonces f(a)f(x
1
) < 0 o bien f(b)f(x
1
) < 0. Supongamos f(b)f(x
1
) < 0, defini-
mos x
2
con el mismo procedimiento anterior con el intervalo [x
1
, b] = I
1
, y as´ı sucesivamente.
Observemos que puede suceder que [I
n
[ no tienda a cero, pero sin embargo x
n
→ r para toda f
continua.
3. M
´
ETODO DE NEWTON-RAPHSON. 69
Método de Regula Falsi: tres iteraciones
f(x)
|
|
a
x
1
x
2 b
Solución exacta
Figura 4.1.
3. M´etodo de Newton-Raphson.
La idea del m´etodo es “ir por la tangente” como se describe a continuaci´on.
Se empieza con x
0
. Se traza la tangente en x
0
y se define x
1
como la intersecci´on de la tangente
con el eje x. Luego se traza la tangente por x
1
y se toma x
2
la intersecci´on de la tangente con
el eje x, y as´ı sucesivamente. Esto genera una sucesi´on x
n
como muestra la Figura 4.2.
Observemos que hace falta que f sea derivable. Adem´as, puede ocurrir que la sucesi´on que
produce este m´etodo no sea convergente. Esto ´ ultimo se puede ver gr´aficamente con el ejemplo
que muestra la Figura 4.3.
Sin embargo veremos que el m´etodo converge muy r´apidamente si x
0
est´a “suficientemente cerca”
de una ra´ız, bajo condiciones bastante generales sobre la funci´on f.
Descripci´on anal´ıtica de m´etodo de Newton-Raphson.
Sea f : [a, b] → IR derivable, x
0
∈ [a, b], se toma x
1
tal que
f(x
0
) + (x
1
−x
0
)f

(x
0
) = 0
Y en general, se toma x
n+1
tal que
f(x
n
) + (x
n+1
−x
n
)f

(x
n
) = 0
70 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Método de Newton−Raphson
f(x)
x
0
x
1

x
2

Figura 4.2.
x
0
x
1
x
2
f(x)
Figura 4.3.
o sea,
x
n+1
= x
n

f(x
n
)
f

(x
n
)
Observemos que para que esto tenga sentido, hay que suponer f

(x
n
) ,= 0, esto es obvio
gr´aficamente como muestra la figura 4.3.
3. M
´
ETODO DE NEWTON-RAPHSON. 71
Ahora analicemos la convergencia del m´etodo. Sea r una ra´ız simple de f, es decir, f(r) = 0,
f

(r) ,= 0 y supongamos que f

es acotada.
Debemos estimar el error que se comete al usar x
n
en lugar de la soluci´on exacta (y desconocida)
r. Esto es, estudiamos la expresi´on e
n
= x
n
−r y vemos si e
n
→ 0.
x
0

f(x)
x
Recta tangente a f en x
0

Figura 4.4.
Para analizar la convergencia del error miramos la sucesi´on recursiva
e
n+1
= x
n+1
−r = x
n

f(x
n
)
f

(x
n
)
−r = e
n

f(x
n
)
f

(x
n
)
entonces
e
n+1
=
e
n
f

(x
n
) −f(x
n
)
f

(x
n
)
(4.1)
Observemos que si f

(r) ,= 0 entonces f

(x
n
) ,= 0 para x
n
cercano a r (esto lo justificaremos con
m´as precisi´on despu´es).
Usando el desarrollo de Taylor de orden 2 centrado en la ra´ız r se tiene,
0 = f(r) = f(x
n
) −(x
n
−r)f

(x
n
) +
1
2
(x
n
−r)
2
f

(ξ)
donde ξ es un valor intermedio entre x
n
y r. Entonces
72 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
e
n
f

(x
n
) −f(x
n
) =
1
2
f

(ξ)e
2
n
Reemplazando en la igualdad 4.1 queda
e
n+1
=
1
2
f

(ξ)
f

(x
n
)
e
2
n
(4.2)
Con todo esto podemos demostrar el siguiente teorema.
Teorema 4.4. (de convergencia) Si r es un cero simple de f (i.e. f

(r) ,= 0) y sea I =
[r −α, r +α] un intervalo tal que [f

(x)[ ≥ δ > 0 y [f

(x)[ ≤ M en I. Entonces,
Existe ε > 0 tal que I
ε
= [r −ε, r +ε] ⊂ I y se tiene que [e
n
[ → 0 y
[e
n+1
[ ≤
1
2
M
δ
[e
n
[
2
, (4.3)
siempre que x
0
∈ I
ε
.
Demostraci´ on. Como las cotas para f

y f

siguen siendo ciertas para cualquier subintervalo de
I, podemos elegir ε > 0 tal que
1
2
M
δ
ε = λ < 1.
Entonces, si x
0
∈ I
ε
tenemos que [e
0
[ = [x
0
−r[ < ε y usando (4.2) obtenemos
[e
1
[ = [x
1
−r[ ≤ λ[e
0
[.
En particular, x
1
∈ I
ε
. An´alogamente,
[e
2
[ = [x
2
−r[ ≤ λ[e
1
[ ≤ λ
2
[e
0
[
y x
2
∈ I
ε
. Continuando de esta manera, obtenemos una sucesi´on (x
n
)
n∈IN
⊂ I
ε
tal que
[e
n
[ ≤ λ
n
[e
0
[.
Como 0 < λ < 1 se tiene que [e
n
[ → 0 si n → ∞. Finalmente, la desigualdad (4.3) se obtiene de
(4.2).
Corolario 4.5. Si f

es continua y f

es acotada en [a, b] y r ∈ [a, b] es una ra´ız simple de
f, entonces existe un ε > 0 tal que si x
0
∈ I
ε
= [r − ε, r + ε] ⊂ [a, b], el m´etodo de Newton
empezando en x
0
converge a r.
3. M
´
ETODO DE NEWTON-RAPHSON. 73
Demostraci´on. Como f

(r) ,= 0 y f

es continua, existen α > 0 y δ > 0 tales que I =
[r − α, r + α] ⊂ [a, b] y [f

(x)[ > δ para todo x ∈ I. Ahora estamos en las condiciones del
teorema 4.4.
Observaci´ on 4.6. Un caso particular del corolario 4.5 es una funci´on C
2
([a, b]) que tiene a
r ∈ [a, b] como ra´ız simple.
Ahora, queremos estudiar la r´apidez con la que una sucesi´on generada por un m´etodo, converge
a la soluci´on exacta. Para eso necesitamos la siguiente
Definici´ on 4.7. En general podemos definir que un m´etodo es de orden p si
lim
n→∞
[e
n+1
[
[e
n
[
p
= cte y lim
n→∞
[e
n+1
[
[e
n
[
p−ε
= 0
Observemos primero que cuanto m´as grande sea p mejor. Ahora, veamos que significa ´esto
geom´etricamente. Para valores grandes de n, es decir, asint´oticamente, se puede considerar que
el comportamiento de las sucesiones [e
n+1
[ y [e
n
[
p
son equivalentes, lo que se expresa como
[e
n+1
[ ∼ C[e
n
[
p
.
Por otra parte, si se obtiene una desigualdad de la forma
[e
n+1
[ ≤ C[e
n
[
p
podemos asegurar que el orden de convergencia es por lo menos p.
La convergencia para el m´etodo de Newton-Raphson es cuadr´atica, es decir, p = 2. Si bien, con
la desigualdad (4.3) podemos asegurar que existe C > 0 tal que
[e
n+1
[ ≤ C[e
n
[
2
de la igualdad (4.2) se deduce que el m´etodo, en general, converge cuadr´aticamente. Esto es, en
cada paso el error se reduce cuadr´aticamente (o sea es menor o igual que el cuadrado del error
del paso anterior).
Esta es la gran ventaja del m´etodo de Newton. El n´ umero de cifras correctas se duplica (esen-
cialmente) en un paso.
Este resultado de convergencia es “local”, o sea, el teorema garantiza la convergencia si se
empieza “suficientemente cerca” de r. En la pr´actica es un tema dif´ıcil determinar lo que es
“suficientemente cerca”. Muchas veces, se combinan unos pasos del m´etodo de bisecci´on para
encontrar un intervalo en el que se aplique el Teorema 4.4. Sin embargo, el m´etodo de Newton
funciona en forma excelente (incluso en N variables) y es de los m´as usados.
74 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Ejemplo 4.8. Calculemos, aplicando el m´etodo de Newton una aproximaci´on de

2. Compa-
remos el resultado con el que se obtuvo al aplicar el m´etodo de bisecci´on. Como antes la funci´on
es f(x) = x
2
−2 y elegimos x
0
= 3. Tenemos
x
n+1
= x
n

f(x
n
)
f

(x
n
)
= x
n

x
2
n
−2
2x
n
=
x
n
2
+
1
x
n
(4.4)
Y aplicando esto obtenemos
x
0
= 3 x
3
= 1.41499843 . . .
x
1
= 1.833 . . . x
4
= 1.41421378 . . .
x
2
= 1.4621212 . . . x
5
= 1.414213562 . . .
Observemos que

2 = 1.414213562 . . .
Es decir, con cinco pasos del m´etodo tenemos m´as de diez cifras exactas, mientras que con
bisecci´on en ocho pasos ten´ıamos cuatro cifras exactas.
Comentario. Hacia el a˜ no 2000 a.C. los Babilonios usaban el siguiente m´etodo para “calcular”
el n´ umero

p si p ∈ IN. Si a >

p se tiene que
p
a
<

p. Luego

p es un n´ umero entre
p
a
y a.
Entonces, consideraban el promedio
1
2
(a +
p
a
) como primera aproximaci´on, as´ı sucesivamente.
Esto coincide con el m´etodo de Newton, de 1669 d.C., aplicado a la funci´on x
2
−p. Comparar
con (4.4).
Ejemplo 4.9. Como segundo ejemplo veamos que sucede con f(x) = x
3
, r = 0. Es claro que la
´ unica ra´ız es r = 0. Lo que se pretende con este ejemplo es mostrar alguna de las dificultades a
tener en cuenta cuando se aplica el m´etodo de Newton. La sucesi´on que produce este m´etodo
es:
x
n+1
= x
n

x
3
n
3x
2
n
=
2
3
x
n
Entonces
[e
n+1
[ =
2
3
[e
n
[
3. M
´
ETODO DE NEWTON-RAPHSON. 75
En este caso, observamos que la convergencia es lineal y no es cuadr´atica. Lo que sucede es que
no se verifica la hip´otesis de que r sea una ra´ız simple (f

(r) = 0 en este caso).
Ejemplo 4.10. Este es un ejemplo donde el m´etodo de Newton-Raphson no converge. En este
caso, la hip´otesis que no se cumple es la derivabilidad de f. Consideremos la funci´on
f(x) =
_
_
_

x x ≥ 0


−x x < 0,
con r = 0.
Un c´alculo sencillo permite ver que f no es derivable en la ra´ız. En cualquier otro valor se tiene
f

(x) =
_
_
_
1
2
x

1
2
x > 0
1
2
(−x)

1
2
x < 0.
Es decir,
f

(x) =
1
2
[x[

1
2
.
La sueci´on que produce el m´etodo se escribe como
x
n+1
= x
n

x
1
2
n
1
2
x

1
2
n
= x
n
−2x
n
= −x
n
.
Ahora, salvo que comencemos en la ra´ız (con lo cual no necesitar´ıamos de un m´etodo para
hallarla) se tiene que x
n
es positivo o negativo.
Supongamos que x
n
> 0, entonces x
n+1
= −x
n
< 0 y x
n+2
= −x
n+1
> 0.
Si seguimos el proceso que genera x
n
desde un x
0
inicial vemos que la sucesi´on es:
x
0
→ −x
0
→ x
0
→ −x
0
→ . . .
Conclu´ımos que, en este ejemplo, el m´etodo de Newton no converge para ning´ un x
0
por m´as
cerca de r = 0 que est´e.
Ahora veamos un teorema de convergencia global para el m´etodo de Newton que se aplica a
funciones convexas. Una funci´on se dice convexa en (a, b) si la recta tangente al gr´afico de f
est´a por debajo de ´este para todo los x en el intervalo. Si la funci´on es dos veces derivable esto
corresponde con la condici´on f

> 0. En este caso, f puede tener un valor m´ınimo. Digamos, si
existe, que lo alcanza en x

.
76 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Teorema 4.11. Sea f dos veces derivable en [a, b] tal que f

> 0 (f es convexa), entonces el
m´etodo de Newton-Raphson converge para todo x
0
,= x

. Es decir, en este caso no hace falta
pedir que x
0
est´e cerca de r.
Demostraci´ on. Si p´erdida de generalidad podemos suponer que f es “mon´otona” (si estamos a
la derecha de x

, la iteraci´on de Newton nunca ir´a a la izquierda, ver figura 4.2).
Si x
0
> r entonces r < x
1
< x
0
y en general
x
0
> x
1
> x
2
> .... > x
n
> .... > r
y entonces la sucesi´on x
n
converge pues es mon´otona. Veamos que converge a una ra´ız de f.
Supongamos que x
n
→ α, luego tomando l´ımite en la expresi´on x
n+1
= x
n

f(x
n
)
f

(x
n
)
y usando
que f

es continua queda
α = α −
f(α)
f

(α)
de d´onde f(α) = 0 y α = r pues supusimos f mon´otona.
Si bien este teorema es bastante claro geom´etricamente para funciones definidas en IR, su inter´es
radica en su extensi´on a IR
N
.
4. M´etodo de punto fijo
El m´etodo de Newton puede verse como un caso particular del m´etodo de punto fijo.
La idea es reemplazar la ecuaci´on f(x) = 0 por otra de la forma x = g(x) de manera que la
soluci´on de ´esta sea la soluci´on del problema original.
Esto puede hacerse de diversas maneras, por ejemplo, si
f(x) = x
3
−13x + 18
podemos tomar g(x) como cualquiera de las siguientes funciones
g
1
(x) =
x
3
+ 18
13
, g
2
(x) = (13x −18)
1
3
, g
3
(x) =
13x −18
x
2
.
Una vez encontrada g una funci´on continua, el problema se reduje a encontrar puntos fijos de
g, es decir, r tales que
r = g(r).
Se define una sucesi´on por iteraci´on, se elige un x
0
y despu´es se toma
4. M
´
ETODO DE PUNTO FIJO 77
x
n+1
= g(x
n
). (4.5)
Observemos que si la sucesi´on generada por (4.5) x
n
converge, entonces lo hace a un punto fijo
de g. En efecto, tomando l´ımite y usando que g es continua se tiene que si x
n
→ r entonces
r = g(r).
Teorema 4.12. Sea I = [a, b] si g(I) ⊂ I entonces g tiene al menos un punto fijo en I.
Demostraci´on. Como g(I) ⊂ I se tiene que a ≤ g(a) ≤ b y a ≤ g(b) ≤ b, si a = g(a) o b = g(b)
listo. Si no, g(a) −a > 0 y g(b) −b < 0. Entonces la funci´on F(x) = g(x) −x cumple, F(a) > 0
y F(b) < 0 y como F es continua existe un r en I tal que 0 = F(r) = g(r) −r.
Teorema 4.13. Si g es adem´as derivable y [g

(x)[ ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces g tiene
un ´ unico punto fijo.
Demostraci´on. Si hay dos puntos fijos, r
1
, r
2
con r
1
,= r
2
, tenemos
[r
1
−r
2
[ = [g(r
1
) −g(r
2
)[ = [g

(ξ)(r
1
−r
2
)[ ≤ λ[r
1
−r
2
[ < [r
1
−r
2
[
una contradicci´on.
Bajo estas mismas hip´otesis, la sucesi´on generada iterativamente converge y se puede dar una
cota del error en t´erminos de λ.
Teorema 4.14. Sea g tal que [g

(x)[ ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces la sucesi´on x
n
definida
por
x
n+1
= g(x
n
)
converge al ´ unico punto fijo de g y adem´as,
(1) [x
n
−r[ ≤ λ
n
[x
0
−r[
(2) [e
n
[ ≤
λ
n
1−λ
[x
1
− x
0
[. O sea, se tiene una acotaci´ on en t´erminos de [x
1
− x
0
[ que es
conocido.
Demostraci´on. Por el teorema anterior sabemos que existe un ´ unico punto fijo de g que llamamos
r. La hip´otesis sobre la derivada de g implica que [g(x) −g(y)[ ≤ λ[x −y[, o sea g es Lipschitz
con constante λ. Entonces
[x
n+1
−r[ = [g(x
n
) −g(r)[ ≤ λ[x
n
−r[
y de aqu´ı, como λ < 1 se tiene que
[x
n
−r[ ≤ λ
n
[x
0
−r[ → 0.
78 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
En particular demostramos que x
n
→ r.
Por otra parte, intercalando x
1
y usando desigualdad triangular,
[x
0
−r[ ≤ [x
0
−x
1
[ +[x
1
−r[ ≤ [x
0
−x
1
[ +λ[x
0
−r[.
Entonces
(1 −λ)[x
0
−r[ ≤ [x
1
−x
0
[
y como
[x
n
−r[ ≤ λ
n
[x
0
−r[
se obtine la estimaci´on 2).
La figura 4.5 muestra gr´aficamente como se genera una sucesi´on por el m´etodo de punto fijo.
En dicho gr´afico 0 < f

(x) < 1.
x
0
x
1
x
2
x
3
x
4
y=x
f(x)
Figura 4.5.
Para aplicar el teorema 4.14 hay que garantizar que g(I) ⊂ I (o sea primero hay que encontrar
un tal I).
Si r es un punto fijo de g con [g

(r)[ < 1 este intervalo I existe, resultado que probamos en el
siguiente teorema.
5. M
´
ETODO DE LA SECANTE 79
Teorema 4.15. g

continua en (a, b), r ∈ (a, b) un punto fijo de g. Si [g

(r)[ < 1, entonces
existe ε > 0 tal que la iteraci´on es convergente siempre que x
0
∈ I
ε
= (r −ε, r +ε).
Demostraci´on. Como [g

(r)[ < 1, existe una constante K < 1 y un ε > 0 tales que [g

(x)[ < K,
∀x ∈ I
ε
= (r −ε, r +ε) (por la continuidad de g

). Entonces, ∀x ∈ I
ε
,
[g(x) −r[ = [g(x) −g(r)[ ≤ K[x −r[ ≤ Kε < ε
o sea, g(I
ε
) ⊂ I
ε
, y podemos aplicar el teorema anterior en I
ε
.
5. M´etodo de la secante
En este m´etodo tenemos que x
n+1
es funci´on de x
n
y de x
n−1
. La idea es la misma que en
el m´etodo “regula falsi”, trazar la secante, pero este m´etodo es diferente pues se usan las dos
´ ultimas aproximaciones x
n−1
y x
n
en lugar de encerrar la ra´ız como en “regula falsi”. Para
empezar hay que dar dos valores x
0
y x
1
.
La ecuaci´on de la secante que une los puntos (x
n−1
, f(x
n−1
)) y (x
n
, f(x
n
)) es
y = f(x
n
) + (x −x
n
)
f(x
n
) −f(x
n−1
)
x
n
−x
n−1
entonces se define x
n+1
como la intersecci´on de esta recta con el eje x, as´ı, x
n+1
verifica
0 = f(x
n
) + (x
n+1
−x
n
)
f(x
n
) −f(x
n−1
)
x
n
−x
n−1
es decir,
x
n+1
= x
n
−f(x
n
)
x
n
−x
n−1
f(x
n
) −f(x
n−1
)
.
Observemos que esta f´ormula es an´aloga a la de Newton reemplazando f

por un cociente
incremental.
La ventaja es que no hay que calcular la derivada de f (esto es de gran ayuda en un caso en que
f

sea dif´ıcil de calcular).
La desventaja es, seg´ un veremos, que la convergencia de la sucesi´on es m´as lenta que la que
produce el ´etodo de Newton.
Observemos que la iteraci´on del m´etodo de la secante tambi´en puede escribirse como
80 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
x
n+1
=
f(x
n
)x
n−1
−f(x
n−1
)x
n
f(x
n
) −f(x
n−1
)
.
Analicemos el orden de convergencia de este m´etodo, seg´ un la definici´on 4.7. Tenemos
f(r) = 0 y e
n
= r −x
n
.
Luego,
e
n+1
= r −x
n+1
= r −
f(x
n
)x
n−1
−f(x
n−1
)x
n
f(x
n
) −f(x
n−1
)
=
e
n−1
f(x
n
) −e
n
f(x
n−1
)
f(x
n
) −f(x
n−1
)
=
e
n−1
(f(x
n
) −f(r)) −e
n
(f(r) −f(x
n−1
))
f(x
n
) −f(x
n−1
)
=
−e
n
e
n−1
f(x
n
)−f(r)
x
n
−r
+e
n
e
n−1
f(r)−f(x
n−1
)
x
n−1
−r
f(x
n
) −f(x
n−1
)
.
Es decir,
e
n+1
= e
n
e
n−1
f(x
n−1
)−f(r)
x
n−1
−r

f(r)−f(x
n
)
x
n
−r
f(x
n
) −f(x
n−1
)
. (4.6)
Definamos ahora las diferencias.
Primera diferencia :
f[a, b] =
f(b) −f(a)
b −a
= f

(ξ).
Segunda diferencia :
f[a, b, c] =
f(c)−f(b)
c−b

f(b)−f(a)
b−a
c −a
.
Entonces el error del m´etodo de la secante verifica,
e
n+1
= −e
n
e
n−1
f[x
n−1
, r, x
n
]
f[x
n−1
, x
n
]
.
5. M
´
ETODO DE LA SECANTE 81
Lema 4.16.
f[a, b, c] =
1
2
f

(η).
Demostraci´on.
f(x) = f(a) +f[a, b](x −a) +f[a, b, c](x −a)(x −b) +Resto.
Despreciamos el resto y nos quedamos con el polinomio de grado 2:
f(a) +f[a, b](x −a) +f[a, b, c](x −a)(x −b)
Se ver´a m´as adelante que este polinomio es el polinomio interpolador de grado dos.
Sea
g(x) = f(x) −f(a) +f[a, b](x −a) +f[a, b, c](x −a)(x −b) (4.7)
g cumple que g(a) = 0, g(b) = 0 y g(c) = 0.
Entonces g

se anula en por lo menos dos puntos y de ah´ı que existe η con g

(η) = 0. Ahora,
derivando dos veces la expresi´on (4.7) y evaluando en η se obtiene
0 = g

(η) = f

(η) −2f[a, b, c],
es decir,
f[a, b, c] =
1
2
f

(η).
Aplicando el lema 4.16 a nuestra expresi´on de e
n+1
dada en (4.6) queda
e
n+1
= −
f


n
)
f


n
)
e
n
e
n−1
y de ac´a se puede deducir la convergencia local.
Teorema 4.17. Si f

(r) ,= 0, [f

[ ≤ K en un entorno de r y x
0
, x
1
est´an suficientemente cerca
de r, es decir existe ε > 0 tal que si x
0
, x
1
∈ I
ε
= (r −ε, r +ε), entonces
e
n
→ 0.
82 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Demostraci´ on. Existe ε > 0 tal que [f

[ > δ en I
ε
, entonces si x
0
, x
1
∈ I
ε
tenemos que
[e
2
[ ≤
K

[e
1
[[e
0
[ ≤
K

ε
2
y si ahora pedimos (quiz´as achicando el ε) que
K

ε = λ < 1
nos queda que
[e
2
[ ≤ λε < ε
y entonces x
2
∈ I
ε
. Ahora bien
[e
3
[ ≤
K

[e
2
[[e
1
[ ≤
K

λε
2
≤ λ
2
ε
[e
4
[ ≤
K

[e
3
[[e
2
[ ≤
K

ελ
2
ελ ≤ λ
3
ε.
Y podemos concluir por inducci´on que
[e
n
[ ≤ λ
n−1
ε → 0.
Veamos el orden de convergencia del m´etodo de la secante, ten´ıamos
[e
n+1
[ = [ −
1
2
f


n
)
f


n
)
[[e
n
[[e
n−1
[ = c
n
[e
n
[[e
n−1
[,
y adem´as, si llamamos c

al l´ımite de c
n
tenemos
c
n
→ c

=
¸
¸
¸
¸
1
2
f

(r)
f

(r)
¸
¸
¸
¸
.
Supongamos que f

(r) ,= 0, de esta forma c

,= 0.
Buscamos p tal que
lim
n→∞
[e
n+1
[
[e
n
[
p
= C ,= 0.
Tenemos
6. EJERCICIOS 83
[e
n+1
[
[e
n
[
p
= c
n
[e
n
[
1−p
[e
n−1
[ = c
n
_
[e
n
[
[e
n−1
[
p
_
α
.
Si α = 1 −p y αp = −1, o sea
p −p
2
= αp = −1,
entonces p es soluci´on de
p
2
−p −1 = 0,
y como p > 0,
p =
1 +

5
2
= 1.618...
Con esta elecci´on de p tenemos que
y
n
=
[e
n+1
[
[e
n
[
p
cumple la iteraci´on de punto fijo (salvo que c
n
es variable pero converge a c

),
y
n+1
= c
n
y

1
p
n
.
Entonces, y
n
converge al punto fijo de la ecuaci´on x = c

x

1
p
(esto es cierto porque p > 1 y se
ve directamente escribiendo la iteraci´on). El punto fijo es x = c
1
p

. Entonces nos queda que
[e
n+1
[
[e
n
[
p

¸
¸
¸
¸
1
2
f

(r)
f

(r)
¸
¸
¸
¸
1
p
,
para n grande.
Ahora veamos una idea intuitiva de la demostraci´on directamente.
Si suponemos [e
n+1
[ ∼ [e
n
[
p
tenemos [e
n+1
[ ∼ [e
n
[
p
∼ [e
n−1
[
p
2
y de la relaci´on entre e
n+1
, e
n
y e
n−1
se tiene [e
n−1
[
p
2
∼ [e
n−1
[
p
[e
n−1
[. O sea, [e
n−1
[
p
2
−p−1
∼ cte. Luego p > 0 tiene que ser
soluci´on de p
2
−p −1 = 0 y entonces p =
1+

5
2
= 1.618....
6. Ejercicios
(1) Usar el m´etodo de bisecci´on para hallar una ra´ız positiva de la ecuaci´on trascendente:
2x = tan(x)
¿Cu´antos pasos hay que hacer para garantizar que el error sea menor que 10
−5
?
84 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
(2) Hacer un programa en Matlab que ejecute los primeros 20 pasos de los m´etodos de
bisecci´on y Regula-Falsi para hallar una ra´ız de la ecuaci´on 2x
3
+x−2 = 0 comenzando
con el intervalo [0, 1].
(3) Hacer un programa en Matlab que ejecute los primeros 20 pasos de los m´etodos de
bisecci´on y N-R, para calcular
3

2 comenzando con valores iniciales apropiados.
(4) Demostrar que la ecuaci´on
f(x) = e
x
+ 5 sin x −2 = 0
tiene una ´ unica ra´ız en el intervalo (0,
3
2
). Encontrar las cotas necesarias de [f

[ y [f

[
para determinar un valor inicial de modo que el m´etodo N-R converja a la ra´ız. Aplicar
el m´etodo para hallar una aproximaci´on de ´esta. ¿Cu´al es el orden de convergencia?
(5) Considerar la funci´on f(x) =
x
1 +[x[
. Determinar para qu´e valores de x
0
la iteraci´on
N-R es convergente, para cu´ales es divergente, y cu´ando se obtienen ciclos peri´odicos.
(6) Se quiere resolver la ecuaci´on f(x) = 0, donde f(x) = e
x
−2. Calcular los 10 primeros
t´erminos de las sucesiones generadas por los m´etodos N-R y de la secante, comenzando
con los valores iniciales x
1
= 3 para el primer m´etodo e y
1
= 3, y
2
= 2.3 para el segundo.
Graficar simult´aneamente las dos sucesiones obtenidas.
(7) Sea f una funci´on C
1
y sea (x
n
)
n∈IN
la sucesi´on que se obtiene de aplicar el m´etodo
N-R a f. Supongamos que x
n
converge a r y f

(r) ,= 0, mostrar que r es ra´ız de f.
(8) Sea f una funci´on suave, y a tal que f(a) = 0, y f

(a) ,= 0.
(a) Suponiendo que en (a, b], f, f

, f

son positivas, probar que la iteraci´on de N-R
generada a partir de x
0
∈ (a, b) converge decrecientemente hacia a.
(b) Con las mismas hip´otesis, si x
1
∈ (a, x
0
), probar que la sucesi´on generada por el
m´etodo de la secante a partir de x
0
, x
1
converge decrecientemente hacia a.
(9) Sea f(x) = x
α
. Se desea utilizar el m´etodo N-R para resolver la ecuaci´on f(x) = 0,
comenzando con x
0
> 0. Analizar el comportamiento del m´etodo en los casos
(a) α ≥ 1 (b) α =
1
3
(c) α =
1
2
(10) (a) Sea f(x) = (x − r
1
)(x − r
2
) . . . (x − r
d
) donde r
1
< r
2
< < r
d
. Probar que si
x
0
> r
d
la sucesi´on de N-R converge a r
d
.
(b) Para un polinomio P ∈ IR[x], P(x) = a
d
x
d
+ + a
0
, a
d
,= 0, tal que sus d ra´ıces
son reales y distintas, se propone el siguiente m´etodo que aproxima los valores de
todas sus ra´ıces:
(i) Se comienza con un valor x
0
mayor que M = max¦1,

d−1
i=0
|a
i
|
|a
d
|
¦ (Dato: M
es una cota para el m´odulo de todas las ra´ıces del polinomio).
(ii) Se genera a partir de x
0
la sucesi´on de N-R, que, seg´ un el ´ıtem anterior,
converge a la ra´ız m´as grande de P, llam´emosla r
d
; obteni´endose de este
modo un valor aproximado ˜ r
d
.
(iii) Se divide P por x − ˜ r
d
y se desprecia el resto, dado que r
d
∼ ˜ r
d
. Se redefine
ahora P como el resultado de esta divisi´on y se comienza nuevamente desde
el primer ´ıtem, para hallar las otras ra´ıces.
Aplicar este m´etodo para aproximar todas las ra´ıces del polinomio P(x) = 2x
3

4x + 1.
(11) Recordar que una ra´ız m´ ultiple de un polinomio f es una ra´ız simple del polinomio
f/ gcd(f, f

), donde gcd indica el m´aximo com´ un divisor. Hacer un programa en Matlab
6. EJERCICIOS 85
que aplique el m´etodo N-R a f(x) y a f(x)/ gcd(f, f

) para hallar la ra´ız m´ ultiple de
f(x) = (x −1)(x −2)
2
.
Demostrar que, a pesar que la funci´on f no est´a en las hip´otesis del m´etodo N-R,
´este converge (aunque no tan velozmente como cuando la ra´ız m´ ultiple se halla como
soluci´on de f/ gcd(f, f

)).
(12) Para f una funci´on C
2
que tiene una ra´ız de orden 2 en x
0
:
(a) Demostrar que el m´etodo N-R converge s´olo linealmente a x
0
.
(b) ¿Cu´al es el orden de convergencia de la siguiente modificaci´on?
x
n+1
= x
n
−2
f(x
n
)
f

(x
n
)
(13) Sea f(x) = 4x
3
−3x + 1 = 0. La ecuaci´on f(x) = 0 tiene una ra´ız doble. Aproximarla
calculando las 10 primeras iteraciones de los m´etodos N-R y N-R con la modificaci´on
del ejercicio anterior, comenzando con los valores iniciales x
1
= y
1
= 25. Graficar
simult´aneamente las dos sucesiones obtenidas.
(14) Se quiere aplicar el m´etodo N-R para dar una tabla de valores de la funci´on y(x) definida
impl´ıcitamente por la ecuaci´on G(x, y) = 0 en un intervalo [a, b].
El m´etodo consiste en comenzar la tabla en un par de valores x
0
, y
0
que verifican
x
0
= a y G(x
0
, y
0
) = 0 y proceder por incrementos en x hasta llegar al valor x
N
= b.
En cada paso se obtiene el valor de y
n+1
aplicando el m´etodo N-R a la funci´on
G(x
n+1
, y) donde y es la variable y x
n+1
permanece fijo; con valor inicial el valor de
y
n
obtenido en el paso anterior. Dado que la funci´on y(x) se supone continua, esta
elecci´on del valor inicial se supone apropiada.
(a) Aplicar el m´etodo para la ecuaci´on G(x, y) = x
2
+ y
2
− 1 = 0, comenzando en
x
0
= 0, y
0
= 1 para valores de x en [0, 1]. Graficar junto con la soluci´on que se
obtiene de despejar anal´ıticamente y comparar. Utilizar distintos valores para el
incremento y para la cantidad de iteraciones del m´etodo N-R en cada paso.
(b) Aplicar el m´etodo para G(x, y) = 3x
7
+ 2y
5
− x
3
+ y
3
− 3. Comenzar la tabla en
x
0
= 0, y
0
= 1 y proceder por incrementos en x de 0.2 hasta llegar a x
50
= 10.
(15) Dada F : IR
n
→ IR
n
el m´etodo N-R generalizado consiste en realizar la iteraci´on
vectorial
x
k+1
= x
k
−(DF[
x
k)
−1
.F(x
k
),
donde (DF[
x
k)
−1
es la inversa de la matriz diferencial de F evaluada en x
k
.
Usar la versi´on generalizada a varias variables del m´etodo N-R para para resolver
el sistema de ecuaciones
2x −3y = 0, x
2
−y
2
−3 = 0
comenzando con valores iniciales (x
0
, y
0
) = (2, 1).
(16) Resolver cos(x) = 2x, x > 0 comenzando con x
0
= 0.5 y utilizando:
(a) La iteraci´on de punto fijo x
n+1
=
1
2
cos(x
n
)
(b) El m´etodo N-R.
Graficar, usando Matlab, las sucesiones obtenidas y comparar.
(17) Sea g una funci´on tal que g

es continua en [s, b], donde s es un punto fijo de g. Si
adem´as, se verifica que 0 ≤ g

(x) ≤ K < 1 para todo x ∈ [s, b], mostrar que la iteraci´on,
comenzando con x
0
∈ [s, b], converge decrecientemente a s.
86 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
(18) Sea f : IR
>0
→ IR definida como f(x) =
8x −1
x
−e
x
.
(a) Dibujar la gr´afica de f y determinar el n´ umero de ra´ıces de la ecuaci´on f(x) = 0,
localizando cada ra´ız entre dos enteros consecutivos.
(b) Para cada una de las siguientes funciones:
f
1
(x) =
1
8
(1 +xe
x
), f
2
(x) = ln
_
8x −1
x
_
consideramos el siguiente m´etodo iterativo: dado x
0
= 1 sea
x
n+1
= f
i
(x
n
), n ∈ IN, (i = 1, 2).
Estudiar si estas sucesiones convergen hacia alguna de las ra´ıces de f = 0.
(c) Utilizando Matlab, estimar las ra´ıces con estos dos m´etodos.
(19) Sea f(x) = x
3
−x−1. Se consideran las dos siguientes iteraciones de m´etodo de punto
fijo.
g(x) = x
3
−1, h(x) =
3

x + 1.
(a) Determinar cu´ales de estas funciones son apropiadas para la iteraci´on.
(b) Para las que s´ı lo sean:
• Determinar un intervalo inicial I en el cual el m´etodo converja.
• Dar un valor inicial x
0
∈ I y la cantidad de iteraciones necesarias para
aproximar la ra´ız de f con error menor que 10
−5
comenzando con el x
0
dado.
(20) Dada la funci´on f(x) = x + 1/x −2, f : IR
>0
→ IR, se construye el siguiente algoritmo
para aproximar la ra´ız r = 1:
x
n+1
= 2 −1/x
n
(a) Verificar que si x
0
> 1 entonces la sucesi´on ¦x
n
¦ es mon´otona decreciente y acotada
inferiormente por 1. Concluir que x
n
→ 1, aunque esta iteraci´on no est´a en las
hip´otesis del teorema del punto fijo. ¿Qu´e hip´otesis no se cumple?
(b) Dar un algoritmo para aproximar la ra´ız de f que converja cuadr´aticamente.
(21) Sea f una funci´on C
1
en las condiciones del m´etodo N-R. Sea g(x) = x−
f(x)
f

(x)
. Mostrar
que el m´etodo N-R es un m´etodo de punto fijo.
CAP´ıTULO 5
Interpolaci´on
El objetivo de este cap´ıtulo es estudiar c´omo puede aproximarse una funci´on por polinomios.
Una forma de hacer ´esto es construir los polinomios de manera que coincidan con la funci´on
dada en algunos puntos predeterminados, lo que recibe el nombre de interpolaci´on polinomial.
Analizaremos distintos m´etodos para resolver este problema y estudiaremos el error que se
comete al reemplazar una funci´on por un polinomio interpolante.
Hay diversos motivos para estudiar este problema. Por un lado, el polinomio interpolante puede
utilizarse para reconstruir una funci´on f a partir de una tabla de valores. Por otra parte, es
una herramienta fundamental para integraci´on y diferenciaci´on num´erica, como veremos m´as
adelante.
1. Interpolaci´on de Lagrange
En lo que sigue, si n ∈ IN
0
, llamaremos T
n
al conjunto de polinomios de grado menor o igual
que n, incluyendo el polinomio nulo.
Supongamos que se sabe que la tabla de valores
(x
j
): x
0
x
1
x
2
. . . x
n
(y
j
): y
0
y
1
y
2
. . . y
n
corresponde con datos de una funci´on continua que se desconoce. Queremos poder modelizar
dicha funci´on a por medio de un polinomio. Es decir, queremos encontrar un polinomio tal que
p(x
j
) = y
j
, ∀j = 0, 1, . . . , n. (5.1)
Nuestro primer paso ser´a dar un resultado b´asico que establece que ´esto es posible. Mostraremos
una forma concreta de hallar un polinomio p que verifique (5.1) y adem´as veremos que si el
polinomio es de grado menor o igual que n, ´este es ´ unico. Vamos a basar nuestra demostraci´on
en la Base de Lagrange que es una base de polinomios que construimos a continuaci´on.
Base de Lagrange: Para cada punto x
j
, j = 1, . . . , n, buscamos un polinomio de grado n que
se anule en todos los x
i
salvo x
j
donde queremos que valga 1. Por ejemplo,
0
ser´a un polinomio
en T
n
tal que se anula en x
1
, . . . , x
n
y
0
(x
0
) = 1.
88 5. INTERPOLACI
´
ON
Como x
1
, . . . , x
n
son ra´ıces de
0
,
0
(x) = α

n
i=1
(x−x
i
); donde α es una constante que se elige
de modo que
0
(x
0
) = 1. Imponiendo esta condici´on obtenemos

0
(x) =
n

i=1
(x −x
i
)
n

i=1
(x
0
−x
i
)
.
De manera an´aloga, para cada j = 1, . . . , n,, el polinomio
j
∈ T
n
tal que

j
(x
i
) = δ
ij
=
_
1 i = j
0 i ,= j
estar´a dado por

j
(x) =

i=j
(x −x
i
)

i=j
(x
j
−x
i
)
(5.2)
Los polinomios ¦
0
,
1
, . . . ,
n
¦ se conocen como la base de Lagrange. Vale destacar que estos
polinomios s´olo dependen de los datos ¦x
0
, x
1
, . . . , x
n
¦.
Teorema 5.1. Dados x
0
,. . . ,x
n
y valores y
0
, . . . , y
n
existe un ´ unico polinomio p
n
∈ T
n
tal que
p
n
(x
j
) = y
j
; ∀j = 0, . . . , n.
Demostraci´ on. Usando la base de Lagrange definimos
p
n
(x) =
n

j=0
y
j

j
(x). (5.3)
obteniendo un polinomio p
n
∈ T
n
que verifica (5.1). Veamos que es ´ unico. Supongamos que hay
dos polinomios p
n
, q
n
∈ T
n
que interpolan la tabla de pares (x
i
, y
i
), esto es
(p
n
−q
n
)(x
j
) = 0 ∀j = 0, . . . , n.
Entonces p
n
− q
n
es un polinomio de grado menor o igual que n con n + 1 ra´ıces distintas; es
decir, p
n
−q
n
es el polinomio nulo.
1. INTERPOLACI
´
ON DE LAGRANGE 89
Observaci´ on 5.2. (1) La escritura (5.3) se llama forma de Lagrange del polinomio inter-
polador.
(2) El polinomio p
n
puede tener grado estrictamente menor que n. Por ejemplo, si se
considera la tabla de 5 valores
(x
j
): -4 -2 0 1 3
(y
j
): 9 5 1 -1 -5
El polinomio de grado menor o igual que 4 que interpola la tabla es p
4
(x) = −2x + 1.
Gracias a la unicidad, como se trata de un polinomio de grado 1, es suficiente mostrar
que en cada x
j
, p
4
toma el valor y
j
; esto es inmediato.
(3) Si los datos corresponden con una funci´on f que es un polinomio de grado menor o
igual que n, es decir, f ∈ T
n
y los valores y
j
= f(x
j
); entonces f = p
n
(la interpolaci´on
es exacta para polinomios).
(4) El polinomio que interpola en n + 1 puntos distintos es ´ unico en T
n
. Si se permite
mayor grado hay infinitos. Por ejemplo, si q es un polinomio cualquiera, el polinomio
p(x) = (−2x + 1) +q(x)(x + 4)(x + 2)x(x −1)(x −3),
tambi´en interpola la tabla dada arriba.
Otra forma de demostrar la existencia (y de encontrar el polinomio) es por el m´etodo de los
coeficientes indeterminados. El polinomio ser´a de la forma
p
n
(x) = a
0
+a
1
x + +a
n
x
n
y se buscan a
0
, . . . , a
n
tales que
p
n
(x
j
) = y
j
.
Al evaluar, queda formado un sistema (n + 1) (n + 1)
_
_
_
_
_
1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
x
n
n
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
n
_
_
_
_
_
=
_
_
_
_
_
y
0
y
1
.
.
.
y
n
_
_
_
_
_
La matriz de la izquierda se llama matriz de Van der Monde y como s´olo depende de los datos
¦x
0
, . . . , x
n
¦ suele notarse por V (x
0
, . . . , x
n
).
Para ver que existe una soluci´on (a
0
, . . . , a
n
) y que es ´ unica hay que ver que la matriz V (x
0
, . . . , x
n
)
es inversible. Esto equivale a ver que el n´ ucleo es nulo. Ahora, si (a
0
, . . . , a
n
) ∈ Nu(V (x
0
, . . . , x
n
))
tendr´ıamos
90 5. INTERPOLACI
´
ON
a
0
+a
1
x
j
+a
2
x
2
j
+. . . +a
n
x
n
j
= 0 ∀j = 0, . . . , n.
Entonces a
0
= . . . = a
n
= 0 (pues un polinomio de grado n no nulo no puede tener n + 1 ra´ıces
distintas).
Ejemplo 5.3. Se quiere interpolar la funci´on f(x) = x
2
3
en el intervalo [−1, 1] por un polinomio.
Si tenemos en cuenta la paridad de la funci´on, podemos pensar que un polinomio de grado par
ser´a una buena elecci´on. La Figura 5.1 muestra el gr´afico de f junto con el polinomio interpolante
p que se obtiene al considerar 11 puntos equiespaciados. Si consideramos la diferencia m´axima
entre f y el polinomio p evaluados en una malla suficientemente fina (puntos equiespaciados con
distancia h = 0.01), el error que se obtiene es grande como puede observarse en el gr´afico; el
error num´erico = 1.4886...
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
1.2
Figura 5.1. Interpolaci´ on de f(x) = x
2
3
en [−1, 1], (11 puntos equiespaciados)
2. Error de interpolaci´on
Cuando los datos obtenidos corresponden con datos de una funci´on f definida en [a, b] y x
0
,
x
1
,. . . , x
n
∈ [a, b], son n + 1 puntos distintos; el polinomio interpolador a encontrar ser´a un
polinomio p
n
∈ T
n
que coincida con f en dichos puntos, es decir p
n
verifica que
p
n
(x
j
) = f(x
j
) ∀j = 0, . . . , n.
La ventaja de obtener un polinomio que interpole a una funci´on f de la cual s´olo se conocen
sus valores en los puntos ¦x
0
, . . . , x
n
¦ es que, el polinomio, arroja una f´ormula que permite
sustituir la funci´on f y hacer evaluaciones en puntos diferentes a los conocidos. Para que este
reemplazo tenga alguna validez num´erica es importante conocer una estimaci´on del error que
2. ERROR DE INTERPOLACI
´
ON 91
se comete. Para ´esto ser´a necesario suponer que la funci´on f verifica algunas condiciones de
suavidad. Llamemos a este error:
E
n
(x) = f(x) −p
n
(x), x ∈ [a, b].
Con el siguiente teorema, damos el primer paso para poder estimar el error cometido; es decir,
damos una expresi´on para E
n
(x).
Dados los puntos x
0
, . . . , x
n
, utilizaremos la notaci´on W
n+1
para designar al polinomio m´onico
de grado n + 1 que se anula en esos puntos. Es decir,
W
n+1
(x) = (x −x
0
) (x −x
n
)
Teorema 5.4. Sean f ∈ C
n+1
[a, b] y p
n
∈ T
n
el polinomio interpolador de f en x
0
, . . . , x
n
puntos del intervalo [a, b]. Para cada x ∈ [a, b], existe ξ ∈ [a, b], ξ = ξ(x), tal que
E
n
(x) = f(x) −p
n
(x) =
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x).
Demostraci´on. Notar que E
n
(x
j
) = 0 y W
n+1
(x
j
) = 0 para todo j. Por lo tanto, podemos
suponer x ,= x
j
. Fijado x definimos la siguiente funci´on de t,
F(t) = f(t) −p
n
(t) −αW
n+1
(t)
donde α se elige de modo que F(x) = 0. O sea, α =
f(x)−p
n
(x)
W
n+1
(x)
, que est´a bien definida pues
W
n+1
(x) ,= 0. Observemos que para todo j,
F(x
j
) = f(x
j
) −p
n
(x
j
) −αW
n+1
(x
j
) = 0.
Entonces F se anula en los n+2 puntos x
0
, . . . , x
n
, x. En consecuencia, por el teorema de Rolle,
F

tiene al menos n + 1 ceros, F

al menos n ceros y as´ı siguiendo se tiene que existe un punto
ξ ∈ (a, b) tal que F
(n+1)
(ξ) = 0. Como
F
(n+1)
(t) = f
(n+1)
(t) −(n + 1)!α
Se obtiene,
f
(n+1)
(ξ)
(n + 1)!
=
f(x) −p
n
(x)
W
n+1
(x)
lo que concluye la demostraci´on.
Ejemplo 5.5. Se quiere interpolar la funci´on f(x) = cos(x)
3
en el intervalo [−3, 3] por un
polinomio.
92 5. INTERPOLACI
´
ON
Si se eligen 10 puntos equiespaciados se obtiene un polinomio como muestra la Figura 5.2.
Si consideramos el error num´erico, que es el que se obtiene como diferencia m´axima entre f
y el polinomio evaluados en una malla suficientemente fina (puntos equiespaciados con paso
h = 0.01) se tiene un error de 0.4303... Tan s´olo al considerar 25 puntos equiespaciados (tomados
a intervalos de longitud 0.25) se obtiene un error num´erico menor que 10
−6
. En este caso, en
una figura como la anterior, los gr´aficos del polinomio y la funci´on se confunden.
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
−6
−5
−4
−3
−2
−1
0
1
2
3
4
Figura 5.2. Interpolaci´ on de f(x) = cos(x)
3
en [−3, 3], (10 puntos equiespaciados)
3. Forma de Newton
La forma de Newton es conveniente para calcular el polinomio, en T
n
, que interpola a una
funci´on f en x
0
, . . . , x
n−1
, x
n
una vez conocido el polinomio interpolador de f en x
0
, . . . , x
n−1
.
La forma de Newton del polinomio interpolador puede verse como una generalizaci´on del poli-
nomio de Taylor asociado a una funci´on. En esta construcci´on aparecen las diferencias divididas
que presentamos a continuaci´on.
Primera diferencia dividida
f[x
0
, x
1
] =
f(x
1
) −f(x
0
)
x
1
−x
0
.
Segunda diferencia dividida
f[x
0
, x
1
, x
2
] =
f[x
1
, x
2
] −f[x
0
, x
1
]
x
2
−x
0
.
As´ı sucesivamente se define la diferencia de orden k asociada a los puntos x
0
, . . . , x
k
,
3. FORMA DE NEWTON 93
f[x
0
, . . . , x
k
] =
f[x
1
, . . . , x
k
] −f[x
0
, . . . , x
k−1
]
x
k
−x
0
.
La construcci´on de la forma de Newton se basa en la siguiente idea. Una vez obtenido p
k
∈ T
k
que interpola a f en x
0
, . . . , x
k
escribimos p
k+1
∈ T
k+1
como
p
k+1
(x) = p
k
(x) +a
k+1
(x −x
0
) (x −x
k
).
Observemos que como el t´ermino agregado no modifica el valor de p
k
en x
0
, . . . , x
k
, p
k+1
tambi´en
interpola a f en esos puntos independientemente del valor de a
k+1
. Por otra parte, podemos
elegir
a
k+1
=
f(x
k+1
) −p
k
(x
k+1
)
(x
k+1
−x
0
) (x
k+1
−x
k
)
de modo que p
k+1
(x
k+1
) = f(x
k+1
).
Iterando este procedimiento desde k = 1 hasta k = n −1 se obtiene la forma de Newton
p
n
(x) = a
0
+a
1
(x −x
0
) +a
2
(x −x
0
)(x −x
1
) +. . . +a
n
(x −x
0
) (x −x
n−1
)
En lo que sigue veremos que los a
j
resultan ser las diferencias divididas y por lo tanto esta
expresi´on es an´aloga al polinomio de Taylor.
Por ejemplo si n = 1,
p
1
(x) = a
0
+a
1
(x −x
0
)
y como
p
1
(x
0
) = f(x
0
) p
1
(x
1
) = f(x
1
)
tenemos
a
0
= f(x
0
) a
1
= f[x
0
, x
1
].
Si n = 2,
p
2
(x) = a
0
+a
1
(x −x
0
) +a
2
(x −x
0
)(x −x
1
).
Como en el caso n = 1, de las igualdades p
1
(x
0
) = f(x
0
) y p
1
(x
1
) = f(x
1
) queda
94 5. INTERPOLACI
´
ON
a
0
= f(x
0
) a
1
= f[x
0
, x
1
].
Veamos ahora que
a
2
= f[x
0
, x
1
, x
2
].
Sabemos ya que el polinomio p
1
(x) que interpola a f en x
0
, x
1
se escribe como
p
1
(x) = f(x
0
) +f[x
0
, x
1
](x −x
0
).
An´alogamente, si q
1
(x) ∈ T
1
interpola a f en x
1
, x
2
tenemos,
q
1
(x) = f(x
1
) +f[x
1
, x
2
](x −x
1
).
Entonces, el polinomio
r(x) =
(x −x
0
)q
1
(x) −(x −x
2
)p
1
(x)
x
2
−x
0
tiene grado menor o igual que 2 y verifica r(x
j
) = f(x
j
) para j = 0, 1, 2. Por lo tanto, coincide
con p
2
.
En consecuencia, igualando los coeficientes de x
2
de r y p
2
se obtiene
a
2
=
f[x
1
, x
2
] −f[x
0
, x
1
]
x
2
−x
0
= f[x
0
, x
1
, x
2
].
El mismo argumento puede aplicarse para demostrar el siguiente teorema.
Teorema 5.6. El polinomio p
n
∈ T
n
, que interpola a f en los puntos x
0
, . . . , x
n
est´a dado por
p
n
(x) = f(x
0
) +f[x
0
, x
1
](x −x
0
) + +f[x
0
, . . . , x
n
](x −x
0
) . . . (x −x
n−1
) (5.4)
No s´olo los coeficientes del polinomio interpolador pueden expresarse en t´erminos de las diferen-
cias divididas, sino tambi´en el error como lo muestra el siguiente teorema.
Teorema 5.7. Si p
n
∈ T
n
interpola a f en los puntos x
0
, . . . , x
n
, se tiene la siguiente expresi´ on
del error
E
n
(x) = f(x) −p
n
(x) = f[x
0
, . . . , x
n
, x]W
n+1
(x).
Demostraci´ on. Agregamos x
n+1
a la sucesi´on ¦x
0
, . . . , x
n
¦ y consideramos p
n
y p
n+1
como en
(5.4), entonces se tiene
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 95
p
n+1
(x) = f(x
0
) +f[x
0
, x
1
](x −x
0
) + +f[x
0
, . . . , x
n+1
](x −x
0
) (x −x
n
)
= p
n
(x) +f[x
0
, . . . , x
n+1
]W
n+1
(x).
Por lo tanto
f(x
n+1
) = p
n+1
(x
n+1
) = p
n
(x
n+1
) +f[x
0
, . . . , x
n+1
]W
n+1
(x
n+1
).
De aqu´ı se deduce que el error satisface
E
n
(x
n+1
) = f(x
n+1
) −p
n
(x
n+1
) = f[x
0
, . . . , x
n+1
]W
n+1
(x
n+1
).
Como tomamos x
n+1
cualquier punto distinto de x
0
, . . . , x
n
se tiene para todo x,
E
n
(x) = f(x) −p
n
(x) = f[x
0
, . . . , x
n
, x]W
n+1
(x).
Corolario 5.8. Dados x
0
, . . . , x
n
puntos distintos, existe ξ intermedio, es decir ξ entre x
0
, . . . , x
n
tal que
f[x
0
, . . . , x
n
] =
f
(n)
(ξ)
n!
.
Demostraci´on. Evaluando en x = x
n
la expresi´on del error E
n−1
= f −p
n−1
, dada por el teorema
anterior tenemos,
E
n−1
(x
n
) = f[x
0
, . . . , x
n
](x
n
−x
0
) (x
n
−x
n−1
)
lo que junto con la f´ormula del error dada en el Teorema 5.4 concluye la demostraci´on.
4. Polinomios de Tchebychev - Minimizaci´on del Error
Una pregunta natural es c´omo elegir los puntos de interpolaci´on para optimizar la aproximaci´on.
El Teorema 5.4 nos dice que el error depende de f
n+1
en alg´ un punto del intervalo y de los puntos
x
j
a trav´es del polinomio W
n+1
(x) = (x − x
0
)(x − x
1
) (x − x
n
). Como se pretende obtener
una buena aproximaci´on sin tener informaci´on sobre la funci´on f, la idea es elegir los puntos de
manera tal que |W
n+1
()|

sea m´ınima. Este problema, que en principio parece complicado,
fue resuelto por Tchebychev en el siglo XIX introduciendo una sucesi´on de polinomios, que hoy
llevan su nombre.
Para simplificar la presentaci´on resolveremos el problema para funciones definidas en el intervalo
[−1, 1]. M´as adelante veremos que se puede trasladar la construcci´on a cualquier intervalo [a, b]
mediante un cambio de variables.
Los polinomios de Tchebychev se definen para k = 0, 1, 2, . . . por
96 5. INTERPOLACI
´
ON
T
k
(x) = cos(k cos
−1
x)
donde cos
−1
es la inversa de cos : [0, π] → [−1, 1].
En principio no es evidente que T
k
sea un polinomio. Pero esto puede verse utilizando identidades
trigonom´etricas. En efecto,
T
0
(x) = 1, T
1
(x) = x
y como cos(α +β) + cos(α −β) = 2 cos αcos β, si ponemos x = cos θ resulta
T
k+1
(x) = cos((k + 1)θ) = 2 cos θ cos(kθ) −cos((k −1)θ),
es decir,
T
k+1
(x) = 2xT
k
(x) −T
k−1
(x). (5.5)
Algunos ejemplos que siguen a T
0
y T
1
cuyos gr´aficos se muestran en la figura 5.1 son
T
2
(x) = 2x
2
−1, T
4
(x) = 8x
4
−8x
2
+ 1,
T
3
(x) = 4x
3
−3x, T
5
(x) = 16x
5
−20x
3
+ 5x
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=3
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=4
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=5
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=6
Figura 5.3. Polinomios de Tchebychev
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 97
Los polinomios de Tchebychev tienen las siguientes propiedades.
Proposici´ on 5.9. Sea T
k
el polinomio de Tchebychev de grado k.
(1) El coeficiente principal de T
k
es 2
k−1
, para todo k ∈ IN.
(2) Las ra´ıces del polinomio T
k
se encuentran en el intervalo [−1, 1] y son de la forma
x
i
= cos
_
(2i + 1)π
2k
_
para i = 0, 1, . . . , k −1. En particular, son todas distintas.
(3) |T
k
|

= 1. Adem´ as, T
k
alcanza los valores 1 y -1 en k + 1 puntos, es decir,
|T
k
|

= [T
k
(y
i
)[ = 1 para y
i
= cos(

k
)
con i = 0, . . . , k.
Demostraci´on. La primer afirmaci´on puede verse de la relaci´on de recurrencia (5.5).
Como T
k
(x) = cos(k cos
−1
x), T
k
(x) = 0 si y s´olo si el argumento es m´ ultiplo impar de
π
2
. Es
decir, para i ∈ ZZ,
k cos
−1
(x) = (2i + 1)
π
2
x = cos(
(2i+1)
k
π
2
)
ambas afirmaciones de 2 quedan probadas. Es decir, las ra´ıces pertenecen al intervalo [−1, 1] y
variando los valores de i = 0, 1, . . . , k −1 se obtienen todas.
Para probar 3, basta notar que [T
k
(x)[ ≤ 1 por ser imagen de la funci´on coseno. Adem´as, sobre
los puntos y
i
= cos(

k
), T
k
toma alternativamente los valores 1, −1 y por lo tanto la norma es
exactamente 1.
Ahora s´ı, estamos en condiciones de enunciar y probar el resultado que anticipamos. Es decir,
entre todas las posibles elecciones de n + 1 puntos en [−1, 1], los ceros de T
n+1
son los puntos
de interpolaci´on que hay que elegir para minimizar la expresi´on |(x − x
0
) . . . (x − x
n
)|

que
aparece en la f´ormula del error.
Teorema 5.10. Entre todos los polinomios m´onicos de grado n + 1,
W
n+1
(x) =
1
2
n
T
n+1
(x)
minimiza la norma | |

en [−1, 1]. O sea, si P ∈ T
n+1
y es m´onico entonces,
|W
n+1
|

≤ |P|

.
Demostraci´on. Como el coeficiente principal de T
n+1
es 2
n
se tiene que W
n+1
es m´onico.
Supongamos que existe un polinomio P ∈ T
n+1
, m´onico tal que
|P|

< |W
n+1
|

.
98 5. INTERPOLACI
´
ON
Por la proposici´on anterior, [W
n+1
(x)[ alcanza su m´aximo (que es
1
2
n
) en los n + 2 puntos
y
i
= cos(

n+1
), i = 0, . . . , n + 1. Esto es, si restringimos W
n+1
a [y
i
, y
i+1
], W
n+1
alcanza la
norma infinito en cada uno de estos subintervalos. Entonces, en cada subintervalo se mantiene
la relaci´on
|P|
L

[y
i
,y
i+1
]
<
1
2
n
= |W
n+1
|
L

[y
i
,y
i+1
]
. (5.6)
Por otra parte, W
n+1
(y
i
) = −W
n+1
(y
i+1
). Supongamos, por ejemplo, que W
n+1
(y
i
) > 0 (en el
caso contrario se procede de manera an´aloga). Entonces, de la desigualdad (5.6) se sigue que
P(y
i
) < W
n+1
(y
i
) y que P(y
i+1
) > W
n+1
(y
i+1
).
Luego, el polinomio Q(x) = P(x) − W
n+1
(x) tiene al menos un cero en el intervalo (y
i
, y
i+1
) y
como hay n+2 valores de y
i
, resulta que Q tiene al menos n+1 ceros. Pero tanto P como W
n+1
son polinomios de grado n + 1 y ambos son m´onicos de donde se deduce que Q tiene grado a
lo sumo n. Esto es una contradicci´on pues acabamos de ver que Q tiene n + 1 ra´ıces distintas.
Luego, un tal P no puede existir.
Observaci´ on 5.11. Puede demostrarse, aunque no lo haremos aqu´ı, que la desigualdad del
teorema es estricta, o sea, |W
n+1
|

< |P|

si P ,= W
n+1
es un polinomio m´onico P ∈ T
n+1
.
Es decir el minimizante es ´ unico.
Ejemplo 5.12. Se quiere aproximar la funci´on f(x) = x
2
3
en el intervalo [−1, 1] por un polinomio
que la interpole en 11 puntos.
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
0
0.2
0.4
0.6
0.8
1
Figura 5.4. Interpolaci´ on de f(x) = x
2
3
en los ceros de T11
Si se eligen los nodos como los ceros de T
11
se obtiene un polinomio como muestra la Figura 5.4
(comparar con Figura 5.1). En este caso el error num´erico cometido es menor que 0.1408,
(comparar con Ejemplo 5.3).
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 99
Veamos ahora como se aplica el Teorema 5.7 para acotar el error cuando se usan las ra´ıces de
T
n+1
como puntos de interpolaci´on.
Teorema 5.13. Sea f ∈ C
n+1
[−1, 1]. Si p
n
∈ T
n
es el polinomio que interpola a f en las ra´ıces
de T
n+1
entonces,
|f −p
n
|


|f
(n+1)
|

2
n
(n + 1)!
.
Demostraci´on. Basta observar que W
n+1
=
1
2
n
T
n+1
para obtener
f(x) −p
n
(x) =
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x) =
f
(n+1)
(ξ)
2
n
(n + 1)!
T
n+1
(x),
donde ξ ∈ [−1, 1]. Entonces, el resultado se sigue del hecho de que [T
n+1
(x)[ ≤ 1.
Ejemplo 5.14. Sea f : [−1, 1] → IR dada por f(x) = e
3x
. Queremos comparar las cotas del
error que se produce al estimar el valor de f(0.8) al usar el polinomio interpolador de grado 4
constru´ıdo con puntos equiespaciados y con los ceros del polinomio T
5
.
Comencemos observando que f
(5)
(x) = 243e
3x
y por lo tanto
|f
(5)
|

5!

243e
3
5!

4880.79
5!
.
Si interpolamos f en cinco puntos equiespaciados tenemos que
W
5
(x) = (x + 1)(x + 0.5)x(x −0.5)(x −1),
entonces [W
5
(0.8)[ = 0.11232 y usando la f´ormula del error obtenemos
[(f −p
4
)(0.8)[ ≤
4880.79
5!
0.11232 ∼ 4.57.
Cuando en realidad
[E
4
(0.8)[ = 0.4591 . . .
Notar que en este caso, se sobre estima el error en un factor de 10.
Ahora, interpolamos usando los ceros de T
4
. La cota que se obtiene de la f´ormula de error es
[E
4
(0.8)[ ≤
4880.79
5!2
4
= 2.54,
mientras que E
4
(0.8) = f(0.8) −p
4
(0.8) = 0.2544.
100 5. INTERPOLACI
´
ON
Observemos que tanto el error como su estimaci´on se reducen aproximadamente la mitad que
en el caso de puntos equiespaciados.
Observaci´ on 5.15. Una traslaci´on lineal del intervalo [a, b] al intervalo [−1, 1] nos permite dar
los polinomios de Tchebychev correspondientes al intervalo [a, b].
En efecto, es f´acil ver que el cambio de variables t =
2(x −a)
b −a
−1 es la transformaci´on mencio-
nada. Por lo tanto
¯
T
k
(x) = T
k
(t) = T
k
_
2(x −a)
b −a
−1
_
= cos
_
k cos
−1
_
2(x −a)
b −a
−1
__
es un polinomio de grado k que tiene propiedades an´alogas a T
k
pero ahora en el intervalo [a, b].
En particular se tiene:
(1) La relaci´on de recurrencia:
¯
T
k+1
(x) = 2
_
2(x −a)
b −a
−1
_
¯
T
k
(x) −
¯
T
k−1
(x)
(2) El coeficiente principal de
¯
T
k
(x) es 2
k−1
(
2
b−a
)
k
.
(3) Los ceros de
¯
T
k
(x) son de la forma
x
j
=
b −a
2
cos
_
(2j + 1)π
2k
_
+
b +a
2
∀j = 0, . . . , k −1.
(4) Interpolando en los ceros de
¯
T
n+1
W
n+1
(x) =
1
2
n
_
b −a
2
_
n+1
¯
T
n+1
(x) y |W
n+1
|

=
1
2
n
_
b −a
2
_
n+1
obteni´endose, para x ∈ [a, b], la cota del error
[f(x) −p
n
(x)[ ≤
|f
(n+1)
|

(n + 1)!2
n
_
b −a
2
_
n+1
.
Antes de proceder con algunos comentarios finales estudiemos el an´alogo al Ejemplo 5.5 consi-
derando como nodos los ceros del correspondiente polinomio de Tchebychev.
Ejemplo 5.16. Se quiere aproximar la funci´on f(x) = cos(x)
3
en el intervalo [−3, 3] por un
polinomio que la interpole en los ceros de T
10
.
Al elegirse como nodos los ceros de T
10
se obtiene un polinomio como muestra la Figura 5.5
(comparar con Figura 5.2). En este caso el error num´erico cometido es menor que 4 10
−3
.
Comparar con Ejemplo 5.5 en el que se interpola la misma funci´on en 10 puntos equiespaciados.
Comentarios:
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 101
−3 −2 −1 0 1 2 3
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 5.5. Interpolaci´on de f(x) = cos(t)
3
en [−3, 3], (en los ceros de T
10
)
(1) A partir de la f´ormula del error dada en el Teorema 5.4 puede demostrarse que si f
es una funci´on entera, es decir, admite desarrollo de Taylor convergente en todo IR,
entonces
|f −p
n
|
L

[a,b]
→ 0 (n → ∞).
cualesquiera sean los puntos de interpolaci´on.
(2) No podemos asegurar convergencia uniforme, es decir, en norma infinito, si se cambia
la hip´otesis f entera por f ∈ C

(IR). Por ejemplo, si se eligen puntos equidistribuidos
en el intervalo [−1, 1] se sabe que el error no tiende a cero para la funci´on de Runge
f(x) =
1
1 + 25x
2
(3) El comportamiento de la interpolaci´on en los puntos de Tchebychev es mucho mejor.
Por ejemplo, puede demostrarse que si la funci´on f es derivable
|f −p
n
|

→ 0 (n → ∞).
(4) La interpolaci´on en los puntos de Tchebychev no converge para cualquier funci´on con-
tinua. O sea, puede verse que existe f continua tal que |f −p
n
|

,→ 0. M´as a´ un puede
demostrarse el siguiente
Teorema. (Faber) Dados puntos
x
0
0
x
1
0
x
1
1
x
2
0
x
2
1
x
2
2
x
3
0
x
3
1
x
3
2
x
3
3
.
.
.
102 5. INTERPOLACI
´
ON
arbitrarios en [a, b], existe f continua tal que |f −p
n
|

,→ 0, donde p
n
es el polinomio
interpolador en x
n
0
, . . . , x
n
n
.
5. Interpolaci´on de Hermite
En algunos casos interesa tambi´en considerar junto con los valores de una funci´on f datos
relacionados con sus derivadas. Por ejemplo, puede buscarse un polinomio p que interpole a f
en determinados puntos y que adem´as p

coincida con f

en algunos de esos puntos. M´as en
general, se tiene el siguiente teorema que fue probado por Hermite.
Teorema 5.17. Dada una funci´on f, puntos x
0
, . . . , x
k
y m
0
, . . . , m
k
∈ IN
0
tales que m
0
+. . . +
m
k
= n + 1, existe un ´ unico polinomio p ∈ T
n
que satisface
_
¸
¸
¸
_
¸
¸
¸
_
p(x
0
) = f(x
0
), p

(x
0
) = f

(x
0
), . . . p
(m
0
−1)
(x
0
) = f
(m
0
−1)
(x
0
),
p(x
1
) = f(x
1
), p

(x
1
) = f

(x
1
), . . . p
(m
1
−1)
(x
1
) = f
(m
1
−1)
(x
1
),
.
.
.
.
.
.
.
.
.
p(x
k
) = f(x
k
), p

(x
k
) = f

(x
k
), . . . p
(m
k
−1)
(x
k
) = f
(m
k
−1)
(x
k
).
No haremos una demostraci´on de este teorema pero para dar una idea mostramos la construcci´on
del polinomio interpolador en un caso particular; donde adem´as puede verse c´omo se generaliza
la definici´on de diferencias divididas para valores de x
i
no todos distintos.
Se busca un polinomio p ∈ T
3
que cumpla
_
(i) p(x
0
) = f(x
0
), (iii) p(x
1
) = f(x
1
),
(ii) p

(x
0
) = f

(x
0
), (iv) p

(x
1
) = f

(x
1
).
Como ¦1, x −x
0
, (x −x
0
)
2
, (x −x
0
)
2
(x −x
1
)¦ forman una base de T
3
por ser todos de distinto
grado, cualquier polinomio en T
3
se puede escribir de la forma
p(x) = a
0
+a
1
(x −x
0
) +a
2
(x −x
0
)
2
+a
3
(x −x
0
)
2
(x −x
1
).
Las condiciones (i), (ii) se satisfacen si y solo si a
0
= f(x
0
) y a
1
= f

(x
0
). Ahora hay que
determinar a
2
y a
3
para que se cumplan las dos condiciones restantes. Para simplificar la
notaci´on ponemos h = (x
1
−x
0
), entonces se tiene
p(x
1
) = a
0
+ha
1
+h
2
a
2
= f(x
0
) +f

(x
0
)h +a
2
h
2
Para que se satisfaga la condici´on (iii) debe ser
a
2
=
f(x
1
) −f(x
0
) −f

(x
0
)h
h
2
=
_
f(x
1
) −f(x
0
)
h
−f

(x
0
)
_
1
h
.
5. INTERPOLACI
´
ON DE HERMITE 103
Observemos que lim
x
1
→x
0
f[x
0
, x
1
] = f

(x
0
) por lo que resulta natural generalizar la primer
diferencia dividida poniendo
f[x
0
, x
0
] = f

(x
0
).
De esta manera se obtiene, de la definici´on de segunda diferencia dividida,
f[x
0
, x
0
, x
1
] =
f[x
0
, x
1
] −f[x
0
, x
0
]
x
1
−x
0
=
_
f(x
1
) −f(x
0
)
h
−f

(x
0
)
_
1
h
y por lo tanto, a
2
= f[x
0
, x
0
, x
1
].
Por ´ ultimo, queremos que p

(x
1
) = f

(x
1
). Entonces, debemos elegir a
3
para que se cumpla
f

(x
1
) = a
1
+ 2a
2
h +a
3
h
2
= f

(x
0
) + 2f[x
0
, x
0
, x
1
]h +a
3
h
2
de d´onde,
a
3
=
1
h
2
_
f

(x
1
) −f

(x
0
) −2f[x
0
, x
0
, x
1
]h
_
=
1
h
2
(f[x
1
, x
1
] −f[x
0
, x
0
] −2f[x
0
, x
0
, x
1
]h)
=
1
h
2
(f[x
1
, x
1
] −f[x
0
, x
1
] +f[x
0
, x
1
] −f[x
0
, x
0
] −2f[x
0
, x
0
, x
1
]h)
=
1
h
(f[x
0
, x
1
, x
1
] +f[x
0
, x
0
, x
1
] −2f[x
0
, x
0
, x
1
])
=
f[x
0
, x
1
, x
1
] −f[x
0
, x
0
, x
1
]
x
1
−x
0
.
O sea
a
3
= f[x
0
, x
0
, x
1
, x
1
].
En consecuencia, hemos demostrado que el ´ unico polinomio en T
3
que satisface las condiciones
pedidas es
p
3
(x) = f[x
0
] +f[x
0
, x
0
](x −x
0
) +f[x
0
, x
0
, x
1
](x −x
0
)
2
+f[x
0
, x
0
, x
1
, x
1
](x −x
0
)
2
(x −x
1
).
Esto generaliza la forma de Newton para x
i
no todos distintos.
104 5. INTERPOLACI
´
ON
6. Interpolaci´on por polinomios a trozos
En muchos casos para lograr una mejor aproximaci´on es conveniente utilizar funciones polino-
miales a trozos como interpolantes. De esta manera se parte el intervalo de manera tal que
en cada subintervalo se elige un polinomio distinto que interpole los datos. Por ejemplo, al
interpolar con polinomios de grado uno a trozos, quedan poligonales.
| | | | | | |
x
0
x
1
x
2
x
3
x
4
x
5
x
6
p
1
p
2
p
3
p
4
p
5
p
6
Aproximación por poligonales
Figura 5.2
f(x)
Partimos el intervalo [a, b] en subintervalos [x
j
, x
j+1
], a = x
0
< x
1
< x
2
. . . < x
n
= b. Dada
f : [a, b] → IR definimos la funci´on interpolante q
n
(x) tal que
q
n
[
[x
j
,x
j+1
]
∈ T
1
.
Consideremos el caso de puntos equiespaciados o sea, x
j
= a +jh con h =
b−a
n
. Para cualquier
f ∈ C
2
[a, b] y cualquier x ∈ [x
j
, x
j+1
], usando el Teorema tenemos 5.4
f(x) −q
n
(x) =
f


j
)
2
(x −x
j
)(x −x
j+1
).
Entonces
|f −q
n
|


|f

|

2
h
2
4
=
|f

|

8
(b −a)
2
n
2
→ 0
cuando n → ∞.
Ejemplo 5.18. Sea f : [−1, 1] → IR, la funci´on de Runge f(x) =
1
1 + 25x
2
. Puede verse que
|f

|

= 50. En consecuencia, aproximando por poligonales obtenemos
6. INTERPOLACI
´
ON POR POLINOMIOS A TROZOS 105
|f −q
n
|


|f

|

8
_
2
n
_
2
=
25
n
2
.
Luego, en este caso, interpolando por poligonales obtenemos una aproximaci´on mucho mejor
que la que se obtiene interpolando con un polinoimio, si se utilizan los mismos puntos.
Splines c´ ubicos.
En muchos problemas interesa aproximar por funciones derivables. Esto no puede lograrse
aproximando por poligonales y por lo tanto es necesario aumentar el grado de los aproximantes.
Un m´etodo cl´asico es el corrospondiente a grado tres, splines c´ ubicos. Vamos a ver que, de esta
manera, puede obtenerse un aproximante C
2
.
Dada f ∈ C[a, b] y a = x
0
< x
1
< x
2
. . . < x
n
= b buscamos S tal que S, S

y S

sean continuas
en [a, b] y adem´as se verifique
S(x
j
) = f(x
j
) para 0 ≤ j ≤ n y S [
[x
j
,x
j+1
]
∈ T
3
.
Por ejemplo si n = 3, como S
j
∈ T
3
tenemos 4 3 = 12 coeficientes a determinar. Veamos
cu´antas condiciones se tienen que satisfacer. Tenemos que verificar,
S
0
(x
0
) = f(x
0
), S
1
(x
1
) = f(x
1
), S
2
(x
2
) = f(x
2
),
S
0
(x
1
) = S
1
(x
1
), S
1
(x
2
) = S
1
(x
2
), S
2
(x
3
) = f(x
3
).
es decir, seis condiciones. Si adem´as queremos S

y S

continuas en x
1
, x
2
tenemos cuatro
condiciones mas. O sea, en total diez condiciones para doce inc´ognitas. Una cuenta an´aloga
puede hacerse en el caso general para ver que la cantidad de coeficientes a determinar supera en
dos al n´ umero de condiciones.
Luego, si hay soluci´on habr´a infinitas pues tenemos dos coeficientes para fijar arbitrariamente.
Lo natural entonces es fijar S

(x
0
) y S

(x
n
) o bien S

(x
0
) y S

(x
n
). Elegiremos esta ´ ultima
opci´on por ser m´as simple.
Teorema 5.19. Dada f ∈ C[a, b] y a = x
0
< x
1
< x
2
. . . < x
n
= b, existe un ´ unica S ∈ C
2
[a, b]
tal que
_
_
_
S(x
j
) = f(x
j
) 0 ≤ j ≤ n
S [
[x
j
,x
j+1
]
∈ T
3
con S

(a) = S

(b) = 0.
106 5. INTERPOLACI
´
ON
Demostraci´ on. Para j = 0, . . . , n −1 usaremos la notaci´on
S
j
= S [
[x
j
,x
j+1
]
y h
j
= x
j+1
−x
j
.
La funci´on S buscada debe cumplir que S

es una poligonal. Por lo tanto, si S

(x
j
) = y
j
, S

j
se
escribe como
S

j
(x) = y
j
x
j+1
−x
h
j
+y
j+1
x −x
j
h
j
0 ≤ j ≤ n −1.
Veremos que es posible encontrar valores y
j
de tal forma que se cumplan las condiciones reque-
ridas para S. Integrando dos veces obtenemos, para x ∈ [x
j
, x
j+1
], con 0 ≤ j ≤ n −1
S
j
(x) =
y
j
6h
j
(x
j+1
−x)
3
+
y
j+1
6h
j
(x −x
j
)
3
+c
j
(x −x
j
) +d
j
(x
j+1
−x) (5.7)
donde c
j
, d
j
son constantes a determinar que provienen de la integraci´on.
Observemos que para cualquier elecci´on de y
j
, c
j
y d
j
, S

resulta continua por ser poligonal.
Por lo tanto resta ver que esas constantes pueden elegirse de manera que se verifiquen las otras
condiciones requeridas sobre S.
Para que S sea continua e interpole a f tenemos que elegir c
j
, d
j
tal que
S
j
(x
j
) = f(x
j
) y S
j
(x
j+1
) = f(x
j+1
), 0 ≤ j ≤ n −1
de lo que, reemplazando en (5.7), obtenemos
c
j
=
f(x
j+1
)
h
j

y
j+1
h
j
6
y d
j
=
f(x
j
)
h
j

y
j
h
j
6
y por lo tanto, para cada 0 ≤ j ≤ n −1
S
j
(x) =
y
j
6h
j
(x
j+1
−x)
3
+
y
j+1
6h
j
(x −x
j
)
3
+
+
_
f(x
j+1
)
h
j

y
j+1
h
j
6
_
(x −x
j
) +
_
f(x
j
)
h
j

y
j
h
j
6
_
(x
j+1
−x).
Derivando, y utilizando la notaci´on ∆f
j
= f(x
j+1
) −f(x
j
), obtenemos
S

j
(x) = −
y
j
2h
j
(x
j+1
−x)
2
+
y
j+1
2h
j
(x −x
j
)
2
+
∆f
j
h
j

h
j
6
(y
j+1
−y
j
)
y tenemos que elegir y
j
para que se cumpla la condici´on que falta, es decir, que S

sea continua,
o sea
S

j
(x
j
) = S

j−1
(x
j
) 1 ≤ j ≤ n −1
7. EJERCICIOS 107
de lo que resulta que las n + 1 inc´ognitas y
j
deben ser soluci´on del siguiente sistema de n − 1
ecuaciones,
h
j−1
y
j−1
+ 2(h
j
+h
j−1
)y
j
+h
j
y
j+1
= b
j
con
b
j
= 6
_
∆f
j
h
j

∆f
j−1
h
j−1
_
Como tenemos dos inc´ognitas m´as que ecuaciones, podemos dar valores arbitrarios a y
0
, y
n
y,
pasando los t´erminos correspondientes al lado derecho, obtenemos el sistema tridiagonal,
_
_
_
_
_
γ
1
h
1
0 0
h
1
γ
2
h
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 γ
n−1
_
_
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
n−1
_
_
_
_
_
=
_
_
_
_
_
b
1
−h
0
y
0
b
2
.
.
.
b
n−1
−h
n−1
y
n
_
_
_
_
_
donde γ
i
= 2(h
i
+h
i−1
).
Ahora, como A es diagonal estrictamente dominante, entonces es inversible. Por lo tanto existe
soluci´on ´ unica una vez elegidos y
0
, y
n
.
Por ejemplo podemos elegir y
0
= y
n
= 0 para que se satisfagan las condiciones S

(x
0
) = 0 y
S

(x
n
) = 0, lo que concluye la demostraci´on.
Observemos que en general S

(x
j
) ,= f

(x
j
) y S

(x
j
) ,= f

(x
j
).
7. Ejercicios
(1) Para cada uno de los conjuntos de datos dados, calcular el polinomio p(x) interpolador
de grado menor o igual que 3, en la forma de Lagrange. Verificar utilizando el comando
polyfit de Matlab. Graficar el polinomio interpolador, usando el comando polyval.
x -1 0 2 3
y -1 3 11 27
x -1 0 1 2
y -3 1 1 3
(2) Repetir el problema anterior, usando el m´etodo de coeficientes indeterminados.
(3) (a) Construir las tablas de diferencias divididas para los datos del Ejercicio 1, y em-
plearlas para construir los polinomios interpoladores.
(b) Agregar a las tablas de datos del Ejercicio 1 el punto x = 4, y = 1. Aumentar las
tablas de diferencias divididas y calcular los polinomios interpoladores.
108 5. INTERPOLACI
´
ON
(4) Considerar la funci´on f(x) =
1
1 + 25x
2
en el intervalo [-1,1]. Graficar f junto con los
polinomios que resultan de interpolar a f en los n + 1 puntos equiespaciados x
0
=
−1, . . . , x
i
= x
0
+
2i
n
, . . . , x
n
= 1; para n = 5, 10, 15.
(5) Repetir el Ejercicio ?? para la funci´on f
1
: [−1, 1] → IR, f
1
(x) = [x[ y para la funci´on
f
2
: [−1, 1] → IR, f
2
(x) = sin(πx).
(6) Sea f : [0, 5] → IR, f(x) = 2
x
. Sea P
n
un polinomio de grado n que interpola a f
en n + 1 puntos distintos cualesquiera de dicho intervalo. Demostrar que para todo
x ∈ [0, 5],
[P
n
(x) −f(x)[ ≤
32.5
n+1
(n + 1)!
(7) Sea f una funci´on C

tal que para todo k ∈ IN y para todo x ∈ [a, b] se tiene:
[f
k
(x)[ ≤ C
k
k!
Mostrar que, si 0 < C <
1
b −a
y P
n
en un polinomio de grado n que interpola a f en
n+1 puntos distintos, entonces P
n
converge a f uniformemente, es decir, |f−P
n
|

→ 0
cuando n tiende a ∞.
(8) Sea f : [−1, 1] → IR, f(x) =
1
a +x
. Sean (x
n
)
n≥0
una sucesi´on arbitraria de puntos en
[−1, 1] y P
n
(x) el polinomio que interpola a f(x) en x
0
, x
1
, . . . , x
n
. Demostrar que si
a > 3 entonces P
n
converge a f uniformemente.
(9) (a) Dado el intervalo [a, b], sea m el punto medio entre a y b y sea h < (b −a)/2. Sea
p = m−h y q = m+h. Demostrar que para todo x en [a, b],
[(x −p)(x −q)[ ≤
(b −a)
2
4
.
(b) Sean x
0
= a, . . . , x
i
= x
0
+
b−a
n
, . . . , x
n
= b, n + 1 puntos equiespaciados en el
intervalo [a, b]. Demostrar que para todo x en [a, b],
[(x −x
0
) . . . (x −x
n
)[ ≤
(b −a)
n+1
2
n+1
.
(10) Sea f : [−π, π] → IR, f(x) = sin(x). Sea P
n
un polinomio de grado n que interpola a f
en n + 1 puntos equiespaciados en dicho intervalo.
(a) Demostrar que para todo x ∈ [−π, π]
[P
n
(x) −f(x)[ ≤
π
n+1
(n + 1)!
(b) Concluir que P
n
converge uniformemente a f.
(11) Sea f : [0, 1] → IR, f(x) = sin(πx) +e
x
. Sea P
n
el polinomio de grado n que interpola
a f en n + 1 puntos equiespaciados.
(a) Usando el ejercicio 9, acotar el error |f −P
n
|

.
(b) Sea C
n
la cota hallada en (a). Para n = 1, 3, 5 graficar simult´aneamente f, f +C
n
,
f −C
n
y P
n
.
(12) Dado un intervalo [a, b], decidir como tienen que estar distribuidos n + 1 nodos x
0
<
x
1
< < x
n
en el intervalo de modo que exista x ∈ [a, b] tal que
[(x −x
0
) . . . (x −x
n
)[ ∼ (b −a)
n+1
.
7. EJERCICIOS 109
(13) Calcular el grado m´ınimo n que debe tener un polinomio P
n
que interpola en los ceros
de T
n+1
a la funci´on f(x) = e
2x
, x ∈ [−1, 1], para que el error |f −P
n
|

≤ 10
−2
.
(14) Repetir el ejercicio anterior para f(x) = e
x
, x ∈ [0, 4].
(15) Para n = 5, 10, 15; graficar simult´aneamente el polinomio W
n+1
(x) =

n
i=0
(x − x
i
),
donde x
i
= −1 + 2i/n; i = 0, . . . , n y el polinomio de Tchebychev T
n+1
.
(16) Repetir los Ejercicios 4 y 5 usando los polinomios que interpolan a la funci´on f en los
ceros del polinomio de Tchebychev de grado n + 1, para n = 5, 10, 15.
(17) Utilizar el m´etodo de coeficientes indeterminados para hallar un polinomio p de grado
2 que satisfaga:
p(1) = 0, p

(1) = 7, p(2) = 10
(18) (a) Sea f(x) = cos(πx), hallar un polinomio de grado menor o igual que 3 que verifique
p(−1) = f(−1), p(0) = f(0), p(1) = f(1), p

(1) = f

(1).
(b) Hallar un polinomio de grado menor o igual que 4 que verifique las condiciones del
item anterior, m´as la condici´on
p

(1) = f

(1).
(19) Sea f : [−1, 1] → IR la funci´on f(x) = e
2x−1
y sean x
0
< x
1
< . . . < x
n
los ceros
del polinomio de Tchebychev, T
n+1
. Se interpola a f con un polinomio P de grado
≤ n + 1 de modo que P(x
0
) = f(x
0
), P(x
1
) = f(x
1
), . . . , P(x
n
) = f(x
n
) y adem´as
P

(x
n
) = f

(x
n
). Probar que si n ≥ 6 entonces, el error cometido en la interpolaci´on
sobre el intervalo [−1, 1] es menor que 10
−3
.
(20) Para ilustrar qu´e pasa cuando se desea interpolar no s´olo una funci´on sino tambi´en sus
derivadas, consideramos el problema de hallar p de grado a lo sumo 3 que verifique:
(a) p(0) = 1, p

(0) = 1, p

(1) = 2, p(2) = 1;
(b) p(−1) = 1, p

(−1) = 1, p

(1) = 2, p(2) = 1;
(c) p(−1) = 1, p

(−1) = −6, p

(1) = 2, p(2) = 1.
Usando el m´etodo de coeficientes indeterminados, demostrar que el problema (a)
tiene soluci´on ´ unica, el problema (b) no tiene soluci´on, y el problema (c) tiene infinitas
soluciones.
(21) Analizar para que valores de x
0
, x
1
, x
2
, y α
0
, α
1
, α
2
existe un polinomio de grado 2
que satisface:
p(x
0
) = α
0
, p(x
1
) = α
1
, p

(x
2
) = α
2
.
(22) Sea f ∈ C
2
[a, b], y sean x
0
= a, x
1
= a+h, . . . , x
n
= b, donde h = (b−a)/n. Considerar
la poligonal l(x)que interpola a f en los puntos x
i
, i = 0 . . . n. Probar que
(a)
[f(x) −l(x)[ ≤
h
2
2
max
x∈[a,b]
[f

(x)[
(b)
[f

(x) −l

(x)[ ≤ h max
x∈[a,b]
[f

(x)[
(23) (a) Determinar valores de α, β y γ en IR para que S sea una funci´on spline c´ ubica,
siendo:
S(x) =
_
αx
3
+γx, 0 ≤ x ≤ 1
−αx
3
+βx
2
−5αx + 1, 1 ≤ x ≤ 2.
110 5. INTERPOLACI
´
ON
(b) Con los valores de α, β y γ obtenidos en el ´ıtem anterior, decidir si S interpola a
la funci´on f(x) = 2
x
+0.5x
2
−0.5x−1, 0 ≤ x ≤ 2 respecto de la partici´on ¦0, 1, 2¦.
(c) Graficar simult´aneamente f y S en el intervalo [0, 2].
(24) Sea f como en el Ejercicio 4. Utilizando Matlab, graficar la funci´on f junto con
una spline c´ ubica que la interpole en la red ¦−1, −0.75, . . . , 0.75, 1¦, tomando como
condiciones de borde las derivadas de f.
(25) Encontrar una funci´on del tipo 2
ax
3
+bx
2
+cx+d
que interpole la siguiente tabla de datos:
x -1 0 1 2
y 1 1 0.5 4
(26) Utilizando Matlab, encontrar y graficar una funci´on del tipo e
a
4
x
4
+a
3
x
3
+···+a
0
que in-
terpole a la funci´on f(x) = 1/x en 5 nodos equiespaciados en el intervalo [1, 10].
CAP´ıTULO 6
Polinomios ortogonales y aproximaci´on por cuadrados m´ınimos.
En el cap´ıtulo anterior hemos discutido como aproximar una funci´on por polinomios que in-
terpolan a la funci´on misma y/o a sus derivadas en algunos puntos. Hasta ahora, los m´etodos
analizados nos permiten construir polinomios de grado n a partir de n +1 datos. Cierto es que,
en un problema a modelizar, cu´antos m´as datos se conocen es de esperar que se pueda lograr
mayor precisi´on. Pero, como vimos, muchas veces polinomios de alto grado producen efectos no
deseados como por ejemplo grandes oscilaciones. En este cap´ıtulo consideraremos otra forma de
aproximar funciones conocida como el m´etodo de cuadrados m´ınimos. Este m´etodo nos permi-
tir´a, cuando se trate de aproximar por polinomios, contemplar una tabla de valores sin sujetar
el grado del polinomio a la cantidad de datos. Tambi´en ser´a posible considerar funciones m´as
generales que ajusten de manera natural los valores predeterminados.
En general, en esta clase de problemas uno sabe a priori a qu´e tipo de funci´on corresponden
los datos. Una situaci´on frecuente es la de aproximar una tabla de m´as de dos valores por una
recta (como muestra la Figura 6.1). Es decir, se tienen valores (x
i
, y
i
), i = 0, . . . , n y se quiere
encontrar una recta que ajuste estos datos lo mejor posible. Si escribimos la ecuaci´on de la recta
como y = mx + b nuestro problema consiste en encontrar valores de m y b que hagan que el
error [y
i
− (mx
i
+ b)[ sea lo mas chico posible para todo i. Por ejemplo, una manera de lograr
esto ser´ıa pedir que m y b minimicen
max
0≤i≤n
[y
i
−(mx
i
+b)[
o tambi´en podr´ıamos pedir que minimicen
n

i=0
[y
i
−(mx
i
+b)[ o
n

i=0
[y
i
−(mx
i
+b)[
2
.
De todas estas opciones es usual considerar la ´ ultima, llamada “aproximaci´on por cuadrados
m´ınimos”, debido a que es la m´as simple ya que el problema se reduce a resolver ecuaciones
lineales.
En este cap´ıtulo estudiaremos distintos m´etodos para resolver ´este y otros problemas. Como
en general los valores de y
i
corresponden a datos de una funci´on f, podemos plantear estos
problemas en el contexto de aproximaci´on de funciones. Dada una funci´on f consideramos:
112 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Figura 6.1. Aproximaci´on de 10 valores por una recta
Problema A. Dados w
0
, . . . , w
n
constantes positivas (pesos), m < n y valores (x
i
, f(x
i
)), con
i = 0, . . . , n se trata de hallar p ∈ T
m
que minimice
n

i=0
w
i
(p(x
i
) −f(x
i
))
2
.
Problema B. Dada w(x) una funci´on positiva en [a, b], dada f y m ∈ IN se trata de hallar
p ∈ T
m
que minimice
_
b
a
w(x)(f(x) −p(x))
2
dx.
1. Preliminares
Nos dedicaremos especialmente al estudio de aproximaciones por polinomios. Comenzamos esta
secci´on presentando un resultado cl´asico de Weierstrass que muestra que toda funci´on continua
puede aproximarse uniformemente por polinomios, en todo intervalo cerrado y acotado.
Teorema 6.1. (Weierstrass) Sea f ∈ C[a, b]. Para todo ε > 0 existe un polinomio p tal que
|f −p|

< ε
Demostraci´ on. Damos la demostraci´on para el intervalo [0, 1], el caso general se obtiene f´acilmente
mediante un cambio de variables.
1. PRELIMINARES 113
Definimos los polinomios de Bernstein,
B
n
f(x) =
n

k=0
_
n
k
_
f
_
k
n
_
x
k
(1 −x)
n−k
y vamos a demostrar que B
n
f converge uniformemente a f en el intervalo [0, 1]. Para eso
necesitaremos calcular B
n
h
j
para h
j
(x) = x
j
, j = 0, 1, 2.
Usando la f´ormula del binomio de Newton, se tiene:
B
n
h
0
(x) =
n

k=0
_
n
k
_
x
k
(1 −x)
n−k
= (x + 1 −x)
n
= 1.
B
n
h
1
(x) =
n

k=0
_
n
k
_
k
n
x
k
(1 −x)
n−k
=
n

k=1
_
n −1
k −1
_
x
k
(1 −x)
n−k
= x
n

k=1
_
n −1
k −1
_
x
k−1
(1 −x)
n−k
= x(x + 1 −x)
n−1
= x.
B
n
h
2
(x) =
n

k=0
_
n
k
__
k
n
_
2
x
k
(1 −x)
n−k
=
n

k=0
_
n −1
k −1
_
k
n
x
k
(1 −x)
n−k
=
n

k=0
_
n −1
k −1
__
n −1
n
k −1
n −1
+
1
n
_
x
k
(1 −x)
n−k
=
n −1
n
x
2
n

k=2
_
n −2
k −2
_
x
k−2
(1 −x)
n−k
+
x
n
=
n −1
n
x
2
(x + 1 −x)
n−2
+
x
n
= x
2
+
x(1 −x)
n
.
Dado y ∈ IR consideremos la funci´on g
y
(x) = (x −y)
2
. Desarrollando (x −y)
2
= x
2
−2xy +y
2
y usando que B
n
es lineal (o sea, B
n
(f
1
+f
2
) = B
n
f
1
+B
n
f
2
y B
n
(kf) = kB
n
f) se obtiene
B
n
g
y
(x) = g
y
(x) +
x(1 −x)
n
. (6.1)
Por otra parte, como toda funci´on continua en un intervalo cerrado es uniformemente continua,
dado ε > 0, existe δ > 0 tal que,
[f(x) −f(y)[ ≤ ε si [x −y[ < δ.
Adem´as, para los x, y tales que [x −y[ ≥ δ se tiene
114 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
[f(x) −f(y)[ ≤ 2|f|


2|f|

δ
2
(x −y)
2
.
Luego, para todo x, y, podemos asegurar que,
[f(x) −f(y)[ ≤ ε +
2|f|

δ
2
(x −y)
2
es decir,
−ε −
2|f|

δ
2
(x −y)
2
≤ f(x) −f(y) ≤ ε +
2|f|

δ
2
(x −y)
2
.
Ahora, si f
1
≤ f
2
, de la definici´on de B
n
puede verse que B
n
f
1
≤ B
n
f
2
; esto es B
n
preserva el
orden. En consecuencia, aplicando B
n
en la desigualdad anterior, teniendo en cuenta (6.1), y
recordando que B
n
es lineal y que B
n
1 = 1 se obtiene (tener presente que hasta aqu´ı estamos
considerando y como una constante),
[B
n
f(x) −f(y)[ ≤ ε +
2|f|

δ
2
(x −y)
2
+
2|f|

δ
2
x(1 −x)
n
y por lo tanto, evaluando ambos lados de la desigualdad en y, resulta
[B
n
f(y) −f(y)[ ≤ ε +
2|f|

δ
2
y(1 −y)
n
y por lo tanto
[B
n
f(y) −f(y)[ ≤ 2ε
para n suficientemente grande independientemente de y, es decir que B
n
f converge uniforme-
mente a f en el [0, 1].
Los Problemas A y B se enmarcan dentro de la teor´ıa de espacios con producto interno. El
producto interno no s´olo permite definir distancia entre vectores, como vimos que se puede
hacer mediante la noci´on de norma; sino que, adem´as, permite introducir el concepto de ´angulo
entre vectores y por tanto tiene sentido hablar de ortogonalidad.
Definici´ on 6.2. Sea V un IR espacio vectorial. Un producto interno (o producto escalar) sobre
V es una funci´on ¸., .) : V V → IR que asigna a cada par de vectores un n´ umero real de manera
tal que, para todo x, y, z ∈ V y todo α ∈ IR se satisfacen las propiedades:
(i) ¸x +y, z) = ¸x, z) +¸y, z);
(ii) ¸αx, y) = α¸x, y);
(iii) ¸x, y) = ¸y, x);
(iv) ¸x, x) > 0 si x ,= 0.
1. PRELIMINARES 115
Ejemplos 6.3. (1) El producto interno usual en IR
n
, para x = (x
1
, . . . , x
n
); y = (y
1
, . . . , y
n
),
est´a dado por
¸x, y) =
n

j=1
x
j
y
j
.
Es f´acil ver (queda como ejercicio) que se satisfacen todas las condiciones de la defini-
ci´on.
(2) Otros productos internos para IR
n
similares al usual son los dados por pesos w
j
> 0
para j = 1, . . . , n:
¸x, y)
w
=
n

j=1
w
j
x
j
y
j
.
Ahora, si definimos la matriz D
w
∈ IR
n×n
como:
D
w
=
_
_
_
_
_
w
1
0 . . . 0
0 w
2
. . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . w
n
_
_
_
_
_
el producto interno con pesos (w
j
)
n
j=1
puede darse a trav´es del producto interno usual
¸. , . ) y la matriz D
w
,
¸x, y)
w
=
n

j=1
w
j
x
j
y
j
= ¸x, D
w
y).
(3) Si V = C[0, 1] es el espacio de funciones continuas y f, g ∈ V ,
¸f, g) =
_
1
0
f(x)g(x) dx,
define un producto interno. Las condiciones (i)-(iii) se satisfacen gracias a la linealidad
del producto y de la integral. Para asegurar que vale la condici´on (iv) basta ver que la
integral de una funci´on no negativa y continua, g = f
2
, s´olo puede ser nula si la funci´on
lo es. En efecto, supongamos que existe un x
0
∈ [0, 1] para el cual g(x
0
) = δ > 0.
Ahora, por continuidad, existe un subintervalo [a, b] tal que, para todo x ∈ [a, b] es
g(x) >
δ
2
y por ser g no negativa se tiene
_
1
0
g(x) dx ≥
_
b
a
g(x) dx >
δ
2
(b −a) > 0,
lo que es una contradicci´on.
(4) Otros productos internos para espacios de funciones son los dados por una funci´on de
peso w, con w(x) > 0 para todo x ∈ (a, b):
¸f, g) =
_
b
a
f(x)g(x)w(x) dx.
116 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
En los espacios vectoriales con producto interno se tiene la norma inducida por dicho producto:
|x| = ¸x, x)
1
2
, para todo x ∈ V.
No es inmediato ver que con esta definici´on se obtiene efectivamente una norma. Esto es posible
gracias a la siguiente desigualdad.
Proposici´ on 6.4. (Desigualdad de Cauchy - Schwarz) Si ¸., .) es un producto interno sobre
un espacio vectorial V , entonces
[¸x, y)[ ≤ ¸x, x)
1
2
¸y, y)
1
2
para todo x, y ∈ V.
Demostraci´ on. Sean x, y ∈ V dos vectores fijos. Si ¸y, y) = 0, no hay nada que probar.
Supongamos entonces que ¸y, y) ,= 0.
Para cada t ∈ IR consideramos x −ty, entonces
0 ≤ ¸x −ty, x −ty)
= ¸x, x) −t¸x, y) −t¸y, x) +t
2
¸y, y)
= ¸x, x) −2t¸x, y) +t
2
¸y, y)
= c −2bt +at
2
= p(t).
De esta manera se obtiene una funci´on cuadr´atica donde a = ¸y, y), b = ¸x, y) y c = ¸x, x).
Como p(t) ≥ 0 para todo t ∈ IR, esta cuadr´atica tiene a lo sumo una ra´ız real y por lo tanto
4b
2
−4ac ≤ 0. Luego,
0 ≥ b
2
−ac = ¸x, y)
2
−¸x, x)¸y, y)
de donde se sigue el resultado.
Corolario 6.5. Si ¸., .) es un producto interno sobre un espacio vectorial V , entonces
|x| = ¸x, x)
1
2
define una norma sobre V .
Demostraci´ on. La ´ unica dificultad est´a en probar la desigualdad triangular, para eso notemos
que dados x, y ∈ V se tiene,
|x +y|
2
= ¸x +y, x +y)
= |x|
2
+ 2¸x, y) +|y|
2
.
Usando la desigualdad de Cauchy - Schwarz vale, ¸x, y) ≤ [¸x, y)[ ≤ |x||y|. Luego,
|x +y|
2
≤ |x|
2
+ 2|x||y| +|y|
2
= (|x| +|y|)
2
1. PRELIMINARES 117
La desigualdad triangular se obtiene al tomar ra´ız cuadrada.
La norma asociada al producto escalar usual en IR
2
o IR
3
definido en el Ejemplo 6.3 (1) corres-
ponde a la norma |x|
2
y da la longitud del vector x. Recordemos adem´as que este producto
escalar puede escribirse, para x e y no nulos, en t´erminos de las longitudes de ambos vectores y
de θ, el ´angulo entre ´estos, a saber,
¸x, y) = |x||y| cos θ.
En particular, x e y son ortogonales si y solo si ¸x, y) = 0.
La gran ventaja de trabajar en espacios con producto interno es que se puede generalizar esta
noci´on de ortogonalidad.
Notar que la desigualdad de Cauchy - Schwartz da, para todo x, y ,= 0
[¸x, y)[
|x||y|
≤ 1.
Esto permite definir el ´angulo entre dos vectores x, y no nulos mediante la funci´on coseno. Es
decir θ ∈ [0, π] ser´a el ´angulo entre x e y si verifica
cos(θ) =
¸x, y)
|x||y|
.
Luego resulta natural la siguiente definici´on.
Definici´ on 6.6. Si V es un espacio con producto interno ¸., .), se dice que x e y son ortogonales
si ¸x, y) = 0. En este caso suele notarse x ⊥ y.
Definici´ on 6.7. Dos conjuntos A, B ⊂ V se dicen ortogonales (A ⊥ B) si x ⊥ y para todo
x ∈ A e y ∈ B.
El siguiente teorema relaciona los problemas de aproximaci´on que queremos estudiar con la
noci´on de ortogonalidad.
Teorema 6.8. Dados S un subespacio de un espacio V con producto interno, x ∈ V e y ∈ S,
son equivalentes:
(1) |x −y| = min
s∈S
¦|x −s|¦
(2) ¸x −y, s) = 0, ∀s ∈ S.
Adem´as, un elemento y ∈ S que verifique alguna de las propiedades anteriores es ´ unico.
Demostraci´on. Veamos primero que (1) implica (2). Sabemos que y ∈ S minimiza la distancia
de x a S. Como S es un subespacio, se tiene que y +s ∈ S para todo s ∈ S, y por lo tanto,
|x −y|
2
≤ |x −(y +s)|
2
= |(x −y) −s)|
2
= |x −y|
2
−2¸x −y, s) +|s|
2
.
118 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
As´ı,
2¸x −y, s) ≤ |s|
2
para todo s ∈ S. Si ahora consideramos t ∈ IR y s ∈ S se tiene que ts ∈ S y de la desigualdad
anterior obtenemos
2¸x −y, ts) ≤ |ts|
2
2t¸x −y, s) ≤ t
2
|s|
2
para todo t ∈ IR y para todo s ∈ S. Para los t > 0 tenemos 2¸x−y, s) ≤ t|s|
2
y haciendo t → 0
queda 2¸x −y, s) ≤ 0. Los t < 0 dan la otra desigualdad, 0 ≤ 2¸x −y, s); de d´onde
¸x −y, s) = 0 para todo s ∈ S.
Para ver que (2) implica (1), supongamos que y ∈ S es tal que x−y ⊥ s para todo s ∈ S. Como
S es un subespacio x −y ⊥ y −s para todo s ∈ S. Luego,
|x −s|
2
= |(x −y) + (y −s)|
2
= |x −y|
2
+|y −s|
2
≥ |x −y|
2
.
Tomando ra´ız cuadrada se obtiene que |x −y| = min
s∈S
¦|x −s|¦.
Nos queda mostrar que no puede haber m´as de un elemento que cumpla las condiciones (1) o
(2). Para esto, veamos que si y, ¯ y ∈ S verifican (2) entonces, y = ¯ y. En efecto, para cada s ∈ S
fijo se tiene
¸x −y, s) = 0, y ¸x − ¯ y, s) = 0,
luego, restando miembro a miembro, queda
¸¯ y −y, s) = 0,
en particular, tomado s = ¯ y −y ∈ S obtenemos |¯ y −y| = 0 de d´onde ¯ y = y.
Veremos m´as adelante que cuando S es de dimensi´on finita siempre existe y en las condiciones
del teorema anterior. Este y se llama proyecci´on ortogonal de x sobre S.
2. Soluci´on de los Problemas de Aproximaci´on
Ahora s´ı, estamos en condiciones de describir los m´etodos para hallar las soluciones de los
problemas A y B planteados. En lo que sigue de este cap´ıtulo trabajaremos sobre espacios con
un producto interno.
El primer problema se puede reformular de la siguiente manera: Se considera en IR
n
el producto
escalar dado por los pesos w
0
, . . . , w
n
, es decir,
¸x, y) =
n

i=1
x
i
y
i
w
i
.
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 119
Para los datos (x
i
, f(x
i
)), se quiere encontrar un polinomio p ∈ T
m
con n > m+1 que minimice
la distancia entre los vectores (f(x
1
), . . . , f(x
n
)) y (p(x
1
), . . . , p(x
n
)) en la norma asociada al
producto escalar.
Si p(x) = a
m
x
m
+. . . +a
1
x +a
0
entonces
_
_
_
_
_
p(x
1
)
p(x
2
)
.
.
.
p(x
n
)
_
_
_
_
_
=
_
_
_
_
_
1 x
1
x
m
1
1 x
2
x
m
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
m
n
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
m
_
_
_
_
_
(6.2)
Ahora, llamando b = (f(x
1
), . . . , f(x
n
)) el problema se reduce a encontrar un vector a =
(a
0
, . . . , a
m
) ∈ IR
m+1
que minimice
|Aa −b|,
donde A ∈ IR
n×(m+1)
es la matriz de 6.2.
En forma gen´erica el problema puede plantearse de la siguiente manera:
Dada A ∈ IR
n×m
y b ∈ IR
n
se quiere hallar x tal que
|Ax −b|
sea lo menor posible.
Considerando el subespacio S:
S = ¦y ∈ IR
n
, y = Ax, para alg´ un x ∈ IR
m
¦
el problema se transforma en hallar y ∈ S tal que
|y −b| ≤ |s −b| para todo s ∈ S
y luego x tal que Ax = y.
En el caso del producto interno usual, es decir ¸x, y) =

n
j=1
x
j
y
j
, la soluci´on de este problema
puede obtenerse resolviendo las llamadas ecuaciones normales que pueden obtenerse f´acilmente
a partir del Teorema 6.8 como veremos en el teorema que sigue. Recordemos que A
T
denota la
matriz traspuesta de A.
Lema 6.9. Sea A ∈ IR
n×m
, x ∈ IR
n
, y ∈ IR
m
. Si ¸ . , . ) indica el producto interno usual (tanto
en IR
n
como en IR
m
) entonces,
¸A
T
y, x) = ¸y, Ax)
120 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Demostraci´ on.
¸A
T
y, x) =
n

i=1
_
_
m

j=1
a
ji
y
j
_
_
x
i
=
m

j=1
y
j
_
n

i=1
a
ji
x
i
_
= ¸y, Ax)
Teorema 6.10. Sea A ∈ IR
n×m
y b ∈ IR
n
. Si ¸ . , . ) indica el producto interno usual (tanto en
IR
n
como en IR
m
) entonces, son equivalentes
(1) x
0
∈ IR
m
minimiza |Ax −b|
(2) x
0
es soluci´on del sistema A
T
Ax = A
T
b.
Adem´ as, si los vectores columnas de la matriz A son linealmente independientes, existe x
0
solu-
ci´on del sistema A
T
Ax = A
T
b y es ´ unico.
Demostraci´ on. Considerando el subespacio S = ¦y ∈ IR
n
, y = Ax, para x ∈ IR
m
¦, por el
Teorema 6.8 y ∈ S es tal que |b − y| = min
s∈S
¦|b − s|¦ si y solo si ¸b − y, s) = 0 para todo
s ∈ S. Como y ∈ S existe x
0
∈ IR
m
tal que y = Ax
0
y s = Ax, con x variando en IR
m
, luego la
condici´on ¸b −y, s) = 0 para todo s ∈ S podemos reescribirla
¸b −Ax
0
, Ax) = 0 ∀ x ∈ IR
m
,
o equivalentemente, por el Lema 6.9,
0 = ¸A
T
(b −Ax
0
), x) = ¸A
T
b −A
T
Ax
0
), x) ∀ x ∈ IR
m
,
lo que ocurre si y solo si A
T
Ax
0
= A
T
b.
Para mostrar la existencia y unicidad de un elemento x
0
que cumpla con el enunciado, llamemos
A
j
∈ IR
n
a los vectores columna de la matriz A, para j = 1, . . . , m.
Si x = (x
1
, x
2
, . . . , x
m
) el vector Ax puede escribirse en t´erminos de las columnas de A por
Ax =

m
j=1
A
j
x
j
. Luego, si las columnas de A son linealmente independientes resulta Ax = 0
si y solo si x = 0. Veamos que esto implica que A
T
A es una matriz inversible. En efecto, si
A
T
Ax = 0 entonces ¸A
T
Ax, x) = 0, y por el Lema 6.9 tenemos que ¸Ax, Ax) = 0. Es decir
|Ax|
2
= 0, con lo cual Ax = 0 y por tanto x = 0.
Como la ´ unica soluci´on del sistema A
T
Ax = 0 es la trivial, se deduce que A
T
A es inversible y
hay una ´ unica soluci´on para el sistema A
T
Ax = A
T
b.
Observaci´ on 6.11. Si el producto interno no es el usual sino que viene dado por pesos w
j
, o
sea, ¸x, y)
w
=

n
j=1
w
j
x
j
y
j
, entonces x
0
∈ IR
m
minimiza |Ax − b|
w
si y solo si x
0
es soluci´on
del sistema A
T
D
w
Ax = A
T
D
w
b.
La demostraci´on es an´aloga a la del teorema anterior considerando la escritura ¸x, y)
w
= ¸x, D
w
y)
(ver Ejemplo 6.3 (b)).
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 121
Notemos que si el problema original
Ax = b
tiene una soluci´on exacta x, este x tambi´en es soluci´on de
A
T
Ax = A
T
b
Este sistema de m m puede resolverse por el m´etodo de eliminaci´on de Gauss o bien por
m´etodos iterativos.
Ejemplo 6.12. Veamos un ejemplo sencillo, como presentamos a trav´es de la Figura 6.1. Se
quiere trazar una recta (p(x) = a
0
+a
1
x) que aproxime los puntos
(a
j
): 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
(y
j
): 0.35 0.5 0.45 0.55 0.6 0.1 0.9 0.75 0.8 0.8
Siguiendo (6.2) el sistema a resolver es:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0.1
1 0.2
1 0.3
1 0.4
1 0.5
1 0.6
1 0.7
1 0.8
1 0.9
1 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
0
a
1
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0.35
0.5
0.45
0.55
0.6
0.1
0.9
0.75
0.8
0.8
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Que, despu´es de multiplicar por la transpuesta de A, queda
_
10 5.5
5.5 3.85
__
a
0
a
1
_
=
_
5.8
3.6
_
La soluci´on es
a
1
= 0.497
a
0
= 0.3067
Es decir la recta que mejor aproxima, en el sentido de minimizar

(f(x
i
) −p(x
i
))
2
, a f en los
puntos dados es
p(x) = 0.497x + 0.3067
122 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Esta forma de resolver no puede aplicarse, en general, para resolver el problema B. Para abordar
esta clase de problemas necesitamos desarrollar m´as teor´ıa relacionada con el producto interno
y la idea de ortogonalizaci´on. Es decir, vamos a dar una descripci´on de la soluci´on a trav´es de
la proyecci´on ortogonal sobre un subespacio.
Definici´ on 6.13. Un subconjunto A de un espacio vectorial V se dice ortonormal si A es
ortogonal y adem´as ¸f, f) = 1 para cualquier f ∈ A.
Si se considera en el espacio V una base ortonormal B = ¦v
1
, . . . , v
n
¦ cada elemento x ∈ V
admite una ´ unica escritura de la forma
x =
n

i=1
x
i
v
i
.
La ventaja de trabajar con una base ortonormal es que podemos describir f´acilmente los escalares
x
i
en t´erminos de x y de la base. En efecto, tenemos
¸x, v
k
) = ¸
n

i=1
x
i
v
i
, v
k
) =
n

i=1
x
i
¸v
i
, v
k
) = x
k
.
Luego,
x =
n

i=1
¸x, v
i
)v
i
.
Ahora, dado un subespacio S de dimensi´on finita de V , una base ortonormal de S puede en-
contrarse a partir de una base dada de S mediante el proceso de ortonormalizaci´on de Gram-
Schmidt que damos en el siguiente teorema.
Teorema 6.14. Dada una base de S,
B
S
= ¦r
1
, r
2
, . . . , r
m
¦,
se consideran
u
1
= r
1
, v
1
= u
1
/|u
1
|.
y, para k = 2, . . . , m,
u
k
= r
k

k−1

i=1
¸r
k
, v
i
)v
i
, y v
k
= u
k
/|u
k
|.
Entonces, el conjunto ¦u
1
, . . . , u
m
¦ es ortogonal y el conjunto ¦v
1
, . . . , v
m
¦ es una base ortonor-
mal del subespacio S.
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 123
Demostraci´on. Se hace por inducci´on.
Con el siguiente teorema demostramos la existencia de la proyecci´on ortogonal sobre S un
subespacio de V , cuando S tienen dimensi´on finita.
Teorema 6.15. Dado x ∈ V y un subespacio S ⊂ V de dimension finita, existe un ´ unico y ∈ S
que satisface
¸x −y, s) = 0, ∀s ∈ S. (6.3)
Demostraci´on. Sea ¦v
1
, . . . , v
m
¦ una base ortonormal de S (que sabemos que existe gracias al
Teorema 6.14). Veamos que el elemento y ∈ S buscado es
y =
m

i=1
¸x, v
i
)v
i
. (6.4)
En efecto, es claro que y ∈ S ya que es una combinaci´on lineal de elementos de la base y. Por
otra parte, para verificar (6.3) es suficiente ver que se cumple para s = v
j
, j = 1, . . . , m. Pero
¸x −y, v
j
) = ¸x, v
j
) −¸
m

i=1
¸x, v
i
)v
i
, v
j
) = ¸x, v
j
) −¸x, v
j
) = 0
donde en el ´ ultimo paso hemos usado la ortonormalidad de la base. La unicidad la probamos
en el Teorema 6.8
El teorema anterior nos permite definir una aplicaci´on
P : V −→ S
que a cada elemento x ∈ V le asigna Px ∈ S de tal forma que
¸x −Px, s) = 0, ∀s ∈ S
generalizando a espacios con producto interno la noci´on de proyecci´on ortogonal conocida en
IR
n
. Teniendo en cuenta el Teorema 6.8, Px nos da la mejor aproximaci´on a x por elementos
del subespacio S en la norma asociada al producto interno.
Estos resultados nos permiten encontrar la mejor approximaci´on a una funci´on continua por
polinomios de un grado dado, en la norma asociada a un producto interno. Para esto basta
considerar el espacio V = C[a, b] y el subespacio S = T
n
.
Aplicando el proceso de ortogonalizaci´on dado en el Teorema 6.14 a la base can´onica de T
n
,
es decir B = ¦1, x, x
2
, . . . , x
n
¦, en un producto interno dado, obtenemos los polinomios ortogo-
nales q
k
asociados a dicho producto y los correspondientes polinomios ortonormales p
k
. Estos
polinomios est´an dados por,
124 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
q
0
(x) = 1, p
0
(x) = 1/|q
0
|.
y, definiendo h
k
(x) = x
k
, para k = 1, . . . , n,
q
k
(x) = x
k

k−1

i=1
¸h
k
, p
i
)p
i
(x), y p
k
(x) = q
k
(x)/|q
k
|.
Observemos que, como este procedimiento puede hacerse para cualquier n ∈ IN lo que se obtiene
es una sucesi´on de polinomios ortogonales q
0
, q
1
, . . . , q
n
, . . . cuyas propiedades b´asicas resumimos
en el siguiente teorema.
Teorema 6.16. Dado el espacio V = C[a, b] con un producto interno, los polinomios ortogonales
q
0
, q
1
, . . . , q
n
, . . . obtenidos mediante el proceso de Gram-Schmidt aplicado a la base can´onica
dada por las potencias satisfacen las siguientes propiedades. Para todo k ∈ IN
0
,
(1) q
k
es un polinomio m´onico de grado k.
(2) ¦q
0
, q
1
, . . . , q
k
¦ es una base ortogonal de T
k
.
(3) q
k
es ortogonal a todo polinomio de grado menor que k.
Las conclusiones del teorema son v´alidas si se considera la base can´onica de T
k
: B = ¦1, x, x
2
, . . . , x
k
¦.
El orden en que se toman los elementos es importante. La demostraci´on se sigue de todo lo an-
terior y por tanto la omitimos.
En lo que sigue consideramos fijado el producto interno y usamos la notaci´on p
k
para indicar la
sucesi´on de polinomios ortonormales asociados a dicho producto, es decir p
k
= q
k
/|q
k
|. Una vez
obtenidos estos polinomios podemos encontrar la mejor aproximaci´on a una funci´on continua
utilizando la teor´ıa general que hemos visto. En efecto, tenemos
Teorema 6.17. Si f ∈ C[a, b] entonces el polinomio p

n
∈ T
n
que satisface
|f −p

n
| ≤ |f −p|, ∀p ∈ T
n
,
est´a dado por p

n
= Pf, donde P : C[a, b] −→ T
n
es la proyecci´on ortogonal, o sea,
p

n
=
n

i=0
¸f, p
i
)p
i
,
Demostraci´ on. Se sigue del Teorema 6.4.
Observemos que esto resuelve simult´aneamente los problemas A y B. Para resolver cualquiera
de los dos hay que, primero generar los polinomios ortonormales p
j
y luego calcular ¸f, p
i
). En
el caso continuo (problema B) aplicamos la teor´ıa trabajando en el espacio de dimensi´on infinita
C[a, b] mientras que en el caso discreto (problema A) trabajamos en el espacio de dimensi´on finita
IR
n+1
identificando a los valores de una funci´on continua f con el vector (f(x
0
), . . . , f(x
n
)). De
esta forma se tiene un procedimiento alternativo al dado en el Teorema 6.10 para el problema
discreto. En algunos casos el m´etodo basado en el uso de los polinomios ortogonales resulta
mejor respecto de la propagaci´on de errores de redondeo.
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 125
El teorema de Weierstrass nos permite demostrar que el error entre la f y su mejor aproxi-
maci´on en la norma asociada al producto interno tiende a cero cuando el grado del polinomio
aproximante tiende a infinito. Este es el objetivo del siguiente teorema.
Teorema 6.18. Si el producto interno en C[a, b] est´a dado por
¸f, g) =
_
b
a
f(x)g(x)w(x)dx
donde w es una funci´on positiva e integrable en (a, b) entonces,
p

n
−→ f cuando n −→ ∞.
Demostraci´on. Por el teorema de Weierstrass, dado ε > 0 existe un polinomio p ∈ T
n
(n depende
de ε) tal que
max
a≤x≤b
[f(x) −p(x)[ = |f −p|

< ε.
Entonces
|f −p

n
|
2
≤ |f −p|
2
=
_
b
a
w(x)(f(x) −p(x))
2
dx
≤ |f −p|
2

_
b
a
w(x) dx ≤ ε
2
_
b
a
w(x) dx.
Por lo tanto,
lim
n→∞
|f −p

n
| = 0.
Corolario 6.19. (Igualdad de Parseval) Para un producto interno como el del teorema
anterior se tiene,
|f|
2
=

j=0
¸f, p
j
)
2
Demostraci´on. Recordemos que p

n
=

n
i=0
¸f, p
i
)p
i
, y por lo tanto
|p

n
|
2
=
n

j=0
¸f, p
j
)
2
.
Entonces, de la ortogonalidad entre f −p

n
y p

n
se obtiene
|f|
2
= |f −p

n
|
2
+|p

n
|
2
= |f −p

n
|
2
+
n

j=0
¸f, p
j
)
2
pero por el teorema sabemos que el primer sumando del t´ermino de la derecha tiende a cero
cuando n tiende a infinito con lo que concluye la demostraci´on.
126 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Terminamos el cap´ıtulo dando una forma m´as eficiente de encontrar los polinomios ortogonales
asociados a un producto interno. En efecto, el siguiente teorema muestra que cada polinomio q
n
se escribe en funci´on de los dos anteriores y por lo tanto la sucesi´on de polinomios ortogonales
m´onicos puede obtenerese por recurrencia.
Teorema 6.20. Si un producto interno en C[a, b] satisface ¸xf, g) = ¸f, xg) entonces los poli-
nomios ortogonales m´onicos q
n
satisfacen la relaci´on de recurrencia
q
n
(x) = (x −a
n
)q
n−1
(x) −b
n
q
n−2
(x) , ∀n ≥ 2 (6.5)
donde a
n
y b
n
estan dados por
a
n
=
¸xq
n−1
, q
n−1
)
¸q
n−1
, q
n−1
)
y b
n
=
¸q
n−1
, q
n−1
)
¸q
n−2
, q
n−2
)
.
Demostraci´ on. Sea n ≥ 2. Como cero es ra´ız del polinomio q
n
(x) −q
n
(0) podemos escribir
q
n
(x) −q
n
(0) = xr
n−1
donde r
n−1
es un polinomio de grado menor o igual que n − 1. Adem´as, como q
n
es m´onico,
r
n−1
tambi´en lo es. Tenemos entonces,
q
n
(x) = xr
n−1
(x) +q
n
(0) = xq
n−1
(x) +x(r
n−1
(x) −q
n−1
(x)) +q
n
(0). (6.6)
Pero como r
n−1
y q
n−1
son m´onicos su diferencia resulta un polinomio de grado menor o igual
que n − 2 y por lo tanto, como q
0
, . . . , q
n−1
forman una base de T
n−1
, existen coeficientes β
j
tales que
x(r
n−1
(x) −q
n−1
(x)) +q
n
(0) =
n−1

j=0
β
j
q
j
(x)
y reemplazando en (6.6) obtenemos
q
n
(x) = xq
n−1
(x) +
n−1

j=0
β
j
q
j
(x). (6.7)
Ahora, para i < n −2, tenemos
0 = ¸q
n
, q
i
) = ¸(x +β
n−1
)q
n−1
+
n−2

j=0
β
j
q
j
, q
i
) = ¸xq
n−1
, q
i
) +β
i
¸q
i
, q
i
)
donde en el ´ ultimo paso hemos usado la ortogonalidad de los q
j
. Pero, como xq
i
es un polinomio
de grado menor que n −1, resulta
¸xq
n−1
, q
i
) = ¸q
n−1
, xq
i
) = 0
y en consecuencia β
i
= 0 para todo i < n−2. Por lo tanto, definiendo a
n
= −β
n−1
y b
n
= −β
n−2
,
(6.5) se obtiene de (6.7).
Finalmente, usando (6.5) y la ortogonalidad de los q
j
tenemos,
0 = ¸q
n
, q
n−1
) = ¸xq
n−1
, q
n−1
) −a
n
¸q
n−1
, q
n−1
)
de donde se obtiene la expresi´on para a
n
. An´alogamente,
0 = ¸q
n
, q
n−2
) = ¸xq
n−1
, q
n−2
) −b
n
¸q
n−2
, q
n−2
)
3. EJERCICIOS 127
y por lo tanto,
b
n
=
¸xq
n−1
, q
n−2
)
¸q
n−2
, q
n−2
)
.
Para terminar la demostraci´on falta ver que
¸xq
n−1
, q
n−2
) = ¸q
n−1
, q
n−1
),
pero como
¸xq
n−1
, q
n−2
) = ¸q
n−1
, xq
n−2
),
basta ver que
¸q
n−1
, xq
n−2
−q
n−1
) = 0
lo que resulta del hecho de que xq
n−2
−q
n−1
es un polinomio de grado menor que n −1 porque
tanto xq
n−2
como q
n−1
son m´onicos de grado n −1.
Observaci´ on 6.21. Los productos internos asociados a los problemas A y B satisfacen trivial-
mente la hip´otesis del teorema.
3. Ejercicios
(1) (a) Encontrar el polinomio de grado 1 que aproxima en el sentido de cuadrados
m´ınimos la siguiente tabla de datos:
x 0 1 2 3 4 5 6 7 8 9
y -.1 1.1 1.9 3.2 3.8 5 6 7.3 8.1 8.9
y el polinomio de grado 2 que aproxima en el mismo sentido la siguiente tabla de
datos:
x -1 0 1 3 6
y 6.1 2.8 2.2 6 26.9
(b) En cada caso, comparar gr´aficamente, usando Matlab, con el polinomio interpola-
dor.
(2) Considerar la funci´on f(x) =
1
1 + 25x
2
en el intervalo [-1,1].
Para n = 5, 10, 15; graficar simult´aneamente f junto con
• los polinomios que aproximan a f en el sentido de cuadrados m´ınimos en n + 1
puntos equiespaciados y tienen grado
2
5
n y
4
5
n,
• el polinomio que resulta de interpolar a f en los puntos anteriores.
(3) Probar que si se tienen n + 1 puntos distintos, el polinomio de cuadrados m´ınimos de
grado n coincide con el polinomio interpolador.
Concluir que para ciertas aplicaciones puede ser una mala idea aumentar el grado
del polinomio de cuadrados m´ınimos, hasta hacerlo cercano al grado del polinomio
interpolador.
(4) Sea A la matriz en IR
3×2
dada por A =
_
_
a b
c d
e f
_
_
. Mostrar que
128 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
(a) det(A
T
A) = (ad −bc)
2
+ (af −be)
2
+ (cf −ed)
2
.
(b) Los rangos de las matrices A
T
A y A coinciden.
(c) El polinomio de grado 1 que aproxima en el sentido de cuadrados m´ınimos una
tabla de 3 datos es ´ unico.
(5) Aproximar la siguiente tabla de datos en el sentido de cuadrados m´ınimos
x -1 0 2 3
y 0.3 -0.2 7.3 23.3
con funciones del tipo: (a) y = a2
x
+b3
x
, (b) y = a2
x
+b3
x
+c.
(6) Considerar erf : IR → IR la funci´on dada por
erf(x) =
2

π
_
x
0
e
−t
2
dt.
(a) Graficar la funci´on con el comando erf de Matlab en el intervalo [−5, 5] y verificar
num´ericamente que lim
x→±∞
erf(x) = ±1.
(b) Ajustar la funci´on erf en el sentido de cuadrados m´ınimos con polinomios de grado
1, 2, 5 y 10; considerando 15 puntos equiespaciados en el intervalo [−1, 1]. Graficar
erf junto con estos polinomios en el intervalo [−5, 5]. Observar que la aproximaci´on
es mala fuera del intervalo [−1, 1].
(c) Utilizando los mismos puntos, hallar la aproximaci´on de cuadrados m´ınimos que
utiliza el siguiente modelo:
erf(t) ∼ c
1
+c
2
e
−t
2
+c
3
e
−t
2
1 +t
+c
4
e
−t
2
(1 +t)
2
+c
5
e
−t
2
(1 +t)
3
.
Comparar el error obtenido al aproximar por la funci´on hallada con el del item
anterior.
(7) Aproximar los datos de la tabla siguiente
x -1 0 1 2
y 8.1 3 1.1 0.5
con un modelo de la forma: f(x) ∼ a e
bx
; en el sentido de cuadrados m´ınimos para
la funci´on ln(f(x)).
(8) Aproximar los datos de la tabla siguiente
x -1 0 1 2
y - 1.1 - 0.4 - 0.9 - 2.7
con un modelo de la forma: f(x) ∼ −e
ax
2
+bx+c
, en el sentido de cuadrados m´ınimos
para la funci´on ln(f(x)).
3. EJERCICIOS 129
(9) Decidir cu´ales de las siguientes aplicaciones < , >: XX → IR, son productos internos,
siendo X = ¦polinomios de grado menor o igual a 1 definidos en[0, 1]¦.
(a) < f, g >= f(0) + 2g(0)
(b) < f, g >= (f(0) +g(0))
2
(c) < f, g >= f(0)g(0) +
_
1
0
f

(t)g

(t)dt
(d) < f, g >= f(0)g(0) +f(1)g(1)
(10) Sea < f, g > cualquiera de los siguientes productos escalares:
(a) < f, g >=
n

0
f(x
j
)g(x
j
)w
j
, (b) < f, g >=
_
b
a
f(x)g(x)w(x)dx
Probar que S = ¦1, x, x
2
, . . . , x
n
¦ no puede ser un conjunto ortogonal para n ≥ 2.
(11) Polinomios de Laguerre. Utilizando el m´etodo de Gram-Schmidt, calcular los pri-
meros cuatro polinomios m´onicos ortogonales con respecto al producto escalar:
< f, g >=
_

0
e
−x
f(x)g(x)dx.
(12) Polinomios de Hermite. Repetir el ejercicio anterior con el producto escalar
< f, g >=
_

−∞
e
−x
2
f(x)g(x)dx.
(13) Considerar
< f, g >=
_
1
−1
f

(x)g

(x) dx
(a) Probar que <, >es un producto interno en S
m
, el espacio generado por ¦x, x
2
, x
3
, , x
m
¦.
(b) Hallar una base ortonormal para S
3
.
(c) Hallar la mejor aproximaci´on en el sentido de cuadrados m´ınimos sobre S
3
para
f(x) = x
4
y para g(x) = 1.
(14) Sea S el subespacio de las funciones derivables definidas en el intervalo [−π, π] generado
por ¦1, cos(x), sin(x)¦ y considerar
< f, g >= f

(−
π
2
)g

(−
π
2
) +f

(0)g

(0) +f(
π
2
)g(
π
2
).
(a) Probar que < , > es un producto interno en S.
(b) Hallar una base ortonormal para S.
(c) Hallar la mejor aproximaci´on en el sentido de cuadrados m´ınimos sobre S para
f(x) = sin(2x), g(x) = cos(2x) y h(x) =
3
2
sin(2x) −5 cos(2x).
(15) (a) Probar que el conjunto de funciones: ¦1, sin(kx), cos(mx), k, m ∈ IN¦ es ortogonal
con el producto escalar
< f, g >=
_

0
f(x)g(x)dx.
y calcular las normas de cada una de estas funciones.
130 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
(b) Verificar la ortogonalidad y calcular la norma de los polinomios de Tchebychev,
con el producto escalar
< f, g >=
_
1
−1
f(x)g(x)

1 −x
2
dx.
(Sugerencia: usar el cambio de variables u = arcsin(x)).
(16) Hallar los primeros 5 t´erminos de la expansi´on en serie de Tchebychev para la funci´on
f(x) = [x[. Graficar en el intervalo [−1, 1].
(17) Sea T
j
el polinomio de Tchebychev de grado j; (j ∈ IN). Considerar las relaciones de
ortogonalidad discretas para ´estos polinomios:
m

k=1
T
i
(x
k
)T
j
(x
k
) =
_
_
_
0 i ,= j
m/2 i = j ,= 0
m i = j = 0
donde ¦x
k
; k = 1, . . . , m¦ es el conjunto de ceros de T
m
.
Para una funci´on f : [−1, 1] → IR se definen m coeficientes c
j
, j = 1, . . . , m seg´ un
c
j
=
2
m
m

k=1
f(x
k
)T
j−1
(x
k
).
Probar que el polinomio
_
m

k=1
c
k
T
k−1
(x)
_
−0.5c
1
interpola a f en las ra´ıces de T
m
.
(Sugerencia: usar Ejercicio 3).
Notar que esta f´ormula proporciona una manera m´as directa de encontrar el poli-
nomio interpolador en los ceros de T
m
.
CAP´ıTULO 7
Integraci´on num´erica
En este cap´ıtulo estudiamos m´etodos para aproximar el valor de una integral definida en un
intervalo [a, b]. En los cursos elementales de C´alculo se aprende que el valor
_
b
a
f(x)dx puede
obtenerse a partir de una primitiva de f mediante la regla de Barrow. Sin embargo, en muchos
casos no es posible encontrar una primitiva expresable en t´erminos de funciones conocidas.
Un ejemplo es el de la integral
_
b
a
e
−x
2
dx que juega un papel muy importante en la teor´ıa de
probabilidades. Puede demostrarse que la funci´on e
−x
2
no tiene primitiva expresable mediante
composiciones y operaciones algebraicas de las funciones conocidas (polinomios, trigonom´etricas,
logaritmos y exponenciales). Si bien este es un ejemplo cl´asico, esta situaci´on se da en una gran
variedad de funciones.
En consecuencia ser´a necesario recurrir a las llamadas reglas de integraci´on num´erica o de
cuadratura. La idea b´asica para construir estas reglas es reemplazar la funci´on por un polinomio
puesto que:
(1) Es f´acil integrar polinomios.
(2) Toda funci´on continua puede aproximarse por polinomios.
Entonces, dada una funci´on f ∈ C[a, b] aproximamos el valor
_
b
a
f(x)dx por
_
b
a
p(x)dx donde p
es alg´ un polinomio que esta cerca de f.
A continuaci´on describimos el procedimiento m´as usual para construir reglas de integraci´on, el
cual consiste en elegir el polinomio aproximante como uno que interpole a f. Para esto se eligen
en primer lugar n + 1 puntos x
0
, . . . , x
n
∈ [a, b]. Sabemos que existe un ´ unico p
n
∈ T
n
tal que
p
n
(x
j
) = f(x
j
) para j = 0, . . . , n y definimos entonces la regla de integraci´on num´erica Q(f) por
Q(f) =
_
b
a
p
n
(x) dx.
Si escribimos p
n
en la forma de Lagrange (ver (5.3)), o sea,
p
n
(x) =
n

i=0
f(x
j
)
j
(x),
donde
j
(x
j
) = 1 y
j
(x
i
) = 0 para i ,= j, tenemos
_
b
a
p
n
(x) dx =
_
b
a
n

j=0
f(x
j
)
j
(x) dx =
n

j=0
f(x
j
)
_
b
a

j
(x) dx =
n

j=0
A
j
f(x
j
).
132 7. INTEGRACI
´
ON NUM
´
ERICA
Luego, obtenemos las f´ormulas de cuadratura usuales Q para aproximar una integral buscada,
de la forma:
_
b
a
f(x)dx ∼ Q(f) =
n

j=0
A
j
f(x
j
) (7.1)
donde los puntos x
j
son llamados los nodos y los A
j
los pesos de la integraci´on num´erica
(j = 0, . . . , n).
Los pesos A
j
=
_
b
a

j
(x) dx dependen s´olo de los nodos x
j
, una vez calculados se usan para
aproximar la integral de cualquier funci´on f.
Notemos que si f es un polinomio de grado n entonces, como la interpolaci´on en n + 1 puntos,
es exacta, la f´ormula que obtuvimos para aproximar la integral ser´a exacta sobre los polinomios
de grado menor o igual que n. En otro caso, habr´a que estudiar el error que se comete al utilizar
este tipo de aproximaciones. Es decir, estudiaremos para cada f´ormula de cuadratura el error
que viene dado por:
R(f) =
_
b
a
f(x) dx −
_
b
a
p
n
(x) dx =
_
b
a
(f −p
n
)(x) dx.
Hay, esencialmente, dos maneras de determinar una f´ormula de cuadratura como en (7.1).
• Los nodos ¦x
0
, x
1
, . . . , x
n
¦ est´an prefijados. En este caso, se trata de hallar los pesos
¦A
0
, A
1
, . . . , A
n
¦. Cuando los nodos se toman equiespaciados, el problema se conoce
como las F´ormulas de Newton-Cˆotes.
• Se buscan a la vez los nodos ¦x
0
, x
1
, . . . , x
n
¦ y los pesos ¦A
0
, A
1
, . . . , A
n
¦. Este m´etodo
se conoce como F´ormulas de cuadratura gaussiana.
1. F´ormulas de Newton-Cˆotes
Si queremos aproximar la integral una funci´on continua f : [a, b] → IR por la integral de un
polinomio interpolador de grado n, probablemente la elecci´on m´as natural para los nodos x
j
es
tomarlos equiespaciados en el intervalo [a, b]. para esto consideramos h = (b−a)/n y x
j
= a+jh
con j = 0, . . . , n. Una f´ormula de aproximaci´on basada en estos puntos se conoce como “formula
de Newton-Cˆotes cerrada” y si los puntos son tomados como x
j
= a + jh con j = 1, . . . , n − 1
se llama “f´ormula de Newton-Cˆotes abierta” (no incluye a los extremos del intervalo). Estas
f´ormulas ser´an exactas cuando el polinomio interpolador coincida con la funci´on f, esto es, para
todo polinomio en T
n
.
1. F
´
ORMULAS DE NEWTON-C
ˆ
OTES 133
1.1. F´ormulas simples de Newton-Cˆotes. Veamos primero las f´ormulas de cuadratura
si se considera el intervalo [a, b] considerando nodos equiespaciados. Comencemos interpolando
por una recta o por una funci´on cuadr´arica.
Regla de Trapecios: es la que se obtiene si se reemplaza en el intervalo [a, b] la integral de
la funci´on f por la de la recta que une los puntos (a, f(a)) con (b, f(b)). De ah´ı el nombre de
trapecios (ver Figura 7.1). Como los nodos de interpolaci´on son los extremos del intervalo, esta
f´ormula tambi´en suele llamarse de trapecios cerrada.
−1 −0.9 −0.8 −0.7 −0.6 −0.5 −0.4 −0.3 −0.2 −0.1 0
0
1
2
3
4
5
6
7
Figura 7.1. Regla de los Trapecios simple cerrada
La recta est´a dada por p(x) = f(a) +
f(b) −f(a)
b −a
(x −a), integrado p obtenemos
_
b
a
p(x) dx = f(a)x +
f(b) −f(a)
b −a
(x −a)
2
2
¸
¸
¸
b
a
= f(a)(b −a) +
f(b) −f(a)
2
(b −a),
es decir:
_
b
a
f(x)dx ∼ T(f) =
(b −a)
2
(f(a) +f(b)). (7.2)
Ejemplo 7.1. Consideremos la funci´on f(x) = x
3
−4x + 4 en el intervalo [−1, 0]. ¿Cu´al es el
valor aproximado de la integral en este intervalo que da la regla de trapecios?
Seg´ un vimos, se tiene
_
0
−1
x
3
−4x + 4 dx ∼
0 −(−1)
2
(f(−1) +f(0)) =
1
2
(7 + 4) =
11
2
.
134 7. INTEGRACI
´
ON NUM
´
ERICA
En este caso, es sencillo calcular el valor exacto de
_
0
−1
x
3
−4x +4 dx =
23
4
con lo cual se puede
calcular exactamente el error que se comete, R(f) =
1
4
= 0.25.
M´as adelante nos dedicaremos al estudio del error. Veamos ahora una peque˜ na modificaci´on a
la regla de trapecios.
Regla de Trapecios abierta: en este caso, en lugar de considerar como nodos los extremos del
intervalo [a, b] vamos a usar dos puntos interiores equiespaciados ¦x
1
, x
2
¦. Luego, sustitu´ımos
la funci´on f por la recta que la interpola en esos nodos (ver Figura 7.2). Para ´esto partimos
al intervalo [a, b] en tercios, es decir en subintervalos de longitud h =
b−a
3
. De esta manera
consideramos ¦x
1
, x
2
¦ los extremos del intervalo medio, es decir x
j
= a + jh para j = 1, 2. El
polinomio de grado 1 que interpola a f en esos nodos es
p(x) = f(x
1
) +
f(x
2
) −f(x
1
)
x
2
−x
1
(x −x
1
).
Integrando p en [a, b] y recordando que h =
b−a
3
(´esto es: b −a = 3h, x
2
−x
1
= h, b −x
1
= 2h,
y a −x
1
= −h) tenemos
−1 −0.9 −0.8 −0.7 −0.6 −0.5 −0.4 −0.3 −0.2 −0.1 0
0
1
2
3
4
5
6
7
(x
1
, f(x
1
))
(x
2
, f(x
2
))
Figura 7.2. Regla de Trapecios simple abierta
_
b
a
p(x) dx = f(x
1
)x +
f(x
2
) −f(x
1
)
x
2
−x
1
(x −x
1
)
2
2
¸
¸
¸
b
a
= f(x
1
)3h +
f(x
1
) −f(x
2
)
h
_
(2h)
2
−(−h)
2
2
_
= 3hf(x
1
) +
f(x
1
) −f(x
2
)
h
3h
2
2
= 3h
_
f(x
1
) +f(x
2
)
2
_
Luego, para h =
b −a
3
,
1. F
´
ORMULAS DE NEWTON-C
ˆ
OTES 135
_
b
a
f(x)dx ∼
3h
2
(f(x
1
) +f(x
2
)). (7.3)
Ejemplo 7.2. Consideremos nuevamente la funci´on f(x) = x
3
−4x + 4 en el intervalo [−1, 0].
Queremos calcular la aproximaci´on que da la f´ormula de Trapecios abierta.
La regla de trapecios abierta tienen por nodos ¦x
1
= −
2
3
, x
2
= −
1
3
¦ con h =
1
3
. El valor
aproximado de la integral de f en [−1, 0] es
_
0
−1
x
3
−4x +4 dx ∼
1
2
(f(−
2
3
) +f(−
1
3
)) =
1
2
_

8
27
+
8
3
+4 −
1
27
+
4
3
+4
_
=
1
2
53
3
= 5.8333...
Usando el valor exacto, ya calculado, de
_
0
−1
x
3
−4x +4 dx =
23
4
podemos asegurar que el error
cometido es, R(f) = −0.08333...
Regla de Simpson: es la que se obtiene si se reemplaza en el intervalo [a, b] la integral de la
funci´on f por la de una funci´on cuadr´atica que interpola a f. Como para dar un ´ unico polinomio
de grado 2 que interpole a f se necesitan tres nodos, se consideran los extremos del intervalo y
su punto medio, es decir, ¦a,
a−b
2
, b¦ (ver Figura 7.3). Como a y b forman parte de los nodos,
esta f´ormula tambi´en suele llamarse de Simpson cerrada.
−1 −0.5 0 0.5 1 1.5 2
0
1
2
3
4
5
6
7 (a, f(a))
(a+h, f(a+h))
(b, f(b))
Figura 7.3. Regla de Simpson
Para simplificar los c´alculos, queremos hallar la f´ormula que le corresponde a una funci´on con-
tinua cuando se considera el intervalo [−1, 1] y derivar de ´esta la f´ormula general. Para ´esto
necesitaremos el siguiente lema.
136 7. INTEGRACI
´
ON NUM
´
ERICA
Lema 7.3. Si Q
0
(f) =
n

j=0
A
j
f(t
j
) es una f´ormula de cuadratura para aproximar la integral
_
1
−1
f(x) dx entonces, para
x
j
=
(b −a)
2
t
j
+
(a +b)
2
, ∀j = 0, . . . , n;
se tiene una f´ormula de cuadratura para el intervalo [a, b]:
_
b
a
f(x) dx ∼ Q(f) =
n

j=0
(b −a)
2
A
j
f(x
j
). (7.4)
Demostraci´ on. Consideremos el cambio de variables x = αt+β, con α = (b−a)/2 y β = (a+b)/2
que transforma el intervalo [−1, 1] en [a, b]. As´ı,
_
b
a
f(x) dx =
_
1
−1
f(αt +β) α dt.
Aplicando la f´ormula Q
0
a la funci´on g(t) = αf(αt +β) para el intervalo [−1, 1] tenemos,
_
b
a
f(x) dx =
_
1
−1
f(αt +β) α dt ∼ Q
0
(g) (7.5)
con,
Q
0
(g) =
n

j=0
A
j
g(t
j
) =
n

j=0
αA
j
f(αt
j
+β).
Si llamamos x
j
= αt
j
+β, para j = 0, . . . , n, tenemos que
x
j
=
(b −a)
2
t
j
+
(a +b)
2
∀j = 0, . . . , n.
Luego, podemos re-escribir la aproximaci´on en [a, b] dada en (7.5) como en la f´ormula (7.4).
Ahora s´ı, procedemos a dar la f´ormula de Simpson, que aproxima a
_
1
−1
f(x) dx, usando el
polinomio interpolador p en los nodos equiespaciados ¦−1, 0, 1¦. Si p(x) = a
0
+a
1
x +a
2
x
2
,
_
1
−1
p(x) dx = 2
_
a
0
+
a
2
3
¸
=
2
6
_
6a
0
+ 2a
2
¸
.
1. F
´
ORMULAS DE NEWTON-C
ˆ
OTES 137
Por otro lado, sabemos que p(x) = a
0
+a
1
x +a
2
x
2
verifica el sistema:
_
_
1 −1 1
1 0 0
1 1 1
_
_
_
_
a
0
a
1
a
2
_
_
=
_
_
f(−1)
f(0)
f(1)
_
_
Por lo tanto, a
0
= f(0), a
1
=
f(1) −f(−1)
2
y a
2
=
f(−1) −2f(0) +f(1)
2
.
Luego,
_
1
−1
f(x) dx ∼
_
1
−1
p(x) dx =
2
6
[f(−1) + 4f(0) +f(1)].
Ahora, por el Lema 7.4, se tiene para un intervalo [a, b] la f´ormula de Simpson simple cerrada:
S(f) =
(b −a)
6
_
f(a) + 4f((a +b)/2) +f(b)
¸
.
Si escribimos la f´ormula en t´erminos de la distancia entre un nodo y otro, h =
b−a
2
, se tiene:
S(f) =
h
3
_
f(a) + 4f(a +h) +f(b)
¸
. (7.6)
Ejemplo 7.4. Para la funci´on f(x) = x
3
−4x+4 consideremos ahora el intervalo [−1, 2]. ¿Cu´al
es el valor que se obtiene al aproximar la integral de f en este intervalo si se emplea la f´ormula
de Simpson cerrada?
Para este intervalo tenemos, b −a = 3, luego h =
3
2
y a +h =
a+b
2
=
1
2
, entonces la f´omula (7.6)
nos da
S(f) =
1
2
_
f(−1) + 4f(
1
2
) +f(2)
¸
=
1
2
_
7 + 4
17
8
+ 4] =
39
4
.
En este caso el c´alculo es exacto puesto que al calcular la integral de f en [−1, 2] obtenemos por
resultado
39
4
.
Regla de Simpson abierta: es la que se obtiene al reemplazar f por un polinomio de grado
2 que la interpole en nodos equiespaciados en el interior del intervalo [a, b]. Para ´esto partimos
al intervalo [a, b] en cuartos, es decir en subintervalos de longitud h =
b−a
4
. De esta manera
consideramos ¦x
1
, x
2
, x
3
¦ los extremos de los intervalos medios, es decir x
j
= a + jh para
j = 1, 2, 3; (ver Figura 7.4). Como a y b no forman parte de los nodos, esta f´ormula recibe el
nombre de Simpson abierta.
Si procedemos como antes, podemos hallar el polinomios de grado 2 que interpola a una funci´on
en el intervalo [−1, 1] y luego por el Lema 7.4 extendemos la f´ormula a cualquier intervalo [a, b].
En este caso, el polinomio p(x) = a
0
+ a
1
x + a
2
x
2
interpola a f en los nodos ¦−
1
2
, 0,
1
2
¦. y
resultan a
0
= f(0), a
1
= f(
1
2
) −f(−
1
2
), y a
2
= 2f(−
1
2
) −4f(0) + 2f(
1
2
).
138 7. INTEGRACI
´
ON NUM
´
ERICA
−1 −0.5 0 0.5 1 1.5 2
0
1
2
3
4
5
6
7
8
9
(a+h, f(a+h))
(a+2h, f(a+2h))
(a+3h, f(a+3h))
Figura 7.4. Regla de Simpson abierta
Luego,
_
1
−1
p(x) dx =
2
3
_
3a
0
+ a
2
¸
=
2
3
_
2f(−
1
2
) − f(0) + 2f(
1
2
)
¸
. Al pasar a un intervalo [a, b]
por medio del Lema 7.4 y escribiendo la f´ormula en t´erminos del paso h =
b−a
4
obtenemos,
_
b
a
f(x) dx ∼
4h
3
_
2f(a +h) −f(a + 2h) + 2f(a + 3h)
¸
.
Ejemplo 7.5. Consideremos nuevamente la funci´on f(x) = x
3
−4x + 4 en el intervalo [−1, 2].
Queremos hallar una aproximaci´on de la integral de f en dicho intervalo por medio de la regla
de Simpson abierta.
Como h =
b−a
4
=
3
4
, entonces a +h = −
1
4
, a + 2h =
1
2
, a + 3h =
5
4
, as´ı tenemos
_
2
−1
x
3
−4x + 4 dx ∼ 1
_
2f(−
1
4
) −f(
1
2
) + 2f(
5
4
)
¸
=
_
2
319
64

17
8
+ 2
61
64
¸
=
624
64
=
39
4
,
que vuelve a ser un c´alculo exacto.
Es claro que la f´ormula de Simpson es exacta para polinomios de T
2
, al igual que la f´ormula de
Trapecios lo es para polinomios de T
1
. Esto motiva la siguiente definici´on.
Definici´ on 7.6. Decimos que una f´ormula de cuadratura Q(f) =
n

j=0
A
j
f(x
j
) tienen grado de
exactitud k, si
_
b
a
p(x) dx = Q(p) para todo polinomio p ∈ T
k
y no para T
k+1
.
2. ESTIMACI
´
ON DEL ERROR 139
Observaci´ on 7.7. Toda f´ormula de cuadratura
_
b
a
f(x) dx ∼ Q(f) =
n

j=0
A
j
f(x
j
) es lineal.
Es decir, Q(αf + g) = αQ(f) + Q(g) y este valor aproxima en [a, b] la integral de αf + g para
todo α ∈ IR, f y g funciones.
En virtud de este resultado, podemos reducir el estudio del grado de exactitud al comportamiento
de la f´ormula sobre una base del espacio de polinomios. Esto queda expresado en la siguiente
observaci´on.
Observaci´ on 7.8. Una f´ormula de cuadratura Q tiene grado de exactitud k si y solo si es exacta
para la base de T
k
, B = ¦1, x, x
2
, . . . , x
k
¦ y no lo es para el polinomio x
k+1
. Esto es, la igualdad
_
b
a
x
m
dx =
n

j=0
A
j
x
m
j
debe verificarse para todo m = 0, . . . , k y no para m = k + 1.
Adem´as, gracias al Lema 7.4, una f´ormula de cuadratura tiene grado de exactitud k indepen-
dientemente del intervalo [a, b] para el cual est´a calculada.
Ejemplo 7.9. Se quiere calcular el grado de exactitud de la f´ormula de Simpson cerrada.
Es claro que las f´ormulas de Simpson, tanto abiertas como cerradas, son exactas para polinomios
de T
2
. Luego, por Observaci´on 7.8, basta ver qu´e sucede con x
3
, x
4
, . . ., y esto puede hacerse,
sin perder generalidad, en el intervalo [−1, 1]. Tenemos
_
1
−1
x
3
dx = 0 =
2
6
[(−1)
3
+ 4(0)
3
+ (1)
3
],
_
1
−1
x
4
dx =
2
5
,=
2
3
=
1
3
[(−1)
4
+ 4(0)
4
+ (1)
4
].
Luego, la f´ormula de Simpson cerrada tiene grado de exactitud k = 3. Lo mismo suceder´a para
la f´ormula abierta.
2. Estimaci´on del error
Antes de estudiar c´omo pueden mejorarse las aproximaciones obtenidas, veamos cu´al es el error
que se comete al utilizarlas. Las f´ormulas de Trapecios y Simpson se obtienen de integrar el
polinomio interpolador de grado 1, 2 respectivamente. Tambi´en podr´ıamos buscar otras f´ormulas
interpolando con polinomios de mayor grado.
En lo que sigue notaremos por I(f) =
_
b
a
f(x) dx.
140 7. INTEGRACI
´
ON NUM
´
ERICA
El Teorema 5.4 da, para cualquier funci´on f ∈ C
n+1
[a, b] una f´ormula que mide el error cuando
se considera su polinomio interpolador p
n
∈ T
n
en lugar de f:
E
n
(x) = f(x) −p
n
(x) =
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x) (con ξ ∈ (a, b) que depende de) x.
Luego, si Q es una f´ormula de cuadratura como en (7.1) podemos expresar el error de integraci´on
por
R(f) = I(f) −Q(f) =
_
b
a
(f −p
n
)(x) dx.
Es decir
R(f) =
_
b
a
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x) dx.
Error para la Regla de Trapecios: Para estimar el error citamos el siguiente teorema del
que omitimos dar una demostraci´on.
Teorema 7.10. (Valor Medio Integral Generalizado). Si g, h son funciones continuas en
[a, b] tales que g no cambia de signo, entonces existe η ∈ (a, b) tal que
_
b
a
g(x)h(x) dx = h(η)
_
b
a
g(x) dx.
Para calcular el error de la regla de los trapecios recordemos que los nodos son ¦a, b¦, y por
tanto W
2
(x) = (x − a)(x − b), que no cambia de signo en [a, b], entonces usando el teorema
anterior,
R(f) = I(f) −Q(f) =
_
b
a
f

(ξ)
2!
W
2
(x) dx
=
f

(η)
2
_
b
a
(x −a)(x −b) dx
= −
f

(η)
12
(b −a)
3
.
Notar que hay una forma directa de calcular
_
b
a
(x − a)(x − b) dx que es calcularla por partes.
Si derivamos (x −b) e integramos (x −a), tenemos
_
b
a
(x −a)(x −b) dx = (x −b)
(x −a)
2
2
¸
¸
¸
b
a

_
b
a
(x −a)
2
2
dx = −
(x −a)
3
6
¸
¸
¸
b
a
= −
(b −a)
3
6
.
Finalmente, si h = b − a es la distancia que hay entre los dos nodos, el error puede expresarse
por
2. ESTIMACI
´
ON DEL ERROR 141
R(f) = −
h
3
12
f

(η), para alg´ un η ∈ (a, b). (7.7)
Ejemplo 7.11. Estimar el error cometido al aproximar
_
1
2
0
x
4
−x
2
+ 2x + 3 dx por la f´ormula
de trapecios cerrada. ¿Cu´al es el valor de dicha aproximaci´on? ¿Qu´e an´alisis se puede hacer si
se considera la misma funci´on en el intervalo [−1, 1]?
Tenemos h =
1
2
, f(x) = x
4
− x
2
+ 2x + 3 y f

(x) = 12x
2
− 2. Como R(f) = −
h
3
12
f

(η) para
alg´ un η ∈ (0,
1
2
), acotamos [f

(x)[ para todo x ∈ [0,
1
2
]. Esto es, [f

(x)[ ≤ 2, puesto que alcanza
su valor m´aximo en el extremo izquierdo del intervalo.
Luego, [R(f)[ =
h
3
12
[f

(η)[ ≤
1
8
1
12
2 = 0.020833...
El valor de la aproximaci´on est´a dado por T(f) =
1
4
(f(0) +f(
1
2
)) =
1
4
(3 +
61
16
) = 3.81250
A veces, al estimar el error perdemos informaci´on. Por ejemplo, si queremos estimar el error
cometido al considerar x ∈ [−1, 1], no logramos un resultado muy fino. Por un lado [f

(x)[ =
[12x
2
−2[ ≤ 10, pues alcanza su valor m´aximo en los extremos del intervalo y h = b −a = 2, as´ı,
[R(f)[ =
h
3
12
[f

(η)[ ≤
8
12
10 =
20
3
= 6.666...
Aunque
_
1
−1
x
4
− x
2
+ 2x + 3 dx =
86
15
= 5.7333... y el valor que arroja la f´ormula es T(f) =
2
2
(f(−1) +f(1)) = 6 y el error real es 0.2666...
Error para la Regla de Simpson: es un poco m´as dif´ıcil de analizar pues el polinomio
W
3
(x) = (x −a)(x −
a+b
2
)(x −b) cambia de signo en [a, b],
Sean x
0
= a, x
1
= (a +b)/2 y x
2
= b. Definamos el polinomio c´ ubico auxiliar, p
3
(x) como aquel
polinomio que verifica
p
3
(x
0
) = f(x
0
),
p
3
(x
1
) = f(x
1
),
p
3
(x
2
) = f(x
2
),
p

3
(x
1
) = f

(x
1
),
(dejamos como ejercicio probar que un tal p
3
existe). Observemos que S(f) = S(p
3
) pues p
3
interpola a f en x
0
, x
1
, x
2
. Adem´as, como la regla de Simpson es exacta en polinomios de grado
3, tenemos que S(p
3
) = I(p
3
), entonces
I(f) −S(f) = I(f) −S(p
3
) = I(f) −I(p
3
).
Para acotar esto necesitamos acotar f(x) − p
3
(x). Para x fijo distinto de x
0
, x
1
, x
2
, definimos
φ(t) para t ∈ [a, b] por
142 7. INTEGRACI
´
ON NUM
´
ERICA
φ(t) = f(t) −p
3
(t) −(f(x) −p
3
(x))
_
(t −x
0
)(t −x
1
)
2
(t −x
2
)
(x −x
0
)(x −x
1
)
2
(x −x
2
)
_
.
Entonces φ(x) tiene al menos cuatro ceros en [a, b], x
0
, x
1
, x
2
y x. Por el teorema de Rolle
φ

tiene al menos tres ceros en (a, b) que est´an entre los cuatro ceros de φ. Por construcci´on
φ

(x
1
) = 0, en consecuencia φ

tiene al menos cuatro ceros. Si f es C
4
encontramos que existe
un punto ξ ∈ (a, b) tal que
φ
(iv)
(ξ) = 0.
De la definici´on de φ esto es equivalente a
f(x) −p
3
(x) =
f
(iv)
(ξ)
4!
(x −x
0
)(x −x
1
)
2
(x −x
2
).
Como la funci´on (x −x
0
)(x −x
1
)
2
(x −x
2
) no cambia de signo en (a, b) podemos obtener,
I(f) −I(p
3
) =
_
b
a
f
(iv)
(ξ)
4!
(x −x
0
)(x −x
1
)
2
(x −x
2
) dx.
O bien, por el valor medio
I(f) −I(p
3
) =
f
(iv)
(η)
4!
_
b
a
(x −x
0
)(x −x
1
)
2
(x −x
2
) dx.
Ahora observamos que, llamando h = (b −a)/2,
_
b
a
(x −x
0
)(x −x
1
)
2
(x −x
2
) dx =
−4h
5
15
.
Entonces
R(f) = I(f) −S(f) = I(f) −I(p
3
) =
f
(iv)
(η)
4!
(
−4h
5
15
) =
−h
5
90
f
(iv)
(η).
Ejemplo 7.12. Aproximar
_
1
0
e
−x
2
dx mediante la regla de Simpson cerrada y estimar el error
que se comete al efectuar dicho c´alculo.
Tenemos h =
1
2
, f(x) = e
−x
2
, as´ı
_
1
0
e
−x
2
dx ∼
1
6
(f(0) + 4f(
1
2
) +f(1)) =
1
6
(1 +e

1
4
+e
−1
) = 0.74951...
Para estimar el error consideramos f
iv
(x) = 4(4x
4
−12x
2
+ 3)e
−x
2
. Como R(f) =
−h
5
90
f
(iv)
(η)
para alg´ un η ∈ (0, 1), acotamos [f

(x)[ para todo x ∈ [0, 1].
Por una parte tenemos que en [0, 1], e
−x
2
≤ 1 y por otra parte puede verse que [4x
4
−12x
2
+3[
alcanza su valor m´aximo en el extremo superior del intervalo. Luego, [4x
4
− 12x
2
+ 3[ ≤ 5 en
[0, 1] y por lo tanto
[R(f)[ ≤
1
90
_
1
2
_
5
20 = 0.006944...
3. F
´
ORMULAS DE CUADRATURA COMPUESTAS 143
3. F´ormulas de cuadratura compuestas
Si queremos aumentar la presici´on al aproximar
_
b
a
f(x) dx, podemos aumentar el n´ umero de
nodos. Esto es, considerar n + 1 nodos y el polinomio de T
n
que interpola a f en esos nodos,
con n ∈ IN grande. Veremos m´as adelante que ´esto no siempre es conducente. Como vimos en
el Cap´ıtulo 5, aumentar el grado del polinomio interpolador puede producir errores grandes en
la aproximaci´on, los que se trasladar´ıan al c´alculo de la integral. Otro m´etodo, que es que que
vamos a desarrollar en esta secci´on, es el de partir el intervalo [a, b] en peque˜ nos subintervalos
y en cada uno de estos aplicar una aproximaci´on del tipo Trapecios o Simpson. Este ´ ultimo
procedimiento se conoce como “cuadraturas compuestas”.
La idea general es como sigue. Partimos el intervalo [a, b] en subintervalos eligiendo puntos x
j
con a = x
0
< x
1
< . . . < x
n
= b. Sabemos que
I(f) =
_
b
a
f(x) dx =
n−1

j=0
_
x
j+1
x
j
f(x) dx.
Ahora si para cada
I
j
(f) =
_
x
j+1
x
j
f(x) dx
tenemos una f´ormula de cuadratura Q
j
(f) y consideramos el error respectivo,
R
j
(f) = I
j
(f) −Q
j
(f)
obtenemos
R(f) =
n−1

j=0
R
j
(f) =
n−1

j=0
(I
j
(f) −Q
j
(f))
=
_
b
a
f(x) dx −
n−1

j=0
Q
j
(f)
Esto es, la f´ormula de cuadratura ser´a
_
b
a
f(x) dx ∼
n−1

j=0
Q
j
(f) con error R(f) =
n−1

j=0
R
j
(f). (7.8)
Para dar una exprexi´on de las f´ormulas y estudiar simult´aneamente el error cometido en cada
caso vamos a necesitar el siguiente lema.
Lema 7.13. Sea g ∈ C([a, b]) y sean ¦a
0
, . . . , a
k
¦ constantes con el mismo signo y ¦t
0
, . . . , t
k
¦ ∈
[a, b], entonces se tiene
144 7. INTEGRACI
´
ON NUM
´
ERICA
k

j=0
a
j
g(t
j
) = g(η)
k

j=0
a
j
para alg´ un η ∈ [a, b].
Demostraci´ on. Sea m = min g(x) y M = max g(x) en [a, b]. Podemos suponer que a
j
≥ 0 para
todo j = 1, . . . , k, luego
para cada j : m ≤ g(t
j
) ≤ M
(a
j
≥ 0) m a
j
≤ a
j
g(t
j
) ≤ M a
j
(sumando) m
k

j=0
a
j

k

j=0
g(t
j
)a
j
≤ M
k

j=0
a
j
Ahora, definimos la funci´on G : [a, b] → IR,
G(x) = g(x)
k

j=0
a
j
,
como G es un m´ ultiplo de g, resulta continua en [a, b]. Adem´as, el valor m´aximo de G en [a, b]
es M

k
j=0
a
j
y el valor m´ınimo es m

k
j=0
a
j
. Entonces, por el teorema del valor medio, existe
η ∈ [a, b] tal que
G(η) =
k

j=0
a
j
g(t
j
),
es decir
g(η)
k

j=0
a
j
=
k

j=0
a
j
g(t
j
),
como quer´ıamos demostrar.
Ahora estamos en condiciones de desarrollar las f´ormulas de cuadratura compuestas. Considera-
remos el caso de nodos equiespaciados. Esto nos permitir´a aprovechar las f´ormulas ya calculadas
(Trapecios y Simpson) dado que la distancia entre dos nodos, que tambi´en llamaremos ‘paso h’
no var´ıa.
Regla de Trapecios compuesta: para la f´ormula cerrada se tiene que tanto a como b son
nodos, luego tomamos los nodos x
j
= a +jh para j = 0, . . . , n −1 con h = (b −a)/n.
La f´ormula (7.2) nos da para cada integral
_
x
j+1
x
j
f(x) dx ∼ T
j
(f) =
h
2
(f(x
j
) +f(x
j+1
)),
3. F
´
ORMULAS DE CUADRATURA COMPUESTAS 145
Luego,
T(f) =
n−1

j=0
h
2
(f(x
j
) +f(x
j+1
))
=
h
2
[f(x
0
) +f(x
1
) +f(x
1
) +f(x
2
) +. . . +f(x
n−1
) +f(x
n
)]
=
h
2
_
_
f(x
0
) +
n−1

j=1
2f(x
j
) +f(x
n
)
_
_
Entonces la cuadratura compuesta usando la regla de Trapecios cerrada viene dada por
T(f) =
h
2
_
_
f(x
0
) +
n−1

j=1
2f(x
j
) +f(x
n
)
_
_
(7.9)
Como para cada subintervalo se comete un error (ver (7.7)) R
j
(f) = −
f


j
)
12
h
3
se tiene
R(f) =
n−1

j=0

f


j
)
12
h
3
= −
h
3
12
n−1

j=0
f


j
).
Ahora, gracias al Lema 7.13 (con a
j
= 1 para todo j) y teniendo en cuenta que h = (b − a)/n
si y solo si n = (b −a)/h, tenemos que existe η ∈ (a, b) tal que
R(f) = −
h
3
12
nf

(η) = −
h
3
12
b −a
h
f

(η) = −
h
2
12
(b −a)f

(η). (7.10)
Ejemplo 7.14. Determinar el n´ umero n de subintervalos necesario para que el error cometido
con la regla de Trapecios compuesta de una aproximaci´on de la integral
_
1
0
e
−x
2
dx con error
menor que 10
−4
.
Para hallar el n´ umero de subintervalos a considerar usamos la expresi´on del error (7.10). Debe-
mos acotar [f

(x)[ para x ∈ [0, 1] siendo f

(x) = (4x
2
−2)e
−x
2
, Como e
−x
2
≤ 1 y [4x
2
−2[ ≤ 2
en este intervalo, se tiene:
[R(f)[ =
h
2
12
(b −a)[f

(η)[ ≤
h
2
12
2 =
1
6
_
1
n
_
2
Si tomamos n > 40.8248... podemos asegurar que [R(f)[ < 10
−4
. Es decir, basta tomar n = 41.
146 7. INTEGRACI
´
ON NUM
´
ERICA
Regla de Simpson compuesta: se trata de obtener una f´ormula del tipo (7.8) cuando se usa
la f´ormula de Simpson en cada partici´on del intervalo [a, b].
La f´ormula (7.6) nos da para cada integral
_
x
j+1
x
j
f(x) dx ∼ S
j
(f) =
h
3
(f(x
j
) + 4f(
x
j
+x
j+1
2
) +f(x
j+1
)).
Como interpolamos f por un polinomio de grado 2, en puntos equiespaciados, en cada integral
intervienen los nodos ¦x
j
,
x
j
+x
j+1
2
, x
j+1
¦. As´ı, el paso h entre dos nodos de cada integral es la
longitud media del intervalo [x
j
, x
j+1
]. Es decir, h =
1
2
b−a
n
=
b−a
2n
. Luego,
S(f) =
n−1

j=0
h
3
(f(x
j
) + 4f(
x
j
+x
j+1
2
) +f(x
j+1
))
f´ormula que podemos expresar como
S(f) =
h
3
_
_
f(a) + 2
n−1

j=0
f(x
j
) + 4
n−1

j=0
f(
x
j
+x
j+1
2
) + f(b)
_
_
(7.11)
Para analizar el error cometido al usar esta f´ormula, recordemos que en cada subintervalo el
error est´a dado por
R
j
(f) =
−h
5
90
f
(iv)

j
).
R(f) =
n−1

j=0
−h
5
90
f
(iv)

j
) =
−h
5
90
n−1

j=0
f
(iv)

j
).
Por el Lema 7.13 (con a
j
= 1 para todo j) y teniendo en cuenta que h =
b−a
2n
si y solo si n =
b−a
2h
,
tenemos que existe η ∈ (a, b) tal que
R(f) =
−h
5
90
nf
(iv)
(η) =
−h
5
90
b −a
2h
f
(iv)
(η) =
−h
4
180
(b −a)f
(iv)
(η). (7.12)
Ejemplo 7.15. Determinar el n´ umero n de subintervalos necesario para que el error cometido
con la regla de Simpson compuesta de una aproximaci´on de la integral
_
1
0
e
−x
2
dx con error
menor que 10
−4
. Comparar con el ejemplo 7.14
3. F
´
ORMULAS DE CUADRATURA COMPUESTAS 147
El error viene dado por la f´ormula (7.12). Necesitamos acotar f
(iv)
(x) en el intervalo [0, 1].
Usamos la cota hallada en el Ejemplo 7.12. Esto es, [f
(iv)
(x)[ = [4(4x
4
− 12x
2
+ 3)e
−x
2
[ ≤ 20.
Entonces, con h =
b−a
2n
=
1
2n
se tiene
[R(f)[ =
h
4
180
[f
(iv)
(η)[ ≤
1
9
_
1
2n
_
4
.
Si tomamos n > 2.886... podemos asegurar que [R(f)[ < 10
−4
. Es decir, basta tomar n = 3,
mientras que para la regla de Trapecios compuesta pod´ıamos asegurar el mismo error partiendo
en 41 subintervalos de igual longitud.
Finalizaremos esta secci´on con una aplicaci´on de los m´etodos hasta ahora estudiados al c´alculo
aproximado de integrales m´ ultiples.
Observaci´ on 7.16. Es posible aplicar en forma iterada las reglas de integraci´on que acabamos
de desarrollar para aproximar integrales m´ ultiples de funciones continuas, para las cuales el
teorema de Fubini puede aplicarse.
Por ejemplo, si D ⊂ IR
2
es una regi´on que podemos describir por medio de funciones reales,
podemos escribir (si la regi´on es de Tipo 1)
__
D
f(x, y) dxdy =
_
b
a
_
ψ(x)
φ(x)
f(x, y) dydx,
y calcular las integrales iteradas por los procedimientos anteriores.
Ejemplo 7.17. Para f : IR
2
→ IR una funci´on continua y D = [0, 1] [0, 1], se define la funci´on
F(x) =
_
1
0
f(x, y) dy y luego
• Se aproximan los valores F(0), F(
1
2
), F(1) con la regla de Simpson.
• Se aproxima
_
1
0
F(x) dx usando otra vez la misma regla.
El valor de F(0) es el valor de la integral
_
1
0
g(y) dy con g(y) = f(0, y), luego aplicando la regla
de Simpson simple cerrada tenemos
F(0) ∼
1
6
_
f(0, 0) + 4f(0,
1
2
) +f(0, 1)
_
An´alogamente se obtiene los otros dos valores:
F(
1
2
) ∼
1
6
_
f(
1
2
, 0) + 4f(
1
2
,
1
2
) +f(
1
2
, 1)
_
F(1) ∼
1
6
_
f(1, 0) + 4f(1,
1
2
) +f(1, 1)
_
Ahora,
_
1
0
F(x) dx ∼
1
6
_
F(0) + 4F(
1
2
) +F(1)
_
,
148 7. INTEGRACI
´
ON NUM
´
ERICA
donde cada valor F(0), F(
1
2
) y F(1) se reemplazan por los valores aproximados ya calculados.
En la forma expl´ıcita de esta regla aparecen los 9 nodos:
_
(0, 0), (
1
2
, 0), (1, 0), (0,
1
2
), (
1
2
,
1
2
), (1,
1
2
), (0, 1), (
1
2
, 1), (1, 1)
_
para los cuales se debe calcular el valor de f(x, y).
4. Convergencia de los m´etodos de cuadratura
Es natural preguntarse si el procedimiento estudiado converge a la integral cuando el n´ unero
de nodos tiende a infinito. Esto es, si Q
n
(f) es la aproximaci´on de
_
b
a
f(x) dx que se hace a
trav´es de un polinomio que interpola a f en n+1 nodos, ¿vale que Q
n
(f) →
_
b
a
f(x) dx cuando
n → ∞? En esta secci´on veremos una condici´on para que esto suceda.
Si bien hasta ahora aproximamos el valor de
_
b
a
f(x) dx, podr´ıamos haber tratado un caso m´as
general, el de aproximar
_
b
a
f(x)w(x) dx, con w : [a, b] → IR una funci´on de peso positiva. Se
recupera exactamente lo estudiado hasta ahora al considerar w(x) = 1 para todo x ∈ [a, b]
En tal caso una cuadratura
_
b
a
f(x)w(x)dx ∼ Q(f) =
n

j=0
A
j
f(x
j
)
tendr´a pesos A
j
dependiendo de los nodos ¦x
0
, x
1
, . . . , x
n
¦ y de la funci´on w.
Cuando aproximamos f por el polinomio interpolador de Lagrange y usamos la base de Lagrange
para tal fin, se tendr´a que A
j
=
_
b
a

j
(x)w(x) dx para j = 0, . . . , n.
Para estudiar la convergencia de estas cuadraturas cuando se incrementa el n´ umero de nodos
usaremos notaci´on m´as espec´ıfica. Es decir, tanto la base de Lagrange como la cuadratura, los
nodos y pesos de la misma se indicar´an con el n correspondiente. El siguiente teorema da una
condici´on que asegura la convergencia.
Teorema 7.18. Dada f ∈ C[a, b] y dado n ∈ IN notamos por
I(f) =
_
b
a
f(x)w(x) dx, y definimos Q
n
(f) =
n

j=0
A
(n)
j
f(x
(n)
j
)
donde los A
(n)
j
est´an dados por
A
(n)
j
=
_
b
a

(n)
j
(x)w(x) dx.
4. CONVERGENCIA DE LOS M
´
ETODOS DE CUADRATURA 149
Si existe una constante K tal que
n

j=0
[A
(n)
j
[ ≤ K ∀n
entonces
lim
n→∞
Q
n
(f) = I(f)
Demostraci´on. Por el teorema de Weierstrass, dado ε > 0 existe un polinomio q
N
∈ P
N
(N
depende de ε) tal que
max
a≤x≤b
[f(x) −q
N
(x)[ = |f −q
N
|

≤ ε.
Observemos que como Q
n
es exacta para polinomios de grado menos o igual que n, entonces se
tiene que Q
n
(q
N
) = I(q
N
) para todo n > N. Tenemos que,
[I(f) −Q
n
(f)[ = [I(f) −I(q
N
) +Q
n
(q
N
) −Q
n
(f)[
≤ [I(f) −I(q
N
)[ +[Q
n
(q
N
) −Q
n
(f)[.
Ahora bien, si llamamos c =
_
b
a
w(x) dx, se tiene
[I(f) −I(q
N
)[ =
¸
¸
¸
¸
_
b
a
w(x)(f(x) −q
N
(x)) dx
¸
¸
¸
¸
≤ |f −q
N
|

_
b
a
w(x) dx ≤ cε,
y adem´as,
[Q
n
(q
N
) −Q
n
(f)[ =
¸
¸
¸

n
j=0
A
(n)
j
(q
N
(x
(n)
j
) −f(x
(n)
j
))
¸
¸
¸
≤ |f −q
N
|

n
j=0
[A
(n)
j
[ ≤ Kε.
Con todo esto, hemos probado que dado ε > 0 existe N tal que si n > N,
[I(f) −Q
n
(f)[ ≤ (c +K)ε.
Tambi´en vale la implicaci´on rec´ıproca, que enunciamos en el siguiente teorema, de la cual omi-
timos una demostraci´on.
150 7. INTEGRACI
´
ON NUM
´
ERICA
Teorema 7.19. Con las notaciones anteriores, si lim
n→∞
Q
n
(f) = I(f) entonces existe una cons-
tante K tal que
n

j=0
[A
(n)
j
[ ≤ K ∀n.
Corolario 7.20. Si los pesos A
(n)
j
son todos positivos tenemos entonces
Q
n
(f) →
_
b
a
f(x)w(x) dx,
para toda funci´on continua f.
Demostraci´ on. Como la aproximaci´on por cuadraturas Q
n
es exacta para polinomios de T
n
, en
particular se tiene que Q
n
(1) =
_
b
a
w(x) dx, para todo n ∈ IN.
Como w(x) > 0 y los pesos son todos positivos tenemos que,
0 < I(1) =
_
b
a
w(x) dx = Q
n
(1) =
n

j=0
A
(n)
j
=
n

j=0
[A
(n)
j
[.
La constante K que satisface la hip´otesis del teorema anterior es
K =
_
b
a
w(x) dx =
n

j=0
[A
(n)
j
[,
y tenemos que estas aproximaciones de la integral convergen a la misma.
Se sabe que si n ≥ 10 los pesos de las f´ormulas de Newton-Cˆotes cambian de signo. Peor a´ un,
cuando n crece, los pesos crecen y no est´an acotados, por lo tanto existen funciones continuas
para las cuales este procedimiento para aproximar la integral no converge. As´ı, el camino
seguro para aumentar la precisi´on usando f´ormulas de Newton-Cˆotes es por medio de f´ormulas
compuestas. Sin embargo es posible aumentar precisi´on aumentando el n´ umero de los nodos de
interpolaci´on. Estudiaremos este m´etodo en la secci´on siguiente.
5. Cuadratura Gaussiana
Queremos aumentar la presici´on al aproximar
_
b
a
f(x) dx, o
_
b
a
f(x)w(x) dx como vimos en la
secci´on anterior. Si consideramos nodos fijos ¦x
0
, x
1
, . . . , x
n
¦ e interpolamos f con un polinomio
p ∈ T
n
pueden producirse errores grandes en la aproximaci´on como vimos en el Cap´ıtulo 5. Una
forma de mejorar el error que se comete es elegir los puntos de interpolaci´on para optimizar
la aproximaci´on. Los polinomios de Tchebychev dan una soluci´on en este sentido. Los nodos
a considerar son los ceros del polinomio de grado n + 1. El m´etodo de cuadratura gaussiana
generaliza este tipo de elecci´on.
5. CUADRATURA GAUSSIANA 151
En s´ıntesis, queremos encontrar una f´ormula de cuadratura
_
b
a
f(x)w(x)dx ∼ Q(f) =
n

j=0
A
j
f(x
j
)
donde podamos elegir tanto los pesos ¦A
0
, A
1
, . . . , A
n
¦ como los nodos ¦x
0
, x
1
, . . . , x
n
¦, es decir
que tenemos 2n + 2 variables. Si pedimos que las formulas de inetgraci´on sean exactas para
polinomios del mayor grado posible nos quedan las siguientes ecuaciones
_
b
a
x
k
w(x) dx =
n

j=0
A
j
x
k
j
0 ≤ k ≤ 2n + 1
Esto es un sistema no lineal de 2n + 2 ecuaciones con 2n + 2 inc´ognitas. Gauss demostr´o que
este sistema tiene soluci´on ´ unica cuando w = 1 y el intervalo es [−1, 1]. El Lema 7.4 nos
permite independizarnos del intervalo mientras que la teor
´
ia de espacios con producto interno y
polinomios ortogonales vistos en el Cap´ıtulo 6 nos permiten trabajar con un peso arbitrario w,
(w(x) > 0).
As´ı como los ceros del polinomio de Tchebychev de grado n son todos distinto, para cada n fijo,
y ´estos son tomados como nodos para interpolar una funci´on f, el Teorema que sigue nos da un
resultado an´alogo para cualquier familia de polinomios ortogonales.
Consideremos sobre V = C[a, b] el producto interno
¸f, g) =
_
b
a
f(x)g(x)w(x) dx,
y llamemos ¦q
j
¦ a los polinomios ortogonales y m´onicos con respecto a este producto interno.
Respectivamente, notemos ¦p
j
¦ los polinomios ortonormales.
Teorema 7.21. Las ra´ıces de p
n
son todas reales, distintas entre s´ı y pertenecen al intervalo
(a, b).
Demostraci´on. Sea n ≥ 1 fijo. Veamos primero p
n
tiene al menos una ra´ız real. Si no fuera as´ı,
p
n
tiene signo constante, en particular, tiene signo constante en el intervalo (a, b). Supongamos
que p
n
(x) > 0 en (a, b). Como p
n
y q
0
(q
0
= 1) son ortogonales tenemos
0 = ¸p
n
, 1) =
_
b
a
p
n
(x)w(x) dx > 0
esta contradicci´on muestra que p
n
no s´olamente tiene una ra´ız real sino que tiene al menos un
cero en (a, b).
El segundo paso ser´a ver que las ra´ıces de p
n
son simples. Supongamos que p
n
tiene alg´ un cero
m´ ultiple y veamos que esto no es posible. Si x
0
∈ IR es una ra´ız mu´ ultiple, entonces p
n
es
divisible por (x − x
0
)
2
, y entonces q(x) =
p
n
(x)
(x −x
0
)
2
es un polinomio de grado n − 2. Luego, q
es una combinaci´on lineal de ¦p
0
, p
1
, . . . , p
n−2
¦ y resulta ser ortogonal a p
n
, por consiguiente,
152 7. INTEGRACI
´
ON NUM
´
ERICA
0 = ¸p
n
, q) =
_
b
a
p
n
(x)
p
n
(x)
(x −x
0
)
2
w(x) dx
=
_
b
a
p
n
(x)
2
(x −x
0
)
2
w(x) dx > 0,
que resulta, nuevamente, es una contradicci´on. En consecuencia todos lo ceros de p
n
son simples.
Finalmente, resta ver que todas las ra´ıces de p
n
pertenecen al intervalo (a, b).
Supongamos que x
0
, . . . , x
k
son los ceros de p
n
que est´an en (a, b) y supongamos que k < n −1,
es decir que p
n
tiene ceros que no pertenecen a (a, b). Como las ra´ıces x
0
, . . . , x
k
son simples el
polinomio r dado por
r(x) = p
n
(x)/(x −x
0
)(x −x
1
) . . . (x −x
k
).
tiene grado n−(k+1), con lo cual es ortogonal a p
n
y tiene signo constante en (a, b). Supongamos
que r(x) > 0.
0 = ¸p
n
, (x −x
0
) . . . (x −x
k
)) =
_
b
a
p
n
(x)(x −x
0
) . . . (x −x
k
)w(x) dx
=
_
b
a
r(x)(x −x
0
)
2
. . . (x −x
k
)
2
(x)w(x) dx > 0,
Esta contradicci´on proviene de suponer que el grado de r es no nulo, luego k = n −1 y todos lo
ceros de p
n
est´an en (a, b).
Ahora probemos el teorema b´asico de las cuadraturas de Gauss.
Teorema 7.22. La f´ormula
_
b
a
p(x)w(x) dx =
n

j=0
A
j
p(x
j
),
vale para cualquier polinomio de grado menor o igual a 2n + 1 si y solo si los puntos ¦x
j
¦ son
los ceros de p
n+1
(x).
Demostraci´ on. Sea p(x) ∈ P
2n+1
y supongamos que los puntos x
j
est´an dados por
p
n+1
(x
j
) = 0 0 ≤ j ≤ n.
Por el algoritmo de divisi´on para polinomios se puede escribir
p(x) = p
n+1
(x)S(x) +R(x)
con S(x) y R(x) en P
n
(x).
Por la definici´on de los pesos A
j
, como el grado de R es a lo sumo n, tenemos
5. CUADRATURA GAUSSIANA 153
I(R) = Q
n
(R).
Entonces
I(p) =
_
b
a
p(x)w(x) dx
=
_
b
a
p
n+1
(x)S(x)w(x) dx +
_
b
a
R(x)w(x) dx
= ¸p
n+1
, S) +I(R)
= 0 +Q
n
(R)
=
n

j=0
A
j
R(x
j
)
=
n

j=0
A
j
p(x
j
) = Q
n
(p).
Ahora supongamos que ¦x
j
¦ es un conjunto de puntos distintos y que se verifica
_
b
a
p(x)w(x) dx =
N

j=0
A
j
p(x
j
)
para todo p ∈ P
2n+1
. Dado un entero k sea r
k
un polinomio de grado menor o igual que k. Sea
W(x) =

n
j=0
(x − x
j
) y definamos p(x) = r
k
(x)W(x). Es claro que p ∈ P
2n+1
, por nuestra
hip´otesis I(p) = Q
n
(p), en consecuencia
¸r
k
, W) =
_
b
a
r
k
(x)W(x)w(x) dx
=
_
b
a
p(x)w(x) dx
=
n

j=0
A
j
p(x
j
)
=
n

j=0
A
j
r
k
(x
j
)W(x
j
) = 0,
pues W(x) se anula en los x
j
. Entonces W(x) es un polinomio m´onico de grado (n+1) que resulta
ortogonal a cualquier polinomio de grado menor o igual que n, en consecuencia W(x) = q
n+1
(x)
154 7. INTEGRACI
´
ON NUM
´
ERICA
y entonces los x
j
son los ceros de p
n+1
.
Corolario 7.23. Sea Q
n
(f) =

n
j=0
A
j
f(x
j
) la cuadratura gaussiana, entonces
lim
n→∞
Q
n
(f) = I(f).
Demostraci´ on. Por la definici´on de los l
k
(x) cada (l
k
)
2
∈ P
2n
y entonces I(l
2
k
) = Q
n
(l
2
k
) y en
consecuencia, como l
k
(x
j
) = δ
kj
,
0 <
_
b
a
l
2
k
(x)w(x) dx =
n

j=0
A
j
(l
k
(x
j
))
2
= A
k
.
Es decir, para la cuadratura gaussiana todos los pesos son positivos y por lo visto antes esto
implica la convergencia.
6. Ejercicios
(1) Usar las f´ormulas cerradas de Newton-Cotes de dos y tres puntos (reglas de trapecios
y de Simpson, respectivamente) para calcular las integrales:
_
1
0
x
4
dx
_
0.2
0.1
ln(x) dx
_
.3
0
1
1 +x
dx
Calcular, adem´as, en forma exacta cada una de las integrales anteriores y verificar la
cota del error.
(2) Interpolando las funciones de base de Lagrange, hallar una f´ormula de cuadratura por
interpolaci´on de la forma
_
2h
0
f(x) dx ∼ A
0
f(0) +A
1
f(h).
(3) Usar el m´etodo de coeficientes indeterminados para dar una f´ormula de cuadratura por
interpolaci´on:
_
3h
0
f(x) dx ∼ A
0
f(0) +A
1
f(h) +A
2
f(3h).
(4) Construir la f´ormula abierta de Newton-Cotes para calcular
_
1
−1
f(x) dx con nodos
−1/2, 0, 1/2, y la f´ormula cerrada de Newton-Cotes con nodos en los puntos −1, −1/3, 1/3, 1.
(5) Considerar la funci´on definida en [−h, h] (h > 0):
f(x) =
_
0, si −h ≤ x ≤ 0
x, si 0 < x ≤ h.
Hallar el error de la regla de trapecios aplicada a f(x). ¿El orden es igual al obtenido
para una funci´on suficientemente suave?
6. EJERCICIOS 155
(6) La f´ormula de cuadratura
_
b
a
f(x) dx ∼ f(
a +b
2
)
_
b −a
_
es conocida como Regla de los Rect´angulos. Para f ∈ C
1
[a, b] acotar el error que se
comete al utilizarla.
(7) Para f una funci´on C
2
probar que el error cometido al usar la f´ormula de cuadratura
del Ejercicio 2 no excede el valor
|f

|

2
h
3
.
(8) (a) Hallar una f´ormula de cuadratura del tipo:
_
1
−1
f(x) dx ∼ Af(−2) +Bf(0) +Cf(2).
(b) Para f ∈ C
3
[−2, 2] probar que el error cometido no excede el valor
7
12
|f
(3)
|

.
(9) Escribir un programa que utilice las reglas de trapecios, de Simpson, de trapecios
compuesta y de Simpson compuesta para calcular aproximaciones de la integral de una
funci´on f(x) en un intervalo [a, b].
(10) Se sabe que
_
1
0
1
1 +x
2
dx =
π
4
.
(a) Para n = 1, . . . , 100, utilizar las reglas de trapecios y Simpson compuestas para
aproximar num´ericamente la integral y dar un valor cercano a π.
(b) Graficar las sucesiones obtenidas junto con el valor de π que arroja Matlab y el
valor que se obtiene al aplicar la rutina quad de Matlab.
(11) (a) Calcular exactamente la integral
I =
_

0
[1 −cos(32x)] dx.
(b) Aproximar el valor de I usando el programa del Ejercicio 9 con los m´etodos de los
trapecios, Simpson, trapecios compuesta y Simpson compuesta para n = 2, 4, 8 y
16.
(c) Calcular el valor de I que produce la rutina quad.
(12) Se quiere calcular
_
1
−1
e
−x
2
dx utilizando la regla de trapecios compuesta, partiendo el
intervalo [−1, 1] en n subintervalos. Hallar n de modo que el error sea menor que 10
−3
.
(13) La expresi´on Q
n
(f) =

n
j=0
A
j
f(x
j
) define una f´ormula de cuadratura.
(a) Probar que Q
n
es lineal en f (el conjunto de funciones).
(b) Supongamos que Q
n
(f) ∼
_
b
a
f(x)w(x) dx y que es exacta para las funciones
1, x, . . . , x
k
. Mostrar que la f´ormula tiene grado de precisi´on por lo menos k.
(14) Determinar el grado de precisi´on de las f´ormulas para
_
1
−1
f(x) dx:
(a)
4
3
f(−0.5) −
2
3
f(0) +
4
3
f(0.5).
(b)
1
4
f(−1) +
3
4
f(−
1
3
) +
3
4
f(
1
3
) +
1
4
f(1).
(15) Hallar reglas de cuadratura de grado de precisi´on m´aximo para aproximar
_
3
−3
f(x) dx,
de las siguientes formas:
(a) A[f(x
0
) +f(x
1
)] (repitiendo el coeficiente).
(b) Af(x
0
) +Bf(x
0
+ 4).
156 7. INTEGRACI
´
ON NUM
´
ERICA
y determinar cu´ales son dichos grados.
(16) Calcular
_
1
−1
f(x)x
2
dx mediante una regla de cuadratura de la forma
_
1
−1
f(x)x
2
dx ∼ A
0
f(x
0
) +A
1
f(x
1
)
que sea exacta para polinomios de grado menor o igual que 3.
(17) (a) Hallar una regla de cuadratura del siguiente tipo
_
1
−1
f(x)
_
[x[dx ∼ A
0
f(x
0
) +A
1
f(x
1
).
que tenga grado de precisi´on m´aximo. ¿Cu´al es dicho grado?
(b) Hallar una regla de cuadratura del siguiente tipo
_
4
0
f(x)
_
¸
¸
¸
x −2
2
¸
¸
¸dx ∼ A
0
f(x
0
) +A
1
f(x
1
).
que tenga grado de precisi´on m´aximo. ¿Cu´al es dicho grado?
(18) Sea w una funci´on de peso. Se considera la regla de cuadratura de 1 punto:
_
b
a
f(x)w(x) dx ∼ A
0
f(s).
(a) Probar que, cualquiera sea w, la f´ormula tiene grado de precisi´on m´aximo si s =
_
b
a
xw(x) dx
_
b
a
w(x) dx
.
(b) Probar que si w(x) ≡ 1, esta regla coincide con la regla de los rect´angulos.
(c) Considerar el intervalo [−1, 1] y w(x) = (x − 1)
2
. Acotar el error que produce el
uso de esta regla para funciones C
1
.
(19) Hallar los pesos y los nodos de las f´ormulas de Gauss-Legendre de dos y tres puntos.
(Los polinomios de Legendre m´onicos de grado dos y tres son x
2

1
3
y x
3

3
5
x).
(20) Usar las f´ormulas de Gauss-Legendre de tres puntos para estimar:
(a)
_
1
−1
sin(3x) dx, (b)
_
3
1
ln(x) dx, (c)
_
2
1
e
x
2
dx.
(21) Probar que una f´ormula de cuadratura
_
b
a
f(x)w(x) dx ∼ Q
n
(f) =
n

j=0
A
j
f(x
j
)
no puede tener grado de precisi´on mayor que 2n+1, independientemente de la elecci´on
de los coeficientes (A
j
) y de los nodos (x
j
).
Sugerencia: Hallar un polinomio p ∈ T
2n+2
para el cual Q
n
(p) ,=
_
b
a
p(x)w(x) dx.
6. EJERCICIOS 157
(22) Para f : IR
2
→ IR una funci´on continua, se quiere dar una f´ormula de cuadratura que
aproxime
__
D
f(x, y) dx dy con D ⊂ IR
2
usando el Teorema de Fubini.
(a) Repetir el procedimiento hecho en el Ejemplo 7.17 y dar la f´ormula correspondiente
para D el tri´angulo de v´ertices (0, 0), (0, 1), (1, 0).
Sugerencia: considerar F(x) =
_
x
0
f(x, y) dy.
(b) Probar que si D es el tri´angulo de v´ertices (0, 0), (0, 1), (1, 0) la f´ormula anterior
es exacta para f(x, y) = x
2
+y
2
.
CAP´ıTULO 8
Resoluci´on de ecuaciones diferenciales ordinarias.
En este cap´ıtulo abordaremos el problema de resolver ecuaciones diferenciales con valores inicia-
les. Es decir, desarrollaremos m´etodos num´ericos para aproximar una funci´on conociendo una
ecuaci´on que involucra sus derivadas.
Se llama orden de una ecuaci´on al m´aximo orden de derivada que aparece en ella. En su forma
m´as general una ecuaci´on diferencial de orden n, puede escribirse como
F(t, x(t), x

(t), x

(t), . . . , x
(n)
(t)) = 0,
donde t ∈ IR, F : IR
n+2
→ IR es una funci´on conocida y x es la funci´on que se desea encontrar.
Vamos a suponer que la derivada de mayor orden puede despejarse de tal forma que la ecuaci´on
se escribe como
x
(n)
(t) = f(t, x(t), x

(t), x

(t), . . . , x
(n−1)
(t)), (8.1)
para t ∈ IR y f : IR
n+1
→ IR una funci´on dada.
Algunos ejemplos de ecuaciones diferenciales son:
Ejemplos 8.1.
(1) Para λ una constante dada, la ecuaci´on
x

(t) = λx(t).
es una ecuaci´on lineal de primer orden. Su soluci´on general es
x(t) = Ce
λt
con C una constante arbitraria, es decir, hay infinitas soluciones. Esto es lo que pasa
en general y por lo tanto, para poder determinar una soluci´on es necesario tener m´as
datos. En este ejemplo se ve f´acilmente que si se conoce el valor inicial x(0) = x
0
entonces la soluci´on es
x(t) = x
0
e
λt
.
Esto es algo general: dada una ecuaci´on diferencial para determinar una soluci´on es
necesario conocer ciertos datos iniciales.
(2) Veamos un ejemplo elemental de ecuaci´on que surge de un problema f´ısico. Supongamos
que se tiene una part´ıcula de masa m que se mueve en una direcci´on debido a la acci´on
de un resorte y se quiere conocer la posici´on x(t) de la masa en el instante t. La ley de
160 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Hooke dice que la fuerza F(t) que ejerce el resorte en el instante t es proporcional a su
estiramiento o compresi´on, es decir,
F(t) = −kx(t)
donde k es la constante de rigidez del resorte. Por otra parte, la ley de Newton nos
dice que
F(t) = ma(t)
siendo a(t) la aceleraci´on en el instante t. En consecuencia, como a(t) = x

(t), obtene-
mos la ecuaci´on
mx

(t) +kx(t) = 0.
Esta es una ecuaci´on lineal de segundo orden que, como tiene coeficientes constantes,
puede resolverse anal´ıticamente. Si llamamos ω =
_
k/m, la soluci´on general de esta
ecuaci´on es
x(t) = C
1
cos(ωt) +C
2
sen(ωt)
donde C
1
y C
2
son constantes arbitrarias. Introduciendo A =
_
C
2
1
+C
2
2
y ϕ ∈ [0, 2π)
tal que cos ϕ = C
1
/A y sen ϕ = C
2
/A (notar que tal ϕ existe porque (C
1
/A)
2
+
(C
2
/A)
2
= 1), la soluci´on general puede escribirse como
Acos(ϕ −ωt)
donde A representa la amplitud, ω la frecuencia y ϕ la fase.
Para poder determinar la posici´on en el instante t necesitamos conocer ciertas con-
diciones iniciales. Lo m´as natural es conocer la posici´on y la velocidad iniciales, es decir
x(0) = x
0
y x

(0) = v
0
. Veamos que con estos datos podemos encontrar A y ϕ de tal
forma que la soluci´on queda un´ıvocamente determinada. En efecto, es f´acil ver que de
las condiciones iniciales se deduce que A =
_
x
2
0
+ (v
0
/ω)
2
y ϕ ∈ [0, 2π) es el ´ unico
´angulo que satisface cos ϕ = x
0
/A y sen ϕ = v
0
/ωA.
(3) Veamos ahora un ejemplo de ecuaci´on no lineal. Para esto consideremos otro ejemplo
de los cursos b´asicos de f´ısica que es el problema del p´endulo. En este caso se quiere
determinar el ´angulo θ(t) que un p´endulo con masa m forma respecto de la vertical en el
instante t. Despreciando el rozamiento con el aire podemos suponer que la ´ unica fuerza
que act´ ua es la de la gravedad, es decir, una fuerza en direcci´on vertical hacia abajo y
de magnitud mg. La proyecci´on F de esta fuerza en la direcci´on del movimiento (o sea
tangencial al arco de circunferencia que describe el p´endulo) resulta entonces,
F(t) = mg sen θ(t).
Teniendo en cuenta que la longitud recorrida en un tiempo t es L(θ(t) − θ(0)), donde
L es la longitud del p´endulo, resulta que la aceleraci´on en la direcci´on tangencial al
movimiento es Lθ

(t). Por lo tanto, aplicando nuevamente la ley de Newton obtenemos

(t) = g sen θ(t)
o sea, una ecuaci´on no lineal de segundo orden. Tambi´en en este caso hay una ´ unica
soluci´on si se conocen la posici´on y la velocidad inicial, o sea, θ(0) y Lθ

(0). Esto es
consecuencia del teorema de existencia y unicidad que enunciaremos m´as adelante.
8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS. 161
Como vimos en los ejemplos una ecuaci´on diferencial puede tener muchas soluciones y para
obtener una soluci´on ´ unica hace falta conocer ciertos datos que pueden ser valores de la funci´on
y de algunas de sus derivadas en un valor inicial t
0
. M´as precisamente, puede demostrarse
que para la ecuaci´on de orden n (8.1) se tiene una soluci´on ´ unica dados los datos iniciales
x(t
0
), x

(t
0
), . . . , x
(n−1)
(t
0
), bajo hip´otesis adecuadas sobre la funci´on f.
En lo que sigue, vamos a estudiar m´etodos num´ericos para ecuaciones de grado 1. La raz´on por
la que hacemos esto es que las ecuaciones de grado n pueden reducirse a sistemas de ecuaciones
de orden 1 y los m´etodos que presentaremos pueden extenderse a sistemas.
Para simplificar la notaci´on usaremos t
0
= 0. La ecuaci´on de orden 1 que corresponden con la
escritura 8.1 tienen la forma
_
x

(t) = f(t, x(t)),
x(0) = a.
(8.2)
Se trata de una ecuaci´on diferencial de primer orden porque la derivada de mayor orden que
aparece es la derivada primera.
Por ejemplo, podemos considerar ecuaciones como las siguientes:
(i) x

= 1, (iii) x

= x,
(ii) x

= t, (iv) x

= x
2
.
Primero enunciamos un teorema de existencia y unicidad de soluci´on, cuya demostraci´on no
damos.
Teorema 8.2. Si f(t, x) es continua y Lipschitz en x, es decir
[f(t, x) −f(t, y)[ ≤ L[x −y[
Entonces para cualquier valor a ∈ IR existe una ´ unica funci´on derivable x(t) que verifica
_
x

(t) = f(t, x(t))
x(0) = a.
Nuestro estudio de aproximaciones num´ericas para ecuaciones ordinarias empieza con los m´etodos
conocidos como m´etodos de un solo paso.
Dado el problema (8.2) buscamos una aproximaci´on de x(t) en un cierto intervalo [0, T]. Para
esto buscaremos una forma de generar N valores x
1
, . . . , x
N
que aproximen x(t
1
), . . . , x(t
N
) con
t
1
< t
2
< . . . < t
N
. Despu´es se puede interpolar en esos valores para obtener una aproximaci´on
de x(t). A veces solo interesa conocer el valor de x(T) y en este caso los pasos intermedios
x
1
, . . . , x
N−1
pueden verse como pasos auxiliares para calcular x
N
∼ x(T).
El m´etodo general a un paso tiene la forma
x
i+1
= x
i
+hΦ(x
i
, t
i
, h).
162 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
La funci´on Φ se conoce como la funci´on de incremento y nos dice como calcular la aproximaci´on
x
i+1
de x(t
i
+h) a partir de x
i
, t
i
y de h. Una ventaja de estos m´etodos es que se puede cambiar
f´acilmente el paso h. Es decir calculamos una aproximaci´on en un tiempo posterior (t
i+1
) a
partir de una aproximaci´on en el tiempo t
i
.
1. M´etodos de Euler y Taylor de orden k
El m´etodo de Euler se basa en el desarrollo de Taylor de orden 1. En general, el desarrollo de
orden 1 es: x(t +h) = x(t) +x

(t)h +x

(ξ)
h
2
2
. Supongamos que podemos despreciar el valor de
x

(ξ)
h
2
2
; el primer valor aproximado de x en t
0
+h se logra al calcular x(t
0
+h) ∼ x(t
0
)+x

(t
0
)h;
esto es, partimos del valor x(t
0
) y nos movemos una longitud h con velocidad x

(t
0
). Notar que
x

(t) es una funci´on conocida, es decir, para cada valor de t sabemos exactamente cu´anto vale
x

(t) = f(t, x).
Repitiendo este procedimiento se obtiene:
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) = x(t
i
) +hf(t
i
, x(t
i
)),
para valores peque˜ nos de h. En consecuencia, si x
i
es una aproximaci´on para x(t
i
) se tiene que
x
i+1
= x
i
+hf(t
i
, x
i
)
es una aproximaci´on razonable para x(t
i
+h) = x(t
i+1
).
Ejemplo 8.3. Resolvamos la ecuaci´on
_
x

(t) = x(t)
x(0) = 1.
La soluci´on exacta es x(t) = e
t
. Ahora, aplicando el m´etodo de Euler se obtiene la siguiente
tabla,
t e
t
h = 0.25 h = 0.125
0.125 1.1331 1.125
0.250 1.2840 1.25 1.2656
0.375 1.4549 1.4238
0.500 1.6487 1.5625 1.6018
0.625 1.8682 1.8020
0.750 2.1170 1.9531 2.0272
El m´etodo de Euler es de la forma
x
i+1
= x
i
+hf(t
i
, x
i
).
que como vimos responde a usar el polinomio de Taylor de grado uno en t
i
para calcular x
i+1
.
En general se puede usar una expansi´on en m´as t´erminos como sigue:
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +....... +
1
k!
h
k
x
(k)
(t
i
).
1. M
´
ETODOS DE EULER Y TAYLOR DE ORDEN k 163
Si conoci´eramos las derivadas de x hasta orden k podr´ıamos usar esto para implementar un
m´etodo que aproxime x(t
i
+h) a partir de una aproximaci´on de x(t
i
). La ecuaci´on diferencial x

=
f(t, x) nos proporciona todas las derivadas de orden superior de la siguiente forma, derivando
una vez se obtiene
x

= f
x
(t, x)x

+f
t
(t, x),
es decir,
x

= f
x
(t, x)f(t, x) +f
t
(t, x).
A partir de esto se puede poner
x(t
i
+h) ∼ x(t
i
) +hf(t
i
, x(t
i
)) +
1
2
h
2
f
x
(t
i
, x(t
i
))f(t
i
, x(t
i
)) +f
t
(t
i
, x(t
i
))
e intentar la aproximaci´on
x
i+1
= x
i
+hf(t
i
, x
i
) +
1
2
h
2
f
x
(t
i
, x
i
)f(t
i
, x
i
) +f
t
(t
i
, x
i
).
Podemos seguir derivando
x

= f
x
(t, x)f(t, x) +f
t
(t, x)
para obtener x

en t´erminos de f y sus derivadas y continuando de esta manera calcular las
derivadas de x hasta orden k en t´erminos de f y sus derivadas. Esto nos da una manera de
calcular m´etodos de aproximaci´on a un paso (solo usamos x
i
, t
i
y h para calcular la siguiente
aproximaci´on x
i+1
). Es decir, a partir de
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
),
proponemos el m´etodo,
x
i+1
∼ x
i
+hf(t
i
, x
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
) = x
i
+hT
k
(t
i
, x
i
, h).
Estos m´etodos se conocen como m´etodos basados en Taylor de orden k. Su mayor problema es
que requieren encontrar y evaluar derivadas sucesivas de f(x, t).
Ejemplo 8.4. Calculemos el m´etodo de Taylor de orden 2 para el problema
_
x

(t) = 2tx
x(0) = 1.
En este caso, al derivar, se obtiene
x

= 2x + 2tx

= 2x(1 + 2t
2
).
Entonces,
x
i+1
= x
i
+h
_
2t
i
x
i
+x
i
(1 + 2t
2
i
)h
¸
.
Ejemplo 8.5. Ejercicio: Calcular el m´etodo de Taylor de orden 3 en este ejemplo.
164 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
2. M´etodos de Runge-Kutta
Los m´etodos generales a un paso son de la forma
x
i+1
= x
i
+hΦ(t
i
, x
i
, h)
Podemos pensar que hΦ(t
i
, x
i
, h) es una aproximaci´on de la variaci´on de x cuando pasamos de t
i
a t
i+1
. Esta variaci´on, para la ecuaci´on original esta gobernada por f(x, t), as´ı que proponemos
una forma particular de Φ dada por,
hΦ(x
i
, t
i
, h) = A
1
f(θ
1
, γ
1
) +. . . +A
1
f(θ
N
, γ
N
),
donde (θ
i
, γ
i
) son puntos pr´oximos a (t
i
, x
i
). Para especificar el m´etodo que usamos es necesario
especificar los A
i
y los puntos (θ
i
, γ
i
).
Veamos un caso particular de lo anterior donde usamos solo dos puntos uno (t
i
, x
i
) y el otro
(t
i
+ αh, αhf(x
i
, t
i
)). Todav´ıa nos queda α libre (por ejemplo al considerar α = 1 usamos
(t
i+1
, ˜ x
i+1
) donde ˜ x
i+1
es la aproximaci´on que da el m´etodo de Euler).
En general tenemos,
x
i+1
= x
i
+h[A
1
f(t
i
, x
i
) +A
2
f(t
i
+αh, x
i
+αhf(t
i
, x
i
))] .
La estrategia del m´etodo de Runge-Kutta es elegir A
1
, A
2
y α para que esto se aproxime todo
lo posible a un m´etodo de Taylor.
Veamos como hacer esto. Primero expandimos
f(t
i
+αh, x
i
) +αhf(t
i
, x
i
) = f(t
i
, x
i
) +f
t
(t
i
, x
i
)αh +f
x
(t
i
, x
i
)αhf(t
i
, x
i
) +E,
donde E tiene la forma E = Ch
2
. Agrupando t´erminos se obtiene
Φ(t
i
, x
i
, h) = (A
1
+A
2
)f(t
i
, x
i
) +A
2
h[f
t
(t
i
, x
i
)α +f
x
(t
i
, x
i
)αf(t
i
, x
i
) +Ch] .
Recordemos que en el m´etodo de Taylor se tiene
T
2
(t
i
, x
i
, h) = f(t
i
, x
i
) +
h
2
[f
t
(t
i
, x
i
) +f
x
(t
i
, x
i
)f(t
i
, x
i
)]
Igualando los coeficientes, llegamos a
A
1
+A
2
= 1,
A
2
α =
1
2
.
Despejando, obtenemos
A
2
=
1

,
A
1
= 1 −
1

.
2. M
´
ETODOS DE RUNGE-KUTTA 165
Es decir, hay infinitas soluciones dependiendo de α (y por ende, infinitos m´etodos posibles).
Una elecci´on posible es α = 1/2 con lo que nos queda el m´etodo (A
1
= 0, A
2
= 1)
x
i+1
= x
i
+
h
2
_
f(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
¸
(8.3)
que usualmente se conoce como M´etodo de Euler modificado.
Otra elecci´on posible es α = 1 que nos da (A
1
= A
2
=
1
2
)
x
i+1
= x
i
+
h
2
[f(t
i
, x
i
) +f(t
i+1
, x
i
+hf(t
i
, x
i
))] , (8.4)
que se conoce como M´etodo de Heun.
Una observaci´on importante es que estos m´etodos no requieren la evaluaci´on de derivadas de f.
Considerando m´as t´erminos en el desarrollo de Taylor se pueden deducir m´etodos de Runge-
Kutta de mayor orden. Espec´ıficamente, un m´etodo de Runge-Kutta de orden k tiene la forma
x
i+1
= x
i
+hΦ(t
i
, x
i
, h)
donde
Φ(t
i
, x
i
, h) = T
k
(t
i
, x
i
, h) +O(h
k
).
Tambi´en
Φ(t
i
, x
i
, h) =
m

j=1
A
j
K
j
(t
i
, x
i
, h).
Los t´erminos K
j
est´an dados por
K
1
(t
i
, x
i
, h) = f(t
i
, x
i
),
K
j
(t
i
, x
i
, h) = f(t
i

j
h, y
i
+h
j−1

r=1
β
jr
K
r
(t
i
, x
i
, h)),
donde 0 < α
j
≤ 1 y α
j
=

j−1
r=1
β
jr
.
Ejemplo 8.6. Una forma de Runge-Kutta de orden cuatro es,
x
i+1
= x
i
+
h
6
[K
1
+ 2K
2
+ 2K
3
+K
4
] ,
K
1
= f(t
i
, x
i
), K
3
= f(t
i
+
h
2
, x
i
+
h
2
K
2
),
K
2
= f(t
i
+
h
2
, x
i
+
h
2
K
1
), K
4
= f(t
i
+h, x
i
+hK
3
).
166 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
3. An´alisis de los Errores
Primero definimos el error de truncaci´on local. Si x(t) es la soluci´on de la ecuaci´on diferencial
x

(t) = f(x(t), t) y consideramos t

y h fijos, se define el error de truncaci´on local, τ por medio
de la expresi´on que da:
x(t

+h) = x(t

) +hΦ(t

, x(t

), h) +hτ (8.5)
3.1. M´etodos de Euler y Taylor de orden k. En este caso el error de truncaci´on local
est´a dado por
x(t

+h) = x(t

) +hf(t

, x(t

)) +hτ
Si la soluci´on x(t) es suave (por ejemplo x

es acotada) se tiene que
x(t

+h) = x(t

) +hx

(t

) +
h
2
2
x

(γ) para alg´ un γ.
De aqu´ı se tiene que
τ =
h
2
x

(γ). (8.6)
El mismo argumento usado anteriormente nos da
τ =
h
k
(k + 1)!
x
(k+1)
(γ) (8.7)
Definici´ on 8.7. Diremos que el m´etodo x
i+1
= x
i
+ hφ(t
i
, x
i
, h) es de orden k si el error de
truncaci´ on local satisface
τ = O(h
k
)
Definici´ on 8.8. Si u(t) es una soluci´on de la ecuaci´ on u

(t) = f(t, u(t)) con valor inicial x
i
,
es decir, u es soluci´on de:
_
u

(t) = f(t, u(t))
u(t
i
) = x
i
∀i = 1, . . . , n
(1) El error local se define como: u(t
i+1
) −x
i+1
.
(2) El error global es: x(t
i+1
) −x
i+1
.
3. AN
´
ALISIS DE LOS ERRORES 167
donde x
i+1
est´a dado por el m´etodo x
i+1
= x
i
+hφ(t
i
, x
i
, h).
Observaci´ on 8.9. El error global y el error local se relacionan por la f´ormula
x(t
i+1
) −x
i+1
= x(t
i+1
) −u(t
i+1
) +u(t
i+1
) −x
i+1
.
Esto muestra que el error global esta formado por dos “componentes” uno dado por la ecuaci´on
diferencial (el primero) y otro dado por el m´etodo (el segundo).
El error local puede ser expresado en t´erminos del error de truncaci´on local,
u(t
i+1
) = u(t
i
) +hΦ(t
i
, x(t
i
), h) +hτ.
Como u(t
i
) = y
i
se sigue,
u(t
i+1
) = y
i
+hΦ(t
i
, x(t
i
), h) +hτ
y entonces
u(t
i+1
) −y
i+1
= hτ.
Si el m´etodo es de orden p, entonces el error local satisface
u(t
i+1
) −y
i+1
= O(h
p
).
3.2. Convergencia y an´alisis del error. Ahora nos restringiremos a problemas regulares,
es decir
_
x

(t) = f(t, x(t)),
x(0) = x
0
.
donde la soluci´on existe, es ´ unica y es regular en [0, t
0
].
Diremos que el m´etodo es convergente si dado t

en [0, t
0
] se tiene
lim
n→∞, t

=nh
x
n
= x(t

)
Teorema 8.10. Para un m´etodo a un paso dado por
x
i+1
= x
i
+hΦ(t
i
, x
i
, h)
168 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Si Φ es Lipschitz en la variable segunda variable, con constante K entonces, para e
j
al error
global, es decir, e
j
= x(t
j
) −x
j
se tiene:
[e
j
[ ≤
τ
K
(e
K(t
j
)
−1).
Demostraci´ on. Por un lado tenemos la propiedad de Lipschitz de φ en la segunda variable, esto
es:
[Φ(t, x, h) −Φ(t, y, h)[ ≤ K[x −y[,
con K una constante independiente de t y h. Fijamos un paso h = (b−a)/n y usamos el m´etodo
y el desarrollo de Taylor,
x
i+1
= x
i
+ hΦ(t
i
, x
i
, h)
x(t
i+1
) = x(t
i
) + hΦ(t
i
, x(t
i
), h) +hτ
i
Donde hτ
i
es el error de truncaci´on local en t
i
dado en la f´ormula (8.5). Restando miembro a
miembro y usando la Definici´on 8.8 se obtiene
e
i+1
= e
i
+h(Φ(t
i
, x(t
i
), h) −Φ(t
i
, x
i
, h)) +hτ
i
.
Empleando la hip´otesis de que φ es Lipschitz se obtiene
[e
i+1
[ ≤ (1 +Kh)[e
i
[ +hτ
i
.
Si llamamos τ = max¦τ
i
¦ se tiene
[e
i+1
[ ≤ (1 +Kh)[e
i
[ +hτ.
Con la misma iteraci´on calculada para [e
i
[, se obtiene
[e
i+1
[ ≤ (1 +Kh
2
)[e
i−1
[ +hτ(1 + (1 +hK)).
Continuando de esta manera queda
[e
i+1
[ ≤ (1 +Kh)
i+1
[e
0
[ +hτ(
i

j=0
(1 +hK)
j
Como e
0
= x(0) − x
0
se sigue que e
0
= 0. Entonces, usando las sumas parciales de una serie
geom´etrica,
3. AN
´
ALISIS DE LOS ERRORES 169
[e
i+1
[ ≤ hτ
(1 +Kh)
i+1
−1
(1 +Kh) −1
=
τ
K
((1 +hK)
i+1
−1)
Ahora observamos que
(1 +α)
i+1
≤ e
(i+1)α
entonces
[e
i+1
[ ≤
τ
K
(e
K(t
i+1
)
−1).
Observaci´ on 8.11. (1) El teorema anterior requiere de la existencia de K una constante
de Lipschitz para Φ. De existir una constante as´ı, cualquier otra mayor tambi´en sirve
para acotar el error utilizando el teorema.
(2) En cuanto a la hip´otesis sobre Φ (debe ser Lipschitz) esto puede extraerse de una
condici´on Lipschitz sobre f.
(3) Del Teorema 8.10 se deduce que los m´etodos a un paso son convergentes si lim
h→0
τ = 0.
Esto se llama la condici´on de consistencia para el m´etodo. En m´etodos de un paso
consistencia y convergencia son conceptos equivalentes.
(4) Si asumimos que φ es continua, se tiene que la consistencia equivale a la igualdad
x

(t
i
) = Φ(t
i
, x(t
i
), 0). Como x es soluci´on de la ecuaci´on diferencial se tiene x

(t) =
f(t, x(t)), y por tanto un m´etodo de un paso es consistente si y s´olo si
Φ(t, x, 0) = f(t, x). (8.8)
Observaci´ on 8.12. los m´etodos de Euler, los de Taylor y de Rungge-Kutta son convergentes.
Demostraci´on. Para los m´etodos de Taylor se tiene
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
),
y por tanto
Φ(t, x, h) = x

(t) +
1
2
hx

(t) +. . . +
1
k!
h
k−1
x
(k)
(t).
Al evaluar h = 0 tenemos, Φ(t, x, 0) = x

(t) = f(t, x).
En cuanto a los m´etodos de Runge-Kutta, s´olo verificaremos los dados por las f´ormulas (8.3) y
(8.4). El Ejemplo 8.6 queda como ejerecicio.
Para Runge-Kutta de orden 2 tenemos:
x
i+1
= x
i
+h
_
f(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
¸
x
i+1
= x
i
+
h
2
[f(t
i
, x
i
) +f(t
i+1
, x
i
+hf(t
i
, x
i
))] .
170 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Luego Φ(t, x, h) = f(t
+
h
2
, x +
h
2
f(t, x)), y Φ(t, x, h) =
1
2
_
f(t, x) + f(t, x + hf(t, x))
¸
respectiva-
mente. En ambos casos resulta
Φ(t, x, 0) = f(t, x).
Observemos que si en vez de una ecuaci´on debemos lidiar con un sistema
U

(t) = F(U(t), t))
U = (u
1
, . . . , u
N
)
podemos usar los mismos me
´
todos que antes, por ejemplo el m´etodo de Euler nos queda
U
i+1
= U
i
+hF(U
i
, t
i
)
En general, los m´etodos a un paso tienen la forma
U
i+1
= U
i
+hφ(U
i
, t
i
, h)
4. M´etodos multipaso lineales
Hasta ahora para aproximar las soluciones de x

= f(x, t) nos basamos en el punto inmediato
anterior para calcular el siguiente.
La filosof´ıa de los m´etodos multipaso es usar la “historia”, es decir los k puntos anteriores a t
i
para calcular la aproximaci´on en t
i+1
.
Los m´etodos multipaso lineales (de k pasos) tienen la forma:
x
n+k
= −
k−1

j=0
α
j
x
n+j
+h
k

j=0
β
j
f(t
n+j
, x
n+j
)
M´as precisamente a un m´etodo como el anterior se lo llama m´etodo multipaso de k pasos.
Por ejemplo, si aproximamos la derivada por
4. M
´
ETODOS MULTIPASO LINEALES 171
x

(t) ∼
x(t +h) −x(t −h)
2h
considerando puntos equiespaciados nos queda
x

(t
i
) ∼
x
i+1
−x
i−1
2h
y como
x

(t
i
) = f(t
i
, x(t
i
)) ∼ f(t
i
, x
i
)
podemos poner
x
i+1
−x
i−1
2h
= f(t
i
, x
i
)
es decir
x
i+1
= x
i−1
+ 2hf(x
i
, t
i
)
que es un m´etodo multipaso de dos pasos (para calcular x
i+1
se usan x
i
y x
i−1
).
Los m´etodos de integraci´on tambi´en nos proporcionan ejemplos de m´etodos multipaso. Por
ejemplo, si aproximamos la integral
x(t
n+2
) −x(t
n
) =
_
t
n+2
t
n
x

(s) ds
por la regla de Simpson se obtiene
x(t
n+2
) −x(t
n
) ∼
h
3
(x

(t
n
) + 4x

(t
n+1
) +x

(t
n+2
))
Recordando que x

= f(x, t) podemos proponer el siguiente m´etodo
x
n+2
−x
n
=
h
3
(f(x
n
, t
n
) + 4f(x
n+1
, t
n+1
) +f(x
n+2
, t
n+2
))
que es un m´etodo multipaso a dos pasos.
Ahora usaremos la notaci´on
k

j=0
α
j
x
n+j
= h
k

j=0
β
j
f
n+j
172 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
para el m´etodo.
Si β
k
= 0 el m´etodo es expl´ıcito, mientras que si β
k
,= 0 el m´etodo es impl´ıcito.
Si usamos una f´ormula del tipo
_
t
n+k−1
t
n+k
x

(s) ds ∼ h(A
0
x

(t
n
) +. . . +A
k
x

(t
n+k
))
para aproximar integrales nos encontramos con un m´etodo de la forma,
x
n+k
−x
n+k−1
= h(A
0
f
n
+. . . +A
k
f
n+k
)
Si es expl´ıcito se conoce como m´etodo de Adams-Bashforth y si es impl´ıcito como m´etodo de
Adams-Moulton (ver ejercicios).
A menudo se usan estos m´etodos de a pares y se usa la diferencia entre los dos m´etodos, x
i
− ˜ x
i
para estimar el error local. Este procedimiento se conoce como “predictor-corrector”.
Para comenzar a aplicar los m´etodos multipaso se necesitan los primeros k valores que usual-
mente se calculan con m´etodos a un paso.
4.1. Convergencia de los m´etodos multipaso. Empecemos por el error de truncaci´on
para un m´etodo de k pasos
k

j=0
α
j
x
n+j
= h
k

j=0
β
j
f
n+j
Si x(t) es la soluci´on de x

= f(x, t)el error de truncaci´on local est´a dado por
k

j=0
α
j
x(t +jh) −h
k

j=0
β
j
x

(t +jh) = hτ
Si x(t) es suficientemente regular, podemos expresar hτ en la forma
hτ = C
0
x(t) +C
1
hx

(t) +C
2
h
2
x

(t) +. . . +C
q
h
q
x
(q)
(t) +. . .
Para ver esto, escribimos
x(t +jh) = x(t) +x

(t)jh +
x

(t)
2
(jh)
2
+. . .
4. M
´
ETODOS MULTIPASO LINEALES 173
x

(t +jh) = x

(t) +x

(t)jh +
x

(t)
2
(jh)
2
+. . .
Metiendo esto en la expresi´on de τ e igualando potencias de h se obtiene
C
0
= α
0
+. . . +α
k
C
1
= α
1
+ 2α
2
+ 3α
3
+. . . +kα
k
−β
0
−β
1
−β
2
−. . . −β
k
En general para cualquier q ≥ 1
C
q
=
1
q!

1
+ 2
q
α
2
+ 3
q
α
3
+. . . +k
q
α
k
) −
1
(q −1)!

1
+ 2
q−1
β
2
+. . . +k
q−1
β
k
)
Si C
0
= C
1
= . . . = C
p
= 0 y C
p+1
,= 0 el m´etodo se dice de orden p. Para un m´etodo de orden
p el error τ satisface
τh = C
p+1
h
p+1
x
(p+1)
(t) +O(h
p+2
)
Para ver la convergencia, como antes, fijamos t

y ponemos n y h tales que t

= (n + k)h.
Queremos
lim
h→0
x
n+k
= x(t

)
Queremos ver que condiciones debemos imponer al m´etodo para que esto ocurra.
Primero pongamos el problema x

(t) = 0, x(0) = 1 (soluci´on x ≡ 1). El m´etodo aplicado a este
problema se reduce a
k

j=0
α
j
x
n+j
= 0
Para cualquier m´etodo multipaso debemos tener (como k est´a fijo y h → 0) que x
n+k
→ x(t

),
. . . , x
n
→ x(t

). Entonces podemos escribir x
n+j
= x(t

) +ϕ
j
(h) con ϕ
j
(h) → 0 cuando h → 0.
Usando esto se obtiene
k

j=0
α
j
x(t

) +
k

j=0
α
j
ϕ
j
(h) = 0
174 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Como la segunda suma tiende a cero con h nos queda
x(t

)
k

j=0
α
j
= 0
Es decir
C
0
= 0.
Para ver que C
1
tambi´en debe ser cero para que el m´etodo converja, consideremos el problema
x

(t) = 1, x(0) = 0 que tiene como soluci´on x(t) = t. El m´etodo para este problema se reduce a
k

j=0
α
j
x
n+j
= h
k

j=0
β
j
Es f´acil verificar que la sucesi´on dada por
x
l
= lhM
es soluci´on de este esquema donde
M =

k
j=0
β
j

k
j=0

j
Si los valores iniciales se eligen de la forma x
l
= lhM el m´etodo va a producir la soluci´on
x
l
= lhM y en particular
x
n+k
= (n +k)hM
Como suponemos que el m´etodo es convergente se tiene que lo valores iniciales satisfacen x
i

x(0) = 0 cuando h → 0, y adem´as x
n+k
→ x(t

), pero
x
n+k
= (n +k)hM = t

M → t

Entonces conclu´ımos que
M = 1
lo que nos da
4. M
´
ETODOS MULTIPASO LINEALES 175
C
1
= 0
Esto se denomina consistencia del m´etodo multipaso.
Para los m´etodos de un paso, la consistencia implicaba la convergencia, para los m´etodos mul-
tipaso se requiere una condici´on adicional la condici´on de la ra´ız.
Veamos esto. Ahora consideremos el problema x

(t) = 0, x(t) = 0, cuya soluci´on es x(t) ≡ 0.
En este caso el m´etodo se reduce a
k

j=0
α
j
x
n+j
= 0
Esto describe una ecuaci´on en diferencias que admite como soluci´on a la sucesi´on
x
m
= h(r
i
)
m
donde r
i
es cualquiera de las ra´ıces del polinomio p(r) dado por
p(r) = r
k

k−1
r
k−1
+. . . +α
1
r +α
0
Si asumimos que el m´etodo es convergente se tiene que
x
n+k
→ x(t

) = 0 h → 0
Adem´as
x
n+k
= h(r
i
)
n+k
Para verificar que x
n+k
→ 0, como n = t

/h → ∞ cuando h → 0 se debe tener que
[r
i
[ ≤ 1
Entonces la convergencia implica que todo cero de p(r) debe satisfacer
[r
i
[ ≤ 1.
Adem´as, si r
i
es una ra´ız m´ ultiple de p(r) podemos poner
x
j
= hj
q
(r
i
)
j
176 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
con q ≤ m−1 (m es la multiplicidad de la ra´ız). Tenemos
x
n+k
= h(n +k)
q
(r
i
)
n+k
y como h(n +k) = t

para que x
n+k
→ 0 se debe tener
[r
i
[ < 1.
Es decir debemos pedir la
Condici´ on 8.13. (de la ra´ız)
(1) [r
i
[ ≤ 1 si r
i
es un cero simple de p(r).
(2) [r
i
[ < 1 si r
i
es un cero m´ ultiple de p(r).
Ahora podemos enunciar el teorema
Teorema 8.14. Un m´etodo multipaso es convergente si y solo si el m´etodo es consistente y
satisface la condici´on de la ra´ız.
Terminaremos este cap´ıtulo con una secci´on de m´etodos de paso variable.
5. M´etodos de paso variable
La idea es elegir los pasos h
i
en forma variable. Por ejemplo,
5.1. Euler adaptivo para una ecuaci´on que explota. Ahora analizaremos un m´etodo
adaptivo para elegir los pasos τ
j
en el m´etodo de Euler.
Sea y(t) la soluci´on de la ecuaci´on diferencial
_
y

(t) = f(y(t))
y(0) = y
0
> 0
(8.9)
donde f es positiva, creciente y regular.
Supongamos que
_
+∞
1/f < +∞, entonces y(t) explota en tiempo finito T y podemos calcular
exactamente el tiempo de explosi´on. De hecho vale
T =
_
+∞
y
0
1
f(s)
ds
Si aproximamos y(t) usando el m´etodo de Euler nos queda
6. EJERCICIOS 177
_
y
j+1
= y
j

j
f(y
j
)
y
0
= y
0
(8.10)
Ahora elegimos
τ
j
f(y
j
) = λ (8.11)
como los pasos τ
j
. Usando (8.10) y (8.11) tenemos
y
j+1
= y
j
+λ = . . . = y
0
+ (j + 1)λ
y entonces,
τ
j
=
λ
f(y
j
)
=
λ
f(y
0
+jλ)
.
De esto podemos concluir que el esquema num´erico tambi´en explota en el sentido siguiente:
y
j
→ ∞ mientras

j
τ
j
< +∞.
Adem´as nos provee de una estimaci´on del tiempo de explosi´on. De hecho, vale

j=0
τ
j
= τ
0
+

j=1
λ
f(y
0
+jλ)

λ
f(y
0
)
+
_
+∞
0
λ
f(y
0
+sλ)
ds =
λ
f(y
0
)
+
_
+∞
y
0
1
f(s)
ds =
λ
f(y(
0
)
+T
Entonces T
λ
=

j
τ
j
< +∞ y
T
λ
−T ≤
λ
f(y
0
)
.
Adem´as, como y es convexa, es f´acil ver que la soluci´on num´erica est´a por debajo de la continua
y entonces
T ≤ T
λ
.
Concluimos que,
[T −T
λ
[ ≤
λ
f(y
0
)
.
6. Ejercicios
(1) Utilizar el m´etodo de Euler para resolver
_
x

= 2x en [0, 1]
x(0) = 1
empleando pasos h = 0.1, h = 0.05 y h = 0.01. Graficar las tres soluciones num´ericas
obtenidas junto con la soluci´on exacta.
(2) Hacer el mapa de curvas integrales en la regi´on [0, 10] [0, 10] de la ecuaci´on diferencial
x

(t) = (x(t) −5).(cos
2
(t) −0.5),
graficando simult´aneamente, para k = 0, 1, . . . , 10, la soluci´on que se obtiene utilizando
el m´etodo de Euler con paso h = 0.01 y con condici´on inicial
x(0) = k.
178 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
(3) Considerar el problema
_
x

= λx
x(0) = x
0
.
(a) Probar que el m´etodo de Euler con paso h genera la sucesi´on:
x
i
= (1 +λh)
i
x
0
i = 0, 1, . . . .
(b) Mostrar que si λ < 0, la soluci´on exacta tiende a cero a medida que x crece.
(c) Para λ < 0, determinar para qu´e valores de h ocurre que x
i
→ 0 cuando i → ∞.
(4) Se considera el problema
_
x

(t) = x(t) +t
2
+ 3 en [0, 2]
x(0) = −2
(a) Demostrar que la soluci´on es una funci´on convexa.
(b) Utilizar los m´etodos de Euler expl´ıcito e impl´ıcito, con paso h = 0.05 para obtener
dos aproximaciones de la soluci´on y graficarlas. Decidir en que regi´on del gr´afico
deber´a situarse la soluci´on anal´ıtica del problema.
(c) Graficar la soluci´on que se logra al utilizar el comando ode45 de Matlab.
(5) Se considera la siguiente ecuaci´on diferencial:
_
x

(t) = 2x(t) −5 sin(t)
x(0) = 1
cuya soluci´on exacta es la funci´on x(t) = 2 sin(t) + cos(t). Graficar simult´aneamente
en el intervalo [0, 4] la soluci´on exacta y las que se obtienen con los m´etodos de Euler
y Taylor de orden 2, ambos con paso h = 0.05.
(6) Escriba un programa que resuelva la ecuaci´on diferencial del Ejercicio 5 por alg´ un
m´etodo de Runge-Kutta de orden 2 y de orden 4. Agregar estas soluciones al gr´afico
realizado en dicho ejercicio.
(7) Verificar que la funci´on error, erf, puede ser definida como la soluci´on de la ecuaci´on
diferencial
_
x

(t) =
2

π
e
−t
2
x(0) = 0
.
Utilizar un m´etodo de Runge-Kutta de orden 2 para hallar erf(t
i
) con t
i
= 0, 0.05, 0.1,
0.15, . . . , 1. Comparar con los valores obtenidos directamente con el comando erf de
Matlab.
(8) Considerar la ecuaci´on
x

= x
2
, x(0) = 0.5
(a) Calcular el tiempo T en que la soluci´on anal´ıtica explota.
(b) Calcular y graficar en el intervalo [0, T − 0.1] la aproximaci´on a la soluci´on de la
ecuaci´on utilizando el m´etodo de Euler adaptativo de par´ametro λ con un λ tal
que el tiempo en que explota la soluci´on num´erica T
λ
diste de T en menos que
10
−1
.
(c) Agregar al gr´afico anterior las aproximaciones obtenidas en el mismo intervalo con
el m´etodo de Euler usual con paso h = 0.05 y con el comando ode45.
(9) Probar que el m´etodo de Runge-Kutta de oprden 4 dado en el Ejemplo 8.6 es consistente.
(10) Hallar el error local para los m´etodos de Euler expl´ıcito e impl´ıcito.
6. EJERCICIOS 179
(11) Se quiere estimar, aplicando el m´etodo de Euler, el valor de e como x(1) donde x(t) es
soluci´on de x

= x, x(0) = 1. Hallar un paso h de modo que el error cometido resulte
menor que 10
−3
. Realizar el mismo trabajo para el m´etodo de Taylor de orden 2.
(12) Considerar el problema x

= −2tx, x(0) = 1, con t ≥ 0.
(a) Determinar una cota, en t´erminos de h, para el error cometido si se usa el m´etodo
de Euler para calcular x(1).
(b) ¿C´omo deber´ıa tomar h si se desea que el error cometido sea menor que 10
−2
?
(c) Calcular la soluci´on en t = 1 usando el valor de h obtenido en el item previo, y
verificar las estimaciones previstas comparando con la soluci´on exacta.
(13) Repetir los items (a) y (b) del ejercicio anterior para el problema:
_
x

(t) = t sin
2
(x(t))
x(0) = 1
(14) La trayectoria de una part´ıcula que se se mueve en el plano est´a dada por las cur-
va (x
1
(t), x
2
(t)), donde las funciones x
1
, x
2
son la soluci´on del siguiente sistema de
ecuaciones diferenciales:
x

1
(t) = −x
2
(t)
x

2
(t) = x
1
(t) −x
2
(t)
.
Resolver este sistema en el intervalo [0, 20] con el m´etodo de Euler utilizando paso
h = 0.05 y graficar la trayectoria de la part´ıcula, sabiendo que en tiempo t = 0 se
encontraba en el punto (1, −1). Realizar nuevamente el gr´afico utilizando la soluci´on
obtenida con el comando ode45.
(15) Probar que una ecuaci´on de orden n se puede escribir como un sistema de n ecuaciones
de primer orden. Mostrar que un problema de valores iniciales para la primera se
transforma en un problema de valores iniciales para el sistema.
(16) Considerar el siguiente problema:
x

−3x

+ 2x = 0, con x(0) = 1, x

(0) = 0.
Resolver la ecuaci´on anal´ıticamente y aproximar el valor x(1) con un m´etodo de Runge-
Kutta de orden 2 para distintos valores de h.
(17) Considerar la ecuaci´on x

(t) = f(t, x(t)).
(a) Deducir la f´ormula de Milne:
x
n
= x
n−2
+h(
1
3
f
n
+
4
3
f
n−1
+
1
3
f
n−2
),
aproiximando la integral
_
t
n
t
n−2
f(t, x(t))dt =
_
t
n
t
n−2
x

(t)dt = x(t
n
) −x(t
n−2
),
con la f´ormula de Simpson.
(b) Analizar la convergencia (estabilidad y consistencia) del m´etodo y calcular su
´orden.
(18) Analizar la convergencia de los siguientes m´etodos y calcular su ´orden.
• Adams-Bashforth.
x
n+3
−x
n+2
=
h
12
(23f
n+2
−16f
n+1
+ 5f
n
).
180 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
• Adams-Moulton.
x
n+3
−x
n+2
=
h
12
(5f
n+3
+ 8f
n+2
−f
n+1
).
(19) Considerar el m´etodo de 2 pasos
x
n+2
+ax
n+1
+ax
n
= h(β
2
f
n+2

1
f
n+1

0
f
n
).
Determinar a, β
2
, β
1
, β
0
de modo que el m´etodo resultante tenga orden 4.
(20) Decidir si existe alg´ un valor de a ∈ IR para el cual el siguiente m´etodo multipaso sea
convergente:
x
n+3
−3x
n+2
+ (3 −a
2
)x
n+1
+ (a
2
−1)x
n
= h[5f
n+2
+ (−a
2
−5)f
n
].
(21) Miscel´anea. Considerar la ecuaci´on x

=
_
[x[.
(a) Para el valor inicial x(0) = 0, seguir las iteraciones del m´etodo de Euler, con paso
h = 0.1 hasta llegar al valor de x(10).
(b) Graficar la soluci´on que se obtiene al aplicar el m´etodo de Euler, si el valor de x(0)
es dado con un error de 10
−6
, es decir x(0) = 0.000001.
Nota: La gran propagaci´on del error en el dato inicial se debe a que esta ecuaci´on
tiene infinitas soluciones si x(0) = 0. En particular, cualquiera sea α > 0
x(t) =
_
_
_
0 t ≤ α
(t −α)
2
4
t > α
es soluci´on de la misma.

´ Indice General
Cap´ ıtulo 1. Punto flotante y redondeo 1. Punto flotante 2. Redondeo 3. Ejercicios Cap´ ıtulo 2. Normas y condicionamiento de una matriz. 1. Ejercicios Cap´ ıtulo 3. Resoluci´n de sistemas lineales. o 1. M´todos directos e 2. M´todos iterativos e 3. Ejercicios Cap´ ıtulo 4. Resoluci´n de ecuaciones no lineales. o 1. M´todo de bisecci´n. e o 2. M´todo regula falsi e 3. M´todo de Newton-Raphson. e 4. M´todo de punto fijo e 5. M´todo de la secante e 6. Ejercicios Cap´ ıtulo 5. Interpolaci´n o 1. Interpolaci´n de Lagrange o 2. Error de interpolaci´n o 3. Forma de Newton 4. Polinomios de Tchebychev - Minimizaci´n del Error o 5. Interpolaci´n de Hermite o 6. Interpolaci´n por polinomios a trozos o 7. Ejercicios Cap´ ıtulo 6. Polinomios ortogonales y aproximaci´n por cuadrados m´ o ınimos. 1. Preliminares 2. Soluci´n de los Problemas de Aproximaci´n o o 3. Ejercicios Cap´ ıtulo 7. Integraci´n num´rica o e 1. F´rmulas de Newton-Cˆtes o o 2. Estimaci´n del error o 3. F´rmulas de cuadratura compuestas o
3

1 1 3 11 15 29 35 35 40 60 65 65 68 69 76 79 83 87 87 90 92 95 102 104 107 111 112 118 127 131 132 139 143

M´todos de paso variable e 6. M´todos de Runge-Kutta e 3. Ejercicios .4 ´ INDICE GENERAL 4. o 1. Resoluci´n de ecuaciones diferenciales ordinarias. An´lisis de los Errores a 4. Convergencia de los m´todos de cuadratura e Cuadratura Gaussiana Ejercicios 148 150 154 159 162 164 166 170 176 177 Cap´ ıtulo 8. M´todos multipaso lineales e 5. 6. M´todos de Euler y Taylor de orden k e 2. 5.

u a Esto no es exacto pues en realidad la computadora opera internamente con los n´meros desarrou llados en base 2 y no en base 10. puede escribirse como u . En este caso. o a Como la cantidad de informaci´n que puede guardarse en una computadora es finita. Este abuso de lenguaje es s´lo para mayor claridad (el lector o podr´ observar que todo nuestro an´lisis puede repetirse trabajando en base 2). Este reemplazo da lugar a lo que llamamos errores de redondeo. A ´stos los llamaremos n´meros de m´quina. Punto flotante En lo que sigue supondremos que los n´meros de m´quina son los que aparecen en la pantalla. es identificar las posibles causas de que los errores se propaguen m´s de lo admisible. aparece cuando se utiliza el a m´todo de eliminaci´n de Gauss para resolver un sistema de ecuaciones lineales. x > 0. a o u e u a En consecuencia. la m´quina o a trabajar´ s´lo con un conjunto finito de n´meros. a a Observemos primero que un n´mero real cualquiera. En el primer caso se puede (se debe!) tratar de mejorar el m´todo de resoluci´n e o mientras que en el segundo caso el problema es m´s esencial. Un claro ejemplo de esto. e Por otra parte. toda vez que de nuestros datos o c´lculos surja un n´mero que no pertenece a a u este conjunto finito.CAP´ ıTULO 1 Punto flotante y redondeo El objeto de este cap´ ıtulo es analizar la representaci´n de los n´meros en una computadora y la o u propagaci´n de los errores de redondeo al realizar c´lculos. a 1. x ∈ IR. Lo que si puede hacerse. Esto a permite mejorar los algoritmos o determinar que m´todo es m´s conveniente para resolver un e a problema. que veremos m´s adelante. a Al realizar c´lculos estos errores de redondeo se propagan y esto puede llevar a resultados a totalmente incorrectos como veremos en algunos ejemplos simples. En las aplicaciones del c´lculo num´rico es pr´cticamente imposible determinar exactamente la a e a magnitud de los errores de redondeo. Los ejemplos que presentaremos a ilustrar´n estos dos casos. ´ste deber´ ser reemplazado por una aproximaci´n (el n´mero de m´quina e a o u a m´s cercano). e o el an´lisis de la propagaci´n de errores permite determinar la forma m´s eficiente de aplicar el a o a m´todo. y es de fundamental importancia. es fundamental distinguir cuando la propagaci´n excesiva de errores se debe a o que el algoritmo utilizado es “malo” o inestable o a que el problema en s´ mismo est´ “mal ı a condicionado”.

o u a Sea x ∈ IR. ak ..... a1 a2 .. a Supongamos entonces que x est´ en el rango de la m´quina. el exponente l u (es decir el orden del n´mero) estar´ limitado a cierto rango. la cantidad que hay entre 10l y 10l+1 es tambi´n 9 × 10m−1 . que am = 9 (analice el lector el caso contrario). . se trabaja s´lo o con n´meros de desarrollo finito y de una longitud dada. los n´meros m´s grandes est´n m´s separaa u a a a dos. Hay dos posibilidades: que x a u est´ o no en el rango de los n´meros de m´quina.. En general. Esto nos dice que e los n´meros de m´quina no est´n uniformemente distribuidos.am 10l = q × 10l − M1 ≤ l ≤ M2 . De la misma forma. 1 ≤r<1 10 (es decir. a1 = 0 m´s los correspondientes negativos y el cero. . PUNTO FLOTANTE Y REDONDEO x = 0.. 10l = r × 10l ... Si al hacer c´lculos aparece un n´mero en e u a a u la segunda situaci´n. Los n´meros m. a u a Esta representaci´n de los n´meros es la que se llama de punto flotante. a1 a2 . . Entonces tenemos x = 0. a1 a2 . . Al analizar la propagaci´n de errores de redondeo se aclarar´ por qu´ esta e o a e distribuci´n de los n´meros es m´s razonable que una uniforme. M1 y M2 dependen de la m´quina. a1 a2 . En particular.2 1. por ser muy grande o muy chico... En consecuencia los n´meros de u a u m´quina ser´n de la forma a a x = 0. S´ lo est´ el subconjunto que u a a ı a est´ entre 10l y 10l+1 para cada l.10l Este x est´ entre dos n´meros de m´quina. la computadora nos dar´ un mensaje o a indic´ndolo. Para simplificar notaci´n supondremos x > 0 (claramente todas las consideraciones o que haremos se aplican an´logamente a los n´meros negativos). a1 a2 ... u a #{x / 1/10 ≤ x < 1} = 9 × 10m−1 .(am + 1)10l . a1 = 0 x ≤x≤x Supongamos.. a u a M1 ≤ l ≤ M2 . Resulta util para la comprensi´n hacer un dibujo de los n´meros de m´quina en la recta ´ o u a num´rica (Ejercicio). a a x = 0. Por lo tanto. La cantidad de u a u n´meros de m´quina que hay entre 1/10 y 1 es. para simplificar. .. a1 = 0) Pero en una computadora no se pueden poner infinitos d´ ıgitos. o sea.am .am 10l y x = 0... o u Los n´meros de m´quina forman un conjunto finito de n´meros racionales..

a1 a2 . a1 a2 .am . A esta forma de aproximar se la conoce por redondeo y es la que o usan habitualmente las computadoras. lo que equivale. a1 a2 .2. Usaremos la notaci´n u o x∗ = x redondeado El error absoluto ser´ a |x − x∗ | ≤ 1 1 10l 2 10m Mientras que el error relativo se puede acotar de la forma siguiente 1 10l−m |x − x∗ | ≤ |x| 2 0. Observar la importancia de la condici´n a1 = 0: de lo o contrario los d´ ıgitos dejan de ser significativos. Es importante observar que.... Redondeo Hay dos formas de aproximar a x.... que es el m´s significativo... si bien el error absoluto que introduce el redondeo depende de la magnitud del n´mero.. Una es por truncamiento: se elige siempre x es decir el mayor de los n´meros de m´quina que son menores que x. o u a Si tenemos x∗ = 0... seg´n vimos. . a conocerlo u con un error relativo del orden de 10−m . a1 = 0 decimos que conocemos a x con m d´ ıgitos significativos. es independiente de ´sta. ≥ se tiene que 1 10 |x − x∗ | ≤ 5 × 10−m |x| Es decir que el error relativo es del orden de 10−m si nuestra m´quina trabaja con m d´ a ıgitos.am .am 10l .. Veamos que error cometemos al aproximar un n´mero por redondeo.. REDONDEO 3 2. el relativo.. est´ conu a e a trolado en t´rminos de la cantidad de d´ e ıgitos con la que trabaja nuestra computadora (Ejercicio: meditar que tiene que ver esto con la distribuci´n no uniforme de los n´meros de m´quina).10l y como 0.. La otra forma es tomar el m´s u a a pr´ximo a x entre x y x .

seg´n la u m´quina tendremos a 1 + 4 × 10−m = 1....06 = 0.. que el error que se comete al aproximar x por x∗ es xδ con |δ| ≤ ε.4 1. el m´s chico puede “desaparecer”.. en la m´quina. Pero desde el punto de vista pr´ctico s´lo interesa el orden de ε (y ´ste s´ es a o e ı correcto!). 10. Empecemos por sumar dos n´meros. es decir.. seg´n lo a a u comentado antes. el verdadero ε de m´quina no es exactamente ´ste debido a que la computadora a e trabaja en base 2. 1 + ε = 1. cuando la cifra m + 1 es justo 5. Por ejemplo.. Como vimos.. si m = 5 y a . es decir.00 × 10 = 1 en cambio. 0. si sumamos dos n´meros de ordenes muy u u distintos.. a e ´ Veamos ahora algunos de los problemas que surgen debido al redondeo. En efecto. u a 1+ε=1 O sea. Recordemos que. u a M´s en general. si se le suma a 1 algo menor que ε. el orden del menor n´mero que sumado a un x da.04 = 0. Otra forma de interpretar el significado del ε de la m´quina es la siguiente: ε nos dice cu´l es el a a menor n´mero tal que. Es fundamental observar que ε no es el menor n´mero que se puede representar en la m´quina u a (y est´ muy lejos de ´ste!). un resultado a u a distinto de x es ε|x|. 10. de esta forma el error |x − x∗ | ser´ menor o igual que ε|x|. “desaparece” debido al redondeo. 0. ε. depende de la m´quina y se lo llama el ε de la m´quina. PUNTO FLOTANTE Y REDONDEO Observemos que x∗ = x(1 + δ) con |δ| ≤ ε = 5 × 10−m Este ε es el error de redondeo unitario.. en la m´quina. Este ultimo depende de M1 y no de m...01 × 10 = 1 Si sumamos exactamente ε el resultado depender´ de como redondee la m´quina en el caso en a a que x equidista de dos n´meros de m´quina. Ejercicio: calcular el ε exacto suponiendo que la m´quina trabaja en base 2 con k d´ a ıgitos. a Este valor.

agrandarse mucho el error relativo. y por lo tanto. (x + y)∗ = 0.. u El problema es mucho m´s serio cuando deben restarse dos n´meros parecidos. 00013 = 0. 372023264 . 000131612 mientras que x∗ − y ∗ = 0.. 13 × 10−3 Observemos qu´ sucedi´: x e y estaban representados con 5 d´ e o ıgitos significativos pero al restarlos quedaron s´lo 2 del resultado. y ∗ = 0. a u debido a lo que se conoce como “cancelaci´n catastr´fica”. entonces.2. es decir. y ∗ = 0. tenemos y = 24 x∗ = 0.. el orden del error relativo no se agranda (se est´ perdiendo la informaci´n de un a o n´mero que es despreciable respecto del otro sumando). e En el ejemplo anterior el problema no es muy importante ya que no se pierden d´ ıgitos significativos. u a x + y = 78473024 y por lo tanto. en otras palabras. Entonces. 37202 y = 0. esto nos dice que si tenemos que sumar varios n´meros x1 . 372154876. En este caso. x2 . pueden perderse d´ o o ıgitos significativos o.xN conviene u hacerlo de menor a mayor (¿Por qu´?). 78473 × 108 . En consecuencia el error relativo creci´ de manera tal que si bien o o el error relativo en x e y era del orden de 10−5 el del resultado es del orden de 10−2 .78473 × 108 = x∗ = x En particular. 24 × 102 es decir que x e y son n´meros de m´quina. REDONDEO 5 x = 78473000. .. x − y = 0. Consideremos como antes m = 5 y tomemos x = 0. 37215. x∗ = 0.

99999 y x2 = 0. PUNTO FLOTANTE Y REDONDEO Como conclusi´n observamos que hay que tratar de evitar restar n´meros “casi iguales”. Por o u ejemplo.000010000000001 . 3! 5! 7! y calcular y sumando los primeros t´rminos de la serie. Por ejemplo. 00048662 (que tiene cuatro d´ ıgitos significativos correctos). 0004 (un o solo d´ ıgito significativo si bien conociamos x exactamente). Si lo hacemos directamente. x2 − 105 x + 1 = 0 Los primeros d´ ıgitos exactos de las ra´ ıces son x1 = 99999. x2 El mismo problema surge al calcular y = x − sin x para x peque˜o. En n o cambio podemos proceder de la siguiente manera: √ √ ( x2 + 1 − 1)( x2 + 1 + 1) x2 √ y= +1−1= = √ ( x2 + 1 + 1) ( x2 + 1 + 1) y utilizar la ultima expresi´n para calcular y. debido al redondeo. y = 0. Si los c´lculos fueran exactos ambas f´rmulas ´ o a o dar´ el mismo resultado pero. En este caso se puede usar n el desarrollo de Taylor. e y = x − sin x = Otro caso en el que la cancelaci´n de d´ o ıgitos significativos puede presentarse es en la resoluci´n o de una ecuaci´n cuadr´tica o a ax2 + bx + c = 0 si utilizamos la f´rmula habitual o −b + √ b2 − 4ac 2a −b − √ b2 − 4ac 2a x1 = y x2 = Consideremos por ejemplo. si x = 0. supongamos que queremos calcular y = x2 + 1 − 1 para valores de x peque˜os.. 0312 obtenemos con la primera f´rmula y = 0. estamos en la situaci´n anterior.6 1. dan resultados distintos. x3 x5 x7 − + . ıan trabajando con 5 d´ ıgitos. Mientras que con la segunda....

Tratemos de resolver el siguiente sistema utilizando el m´todo o e de eliminaci´n de Gauss. a modo de ejemplo. a e o Veamos como los errores de redondeo pueden afectar la soluci´n a´n en problemas de dos o u ecuaciones con dos inc´gnitas. De esta forma se evita la p´rdida de d´ e ıgitos significativos. Multiplicando la primera fila por 1 ε = 106 y rest´ndosela a la segunda obtenemos a x y 1 2 − 106 10−6 1 0 1 − 106 pero. la forma correcta de encontrar las ra´ en el caso en que ac sea despreciable respecto ıces de b. es calculando primero √ −b − sign(b) b2 − 4ac x1 = 2a y luego la otra raiz como hicimos en el ejemplo. En general. Otra vez hemos restado dos n´meros parecidos! u 105 − Esto se puede solucionar calculando primero x1 y luego obtener x2 usando que x2 = c ax1 . o ε 1 1 1 x y 1 2 = Pongamos.2. Un problema fundamental del c´lculo num´rico es la resoluci´n de sistemas de ecuaciones lineales. con el redondeo a cinco cifras nos queda 10−6 1 0 −106 = x y = 1 −106 (perdimos la informaci´n de la segunda ecuaci´n!). REDONDEO 7 Usando la f´rmula para x2 tenemos o √ 1010 − 4 x2 = 2 Si trabajamos con ocho d´ ıgitos el 4 desaparece y x2 resulta igual a cero. ε = 10−6 y supongamos que la m´quina trabaja con cinco d´ a ıgitos. o o Mientras que el resultado exacto es 10−6 1 0 −999999 x y 1 −999998 = .

Pero la soluci´n verdadera es o 1 − 2 × 10−6 ∼1=y 1 − 10−6 1 =0=x x= 1 − 10−6 es aproximadamente 1. o x y 2 1 − 2 × 10−6 x y 2 1 = = x y = 2 1 ¿Qu´ pas´? El intercambio de filas permiti´ obtener un resultado correcto evitando la propagae o o ci´n catastr´fica del error que se daba en el otro caso. Esto implica que el error y ε Veamos ahora que pasa si hacemos el mismo proceso de eliminaci´n de Gauss pero intercamo biando las filas de lugar. la primera forma de resolver era un algoritmo “malo” o inestable en el sentido de que amplificaba los errores llevando a resultados absolutamente err´neos. Al hacer las restas 1 − 1 . o 1 1−10−6 n Analicemos qu´ sucedi´. Queda 1 1 10−6 1 Operando (fila 2 . y entonces x = (1 − y ) ε ∗ − y se amplifica por un factor 1 dando lugar a un error grande en x. 2 − 1 se introduce un peque˜o error en e o ε ε la matriz triangulada que se propaga a la soluci´n. reemplazando en la o o primera. Pero veamos: si utilizamos la matriz obtenida con la m´quina a y despejamos de la segunda ecuaci´n obtenemos la soluci´n y = 1 y luego. al perder la sexta cifra. Sin embargo. Este error.ε fila 1). o 1 εx = 1 − y . PUNTO FLOTANTE Y REDONDEO Hasta aqui el error no parece grave. x = 0. obtenemos 1 1 0 1 − 10−6 y con el redondeo a cinco cifras nos queda 1 1 0 1 que tiene como soluci´n y = 1. esto o . Adem´s el error relativo es 1 a y= Observemos que x − x = x = (catastr´fico!). En este ejemplo. no es o significativo respecto de y pero al reemplazar en la primera ecuaci´n queda.8 1. Veremos m´s adelante que esto es algo o o a general: conviene elegir como “pivote” (elemento por el que se divide) para la eliminaci´n de o Gauss el que tenga mayor valor absoluto. x = 1.

a Otro ejemplo de problema “mal condicionado” es el siguiente. modificando el algoritmo. Supongamos que nuestra m´quina trabaja con 3 d´ a ıgitos y trunca. Esto muestra o que el error en el primer caso se deb´ a la forma de resolver y no a algo inherente al problema ıa en s´ mismo. Un ejemplo m´s interesante es el estudiado por Wilkinson en 1963. Esto hace que los errores de redondeo puedan amplificarse mucho o independientemente del m´todo que usemos para resolverlo. Las ra´ ıces de (x − 2)2 = 10−6 son x1 = 2 + 10−3 en cambio.443 que no tiene nada que ver con la soluci´n exacta. e Veamos un ejemplo de esto. Este ejemplo trivial muestra que un peque˜o cambio en un coeficiente de la ecuaci´n polinomial n o puede dar lugar a un cambio de otro orden en las ra´ ıces.001 y en consecuencia y = 1 y x = −0.913 0. intercambiamos filas antes de hacer la eliminaci´n de Gauss. las ra´ ıces de (x − 2)2 = 0 son x1 = x2 = 2. y = −1. Se trata de calcular las a ra´ ıces de x2 = 2 − 10−3 x y 0.913 0.217 0. el error es mayor que la soluci´n misma! o Lo que sucede en este ejemplo es que la matriz est´ “mal condicionada” (m´s adelante precisarea a mos lo que esto significa) y habr´ problemas independientemente del algoritmo que utilicemos.659 La soluci´n exacta es x = 1. o Teniendo en cuenta lo visto antes. En o particular. REDONDEO 9 se solucion´ intercambiando el orden de las filas.563 0.2. un cambio de 10−6 en el t´rmino independiente origina un cambio de 10−3 en las ra´ e ıces. En este caso.780 0. ı Hay casos de naturaleza esencialmente diferente en los cuales el problema que se quiere resolver est´ “mal condicionado”.001 y 0. o sea.659 x 0. Esto significa que peque˜os cambios en los datos implican grandes a n cambios en la soluci´n. o Obtenemos 0.254 = . Resolvamos el sistema 0.254 = 0 0.

.. 0 En = es decir 0 xn ex−1 dx = xn ex−1 |1 − 0 En = 1 − nEn−1 1 0 nxn−1 ex−1 dx y es f´cil ver que a E1 = 1/e con lo que tenemos definida la sucesi´n En en forma recursiva. E1 ∼ 0.0916 con lo que el resultado computacional es p´simo. .. .207274 . Para finalizar. E9 ∼ −0.. PUNTO FLOTANTE Y REDONDEO p(x) = (x − 1)(x − 2). Wilkinson demostr´ que al cambiar el coeficiente −210 por −210 − 2−23 las ra´ o ıces 16 y 17 se transforman en el par complejo 16.. 2.264242 E3 ∼ 0. ....73. veamos otro ejemplo de algoritmo inestable.10 1.1601 que resulta mayor que el verdadero E9 .. + i2.(x − 19)(x − 20) = x20 − 210x19 + .73... . o Usando esta relaci´n recursiva para calcular con una m´quina que trabaje con seis d´ o a ıgitos se obtiene. El problema consiste en calcular 1 En = Integrando por partes se obtiene 1 xn ex−1 dx n = 1. − i2. Entonces a en nueve pasos se multiplica por 9!. 16..367879 E2 ∼ 0.412 × 10−7 ∼ 0..0684800 cuando en realidad E9 ∼ 0.812.. obteni´ndose un error de e 9! × error inicial = 9! × 4..... e En este caso lo que sucede es que el error de En−1 se amplifica multiplic´ndose por n.812.

encontrar las causas de la propagaci´n indebida de errores con el objeto de mejorar los algoritmos. EJERCICIOS 11 Como conclusi´n el algoritmo es malo. Este algoritmo es estable Como conclusi´n. es decir: = β −d+1 . o e Observemos que 1 − En n 1 →0 n+1 1−En n . ¿Cu´nto da β + ? a e (3) Mostrar que f l(x) tiene (para ambos m´todos) una escritura de la forma f l(x) = x(1 + δx ) donde |δx | ≤ .6 y 126 − 125. por otra parte.6 y a= 126 si trabaja con u a a o • Base 10 y mantisa de 2 d´ ıgitos. En−1 = y como 1 En ≤ xn dx = 0 podemos empezar de E20 ∼ 0 e ir hacia atr´s usando En−1 = a (el error en cada paso se multiplica por algo menor que uno).3. . Pero observemos que no lo es el problema en s´ mismo. el valor que da la m´quina como resultado de las operaciones a a 126 + 125. donde β y d son como antes. y ≥ 0 demostrar que x + y − f l(f l(x) + f l(y)) ≤2 + x+y 2 . (b) Verificar para x = 125. es el menor n´mero de m´quina tal que 1 + = 1. la conocida cota para el error relativo | x − f l(x) |≤ x si = 1/2β 1−d donde β es la base y d la longitud de la mantisa. Ejercicios (1) Utilizando el m´todo de redondeo: e (a) Hallar el n´mero de m´quina m´s pr´ximo a 125. en cada caso. e ıgitos significativos: (4) P´rdida de d´ (a) Si x. u a (b) Demostrar que. en este caso.6? ¿Cu´l es el error relativo de estos resultados? a (2) Utilizando el m´todo de truncamiento: e (a) Rehacer el Ejercicio 1. o ı Como alternativas podemos calcular En por integraci´n num´rica o bien hacer el siguiente truco. los ejemplos analizados en esta secci´n muestran la diferencia entre el caso o o en el cual la amplificaci´n de los errores de redondeo se debe a que el problema est´ “mal o a condicionado” o “mal planteado” y el caso en el que dicha amplificaci´n se debe al uso de un o “algoritmo inestable”.6. (Usar la cota para el error relativo). con el correspondiente. (c) ¿Cu´l es. Es fundamental distinguir entre ambos casos y. o 3. • Base 2 y mantisa de 8 d´ ıgitos.

. n (b) Si x e y no poseen el mismo signo. Llamemos SN al valor calculado que se logra de hacer f l(SN −1 + aN ). Mostrar que SN se estaciona a partir de alg´n N suficientemente u k grande. . haciendo un programa k k=1 en Matlab. Deducir que a partir de entonces SN = SN . (a) Intentar anticipar el resultado de los siguientes c´lculos: a (i) (1 + 2 ) + 2 (ii) 1 + ( 2 + 2 ) (iii) (1 + 2 ) + 2 − 1 (iv) 1 + ( 2 + 2 ) − 1 (b) Efectuar estos c´lculos usando Matlab y comprobar las predicciones hechas. PUNTO FLOTANTE Y REDONDEO Observar que en la expresi´n 2 + 2 el valor de 2 es despreciable dado que es o peque˜o. .12 1. . ¿puede repetir la misma cuenta? (Sugerencia: recordar el error relativo de 126 − 125. Calcular el error relativo y asegurarse de comprender de d´nde viene la e o p´rdida de d´ e ıgitos significativos. (9) El desarrollo de Taylor de la funci´n ex proporciona una forma muy inestable de calo cular este valor cuando x es negativo. Encontrar. ¿Cu´les a son las principales fuentes de error? Realizar otra estimaci´n= de e−12 con alg´n o u otro m´todo que evite los problemas del m´todo anterior (Sugerencia: Considerar e e e−x = 1/ex ). para x ∼ 0: (a) (α + x)n − αn (b) α − α2 − x (c) cos x − 1 (d) sin(α + x) − sin(α) N (8) Se pretende calcular las sumas SN = k=1 ak con N ∈ IN. ¿Cu´nto deber´ dar? ¿Qu´ est´ pasando? e a (11) Aproximaci´n de la derivada de una funci´n.000006144212353328210 . utilizando la computadora binaria con mantisa de 8 d´ ıgitos. utilizando aritm´tica de 4 d´ e ıgitos y comparar con el resultado obtenido utilizando aritm´tica exacta.25 = 0. a (6) Hallar la ra´ menor en m´dulo de la ecuaci´n ız o o x2 − 40x + 0.6 en el ejercicio 1. a ıa (10) Calcular en Matlab los valores: sen(π/2 + 2π10j ) c= on 1 ≤ j ≤ 18. N (a) SN = k=1 1 . . N 2−k+100 + 1 (b) Idem (a) para la suma SN = . Comparar con el valor exacto: 0.) (5) Un ejemplo que muestra que algunas de las reglas de la aritm´tica no son v´lidas para e a operaciones de punto flotante. 100. Hacer un programa en Matlab que estime e−12 evaluando el desarrollo de Taylor hasta grado n de la funci´n ex en x = −12. . ¿Se le ocurre c´mo calcular con mayor precisi´n dicha o o ra´ ¿Cu´l es el error relativo con el nuevo m´todo? ız? a e (7) Hallar una forma de calcular sin p´rdida de d´ e ıgitos significativos las siguientes cantidades. para o n = 1. o o . item (c). el valor de N para el cual SN se estaciona.

d = 1/4. (c) Repetir el ´ ıtem anterior. Comparar con el resultado exacto. .9 . √ c = 1/ 2. . a Con los valores estimados J0 (1) ∼ 0. e = 2e. J1 (1) ∼ 0.3. c. 0 y verifican que |Jn (x)| ≤ 1.4400505857 y la recurrencia dada. h Utilizando el desarrollo de Taylor. 10−1 y grafique los resultados obtenidos. 10−17. . k(k + 1)(k + x) luego expresar Φ(x) = 1 + Ψ(x) y. hacer un a a a programa que calcule y grafique el resultado obtenido con los dos m´todos propuestos e 2 para calcular Φ(0). b. Hacer un programa en Matlab que calcule o los valores de dh f (1) para aproximar f (1). Comenzar inicializando las variables a. a (12) Las funciones de Bessel Jn se pueden definir del siguiente modo: dh f (1) = Jn (x) = 1 π π cos(x sin θ − nθ)dθ. EJERCICIOS 13 (a) Llamamos derivada discreta de f en x = 1 al valor f (1 + h) − f (1) . Se sabe adem´s que Jn+1 (x) = 2n/xJn (x) − Jn−1 (x). ¿Qu´ esta sucediendo? o e (13) Dada la funci´n Φ : IR → IR definida por o ∞ Φ(x) = k=1 1 . 2 . . d´ndole a h los valores 10−18 . Decidir si la condici´n |Jn (x)| ≤ 1 deja de satisfacerse. . e = 1. 100. .8 . Hacer un an´lisis de los c´lculos efectuados para a a calcular dh f (1). Luego. Decidir si ´stos se contradicen e con el resultado del ´ ıtem anterior. . 6 (14) Algoritmo para calcular π. teniendo en cuenta que la m´quina utiliza aritm´tica de punto a e flotante. que es π . d = d − e(b − a)2 . d y e del siguiente modo: a = 0. b = . . demostrar que h |f (1) − dh f (1)| ≤ |f (1)| + o(h) (h → 0) 2 siempre que f sea suficientemente derivable. . . iterar n veces en el orden dado las siguientes f´rmulas: o √ b+c a = b. d´ndole otros valores a h. . de este modo. (b) Considerar la funci´n f (x) = x2 . estimar Φ(x) como 1 m´s la suma a de los primeros n t´rminos de la serie Ψ(x). J3 (1). a 10−17. b = 1. c = ca. k(k + x) consideramos las siguiente dos maneras de estimar num´ricamente el valor de Φ(x) para e un x fijo: • sumar los primeros n t´rminos de la serie Φ(x). hacer un programa en Matlab para calcular J2 (1). definir ∞ Ψ(x) = Φ(x) − Φ(1) = k=1 ( 1 1 − )= k(k + x) k(k + 1) ∞ k=1 1−x . .7651976865. J10 (1). con n = 1. de modo que el resultado resulte a m´s confiable. e Predecir cu´l de las dos maneras converge m´s r´pidamente. e • teniendo en cuenta que Φ(1) = 1. Luego.

el valor de π puede estimarse como f = b2 /d. . . . o como g = (b + c)2 /(4d).14 1. PUNTO FLOTANTE Y REDONDEO Finalmente. Hacer un programa que calcule los valores de π estimados por f y g cuando n = 1. ¿Qu´ estimaci´n converge m´s r´pido? ¿Cu´n precisos son sus resultados? e o a a a El valor de π correcto hasta 36 d´ ıgitos es π = 3. . 10. 2.14159265358979323846264338327950288 .

. o x o m´s en general la “norma p”. necesitamos dar alguna forma de medir vectores de IRn . + |xn |p ) p 1 ∞ = max |xi | 1≤i≤n 1 = |x1 | + .. utilizando la desigualdad de Schwartz se obtiene o x y por otra parte.. llamada “norma infinito”. puesto que una norma mayora a la otra salvo una constante que depende s´lo de n. Es o decir. x ∈ IRn y b ∈ IRn y nos preguntamos cu´nto afectar´ a la soluci´n un error a a o en el dato b.. x2 + . o sea. a x ≤ x ≤ √ n x = (|x1 |p + . e ´ Por ejemplo. Por ejemplo. + x2 n 1 x 2 = Pero ´sta no es la unica medida razonable y en muchos casos es conveniente trabajar con otras.. podemos decir que un vector es “chico” si lo son todas sus componentes y tomar entonces como medida de x la siguiente..CAP´ ıTULO 2 Normas y condicionamiento de una matriz.. a x con 1 ≤ p < ∞.. si x es “chico” en una de las normas entonces lo es en cualquier otra. es f´cil ver que. Todas estas formas de medir resultan equivalentes en el sentido de que.. x Otra elecci´n natural es la “norma uno”... Para poder dar una respuesta debemos decidir primero c´mo medir el error. Consideramos el sistema de n ecuaciones con n inc´gnitas o Ax = b con A ∈ IRn×n . Una forma posible es utilizar la longitud o norma eucl´ ıdea del vector.. + |xn | p 1 2 2 1 .

16

2. NORMAS Y CONDICIONAMIENTO

Tambi´n se verifica f´cilmente que e a x ≤ x ≤n x

1

M´s en general, decimos que una norma en IRn es una manera de asignar a cada x un n´mero x a u de tal forma que se verifiquen las siguientes propiedades, an´logas a las que cumple la longitud a usual, 1) x ≥ 0 ∀x ∈ IRn

2) x = 0 si y solo si x = 0. 3) λx = |λ| x 4) x + y ≤ x + y ∀λ ∈ IR, ∀x ∈ IRn ∀x ∈ IRn , ∀y ∈ IRn (desigualdad triangular)

Una vez que sabemos como medir vectores podemos hablar tambi´n de la distancia entre dos e vectores x e y la cual est´ dada por x − y . En particular, esto permite hablar de convergencia a de sucesiones: xn → x si x − xn → 0. Tanto para medir el error como para analizar la convergencia de una sucesi´n elegiremos la o norma que nos resulte m´s conveniente en cada caso. Esto est´ justificado por el hecho de a a que todas las normas son equivalentes: convergencia en una de ellas implica convergencia en cualquier otra. M´s a´n, se tiene el siguiente resultado. a u Teorema 2.1. Dadas dos normas en IRn , y , existen constantes C1 y C2 que dependen s´lo de n y de las normas consideradas (en particular, son independientes de x) tales que o C1 x ≤ x ≤ C2 x ∀x ∈ IRn

Demostraci´n. Basta ver que una norma cualquiera o es equivalente a la norma eucl´ ıdea usual, n 2 1/2 , la cual n o 2 . Sea {ei } la base can´nica de IR y definamos la constante C = ( i=1 ei ) depende s´lo de n y de o . Utilizando las propiedades de la norma y la desigualdad de Schwartz obtenemos
n n n n

x =
i=1

xi ei ≤
i=1

|xi | ei ≤ (
i=1

|xi |2 )1/2 (
i=1

ei 2 )1/2 = C x

2

(2.1)

Queremos ver ahora que existe una constante K tal que x 2≤K x ∀x ∈ IRn (2.2) Supongamos que una tal K no existe y veamos que se llega a una contradicci´n. En efecto, si o (2.2) no se cumple para ning´n K tenemos, en particular, que dado m ∈ IN, existe ym ∈ IRn tal u que

2. NORMAS Y CONDICIONAMIENTO

17

y llamando xm = ym / ym

2

ym 2 ≥ m ym obtenemos xm 2 = 1 y xm ≤

1 (2.3) m pero, toda sucesi´n acotada en la norma eucl´ o ıdea tiene una subsucesi´n convergente. Entonces o existe una subsucesi´n de (xm ), (xm ) tal que o xm − x 2 → 0 Pero entonces por (2.1), tambi´n vale que e

para cierto x ∈

IRn .

xm − x → 0 Por otra parte, por (2.3) tenemos que xm → 0 y en consecuencia, por unicidad del l´ ımite, resulta x = 0. Pero observemos finalmente que, por la desigualdad triangular, xm − x ≤ xm − x → x
2

2

2 2

2

y entonces se llega a la contradicci´n 1 = xm o

= 0, finalizando la demostraci´n. o

Ahora s´ estamos en condiciones de abordar el problema de c´mo afecta el error en los datos a ı, o la soluci´n de un sistema lineal cuya matriz A es inversible. Si se reemplaza el dato b por b + ∆b, o la soluci´n x del sistema ser´ modificada de tal forma que tendremos o a A(x + ∆x) = (b + ∆b) o equivalentemente, A∆x = ∆b y nos preguntamos que relaci´n hay entre o ∆x x Veamos primero el siguiente ejemplo simple, 4.1 2.8 9.7 6.6 La soluci´n es o 1 0 ∆b b

y

x1 x2

=

4.1 9.7

x=

18

2. NORMAS Y CONDICIONAMIENTO

Observemos que b Si modificamos b poniendo b = b + ∆b = entonces la soluci´n es o x = x + ∆x = y se obtiene en consecuencia ∆b 1 = 0.01 ∆x 1 = 1.63 con lo que el error relativo se amplific´ mucho, en efecto, o ∆b 1 = 0.7246 × 10−3 b 1 mientras que ∆x 1 = 1.63 x 1 Nuestro objetivo es tratar de entender a qu´ se debe este comportamiento y poder predecir, e dada una matriz A, cu´l ser´ el factor de amplificaci´n del error relativo o, al menos, dar una a a o cota de ´ste en t´rminos de A. e e Analicemos primero el caso de una matriz diagonal. λ1 0 0 λ2 La soluci´n es (si λ1 , λ2 = 0) o x1 = Por ejemplo, si 1000 0 0
1 100

1

= 13.8

x

1

=1

4.11 9.70 0.34 0.97

x1 x2

=

b1 b2

b1 λ1

x2 =

b2 λ2

A= entonces, b1 1000

x1 =

x2 = 100b2

NORMAS Y CONDICIONAMIENTO 19 Si ponemos b = b + ∆b con 0 ∆b2 b1 0 ∆b = entonces. b= ∆x1 = y en consecuencia. para una matriz diagonal λ1 0 0 λ2 con |λ1 | > |λ2 |.2. es decir que el error relativo se multiplic´ por 10 o 105 Si en cambio elegimos ∆b1 0 0 b2 ∆b = tenemos entonces. . el error relativo puede multiplicarse por A= |λ1 | |λ2 | en el peor de los casos y por |λ2 | |λ1 | en el mejor de los casos. b= x1 = obteni´ndose e b1 1000 ∆x2 = 100∆b2 ∆b 2 ∆x 2 = b 2 x 2 5. 1 ∆b1 1000 x2 = 100b2 1 ∆b 2 ∆x 2 = 105 b 2 x 2 o sea que en este caso el error relativo se redujo en un factor 105 . En general.

si λmax y λmin son los autovalores de m´ximo y m´ a ınimo valor absoluto respectivamente. n n 2 αi λ2 i i=1 b 2 2 = ∆b 2 2 = i=1 2 βi λ2 i Entonces. x 2 2 = i=1 2 αi ∆x 2 2 = i=1 2 βi y adem´s. Adem´s. existe una base de autovectores {v1 . . Este cociente se llama n´mero de condici´n o de u o condicionamiento de A en la norma 2 y lo denotaremos Cond2 (A). por un factor  |λmax | |λmin | siendo λmax y λmin los de m´ximo y m´ a ınimo valor absoluto entre los λj (observemos que λmin = 0 pues estamos suponiendo que A es inversible). vn }. Comencemos u o por el caso en que A sea sim´trica. Entonces. e es decir. A(x + ∆x) = b + ∆b y n n x= i=1 αi vi n ∆x = i=1 βi vi n tenemos.. obtenemos ∆x 2 2 = x 2 2 n 2 i=1 βi n 2 i=1 αi ≤ o sea 1/|λmin |2 ∆b 2 2 1/|λmax |2 b 2 2 . NORMAS Y CONDICIONAMIENTO En general.. si Ax = b . a lo sumo. a n n b= i=1 αi λi vi ∆b = i=1 βi λi vi y en consecuencia. Si A es una matriz diagonal a  λ1 · · · 0  ··· A= 0 · · · λN el error relativo se puede amplificar. si llamamos λi al autovalor correspondiente a vi . es decir aij = aji . por ser A sim´trica podemos a e considerar que la base es ortonormal. |λ2 | El mismo an´lisis puede hacerse en IRn .20 2. Ahora veamos como definir el n´mero de condici´n para una matriz A arbitraria... el error tendr´ componentes en cualquier direcci´n por lo que es de esperar que si a o |λ1 | es grande los errores relativos se amplifiquen. En este caso A se puede diagonalizar.

en el caso de una u o sim´trica. la norma de A nos da lo m´ximo que “agranda” el multiplicar por A medido en la a norma de vectores dada. la cual o corresponde tambi´n a la de “m´xima expansi´n” de la inversa de A. si miramos el cociente entre la longitud de Ax y la de x a o Ax 2 x 2 ´ste ser´ m´ximo entre todos los x cuando x est´ en la direcci´n correspondiente a λmax . .. esta cota es la mejor posible pues la desigualdad se convierte en una igualdad a u para cierta elecci´n de b y ∆b (b en la direcci´n correspondiente al m´ximo autovalor y ∆b en o o a la correspondiente al m´ ınimo). es decir. An´logamente. Para generalizar el n´mero de condici´n a cualquier matriz observemos que. M´s a´n.2. NORMAS Y CONDICIONAMIENTO 21 ∆x 2 |λmax | ∆b 2 ≤ x 2 |λmin | b 2 o es decir que el n´mero Cond2 (A) = |λmax|| es una cota para el factor de amplificaci´n del error u |λmin relativo.. la direcci´n correspondiente al autovalor de m´ximo valor absoluto nos da la direcci´n e o a o de “m´xima expansi´n”. e a o El an´lisis realizado para matrices sim´tricas nos muestra que el factor de amplificaci´n del error a e o relativo est´ relacionado con los m´ximos factores de expansi´n de A y de su inversa. Es f´cil ver que a A = max n . n Ax = i=1 αi λi vi y de ac´ resulta que a Ax ≤ |λmax | x 2 2 y tomando x = vj con λj = λmax se ve que se verifica la igualdad. la direcci´n de “m´ a o ınima expansi´n” corresponde a la asociada a λmin . En e a a a o efecto.. la norma matricial asociada como Ax 0=x∈IR x Es decir. Teniendo a a o en cuenta esto. si escribimos x en la base de autovectores {v1 . definimos para una matriz arbitraria A ∈ IRn×n y una norma de vectores cualquiera. vn } n x= i=1 αi vi entonces.

Sea A ∈ IRn×n una matriz inversible y sea n´mero de condici´n de A como u o Cond(A) = A A−1 una norma en IRn definimos el .22 2. Tambi´n es f´cil ver que e a ∀A ∈ IRn×n . o sea que la norma esta bien definida ( Ax a es una funci´n continua de x y por lo tanto.2. NORMAS Y CONDICIONAMIENTO A = max Ax x =1 y en particular.4) Por otra parte puede verificarse que A es la menor entre todas las constantes C para las cuales vale la desigualdad ∀x ∈ IRn Ax ≤ C x siendo ´sta otra forma usual de definir la norma matricial. An´logamente tenemos que para A inversible y sim´trica a e 1 |λmin | A−1 y por lo tanto. 2 = A 2 A−1 2 = |λmax | |λmin | En general introducimos entonces la siguiente ´ Definicion 2. por lo visto antes. alcanza su m´ximo en el conjunto de vectores de o a norma igual a uno pues ´ste es cerrado y acotado). e Como ejemplo tenemos que. e De la definici´n se desprende la siguiente desigualdad que usaremos frecuentemente. esto muestra que el m´ximo existe. o ∀x ∈ IRn Ax ≤ A x valiendo la igualdad para algun x. si A es sim´trica entonces e A 2 = |λmax | donde el sub´ ındice 2 nos indica cual es la norma de vectores correspondiente. ∀B ∈ IRn×n AB ≤ A B (2.

2. NORMAS Y CONDICIONAMIENTO

23

Es claro que Cond(A) depende de la norma de vectores elegida. Es f´cil ver que valen las siguientes propiedades, a Cond(A) = Cond(A−1 ) y Cond(A) ≥ 1 ∀A ∈ IRn×n En efecto, la primera es obvia mientras que, para ver la segunda, utilizamos la propiedad (2.4) y obtenemos 1 = I = AA−1 ≤ A A−1 = Cond(A) Podemos ahora probar el siguiente resultado fundamental Teorema 2.3. Si A ∈ IRn×n es inversible, b, ∆b ∈ IRn , Ax = b y A(x + ∆x) = b + ∆b entonces, ∆x ∆b ≤ Cond(A) x b valiendo la igualdad para alguna elecci´n de b y ∆b. o Adem´s, a 1 ∆b ∆x ≤ Cond(A) b x y nuevamente, vale la igualdad para ciertos b y ∆b. Demostraci´n. Se tiene que o A(∆x) = ∆b y entonces, ∆x A−1 ∆b A−1 ∆b b A−1 ∆b ≤ = ≤ A x x b x b donde para la ultima desigualdad hemos usado que b = Ax ≤ A x . Por lo tanto (2.5) ´ vale. Observemos adem´s que si elegimos ∆b tal que ∆x = A−1 ∆b = A−1 ∆b , x tal que a Ax = A x (lo que siempre se puede por la definici´n de la norma matricial) y b = Ax o resulta la igualdad en (2.5). Ahora, para ver la desigualdad (2.6) observemos que ´sta puede escribirse como e

(2.5)

(2.6)

24

2. NORMAS Y CONDICIONAMIENTO

∆b ∆x ≤ Cond(A) b x −1 ), es exactamente la desigualdad (2.5) la cual, teniendo en cuenta que Cond(A) = Cond(A aplicada a A−1 con lo que el teorema est´ demostrado. a Veamos ahora que el n´mero de condici´n tambi´n tiene que ver con la propagaci´n del error u o e o que se cometa en los coeficientes del sistema. Como veremos m´s adelante, el teorema siguiente a es tambi´n de suma importancia en el an´lisis del error de redondeo en la eliminaci´n de Gauss. e a o Teorema 2.4. Si A ∈ IRn×n es inversible, E ∈ IRn×n , b ∈ IRn , Ax = b y (A + E)(x + ∆x) = b entonces, llamando x = x + ∆x tenemos ˜ ∆x E ≤ Cond(A) x ˜ A y si E ≤δ<1 A

(2.7)

Cond(A) entonces,

∆x 1 E ≤ Cond(A) x 1−δ A Demostraci´n. Tenemos o Ax = b y entonces, −E x = A∆x ˜ por lo que conclu´ ımos que ∆x ≤ A−1 lo que prueba (2.7). Ahora observemos que x + ∆x x + ∆x ∆x x ˜ = ≤ =1+ x x x x E A A˜ = b − E x x ˜

(2.8)

E

x ≤ Cond(A) ˜

x ˜

2. NORMAS Y CONDICIONAMIENTO

25

lo cual, junto con la desigualdad anterior implica que ∆x E ∆x ≤ Cond(A) 1+ x A x lo que concluye la demostraci´n de (2.8). o E ∆x +δ A x

≤ Cond(A)

Veamos ahora como calcular algunas normas matriciales. Dada A ∈ IRn×n se llama radio espectral de A a ρ(A) = |λmax | siendo λmax el de m´ximo valor absoluto entre todos los autovalores de A, incluyendo los coma plejos. Ya vimos que si A es sim´trica entonces, e A = ρ(A)

2

En general, para A ∈ IRn×n arbitraria se tiene

A

2

=

ρ(AT A)

donde AT es la matriz traspuesta de A. En efecto, como AT A es sim´trica, existe una base e ortonormal de autovectores {vj }. Llamando µj a los autovalores correspondientes tenemos AT Avj = µj vj
n i=1 αi vi

j = 1, ....., n

n 2 y si x = entonces, por la ortonormalidad de los vj resulta x 2 = 2 i=1 αj y en consecuencia, teniendo en cuenta que AT Ax = n αj µj vj , se tiene que para todo x ∈ IRn i=1 n 2 i=1 αj µj n 2 i=1 αj

Ax 2 xT AT Ax 2 = = x 2 x 2 2 2 es decir que

≤ ρ(AT A)

A

2

ρ(AT A)

y tomando x = vj con µj = µmax se ve que vale la igualdad. El c´lculo de la norma 2 de una matriz involucra el c´lculo de autovalores, el cual es un problema a a complicado. Sin embargo, otras normas son mucho m´s f´ciles de calcular. Por ejemplo, se tiene a a que

∞ = max | 1≤i≤n j=1 aij xj |≤ x ∞ 1≤i≤n max |aij | j=1 n A ∞ ≤ max 1≤i≤n |aij | j=1 n j=1 |akj | Para ver que vale la otra desigualdad.26 2. n (Ax)k = j=1 |akj | ∞ y en particular. para todo x ∈ IRn vale N N Ax y entonces. sea k tal que  es m´xima y tomemos a  sg(ak1 )  sg(ak2 )   x=  ···  sg(akn ) donde sg(a) = 1 si a ≥ 0 y sg(a) = −1 si a < 0. Ax ∞ ≥ n j=1 |akj | y como x Ax ∞ ≥ x ∞ = 1 obtenemos n |akj | j=1 y conclu´ ımos que n A ∞ ≥ max 1≤i≤n |aij | j=1 De manera similar puede verse. aunque no lo haremos aqui. NORMAS Y CONDICIONAMIENTO n A ∞ = max 1≤i≤n |aij | j=1 Para ver esto observemos primero que. Entonces. que n A 1 = max 1≤j≤n |aij | i=1 .

NORMAS Y CONDICIONAMIENTO 27 Hemos visto que el n´mero Cond(A) nos da una medida de cu´n mala es una matriz en cuanto u a a la propagaci´n de los errores relativos. es natural esperar que el n´mero Cond(A) nos de una medida de cu´n cerca u a est´ A de ser singular. Sea ε ∼ 0 entonces la matriz 1 1+ε 1−ε 1 A= est´ cerca de la matriz singular a B= y en este caso 1 1 1 1 A−1 = ε−2 entonces. el sistema Ax = b tiene alguna soluci´n. o ε ε A−B ∞ = < A ∞ 2+ε 2 En particular. ıa En consecuencia. Es decir que sin cambiar nada a e a b se pueden obtener soluciones tan distantes como se quiera. si ε ∼ 0. ∞ =2+ε A−1 ∞ = (2 + ε)ε−2 Cond∞ (A) = 2+ε ε 2 > 4 ε2 Es importante recalcar que esta “distancia a las matrices singulares” debe entenderse en forma relativa al tama˜o de A. En otras palabras.2. En efecto. Por ejemplo. En este ejemplo tenemos no s´lo que A − B ∞ es chica sino que lo es n o en relaci´n con A ∞ . entonces o tendr´ infinitas y ´stas formar´n una variedad lineal de IRn . en este caso tendr´ ıamos ∆b = 0 mientras que ∆x ser´ arbitrariamente grande. Si A es una matriz singular y. la matriz . para cierto b. 1 −1 − ε −1 + ε 1 A y en consecuencia. n Para aclarar esto veamos algunos casos simples. a ı o Pero antes veamos algunos ejemplos. Si este n´mero es grande se dice que la matriz est´ o u a “mal condicionada”. estar “cerca” de ser singular no tiene nada que ver con el tama˜o del determinante. Esto es efectivamente as´ y lo formalizaremos en el pr´ximo teorema.

28 2. en las normas 2. Teorema 2.11) (2. Como y puede tomarse con norma arbitraria.9) Entonces. sean y tal que A−1 y = A−1 y y x tal que Ax = y. lo elegimos de tal forma que y = 1/ A−1 y en consecuencia x = 1. Entonces. Cond(A) = 1/ε A= Damos ahora el resultado que relaciona el n´mero de condici´n de una matriz con su distancia u o relativa a las matrices singulares. NORMAS Y CONDICIONAMIENTO ε 0 0 ε tiene determinante muy peque˜o pero es una matriz buen´ n ısima en cuanto a la propagaci´n de o errores relativos pues Cond(A) = 1. Sea B ∈ IRn×n una matriz singular y tomemos x = 0 tal que Bx = 0. o x = A−1 (A − B)x ≤ A−1 y en consecuencia. Sea ahora z un vector tal que zT x = 1 y zT u ≤ 1 ∀u ∈ IRn tal que u =1 (2. para concluir el teorema. Dadas A ∈ IRn×n inversible y una norma de vectores cualquiera se tiene 1 = inf Cond(A) B singular A−B A Demostraci´n.9). 1 0 0 1 ε tiene determinante grande pero. 1 o ∞.10) . 1 ≤ A−1 lo cual muestra que 1 A−B ≤ Cond(A) A ∀B ∈ IRn×n A−B A−B x singular (2. falta ver que hay una B singular para la cual vale la igualdad en (2. A= En cambio. Para esto.5.

sk+1 = max sk . junto con el valor exacto de la norma de la matriz. Bx = Ax − yz T x = y − y = 0 y por lo tanto. 1 A−1 yz T u = y |z T u| ≤ y por lo tanto. En efecto. Por otra parte. o . observemos que es intuitivamente claro si analizamos el significado geom´trico: los u que verifican la ecuaci´n z T u = 1 forman un hiperplano (es decir. e • grafique la sucesi´n calculada.1.10) y (2. Sin embargo. La existencia de tal hiperplano es clara si se tiene en cuenta que. Por lo tanto. si z T u < 0 entonces. o 1 A−1 1. pero por (2. ∀u ∈ IRn tal que u =1 A−B ≤ lo que concluye la demostraci´n. B1 es un conjunto convexo y que x est´ en el borde de ´ste.11) tenemos que |z T u| ≤ 1 para todo u tal que u = 1 puesto que. Entonces. que haya un z verificando (2. Hacer un prograAx 2 / x 2 entre varios vectores x ∈ IR ma que pida el ingreso de una matriz A y luego e o • genere los primeros 100 t´rminos de la siguiente sucesi´n: (1) Calcular la norma 2 de la matriz A = s1 = 0. Observemos tambi´n que. |z T u| = −z T u = z T (−u) ≤ 1 ya que − u = 1. en el caso de a e e la norma 2 . para toda norma. 4 5 a (2) Se quiere estimar la norma 2 de una matriz A ∈ IR3×3 como el m´ximo del valor 3 no nulos generados al azar. A − B = yz T . EJERCICIOS 29 La existencia de un tal z es la parte m´s t´cnica de la demostraci´n y omitiremos la escria e o tura formal. Axk 2 xk 2 donde los xk ∈ IR3 son vectores no nulos generados al azar cuyas coordenadas est´n el intervalo [−1. se tiene que z = x. B es singular.11) significa que o hay un hiperplano que pasa por x y que deja a la bola unitaria B1 = {u ∈ IRn : u ≤ 1} de un lado. una variedad e o lineal de dimensi´n n − 1). Definamos ahora B = A − yz T y veamos que esta matriz es singular y cumple con la igualdad que quer´ ıamos. 1]. Ejercicios 3 0 .

Si e = x − x se tiene Ae = r.30 2. la condici´n de A verifica la desigualdad: o 1 ≤ inf cond(A) A−B : B es singular A Nota: M´s a´n. (9) Sea Dn la matriz diagonal de n × n con elementos diagonales iguales a 1/10. o ˜ (b) Encuentre un ejemplo para b y ∆b = 0 de modo que ∆x 22 sea exactamente x cond2 (A) ∆b 22 . o (a) Calcular el vector residual producido por esta soluci´n tentativa. Chequear. Mostrar que: x ˜ 1 r e r ≤ ≤ cond(A) . 4 4 0 3 5 4 4 (4) Probar que si A ∈ IRn×n es una matriz inversible y es una norma matricial. se conoce el valor o ∆b 2 conjunto de b + ∆b y se sabe que el error relativo < 10−3 . (ii) B =  2 1−ε 0 1 1 0 0 (b) Concluir que la condici´n de las matrices A y B del ´ o ıtem anterior tienden a infinito. adem´s. a o (5) (a) Mostrar que cond∞ (A) → ∞ cuando ε → 0 para     1 1 1 1 0 1+ε 3 4 . se definen An = . cualquiera sea la norma considerada. Se o ˜ o e llama “vector residual” a r := b − A˜. ¿Puede decirse que para n grande la soluci´n es razonablemente confiable? o (b) Resolver An x = bn en forma exacta. Tener en cuenta que los vectores generados al azar (comando rand) tienen coordenadas en el intervalo [0. NORMAS Y CONDICIONAMIENTO Recordar que tanto la norma de un vector como de una matriz se calculan en Matlab con el comando norm. 0). Calcular cond2 (A) y cond∞ (A). calcular cond∞ (An ) y verificar la cota de error del ejercicio 7. o 1 2 1 (8) Para cada n ∈ IN. que estos vectores a generados resulten no nulos. (i) A =  1 ε ε2  . Utilizando cierto m´todo num´rico se obtiene como resultado el e e vector (1. es decir. pero la otra desigualdad es un poco m´s complia u a cada de probar. Calcular el determinante de Dn y ver que det(Dn ) → 0 si n → ∞. De dicha igualdad se puede concluir que cond(A) mide la distancia relativa de A a la matriz singular m´s pr´xima. (6) Sea A la matriz del ejercicio 3. cond(A) b x b Concluir que para una matriz mal condicionada los m´todos num´ricos no aseguran e e buena aproximaci´n. 1]. Se quiere resolver el sistema Ax = b para un valor de b = 0 que se conoce con una precisi´n mayor que 10−3 . vale la igualdad.   3 0 0 (3) Sea A =  0 5 3 . ¿Dn est´ mal condicionada? a . 2 − n2 ) y se quiere resolver 1 2 4 + n2 el sistema An x = bn . b 2 (a) Estimar el error relativo de la soluci´n hallada x = x + ∆x. bn = (1. b (7) Sea x la soluci´n exacta al sistema Ax = b y x la soluci´n obtenida num´ricamente.

. repetir el m´todo de eliminaci´n gaussiana eligiendo el pivote m´s e o a conveniente. (a) Para n = 2 y n = 3. con aritm´tica de punto flotante de 3 o e d´ ıgitos y sistema de redondeo.1. o (b) Adaptar el programa del ´ ıtem anterior para que calcule la matriz A−1 . (11) Para cada n ∈ IN. A ∈ IRn×n usando eliminaci´n gaussiana sin pivoteo. EJERCICIOS 31 (10) (a) Escribir un programa en Matlab que resuelva un sistema Ax = b. analizar si el resultado difiere significativamente de la soluci´n o real. (b) Para n = 3. se quiere calcular la soluci´n del sistema lineal: o 10−n x + 2y = 8 x+y = 2 utilizando eliminaci´n gaussiana sin pivoteo.

NORMAS Y CONDICIONAMIENTO (12) (13) (14) (15)  2 4 −1 0  4 10 −1 −1   Obtener la descomposici´n LU de la matriz  o  6 10 −7 1  de las siguientes dos 0 2 1 −2 maneras: (a) mediante el algoritmo de eliminaci´n gaussiana. Demostrar que A admite descomposici´n LU con u o L y U tambi´n tridiagonales. Sea A ∈ IRn×n una matriz que admite descomposici´n LU . o (a) Estimar cu´ntas operaciones se necesitan para calcular esta descomposici´n de A. entonces luego de hacer cada etapa de la eliminaci´n la matriz resultante o tambi´n lo es. mientras que la matriz singular A − I s´ la tiene. entonces se requieren m´s de n! operaciones. entonces ´sta admite descomposici´n LU . Dar o ı la matriz de permutaciones P tal que P A tenga una factorizaci´n LU . que no est´n especialmente a pensados para matrices tridiagonales. Estimar cu´ntas operaciones se necesitan para calcularlo a a si se utiliza la descomposici´n LU . . e (18) Adaptar el programa del ejercicio 10 para que resuelva un sistema de ecuaciones Ax = b. o (b) despejando los coeficientes de L y U ordenadamente. mostrar que si esto se hace mediante el desarrollo sucesivo por alguna fila o columna. Para n ≥ 2. Demostrar que si A es adem´s a estrictamente diagonal dominante. o (16) Considerar el algoritmo de eliminaci´n gaussiana sin pivoteo aplicado a un sistema o Ax = b donde A ∈ IRn×n es una matriz tridiagonal. (Ayuda: demostrar que si A es estrictamente diagonal u dominante. (b) Se quiere calcular el determinante de A. Utilizar el comando flops de Matlab para conocer la cantidad de operaciones efectuadas y comparar con las que se requieren al resolver el mismo sistema utilizando los comandos inv y \.32 2. entonces durante la ejecuci´n del algoritmo no se o encuentra ning´n pivote nulo. donde A ∈ IRn×n es una matriz tridiagonal. e o Probar que la matriz no singular:   0 0 1  1 0 0  0 1 0  no tiene una descomposici´n LU . o Demostrar que si todos los menores principales de una matriz A ∈ IRn×n son no singulares.) e (17) Sea A ∈ IRn×n una matriz tridiagonal tal que en el proceso de eliminaci´n gaussiana o no se encuentra ning´n pivote nulo. a o despejando los coeficientes de L y U .

con   1 2 3 4 5 6 7 8 9 10  2 1 0 0 0 0 0 0 0 0     3 0 1 0 0 0 0 0 0 0     4 0 0 1 0 0 0 0 0 0     5 0 0 0 1 0 0 0 0 0   A=  6 0 0 0 0 1 0 0 0 0 . Comparar con el resultado obtenido mediante el comando inv. i+j−1 Estas matrices son un ejemplo de matrices mal condicionadas y por tal motivo se las utiliza habitualmente para testear rutinas num´ricas.1. o a o (23) Estimar cu´ntas operaciones se requieren para hallar la descomposici´n de Cholesky de una matriz sim´trica y definida positiva A ∈ IRn×n . cifra bastante inferior a la cantidad total de elementos. (b) Utilizar su programa del ejercicio 10 para calcular la inversa de la matriz de Hilbert −1 −1 H9 . EJERCICIOS 33 (19) La n-´sima matriz de Hilbert Hn ∈ IRn×n . Este ıa tipo de situaci´n motiva el estudio de m´todos de resoluci´n de sistemas con matrices o e o ralas que no involucren un llenado excesivo. tales que aij = (xi )t xj . x2 . Nota: En realidad. verificar que la eliminaci´n gaussiana puede crear o elementos no nulos en lugares donde inicialmente hab´ ceros (es decir.    7 0 0 0 0 0 1 0 0 0     8 0 0 0 0 0 0 1 0 0     9 0 0 0 0 0 0 0 1 0  10 0 0 0 0 0 0 0 0 1 Utilizando el comando lu de Matlab.j = . · · · . Estas matrices pueden obtenerse en Matlab mediante el comando hilb(n) y su condici´n infinito puede calcularse o con el comando cond.  4 2 −2 (22) Considerar la matriz  2 5 5  . hay a lo sumo 5 × 104 elementos no nulos en la matriz. Es decir. Verificar su resultado calculando los productos H9 H9 y H9 H9 . cond∞ (Hn ) es mucho mayor que n2 . En muchas aplicaciones. (20) Considerar el sistema de ecuaciones lineales Ax = b. (21) Utilizar el Teorema de Cholesky para demostrar que las siguientes propiedades de una matriz son equivalentes: • A es sim´trica y definida positiva e • hay un conjunto de vectores linealmente independientes x1 . se produce una ıa matriz densa a pesar de partir de una matriz rala). −2 5 11 Mostrar que es definida positiva y calcular su descomposici´n de Cholesky. xn de IRn . uno debe resolver un sistema de ecuaciones lineales del orden de 104 × 104 donde hay a lo sumo 5 elementos no nulos por fila. e (a) Demostrar que cond∞ (Hn ) ≥ n2 . se define de la siguiente manera e 1 (Hn )i. Calcular qu´ cantidad e de bytes (2 bytes por elemento) ocupar´ una matriz densa de esas dimensiones. e .

.

CAP´ ıTULO 3

Resoluci´n de sistemas lineales. o
El objetivo de este cap´ ıtulo es estudiar diferentes formas de resolver un sistema lineal de n ecuaciones con n inc´gnitas. Para dar soiluci´n a este problema se pueden emplear dos grandes o o subclases de m´todos; los directos y los iterados. Dentro de los m´todos de c´lculo directo se ene e a cuentran el de triangulaci´n de Gauss, el de descomposici´n LU y el m´todo de Cholesky. Entre o o e los m´todos iterativos m´s usuales encontramos el de Jacobi, Gauss-Seidel y el de relajaci´n. e a o

1. M´todos directos e 1.1. Triangulaci´n de Gauss y descomposici´n LU. El proceso de triangulaci´n de o o o Gauss puede verse como el resultado que se obtiene de multiplicar por matrices de la siguiente forma, Primer paso: Multiplicar por    L1 =   con ai1 a11 1 m21 . . . 0 ··· 1 ··· .. . 0 0 . . . 1     

mN 1 0 · · ·

mi1 = − Entonces L1 A tendr´ la forma a    L1 A =   a11 0 . . . 0 Segundo paso: Multiplicar por a12 a1 22

··· ··· .. .

a1N a1 2N . . . a1 N N

    

a1 2 · · · N

36

´ 3. RESOLUCION DE SISTEMAS LINEALES.

    L2 =    y nos queda    L2 L1 A =  

1 0 0 . . .

0 1 m32

··· ··· ··· .. .

0 0 0 . . . 1

      

0 mN 2 · · ·

a11 a12 · · · 0 a2 · · · 22 . .. . . . 0 0 ···

a1N a2 2N . . . a2 N N

    

As´ sucesivamente hasta llegar a una matriz triangular suprior ı    LN −1 LN −2 · · · L2 L1 A = U =   u11 u12 · · · 0 u22 · · · . .. . . . 0 0 ··· u1N u2N . . . uN N    . 

Es f´cil ver que la inversa de L1 viene dada por a  (L1 )
−1

  = 

1 −m21 . . .

0 ··· 1 ··· .. .

0 0 . . . 1

    

−mN 1 0 · · ·

y, en general, L−1 es como Lj pero cambiando los signos de los mji . j Entonces podemos escribir A como sigue, A = L−1 L−1 · · · L−1 U, 1 2 N −1 adem´s, observemos que la matriz L = L−1 L−1 · · · L−1 es de la forma a 1 2 N −1  1 0 ··· 0  −m21 1 ··· 0  L = L−1 L−1 · · · L−1 =  . . .. 1 2 N −1 .  . . . . −mN 1 −mN 2 · · · 1 As´ hemos demostrado el siguiente teorema, ı     

´ 1. METODOS DIRECTOS

37

Teorema 3.1. Si no hace falta intercambiar filas en la eliminaci´n de Gauss se obtiene o A = LU donde U es triangular superior y L es triangular inferior con 1 en la diagonal. Adem´s tenemos el siguiente corolario. a Corolario 3.2. det(A) = det(U ). En el caso general, si hace falta cambiar filas, se tiene P A = LU con P una matriz de permutaciones. 1.2. Descomposici´n de Cholesky. En el caso en que A ∈ IRN ×N es definida positiva y o sim´trica una descomposici´n L−U (con U = LT ) puede obtenerse m´s eficientemente mediante e o a el m´todo de Cholesky. e ´ Definicion 3.3. A ∈ IRN ×N se dice definida positiva si x, Ax > 0 ∀x = 0

Observemos que si A = LLT con L una matriz inversible, entonces (1) A es sim´trica. e (2) A es definida positiva pues x, Ax = LT x
2 2

> 0,

∀x = 0.

En consecuencia, para que A pueda escribirse como LLT con L inversible es necesario que A sea sim´trica y definida positiva. e Ahora, para lograr una descomposici´n de la forma LLT , analicemos primero el caso simple, o A ∈ IR3×3 . Planteamos A = LLT y nos queda   l11 0 0 l11 l21 l31 A =  l21 l22 0   0 l22 l32  0 0 l33 l31 l32 l33 Entonces, despejando los coeficientes, se obtiene
2 a11 = l11

l11 = l21

a12 = l11 l21 etc.

√ a11 a12 = l11

A = AT ) y definida positiva se tienen las siguientes propiedades. N . de esta manera. Aei = aii (2) Los menores principales sj son positivos (esto fue demostrado en algebra lineal).. Ahora veamos algunas propiedades que nos ser´n muy utiles. k−1 aik = j=1 lij lkj + lik lkk .38 ´ 3.e. .. Es decir. pues 0 < ei . una forma recursiva para el c´lculo de los elementos lij . RESOLUCION DE SISTEMAS LINEALES. Ahora observamos que lo que hicimos en 3 × 3 se puede hacer en N × N . k k−1 2 lkj akk = j=1 = j=1 2 2 lkj + lkk y entonces  lkk = akk − j=1 k−1  2 lkj  Obtenemos. despejando. k−1 j=1 lij lkj lik = Adem´s a aik − lkk i > k. es decir.. En el caso general en que A ∈ a ´ IRN ×N sea sim´trica (i. A = LLT si y solo si k aik = j=1 lij lkj . e (1) aii > 0 para cualquier i = 1. Entonces. a .

akk l11 · · ·  . . Supongamos que llegamos hasta el paso k. . l22 .. entonces existe l11 positivo tal que l11 = a11 .  .´ 1. . . METODOS DIRECTOS 39 Para k = 1. . lk−1k−1 son todos n´meros reales positivos y supongamos que u k−1 akk − j=1 2 lkj ≤ 0. e o 2 El a11 es positivo. ak1 · · · y resulta f´cil ver que a   a1k . Argumentemos por inducci´n.. Lk =  . o u Pero si llamamos Ak al menor principal de A y Lk al menor principal de L. . . .  .  .. 2.. . . . . . . Entonces  lkk = akk − j=1 k−1  2 lkj  = 0 ´ es un n´mero en C. Veamos que ´sto es una consecuencia de ser A definida positiva. lkk y Ak = Lk LT .  . ··· ··· lN 1 lN 2 akk − j=1 2 lkj > 0. es decir. es decir l11 . . las matrices que se obtienen son de tama˜o k × k n a11 · · ·  . ız a k−1 l11 l22 . N hacemos           lN −1N −1 → lN N −1    l NN Para que el algoritmo de Cholesky est´ bien definido necesitamos ver que el argumento de la e ra´ cuadrada involucrada en el c´lculo de lkk sea positivo. k Entonces 2 2 2 0 < det(Ak ) = (det(Lk ))2 = l11 · · · lk−1k−1 lkk . lk1 · · ·   l1k ... Ak =  . → → l21 l32 . .

por ejemplo. M´todos iterativos e Estos m´todos convienen en general para matrices ralas (i. Los m´todos iterativos generan una sucesi´n e o x0 → x1 → x2 → · · · donde xk+1 se calcula a partir de xk . M´todo de Jacobi.40 ´ 3. u (1) El n´mero de operaciones es O(N 3 /6) (en lugar de O(N 3 /3)).e. ´ e Para terminar. 4x1 + x2 = 5 x1 + 4x2 = 5 La soluci´n es o 1 1 5 5 x= y llamaremos b= El m´todo de Jacobi calcula xk+1 a partir de xk de la siguiente forma e . Los lij no crecen respecto de A pues k akk = j=1 2 lkj implica que |lkj | ≤ √ akk 2. absurdo. lkk debe tambi´n ser positivo. cuando se discretizan ecuaciones diferenciales. 2 como los primeros factores son positivos el ultimo. Este tipo de e matrices aparecen. sin necesidad de “pivoteo”. Como antes el objetivo es resolver Ax = b con A una matriz inversible. RESOLUCION DE SISTEMAS LINEALES. hagamos las siguientes observaciones. Empecemos con un ejemplo para ver como funciona el m´todo e e de Jacobi. (2) Es estable. con muchos ceros). 2. el algoritmo de Cholesky es m´s convea niente que el de Gauss (L − U ) porque.1.

iterando esta ultima igualdad. o En el caso general. . para i = 1. esto no es cierto en general. La convergencia depende de como sea la matriz B. entonces el error ek = xk − x verifica ek+1 = Bek y entonces. x. N tenemos e o xk+1 i = bi − i−1 k j=1 aij xj − N k j=i+1 aij xj aii . METODOS ITERATIVOS 41 4xk+1 = 5 − xk 2 1 4xk+1 = 5 − xk 1 2 Es decir xk+1 = 0 −1 4 −1 4 0 b xk + . ≤ B k ∞ 1 ≤ ( )k → 0 4 ≤ Por supuesto. A ∈ IRN ×N supongamos aii = 0. 4   → ··· Entonces si empezamos con x0 = (0. Despejamos xi de la i−´sima ecuaci´n. 0). o ek ∞ ∞ ∞ 15 16 15 16 = 1 4 k → ∞.. En nuestro ejemplo observamos que B y entonces Bk De ´sto conclu´ e ımos que 1 k 0 e ∞→0 4 es decir la iteraci´n converge cualquiera sea el dato inicial x0 . tenemos    5   0 4  → x2 =  x0 =   → x1 =  5 0 4 Convergencia y estimaci´n del error o En forma matricial la iteraci´n de Jacobi se escribe como o xk+1 = Bxk + c.. ∀i (si A es inversible esto se puede obtener reordenando). cumple que o x = Bx + c.´ 2. Si B < 1 para alguna norma asociada a una norma de vectores entonces el m´todo converger´ e a cualquiera sea la condici´n inicial y si no no.. ´ ek = B k e0 . Por otro lado la soluci´n exacta.

. . 0 a11 · · ·  . . . . 0 ··· Entonces 0 aN N 0 ···   . o sea. . 0 aN 1 · · ·  0 . si la iteraci´n est´ dada por una matriz B.. . . . N . . . o a ek+1 = Bek tenemos ek = B k e0 . tenemos ek+1 = −D−1 (L + U )ek = BJ ek ek+1 = −(D + L)−1 U ek = BGS ek En general. A= . xk+1 para calcular la nueva 1 i−1 k+1 aproximaci´n xi ..  . o e 2. + . e bi − i−1 k+1 j=1 aij xj xk+1 i = − N k j=i+1 aij xj aii Escritura matricial de la iteraci´n Escribimos o A=D+L+U      a1N 0 ··· .2. 0 ··· Ax = b si y solo si Dx = −(L + U )x + b Tanto el m´todo de Jacobi como el de Gauss-Seidel pueden escribirse en la forma e xk+1 = Bxk + c. RESOLUCION DE SISTEMAS LINEALES. resultando el m´todo de Gauss-Seidel. Resulta natural utilizar las componentes ya calculadas xk+1 . Para i = 1.  .42 ´ 3. . . ..   . (1) Jacobi xk+1 = −D−1 (L + U )xk + D−1 b (2) Gauss-Seidel xk+1 = −(D + L)−1 U xk + (D + L)−1 b Si escribimos ek = xk − x y usamos que la soluci´n exacta x cumple o x = −D−1 (L + U )x + D−1 b y x = −(D + L)−1 U x + (D + L)−1 b respectivamente. . . M´todo de Gauss-Seidel. + .

En este caso  k  λ1 · · · 0   . En este caso se puede diagonalizar. Por ejemplo 1 2 1000 B= 1 0 2 Observemos que B ∞ ∞ podr´ ser ıa = 1000. METODOS ITERATIVOS 43 Entonces si queremos que ek → 0 para todo dato inicial. En general las matrices de la forma C = Entonces verifican que C k = 1 1 k2000 B k = ( )k 0 1 2 k ) → 0. pero si A no es diagonalizable es m´s dif´ de probar. En efecto B = 1 a 0 1 1 2 1 2000 0 1 1 ka 0 1 . existe S tal que   λ1 · · · 0   . Sin embargo B grande y B k → 0. Sin embargo B k → 0. y se tiene que (B ij Vale destacar que para que B k → 0 basta que exista alguna norma tal que B < 1.´ 2.5. j y esto implica que B k → 0. Ak = S −1  S . ∀i.. . El segundo ejemplo trata el caso en que A es sim´trica. k 0 · · · λN y se tiene que si y solo si max |λi | = ρ(A) < 1 i Ak → 0 Esto es cierto en general. es necesario que B k → 0.. a ıcil En el caso en que A es sim´trica se tiene e ρ(A) = A entonces. 0 · · · λN con λi los autovalores de A. es e decir. o En el ejemplo dedujimos que B k → 0 del hecho de que B < 1. si ρ(A) < 1 se tiene que A En general vale que. SAS −1 =   . ρ(A) ≤ A para cualquier norma 2 2 < 1 y entonces Ak → 0. El siguiente objetivo es dar una caracterizaci´n de las matrices con esta propiedad.

44 ´ 3.. RESOLUCION DE SISTEMAS LINEALES.. En alguna base {vi }. Primero veamos que o ρ(A) ≤ A . y aunque ρ(A) no es una norma. Sea x tal que Ax = λmax x entonces |λmax | x = Ax ≤ A x y as´ ı |λmax | = ρ(A) ≤ A Ahora veamos que dado ε > 0 existe una norma con A ≤ ρ(A) + ε.. Queremos definir x . 0 0 ··· λi .   .  . puede obtenerse una nueva base en la cual la transformaci´n lineal toma la forma an´loga pero con los o a   λi ε · · · 0  0 λi · · · 0   ˜  Ji =   . se tiene Teorema 3. Observamos que A en IR es igual a A en C (ejercicio).   . para x ∈ IRN . Sin embargo. λi 1 · · ·  0 λi · · ·  Ji =  . Recordemos la forma de Jordan de una matriz. ρ(A) = inf A O sea ∀ε > 0 existe una norma tal que ρ(A) ≤ A ≤ ρ(A) + ε. una matriz B se transforma en   J1 · · · 0   . 0 donde los Ji son los ”bloques de Jordan”. Demostraci´n. 0 0 ···   0 0     λi ··· Jr x=0 Esta es la forma normal usual.4.

Si T es la transformaci´n lineal asociada a B tenemos o T v1 = λ1 v1 T v2 = v1 + λ1 v2 T v3 = v2 + λ1 v3 . .5. . por ejemplo... es f´cil ver que.. Tenemos entonces ˜ ˜ ˜ ˜ T v1 = λ1 v1 ˜ ˜ T v2 = ε˜1 + λ1 v2 ˜ v ˜ T v3 = ε˜2 + λ1 v3 ˜ v ˜ .. v3 = ε2 v3 .   λ1 1 · · · 0  0 λ1 · · · 0    J1 =   .. T vm = ε˜m−1 + λ1 vm ˜ v ˜ Por lo tanto en la base v1 . . Miremos. vm .. vm queda el bloque ˜ ˜  λ1 ε  0 λ1  ˜ J1 =   0 0  0 0     λ1 ··· ··· ..   . Esto se logra re-escalando la base... dado x lo escribimos en la base vi ..´ 2. Entonces. a A = ρ(A) + ε pues A es el m´ximo de a j |aij | si A es la norma asociada a x . METODOS ITERATIVOS 45 donde ε es positivo y arbitrario.. definamos la norma de la siguiente manera.. v2 = εv2 .. B k → 0 si y solo si ρ(B) < 1. . T vm = vm−1 + λ1 vm Ahora definamos v1 = v1 .. 0 0 ··· λ1 en la base v1 . el bloque 1. ˜ x= y definimos x = max |αi | es decir la norma ∞ αi vi ˜ en esa base.. . .. vm = εm−1 vm . . ··· Hecho esto. Corolario 3.. .

i + 1). RESOLUCION DE SISTEMAS LINEALES. o sea.. entonces existe z ∈ CN . Demostraci´n. Ahora dado ε > 0 multiplicamos por la matriz diagonal  −1 ε 0 ··· 0  0 ε−2 · · · 0  D= . entonces Bk ≤ B k →0 . .   . Veamos primero la vuelta. Tomando parte real e imaginaria se ve que hay alg´n x ∈ IRN tal que B k x no tiende a cero. 0 0 ··· En general la matriz J = (αij ) tiene coeficientes no nulos solo en la diagonal y en los lugares (i. Teorema 3.  .. tal que Bz = λmax z y entonces B k z = λk z max Esto implica que B k z = ρ(B)k z no tiende a cero. 0 y su inversa para obtener  −1 ε 0 ···  0 ε−2 · · ·  DJD−1 =  . 0 0 ···   0 ··· ε−N   0 λ1 ε · · · 0   0 λ2 · · ·   = . u Ahora veamos otra forma de probar estos resultados. Y al multiplicar por D y D−1 quedan ε y 0 en lugar de 1 y 0 en la forma de Jordan... existe una o matriz C tal que CBC −1 = J con J la forma de Jordan de B. 0 0 ··· εN  0 0     λk      0 0 ε−N ε 0 ···   0 ε2 · · ·   J  . supongamos que ρ(B) ≥ 1.46 ´ 3.  . Si ρ(B) < 1 por el teorema anterior existe una norma o tal que B < 1. Ahora para la ida.6. z = 0. B k → 0 si y solo si ρ(B) < 1 Demostraci´n.   . B es semejante a una matriz triangular (forma de Jordan).

´ 2.7. Bk ∞ pues todas las normas son equivalentes. Observemos que Cond(S) ∼ Corolario 3.. εN −1 → ρ(B) ∞ Demostraci´n. ρ(B) ≤ B k 1/k ∞ ∞ ≤ C εN −1 (ρ(B) + ε)k . METODOS ITERATIVOS 47 En conclusi´n. Bk 1/k 1 . Basta probarlo para la norma o vimos que ∀ε. B k = S −1 Ak S Entonces. Bk ∞ ∞ ∞ = ρ(B) + ε |aij | = max j ≤ S −1 ∞ Ak ∞ S ∞ = Cond(S) Ak ∞ ≤ ≤ Cond(S) A k ∞ ≤ Cond(S)(ρ(B) + ε)k → 0 si ε es tal que ρ(B) + ε < 1. Ya C εN −1 ∞ ≤ Cond(S)(ρ(B) + ε)k ≤ (ρ(B) + ε)k Por otro lado se ve f´cil que a ρ(B)k ≤ ρ(B k ) ≤ B k Entonces ρ(B)k ≤ B k Luego. 0 0 ··· SBS −1 = A   0 0   =A  λk Para simplificar llamemos S = DC y nos queda Ahora observamos que A pues A Pero. queda o DCBC −1 D−1 λ1 ε · · ·  0 λ2 · · ·  = . ≤( C 1/k ) (ρ(B) + ε) → (ρ(B) + ε) εN −1 1/k ∞ 1/k ∞ O sea.  . ∀ε existe k a partir del cual ρ(B) ≤ B k es decir Bk → ρ(B) ≤ (ρ(B) + 2ε) .

3.48 ´ 3. Sea λ un autovalor de B y x un autovector con x tenemos. Una matriz A ∈ IRN ×N es estrictamente diagonal dominante si |aii | > i=j |aij | ∀i Si A es estrictamente diagonal dominante entonces tanto Jacobi como Gauss-Seidel convergen. Recordemos que o A=D+L+U En este caso es f´cil ver que a BJ En efecto. −(L + D)−1 U x = λx = 1.10. a e ´ Definicion 3. Como antes recordemos que o A=D+L+U BGS = −(L + D)−1 U. Teorema 3. ∞ Hay que ver que ρ(B) < 1. para B sim´trica ya sab´ e ıamos que B k = ρ(B)k . BJ = (bij ) con bij = entonces BJ ∞ BJ = −D−1 (L + U ) <1 bii = 0 |aij | <1 |aii | aij i=j aii = max i i=j ∞ pues A es estrictamente diagonal dominante. Esto da una manera de comparar dos no es cierto pero. Si A es estrictamente diagonal dominante el m´todo de Gauss-Seidel converge.9. para k grande vale que B m´todos iterativos (por ejemplo Jacobi y Gauss-Seidel). ıa 2. Supongamos que el m´todo i (i = 1. Demostraci´n.8. Si o ρ(B1 ) < ρ(B2 ) entonces k k B1 < B2 para k grande. e Teorema 3. O sea el m´todo 1 es mejor asint´ticamente (aunque para un n´mero dado de e o u iteraciones podr´ ser mejor el 2). 2) e e tiene la matriz de iteraci´n Bi . Ahora observemos lo siguiente. RESOLUCION DE SISTEMAS LINEALES. An´lisis de los m´todos de Jacobi y Gauss-Seidel. En general esto k ∼ ρ(B)k . Si A es estrictamente diagonal dominante el m´todo de Jacobi converge. e Demostraci´n. Entonces .

Un caso importante es el de A sim´trica e e y definida positiva. entonces i−1 N |λ||aii | ≤ |λ| j=1 |aij | + j=i+1 |aij |. (2) Gauss-Seidel es convergente. O bien. Matrices sim´tricas definidas positivas. De esta forma obtuvimos |λ| ≤ N j=i+1 |aij | |aii | − i−1 |aij | j=1 <1 pues A es estrictamente diagonal dominante. e   0 −a −a BJ = −D−1 (L + U ) =  −a 0 −a  . METODOS ITERATIVOS 49 y esto es equivalente a −U x = λ(L + D)x N i − j=i+1 aij xj = λ j=1 i aij xj . Sea a tal que 0 < a < 1 y tomemos   1 a a A= a 1 a  a a 1 Esta matriz A es sim´trica y definida positiva. A1 = (1) A2 = y adem´s a 1 1 det(A) = 1 + 2a3 − 3a2 = (a − 1)2 (a + ) > 0 si a > − 2 2 Analicemos el m´todo de Jacobi en este caso. Para ver que es definida positiva hay que ver e que los menores principales son positivos. 2. (1) Jacobi no es necesariamente convergente.´ 2. N λaii xi = −λ j=1 aij xj − j=i+1 aij xj Sea i tal que x ∞ = |xi | ≥ |xj |.4. −a −a 0 1 a a 1 det(A) = 1 − a2 > 0 . Empecemos con un ejemplo. En este caso veremos.

12. se tiene que ρ(BJ ) < 1 ˜ (la matriz BJ = −BJ .11. con lo cual Jacobi no converge. s´lo cambia de signo). RESOLUCION DE SISTEMAS LINEALES. e ´ Conclusion: A sim´trica definida positiva no implica que el m´todo de Jacobi sea necesariae e mente convergente. si o A = D + L + LT son definidas positivas.13. o Ejemplo 3. Tomando    A=   1 1 2 1 2 1 2 1 2 1 2       1 1 2 1 tenemos que ρ(BJ ) = 1. ´ Observacion 3.50 ´ 3. Para una ˜ o sea Jacobi converge para A y para A o demostraci´n de este hecho ver Isaacson-Keller (pag 72). Para la matriz  1 a a A= a 1 a  a a 1  1 −a −a ˜ A =  −a 1 −a  . entonces ρ(BJ ) < 1 si y s´lo si A es definida positiva . −a −a 1   y ˜ A = D − (L + LT ) con 1 2 ≤ a < 1 se tiene . a a λ Observemos que p(a) = 0 entonces λ1 = a y como p (a) = 0. ´ Observacion 3. Entonces si 1 1>a≥ 2 se tiene que ρ(B) = 2a ≥ 1 y con esto no se puede asegurar que el m´todo de Jacobi converja para cualquier dato inicial. Dividiendo p por (λ − a)2 se obtiene que la tercer raiz es λ3 = −2a. A = D + L + LT Puede demostrarse que si D − (L + LT ) es definida positiva. el polinomio caracter´ ıstico es   λ a a p(λ) = det  a λ a  = λ3 + 2a3 − 3a2 λ. Calculemos los autovalores de B. λ1 = a es una raiz doble de p. Entonces la condici´n estricta es o necesaria en el teorema que muestra la convergencia para A estrictamente diagonal dominante. En particular.

´ 2. Ahora analicemos que pasa con el m´todo de Gauss-Seidel en este mismo ejemplo. Las ra´ ıces de (λ − 2)(λ − 3) + 2 son √ √ −7 5 − −7 λ2 = λ3 = 2 2 Como ´stos son los autovalores de 8B los autovalores de B son e √ √ 5 + −7 5 − −7 λ1 = 0 λ2 = λ2 = . e   1 a a A= a 1 a  a a 1 y entonces  1 0 0 L+D = a 1 0  a a 1 Calculando obtenemos   (L + D)−1 Entonces B = BGS = −(L + D)−1 U es   0 a a U =  0 0 a . =  −a 2 − a −a 1 a  0 −a −a a2 a2 − a  .     0 −4 −4 λ 4 4 2 . 0 0 0  y  1 0 0 1 0 . B= 0 2 − a3 2a2 − a3 0 a  Veamos los autovalores de B. det(λI − 8B) = λ((λ − 2)(λ − 3) + 2). 8B =  0 2 −2  y λI − 8B =  0 λ − 2 0 1 3 0 −1 λ − 3 Con lo cual. λ − a2 a − a2 λI − B =  0 2 + a3 λ − 2a2 + a3 0 −a 1 Tenemos λ1 = 0. Para simplificar. METODOS ITERATIVOS 51 ˜ Y resulta que A no es definida positiva. para este valor de a se obtiene   0 −1 −1 2 2 B =  0 1 −1  . 16 16 5+ . 4 4 3 0 1 8 8 Y entonces.  λ a a . ahora consideremos el caso particular a = 2 .

Ahora veremos un ejemplo “al rev´s´´. 16 4 Entonces el m´todo de Gauss-Seidel converge. e Ejemplo 3. e      0 −2 2 1 0 0 0 0  . es decir donde Jacobi converge pero Gauss-Seigel no. ver Varga. RESOLUCION DE SISTEMAS LINEALES. pag 74).14. ρ(BJ ) = 0 y el m´todo converge en tres pasos. o sea ρ(BGS ) < 1 y ρ(BJ ) ≥ 1. −U =  0 0 −1  y (L + D)−1 =  −1 1 0  1 0 0 0 0 −2 1  0 −2 2 =  0 2 −3  0 0 2  2 −2 λ−2 3  0 λ−2 λ3 = 2  BGS = −(L + D)−1 U y λ λI − BGS =  0 0 Los autovalores resultan ser λ1 = 0  λ2 = 2 .52 ´ 3. (Collatz 1942. a e En particular este ejemplo nos da un caso donde el m´todo de Gauss-Seigel converge pero Jacobi e no. Observemos que √ √ 32 2 |λ2 | = |λ3 | = = < 1. 1 Sea  0 −2 2 BJ =  −1 0 −1  −2 −2 0   λ 2 −2 λI − BJ =  1 λ 1  2 2 λ p(λ) = λ3 entonces y los autovalores resultan ser λ1 = λ2 = λ3 = 0 Entonces BJ es nilpotente.  1 2 A= 1 1 2 2 Para el m´todo de Jacobi nos queda e   −2 1 . e 3 e3 = BJ e0 = 0 Ahora analicemos el  1 0 L+D = 1 1 2 2 En consecuencia. m´todo de Gauss-Seidel para este ejemplo. e M´s adelante veremos que si A es sim´trica y definida positiva entonces Gauss-Seigel converge.

Modificando trivialmente este ejemplo puede obtenerse un ejemplo en que ambos m´todos cone vergen y se tiene ρ(BJ ) < ρ(BGS ) < 1. METODOS ITERATIVOS 53 entonces ρ(BGS ) = 2 y el m´todo de Gauss-Seidel no converge. e  2 1 −1 A =  −2 2 −2  . 2 1  0 y en consecuencia Jacobi no converge. y los autovalores de BJ resultan λ1 = 0 Entonces. a Ejemplo 3.15. Este es un ejemplo para el cual ninguno de los dos m´todos converge. Veamos un ejemplo m´s. 1 1 2   √ 5 >1 ρ(BJ ) = 2  (L + D) −1   =   1 2 1 2 0 1 2   0    1 2 0  y −1 2 −1 4 . 5 p(λ) = λ3 + λ 4 √ 5 λ2 = i 2 √ 5 λ3 = −i . Para Gauss-Seidel se tiene 2 0 0 L + D =  −2 2 0  . e Conclu´ ımos que en este ejemplo el m´todo de Jacobi converge en tres pasos pero Gauss-Seidel e no converge (existen datos iniciales para los cuales no converge). Sea   5 2 −2 A= 1 5 1  2 2 5 que es estrictamente diagonal dominante y entonces Jacobi y Gauss-Seidel ambos convergen. 1 1 2  Aplicando Jacobi resulta 0 BJ =  1 −1 2  −1 2 0 −1 2 1 2   1 1 λ 2 −2 λI − BJ =  −1 λ −1  1 1 λ 2 2 con lo cual.´ 2.

entonces convergen los dos m´todos.54 ´ 3.6514 y por tanto ρ(BGS ) = |λ3 | > 1 y entonces el m´todo de Gauss-Seigel no converge. Y si convergen (o o sea ρ < 1) es mejor asint´ticamente Gauss-Seidel.  0 −2 2 1 −(L + D)−1 U =  0 −2 6  4 0 2 −4 ıces o de donde p(λ) = λ3 + 5 λ2 − 1 λ y calculando las ra´ de p(λ) obtenemos con aproximaci´n los 4 4 autovalores λ1 = 0. . o Por ejemplo. Caso IR2 En este caso es f´cil analizar el m´todo de Jacobi y el de Gauss-Seidel. ρ(BJ ) = ρ(BGS ) = Es decir. a e A= entonces BJ = −D−1 (L + U ) = y BGS = −(D + L)−1 U = Entonces.16. RESOLUCION DE SISTEMAS LINEALES.1514 y λ3 = −1. si A es estrictamente diagonal dominante. Veamos ahora el ultimo ejemplo de esta serie. Si A es sim´trica y definida positiva entonces convergen ambos m´todos en IR2 . λ2 = 0. pues en este caso ρ(BGS ) < ρ(BJ ). Y e esto en IR2 es decir |a12 | < |a11 | y |a21 | < |a22 |. |a11 a22 | a11 a12 a21 a22 0 − a21 a22 0 0 a12 − a11 0  a12 a21 a11 a22 − a12 a11 . ρ(BGS ) = ρ(BJ )2 . a11 a22 El ejemplo anterior se generaliza para el m´todo de Gauss-Seidel en IRN pero no para el m´todo e e de Jacobi. e Ejemplo 3. pues e e a11 > 0 entonces a11 a22 > a2 12 a2 12 = ρ(BGS ) = ρ(BJ )2 < 1. Como conclusi´n en IR2 Jacobi converge si y solo si Gauss-Seidel converge. ´ a12 = a21 det A = a11 a22 − a2 > 0 12 |a12 a21 | |a11 a22 | |a12 a21 | .

. ρ(BGS ) = λ3 = a12 a21 a23 a32 + a11 a22 a22 a33 a12 a21 a23 a32 + a11 a22 a22 a33 . ρ(BJ ) = a11 a22 a22 a33 Para el m´todo de Gauss-Seidel se tiene e  a11 0 0 L + D =  a21 a22 0  0 a32 a33  Entonces  BGS = −(L + D) −1  ρ(BGS ) = ρ(BJ )2 − a12 a11 0 − a32 a33 0  a23 − a22  0 y  0 a12 0 U =  0 0 a23  . det(λI − BJ ) = λ3 − λ a11 a22 a22 a33 Y entonces a12 a21 a23 a32 + . . a12 a21 a23 a32 = ρ(BJ )2 + a11 a22 a22 a33 Los autovalores de Jacobi son los autovalores de BJ = −D−1 (L + U ) y resultan ser las ra´ µ ıces de det(µI + D−1 (L + U )) = det(D−1 (µD + L + U )) = det(D−1 ) det(µD + L + U ) y como por hip´tesis det(D−1 ) = 0 (asumimos aii = 0).   0 a11 a12 0 Si ponemos A =  a21 a22 a23  entonces BJ = −D−1 (L + U ) =  − a21 a22 0 a32 a33 0 y a12 a21 a23 a32 + . METODOS ITERATIVOS 55 Ejemplo 3. 0 0 0  0   a12 a21 U = 0 a11 a22   0 − a12 a21 a32 a11 a22 a33 − a12 a11 0 a23 − a22 a23 a32 a22 a33       det(λI − BGS ) = λ3 − λ2 Y los autovalores resultan ser λ1 = λ2 = 0 Entonces.´ 2. µ son las ra´ o ıces de det(µD + L + U ).17. Sea A ∈ IR3 una matriz tridiagonal entonces.

Sea A ∈ IRN ×N una matriz tridiagonal y sean λ los autovalores no nulos de BGS .  .. . ρ(BGS ) = ρ(BJ )2 . . λ son las ra´ ıces de det(µ(L + D) + U )..19. RESOLUCION DE SISTEMAS LINEALES. . . . . los autovalores λ de BGS = −(L + D)−1 U son las ra´ a ıces de det(µI + (L + D)−1 U ) = det((L + D)−1 (µ(L + D) + U )) = det((L + D)−1 ) det(µ(L + D) + U ) y como det((L + D)−1 ) = 0. . Sea A ∈ IRN ×N tridiagonal entonces. α−1 aN −1 0 . αb3 d3 ..18. = 0  .. aN −1 bN −1 dN        0 ··· Entonces. 0 a2 d3 . 0 0 . . .. µ los autovalores no nulos de BJ . . . para todo α = 0 se tiene que det(D + L + U ) = det(D + αL + α−1 U ) Demostraci´n.  . . Lema 3.56 ´ 3. .. CAC −1 d1 α−1 a1 0 ··· 0 −1 a  αb2 d2 α ··· 0 2  . Basta ver que las matrices A o Pongamos  d1 a1  b2 d2   A =  0 b3   0 y consideremos    C=  1 0 . αN −1      = D + L + U y D + αL + α−1 U son semejantes. entonces λ y µ se relacionan de la siguiente manera λ = µ2 . .. En particular. .. αbN −1 dN       = D + αL + α−1 U   Teorema 3.. ··· 0 ··· 0 . . .. .. An´logamente. 0 α ··· ··· .

Los λ son autovalores de BGS y por lo anterior son ra´ o ıces de det(λ(L + D) + U ) = 0 pero λ(L + D) + U es tridiagonal y por el lema anterior det(λD + αλL + α−1 U ) = 0 1 Si λ = 0 sea α tal que α2 = λ . dado µ autovalor de BJ .´ 2. 0 = α−N det(λαD + L + U ) y como los autovalores de BJ son las ra´ ıces µ de det(µD + L + U ) = 0 resulta que µ = λα 1 Pero como α2 λ se tiene que µ2 = λ. Ahora observemos que en lo anterior. Es decir. ij ´ Definicion 3. dado λ = 0 autovalor de BGS encontramos µ autovalor de BJ con µ2 = λ. A ∈ CN ×N es Hermitiana si A∗ = A. λ = µ2 resulta ser un autovalor de BGS . METODOS ITERATIVOS 57 Demostraci´n. Convergencia del m´todo de Gauss-Seidel para A ∈ IRN ×N sim´trica e e Como los autovalores de A ∈ IRN ×N pueden ser complejos.21. pero en realidad es un si y solo si. det(µD + L + U ) = 0 si y solo si det(µ2 D + µ(L + U )) = 0 si y solo si (por el lema previo) det(µ2 D + αµL + α−1 µU ) = 0 y tomando α = µ se tiene det(µ2 (D + L) + U )) = 0. Si A ∈ CN ×N de define A∗ = AT o sea A∗ es la matriz que en el lugar i. Recordemos algunas definiciones ´ Definicion 3. trabajaremos directamente con A ∈ CN ×N . Entonces. Entonces µ2 es autovalor de BGS . j tiene al elemento a∗ = aji . .20.

 0 0     0 aN 1 · · · Hay que ver que ρ(BGS ) < 1 donde BGS = −(L + D)−1 L∗ . Observemos que BGS puede escribirse como BGS = I − (L + D)−1 A Sea λ ∈ C un autovalor de BGS y z ∈ CN . RESOLUCION DE SISTEMAS LINEALES. z = 0.58 ´ 3. 0 0 ··· ··· . A∗ = AT y Hermitiana significa sim´trica. un autovector correspondiente a λ. o con A = L + D + L∗    L=  0 a21 . Veamos esto. ∗ Az z z ∗ Az 1−λ Y sumando estas dos igualdades se obtiene 1 z ∗ Dz 2Re( )=1+ ∗ >1 1−λ z Az . es decir (I − (L + D)−1 A)z = λz o bien (L + D)z − Az = λ(L + D)z y esto es equivalente a Az = (1 − λ)(L + D)z Como Az = 0 se deduce que λ = 1. .. . e Demostraci´n. . z ∗ Az = ij zi aij zj y entonces z ∗ Az = ij zi aij zj = z ∗ A∗ z Teorema 3. En general para A cualquiera z ∗ Az = z ∗ A∗ z. e Si z ∈ CN y A es Hermitiana entonces z ∗ Az ∈ IR.22. Observemos que si A ∈ IRN ×N . Multiplicando por z ∗ se obtiene 1 z ∗ (L + D)z = 1−λ z ∗ Az tomando conjugado y recordando que z ∗ Az ∈ IR y que D es real se tiene 1 z ∗ (L + D)∗ z z ∗ (L∗ + D)z = = . entonces el m´todo de Gauss-Seidel es convergente. Sea A ∈ CN ×N Hermitiana y definida positiva (o sea z ∗ Az > 0 ∀z = 0).

Dado ω un par´metro se define a   aij xk  j j=i+1 i−1 N xk+1 = (1 − ω)xk + ω bi − i i j=1 aij xk+1 − j 1 aii En forma matricial escribimos como antes A = L + D + U queda (D + ωL)xk+1 = ((1 − ω)D − ωU )xk + ωb entonces con Observemos que B1 = BGS . 1−λ 1 − α − iβ 1 − α + iβ (1 − α)2 + (β)2 Y de esta forma 1 1−α Re( )= 1−λ (1 − α)2 + (β)2 y por lo anterior 1−α 1 > (1 − α)2 + (β)2 2 es decir 2(1 − α) > 1 − 2α + α2 + β 2 y esto es equivalente a 1 > α2 + β 2 . 2. entonces ρ(Bω ) ≥ |1 − ω| xk+1 = Bω xk + (D + ωL)−1 ωb Bω = (D + ωL)−1 ((1 − ω)D − ωU ) . con aii = 0. Entonces si λ = α + iβ. En principio. (Kahan) Sea A ∈ CN ×N . N ×N es Hermitiana y con a > 0 entonces el m´todo de Gausse Se puede probar que si A ∈ C ii Seigel converge si y solo si A es definida positiva (ver Isaacson-Keller pag. 71). Si ω ∈ IR entonces hace falta que 0 < ω < 2. Hemos conseguido ver que |λ| < 1. M´todo SOR. Teorema 3.´ 2.5. tenemos 1 1 1 − α + iβ 1 − α + iβ = = . METODOS ITERATIVOS 59 pues z ∗ Az > 0 y z ∗ Dz > 0 (aii > 0 si A es definida positiva).23. Sin embargo el siguiente teorema nos dice que es necesario que |ω − 1| < 1 para que haya convergencia (o sea para que ρ(Bω ) < 1). ω es arbitrario. La idea del m´todo SOR (succesive overrrelaxation / sobre relajaci´n e e o sucesiva) es tomar un “promedio” entre el xk y el xk+1 de Gauss-Seidel (promedio entre comillas i i pues los pesos no son necesariamente menores o iguales que 1).

Estudiar autovalores y autovectores de la matriz x+y = 0 de iteraci´n asociada al m´todo de Gauss-Seidel. 3. (b)   6 8 10 9   x3  =  33  x3 6 1 1 4 5 7 9 10 x4 31 (3) Dar ejemplos donde converja el m´todo de Jacobi y no lo haga el de Gauss-Seidel y e viceversa. 4) (5) Considerar el sistema (b) x0 = (1. En consecuencia. si los m´todos de Jacobi y de Gausse Seidel son convergentes (sugerencia: utilizar los comandos tril. Si ambos m´todos convergen. Para ciertas clases de matrices esto puede hacerse (ver libro Varga. 0) (c) x0 = (5. diag y eig de Matlab). En caso afirmativo usarlos para resolver el sistema. det(Bω ) = = = = Pero como det(Bω ) = i λi det((D + ωL)−1 ) det((1 − ω)D − ωU ) det(D−1 ) det((1 − ω)D − ωU ) det((1 − ω)I − ωD−1 U ) det((1 − ω)I) = (1 − ω)N ρ(Bω ) ≥ |1 − ω| se tiene que Si ω ∈ IR. una condici´n necesaria para que el m´todo converja es que 0 < ω < 2. Demostraci´n. decidir si el m´todo es convergente o o e e . Ortega o Smith). 2) x−y = 0 . 21). hacer un programa que lo modele y a la vez grafique en el plano la sucesi´n de aproximaciones obtenidas empezando en cada uno de lo siguientes valores o iniciales (a) x0 = (1. e determinar cu´l converge m´s r´pido. Ejercicios (1) Escribir un programa que implemente el m´todo de Jacobi y otro el de Gauss-Seidel e con las siguientes condiciones: • que incluya una restricci´n al n´mero de iteraciones o u • que finalice si el m´todo se estaciona e (2) Decidir para cada uno de los siguientes sistemas. Si L es triangular inferior con ceros en la diagonal entonces det(D−1 ) = det((D + o ωL)−1 ). RESOLUCION DE SISTEMAS LINEALES.60 ´ 3. Mostrar que el m´todo e 3 6 de Jacobi converge. e e El problema consiste en encontrar el par´metro ´ptimo (o cercano al ´ptimo) para acelerar la a o o convergencia. Esta condici´n o e o es tambi´n suficiente si A es sim´trica definida positiva. ¿Es la matriz del sistema diagonal dominante? a a a ¿y sim´trica y definida positiva? e           5 7 6 5 x1 23 x1 5 3 1 1  7 10 8 7   x2   32      (a)  2 6 1   x2  =  9  . 2 1 (4) Considerar el sistema Ax = b para A = y b = (8.

e (9) Sea BJ la matriz asociada al m´todo de Jacobi de un sistema dado. dx2   u(0) = u(1) = 0. j = 1. . e . la matriz B = I + sA. o (b) Dar condiciones necesarias y suficientes sobre a. sin hacer c´lculos. 1]. . 0 c a 0 b 0 √ (a) Probar que limn→∞ B n = 0 si y s´lo si |b| < 2/2. con autovalores λi . 1) Decidir si en este caso el m´todo de Jacobi resulta convergente. a a o (b) cu´ntas multiplicaciones y divisiones se requieren para para realizar una iteraci´n con el m´todo de Jacobi. ¿qu´ e e m´todo converge m´s r´pido? e a a Comentario: Este problema es interesante por sus aplicaciones. con |λ| > 1. e o (8) (a) Probar que si A tiene una base de autovectores vi . (c) Decidir si el m´todo de Gauss-Seidel resulta convergente. e (6) (a) Mostrar que toda matriz A ∈ IRn×n con det(A) > 1 tiene un autovalor λ. n − 1.3. (b) Sabiendo que los autovalores de la matriz A ∈ IR(n−1)×(n−1)   −2 1 0 · · 0  1 −2 1 0 · 0      · · ·  A=   · · ·    0 · · 1 −2 1  0 · · 0 1 −2 πj son λj = −4 sin 2n . con autovalores νi = 1 + sλi . B =  b 0 b . predecir el comportamiento de las sucesiones que se obtienen a con los siguientes valores iniciales. 0) (b) x0 = (−0. 0.03. decidir si el m´todo de Jacobi aplicado a e Ax = b es convergente o no. En caso afirmativo. c ∈ IR para la convergencia de los m´todos de Jacobi y de Gauss-Seidel aplicados a la resoluci´n de Ax = v.03) (c) x0 = (0. Estimar (a) cu´ntas multiplicaciones y divisiones se requieren para calcular BJ . EJERCICIOS 61 no y. 5 6 −1 3×3 las matrices (7) Sean A. B ∈ IR     a c 0 0 b 0 A =  c a c . real o complejo. s ∈ IR tiene los mismos autovectores.  x ∈ [0. . . pues corresponde a la discretizaci´n de la ecuaci´n de Poisson en una dio o mensi´n espacial: o  2  d u = f (x). (b) Decidir si el m´todo de Jacobi converge o no para un sistema dado por la matriz e   −1 1 2 A =  4 −1 3  . (a) x0 = (2.

en cada e iteraci´n se requieren pocas multiplicaciones. n2 ¿C´mo es la convergencia? ¿Tiene ´sto que ver con el mal condicionamiento de A? Dar o e un ejemplo de una matriz mal condicionada para la cual la convergencia sea r´pida.62 ´ 3. (a) Mostrar que si A(i. que es un caso particular de los m´todos e e llamados Jacobi por bloques: −1   −1   a11 a12 0 0 0 a13 a11 a12 0 0 a23  · xk +  a21 a22 0  · b. xk+1 = −  a21 a22 0  ·  0 0 0 a33 a31 a32 0 0 0 a33 Este m´todo resulta convergente para los siguientes datos: e     −20 8 2 −3 4  y b =  62  . cu´ntas iteraciones se necesitan para reducir el error del m´todo en a e m´s de 10−m (en funci´n de ρ(BJ )). A =  −3 9 0 3 −1 7 Hacer un programa que calcule la sucesi´n de aproximaciones generada con valor inicial o el vector nulo y que se detenga cuando xk+1 − xk ∞ ≤ 10−4 (es decir. Sea ek el vector error en el k-´simo paso. la sucesi´n ( ek ∞ )k∈IN tiende o a 0 linealmente. a (15) Hacer un programa que pida el ingreso de una matriz A y un vector b y luego • calcule las matrices de iteraci´n de los m´todos de Jacobi y Gauss-Seidel. o (14) Utilizar la iteraci´n de Gauss-Seidel para resolver el sistema An x = bn para An = 1 2 1 2 4 + n2 y bn = (1. se utiliza un m´todo iterativo cuya matriz de iteraci´n e o J es diagonalizable y satisface ρ(J) < 1. (13) Para resolver el sistema Ax = b. cuando la iteraci´n “se estabiliza”). e (a) Demostrar que ek ∞ = O(ρ(J)k ). o e . a o (d) cu´ntas multiplicaciones y divisiones se requieren para calcular la soluci´n del a o sistema por el m´todo de eliminaci´n gaussiana. Luego. k) = 0 entonces. el elemento BJ (i. e o (e) cu´ntas iteraciones del m´todo de Jacobi podr´ realizarse antes de igualar la a e ıan cantidad de operaciones necesarias al usar el m´todo de eliminaci´n gaussiana. o (b) Mostrar que λ = 0 siempre es un autovalor de BGS . (b) Probar que si ek = 0 para todo k ∈ IN y ρ(J) = 0. ¿De qu´ autovector? e (11) Dada una matriz   a11 a12 a13 A =  a21 a22 a23  a31 a32 a33 y un vector b ∈ IR3 . o (12) Sea A ∈ IRn×n . k) = 0. para lo cual se considera el siguiente m´todo iterativo. se quiere resolver el sistema de ecuaciones Ax = b. Notar que si A es una matriz rala (con muchos ceros) entonces BJ tambi´n lo es. e o (10) Sean BJ y BGS las matrices asociadas al m´todo de Jacobi y de Gauss-Seidel respece tivamente del sistema Ax = b. RESOLUCION DE SISTEMAS LINEALES. 2 − 1 ). Probar que λ = 1 es autovalor de la matriz de Jacobi (o Gauss-Seidel) de A si y solo si A es no inversible. (c) si ρ(BJ ) < 1.

sin e embargo. 64 −6 (16) Considerar el sistema Ax = b para A = y b = (1. si este valor resulta menor a 1. 6 −1 (a) Demostrar que el m´todo de Jacobi converge para todo dato inicial. ∞ y 2 de J. que la matriz no es diagonal dominante. Hallar una norma o en la cual J sea < 1. Hallar las normas 1. 2). entonces realice las primeras 10 iteraciones del m´todo e correspondiente (o de cualquiera de los dos m´todos en caso de que los radios e espectrales resulten coincidentes). (b) Sea J la matriz de iteraci´n. EJERCICIOS 63 • calcule el menor de los radios espectrales de las dos matrices anteriores y. Verificar. .3. con valor inicial el vector nulo.

.

b] → IR continua en [a. e o Este m´todo. ´ste valor suele hallarse por aproximaciones sucesivas y por ende los m´todos a utilizar son e e iterativos. Es decir. con las herramientas anal´ o ız ıticas que se usan para estudiar y graficar funciones suaves (derivables) s´lo podemos analizar si hay un o intervalo [a. una ra´ de f . Para asegurar que no hay m´s de una ra´ se usa el teorema de Rolle. M´todo de bisecci´n. b] que contenga una y s´lo una ra´ de f . se busca un subintervalo de [a. Para o ız asegurar la existencia de al menos una ra´ en el intervalo propuesto se utiliza el teorema de ız Bolzano. se separan las ra´ ıces. es decir. a En este cap´ ıtulo. poder controlar el error que se comete al utilizar un valor aproximado en lugar del exacto. o o N . e ız Antes de describir el primer m´todo de estas notas. En general. o En muchos problemas. b] donde el gr´fico de f cruza el eje x. b]. se aplica un m´todo para aproximar la ra´ aislada. o o Lo importante al utilizar m´todos que estimen el valor deseado es. recordamos el teorema de e o Bolzano. veremos distintos m´todos que nos permitir´n aproximar el valor de una ra´ e a ız. Teorema 4. Bolzano Sea f : [a. ız 1.1. la necesidad de calcular el valor de x donde una funci´n f se anula. Si f (a)f (b) < 0 (o sea f (a) y f (b) tienen distinto signo) entonces existe alguna ra´ de f en el intervalo [a. o o el c´lculo exacto no es posible ya sea porque se trata de una ra´ irracional (f (x) = x2 − 2) o a ız porque la funci´n viene dada por coeficientes cuyos valores se conocen s´lo en forma aproximada. El problema se plantea de la siguiente manera: Dada f : IR → IR (o bien f : [a. permite construir una e e sucesi´n (xn )n∈I que converge a la soluci´n de f (x) = 0 de la siguiente manera. En la primera. b] → IR) se quiere encontrar r tal que f (r) = 0. A veces. El c´lculo aproximado de ra´ a ıces puede dividirse en dos etapas. b]. En muchas ocasiones. es decir. que se apoya en la idea geom´trica del teorema de Bolzano. En la segunda etapa. el de bisecci´n. se a ız verifica que la derivada primera no cambie de signo en dicho intervalo. como venimos remarcando e en estas notas. s´lo tiene sentido encontrar una soluci´n aproximada. aparece en forma natural.CAP´ ıTULO 4 Resoluci´n de ecuaciones no lineales.

b2 ]. c]. a ız (3) Si f (c) > 0.. Calculemos c = f (b) < 0.66 ´ 4. habr´ una ra´ en [c. b3 ] . x3 ∈ [a3 . . b].. entonces (1) Si f (c) = 0 listo. . f (r) = 0. n→∞ n→∞ Y como b−a →0 2n |bn − an | ≤ se tiene que n→∞ lim an = lim bn = r. donde cada intervalo ı o 2 [an . ≥ a Entonces an y bn son sucesiones mon´tonas y acotadas y en consecuencia convergen. cuya longitud es la mitad de [a. habr´ una ra´ en [a. o existen los l´ ımites lim an y lim bn . b−a 2 b1 − a1 2 b−a 4 b−a 2n = bn − an = · · · Adem´s. As´ se genera una sucesi´n x1 = a+b ∈ [a1 . n→∞ En cada paso se verifica f (an )f (bn ) ≤ 0 y tomando l´ ımite (usando que f es continua) resulta f (r)2 ≤ 0. x2 ∈ [a2 . b1 ]. Supongamos. b] y que contiene a la ra´ Este ız. a = a ≤ a1 ≤ a2 ≤ . . proceso se sigue sucesivamente. . ız . Entonces r es la ra´ buscada pues cumple. bn ] mide la mitad del anterior. que f (a) > 0 y Ahora se elige el subintervalo. . ≤ b b ≥ b1 ≥ b2 ≥ . . RESOLUCION DE ECUACIONES NO LINEALES. es decir. (2) Si f (c) < 0. b1 − a1 b2 − a2 = = . a ız a+b 2 . Supongamos que f (a)f (b) < 0. por ejemplo.

.25.5] [a3 .109375 f (x5 ) = 0.4375 f (x4 ) = −0. b] = [1.4375] [a6 .06640625 f (x6 ) = −0. b7 ] = [1. 1. Calculemos 2.40625.02 . 67 Por otra parte el error puede acotarse de la siguiente forma. Tomemos f (x) = x2 − 2 y [a.).5 x3 = 1..421875] Para x8 .40625 x7 = 1.5] [a4 .5] [a5 . La suecsi´n que produce el m´todo es: ız o e x1 = 2 x2 = 1. e √ Ejemplo 4.4140625 f (x1 ) = 2 f (x2 ) = 0. Si f : [a. b1 ] = [1. . b4 ] = [1. b3 ] = [1. b6 ] = [1. 3]. f (x7 ) = 0.421875 x8 = 1. .´ ´ 1. Se tiene f (1) = −1 < 0 < f (3) = 7 y con un gr´fico de a f podemos asegurar que no hay otra ra´ positiva. b5 ] = [1. . Fue necesario hacer ocho o √ pasos para obtener cuatro cifras exactas ( 2 = 1. Del an´lisis hecho en general sab´ a ıamos que. 1. el m´todo de bisecci´n e o genera una sucesi´n xn tal que.4375] [a7 . 2 2 Resumiendo. b2 ] = [1. b] → IR es continua y f (a)f (b) < 0 entonces.022 . e o es decir no hace falta derivabilidad como en otros m´todos que veremos mas adelante. Teorema 4. 2 Una de las ventajas que tiene el m´todo de bisecci´n es que converge para cualquier f continua. 1.375.4142 . hemos demostrado. 1. . 1.40625. 1. METODO DE BISECCION.375 x5 = 1. Tenemos que an−1 + bn−1 2 xn = entonces 1 b−a |r − xn | ≤ (bn−1 − an−1 ) ≤ n . b−a (2) |r − xn | ≤ n .25 x4 = 1.4375 x6 = 1.375.3.25 f (x3 ) = −0. 2] [a2 . o (1) xn → r con f (r) = 0. . vemos que la aproximaci´n lograda tiene 4 cifras exactas. . . . [a1 .2.

b] → IR continua que verifica o f (a)f (b) < 0 (entonces existe una ra´ r. se tiene. f (b)) tiene ecuaci´n: o y − f (a) = f (b) − f (a) (x − a). como se hace con el m´todo de bisecci´n). 2 La recta L. y as´ sucesivamente. que la ra´ es unica en ese intervalo. ∼ ≤ .68 ´ 4. o e a En cada paso la cota del error.005 . que veremos en la pr´xima secci´n. . b] = I1 . 8 2 2 128 √ | 2 − x8 | 1 5 √ √ ≤ 0. b]. en [a. 2. se reduce a la mitad. por ejemplo en compae o raci´n con el m´todo de Newton-Raphson que veremos m´s adelante. f (a)) con (b. (b − a)/2n . b−a |en+1 | ≤ n . que tenemos una funci´n f : [a. . RESOLUCION DE ECUACIONES NO LINEALES. que une los puntos (a. Entonces el error relativo es √ b−a 2 1 | 2 − x8 | ≤ = 8 = . Supongamos f (b)f (x1 ) < 0. . 2 En consecuencia se reduce 1 10 en tres o cuatro pasos (se gana una cifra en tres o cuatro pasos). x1 = a − f (a) af (b) − bf (a) (b − a) = f (b) − f (a) f (b) − f (a) Si f (x1 ) = 0 entonces f (a)f (x1 ) < 0 o bien f (b)f (x1 ) < 0. por el teorema de Bolzano) y supongamos ız. definimos x2 con el mismo procedimiento anterior con el intervalo [x1 . pero sin embargo xn → r para toda f continua. b−a Como x1 es el valor de x que cumple y = 0. 1000 2 128 2 La desventaja del m´todo de bisecci´n es que converge muy lentamente. ız ´ Definimos x1 como la intersecci´n de la recta secante L con el eje x (en lugar de tomar el o e o promedio b−a . nuevamente. ı Observemos que puede suceder que |In | no tienda a cero. e o e o o Supongamos. M´todo regula falsi e Este m´todo llamado “regula falsi” o de falsa posici´n puede verse tanto como una variante del e o m´todo de bisecci´n como del m´todo Newton-Raphson.

1. o Descripci´n anal´ o ıtica de m´todo de Newton-Raphson. ı o Observemos que hace falta que f sea derivable. Luego se traza la tangente por x1 y se toma x2 la intersecci´n de la tangente con o el eje x. ız. puede ocurrir que la sucesi´n que a o produce este m´todo no sea convergente.´ 3. 69 Método de Regula Falsi: tres iteraciones Solución exacta | | a f(x) x1 x2 b Figura 4. b]. METODO DE NEWTON-RAPHSON. Esto ultimo se puede ver gr´ficamente con el ejemplo e ´ a que muestra la Figura 4. Sin embargo veremos que el m´todo converge muy r´pidamente si x0 est´ “suficientemente cerca” e a a de una ra´ bajo condiciones bastante generales sobre la funci´n f . Adem´s. se toma x1 tal que f (x0 ) + (x1 − x0 )f (x0 ) = 0 tal que f (xn ) + (xn+1 − xn )f (xn ) = 0 Y en general. e Sea f : [a. M´todo de Newton-Raphson. Se traza la tangente en x0 y se define x1 como la intersecci´n de la tangente o con el eje x. se toma xn+1 . Esto genera una sucesi´n xn como muestra la Figura 4. x0 ∈ [a. e La idea del m´todo es “ir por la tangente” como se describe a continuaci´n. 3. y as´ sucesivamente.2.3. b] → IR derivable. e o Se empieza con x0 .

Método de Newton−Raphson f(x) x2 x 1 x0 Figura 4.3.3. o sea. xn+1 = xn − f (xn ) f (xn ) Observemos que para que esto tenga sentido. a . f(x) x1 x0 x2 Figura 4. hay que suponer f (xn ) = 0.2. RESOLUCION DE ECUACIONES NO LINEALES.70 ´ 4. esto es obvio gr´ficamente como muestra la figura 4.

f (r) = 0. estudiamos la expresi´n en = xn − r y vemos si en → 0. a o e Usando el desarrollo de Taylor de orden 2 centrado en la ra´ r se tiene. 71 Ahora analicemos la convergencia del m´todo. ız 1 0 = f (r) = f (xn ) − (xn − r)f (xn ) + (xn − r)2 f (ξ) 2 donde ξ es un valor intermedio entre xn y r. METODO DE NEWTON-RAPHSON.4. es decir.´ 3. e ız f (r) = 0 y supongamos que f es acotada. o Recta tangente a f en x0 f(x) x x0 Figura 4. Debemos estimar el error que se comete al usar xn en lugar de la soluci´n exacta (y desconocida) o r. Esto es. Para analizar la convergencia del error miramos la sucesi´n recursiva o f (xn ) f (xn ) − r = en − f (xn ) f (xn ) en+1 = xn+1 − r = xn − entonces en+1 = en f (xn ) − f (xn ) f (xn ) (4.1) Observemos que si f (r) = 0 entonces f (xn ) = 0 para xn cercano a r (esto lo justificaremos con m´s precisi´n despu´s). Entonces . Sea r una ra´ simple de f .

2) obtenemos |e1 | = |x1 − r| ≤ λ|e0 |. (de convergencia) Si r es un cero simple de f (i. b] y r ∈ [a. entonces existe un ε > 0 tal que si x0 ∈ Iε = [r − ε. el m´todo de Newton e empezando en x0 converge a r. An´logamente. Corolario 4. En particular. Finalmente.5. podemos elegir ε > 0 tal que 1M ε = λ < 1. Como las cotas para f y f siguen siendo ciertas para cualquier subintervalo de o I. RESOLUCION DE ECUACIONES NO LINEALES. Como 0 < λ < 1 se tiene que |en | → 0 si n → ∞.3) se obtiene de (4. x1 ∈ Iε .2).1 queda 1 f (ξ) 2 e 2 f (xn ) n en+1 = (4. Teorema 4.72 ´ 4. si x0 ∈ Iε tenemos que |e0 | = |x0 − r| < ε y usando (4. 2 δ Entonces. obtenemos una sucesi´n (xn )n∈I ⊂ Iε tal que o N |en | ≤ λn |e0 |.4. f (r) = 0) y sea I = [r − α. Demostraci´n. r + α] un intervalo tal que |f (x)| ≥ δ > 0 y |f (x)| ≤ M en I.e. a |e2 | = |x2 − r| ≤ λ|e1 | ≤ λ2 |e0 | y x2 ∈ Iε . Entonces. Continuando de esta manera. la desigualdad (4. r + ε] ⊂ I y se tiene que |en | → 0 y |en+1 | ≤ siempre que x0 ∈ Iε . b]. 1M |en |2 . 1 en f (xn ) − f (xn ) = f (ξ)e2 n 2 Reemplazando en la igualdad 4. b] es una ra´ simple de ız f .3) . Existe ε > 0 tal que Iε = [r − ε. Si f es continua y f es acotada en [a. r + ε] ⊂ [a. 2 δ (4.2) Con todo esto podemos demostrar el siguiente teorema.

es decir. Para eso necesitamos la siguiente o ´ Definicion 4.´ 3. p = 2.4.6. Esto es.3) podemos asegurar que existe C > 0 tal que |en+1 | ≤ C|en |2 de la igualdad (4. Ahora estamos en las condiciones del teorema 4. asint´ticamente. Sin embargo. La convergencia para el m´todo de Newton-Raphson es cuadr´tica. si se obtiene una desigualdad de la forma |en+1 | ≤ C|en |p podemos asegurar que el orden de convergencia es por lo menos p. Este resultado de convergencia es “local”. Esta es la gran ventaja del m´todo de Newton. Si bien. en general. Por otra parte. es decir. converge a o e a la soluci´n exacta. Ahora. ız Ahora. ´ Observacion 4. queremos estudiar la r´pidez con la que una sucesi´n generada por un m´todo. b]) que tiene a o r ∈ [a. En la pr´ctica es un tema dif´ determinar lo que es a ıcil “suficientemente cerca”. r + α] ⊂ [a. b] y |f (x)| > δ para todo x ∈ I. METODO DE NEWTON-RAPHSON. b] como ra´ simple. o sea. El n´mero de cifras correctas se duplica (esene u cialmente) en un paso. el teorema garantiza la convergencia si se empieza “suficientemente cerca” de r. lo que se expresa como |en+1 | ∼ C|en |p . Para valores grandes de n. a .2) se deduce que el m´todo. 73 Demostraci´n. el m´todo de Newton e funciona en forma excelente (incluso en N variables) y es de los m´s usados. converge cuadr´ticamente. en e a cada paso el error se reduce cuadr´ticamente (o sea es menor o igual que el cuadrado del error a del paso anterior). existen α > 0 y δ > 0 tales que I = o [r − α. veamos que significa ´sto a e geom´tricamente.5 es una funci´n C 2 ([a. Un caso particular del corolario 4.7. se puede considerar que e o el comportamiento de las sucesiones |en+1 | y |en |p son equivalentes. En general podemos definir que un m´todo es de orden p si e |en+1 | = cte n→∞ |en |p lim |en+1 | =0 n→∞ |en |p−ε lim y Observemos primero que cuanto m´s grande sea p mejor. se combinan unos pasos del m´todo de bisecci´n para e o encontrar un intervalo en el que se aplique el Teorema 4. Muchas veces.4. Como f (r) = 0 y f es continua. con e a la desigualdad (4.

as´ sucesivamente.C. x5 = 1. Luego p es un n´mero entre y a. Comentario. Es claro que la unica ra´ es r = 0. Es decir. x2 = 1. . . . Lo que se pretende con este ejemplo es mostrar alguna de las dificultades a ´ ız tener en cuenta cuando se aplica el m´todo de Newton.414213562 . Compae o remos el resultado con el que se obtuvo al aplicar el m´todo de bisecci´n. r = 0.8.833 .41499843 .4621212 .74 ´ 4. mientras que con e a bisecci´n en ocho pasos ten´ o ıamos cuatro cifras exactas.9..41421378 . Como segundo ejemplo veamos que sucede con f (x) = x3 . .414213562 . La sucesi´n que produce este m´todo e o e es: x3 2 n = xn 3x2 3 n xn+1 = xn − Entonces 2 |en+1 | = |en | 3 . . . . RESOLUCION DE ECUACIONES NO LINEALES. . los Babilonios usaban el siguiente m´todo para “calcular” n e p √ p √ √ √ el n´mero p si p ∈ IN. o ı 2 a 2 − p.C. u u a a 1 p Entonces.4) x3 = 1. consideraban el promedio (a + ) como primera aproximaci´n.4). Como antes la funci´n e o o es f (x) = x2 − 2 y elegimos x0 = 3. aplicando el m´todo de Newton una aproximaci´n de 2. Observemos que √ 2 = 1. con cinco pasos del m´todo tenemos m´s de diez cifras exactas. Ejemplo 4. √ Ejemplo 4. Tenemos xn f (xn ) x2 − 2 1 = = xn − n + f (xn ) 2xn 2 xn xn+1 = xn − Y aplicando esto obtenemos x0 = 3 x1 = 1. Hacia el a˜o 2000 a. . Si a > p se tiene que < p. Calculemos. de 1669 d. x4 = 1. . (4. . Comparar Esto coincide con el m´todo de Newton. . aplicado a la funci´n x e o con (4.

Digamos. e Ahora veamos un teorema de convergencia global para el m´todo de Newton que se aplica a e funciones convexas. la hip´tesis que no se cumple es la derivabilidad de f . si existe. Una funci´n se dice convexa en (a.. 75 En este caso. que lo alcanza en x∗ . 1 1 f (x) = |x|− 2 . f puede tener un valor m´ o ınimo. En este caso.´ 3. Si seguimos el proceso que genera xn desde un x0 inicial vemos que la sucesi´n es: o x0 → −x0 → x0 → −x0 → . en este ejemplo. Ahora. 2 La sueci´n que produce el m´todo se escribe como o e x≥0 x < 0.  xn+1 = xn − 2 xn 1 1 −2 xn 2 1 = xn − 2xn = −xn . Si la funci´n es dos veces derivable esto a e o corresponde con la condici´n f > 0. Consideremos la funci´n o o  √  x f (x) = con r = 0.   f (x) = Es decir. entonces xn+1 = −xn < 0 y xn+2 = −xn+1 > 0.10. Un c´lculo sencillo permite ver que f no es derivable en la ra´ En cualquier otro valor se tiene a ız. METODO DE NEWTON-RAPHSON. Supongamos que xn > 0.  √ − −x 1 −1 2 2x 1 −1 2 2 (−x) x>0 x < 0. b) si la recta tangente al gr´fico de f o a est´ por debajo de ´ste para todo los x en el intervalo. observamos que la convergencia es lineal y no es cuadr´tica. salvo que comencemos en la ra´ (con lo cual no necesitar´ ız ıamos de un m´todo para e hallarla) se tiene que xn es positivo o negativo. . Este es un ejemplo donde el m´todo de Newton-Raphson no converge.. el m´todo de Newton no converge para ning´n x0 por m´s e u a cerca de r = 0 que est´. Conclu´ ımos que. Lo que sucede es que a no se verifica la hip´tesis de que r sea una ra´ simple (f (r) = 0 en este caso). En este e caso. o ız Ejemplo 4.

. M´todo de punto fijo e El m´todo de Newton puede verse como un caso particular del m´todo de punto fijo. su inter´s e e radica en su extensi´n a IRN .76 ´ 4. Es decir. por ejemplo. la iteraci´n de Newton nunca ir´ a la izquierda. Veamos que converge a una ra´ de f . el problema se reduje a encontrar puntos fijos de o g. o e o Esto puede hacerse de diversas maneras. Teorema 4. e Demostraci´n.. 13 1 g1 (x) = g2 (x) = (13x − 18) 3 . o o ız f Supongamos que xn → α.. RESOLUCION DE ECUACIONES NO LINEALES. en este caso no hace falta e pedir que x0 est´ cerca de r. entonces el m´todo de Newton-Raphson converge para todo x0 = x∗ . > r y entonces la sucesi´n xn converge pues es mon´tona. > xn > ... e e La idea es reemplazar la ecuaci´n f (x) = 0 por otra de la forma x = g(x) de manera que la o soluci´n de ´sta sea la soluci´n del problema original. se elige un x0 y despu´s se toma o o e .11. Sea f dos veces derivable en [a. es decir. o 4. r tales que r = g(r).. b] tal que f > 0 (f es convexa).2). luego tomando l´ ımite en la expresi´n xn+1 = xn − f (xn )) y usando o (xn que f es continua queda f (α) α=α− f (α) de d´nde f (α) = 0 y α = r pues supusimos f mon´tona. o o Si bien este teorema es bastante claro geom´tricamente para funciones definidas en IR. ver figura 4. o a Si x0 > r entonces r < x1 < x0 y en general x0 > x1 > x2 > . si f (x) = x3 − 13x + 18 podemos tomar g(x) como cualquiera de las siguientes funciones x3 + 18 . g3 (x) = 13x − 18 . Si p´rdida de generalidad podemos suponer que f es “mon´tona” (si estamos a o e o la derecha de x∗ . Se define una sucesi´n por iteraci´n. x2 Una vez encontrada g una funci´n continua.

tomando l´ ımite y usando que g es continua se tiene que si xn → r entonces r = g(r). o sea g es Lipschitz o con constante λ. r2 con r1 = r2 .´ 4. . En efecto. O sea.5) Observemos que si la sucesi´n generada por (4. r1 . Teorema 4. Como g(I) ⊂ I se tiene que a ≤ g(a) ≤ b y a ≤ g(b) ≤ b. Entonces |xn+1 − r| = |g(xn ) − g(r)| ≤ λ|xn − r| y de aqu´ como λ < 1 se tiene que ı. Si g es adem´s derivable y |g (x)| ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces g tiene a un unico punto fijo. Demostraci´n.5) xn converge. (4. e Teorema 4. F (a) > 0 o y F (b) < 0 y como F es continua existe un r en I tal que 0 = F (r) = g(r) − r. entonces lo hace a un punto fijo o de g. Sea I = [a. Entonces la funci´n F (x) = g(x) − x cumple. se tiene una acotaci´n en t´rminos de |x1 − x0 | que es o e conocido. la sucesi´n generada iterativamente converge y se puede dar una o o cota del error en t´rminos de λ. La hip´tesis sobre la derivada de g implica que |g(x) − g(y)| ≤ λ|x − y|. Si hay dos puntos fijos. |xn − r| ≤ λn |x0 − r| → 0.14.12. Sea g tal que |g (x)| ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces la sucesi´n xn definida o por xn+1 = g(xn ) converge al unico punto fijo de g y adem´s. Demostraci´n. Teorema 4. b] si g(I) ⊂ I entonces g tiene al menos un punto fijo en I. g(a) − a > 0 y g(b) − b < 0. METODO DE PUNTO FIJO 77 xn+1 = g(xn ). ´ a (1) |xn − r| ≤ λn |x0 − r| λn (2) |en | ≤ 1−λ |x1 − x0 |. Por el teorema anterior sabemos que existe un unico punto fijo de g que llamamos o ´ r. Si no. ´ Demostraci´n. si a = g(a) o b = g(b) o listo. o Bajo estas mismas hip´tesis. tenemos o |r1 − r2 | = |g(r1 ) − g(r2 )| = |g (ξ)(r1 − r2 )| ≤ λ|r1 − r2 | < |r1 − r2 | una contradicci´n.13.

o La figura 4. Si r es un punto fijo de g con |g (r)| < 1 este intervalo I existe. RESOLUCION DE ECUACIONES NO LINEALES. Entonces (1 − λ)|x0 − r| ≤ |x1 − x0 | y como |xn − r| ≤ λn |x0 − r| se obtine la estimaci´n 2). |x0 − r| ≤ |x0 − x1 | + |x1 − r| ≤ |x0 − x1 | + λ|x0 − r|. En particular demostramos que xn → r.5 muestra gr´ficamente como se genera una sucesi´n por el m´todo de punto fijo. a o e En dicho gr´fico 0 < f (x) < 1. resultado que probamos en el siguiente teorema. Por otra parte. . Para aplicar el teorema 4.14 hay que garantizar que g(I) ⊂ I (o sea primero hay que encontrar un tal I).5. intercalando x1 y usando desigualdad triangular.78 ´ 4. a y=x f(x) x 1 x 3 x4 x2 x0 Figura 4.

Si |g (r)| < 1. La idea es la misma que en e o el m´todo “regula falsi”. f (xn−1 )) y (xn . r ∈ (a. M´todo de la secante e En este m´todo tenemos que xn+1 es funci´n de xn y de xn−1 . |g(x) − r| = |g(x) − g(r)| ≤ K|x − r| ≤ Kε < ε o sea. xn+1 = xn − f (xn ) xn − xn−1 . Entonces. b) un punto fijo de g. o ∀x ∈ Iε = (r − ε. e Observemos que la iteraci´n del m´todo de la secante tambi´n puede escribirse como o e e . entonces existe ε > 0 tal que la iteraci´n es convergente siempre que x0 ∈ Iε = (r − ε. pero este m´todo es diferente pues se usan las dos e e ultimas aproximaciones xn−1 y xn en lugar de encerrar la ra´ como en “regula falsi”. f (xn ) − f (xn−1 ) Observemos que esta f´rmula es an´loga a la de Newton reemplazando f por un cociente o a incremental. que la convergencia de la sucesi´n es m´s lenta que la que u o a produce el ´todo de Newton. La ecuaci´n de la secante que une los puntos (xn−1 . r + ε). as´ xn+1 verifica o ı. METODO DE LA SECANTE 79 Teorema 4. existe una constante K < 1 y un ε > 0 tales que |g (x)| < K. ıcil La desventaja es. g(Iε ) ⊂ Iε . 5.´ 5. La ventaja es que no hay que calcular la derivada de f (esto es de gran ayuda en un caso en que f sea dif´ de calcular). ∀x ∈ Iε . Para ´ ız empezar hay que dar dos valores x0 y x1 . r + ε) (por la continuidad de g ). g continua en (a. seg´n veremos. f (xn ) − f (xn−1 ) xn − xn−1 0 = f (xn ) + (xn+1 − xn ) es decir. b).15. y podemos aplicar el teorema anterior en Iε . Como |g (r)| < 1. trazar la secante. f (xn )) es o f (xn ) − f (xn−1 ) xn − xn−1 y = f (xn ) + (x − xn ) entonces se define xn+1 como la intersecci´n de esta recta con el eje x. o Demostraci´n.

6) f [a. xn ] en+1 = −en en−1 . b] = Segunda diferencia : f (b) − f (a) = f (ξ). f (xn ) − f (xn−1 ) . f (xn ) − f (xn−1 ) Analicemos el orden de convergencia de este m´todo. Tenemos e u o f (r) = 0 y en = r − xn .7. e f [xn−1 . f (xn )xn−1 − f (xn−1 )xn f (xn ) − f (xn−1 ) en+1 = r − xn+1 = r − = = en−1 f (xn ) − en f (xn−1 ) f (xn ) − f (xn−1 ) en−1 (f (xn ) − f (r)) − en (f (r) − f (xn−1 )) f (xn ) − f (xn−1 ) n )−f −en en−1 f (xxn −r (r) + en en−1 f (r)−f (xn−1 ) xn−1 −r = Es decir.80 ´ 4. en+1 = en en−1 Definamos ahora las diferencias. f [xn−1 . Primera diferencia : f (xn−1 )−f (r) xn−1 −r − f (r)−f (xn ) xn −r f (xn ) − f (xn−1 ) . c−a Entonces el error del m´todo de la secante verifica. (4. Luego. b−a f [a. r. c] = f (c)−f (b) c−b − f (b)−f (a) b−a . b. seg´n la definici´n 4. xn+1 = f (xn )xn−1 − f (xn−1 )xn . xn ] . RESOLUCION DE ECUACIONES NO LINEALES.

7) y evaluando en η se obtiene o 0 = g (η) = f (η) − 2f [a. c] = f (η). b.´ 5. 1 f [a. |f | ≤ K en un entorno de r y x0 . . c]. ı derivando dos veces la expresi´n (4. b. b. a a Sea g(x) = f (x) − f (a) + f [a. es decir existe ε > 0 tal que si x0 . entonces en → 0. c](x − a)(x − b) Se ver´ m´s adelante que este polinomio es el polinomio interpolador de grado dos. g(b) = 0 y g(c) = 0. c] = f (η). b](x − a) + f [a. b.16 a nuestra expresi´n de en+1 dada en (4.6) queda o f (ηn ) en en−1 f (ξn ) y de ac´ se puede deducir la convergencia local. x1 ∈ Iε = (r − ε. a en+1 = − a Teorema 4. o f (x) = f (a) + f [a. x1 est´n suficientemente cerca de r. 2 Aplicando el lema 4. es decir. b. METODO DE LA SECANTE 81 Lema 4.16. Ahora.17. b](x − a) + f [a. Despreciamos el resto y nos quedamos con el polinomio de grado 2: f (a) + f [a.7) Entonces g se anula en por lo menos dos puntos y de ah´ que existe η con g (η) = 0. c](x − a)(x − b) g cumple que g(a) = 0. b. 2 Demostraci´n. b](x − a) + f [a. r + ε). (4. c](x − a)(x − b) + Resto. 1 f [a. Si f (r) = 0.

si llamamos c∞ a cn → c∞ = Supongamos que f (r) = 0. 2δ 2δ Y podemos concluir por inducci´n que o |e4 | ≤ |en | ≤ λn−1 ε → 0.82 ´ 4. Existe ε > 0 tal que |f | > δ en Iε . Buscamos p tal que |en+1 | = C = 0. de esta forma c∞ = 0. ten´ e ıamos 1 f (ηn ) ||en ||en−1 | = cn |en ||en−1 |. x1 ∈ Iε tenemos que o K K |e1 ||e0 | ≤ ε2 2δ 2δ y si ahora pedimos (quiz´s achicando el ε) que a |e2 | ≤ K ε=λ<1 2δ nos queda que |e2 | ≤ λε < ε y entonces x2 ∈ Iε . Demostraci´n. n→∞ |en |p lim Tenemos . 2 f (r) |en+1 | = | − y adem´s. 2 f (ξn ) al l´ ımite de cn tenemos 1 f (r) . entonces si x0 . RESOLUCION DE ECUACIONES NO LINEALES. Veamos el orden de convergencia del m´todo de la secante. Ahora bien |e3 | ≤ K K |e2 ||e1 | ≤ λε2 ≤ λ2 ε 2δ 2δ K K |e3 ||e2 | ≤ ελ2 ελ ≤ λ3 ε.

O sea.618. Entonces.. yn converge al punto fijo de la ecuaci´n x = c∞ x o 1 −p (esto es cierto porque p > 1 y se 1 p ve directamente escribiendo la iteraci´n). EJERCICIOS 83 |en+1 | = cn |en |1−p |en−1 | = cn |en |p Si α = 1 − p y αp = −1. Entonces nos queda que o |en+1 | 1 f (r) ∼ p |en | 2 f (r) para n grande. o 6.. y como p > 0.. entonces p es soluci´n de o p2 − p − 1 = 0. 2 Con esta elecci´n de p tenemos que o |en+1 | |en |p cumple la iteraci´n de punto fijo (salvo que cn es variable pero converge a c∞ ). en o 2 2 y en−1 se tiene |en−1 |p ∼ |en−1 |p |en−1 |. Luego p > 0 tiene que ser √ soluci´n de p2 − p − 1 = 0 y entonces p = 1+2 5 = 1. |en−1 |p −p−1 ∼ cte. Ejercicios (1) Usar el m´todo de bisecci´n para hallar una ra´ positiva de la ecuaci´n trascendente: e o ız o 2x = tan(x) ¿Cu´ntos pasos hay que hacer para garantizar que el error sea menor que 10−5 ? a 2 . √ 1+ 5 p= = 1. |en | |en−1 |p α .. El punto fijo es x = c∞ . o yn = −1 yn+1 = cn yn p . 1 p . Ahora veamos una idea intuitiva de la demostraci´n directamente.6.. o sea p − p2 = αp = −1.618. o Si suponemos |en+1 | ∼ |en |p tenemos |en+1 | ∼ |en |p ∼ |en−1 |p y de la relaci´n entre en+1 .

Probar que si x0 > rd la sucesi´n de N-R converge a rd . (b) Con las mismas hip´tesis. probar que la iteraci´n de N-R o generada a partir de x0 ∈ (a. donde gcd indica el m´ximo com´n divisor. f. se propone el siguiente m´todo que aproxima los valores de e todas sus ra´ ıces: |ai (i) Se comienza con un valor x0 mayor que M = max{1. f ).84 ´ 4. para hallar las otras ra´ ıces.3 para el segundo. (ii) Se genera a partir de x0 la sucesi´n de N-R. ad = 0. donde f (x) = ex − 2. el m´todo para hallar una aproximaci´n de ´sta. f son positivas. f . x0 ). RESOLUCION DE ECUACIONES NO LINEALES. obteni´ndose de este ız a e e modo un valor aproximado rd . o (4) Demostrar que la ecuaci´n o f (x) = ex + 5 sin x − 2 = 0 tiene una unica ra´ en el intervalo (0. o (a) Suponiendo que en (a. comenzando e e con los valores iniciales x1 = 3 para el primer m´todo e y1 = 3. y2 = 2. . Se desea utilizar el m´todo N-R para resolver la ecuaci´n f (x) = 0. y cu´ndo se obtienen ciclos peri´dicos. mostrar que r es ra´ de f . dado que rd ∼ rd . seg´n el ´ o u ıtem anterior. si x1 ∈ (a. 3 ). converge a la ra´ m´s grande de P . Recordar que una ra´ m´ltiple de un polinomio f es una ra´ simple del polinomio ız u ız f / gcd(f. x1 converge decrecientemente hacia a. que. o (b) Para un polinomio P ∈ IR[x]. para cu´les es divergente. d−1 |ad|| } (Dato: M i=0 es una cota para el m´dulo de todas las ra´ o ıces del polinomio). Aplicar este m´todo para aproximar todas las ra´ e ıces del polinomio P (x) = 2x3 − 4x + 1. ız Sea f una funci´n suave. Analizar el comportamiento del m´todo en los casos e (a) α ≥ 1 (b) α = 1 (c) α = 1 3 2 (a) Sea f (x) = (x − r1 )(x − r2 ) . b]. ¿Cu´l es el orden de convergencia? e o e a x Considerar la funci´n f (x) = o . ˜ ˜ ˜ (iii) Se divide P por x − rd y se desprecia el resto. (x − rd ) donde r1 < r2 < · · · < rd . probar que la sucesi´n generada por el o o m´todo de la secante a partir de x0 . e o comenzando con x0 > 0. tal que sus d ra´ ıces son reales y distintas. (2) Hacer un programa en Matlab que ejecute los primeros 20 pasos de los m´todos de e bisecci´n y Regula-Falsi para hallar una ra´ de la ecuaci´n 2x3 + x − 2 = 0 comenzando o ız o con el intervalo [0. Hacer un programa en Matlab a u (5) (6) (7) (8) (9) (10) (11) . Supongamos que xn converge a r y f (r) = 0. Encontrar las cotas necesarias de |f | y |f | ´ ız 2 para determinar un valor inicial de modo que el m´todo N-R converja a la ra´ Aplicar e ız. 1]. a Sea f una funci´n C 1 y sea (xn )n∈IN la sucesi´n que se obtiene de aplicar el m´todo o o e N-R a f . Determinar para qu´ valores de x0 la iteraci´n e o 1 + |x| N-R es convergente. para calcular 2 comenzando con valores iniciales apropiados. Calcular los 10 primeros o t´rminos de las sucesiones generadas por los m´todos N-R y de la secante. a a o Se quiere resolver la ecuaci´n f (x) = 0. b) converge decrecientemente hacia a. y a tal que f (a) = 0. llam´mosla rd . Se redefine ahora P como el resultado de esta divisi´n y se comienza nuevamente desde o el primer ´ ıtem. e Sea f (x) = xα . e Graficar simult´neamente las dos sucesiones obtenidas. P (x) = ad xd + · · · + a0 . (3) Hacer un programa en Matlab√ que ejecute los primeros 20 pasos de los m´todos de e 3 bisecci´n y N-R. y f (a) = 0. .

a o comenzando con x0 ∈ [s. f )). y) = 3x7 + 2y 5 − x3 + y 3 − 3. y0 = 1 y proceder por incrementos en x de 0. comenzando en e o x0 = 0. b]. x2 − y 2 − 3 = 0 comenzando con valores iniciales (x0 . (16) Resolver cos(x) = 2x. se verifica que 0 ≤ g (x) ≤ K < 1 para todo x ∈ [s. Comenzar la tabla en e x0 = 0. . En cada paso se obtiene el valor de yn+1 aplicando el m´todo N-R a la funci´n e o G(xn+1 . f ) para hallar la ra´ m´ltiple de e ız u f (x) = (x − 1)(x − 2)2 . a (14) Se quiere aplicar el m´todo N-R para dar una tabla de valores de la funci´n y(x) definida e o impl´ ıcitamente por la ecuaci´n G(x.F (xk ). 1). o a o e ´ste converge (aunque no tan velozmente como cuando la ra´ m´ltiple se halla como e ız u soluci´n de f / gcd(f. y0 que verifican e x0 = a y G(x0 . donde (DF |xk )−1 es la inversa de la matriz diferencial de F evaluada en xk . (15) Dada F : IRn → IRn el m´todo N-R generalizado consiste en realizar la iteraci´n e o vectorial xk+1 = xk − (DF |xk )−1 . b]. o El m´todo consiste en comenzar la tabla en un par de valores x0 . y) = x2 + y 2 − 1 = 0. La ecuaci´n f (x) = 0 tiene una ra´ doble. EJERCICIOS 85 que aplique el m´todo N-R a f (x) y a f (x)/ gcd(f. a pesar que la funci´n f no est´ en las hip´tesis del m´todo N-R. Usar la versi´n generalizada a varias variables del m´todo N-R para para resolver o e el sistema de ecuaciones 2x − 3y = 0. Si o adem´s.2 hasta llegar a x50 = 10. e o (b) ¿Cu´l es el orden de convergencia de la siguiente modificaci´n? a o xn+1 = xn − 2 f (xn ) f (xn ) o ız (13) Sea f (x) = 4x3 − 3x + 1 = 0. y) = 0 en un intervalo [a. esta o elecci´n del valor inicial se supone apropiada. b]. Utilizar distintos valores para el incremento y para la cantidad de iteraciones del m´todo N-R en cada paso. y0 ) = 0 y proceder por incrementos en x hasta llegar al valor xN = b. y) donde y es la variable y xn+1 permanece fijo. donde s es un punto fijo de g. y0 ) = (2. Aproximarla calculando las 10 primeras iteraciones de los m´todos N-R y N-R con la modificaci´n e o del ejercicio anterior. comenzando con los valores iniciales x1 = y1 = 25. mostrar que la iteraci´n. x > 0 comenzando con x0 = 0. Demostrar que. Graficar junto con la soluci´n que se o obtiene de despejar anal´ ıticamente y comparar. Graficar simult´neamente las dos sucesiones obtenidas. converge decrecientemente a s. o (a) Aplicar el m´todo para la ecuaci´n G(x. (17) Sea g una funci´n tal que g es continua en [s. las sucesiones obtenidas y comparar. Graficar. e (b) Aplicar el m´todo para G(x.6. Dado que la funci´n y(x) se supone continua. usando Matlab. 1]. y0 = 1 para valores de x en [0.5 y utilizando: (a) La iteraci´n de punto fijo xn+1 = 1 cos(xn ) o 2 e (b) El m´todo N-R. o (12) Para f una funci´n C 2 que tiene una ra´ de orden 2 en x0 : o ız (a) Demostrar que el m´todo N-R converge s´lo linealmente a x0 . con valor inicial el valor de yn obtenido en el paso anterior. b].

(i = 1. h(x) = 3 x + 1. x (a) Dibujar la gr´fica de f y determinar el n´mero de ra´ a u ıces de la ecuaci´n f (x) = 0. se construye el siguiente algoritmo o para aproximar la ra´ r = 1: ız xn+1 = 2 − 1/xn (a) Verificar que si x0 > 1 entonces la sucesi´n {xn } es mon´tona decreciente y acotada o o inferiormente por 1.86 ´ 4. √ g(x) = x3 − 1. (a) Determinar cu´les de estas funciones son apropiadas para la iteraci´n. RESOLUCION DE ECUACIONES NO LINEALES. Concluir que xn → 1. Se consideran las dos siguientes iteraciones de m´todo de punto e fijo. ız (b) Para cada una de las siguientes funciones: 1 8x − 1 f1 (x) = (1 + xex ). 2). a o (b) Para las que s´ lo sean: ı • Determinar un intervalo inicial I en el cual el m´todo converja. (20) Dada la funci´n f (x) = x + 1/x − 2. Estudiar si estas sucesiones convergen hacia alguna de las ra´ ıces de f = 0. Mostrar (21) Sea f una funci´n C o e f (x) que el m´todo N-R es un m´todo de punto fijo. e • Dar un valor inicial x0 ∈ I y la cantidad de iteraciones necesarias para aproximar la ra´ de f con error menor que 10−5 comenzando con el x0 ız dado. o localizando cada ra´ entre dos enteros consecutivos. n ∈ IN. f : IR>0 → IR. estimar las ra´ (19) Sea f (x) = x3 − x − 1. Sea g(x) = x − f (x) . aunque esta iteraci´n no est´ en las o a hip´tesis del teorema del punto fijo. (18) Sea f : IR>0 → IR definida como f (x) = 8x − 1 − ex . ıces con estos dos m´todos. ¿Qu´ hip´tesis no se cumple? o e o (b) Dar un algoritmo para aproximar la ra´ de f que converja cuadr´ticamente. ız a 1 en las condiciones del m´todo N-R. e e . e (c) Utilizando Matlab. f2 (x) = ln 8 x consideramos el siguiente m´todo iterativo: dado x0 = 1 sea e xn+1 = fi (xn ).

queremos encontrar un polinomio tal que o p(xj ) = yj . . Interpolaci´n de Lagrange o En lo que sigue. Vamos a basar nuestra demostraci´n e ´ o en la Base de Lagrange que es una base de polinomios que construimos a continuaci´n. el polinomio interpolante puede utilizarse para reconstruir una funci´n f a partir de una tabla de valores. . . . . Queremos poder modelizar o dicha funci´n a por medio de un polinomio. Por ejemplo. Por otra parte. . lo que recibe el nombre de interpolaci´n polinomial. y0 y1 y2 . (5. como veremos m´s o o e a adelante. . o Analizaremos distintos m´todos para resolver este problema y estudiaremos el error que se e comete al reemplazar una funci´n por un polinomio interpolante.1) y adem´s veremos que si el a polinomio es de grado menor o igual que n. o o Una forma de hacer ´sto es construir los polinomios de manera que coincidan con la funci´n e o dada en algunos puntos predeterminados.1) Nuestro primer paso ser´ dar un resultado b´sico que establece que ´sto es posible. si n ∈ IN0 . . incluyendo el polinomio nulo. .CAP´ ıTULO 5 Interpolaci´n o El objetivo de este cap´ ıtulo es estudiar c´mo puede aproximarse una funci´n por polinomios. j = 1. n. ´ste es unico. . 1. . . o Base de Lagrange: Para cada punto xj . ∀j = 0. . . xn y 0 (x0 ) = 1. llamaremos Pn al conjunto de polinomios de grado menor o igual que n. Mostraremos a a e una forma concreta de hallar un polinomio p que verifique (5. . buscamos un polinomio de grado n que se anule en todos los xi salvo xj donde queremos que valga 1. o Hay diversos motivos para estudiar este problema. n. 1. 0 ser´ un polinomio a en Pn tal que se anula en x1 . es o una herramienta fundamental para integraci´n y diferenciaci´n num´rica. . Es decir. . Supongamos que se sabe que la tabla de valores (xj ): (yj ): x0 x1 x2 . xn yn corresponde con datos de una funci´n continua que se desconoce. Por un lado.

. Vale destacar que estos polinomios s´lo dependen de los datos {x0 . . (5. . . .2) Los polinomios { 0 . .. donde α es una constante que se elige ıces i=1 de modo que 0 (x0 ) = 1. yn existe un unico polinomio pn ∈ Pn tal que ´ pn (xj ) = yj . Dados x0 . Demostraci´n. n. Veamos que es unico. 1 .. . ∀j = 0. . . Supongamos que hay ´ dos polinomios pn . . . .1). . (x0 − xi ) i=1 De manera an´loga. xn son ra´ de 0 . . n. . . x1 .1. . .3) obteniendo un polinomio pn ∈ Pn que verifica (5. . el polinomio a j ∈ Pn tal que j (xi ) = δij = 1 i=j 0 i=j estar´ dado por a (x − xi ) j (x) = i=j (xj − xi ) i=j (5. .xn y valores y0 . n } se conocen como la base de Lagrange. 0 (x) = α n (x − xi ). . pn − qn es el polinomio nulo. o Teorema 5. yi ). Entonces pn − qn es un polinomio de grado menor o igual que n con n + 1 ra´ ıces distintas. . . .88 ´ 5. es decir. n. . . xn }. qn ∈ Pn que interpolan la tabla de pares (xi . . . . para cada j = 1. INTERPOLACION Como x1 . Usando la base de Lagrange definimos o n pn (x) = j=0 yj j (x). . Imponiendo esta condici´n obtenemos o n (x − xi ) 0 (x) = i=1 n . . esto es (pn − qn )(xj ) = 0 ∀j = 0. .

. f ∈ Pn y los valores yj = f (xj ). . . xn ) o ´ es inversible. si (a0 . . (1) La escritura (5. . Para ver que existe una soluci´n (a0 . . .´ 1. xn 0 xn 1 . xn n a0 a1 . entonces f = pn (la interpolaci´n o es exacta para polinomios). (3) Si los datos corresponden con una funci´n f que es un polinomio de grado menor o o igual que n. Ahora. . . . . El polinomio ser´ de la forma a pn (x) = a0 + a1 x + · · · + an xn y se buscan a0 . . an     =   y0 y1 . . . es suficiente mostrar que en cada xj . INTERPOLACION DE LAGRANGE 89 ´ Observacion 5. . . . yn 1 xn x2 · · · n La matriz de la izquierda se llama matriz de Van der Monde y como s´lo depende de los datos o {x0 . . . . . . xn ). . esto es inmediato. xn )) u tendr´ ıamos . . (2) El polinomio pn puede tener grado estrictamente menor que n. . e Otra forma de demostrar la existencia (y de encontrar el polinomio) es por el m´todo de los e coeficientes indeterminados. an ) ∈ N u(V (x0 . si q es un polinomio cualquiera.2. .3) se llama forma de Lagrange del polinomio interpolador. Al evaluar. . xn } suele notarse por V (x0 . si se considera la tabla de 5 valores (xj ): (yj ): -4 -2 0 1 3 9 5 1 -1 -5 El polinomio de grado menor o igual que 4 que interpola la tabla es p4 (x) = −2x + 1. . . . el polinomio p(x) = (−2x + 1) + q(x)(x + 4)(x + 2)x(x − 1)(x − 3). Esto equivale a ver que el n´cleo es nulo. Gracias a la unicidad. an ) y que es unica hay que ver que la matriz V (x0 . Por ejemplo. . queda formado un sistema (n + 1) × (n + 1)                  1 x0 1 x1 . . an tales que pn (xj ) = yj . x2 · · · 0 x2 · · · 1 . . tambi´n interpola la tabla dada arriba. Si se permite ´ mayor grado hay infinitos. (4) El polinomio que interpola en n + 1 puntos distintos es unico en Pn . como se trata de un polinomio de grado 1. . p4 toma el valor yj . . Por ejemplo.. es decir. . .

b].6 0. (11 puntos equiespaciados) o 2. + an xn = 0 ∀j = 0. el a error num´rico = 1. o x1 .8 1 Figura 5. . es decir pn verifica que pn (xj ) = f (xj ) ∀j = 0. xn } es que. j j Entonces a0 = .2 0 −0. . INTERPOLACION a0 + a1 xj + a2 x2 + . Interpolaci´n de f (x) = x 3 en [−1. = an = 0 (pues un polinomio de grado n no nulo no puede tener n + 1 ra´ ıces distintas).4 0.2 −0.8 −0. . .4886.4 −0. el polinomio interpolador a encontrar ser´ un a polinomio pn ∈ Pn que coincida con f en dichos puntos.. .4 0. xn ∈ [a. e 1. podemos pensar que un polinomio de grado par o ser´ una buena elecci´n. La Figura 5..1 muestra el gr´fico de f junto con el polinomio interpolante a o a p que se obtiene al considerar 11 puntos equiespaciados.2 0. . Ejemplo 5. . .6 0. 1] por un polinomio.. . . n.2 2 1 0. n. el error que se obtiene es grande como puede observarse en el gr´fico.2 0 0. Si consideramos la diferencia m´xima a entre f y el polinomio p evaluados en una malla suficientemente fina (puntos equiespaciados con distancia h = 0. son n + 1 puntos distintos.01). . Para que este o reemplazo tenga alguna validez num´rica es importante conocer una estimaci´n del error que e o .1.8 0.90 ´ 5. . . Error de interpolaci´n o Cuando los datos obtenidos corresponden con datos de una funci´n f definida en [a. 2 La ventaja de obtener un polinomio que interpole a una funci´n f de la cual s´lo se conocen o o sus valores en los puntos {x0 .4 −0. .3.6 −0. .6 −1 −0. . 1]. el polinomio. o Si tenemos en cuenta la paridad de la funci´n. arroja una f´rmula que permite o sustituir la funci´n f y hacer evaluaciones en puntos diferentes a los conocidos. Se quiere interpolar la funci´n f (x) = x 3 en el intervalo [−1. . . b] y x0 . .

es decir. . Es decir. b] y pn ∈ Pn el polinomio interpolador de f en x0 . xn . En consecuencia. b].4. Notar que En (xj ) = 0 y Wn+1 (xj ) = 0 para todo j. Llamemos a este error: En (x) = f (x) − pn (x). Fijado x definimos la siguiente funci´n de t. damos una expresi´n para En (x). Se quiere interpolar la funci´n f (x) = cos(x)3 en el intervalo [−3. Como F (n+1) (t) = f (n+1) (t) − (n + 1)!α Se obtiene. Entonces F se anula en los n + 2 puntos x0 . por el teorema de Rolle.´ 2. b]. . x. . . Wn+1 (x) = (x − x0 ) · · · (x − xn ) Teorema 5. ERROR DE INTERPOLACION 91 se comete. b) tal que F (n+1) (ξ) = 0. . damos el primer paso para poder estimar el error cometido. f (x)−pn (x) Wn+1 (x) . O sea. Por lo tanto. F al menos n ceros y as´ siguiendo se tiene que existe un punto ı ξ ∈ (a. o Ejemplo 5. x ∈ [a. xn . podemos o suponer x = xj . f (x) − pn (x) f (n+1) (ξ) = (n + 1)! Wn+1 (x) lo que concluye la demostraci´n. . existe ξ ∈ [a.5. xn puntos del intervalo [a. (n + 1)! En (x) = f (x) − pn (x) = Demostraci´n. . . b]. Observemos que para todo j. α = Wn+1 (x) = 0. que est´ bien definida pues a F (xj ) = f (xj ) − pn (xj ) − αWn+1 (xj ) = 0. tal que f (n+1) (ξ) Wn+1 (x). ξ = ξ(x). 3] por un o polinomio. . o F (t) = f (t) − pn (t) − αWn+1 (t) donde α se elige de modo que F (x) = 0. . Sean f ∈ C n+1 [a. Para cada x ∈ [a. Para ´sto ser´ necesario suponer que la funci´n f verifica algunas condiciones de e a o suavidad. Con el siguiente teorema. o Dados los puntos x0 . . b]. utilizaremos la notaci´n Wn+1 para designar al polinomio m´nico o o de grado n + 1 que se anula en esos puntos. . . F tiene al menos n + 1 ceros.

en Pn . . x1 ] = Segunda diferencia dividida f [x0 . ...4303.6 −0. x1 . . 3]. . . . a o 4 3 2 1 0 −1 −2 −3 −4 −5 −6 −1 −0. xn−1 .25) se obtiene un error num´rico menor que 10−6 . que interpola a una funci´n f en x0 .2. x2 ] = f [x1 . (10 puntos equiespaciados) o 3. En esta construcci´n aparecen las diferencias divididas o o que presentamos a continuaci´n.8 1 Figura 5. en e una figura como la anterior.01) se tiene un error de 0. . xn−1 . o La forma de Newton del polinomio interpolador puede verse como una generalizaci´n del polio nomio de Taylor asociado a una funci´n. En este caso. Tan s´lo al considerar 25 puntos equiespaciados (tomados o a intervalos de longitud 0. x1 ] .2 0 0.6 0.2.4 −0. que es el que se obtiene como diferencia m´xima entre f e a y el polinomio evaluados en una malla suficientemente fina (puntos equiespaciados con paso h = 0. xk .4 0. los gr´ficos del polinomio y la funci´n se confunden. .8 −0.92 ´ 5. ı .2 0. Forma de Newton La forma de Newton es conveniente para calcular el polinomio. xn una vez conocido el polinomio interpolador de f en x0 . INTERPOLACION Si se eligen 10 puntos equiespaciados se obtiene un polinomio como muestra la Figura 5. . . Si consideramos el error num´rico. x2 ] − f [x0 . o Primera diferencia dividida f [x0 . . x1 − x0 As´ sucesivamente se define la diferencia de orden k asociada a los puntos x0 . x2 − x0 f (x1 ) − f (x0 ) . . Interpolaci´n de f (x) = cos(x)3 en [−3.

. Como en el caso n = 1. xk ] − f [x0 . . . xk−1 ] . Iterando este procedimiento desde k = 1 hasta k = n − 1 se obtiene la forma de Newton pn (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + . o a Por ejemplo si n = 1. . . . p1 (x1 ) = f (x1 ) . . xk − x0 La construcci´n de la forma de Newton se basa en la siguiente idea. FORMA DE NEWTON 93 f [x0 . . Por otra parte. p1 (x) = a0 + a1 (x − x0 ) y como p1 (x0 ) = f (x0 ) tenemos a0 = f (x0 ) Si n = 2. xk . . . Observemos que como el t´rmino agregado no modifica el valor de pk en x0 . pk+1 tambi´n e e interpola a f en esos puntos independientemente del valor de ak+1 . . . . x1 ]. xk ] = f [x1 . . . . xk escribimos pk+1 ∈ Pk+1 como pk+1 (x) = pk (x) + ak+1 (x − x0 ) · · · (x − xk ). . . + an (x − x0 ) · · · (x − xn−1 ) En lo que sigue veremos que los aj resultan ser las diferencias divididas y por lo tanto esta expresi´n es an´loga al polinomio de Taylor. . Una vez obtenido pk ∈ Pk o que interpola a f en x0 . .3. . . podemos elegir f (xk+1 ) − pk (xk+1 ) ak+1 = (xk+1 − x0 ) · · · (xk+1 − xk ) de modo que pk+1 (xk+1 ) = f (xk+1 ). de las igualdades p1 (x0 ) = f (x0 ) y p1 (x1 ) = f (x1 ) queda a1 = f [x0 . p2 (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ).

que interpola a f en los puntos x0 . x2 − x0 a2 = El mismo argumento puede aplicarse para demostrar el siguiente teorema. x1 . . . An´logamente. xn } y consideramos pn y pn+1 como en o o (5. . . x1 . r(x) = En consecuencia.4) No s´lo los coeficientes del polinomio interpolador pueden expresarse en t´rminos de las difereno e cias divididas. x1 ] = f [x0 . se tiene la siguiente expresi´n o del error En (x) = f (x) − pn (x) = f [x0 . Entonces. . el polinomio (x − x0 )q1 (x) − (x − x2 )p1 (x) x2 − x0 tiene grado menor o igual que 2 y verifica r(xj ) = f (xj ) para j = 0. x1 se escribe como p1 (x) = f (x0 ) + f [x0 . INTERPOLACION a0 = f (x0 ) Veamos ahora que a1 = f [x0 . Demostraci´n. . a Teorema 5. si q1 (x) ∈ P1 interpola a f en x1 . x2 ](x − x1 ). (x − xn−1 ) (5. . x2 tenemos. sino tambi´n el error como lo muestra el siguiente teorema. 1. . x]Wn+1 (x). x2 ]. x1 ](x − x0 ). . x1 ](x − x0 ) + · · · + f [x0 .4).94 ´ 5. e Teorema 5. Sabemos ya que el polinomio p1 (x) que interpola a f en x0 . Agregamos xn+1 a la sucesi´n {x0 . . El polinomio pn ∈ Pn .6. igualando los coeficientes de x2 de r y p2 se obtiene f [x1 . xn . 2. Por lo tanto. xn . . . . . . x2 ]. xn ](x − x0 ) . . . a q1 (x) = f (x1 ) + f [x1 . Si pn ∈ Pn interpola a f en los puntos x0 . x2 ] − f [x0 . entonces se tiene . . . xn est´ dado por pn (x) = f (x0 ) + f [x0 . x1 ]. a2 = f [x0 . . coincide con p2 . . .7.

fue resuelto por Tchebychev en el siglo XIX introduciendo una sucesi´n de polinomios. .4 concluye la demostraci´n.4 nos dice que el error depende de f n+1 en alg´n punto del intervalo y de los puntos u xj a trav´s del polinomio Wn+1 (x) = (x − x0 )(x − x1 ) · · · (x − xn ). . En (x) = f (x) − pn (x) = f [x0 . . la idea es elegir los puntos de o o o manera tal que Wn+1 (·) ∞ sea m´ ınima. POLINOMIOS DE TCHEBYCHEV . xn+1 ]Wn+1 (xn+1 ). x]Wn+1 (x). . Corolario 5. Evaluando en x = xn la expresi´n del error En−1 = f −pn−1 . . es decir ξ entre x0 . . . .8. b] a o mediante un cambio de variables. . por . . . xn tal que f (n) (ξ) f [x0 . . Dados x0 . dada por el teorema o o anterior tenemos. . .Minimizaci´n del Error o Una pregunta natural es c´mo elegir los puntos de interpolaci´n para optimizar la aproximaci´n. . xn+1 ](x − x0 ) · · · (x − xn ) = pn (x) + f [x0 . que en principio parece complicado. Este problema. . Por lo tanto f (xn+1 ) = pn+1 (xn+1 ) = pn (xn+1 ) + f [x0 . xn ](xn − x0 ) · · · (xn − xn−1 ) lo que junto con la f´rmula del error dada en el Teorema 5. . . .´ 4. . . . x1 ](x − x0 ) + · · · + f [x0 . Los polinomios de Tchebychev se definen para k = 0. . . . . Para simplificar la presentaci´n resolveremos el problema para funciones definidas en el intervalo o [−1. xn puntos distintos. . De aqu´ se deduce que el error satisface ı En (xn+1 ) = f (xn+1 ) − pn (xn+1 ) = f [x0 . . . . . que hoy o llevan su nombre. 1]. . xn+1 ]Wn+1 (x). Como se pretende obtener e una buena aproximaci´n sin tener informaci´n sobre la funci´n f . . . . xn+1 ]Wn+1 (xn+1 ). M´s adelante veremos que se puede trasladar la construcci´n a cualquier intervalo [a. o o 4. . Como tomamos xn+1 cualquier punto distinto de x0 . . . 2. o o o El Teorema 5. En−1 (xn ) = f [x0 . Polinomios de Tchebychev .MINIMIZACION DEL ERROR 95 pn+1 (x) = f (x0 ) + f [x0 . xn ] = . . . . xn se tiene para todo x. xn . . existe ξ intermedio. . n! Demostraci´n. 1.

5 −1 −1 −0. es decir. Polinomios de Tchebychev . Algunos ejemplos que siguen a T0 y T1 cuyos gr´ficos se muestran en la figura 5. Pero esto puede verse utilizando identidades trigonom´tricas.5 0 0 −0.5 −0.1 son a T2 (x) = 2x2 − 1.5 1 −1 −1 −0.5 1 Figura 5.5 −1 −1 −0.5) T4 (x) = 8x4 − 8x2 + 1. T3 (x) = 4x3 − 3x.5 −0. si ponemos x = cos θ resulta Tk+1 (x) = cos((k + 1)θ) = 2 cos θ cos(kθ) − cos((k − 1)θ). π] → [−1.5 0.5 0. INTERPOLACION Tk (x) = cos(k cos−1 x) donde cos−1 es la inversa de cos : [0.5 0 0.3. n=3 1 1 (5. T5 (x) = 16x5 − 20x3 + 5x n=4 0. 1]. En efecto.5 0 0 −0. Tk+1 (x) = 2xTk (x) − Tk−1 (x).5 1 n=5 1 1 n=6 0. En principio no es evidente que Tk sea un polinomio.5 0 0.5 0 0.96 ´ 5. T1 (x) = x y como cos(α + β) + cos(α − β) = 2 cos α cos β. e T0 (x) = 1.5 1 −1 −1 −0.5 0 0.

1]. sobre o a los puntos yi = cos( iπ ). La primer afirmaci´n puede verse de la relaci´n de recurrencia (5. 1. o o o Como Tk (x) = cos(k cos−1 x). Adem´s. Adem´s. las ra´ ıces pertenecen al intervalo [−1.´ 4. Es decir. 1].10. los ceros de Tn+1 son los puntos de interpolaci´n que hay que elegir para minimizar la expresi´n (x − x0 ) . 1] y son de la forma xi = cos (2i + 1)π 2k para i = 0. . . ı. . o Teorema 5.MINIMIZACION DEL ERROR 97 Los polinomios de Tchebychev tienen las siguientes propiedades. (2) Las ra´ ıces del polinomio Tk se encuentran en el intervalo [−1. . 1. . POLINOMIOS DE TCHEBYCHEV . Ahora s´ estamos en condiciones de enunciar y probar el resultado que anticipamos. . −1 y por lo tanto la norma es k exactamente 1. . para i ∈ Z Z. ∞ = |Tk (yi )| = 1 para yi = cos( iπ ) k Demostraci´n. k − 1 se obtienen todas. ´ Proposicion 5. Tk alcanza los valores 1 y -1 en k + 1 puntos. (1) El coeficiente principal de Tk es 2k−1 . o o Supongamos que existe un polinomio P ∈ Pn+1 . . es decir. . entre todas las posibles elecciones de n + 1 puntos en [−1. a Tk con i = 0. Tk toma alternativamente los valores 1. . Sea Tk el polinomio de Tchebychev de grado k. Entre todos los polinomios m´nicos de grado n + 1. . m´nico tal que o P < Wn+1 ∞. Tk (x) = 0 si y s´lo si el argumento es m´ltiplo impar de π . k cos−1 (x) = (2i + 1) π 2 x = cos( (2i+1) π ) k 2 ambas afirmaciones de 2 quedan probadas. son todas distintas. . (x − xn ) ∞ que o o aparece en la f´rmula del error. 1] y variando los valores de i = 0. Es o u 2 decir. (3) Tk ∞ = 1. Es decir. . Demostraci´n. ∞ . Como el coeficiente principal de Tn+1 es 2n se tiene que Wn+1 es m´nico. o ∞ Wn+1 ∞ ≤ P ∞. k − 1. basta notar que |Tk (x)| ≤ 1 por ser imagen de la funci´n coseno. Para probar 3.5). para todo k ∈ IN. En particular. k. . o 1 Wn+1 (x) = n Tn+1 (x) 2 minimiza la norma en [−1. O sea.9. si P ∈ Pn+1 y es m´nico entonces.

resulta que Q tiene al menos n + 1 ceros.1). el polinomio Q(x) = P (x) − Wn+1 (x) tiene al menos un cero en el intervalo (yi .1408. .yi+1 ] .98 ´ 5. Esto es una contradicci´n pues acabamos de ver que Q tiene n + 1 ra´ o ıces distintas. Pero tanto P como Wn+1 son polinomios de grado n + 1 y ambos son m´nicos de donde se deduce que Q tiene grado a o lo sumo n.3). aunque no lo haremos aqu´ que la desigualdad del ı. ´ Observacion 5. ´ Ejemplo 5. de la desigualdad (5.8 −0.2 0 −1 −0. Se quiere aproximar la funci´n f (x) = x 3 en el intervalo [−1. .6 0. o sea. teorema es estricta. 2 . Esto es. P L∞ [yi . Puede demostrarse.4 0. |Wn+1 (x)| alcanza su m´ximo (que es 21 ) en los n + 2 puntos o a n iπ yi = cos( n+1 ). Supongamos. INTERPOLACION Por la proposici´n anterior.8 1 Figura 5. i = 0.11. n + 1.6) se sigue que a P (yi ) < Wn+1 (yi ) y que P (yi+1 ) > Wn+1 (yi+1 ). en cada subintervalo se mantiene la relaci´n o 1 = Wn+1 L∞ [yi .8 0.6) 2n Por otra parte. Interpolaci´n de f (x) = x 3 en los ceros de T11 o Si se eligen los nodos como los ceros de T11 se obtiene un polinomio como muestra la Figura 5.6 −0. (5. . Wn+1 alcanza la norma infinito en cada uno de estos subintervalos. o Es decir el minimizante es unico. que Wn+1 (yi ) > 0 (en el caso contrario se procede de manera an´loga).4 (comparar con Figura 5. Entonces. Wn+1 (yi ) = −Wn+1 (yi+1 ).2 0. Entonces. e (comparar con Ejemplo 5.4 0. En este caso el error num´rico cometido es menor que 0. Luego.2 0 0.yi+1 ] < Luego.6 0. un tal P no puede existir. . 2 1 0.12. por ejemplo. yi+1 ) y como hay n + 2 valores de yi .4 −0. 1] por un polinomio o que la interpole en 11 puntos. Wn+1 ∞ < P ∞ si P = Wn+1 es un polinomio m´nico P ∈ Pn+1 .4. si restringimos Wn+1 a [yi . yi+1 ].

5)x(x − 0. se sobre estima el error en un factor de 10.11232 ∼ 4.MINIMIZACION DEL ERROR 99 Veamos ahora como se aplica el Teorema 5.8) = 0. Basta observar que Wn+1 = o ∞ ≤ 1 2n Tn+1 f (n+1) (ξ) f (n+1) (ξ) Wn+1 (x) = n Tn+1 (x). ıdo Comencemos observando que f (5) (x) = 243e3x y por lo tanto 243e3 4880. f (x) − pn (x) = Ejemplo 5. el resultado se sigue del hecho de que |Tn+1 (x)| ≤ 1.8) − p4 (0. 5! 5! 5! Si interpolamos f en cinco puntos equiespaciados tenemos que W5 (x) = (x + 1)(x + 0. (n + 1)! 2 (n + 1)! donde ξ ∈ [−1. Ahora.8)| = 0.79 0. o Teorema 5.79 |E4 (0. . . 1] → IR dada por f (x) = e3x .4591 . .13.54.7 para acotar el error cuando se usan las ra´ ıces de Tn+1 como puntos de interpolaci´n. entonces |W5 (0. POLINOMIOS DE TCHEBYCHEV . Notar que en este caso.2544. 5! |(f − p4 )(0.14. Si pn ∈ Pn es el polinomio que interpola a f en las ra´ ıces de Tn+1 entonces.5)(x − 1).8) al usar el polinomio interpolador de grado 4 constru´ con puntos equiespaciados y con los ceros del polinomio T5 . interpolamos usando los ceros de T4 .8) = f (0. La cota que se obtiene de la f´rmula de error es o 4880.8)| = 0.8)| ≤ = 2. Entonces.11232 y usando la f´rmula del error obtenemos o 4880. 1]. 2n (n + 1)! para obtener f − pn Demostraci´n.8)| ≤ Cuando en realidad |E4 (0. 1]. Queremos comparar las cotas del error que se produce al estimar el valor de f (0.´ 4. f (n+1) ∞ .79 f (5) ∞ ≤ ≤ . Sea f : [−1.57. Sea f ∈ C n+1 [−1. 5!24 mientras que E4 (0.

Antes de proceder con algunos comentarios finales estudiemos el an´logo al Ejemplo 5. Por lo tanto 2(x − a) −1 b−a 2(x − a) − 1 es la transformaci´n mencioo b−a Tk (x) = Tk (t) = Tk = cos k cos−1 2(x − a) −1 b−a es un polinomio de grado k que tiene propiedades an´logas a Tk pero ahora en el intervalo [a. b].100 ´ 5.5 (comparar con Figura 5. b] al intervalo [−1.15. En efecto. . Se quiere aproximar la funci´n f (x) = cos(x)3 en el intervalo [−3. . Al elegirse como nodos los ceros de T10 se obtiene un polinomio como muestra la Figura 5. Ejemplo 5. o Comentarios: . es f´cil ver que el cambio de variables t = a nada. (3) Los ceros de Tk (x) son de la forma xj = b−a cos 2 (2j + 1)π 2k + b+a 2 ∀j = 0. INTERPOLACION Observemos que tanto el error como su estimaci´n se reducen aproximadamente la mitad que o en el caso de puntos equiespaciados. b]. k − 1. 3] por un o polinomio que la interpole en los ceros de T10 . (4) Interpolando en los ceros de Tn+1 1 Wn+1 (x) = n 2 b−a 2 n+1 Tn+1 (x) y Wn+1 ∞ 1 = n 2 b−a 2 n+1 obteni´ndose.16.5 consia derando como nodos los ceros del correspondiente polinomio de Tchebychev. la cota del error e |f (x) − pn (x)| ≤ f (n+1) ∞ (n + 1)!2n b−a 2 n+1 . . . e Comparar con Ejemplo 5. En este caso el error num´rico cometido es menor que 4 × 10−3 . a En particular se tiene: (1) La relaci´n de recurrencia: o Tk+1 (x) = 2 2(x − a) − 1 Tk (x) − Tk−1 (x) b−a 2 (2) El coeficiente principal de Tk (x) es 2k−1 ( b−a )k . para x ∈ [a. b].2). 1] nos permite dar o los polinomios de Tchebychev correspondientes al intervalo [a. Una traslaci´n lineal del intervalo [a.5 en el que se interpola la misma funci´n en 10 puntos equiespaciados. ´ Observacion 5.

es decir.2 0 −0. o entonces f − pn L∞ [a.8 0. en norma infinito. Interpolaci´n de f (x) = cos(t)3 en [−3. si se eligen puntos equidistribuidos o en el intervalo [−1. .8 −1 −3 −2 −1 0 1 2 3 Figura 5. POLINOMIOS DE TCHEBYCHEV . cualesquiera sean los puntos de interpolaci´n.4 puede demostrarse que si f es una funci´n entera. 3]. . M´s a´n puede a u demostrarse el siguiente Teorema. puede demostrarse que si la funci´n f es derivable o f (x) = f − pn ∞ →0 (n → ∞). . Por ejemplo. O sea.4 −0. admite desarrollo de Taylor convergente en todo IR.4 0. o (2) No podemos asegurar convergencia uniforme. 1] se sabe que el error no tiende a cero para la funci´n de Runge o 1 1 + 25x2 (3) El comportamiento de la interpolaci´n en los puntos de Tchebychev es mucho mejor. puede verse que existe f continua tal que f − pn ∞ → 0. (4) La interpolaci´n en los puntos de Tchebychev no converge para cualquier funci´n cono o tinua.6 −0. es decir.´ 4. o Por ejemplo. (Faber) Dados puntos x0 0 x1 x1 0 1 x2 x2 x2 0 1 2 x3 x3 x3 x3 0 1 2 3 .6 0.5. si se cambia la hip´tesis f entera por f ∈ C ∞ (IR).MINIMIZACION DEL ERROR 101 1 0.b] → 0 (n → ∞).2 −0. (en los ceros de T10 ) o o (1) A partir de la f´rmula del error dada en el Teorema 5.

+ o mk = n + 1. donde pn es el polinomio 5. xk y m0 . Para simplificar la notaci´n ponemos h = (x1 − x0 ). b]. n 0 ∞ → 0. (ii) p (x0 ) = f (x0 ). . o Se busca un polinomio p ∈ P3 que cumpla (i) p(x0 ) = f (x0 ). . . . Como {1. Ahora hay que determinar a2 y a3 para que se cumplan las dos condiciones restantes. cualquier polinomio en P3 se puede escribir de la forma p(x) = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + a3 (x − x0 )2 (x − x1 ). existe un unico polinomio p ∈ Pn que satisface ´   p(x0 ) = f (x0 ). .  . x − x0 . Teorema 5. . p (xk ) = f (xk ). . p k k No haremos una demostraci´n de este teorema pero para dar una idea mostramos la construcci´n o o del polinomio interpolador en un caso particular.    p(x1 ) = f (x1 ). .102 ´ 5. . . donde adem´s puede verse c´mo se generaliza a o la definici´n de diferencias divididas para valores de xi no todos distintos. . . . mk ∈ IN0 tales que m0 + . M´s en a a general. h a2 = . . (iv) p (x1 ) = f (x1 ).    (mk −1) (x ) = f (mk −1) (x ). (x − x0 )2 . . . . entonces se tiene o p(x1 ) = a0 + ha1 + h2 a2 = f (x0 ) + f (x0 )h + a2 h2 Para que se satisfaga la condici´n (iii) debe ser o f (x1 ) − f (x0 ) − f (x0 )h = h2 f (x1 ) − f (x0 ) − f (x0 ) h 1 . Por ejemplo. xn .17. . se tiene el siguiente teorema que fue probado por Hermite. . p (x1 ) = f (x1 ). . . . puede buscarse un polinomio p que interpole a f en determinados puntos y que adem´s p coincida con f en algunos de esos puntos. . (ii) se satisfacen si y solo si a0 = f (x0 ) y a1 = f (x0 ). . puntos x0 . (x − x0 )2 (x − x1 )} forman una base de P3 por ser todos de distinto grado. INTERPOLACION arbitrarios en [a. . p(m0 −1) (x0 ) = f (m0 −1) (x0 ). p(xk ) = f (xk ). existe f continua tal que f − pn interpolador en xn . Dada una funci´n f . Interpolaci´n de Hermite o En algunos casos interesa tambi´n considerar junto con los valores de una funci´n f datos e o relacionados con sus derivadas. . (iii) p(x1 ) = f (x1 ). . . . Las condiciones (i). p (x0 ) = f (x0 ). . p(m1 −1) (x1 ) = f (m1 −1) (x1 ). .

x1 ]h h2 1 (f [x1 . x1 ](x − x0 )2 + f [x0 . x1 − x0 p3 (x) = f [x0 ] + f [x0 . x1 ] − f [x0 . x1 ](x − x0 )2 (x − x1 ). Por ultimo. INTERPOLACION DE HERMITE 103 Observemos que limx1 →x0 f [x0 . x0 ] = x1 − x0 f (x1 ) − f (x0 ) − f (x0 ) h 1 h f [x0 . x1 ] = y por lo tanto. o f [x0 . x0 . x1 ] − f [x0 . x0 ] = f (x0 ). Esto generaliza la forma de Newton para xi no todos distintos. debemos elegir a3 para que se cumpla ´ f (x1 ) = a1 + 2a2 h + a3 h2 = f (x0 ) + 2f [x0 . x0 . x0 ](x − x0 ) + f [x0 . queremos que p (x1 ) = f (x1 ). x1 . x1 ] + f [x0 . hemos demostrado que el unico polinomio en P3 que satisface las condiciones ´ pedidas es 1 f (x1 ) − f (x0 ) − 2f [x0 . . x1 ]h) h2 1 (f [x1 . o a3 = = = = = O sea a3 = f [x0 . x1 . x0 . x0 . x1 ] − f [x0 . x0 . x0 . x0 . x0 ] − 2f [x0 . x0 . x1 ]h + a3 h2 de d´nde. x1 ] − f [x0 . x1 ]) h f [x0 . Entonces. x1 ] + f [x0 . x0 . de la definici´n de segunda diferencia dividida. En consecuencia. x1 ] = f (x0 ) por lo que resulta natural generalizar la primer diferencia dividida poniendo f [x0 . x1 ]. x1 ] − f [x0 . x0 . x1 ] . x0 ] − 2f [x0 . a2 = f [x0 . x1 . x0 . x0 . x1 ]. x1 . De esta manera se obtiene. x1 ]h) h2 1 (f [x0 . x1 ] − 2f [x0 .´ 5.

De esta manera se parte el intervalo de manera tal que en cada subintervalo se elige un polinomio distinto que interpole los datos. la funci´n de Runge f (x) = o f ∞ 1 . quedan poligonales. 2 b−a n . Puede verse que 1 + 25x2 = 50. usando el Teorema tenemos 5. . Sea f : [−1. xj = a + jh con h = f ∈ C 2 [a. En consecuencia. b] → IR definimos la funci´n interpolante qn (x) tal que o qn |[xj . xj+1 ].4 f (ξj ) (x − xj )(x − xj+1 ). a = x0 < x1 < x2 . al interpolar con polinomios de grado uno a trozos.xj+1 ] ∈ P1 . Por ejemplo. b] en subintervalos [xj . b] y cualquier x ∈ [xj . Dada f : [a. Interpolaci´n por polinomios a trozos o En muchos casos para lograr una mejor aproximaci´n es conveniente utilizar funciones polinoo miales a trozos como interpolantes. 1] → IR. Consideremos el caso de puntos equiespaciados o sea. aproximando por poligonales obtenemos . Aproximación por poligonales f(x) p2 p 1 p6 p3 p5 p4 | x 0 | x1 | x2 | x3 | x4 | x5 | x6 Figura 5. .2 Partimos el intervalo [a. INTERPOLACION 6. xj+1 ].18. < xn = b. Para cualquier f (x) − qn (x) = Entonces f 2 f − qn cuando n → ∞. ∞ ≤ ∞ h2 f = 4 8 ∞ (b − a)2 →0 n2 Ejemplo 5.104 ´ 5.

. puede obtenerse un aproximante C 2 . Splines c´ bicos. o a ´ Teorema 5.´ 6. S y S sean continuas en [a.19. Una cuenta an´loga o a puede hacerse en el caso general para ver que la cantidad de coeficientes a determinar supera en dos al n´mero de condiciones. S1 (x2 ) = S1 (x2 ). Por ejemplo si n = 3. Esto no puede lograrse aproximando por poligonales y por lo tanto es necesario aumentar el grado de los aproximantes. Vamos a ver que. Dada f ∈ C[a. si se utilizan los mismos puntos. a S0 (x0 ) = f (x0 ). O sea.xj+1 ] ∈ P3 . seis condiciones. Elegiremos esta ultima ´ opci´n por ser m´s simple. es decir. Veamos cu´ntas condiciones se tienen que satisfacer. Un m´todo cl´sico es el corrospondiente a grado tres. interpolando por poligonales obtenemos una aproximaci´n mucho mejor o que la que se obtiene interpolando con un polinoimio. S1 (x1 ) = f (x1 ). b] tal que   S(xj ) = f (xj )  S| [xj . x2 tenemos cuatro a condiciones mas. en este caso. splines c´bicos. u Luego. S2 (x2 ) = f (x2 ). INTERPOLACION POR POLINOMIOS A TROZOS 105 f − qn ∞ ≤ f 8 ∞ 2 n 2 = 25 . . en total diez condiciones para doce inc´gnitas. u En muchos problemas interesa aproximar por funciones derivables. . 0≤j≤n . de esta e a u manera. si hay soluci´n habr´ infinitas pues tenemos dos coeficientes para fijar arbitrariamente. b] y a = x0 < x1 < x2 . Si adem´s queremos S y S continuas en x1 . o a Lo natural entonces es fijar S (x0 ) y S (xn ) o bien S (x0 ) y S (xn ). b] y a = x0 < x1 < x2 . b] y adem´s se verifique a S(xj ) = f (xj ) para 0 ≤ j ≤ n y S |[xj .xj+1 ] ∈ P3 con S (a) = S (b) = 0. < xn = b. . Tenemos que verificar. existe un unica S ∈ C 2 [a. n2 Luego. como Sj ∈ P3 tenemos 4 × 3 = 12 coeficientes a determinar. S2 (x3 ) = f (x3 ). S0 (x1 ) = S1 (x1 ). < xn = b buscamos S tal que S. Dada f ∈ C[a.

. para x ∈ [xj . . Sj se o escribe como xj+1 − x x − xj Sj (x) = yj + yj+1 0 ≤ j ≤ n − 1. INTERPOLACION Demostraci´n.106 ´ 5. . Derivando. Para que S sea continua e interpole a f tenemos que elegir cj . dj son constantes a determinar que provienen de la integraci´n.7). si S (xj ) = yj . que S sea continua. Para j = 0. reemplazando en (5. para cada 0 ≤ j ≤ n − 1 yj yj+1 Sj (x) = (xj+1 − x)3 + (x − xj )3 + 6hj 6hj + f (xj+1 ) yj+1 hj − hj 6 (x − xj ) + f (xj ) yj hj − hj 6 (xj+1 − x). y utilizando la notaci´n ∆fj = f (xj+1 ) − f (xj ). es decir. cj y dj . dj tal que Sj (xj ) = f (xj ) y Sj (xj+1 ) = f (xj+1 ). o o sea Sj (xj ) = Sj−1 (xj ) 1≤j ≤n−1 . . hj hj Veremos que es posible encontrar valores yj de tal forma que se cumplan las condiciones requeridas para S. o Observemos que para cualquier elecci´n de yj . o Por lo tanto resta ver que esas constantes pueden elegirse de manera que se verifiquen las otras condiciones requeridas sobre S. S resulta continua por ser poligonal. obtenemos cj = f (xj+1 ) yj+1 hj − hj 6 y dj = f (xj ) yj hj − hj 6 0≤j ≤n−1 y por lo tanto. Integrando dos veces obtenemos. con 0 ≤ j ≤ n − 1 Sj (x) = yj yj+1 (xj+1 − x)3 + (x − xj )3 + cj (x − xj ) + dj (xj+1 − x) 6hj 6hj (5. xj+1 ]. de lo que.7) donde cj . n − 1 usaremos la notaci´n o o Sj = S |[xj . obtenemos o Sj (x) = − yj yj+1 ∆fj hj (xj+1 − x)2 + (x − xj )2 + − (yj+1 − yj ) 2hj 2hj hj 6 y tenemos que elegir yj para que se cumpla la condici´n que falta. La funci´n S buscada debe cumplir que S es una poligonal.xj+1 ] y hj = xj+1 − xj . Por lo tanto.

EJERCICIOS 107 de lo que resulta que las n + 1 inc´gnitas yj deben ser soluci´n del siguiente sistema de n − 1 o o ecuaciones. . . γn−1      y1 y2 . ··· 0 0 . . como A es diagonal estrictamente dominante. yn y.7. hj−1 yj−1 + 2(hj + hj−1 )yj + hj yj+1 = bj con ∆fj ∆fj−1 − hj hj−1 bj = 6 Como tenemos dos inc´gnitas m´s que ecuaciones. yn−1   b1 − h0 y0 b2 . 0 h1 γ2 . . lo que concluye la demostraci´n. . x y x y -1 -1 -1 -3 0 3 0 1 2 11 1 1 3 27 2 3 (2) Repetir el problema anterior. Aumentar las tablas de diferencias divididas y calcular los polinomios interpoladores. bn−1 − hn−1 yn          =   donde γi = 2(hi + hi−1 ). . usando el m´todo de coeficientes indeterminados. . yn . y emplearlas para construir los polinomios interpoladores. entonces es inversible. . . e      γ1 h1 . . 7. calcular el polinomio p(x) interpolador de grado menor o igual que 3. usando el comando polyval. o a pasando los t´rminos correspondientes al lado derecho. Verificar utilizando el comando polyfit de Matlab. Ejercicios (1) Para cada uno de los conjuntos de datos dados. podemos dar valores arbitrarios a y0 .. y = 1. . o ´ Por ejemplo podemos elegir y0 = yn = 0 para que se satisfagan las condiciones S (x0 ) = 0 y S (xn ) = 0. obtenemos el sistema tridiagonal. Ahora. . Por lo tanto existe soluci´n unica una vez elegidos y0 . o Observemos que en general S (xj ) = f (xj ) y S (xj ) = f (xj ). ··· 0 ··· h2 · · · . en la forma de Lagrange. Graficar el polinomio interpolador. e (3) (a) Construir las tablas de diferencias divididas para los datos del Ejercicio 1. (b) Agregar a las tablas de datos del Ejercicio 1 el punto x = 4.

b]. Sean (xn )n≥0 una sucesi´n arbitraria de puntos en o a+x [−1. (a) Demostrar que para todo x ∈ [−π. b]. π] |(x − x0 ) . (12) Dado un intervalo [a. 10. b]. (x − xn )| ∼ (b − a)n+1 . . n o o (5) Repetir el Ejercicio ?? para la funci´n f1 : [−1. acotar el error f − Pn ∞ . (b) Sea Cn la cota hallada en (a). . 2n+1 (10) Sea f : [−π. Sea p = m − h y q = m + h. 1] → IR. si 0 < C < y Pn en un polinomio de grado n que interpola a f en b−a n+1 puntos distintos. x1 . 1] → IR. 1] y Pn (x) el polinomio que interpola a f (x) en x0 . b]. . Demostrar que para todo x ∈ [0. f (x) = .1]. 1] → IR. xi = x0 + . xn . 5 graficar simult´neamente f . . (9) (a) Dado el intervalo [a. Para n = 1. . . . . xn = b. f −Pn ∞ → 0 cuando n tiende a ∞. Demostrar que para todo x en [a. . . f (x) = 2x .108 ´ 5. (a) Usando el ejercicio 9.5n+1 |Pn (x) − f (x)| ≤ (n + 1)! ∞ tal que para todo k ∈ IN y para todo x ∈ [a. f (x) = sin(πx) + ex . (x − xn )| ≤ |Pn (x) − f (x)| ≤ π n+1 (n + 1)! (b) Concluir que Pn converge uniformemente a f . . b]. . f1 (x) = |x| y para la funci´n f2 : [−1. 4 (b) Sean x0 = a. Sea Pn el polinomio de grado n que interpola a f en n + 1 puntos equiespaciados. 32. . . a f − Cn y Pn . . xn = 1. . . INTERPOLACION (4) Considerar la funci´n f (x) = o 1 en el intervalo [-1. . Demostrar que para todo x en [a. (b − a)2 . f (x) = sin(x). Graficar f junto con los 1 + 25x2 polinomios que resultan de interpolar a f en los n + 1 puntos equiespaciados x0 = 2i −1. 1 (8) Sea f : [−1. Demostrar que si a > 3 entonces Pn converge a f uniformemente. sea m el punto medio entre a y b y sea h < (b − a)/2. . 1] → IR. . . f + Cn . 5] → IR. π] → IR. . 3. . n + 1 puntos equiespaciados en el n intervalo [a. 15. es decir. Sea Pn un polinomio de grado n que interpola a f en n + 1 puntos distintos cualesquiera de dicho intervalo. xi = x0 + b−a . . . (11) Sea f : [0. b] tal que |(x − x0 ) . Sea Pn un polinomio de grado n que interpola a f en n + 1 puntos equiespaciados en dicho intervalo. decidir como tienen que estar distribuidos n + 1 nodos x0 < x1 < · · · < xn en el intervalo de modo que exista x ∈ [a. 5]. para n = 5. |(x − p)(x − q)| ≤ (b − a)n+1 . (6) Sea f : [0. entonces Pn converge a f uniformemente. b] se tiene: (7) Sea f una funci´n C o |f k (x)| ≤ C k k! 1 Mostrar que. f2 (x) = sin(πx).

i = 0. P (xn ) = f (xn ) y adem´s a P (xn ) = f (xn ). (b) p(−1) = 1. (b) Hallar un polinomio de grado menor o igual que 4 que verifique las condiciones del item anterior. 2 [a. . EJERCICIOS 109 (13) Calcular el grado m´ ınimo n que debe tener un polinomio Pn que interpola en los ceros de Tn+1 a la funci´n f (x) = e2x . p (−1) = 1. p (0) = 1. < xn los ceros o del polinomio de Tchebychev. (20) Para ilustrar qu´ pasa cuando se desea interpolar no s´lo una funci´n sino tambi´n sus e o o e derivadas. .b] (23) (a) Determinar valores de α. y α0 . . a i=0 donde xi = −1 + 2i/n. p(2) = 1. (19) Sea f : [−1. o u siendo: αx3 + γx. 4]. consideramos el problema de hallar p de grado a lo sumo 3 que verifique: (a) p(0) = 1. . y sean x = a. el problema (b) no tiene soluci´n. (21) Analizar para que valores de x0 . p(1) = f (1). (17) Utilizar el m´todo de coeficientes indeterminados para hallar un polinomio p de grado e 2 que satisfaga: p(1) = 0. 1 ≤ x ≤ 2. p(2) = 10 (18) (a) Sea f (x) = cos(πx). . p (1) = 2. p (1) = 7. donde h = (b−a)/n.7. . n y el polinomio de Tchebychev Tn+1 . α1 . 10. . x1 . hallar un polinomio de grado menor o igual que 3 que verifique p(−1) = f (−1). 10. (c) p(−1) = 1. el error cometido en la interpolaci´n o sobre el intervalo [−1. . para n = 5. α2 existe un polinomio de grado 2 que satisface: p(x0 ) = α0 . 1] → IR la funci´n f (x) = e2x−1 y sean x0 < x1 < . 1]. p (1) = f (1). . i = 0 . . . . β y γ en IR para que S sea una funci´n spline c´bica. x ∈ [−1. (16) Repetir los Ejercicios 4 y 5 usando los polinomios que interpolan a la funci´n f en los o ceros del polinomio de Tchebychev de grado n + 1. p(0) = f (0). graficar simult´neamente el polinomio Wn+1 (x) = n (x − xi ). m´s la condici´n a o p (1) = f (1). p(2) = 1. p(x1 ) = α1 . 1] es menor que 10−3 . x = b. Considerar (22) Sea f ∈ C 0 1 n la poligonal l(x)que interpola a f en los puntos xi . p(2) = 1. Probar que si n ≥ 6 entonces. para que el error f − Pn ∞ ≤ 10−2 . p (1) = 2. x = a+h.b] (b) |f (x) − l (x)| ≤ h max |f (x)| x∈[a. (15) Para n = 5. b]. 15. Probar que (a) h2 |f (x) − l(x)| ≤ max |f (x)| 2 x∈[a. p (x2 ) = α2 . . Usando el m´todo de coeficientes indeterminados. . p (1) = 2. n. p (−1) = −6. x ∈ [0. Tn+1 . . . . 15. y el problema (c) tiene infinitas o ´ o soluciones. P (x1 ) = f (x1 ). Se interpola a f con un polinomio P de grado ≤ n + 1 de modo que P (x0 ) = f (x0 ). 0≤x≤1 S(x) = −αx3 + βx2 − 5αx + 1. o (14) Repetir el ejercicio anterior para f (x) = ex . demostrar que el problema (a) e tiene soluci´n unica. x2 .

encontrar y graficar una funci´n del tipo ea4 x +a3 x +···+a0 que ino terpole a la funci´n f (x) = 1/x en 5 nodos equiespaciados en el intervalo [1. . . tomando como u condiciones de borde las derivadas de f . −0. 10].75.5x − 1. Utilizando Matlab. 0 ≤ x ≤ 2 respecto de la partici´n {0. INTERPOLACION (b) Con los valores de α. a (24) Sea f como en el Ejercicio 4. 3 2 o (25) Encontrar una funci´n del tipo 2ax +bx +cx+d que interpole la siguiente tabla de datos: x -1 0 1 2 y 1 1 0. o o (c) Graficar simult´neamente f y S en el intervalo [0. 2].75. . 1. o 4 3 . .110 ´ 5. graficar la funci´n f junto con o una spline c´bica que la interpole en la red {−1. β y γ obtenidos en el ´ ıtem anterior. decidir si S interpola a la funci´n f (x) = 2x + 0. 0.5x2 − 0. 2}.5 4 (26) Utilizando Matlab. 1}.

Una situaci´n frecuente es la de aproximar una tabla de m´s de dos valores por una o a recta (como muestra la Figura 6. Es decir. i = 0. Si escribimos la ecuaci´n de la recta o como y = mx + b nuestro problema consiste en encontrar valores de m y b que hagan que el error |yi − (mxi + b)| sea lo mas chico posible para todo i. Cierto es que. como vimos. podemos plantear estos o problemas en el contexto de aproximaci´n de funciones. Tambi´n ser´ posible considerar funciones m´s e a a generales que ajusten de manera natural los valores predeterminados. Por ejemplo. . una manera de lograr esto ser´ pedir que m y b minimicen ıa 0≤i≤n max |yi − (mxi + b)| o tambi´n podr´ e ıamos pedir que minimicen n n |yi − (mxi + b)| i=0 o i=0 |yi − (mxi + b)|2 . muchas veces polinomios de alto grado producen efectos no o deseados como por ejemplo grandes oscilaciones. en esta clase de problemas uno sabe a priori a qu´ tipo de funci´n corresponden e o los datos. Hasta ahora. cuando se trate de aproximar por polinomios. En este cap´ ıtulo consideraremos otra forma de aproximar funciones conocida como el m´todo de cuadrados m´ e ınimos. . contemplar una tabla de valores sin sujetar a el grado del polinomio a la cantidad de datos. De todas estas opciones es usual considerar la ultima. n y se quiere encontrar una recta que ajuste estos datos lo mejor posible. En el cap´ ıtulo anterior hemos discutido como aproximar una funci´n por polinomios que ino terpolan a la funci´n misma y/o a sus derivadas en algunos puntos. llamada “aproximaci´n por cuadrados ´ o m´ ınimos”.CAP´ ıTULO 6 Polinomios ortogonales y aproximaci´n por cuadrados m´ o ınimos. yi ). Como e e en general los valores de yi corresponden a datos de una funci´n f . los m´todos o e analizados nos permiten construir polinomios de grado n a partir de n + 1 datos. en un problema a modelizar. En este cap´ ıtulo estudiaremos distintos m´todos para resolver ´ste y otros problemas. cu´ntos m´s datos se conocen es de esperar que se pueda lograr a a mayor precisi´n. Este m´todo nos permie tir´. Dada una funci´n f consideramos: o o . Pero. debido a que es la m´s simple ya que el problema se reduce a resolver ecuaciones a lineales. se tienen valores (xi . En general.1). . .

b].1. . Figura 6. . . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. . f (xi )). . el caso general se obtiene f´cilmente o o a mediante un cambio de variables. b]. wn constantes positivas (pesos). . con i = 0. en todo intervalo cerrado y acotado. . Comenzamos esta secci´n presentando un resultado cl´sico de Weierstrass que muestra que toda funci´n continua o a o puede aproximarse uniformemente por polinomios. i=0 Problema B. . 1. Para todo ε > 0 existe un polinomio p tal que f −p ∞ <ε Demostraci´n. Dados w0 . 1]. Teorema 6. Preliminares Nos dedicaremos especialmente al estudio de aproximaciones por polinomios. dada f y m ∈ IN se trata de hallar o p ∈ Pm que minimice b a w(x)(f (x) − p(x))2 dx. Dada w(x) una funci´n positiva en [a. Damos la demostraci´n para el intervalo [0. m < n y valores (xi . n se trata de hallar p ∈ Pm que minimice n wi (p(xi ) − f (xi ))2 . (Weierstrass) Sea f ∈ C[a.112 ´ 6. .1. Aproximaci´n de 10 valores por una recta o Problema A.

para los x. existe δ > 0 tal que. |f (x) − f (y)| ≤ ε si |x − y| < δ. 1]. se tiene: o n Bn h0 (x) = k=0 n n k x (1 − x)n−k = (x + 1 − x)n = 1. PRELIMINARES 113 Definimos los polinomios de Bernstein.1) Por otra parte. n Bn f (x) = k=0 n f k k n xk (1 − x)n−k y vamos a demostrar que Bn f converge uniformemente a f en el intervalo [0. 1. n Bn gy (x) = gy (x) + (6. Para eso necesitaremos calcular Bn hj para hj (x) = xj . 2. Desarrollando (x − y)2 = x2 − 2xy + y 2 o y usando que Bn es lineal (o sea. j = 0. o dado ε > 0. como toda funci´n continua en un intervalo cerrado es uniformemente continua. n n n Dado y ∈ IR consideremos la funci´n gy (x) = (x − y)2 . Usando la f´rmula del binomio de Newton. y tales que |x − y| ≥ δ se tiene a . k n k k x (1 − x)n−k = k n n k=1 Bn h1 (x) = k=0 n n−1 k x (1 − x)n−k k−1 =x k=1 n n − 1 k−1 x (1 − x)n−k = x(x + 1 − x)n−1 = x. Adem´s.1. Bn (f1 + f2 ) = Bn f1 + Bn f2 y Bn (kf ) = kBn f ) se obtiene x(1 − x) . k−1 n k n−1 k−1 n k=2 Bn h2 (x) = k=0 n k n 2 n x (1 − x) k n−k = k=0 n−1 k k x (1 − x)n−k k−1 n = k=0 n−1k−1 1 + n n−1 n xk (1 − x)n−k = = n−1 2 x n n − 2 k−2 x x (1 − x)n−k + k−2 n x x(1 − x) n−1 2 x (x + 1 − x)n−2 + = x2 + .

si f1 ≤ f2 . ´ Definicion 6. x . 2 δ δ2 Ahora. 2 f ∞ 2 f ∞ x(1 − x) (x − y)2 + 2 δ δ2 n |Bn f (x) − f (y)| ≤ ε + y por lo tanto. y recordando que Bn es lineal y que Bn 1 = 1 se obtiene (tener presente que hasta aqu´ estamos ı considerando y como una constante). |f (x) − f (y)| ≤ 2 f Luego. teniendo en cuenta (6. y. y = α x. podemos asegurar que. como vimos que se puede o hacer mediante la noci´n de norma. es decir que Bn f converge uniformemente a f en el [0. z + y. aplicando Bn en la desigualdad anterior. y . Los Problemas A y B se enmarcan dentro de la teor´ de espacios con producto interno.2. : V ×V → IR que asigna a cada par de vectores un n´mero real de manera o u tal que. En consecuencia. para todo x. x. z ∈ V y todo α ∈ IR se satisfacen las propiedades: (i) (ii) (iii) (iv) x + y. 2 f ∞ (x − y)2 δ2 −ε − 2 f ∞ 2 f ∞ (x − y)2 ≤ f (x) − f (y) ≤ ε + (x − y)2 . esto es Bn preserva el o orden. z . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. x > 0 si x = 0. para todo x.1). adem´s. permite introducir el concepto de ´ngulo o a a entre vectores y por tanto tiene sentido hablar de ortogonalidad.114 ´ 6. resulta 2 f ∞ y(1 − y) δ2 n |Bn f (y) − f (y)| ≤ ε + y por lo tanto |Bn f (y) − f (y)| ≤ 2ε para n suficientemente grande independientemente de y. sino que. evaluando ambos lados de la desigualdad en y. y. αx. Sea V un IR espacio vectorial. y = y. Un producto interno (o producto escalar) sobre V es una funci´n . El ıa producto interno no s´lo permite definir distancia entre vectores. 1]. . δ2 |f (x) − f (y)| ≤ ε + es decir. x. . ∞ ≤ 2 f ∞ (x − y)2 .. z = x. de la definici´n de Bn puede verse que Bn f1 ≤ Bn f2 .

1. y w = j=1 wj xj yj .      Ahora...3. con w(x) > 0 para todo x ∈ (a. si definimos la matriz Dw ∈ IRn×n  w1 0  0 w2  Dw =  . . supongamos que existe un x0 ∈ [0. Es f´cil ver (queda como ejercicio) que se satisfacen todas las condiciones de la definia ci´n. Las condiciones (i)-(iii) se satisfacen gracias a la linealidad del producto y de la integral. g = f 2 . . . . por continuidad. o (2) Otros productos internos para IRn similares al usual son los dados por pesos wj > 0 para j = 1. . . .. 1] para el cual g(x0 ) = δ > 0. existe un subintervalo [a. 0 el producto interno con pesos . PRELIMINARES 115 Ejemplos 6. est´ dado por a n x. g ∈ V . b): b f. . n: n x. . g = a f (x)g(x)w(x) dx. s´lo puede ser nula si la funci´n o o o lo es. .. . Dw y . y la matriz Dw . . . y = (y1 . 1 f. xn ). . x. . g = 0 f (x)g(x) dx. 1] es el espacio de funciones continuas y f. como: . define un producto interno. . y w 0 . . b] es δ g(x) > 2 y por ser g no negativa se tiene 1 b g(x) dx ≥ 0 a δ g(x) dx > (b − a) > 0. o (4) Otros productos internos para espacios de funciones son los dados por una funci´n de o peso w. Ahora. wn (wj )n j=1 n puede darse a trav´s del producto interno usual e = j=1 wj xj yj = x. .. . para todo x ∈ [a. 0 0 . para x = (x1 . (3) Si V = C[0. . . b] tal que. En efecto. Para asegurar que vale la condici´n (iv) basta ver que la o integral de una funci´n no negativa y continua. . yn ). . (1) El producto interno usual en IRn . 2 lo que es una contradicci´n. y = j=1 xj yj .  .

x − t x. y de donde se sigue el resultado. y ≤ | x. y 1 2 2 − x. x para todo x. x + t2 y. entonces x = x. ´ Proposicion 6. x+y 2 ≤ x 2+2 x y + y = ( x + y )2 2 . o Supongamos entonces que y. y | ≤ x. x y. En los espacios vectoriales con producto interno se tiene la norma inducida por dicho producto: x = x.4. y = x + y. es un producto interno sobre un espacio vectorial V . esta cuadr´tica tiene a lo sumo una ra´ real y por lo tanto a ız 4b2 − 4ac ≤ 0. x − ty = x. y = 0. es un producto interno sobre un espacio vectorial V . y = c − 2bt + at2 = p(t). x+y 2 1 2 1 2 y. Demostraci´n. y + t2 y. y | ≤ x y ..Schwarz vale. Para cada t ∈ IR consideramos x − ty.116 ´ 6. Corolario 6. Luego. y y c = x.5. y ∈ V dos vectores fijos. y ∈ V. y .. Si . x. De esta manera se obtiene una funci´n cuadr´tica donde a = y.Schwarz) Si . y ∈ V se tiene. x + y = x 2 + 2 x. no hay nada que probar. Luego. entonces | x. b = x. No es inmediato ver que con esta definici´n se obtiene efectivamente una norma. x . Sean x. para eso notemos o ´ a que dados x. y = x. x − 2t x. La unica dificultad est´ en probar la desigualdad triangular. 0 ≥ b2 − ac = x. . Si y. . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. o a Como p(t) ≥ 0 para todo t ∈ IR. y + y 2 . Esto es posible o gracias a la siguiente desigualdad. (Desigualdad de Cauchy . 1 para todo x ∈ V. Usando la desigualdad de Cauchy . Demostraci´n. entonces 0 ≤ x − ty. y − t y. x define una norma sobre V . y = 0. x 2 .

y = x y cos θ. a saber. x e y son ortogonales si y solo si x. x ∈ V e y ∈ S. ız La norma asociada al producto escalar usual en IR2 o IR3 definido en el Ejemplo 6. un elemento y ∈ S que verifique alguna de las propiedades anteriores es unico. a ´ Demostraci´n. s = 0. Sabemos que y ∈ S minimiza la distancia o de x a S. Dos conjuntos A. y . Dados S un subespacio de un espacio V con producto interno. s∈S x. El siguiente teorema relaciona los problemas de aproximaci´n que queremos estudiar con la o noci´n de ortogonalidad.3 (1) corresponde a la norma x 2 y da la longitud del vector x. x y Esto permite definir el ´ngulo entre dos vectores x. son equivalentes: (1) x − y = min{ x − s } (2) x − y.6. o Notar que la desigualdad de Cauchy . para todo x. En particular. a e x. x−y 2 ≤ x − (y + s) 2 = (x − y) − s) 2 = x−y 2 − 2 x − y. . y por lo tanto. en t´rminos de las longitudes de ambos vectores y e de θ. .. y = 0. o ´ Definicion 6. . π] ser´ el ´ngulo entre x e y si verifica a a cos(θ) = Luego resulta natural la siguiente definici´n. se dice que x e y son ortogonales si x. Si V es un espacio con producto interno . y | ≤ 1. y = 0 | x.7. ´ Definicion 6. para x e y no nulos. o Teorema 6. el ´ngulo entre ´stos. x y ∀s ∈ S. se tiene que y + s ∈ S para todo s ∈ S. y no nulos mediante la funci´n coseno. Veamos primero que (1) implica (2). La gran ventaja de trabajar en espacios con producto interno es que se puede generalizar esta noci´n de ortogonalidad. Como S es un subespacio. En este caso suele notarse x ⊥ y. Adem´s.8. y = 0. s + s 2 .Schwartz da. PRELIMINARES 117 La desigualdad triangular se obtiene al tomar ra´ cuadrada. Es a o decir θ ∈ [0.1. Recordemos adem´s que este producto a escalar puede escribirse. B ⊂ V se dicen ortogonales (A ⊥ B) si x ⊥ y para todo x ∈ A e y ∈ B.

. ts ≤ ts 2 2t x − y. o 2. As´ ı. es decir. . . Si ahora consideramos t ∈ IR y s ∈ S se tiene que ts ∈ S y de la desigualdad anterior obtenemos 2 x − y. para cada s ∈ S fijo se tiene x − y. s∈S 2 2 Tomando ra´ cuadrada se obtiene que x − y = min{ x − s }. supongamos que y ∈ S es tal que x − y ⊥ s para todo s ∈ S. s ≤ s 2 para todo s ∈ S. Soluci´n de los Problemas de Aproximaci´n o o Ahora s´ estamos en condiciones de describir los m´todos para hallar las soluciones de los ı. 2 x − y. y = i=1 xi yi wi . s = 0 para todo s ∈ S. Como S es un subespacio x − y ⊥ y − s para todo s ∈ S. Luego. e problemas A y B planteados. x−s 2 = = ≥ (x − y) + (y − s) x−y 2+ y−s x − y 2. y ∈ S verifican (2) entonces. s = 0. En lo que sigue de este cap´ ıtulo trabajaremos sobre espacios con un producto interno. Para esto. s ≤ t s 2 y haciendo t → 0 queda 2 x − y. El primer problema se puede reformular de la siguiente manera: Se considera en IRn el producto escalar dado por los pesos w0 . . luego. o Veremos m´s adelante que cuando S es de dimensi´n finita siempre existe y en las condiciones a o del teorema anterior. Para ver que (2) implica (1). veamos que si y. n x. y x − y. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. de d´nde o x − y. 0 ≤ 2 x − y.118 ´ 6. s ≤ 0. restando miembro a miembro. Este y se llama proyecci´n ortogonal de x sobre S. Para los t > 0 tenemos 2 x − y. s ≤ t2 s 2 para todo t ∈ IR y para todo s ∈ S. Los t < 0 dan la otra desigualdad. wn . ız Nos queda mostrar que no puede haber m´s de un elemento que cumpla las condiciones (1) o a (2). s = 0. s . s = 0. tomado s = y − y ∈ S obtenemos y − y = 0 de d´nde y = y. queda y − y. . y = y. En efecto. en particular.

donde A ∈ IRn×(m+1) es la matriz de 6. . xm n      a0 a1 . . Recordemos que AT denota la matriz traspuesta de A. Si . . + a1 x + a0 entonces      p(x1 ) p(x2 ) . Ax . . . . indica el producto interno usual (tanto en IRn como en IRm ) entonces. . . . . . x = y.9. . y = n xj yj . .8 como veremos en el teorema que sigue. En el caso del producto interno usual. p(xn )) en la norma asociada al producto escalar. Sea A ∈ IRn×m . llamando b = (f (x1 ). SOLUCION DE LOS PROBLEMAS DE APROXIMACION 119 Para los datos (xi . . . . .2)     =   Ahora.´ ´ 2. . Si p(x) = am xm + . y ∈ IRm . .2. Lema 6. es decir x. . f (xn )) y (p(x1 ). am ) ∈ IRm+1 que minimice Aa − b . p(xn )   1 x1 · · · 1 x2 · · · . AT y. . am      (6. . . para alg´n x ∈ IRm } u el problema se transforma en hallar y ∈ S tal que y − b ≤ s − b para todo s ∈ S y luego x tal que Ax = y. f (xn )) el problema se reduce a encontrar un vector a = (a0 . la soluci´n de este problema o j=1 puede obtenerse resolviendo las llamadas ecuaciones normales que pueden obtenerse f´cilmente a a partir del Teorema 6. . f (xi )). Considerando el subespacio S: S = {y ∈ IRn . . En forma gen´rica el problema puede plantearse de la siguiente manera: e Dada A ∈ IRn×m y b ∈ IRn se quiere hallar x tal que Ax − b sea lo menor posible.. se quiere encontrar un polinomio p ∈ Pm con n > m + 1 que minimice la distancia entre los vectores (f (x1 ). . . . . x ∈ IRn . . y = Ax. . . 1 xn · · · xm 1 xm 2 . .

x = AT b − AT Ax0 ). s = 0 para todo s ∈ S podemos reescribirla o b − Ax0 . si los vectores columnas de la matriz A son linealmente independientes.10. Es decir Ax 2 = 0. si AT Ax = 0 entonces AT Ax. o equivalentemente.120 ´ 6. para x ∈ IRm }. por el o Teorema 6. .9. . En efecto. indica el producto interno usual (tanto en IRn como en IRm ) entonces. Para mostrar la existencia y unicidad de un elemento x0 que cumpla con el enunciado. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS.9 tenemos que Ax. x lo que ocurre si y solo si AT Ax0 = AT b. . Adem´s. con lo cual Ax = 0 y por tanto x = 0.11. llamemos Aj ∈ IRn a los vectores columna de la matriz A. . . se deduce que AT A es inversible y ´ o hay una unica soluci´n para el sistema AT Ax = AT b. Luego. Dw y . . Ax Teorema 6.3 (b)). = x. x = i=1 yj j=1 i=1 aji xi = y. y o a (ver Ejemplo 6. para j = 1. Veamos que esto implica que AT A es una matriz inversible. Demostraci´n. m. existe x0 solua ci´n del sistema AT Ax = AT b y es unico. del sistema A w w La demostraci´n es an´loga a la del teorema anterior considerando la escritura x. o n   m j=1  aji yj  xi = m n AT y. x2 . . y por el Lema 6. ´ o ´ Observacion 6. Si x = (x1 . x. 0 = AT (b − Ax0 ). o sea. x = 0. . o ´ Demostraci´n. y w = n wj xj yj . Considerando el subespacio S = {y ∈ IRn . w s∈S ∀ x ∈ IRm . entonces x0 ∈ IRm minimiza Ax − b w si y solo si x0 es soluci´n o j=1 T D Ax = AT D b. Sea A ∈ IRn×m y b ∈ IRn . Como y ∈ S existe x0 ∈ IRm tal que y = Ax0 y s = Ax. si las columnas de A son linealmente independientes resulta Ax = 0 j=1 si y solo si x = 0. . son equivalentes (1) x0 ∈ IRm minimiza Ax − b o (2) x0 es soluci´n del sistema AT Ax = AT b. Como la unica soluci´n del sistema AT Ax = 0 es la trivial. xm ) el vector Ax puede escribirse en t´rminos de las columnas de A por e Ax = m Aj xj . Si el producto interno no es el usual sino que viene dado por pesos wj . y = Ax. con x variando en IRm .8 y ∈ S es tal que b − y = min{ b − s } si y solo si b − y. Ax = 0 ∀ x ∈ IRm . luego la condici´n b − y. Si . s = 0 para todo s ∈ S. por el Lema 6. . Ax = 0.

1 0.7 0.5 0.4 0.3 0.8 3. queda e 10 5.497 a0 a1 5.1.497x + 0.85 La soluci´n es o a1 = 0.9 1                a0       =      a1             0. este x tambi´n es soluci´n de o e o AT Ax = AT b Este sistema de m × m puede resolverse por el m´todo de eliminaci´n de Gauss o bien por e o m´todos iterativos.6 0.6 = a0 = 0.3067 .1 0.12.2 0.9 0.2) el sistema a resolver  1  1   1   1   1   1   1   1   1 1 es: 0. como presentamos a trav´s de la Figura 6.8 0.5 0.75 0.55 0.2 0. Veamos un ejemplo sencillo. a f en los p(x) = 0.8 0.45 0.45 0. en el sentido de minimizar puntos dados es (f (xi ) − p(xi ))2 .5 0.8 0.1 0.5 0.35 0.7 0.35 0.5 3.9 1 (yj ): 0.8 Siguiendo (6.3 0.1 0.´ ´ 2.4 0. Se e quiere trazar una recta (p(x) = a0 + a1 x) que aproxime los puntos (aj ): 0.75 0. SOLUCION DE LOS PROBLEMAS DE APROXIMACION 121 Notemos que si el problema original Ax = b tiene una soluci´n exacta x.8 0.6 0. despu´s de multiplicar por la transpuesta de A.6 0.9 0.8                 Que.55 0.6 0.3067 Es decir la recta que mejor aproxima.5 5. e Ejemplo 6.

o ´ Definicion 6.14. Ahora. vk = i=1 xi vi . vn } cada elemento x ∈ V admite una unica escritura de la forma ´ n x= i=1 xi vi . . . Luego. a Si se considera en el espacio V una base ortonormal B = {v1 . para k = 2. . . . . . . y. r2 . Entonces. f = 1 para cualquier f ∈ A. . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. Es decir. La ventaja de trabajar con una base ortonormal es que podemos describir f´cilmente los escalares a xi en t´rminos de x y de la base. . En efecto. en general. para resolver el problema B. Un subconjunto A de un espacio vectorial V se dice ortonormal si A es ortogonal y adem´s f. BS = {r1 . Teorema 6. m. uk = rk − i=1 rk . vamos a dar una descripci´n de la soluci´n a trav´s de o o o e la proyecci´n ortogonal sobre un subespacio. . vi vi . . vi vi . . . tenemos e n n x.13. . Esta forma de resolver no puede aplicarse. . Para abordar esta clase de problemas necesitamos desarrollar m´s teor´ relacionada con el producto interno a ıa y la idea de ortogonalizaci´n. um } es ortogonal y el conjunto {v1 . y vk = uk / uk . el conjunto {u1 . . k−1 v1 = u1 / u1 . . rm }. dado un subespacio S de dimensi´n finita de V . una base ortonormal de S puede eno contrarse a partir de una base dada de S mediante el proceso de ortonormalizaci´n de Gramo Schmidt que damos en el siguiente teorema. vk = i=1 xi vi . vk = xk . . . Dada una base de S. vm } es una base ortonormal del subespacio S.122 ´ 6. se consideran u1 = r1 . n x= i=1 x. .

x nales qk asociados a dicho producto y los correspondientes polinomios ortonormales pk . ∀s ∈ S generalizando a espacios con producto interno la noci´n de proyecci´n ortogonal conocida en o o IRn . s = 0. vj = x.3) Demostraci´n. . j = 1. Aplicando el proceso de ortogonalizaci´n dado en el Teorema 6. o o Con el siguiente teorema demostramos la existencia de la proyecci´n ortogonal sobre S un o subespacio de V . vj − x. vj − i=1 x. en la norma asociada a un producto interno. . obtenemos los polinomios ortogoes decir B = {1. ∀s ∈ S. Estos resultados nos permiten encontrar la mejor approximaci´n a una funci´n continua por o o polinomios de un grado dado. Pero m x − y. (6.´ ´ 2. .14 a la base can´nica de Pn . b] y el subespacio S = Pn .3) es suficiente ver que se cumple para s = vj . es claro que y ∈ S ya que es una combinaci´n lineal de elementos de la base y.8. . vj = x. vj = 0 donde en el ultimo paso hemos usado la ortonormalidad de la base. Sea {v1 . Se hace por inducci´n. La unicidad la probamos ´ en el Teorema 6. para verificar (6. SOLUCION DE LOS PROBLEMAS DE APROXIMACION 123 Demostraci´n. . Teniendo en cuenta el Teorema 6. x. cuando S tienen dimensi´n finita. . . a . .14). Para esto basta considerar el espacio V = C[a. .8 El teorema anterior nos permite definir una aplicaci´n o P : V −→ S que a cada elemento x ∈ V le asigna P x ∈ S de tal forma que x − P x. o o 2 . Por o otra parte. o Teorema 6. . (6. Estos polinomios est´n dados por. en un producto interno dado. vm } una base ortonormal de S (que sabemos que existe gracias al o Teorema 6. . xn }. m. vi vi . . P x nos da la mejor aproximaci´n a x por elementos o del subespacio S en la norma asociada al producto interno.4) En efecto. Veamos que el elemento y ∈ S buscado es m y= i=1 x. Dado x ∈ V y un subespacio S ⊂ V de dimension finita. vi vi . s = 0.15. existe un unico y ∈ S ´ que satisface x − y.

n. Observemos que. . b] con un producto interno. q1 . . xk }. b] entonces el polinomio p∗ ∈ Pn que satisface n f − p∗ ≤ f − p . .17. . donde P : C[a. La demostraci´n se sigue de todo lo ano terior y por tanto la omitimos. Teorema 6. obtenidos mediante el proceso de Gram-Schmidt aplicado a la base can´nica o dada por las potencias satisfacen las siguientes propiedades. definiendo hk (x) = xk . . k−1 p0 (x) = 1/ q0 . De o esta forma se tiene un procedimiento alternativo al dado en el Teorema 6. x2 . a o El orden en que se toman los elementos es importante. qk (x) = xk − i=1 hk . . . pi pi . cuyas propiedades b´sicas resumimos o a en el siguiente teorema. o Observemos que esto resuelve simult´neamente los problemas A y B. . Las conclusiones del teorema son v´lidas si se considera la base can´nica de Pk : B = {1. tenemos ıa Teorema 6.4. . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. (1) qk es un polinomio m´nico de grado k. o sea. . primero generar los polinomios ortonormales pj y luego calcular f. . . Si f ∈ C[a. qn .16. . Demostraci´n. . . x. . q0 (x) = 1. . Para todo k ∈ IN0 . qn . b] −→ Pn es la proyecci´n ortogonal. o . En algunos casos el m´todo basado en el uso de los polinomios ortogonales resulta e mejor respecto de la propagaci´n de errores de redondeo. a o n p∗ = n i=0 f. . . o (2) {q0 . . est´ dado por p∗ = P f . . y. . . es decir pk = qk / qk .10 para el problema discreto. como este procedimiento puede hacerse para cualquier n ∈ IN lo que se obtiene es una sucesi´n de polinomios ortogonales q0 . . . n n ∀p ∈ Pn . . Para resolver cualquiera a de los dos hay que.124 ´ 6. f (xn )). y pk (x) = qk (x)/ qk . los polinomios ortogonales q0 . (3) qk es ortogonal a todo polinomio de grado menor que k. . . pi pi (x). En el caso continuo (problema B) aplicamos la teor´ trabajando en el espacio de dimensi´n infinita ıa o C[a. para k = 1. Se sigue del Teorema 6. Dado el espacio V = C[a. q1 . qk } es una base ortogonal de Pk . q1 . En efecto. pi . b] mientras que en el caso discreto (problema A) trabajamos en el espacio de dimensi´n finita o IRn+1 identificando a los valores de una funci´n continua f con el vector (f (x0 ). . Una vez o obtenidos estos polinomios podemos encontrar la mejor aproximaci´n a una funci´n continua o o utilizando la teor´ general que hemos visto. . En lo que sigue consideramos fijado el producto interno y usamos la notaci´n pk para indicar la o sucesi´n de polinomios ortonormales asociados a dicho producto.

pi pi . o p∗ −→ f cuando n −→ ∞. o . y por lo tanto n p∗ n Entonces. p∗ n y p∗ se obtiene n n 2 = f − p∗ n 2 + p∗ n = f − p∗ n 2 + j=0 f. Por lo tanto. dado ε > 0 existe un polinomio p ∈ Pn (n depende o de ε) tal que max |f (x) − p(x)| = f − p < ε. b] est´ dado por a b f. Si el producto interno en C[a. b) entonces.´ ´ 2. a≤x≤b ∞ Entonces f − p∗ n 2 ≤ f −p ≤ f −p 2 = b a w(x)(f (x) − p(x))2 dx b a w(x) b 2 ∞ a w(x) dx ≤ ε2 dx. pj 2 . g = a f (x)g(x)w(x)dx donde w es una funci´n positiva e integrable en (a. Por el teorema de Weierstrass. pj 2 pero por el teorema sabemos que el primer sumando del t´rmino de la derecha tiende a cero e cuando n tiende a infinito con lo que concluye la demostraci´n. Teorema 6. ∞ f 2 = j=0 f. SOLUCION DE LOS PROBLEMAS DE APROXIMACION 125 El teorema de Weierstrass nos permite demostrar que el error entre la f y su mejor aproximaci´n en la norma asociada al producto interno tiende a cero cuando el grado del polinomio o aproximante tiende a infinito. Este es el objetivo del siguiente teorema. Recordemos que p∗ = o n n i=0 f. pj 2 Demostraci´n. n→∞ lim f − p∗ = 0.19. n Demostraci´n. (Igualdad de Parseval) Para un producto interno como el del teorema anterior se tiene. n Corolario 6.18. de la ortogonalidad entre f − f 2 2 = j=0 f.

para i < n − 2. . qn−1 = xqn−1 .7) Ahora. Pero. xqi = 0 y en consecuencia βi = 0 para todo i < n−2. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. el siguiente teorema muestra que cada polinomio qn se escribe en funci´n de los dos anteriores y por lo tanto la sucesi´n de polinomios ortogonales o o m´nicos puede obtenerese por recurrencia. qn−1 − an qn−1 . qi = qn−1 . qi = xqn−1 . Sea n ≥ 2. qi donde en el ultimo paso hemos usado la ortogonalidad de los qj . Tenemos entonces. (6. Por lo tanto. Adem´s. existen coeficientes βj tales que n−1 x(rn−1 (x) − qn−1 (x)) + qn (0) = j=0 βj qj (x) y reemplazando en (6. como xqi es un polinomio ´ de grado menor que n − 1.6) obtenemos n−1 qn (x) = xqn−1 (x) + j=0 βj qj (x). como qn es m´nico. Como cero es ra´ del polinomio qn (x) − qn (0) podemos escribir o ız qn (x) − qn (0) = xrn−1 donde rn−1 es un polinomio de grado menor o igual que n − 1. qi + βi qi . Terminamos el cap´ ıtulo dando una forma m´s eficiente de encontrar los polinomios ortogonales a asociados a un producto interno. qn−1 qn−1 . (6. como q0 .20. qn−2 ∀n ≥ 2 (6. . qn−2 . donde an y bn estan dados por an = xqn−1 . qi = (x + βn−1 )qn−1 + j=0 βj qj . qn−1 de donde se obtiene la expresi´n para an . tenemos n−2 0 = qn . .6) Pero como rn−1 y qn−1 son m´nicos su diferencia resulta un polinomio de grado menor o igual o que n − 2 y por lo tanto. b] satisface xf. o Teorema 6.7). En efecto. o a 0 = qn .5) y la ortogonalidad de los qj tenemos. (6. qn−2 . Si un producto interno en C[a. . 0 = qn . qn−2 = xqn−1 . qn−1 forman una base de Pn−1 .126 ´ 6. xg entonces los polinomios ortogonales m´nicos qn satisfacen la relaci´n de recurrencia o o qn (x) = (x − an )qn−1 (x) − bn qn−2 (x) . e qn (x) = xrn−1 (x) + qn (0) = xqn−1 (x) + x(rn−1 (x) − qn−1 (x)) + qn (0). qn−2 − bn qn−2 .5) Demostraci´n.5) se obtiene de (6. qn−1 y bn = qn−1 . a o rn−1 tambi´n lo es. qn−1 . usando (6. resulta xqn−1 . g = f. Finalmente. definiendo an = −βn−1 y bn = −βn−2 . An´logamente.

usando Matlab.3.1 2. graficar simult´neamente f junto con a • los polinomios que aproximan a f en el sentido de cuadrados m´ ınimos en n + 1 2 puntos equiespaciados y tienen grado 5 n y 4 n. xqn−2 − qn−1 = 0 lo que resulta del hecho de que xqn−2 − qn−1 es un polinomio de grado menor que n − 1 porque tanto xqn−2 como qn−1 son m´nicos de grado n − 1.9 y el polinomio de grado 2 que aproxima en el mismo sentido la siguiente tabla de datos: x -1 0 1 3 6 y 6. 1 (2) Considerar la funci´n f (x) = o en el intervalo [-1.3 8. pero como xqn−1 . el polinomio de cuadrados m´ ınimos de grado n coincide con el polinomio interpolador. Concluir que para ciertas aplicaciones puede ser una mala idea aumentar el grado del polinomio de cuadrados m´ ınimos. bn = Para terminar la demostraci´n falta ver que o xqn−1 . comparar gr´ficamente.1 1. Ejercicios (1) (a) Encontrar el polinomio de grado 1 que aproxima en el sentido de cuadrados m´ ınimos la siguiente tabla de datos: x 0 1 2 3 4 5 6 7 8 9 y -. o 3. hasta hacerlo cercano al grado del polinomio interpolador.1 1.8 2. qn−1 . (3) Probar que si se tienen n + 1 puntos distintos. qn−2 . qn−2 xqn−1 . con el polinomio interpolaa dor.2 3.21.9 3. o ´ Observacion 6.   a b (4) Sea A la matriz en IR3×2 dada por A =  c d  . Los productos internos asociados a los problemas A y B satisfacen trivialmente la hip´tesis del teorema.9 (b) En cada caso. qn−2 = qn−1 . qn−2 = qn−1 . basta ver que qn−1 . 15.1 8.2 6 26. 5 • el polinomio que resulta de interpolar a f en los puntos anteriores.1]. qn−2 . 10. xqn−2 .8 5 6 7. Mostrar que e f . EJERCICIOS 127 y por lo tanto. 1 + 25x2 Para n = 5.

e x→±∞ o ınimos con polinomios de grado (b) Ajustar la funci´n erf en el sentido de cuadrados m´ 1. (b) y = a2x + b3x + c. 5 y 10.1 . considerando 15 puntos equiespaciados en el intervalo [−1.4 . (c) El polinomio de grado 1 que aproxima en el sentido de cuadrados m´ ınimos una tabla de 3 datos es unico. 1]. (c) Utilizando los mismos puntos.1. 1]. o (8) Aproximar los datos de la tabla siguiente x -1 0 1 2 y . o 2 +bx+c .1 0. en el sentido de cuadrados m´ ınimos para la funci´n ln(f (x)).2 7. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. Graficar erf junto con estos polinomios en el intervalo [−5. (a) det(AT A) = (ad − bc)2 + (af − be)2 + (cf − ed)2 .0. 5]. π 0 (a) Graficar la funci´n con el comando erf de Matlab en el intervalo [−5. (b) Los rangos de las matrices AT A y A coinciden.9 .3 -0.3 con funciones del tipo: (a) y = a2x + b3x . ´ (5) Aproximar la siguiente tabla de datos en el sentido de cuadrados m´ ınimos x -1 0 2 3 y 0.2.0. en el sentido de cuadrados m´ ınimos . Observar que la aproximaci´n o es mala fuera del intervalo [−1. hallar la aproximaci´n de cuadrados m´ o ınimos que utiliza el siguiente modelo: e−t e−t e−t + c4 + c5 .1 3 1.128 ´ 6.3 23. 1+t (1 + t)2 (1 + t)3 Comparar el error obtenido al aproximar por la funci´n hallada con el del item o anterior.5 con un modelo de la forma: f (x) ∼ a ebx . 5] y verificar o num´ricamente que lim erf(x) = ±1. (7) Aproximar los datos de la tabla siguiente erf(t) ∼ c1 + c2 e−t + c3 2 2 2 2 x -1 0 1 2 y 8.7 con un modelo de la forma: f (x) ∼ −eax para la funci´n ln(f (x)). 2. (6) Considerar erf : IR → IR la funci´n dada por o x 2 2 erf(x) = √ e−t dt.

cos(x). x. (b) Hallar una base ortonormal para S. (b) < f. > es un producto interno en Sm . g > cualquiera de los siguientes productos escalares: n b (a) < f. g >= a f (x)g(x)w(x)dx Probar que S = {1. (a) < f. g >= 0 f (xj )g(xj )wj . g >= −1 f (x)g (x) dx (a) Probar que < . cos(mx). g >= (f (0) + g(0))2 1 (c) < f. >: X ×X → IR. Repetir el ejercicio anterior con el producto escalar ∞ < f. x2 . k. > es un producto interno en S. 1]}. g >= 0 e−x f (x)g(x)dx. π] generado por {1. EJERCICIOS 129 (9) Decidir cu´les de las siguientes aplicaciones < . sin(x)} y considerar π π π π < f.3. g >= f (0)g(0) + 0 f (t)g (t)dt (d) < f. (11) Polinomios de Laguerre. 2 2 2 2 (a) Probar que < . g >= −∞ e−x f (x)g(x)dx. x2 . g >= f (0) + 2g(0) (b) < f. (12) Polinomios de Hermite. xn } no puede ser un conjunto ortogonal para n ≥ 2. x3 . y calcular las normas de cada una de estas funciones. . Utilizando el m´todo de Gram-Schmidt. g >= 0 f (x)g(x)dx. · · · . g >= f (− )g (− ) + f (0)g (0) + f ( )g( ). f (x) = x (14) Sea S el subespacio de las funciones derivables definidas en el intervalo [−π. a siendo X = {polinomios de grado menor o igual a 1 definidos en[0. . . (c) Hallar la mejor aproximaci´n en el sentido de cuadrados m´ o ınimos sobre S3 para 4 y para g(x) = 1. (c) Hallar la mejor aproximaci´n en el sentido de cuadrados m´ o ınimos sobre S para 3 f (x) = sin(2x). . (b) Hallar una base ortonormal para S3 . el espacio generado por {x. son productos internos. g(x) = cos(2x) y h(x) = 2 sin(2x) − 5 cos(2x). xm }. (15) (a) Probar que el conjunto de funciones: {1. 2 (13) Considerar 1 < f. g >= f (0)g(0) + f (1)g(1) (10) Sea < f. . m ∈ IN} es ortogonal con el producto escalar 2π < f. calcular los prie meros cuatro polinomios m´nicos ortogonales con respecto al producto escalar: o ∞ < f. sin(kx).

. m seg´n o u cj = m 1 2 m m f (xk )Tj−1 (xk ). Considerar las relaciones de ortogonalidad discretas para ´stos polinomios: e  m i=j  0 m/2 i = j = 0 Ti (xk )Tj (xk ) =  m i=j=0 k=1 < f. (Sugerencia: usar Ejercicio 3). . . 1]. (j ∈ IN). POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. 1 − x2 −1 (Sugerencia: usar el cambio de variables u = arcsin(x)). k=1 Probar que el polinomio k=1 ck Tk−1 (x) − 0. j = 1. Notar que esta f´rmula proporciona una manera m´s directa de encontrar el polio a nomio interpolador en los ceros de Tm . . 1] → IR se definen m coeficientes cj . . (b) Verificar la ortogonalidad y calcular la norma de los polinomios de Tchebychev. Para una funci´n f : [−1. (17) Sea Tj el polinomio de Tchebychev de grado j. con el producto escalar f (x)g(x) √ dx. (16) Hallar los primeros 5 t´rminos de la expansi´n en serie de Tchebychev para la funci´n e o o f (x) = |x|. . . m} es el conjunto de ceros de Tm . . g >= donde {xk . k = 1. .130 ´ 6.5c1 interpola a f en las ra´ ıces de Tm . Graficar en el intervalo [−1.

esta situaci´n se da en una gran a o variedad de funciones. donde j (xj ) =1y j (xi ) = 0 para i = j. b]. Sabemos que existe un unico pn ∈ Pn tal que ´ pn (xj ) = f (xj ) para j = 0. en muchos casos no es posible encontrar una primitiva expresable en t´rminos de funciones conocidas. . En los cursos elementales de C´lculo se aprende que el valor a f (x)dx puede a obtenerse a partir de una primitiva de f mediante la regla de Barrow. xn ∈ [a. Puede demostrarse que la funci´n e o composiciones y operaciones algebraicas de las funciones conocidas (polinomios. . a (2) Toda funci´n continua puede aproximarse por polinomios. . . . o sea. n y definimos entonces la regla de integraci´n num´rica Q(f ) por o e b Q(f ) = a n pn (x) dx. b] aproximamos el valor o es alg´n polinomio que esta cerca de f . el o a o cual consiste en elegir el polinomio aproximante como uno que interpole a f . dada una funci´n f ∈ C[a. Si bien este es un ejemplo cl´sico. . . Si escribimos pn en la forma de Lagrange (ver (5. Sin embargo. . Para esto se eligen en primer lugar n + 1 puntos x0 . e logaritmos y exponenciales). u b a f (x)dx por b a p(x)dx donde p A continuaci´n describimos el procedimiento m´s usual para construir reglas de integraci´n. En consecuencia ser´ necesario recurrir a las llamadas reglas de integraci´n num´rica o de a o e cuadratura. pn (x) = i=0 f (xj ) j (x). tenemos b n n b n j (x) dx b a pn (x) dx = a j=0 f (xj ) j (x) dx = j=0 f (xj ) = j=0 a Aj f (xj ). b]. o Entonces.CAP´ ıTULO 7 Integraci´n num´rica o e En este cap´ ıtulo estudiamos m´todos para aproximar el valor de una integral definida en un e b intervalo [a.3)). La idea b´sica para construir estas reglas es reemplazar la funci´n por un polinomio a o puesto que: (1) Es f´cil integrar polinomios. trigonom´tricas. e 2 b Un ejemplo es el de la integral a e−x dx que juega un papel muy importante en la teor´ de ıa −x2 no tiene primitiva expresable mediante probabilidades. .

o es exacta. An }. . b]. una vez calculados se usan para o aproximar la integral de cualquier funci´n f . A1 . Estas o o f´rmulas ser´n exactas cuando el polinomio interpolador coincida con la funci´n f . . . xn } y los pesos {A0 . . Es decir. para esto consideramos h = (b−a)/n y xj = a+jh con j = 0. se trata de hallar los pesos a {A0 . . habr´ que estudiar el error que se comete al utilizar a este tipo de aproximaciones. x1 .1) donde los puntos xj son llamados los nodos y los Aj los pesos de la integraci´n num´rica o e (j = 0. . el problema se conoce como las F´rmulas de Newton-Cˆtes. probablemente la elecci´n m´s natural para los nodos xj es o a tomarlos equiespaciados en el intervalo [a. . Hay. . . . Una f´rmula de aproximaci´n basada en estos puntos se conoce como “formula o o de Newton-Cˆtes cerrada” y si los puntos son tomados como xj = a + jh con j = 1. Los pesos Aj = a j (x) dx dependen s´lo de los nodos xj . estudiaremos para cada f´rmula de cuadratura el error o que viene dado por: b b b b R(f ) = a f (x) dx − a pn (x) dx = a (f − pn )(x) dx. dos maneras de determinar una f´rmula de cuadratura como en (7.132 ´ ´ 7. . . . o de la forma: b n f (x)dx a ∼ Q(f ) = j=0 Aj f (xj ) (7. o o • Se buscan a la vez los nodos {x0 . Este m´todo e se conoce como F´rmulas de cuadratura gaussiana. F´rmulas de Newton-Cˆtes o o Si queremos aproximar la integral una funci´n continua f : [a. . esencialmente. xn } est´n prefijados. n). b] → IR por la integral de un o polinomio interpolador de grado n. o Notemos que si f es un polinomio de grado n entonces. . n. . Cuando los nodos se toman equiespaciados. esto es. .1). o • Los nodos {x0 . . INTEGRACION NUMERICA Luego. como la interpolaci´n en n + 1 puntos. n − 1 o se llama “f´rmula de Newton-Cˆtes abierta” (no incluye a los extremos del intervalo). o 1. . En este caso. . . . . la f´rmula que obtuvimos para aproximar la integral ser´ exacta sobre los polinomios o a de grado menor o igual que n. A1 . An }. . . . En otro caso. . . para o a o todo polinomio en Pn . . obtenemos las f´rmulas de cuadratura usuales Q para aproximar una integral buscada. x1 .

Como los nodos de interpolaci´n son los extremos del intervalo.3 −0.1. FORMULAS DE NEWTON-COTES 133 1. esta o f´rmula tambi´n suele llamarse de trapecios cerrada. o e 7 6 5 4 3 2 1 0 −1 −0. Veamos primero las f´rmulas de cuadratura o o o si se considera el intervalo [a. 2 2 2 . Regla de los Trapecios simple cerrada La recta est´ dada por p(x) = f (a) + a b a f (b) − f (a) (x − a).1. 2 (7.1 0 Figura 7.2) Ejemplo 7. De ah´ el nombre de o ı trapecios (ver Figura 7.6 −0. Consideremos la funci´n f (x) = x3 − 4x + 4 en el intervalo [−1. ¿Cu´l es el o a valor aproximado de la integral en este intervalo que da la regla de trapecios? Seg´n vimos.5 −0. b] considerando nodos equiespaciados. integrado p obtenemos b−a p(x) dx = f (a)x + f (b) − f (a) (x − a)2 b b−a 2 a f (b) − f (a) = f (a)(b − a) + (b − a).1. se tiene u 0 −1 x3 − 4x + 4 dx ∼ 1 11 0 − (−1) (f (−1) + f (0)) = (7 + 4) = . b] la integral de la funci´n f por la de la recta que une los puntos (a. 2 es decir: b f (x)dx a ∼ T (f ) = (b − a) (f (a) + f (b)). f (a)) con (b.1). 0].´ ˆ 1. f (b)).8 −0.7 −0. F´rmulas simples de Newton-Cˆtes. o a Regla de Trapecios: es la que se obtiene si se reemplaza en el intervalo [a.9 −0.2 −0.4 −0. Comencemos interpolando por una recta o por una funci´n cuadr´rica.

para h = b−a .3 −0. en lugar de considerar como nodos los extremos del intervalo [a. f(x2)) 5 4 3 2 1 0 −1 −0. e 7 (x1. es decir xj = a + jh para j = 1.134 ´ ´ 7.2). b − x1 = 2h.6 −0. es decir en subintervalos de longitud h = b−a . 3 .2. INTEGRACION NUMERICA En este caso. Regla de Trapecios simple abierta b a p(x) dx = f (x1 )x + f (x2 ) − f (x1 ) (x − x1 )2 b x2 − x1 2 a f (x1 ) − f (x2 ) (2h)2 − (−h)2 = f (x1 )3h + h 2 f (x1 ) − f (x2 ) 3h2 = 3hf (x1 ) + h 2 f (x1 ) + f (x2 ) = 3h 2 Luego. x2 − x1 b−a 3 (´sto es: b − a = 3h.8 −0. El polinomio de grado 1 que interpola a f en esos nodos es p(x) = f (x1 ) + Integrando p en [a. Veamos ahora una peque˜a modificaci´n a a n o la regla de trapecios.7 −0.1 0 Figura 7. b] en tercios. b] y recordando que h = y a − x1 = −h) tenemos f (x2 ) − f (x1 ) (x − x1 ). x2 }.25. Para ´sto partimos o e al intervalo [a.4 −0.5 −0. x2 − x1 = h. f(x1)) 6 (x2.9 −0. sustitu´ ımos la funci´n f por la recta que la interpola en esos nodos (ver Figura 7.2 −0. x2 } los extremos del intervalo medio. R(f ) = 1 = 0. b] vamos a usar dos puntos interiores equiespaciados {x1 . es sencillo calcular el valor exacto de −1 x3 − 4x + 4 dx = calcular exactamente el error que se comete. Regla de Trapecios abierta: en este caso. 4 0 23 4 con lo cual se puede M´s adelante nos dedicaremos al estudio del error. Luego. De esta manera 3 consideramos {x1 . 2.

3). 1] y derivar de ´sta la f´rmula general. o o 2 La regla de trapecios abierta tienen por nodos {x1 = − 3 . f(a)) 6 5 (b. es decir. b} (ver Figura 7.5 0 0. R(f ) = −0. queremos hallar la f´rmula que le corresponde a una funci´n cona o o tinua cuando se considera el intervalo [−1. f(b)) 4 3 (a+h. o e 7 (a.5 2 Figura 7. 2 esta f´rmula tambi´n suele llamarse de Simpson cerrada. 2 (7.. 0]. Para ´sto e o e necesitaremos el siguiente lema. Consideremos nuevamente la funci´n f (x) = x3 − 4x + 4 en el intervalo [−1.08333. a−b . ya calculado.8333. x2 = − 1 } con h = 3 aproximado de la integral de f en [−1. Regla de Simpson Para simplificar los c´lculos. f(a+h)) 2 1 0 −1 −0. Como para dar un unico polinomio o o a ´ de grado 2 que interpole a f se necesitan tres nodos. Como a y b forman parte de los nodos..2.3. − 4x + 4 dx = 23 4 podemos asegurar que el error Regla de Simpson: es la que se obtiene si se reemplaza en el intervalo [a. {a. de cometido es.. El valor 0 −1 x3 − 4x + 4 dx ∼ 1 2 1 1 8 8 1 4 1 53 (f (− ) + f (− )) = − + +4− + +4 = = 5.5 1 1.. 0] es 1 3. se consideran los extremos del intervalo y su punto medio. FORMULAS DE NEWTON-COTES 135 b f (x)dx a ∼ 3h (f (x1 ) + f (x2 )).3) Ejemplo 7. . 2 3 3 2 27 3 27 3 2 3 0 3 −1 x Usando el valor exacto. b] la integral de la funci´n f por la de una funci´n cuadr´tica que interpola a f .´ ˆ 1. o Queremos calcular la aproximaci´n que da la f´rmula de Trapecios abierta.

b]: o xj = b n f (x) dx a ∼ Q(f ) = j=0 (b − a) Aj f (xj ). Luego. 1 −1 p(x) dx = 2 a0 + 2 a2 = 6a0 + 2a2 . As´ ı. . 0. 1] en [a. Si Q0 (f ) = j=0 1 −1 f (x) Aj f (tj ) es una f´rmula de cuadratura para aproximar la integral o dx entonces. . para j = 0. podemos re-escribir la aproximaci´n en [a. n n Q0 (g) = j=0 Aj g(tj ) = j=0 αAj f (αtj + β). . usando el ı.5) como en la f´rmula (7. para (b − a) (a + b) tj + . 2 2 se tiene una f´rmula de cuadratura para el intervalo [a.4). Si llamamos xj = αtj + β. . n. b]. ∀j = 0. que aproxima a −1 f (x) dx.136 ´ ´ 7. . Aplicando la f´rmula Q0 a la funci´n g(t) = αf (αt + β) para el intervalo [−1. INTEGRACION NUMERICA n Lema 7. . 1] tenemos. Consideremos el cambio de variables x = αt+β. o polinomio interpolador p en los nodos equiespaciados {−1. b 1 f (x) dx = a −1 f (αt + β) α dt. . .3. . b] dada en (7. . tenemos que xj = (b − a) (a + b) tj + 2 2 ∀j = 0.5) con. . 2 (7. con α = (b−a)/2 y β = (a+b)/2 o que transforma el intervalo [−1. Si p(x) = a0 + a1 x + a2 x2 . 3 6 . o o 1 Ahora s´ procedemos a dar la f´rmula de Simpson. .4) Demostraci´n. n. o o b 1 f (x) dx = a −1 f (αt + β) α dt ∼ Q0 (g) (7. 1}. n.

a0 = f (0). entonces la f´mula (7. 2] obtenemos por a resultado 39 . ¿Cu´l o a es el valor que se obtiene al aproximar la integral de f en este intervalo si se emplea la f´rmula o de Simpson cerrada? Para este intervalo tenemos. b] en cuartos. Como a y b no forman parte de los nodos. Si escribimos la f´rmula en t´rminos de la distancia entre un nodo y otro. 1 }. 1] y luego por el Lema 7. De esta manera 4 consideramos {x1 .´ ˆ 1. 3. 2 2 . x3 } los extremos de los intervalos medios. luego h = 3 y a + h = a+b = 1 . 2].4. a1 = f ( 1 ) − f (− 2 ). b] la f´rmula de Simpson simple cerrada: o S(f ) = (b − a) f (a) + 4f ((a + b)/2) + f (b) . 1 f (1) − f (−1) f (−1) − 2f (0) + f (1) y a2 = . b]. 4 Regla de Simpson abierta: es la que se obtiene al reemplazar f por un polinomio de grado 2 que la interpole en nodos equiespaciados en el interior del intervalo [a. Para ´sto partimos e al intervalo [a.4. 6 b−a 2 . x2 . esta f´rmula recibe el o nombre de Simpson abierta. a1 = Luego. 2 2 2 p(x) dx = [f (−1) + 4f (0) + f (1)]. h = o e h f (a) + 4f (a + h) + f (b) .4 extendemos la f´rmula a cualquier intervalo [a.6) o 2 2 2 nos da 1 1 17 39 1 S(f ) = f (−1) + 4f ( ) + f (2) = 7 + 4 + 4] = . sabemos que p(x) = a0 + a1 x + a2 x2 verifica el sistema:      1 −1 1 a0 f (−1)  1 0 0   a1  =  f (0)  1 1 1 a2 f (1) Por lo tanto. 2. podemos hallar el polinomios de grado 2 que interpola a una funci´n o en el intervalo [−1. el polinomio p(x) = a0 + a1 x + a2 x2 interpola a f en los nodos {− 1 . 0. Si procedemos como antes. (ver Figura 7. 2 2 2 8 4 En este caso el c´lculo es exacto puesto que al calcular la integral de f en [−1. por el Lema 7. es decir en subintervalos de longitud h = b−a . y 2 2 1 1 resultan a0 = f (0). b − a = 3. es decir xj = a + jh para j = 1. 6 −1 1 f (x) dx −1 ∼ Ahora. Para la funci´n f (x) = x3 − 4x + 4 consideremos ahora el intervalo [−1. o En este caso.6) Ejemplo 7.4). 3 se tiene: S(f ) = (7. b]. FORMULAS DE NEWTON-COTES 137 Por otro lado. y a2 = 2f (− 1 ) − 4f (0) + 2f ( 2 ). se tiene para un intervalo [a.

5 0 0. 3 Ejemplo 7. ∼ 1 2f (− ) − f ( ) + 2f ( ) = 2 4 2 4 64 8 64 64 4 que vuelve a ser un c´lculo exacto. Como h = 2 −1 b−a 4 3 = 4 . a + 3h = 5 . Decimos que una f´rmula de cuadratura Q(f ) = j=0 b Aj f (xj ) tienen grado de exactitud k.5 2 Figura 7. o n ´ o Definicion 7. a + 2h = 1 . Consideremos nuevamente la funci´n f (x) = x3 − 4x + 4 en el intervalo [−1. . INTEGRACION NUMERICA 9 8 7 6 (a+h. Esto motiva la siguiente definici´n.4.6. si a p(x) dx = Q(p) para todo polinomio p ∈ Pk y no para Pk+1 . −1 p(x) dx = 2 3a0 + a2 = 2 2f (− 1 ) − f (0) + 2f ( 1 ) . Regla de Simpson abierta Luego. al igual que la f´rmula de o o Trapecios lo es para polinomios de P1 . entonces a + h = − 1 . as´ tenemos ı 4 2 4 x3 − 4x + 4 dx 1 5 319 17 61 624 39 1 − +2 = = . f(a+h)) 5 4 3 (a+2h. f(a+2h)) 2 1 (a+3h.4 y escribiendo la f´rmula en t´rminos del paso h = b−a obtenemos. o e 4 b 1 f (x) dx a ∼ 4h 2f (a + h) − f (a + 2h) + 2f (a + 3h) . 2]. f(a+3h)) 0 −1 −0.138 ´ ´ 7.5 1 1. b] 3 3 2 2 por medio del Lema 7. o Queremos hallar una aproximaci´n de la integral de f en dicho intervalo por medio de la regla o de Simpson abierta.5. Al pasar a un intervalo [a. a Es claro que la f´rmula de Simpson es exacta para polinomios de P2 .

´ 2. Q(αf + g) = αQ(f ) + Q(g) y este valor aproxima en [a. Estimaci´n del error o Antes de estudiar c´mo pueden mejorarse las aproximaciones obtenidas. . b] la integral de αf + g para todo α ∈ IR. Es decir. la f´rmula de Simpson cerrada tiene grado de exactitud k = 3. la igualdad b a n xm dx = j=0 Aj xm j debe verificarse para todo m = 0. o 1 2. . gracias al Lema 7. xk } y no lo es para el polinomio xk+1 . . o e sin perder generalidad.8. x4 . f y g funciones. . . Luego. Tambi´n podr´ e ıamos buscar otras f´rmulas o interpolando con polinomios de mayor grado. Las f´rmulas de Trapecios y Simpson se obtienen de integrar el o polinomio interpolador de grado 1. B = {1. Esto es. x. Toda f´rmula de cuadratura o a b n f (x) dx ∼ Q(f ) = j=0 Aj f (xj ) es lineal.9. a Ejemplo 7. b] para el cual est´ calculada. tanto abiertas como cerradas. podemos reducir el estudio del grado de exactitud al comportamiento de la f´rmula sobre una base del espacio de polinomios. b En lo que sigue notaremos por I(f ) = a f (x) dx. Lo mismo suceder´ para o a la f´rmula abierta. . por Observaci´n 7. son exactas para polinomios o de P2 . basta ver qu´ sucede con x3 .7. o Es claro que las f´rmulas de Simpson. en el intervalo [−1. . .4. Una f´rmula de cuadratura Q tiene grado de exactitud k si y solo si es exacta o para la base de Pk . 6 −1 1 2 2 1 x4 dx = = = [(−1)4 + 4(0)4 + (1)4 ]. Esto queda expresado en la siguiente o observaci´n. 5 3 3 −1 Luego. 1]. 2 respectivamente. . y esto puede hacerse. . una f´rmula de cuadratura tiene grado de exactitud k indepena o dientemente del intervalo [a. ESTIMACION DEL ERROR 139 ´ Observacion 7. .. x2 . En virtud de este resultado. o ´ Observacion 7. . Se quiere calcular el grado de exactitud de la f´rmula de Simpson cerrada. Adem´s.8. Tenemos 2 x3 dx = 0 = [(−1)3 + 4(0)3 + (1)3 ]. veamos cu´l es el error o a que se comete al utilizarlas. k y no para m = k + 1.

entonces usando el teorema anterior. 6 Finalmente. b] una f´rmula que mide el error cuando o o se considera su polinomio interpolador pn ∈ Pn en lugar de f : En (x) = f (x) − pn (x) = f (n+1) (ξ) Wn+1 (x) (n + 1)! (con ξ ∈ (a. b) tal que b b g(x)h(x) dx = h(η) a a g(x) dx. si h = b − a es la distancia que hay entre los dos nodos. el error puede expresarse por . entonces existe η ∈ (a. h son funciones continuas en [a. b R(f ) = I(f ) − Q(f ) = a f (η) b = (x − a)(x − b) dx 2 a f (η) =− (b − a)3 . tenemos b (x − a)(x − b) dx = (x − b) a (x − a)2 2 b a b − a (x − a)2 (x − a)3 dx = − 2 6 b a =− (b − a)3 . INTEGRACION NUMERICA El Teorema 5. o Teorema 7. b}. y por tanto W2 (x) = (x − a)(x − b). b) que depende de) x. Luego.140 ´ ´ 7.10. Si derivamos (x − b) e integramos (x − a). que no cambia de signo en [a. (n + 1)! Error para la Regla de Trapecios: Para estimar el error citamos el siguiente teorema del que omitimos dar una demostraci´n.4 da. b] tales que g no cambia de signo. (Valor Medio Integral Generalizado). Si g. Es decir b R(f ) = a f (n+1) (ξ) Wn+1 (x) dx. para cualquier funci´n f ∈ C n+1 [a. 12 b f (ξ) W2 (x) dx 2! Notar que hay una forma directa de calcular a (x − a)(x − b) dx que es calcularla por partes.1) podemos expresar el error de integraci´n o o por b R(f ) = I(f ) − Q(f ) = a (f − pn )(x) dx. si Q es una f´rmula de cuadratura como en (7. b]. Para calcular el error de la regla de los trapecios recordemos que los nodos son {a.

. 1 ). 1]. definimos φ(t) para t ∈ [a. ¿Cu´l es el valor de dicha aproximaci´n? ¿Qu´ an´lisis se puede hacer si a o e a se considera la misma funci´n en el intervalo [−1. Por ejemplo. Por un lado |f (x)| = |12x2 − 2| ≤ 10. b]. 1]? o h3 f (η) para 12 1 alg´n η ∈ (0. p3 (x2 ) = f (x2 ). al estimar el error perdemos informaci´n. x1 . Para acotar esto necesitamos acotar f (x) − p3 (x). as´ a ı. x1 = (a + b)/2 y x2 = b. (dejamos como ejercicio probar que un tal p3 existe).´ 2. |R(f )| = 8 20 h3 |f (η)| ≤ 10 = = 6. Observemos que S(f ) = S(p3 ) pues p3 interpola a f en x0 . p3 (x1 ) = f (x1 ). p3 (x1 ) = f (x1 ). 12 para alg´n η ∈ (a. Definamos el polinomio c´bico auxiliar.11. Estimar el error cometido al aproximar 02 x4 − x2 + 2x + 3 dx por la f´rmula o de trapecios cerrada. |f (x)| ≤ 2. como la regla de Simpson es exacta en polinomios de grado a 3. Para x fijo distinto de x0 .666. x2 . Adem´s. y el valor que arroja la f´rmula es T (f ) = o 15 2 (f (−1) + f (1)) = 6 y el error real es 0. 12 8 12 61 16 ) 1 El valor de la aproximaci´n est´ dado por T (f ) = 4 (f (0) + f ( 1 )) = 1 (3 + o a 2 4 = 3. pues alcanza su valor m´ximo en los extremos del intervalo y h = b − a = 2. 2 ].020833.. acotamos |f (x)| para todo x ∈ [0. f (x) = x4 − x2 + 2x + 3 y f (x) = 12x2 − 2. tenemos que S(p3 ) = I(p3 ). 12 12 3 1 Aunque −1 x4 − x2 + 2x + 3 dx = 86 = 5. u 1 (7. a 1 Tenemos h = 2 . x2 . no logramos un resultado muy fino. ESTIMACION DEL ERROR 141 R(f ) = − h3 f (η). entonces I(f ) − S(f ) = I(f ) − S(p3 ) = I(f ) − I(p3 ). 2 Error para la Regla de Simpson: es un poco m´s dif´ de analizar pues el polinomio a ıcil W3 (x) = (x − a)(x − a+b )(x − b) cambia de signo en [a. Como R(f ) = − Luego. p3 (x) como aquel u polinomio que verifica p3 (x0 ) = f (x0 ). b] por .7) Ejemplo 7.. Esto es. puesto que alcanza u 2 su valor m´ximo en el extremo izquierdo del intervalo..81250 A veces..7333.. x1 ..2666. 2 Sean x0 = a.. |R(f )| = h3 1 1 |f (η)| ≤ 2 = 0. b). si queremos estimar el error o cometido al considerar x ∈ [−1.

Aproximar 0 e−x dx mediante la regla de Simpson cerrada y estimar el error 2 que se comete al efectuar dicho c´lculo. Por el teorema de Rolle φ tiene al menos tres ceros en (a.12. b]. b) que est´n entre los cuatro ceros de φ. en consecuencia φ tiene al menos cuatro ceros. as´ 2 1 0 2 e−x dx 2 ∼ 1 1 1 1 (f (0) + 4f ( ) + f (1)) = (1 + e− 4 + e−1 ) = 0. por el valor medio a f (iv) (ξ) (x − x0 )(x − x1 )2 (x − x2 ) dx.. 1]. x2 y x. f (x) = e−x .142 ´ ´ 7. De la definici´n de φ esto es equivalente a o f (iv) (ξ) (x − x0 )(x − x1 )2 (x − x2 ). Como R(f ) = para alg´n η ∈ (0. INTEGRACION NUMERICA φ(t) = f (t) − p3 (t) − (f (x) − p3 (x)) (t − x0 )(t − x1 )2 (t − x2 ) (x − x0 )(x − x1 )2 (x − x2 ) . 4! a Ahora observamos que. |4x4 − 12x2 + 3| ≤ 5 en a [0. 6 2 6 Para estimar el error consideramos f iv (x) = 4(4x4 − 12x2 + 3)e−x . e−x ≤ 1 y por otra parte puede verse que |4x4 − 12x2 + 3| alcanza su valor m´ximo en el extremo superior del intervalo. 4! Como la funci´n (x − x0 )(x − x1 )2 (x − x2 ) no cambia de signo en (a.006944. x1 . Entonces φ(x) tiene al menos cuatro ceros en [a. Si f es C un punto ξ ∈ (a. b) podemos obtener.74951. 90 2 . o f (x) − p3 (x) = b I(f ) − I(p3 ) = O bien. 15 Entonces R(f ) = I(f ) − S(f ) = I(f ) − I(p3 ) = 1 −h5 (iv) f (iv) (η) −4h5 ( )= f (η).. 1] y por lo tanto 1 1 5 |R(f )| ≤ 20 = 0. u 2 2 −h5 (iv) f (η) 90 Por una parte tenemos que en [0.. Luego. acotamos |f (x)| para todo x ∈ [0. 1). 1]. I(f ) − I(p3 ) = b a (x − x0 )(x − x1 )2 (x − x2 ) dx = −4h5 . x0 . a ı Tenemos h = 1 . Por construcci´n a o 4 encontramos que existe φ (x1 ) = 0. b) tal que φ(iv) (ξ) = 0. 4! f (iv) (η) b (x − x0 )(x − x1 )2 (x − x2 ) dx. 4! 15 90 Ejemplo 7. llamando h = (b − a)/2..

. . entonces se tiene . la f´rmula de cuadratura ser´ o a b n−1 n−1 f (x) dx ∼ a j=0 Qj (f ) con error R(f ) = j=0 Rj (f ). Como vimos en a e el Cap´ ıtulo 5. Lema 7. Este ultimo o ´ procedimiento se conoce como “cuadraturas compuestas”. b]) y sean {a0 . F´rmulas de cuadratura compuestas o Si queremos aumentar la presici´n al aproximar a f (x) dx.´ 3. . . Veremos m´s adelante que ´sto no siempre es conducente. ak } constantes con el mismo signo y {t0 . FORMULAS DE CUADRATURA COMPUESTAS 143 3. los que se trasladar´ al c´lculo de la integral. es el de partir el intervalo [a. Sabemos que b n−1 xj+1 b I(f ) = a f (x) dx = j=0 xj f (x) dx. La idea general es como sigue. . Esto es. < xn = b.13. tk } ∈ [a. Sea g ∈ C([a. b] en subintervalos eligiendo puntos xj con a = x0 < x1 < .8) Para dar una exprexi´n de las f´rmulas y estudiar simult´neamente el error cometido en cada o o a caso vamos a necesitar el siguiente lema. . considerar n + 1 nodos y el polinomio de Pn que interpola a f en esos nodos. . Ahora si para cada xj+1 Ij (f ) = f (x) dx xj tenemos una f´rmula de cuadratura Qj (f ) y consideramos el error respectivo. . . aumentar el grado del polinomio interpolador puede producir errores grandes en la aproximaci´n. Partimos el intervalo [a. . o Rj (f ) = Ij (f ) − Qj (f ) obtenemos n−1 n−1 R(f ) = j=0 Rj (f ) = j=0 b (Ij (f ) − Qj (f )) n−1 = a f (x) dx − j=0 Qj (f ) Esto es. Otro m´todo. (7. b]. que es que que o ıan a e vamos a desarrollar en esta secci´n. podemos aumentar el n´mero de o u nodos. con n ∈ IN grande. b] en peque˜os subintervalos o n y en cada uno de estos aplicar una aproximaci´n del tipo Trapecios o Simpson.

Esto nos permitir´ aprovechar las f´rmulas ya calculadas a o (Trapecios y Simpson) dado que la distancia entre dos nodos. INTEGRACION NUMERICA k k aj g(tj ) = g(η) j=0 j=0 aj para alg´n η ∈ [a. que tambi´n llamaremos ‘paso h’ e no var´ ıa. . .144 ´ ´ 7. b]. luego tomamos los nodos xj = a + jh para j = 0. Entonces. luego para cada j : (aj ≥ 0) (sumando) m m aj k ≤ ≤ ≤ g(tj ) aj g(tj ) k ≤ ≤ M M aj k m j=0 aj g(tj )aj j=0 ≤ M j=0 aj Ahora. La f´rmula (7. como G es un m´ltiplo de g. Considerao remos el caso de nodos equiespaciados. Adem´s. Podemos suponer que aj ≥ 0 para o todo j = 1. . b] tal que k G(η) = j=0 aj g(tj ). . k es decir g(η) k aj = j=0 j=0 aj g(tj ). b] u a a k k es M j=0 aj y el valor m´ ınimo es m j=0 aj . definimos la funci´n G : [a. . b] → IR. el valor m´ximo de G en [a. existe η ∈ [a. por el teorema del valor medio. n − 1 con h = (b − a)/n. k. Regla de Trapecios compuesta: para la f´rmula cerrada se tiene que tanto a como b son o nodos. b]. o k G(x) = g(x) j=0 aj . Sea m = min g(x) y M = max g(x) en [a. Ahora estamos en condiciones de desarrollar las f´rmulas de cuadratura compuestas. 2 . resulta continua en [a. u Demostraci´n. como quer´ ıamos demostrar. b]. . .2) nos da para cada integral o xj+1 f (x) dx xj ∼ Tj (f ) = h (f (xj ) + f (xj+1 )). .

0 e−x dx con error 2 Para hallar el n´mero de subintervalos a considerar usamos la expresi´n del error (7.14. se tiene: |R(f )| = h2 1 1 h2 (b − a)|f (η)| ≤ 2= 12 12 6 n 2 Si tomamos n > 40.8248. gracias al Lema 7. basta tomar n = 41.9) Como para cada subintervalo se comete un error (ver (7. podemos asegurar que |R(f )| < 10−4 .13 (con aj = 1 para todo j) y teniendo en cuenta que h = (b − a)/n si y solo si n = (b − a)/h. j=0 Ahora.. Como e−x2 ≤ 1 y |4x2 − 2| ≤ 2 mos acotar |f (x)| para x ∈ [0. tenemos que existe η ∈ (a. . 1] siendo f (x) = (4x en este intervalo.´ 3.7)) Rj (f ) = − n−1 se tiene R(f ) = j=0 − f (ηj ) 3 h3 h =− 12 12 n−1 f (ηj ).10) Ejemplo 7. b) tal que h3 h3 b − a h2 nf (η) = − f (η) = − (b − a)f (η). Determinar el n´mero n de subintervalos necesario para que el error cometido u 1 con la regla de Trapecios compuesta de una aproximaci´n de la integral o menor que 10−4 .. Debeu o 2 − 2)e−x2 . + f (xn−1 ) + f (xn )] 2  n−1 h f (x0 ) + 2f (xj ) + f (xn ) 2 j=1 Entonces la cuadratura compuesta usando la regla de Trapecios cerrada viene dada por  T (f ) = h f (x0 ) + 2 n−1 j=1 f (ηj ) 3 12 h  2f (xj ) + f (xn ) (7. 12 12 h 12 R(f ) = − (7. .10). . FORMULAS DE CUADRATURA COMPUESTAS 145 Luego. Es decir. n−1 T (f ) = j=0 h (f (xj ) + f (xj+1 )) 2 = = h [f (x0 ) + f (x1 ) + f (x1 ) + f (x2 ) + .

j 2 j+1 .12) u Ejemplo 7. 3 2 Como interpolamos f por un polinomio de grado 2. Luego. Es decir.146 ´ ´ 7.8) cuando se usa o la f´rmula de Simpson en cada partici´n del intervalo [a. en puntos equiespaciados. Por el Lema 7. As´ el paso h entre dos nodos de cada integral es la ı. n 2n n−1 S(f ) = j=0 xj + xj+1 h (f (xj ) + 4f ( ) + f (xj+1 )) 3 2 f´rmula que podemos expresar como o  S(f ) = h f (a) + 2 3 n−1 n−1  f( xj + xj+1 ) + f (b) 2 (7.13 (con aj = 1 para todo j) y teniendo en cuenta que h = tenemos que existe η ∈ (a. b].6) nos da para cada integral o xj+1 f (x) dx xj ∼ Sj (f ) = xj + xj+1 h (f (xj ) + 4f ( ) + f (xj+1 )).15. o o La f´rmula (7. recordemos que en cada subintervalo el o error est´ dado por a −h5 (iv) Rj (f ) = f (ηj ). Determinar el n´mero n de subintervalos necesario para que el error cometido 1 con la regla de Simpson compuesta de una aproximaci´n de la integral o menor que 10−4 . 1 longitud media del intervalo [xj . h = 2 b−a = b−a . INTEGRACION NUMERICA Regla de Simpson compuesta: se trata de obtener una f´rmula del tipo (7. 90 n−1 R(f ) = j=0 −h5 (iv) −h5 f (ηj ) = 90 90 n−1 f (iv) (ηj ). en cada integral x +x intervienen los nodos {xj . j=0 b−a 2n b−a 2h . b) tal que si y solo si n = R(f ) = −h5 (iv) −h5 b − a (iv) −h4 nf (η) = f (η) = (b − a)f (iv) (η).14 0 e−x dx con error 2 .11) f (xj ) + 4 j=0 j=0 Para analizar el error cometido al usar esta f´rmula. 90 90 2h 180 (7. xj+1 ]. xj+1 }. Comparar con el ejemplo 7.

16. y) dxdy = D a φ(x) f (x. 2 . y) dydx. u ´ Observacion 7. |R(f )| = Finalizaremos esta secci´n con una aplicaci´n de los m´todos hasta ahora estudiados al c´lculo o o e a aproximado de integrales m´ltiples. 1 El valor de F (0) es el valor de la integral 0 g(y) dy con g(y) = f (0.12). F ( 1 ). si D ⊂ IR2 es una regi´n que podemos describir por medio de funciones reales. Esto es. 0) + 4f (1. se define la funci´n o o 1 F (x) = 0 f (x. Para f : IR2 → IR una funci´n continua y D = [0. basta tomar n = 3. Por ejemplo. F (1) con la regla de Simpson.. 1] × [0. y). 1 ) + f (0. o 2 Usamos la cota hallada en el Ejemplo 7. Ejemplo 7. y calcular las integrales iteradas por los procedimientos anteriores.17. FORMULAS DE CUADRATURA COMPUESTAS 147 El error viene dado por la f´rmula (7. mientras que para la regla de Trapecios compuesta pod´ ıamos asegurar el mismo error partiendo en 41 subintervalos de igual longitud.´ 3. luego aplicando la regla de Simpson simple cerrada tenemos F (0) ∼ 1 f (0. 1]. 1 ) + f ( 1 .886. 0) + 4f ( 1 . Necesitamos acotar f (iv) (x) en el intervalo [0. 2 1 • Se aproxima 0 F (x) dx usando otra vez la misma regla. 1) 6 2 An´logamente se obtiene los otros dos valores: a F(1) 2 F (1) Ahora. o podemos escribir (si la regi´n es de Tipo 1) o b ψ(x) f (x. 1) 2 F (x) dx 0 ∼ 1 6 F (0) + 4F ( 1 ) + F (1) . Es decir. Es posible aplicar en forma iterada las reglas de integraci´n que acabamos o de desarrollar para aproximar integrales m´ltiples de funciones continuas. 180 9 2n Si tomamos n > 2. 1) 2 2 2 2 f (1.12.. 1 ∼ ∼ 1 6 1 6 f ( 1 . para las cuales el u teorema de Fubini puede aplicarse. |f (iv) (x)| = |4(4x4 − 12x2 + 3)e−x | ≤ 20. 1 Entonces. y) dy y luego • Se aproximan los valores F (0). podemos asegurar que |R(f )| < 10−4 . 1 ) + f (1. 0) + 4f (0. 1]. con h = b−a = 2n se tiene 2n h4 (iv) 1 1 4 |f (η)| ≤ .

(0. y definimos Qn (f ) = j=0 Aj f (xj ) (n) (n) donde los Aj (n) est´n dados por a Aj (n) b = a (n) j (x)w(x) dx. (1. 1). F ( 1 ) y F (1) se reemplazan por los valores aproximados ya calculados. a Para estudiar la convergencia de estas cuadraturas cuando se incrementa el n´mero de nodos u usaremos notaci´n m´s espec´ o a ıfica. Se o recupera exactamente lo estudiado hasta ahora al considerar w(x) = 1 para todo x ∈ [a. Convergencia de los m´todos de cuadratura e Es natural preguntarse si el procedimiento estudiado converge a la integral cuando el n´nero u b de nodos tiende a infinito. (1. El siguiente teorema da una a condici´n que asegura la convergencia. a o Cuando aproximamos f por el polinomio interpolador de Lagrange y usamos la base de Lagrange b para tal fin. ). 2 En la forma expl´ ıcita de esta regla aparecen los 9 nodos: 1 1 1 1 1 1 (0. 0). . . ). y). xn } y de la funci´n w. ( . 0). el de aproximar a f (x)w(x) dx. o Teorema 7. 0). con w : [a.18. (0. Dada f ∈ C[a. . Es decir. . ( . 1) 2 2 2 2 2 2 para los cuales se debe calcular el valor de f (x. ( . (1. 1). . b] y dado n ∈ IN notamos por b n I(f ) = a f (x)w(x) dx.148 ´ ´ 7. los nodos y pesos de la misma se indicar´n con el n correspondiente. se tendr´ que Aj = a j (x)w(x) dx para j = 0. b] En tal caso una cuadratura b n b f (x)w(x)dx a ∼ Q(f ) = j=0 Aj f (xj ) tendr´ pesos Aj dependiendo de los nodos {x0 . x1 . ). . 4. b] → IR una funci´n de peso positiva. . podr´ ıamos haber tratado un caso m´s a b general. tanto la base de Lagrange como la cuadratura. . si Qn (f ) es la aproximaci´n de a f (x) dx que se hace a o b trav´s de un polinomio que interpola a f en n + 1 nodos. n. ¿vale que Qn (f ) → a f (x) dx cuando e n → ∞? En esta secci´n veremos una condici´n para que esto suceda. o o Si bien hasta ahora aproximamos el valor de a f (x) dx. INTEGRACION NUMERICA donde cada valor F (0). . Esto es.

o . si llamamos c = b a w(x) dx. Tenemos que. a≤x≤b ∞ Observemos que como Qn es exacta para polinomios de grado menos o igual que n. a (n) (n) n j=0 Aj (qN (xj ) − f (xj )) ≤ Kε. de la cual omitimos una demostraci´n. se tiene b |I(f ) − I(qN )| = ≤ f − qN y adem´s. Por el teorema de Weierstrass. |I(f ) − Qn (f )| = |I(f ) − I(qN ) + Qn (qN ) − Qn (f )| ≤ |I(f ) − I(qN )| + |Qn (qN ) − Qn (f )|. (n) ≤ f − qN ∞ (n) n j=0 |Aj | Con todo esto. entonces se tiene que Qn (qN ) = I(qN ) para todo n > N . a |Qn (qN ) − Qn (f )| = a ∞ w(x)(f (x) − qN (x)) dx b w(x) dx ≤ cε. |I(f ) − Qn (f )| ≤ (c + K)ε. hemos probado que dado ε > 0 existe N tal que si n > N . CONVERGENCIA DE LOS METODOS DE CUADRATURA 149 Si existe una constante K tal que n j=0 |Aj | ≤ K entonces (n) ∀n n→∞ lim Qn (f ) = I(f ) Demostraci´n.´ 4. Tambi´n vale la implicaci´n rec´ e o ıproca. que enunciamos en el siguiente teorema. Ahora bien. dado ε > 0 existe un polinomio qN ∈ PN (N o depende de ε) tal que max |f (x) − qN (x)| = f − qN ≤ ε.

los pesos crecen y no est´n acotados. si lim Qn (f ) = I(f ) entonces existe una consn→∞ tante K tal que n |Aj | ≤ K j=0 (n) ∀n. . Los polinomios de Tchebychev dan una soluci´n en este sentido. para todo n ∈ IN. Se sabe que si n ≥ 10 los pesos de las f´rmulas de Newton-Cˆtes cambian de signo. o e o 5. o o u cuando n crece. (n) y tenemos que estas aproximaciones de la integral convergen a la misma. xn } e interpolamos f con un polinomio o p ∈ Pn pueden producirse errores grandes en la aproximaci´n como vimos en el Cap´ o ıtulo 5. (n) La constante K que satisface la hip´tesis del teorema anterior es o b n K= a w(x) dx = j=0 |Aj |. por lo tanto existen funciones continuas a para las cuales este procedimiento para aproximar la integral no converge. As´ el camino ı. seguro para aumentar la precisi´n usando f´rmulas de Newton-Cˆtes es por medio de f´rmulas o o o o compuestas.20. INTEGRACION NUMERICA Teorema 7. . Peor a´n. x1 . . Con las notaciones anteriores.19.150 ´ ´ 7. Estudiaremos este m´todo en la secci´n siguiente. Los nodos o o a considerar son los ceros del polinomio de grado n + 1. Corolario 7. Una forma de mejorar el error que se comete es elegir los puntos de interpolaci´n para optimizar o la aproximaci´n. o b b . b n n 0 < I(1) = a w(x) dx = Qn (1) = j=0 Aj (n) = j=0 |Aj |. Como la aproximaci´n por cuadraturas Qn es exacta para polinomios de Pn . a Demostraci´n. Como w(x) > 0 y los pesos son todos positivos tenemos que. o f (x)w(x) dx. Cuadratura Gaussiana Queremos aumentar la presici´n al aproximar a f (x) dx. en o o b particular se tiene que Qn (1) = a w(x) dx. . El m´todo de cuadratura gaussiana e generaliza este tipo de elecci´n. Si consideramos nodos fijos {x0 . Sin embargo es posible aumentar precisi´n aumentando el n´mero de los nodos de o u interpolaci´n. Si los pesos Aj (n) son todos positivos tenemos entonces b Qn (f ) → para toda funci´n continua f . o a f (x)w(x) dx como vimos en la o secci´n anterior.

tiene signo constante en el intervalo (a. para cada n fijo. (w(x) > 0).5. CUADRATURA GAUSSIANA 151 En s´ ıntesis. p1 . A1 . Si no fuera as´ o ız ı. . . g = a f (x)g(x)w(x) dx. . Supongamos que pn tiene alg´n cero u m´ltiple y veamos que esto no es posible. b] el producto interno b f. . el Teorema que sigue nos da un e o resultado an´logo para cualquier familia de polinomios ortogonales. . As´ como los ceros del polinomio de Tchebychev de grado n son todos distinto.21. y entonces q(x) = (x − x0 )2 es una combinaci´n lineal de {p0 . en particular. . Teorema 7. El segundo paso ser´ ver que las ra´ a ıces de pn son simples. ı y ´stos son tomados como nodos para interpolar una funci´n f . Luego. . b). . o Respectivamente. Sea n ≥ 1 fijo. xn }. a Consideremos sobre V = C[a. q divisible por (x − x0 )2 . notemos {pj } los polinomios ortonormales. es decir que tenemos 2n + 2 variables. 1 = esta contradicci´n muestra que pn no s´lamente tiene una ra´ real sino que tiene al menos un o o ız cero en (a. . Si x0 ∈ IR es una ra´ mu´ltiple. y llamemos {qj } a los polinomios ortogonales y m´nicos con respecto a este producto interno. x1 . distintas entre s´ y pertenecen al intervalo ı (a. por consiguiente. An } como los nodos {x0 . b). Supongamos que pn (x) > 0 en (a. Gauss demostr´ que o o este sistema tiene soluci´n unica cuando w = 1 y el intervalo es [−1. El Lema 7. . b). pn tiene signo constante. Como pn y q0 (q0 = 1) son ortogonales tenemos b 0 = pn . o a pn (x)w(x) dx > 0 . queremos encontrar una f´rmula de cuadratura o b n f (x)w(x)dx a ∼ Q(f ) = j=0 Aj f (xj ) donde podamos elegir tanto los pesos {A0 . 1]. pn−2 } y resulta ser ortogonal a pn . Veamos primero pn tiene al menos una ra´ real. . Demostraci´n. entonces pn es u ız u pn (x) es un polinomio de grado n − 2. . Si pedimos que las formulas de inetgraci´n sean exactas para o polinomios del mayor grado posible nos quedan las siguientes ecuaciones b a n xk w(x) dx = j=0 Aj xk j 0 ≤ k ≤ 2n + 1 Esto es un sistema no lineal de 2n + 2 ecuaciones con 2n + 2 inc´gnitas. b).4 nos o ´ permite independizarnos del intervalo mientras que la teor´ de espacios con producto interno y ia polinomios ortogonales vistos en el Cap´ ıtulo 6 nos permiten trabajar con un peso arbitrario w. Las ra´ ıces de pn son todas reales.

Demostraci´n. INTEGRACION NUMERICA b 0 = pn . . . xk son los ceros de pn que est´n en (a. a Ahora probemos el teorema b´sico de las cuadraturas de Gauss. . (x − xk ). . luego k = n − 1 y todos lo o ceros de pn est´n en (a. xk son simples el polinomio r dado por r(x) = pn (x)/(x − x0 )(x − x1 ) . . b). . . resta ver que todas las ra´ ıces de pn pertenecen al intervalo (a. b). vale para cualquier polinomio de grado menor o igual a 2n + 1 si y solo si los puntos {xj } son los ceros de pn+1 (x). Por el algoritmo de divisi´n para polinomios se puede escribir o p(x) = pn+1 (x)S(x) + R(x) con S(x) y R(x) en Pn (x). b). (x − xk ) = a b pn (x)(x − x0 ) . como el grado de R es a lo sumo n. nuevamente.152 ´ ´ 7. En consecuencia todos lo ceros de pn son simples. . . (x − xk )2 (x)w(x) dx > 0. es una contradicci´n. b 0 = pn . Como las ra´ ıces x0 . La f´rmula o b n p(x)w(x) dx = a j=0 Aj p(xj ). (x − xk )w(x) dx r(x)(x − x0 )2 . . es decir que pn tiene ceros que no pertenecen a (a. q = a b pn (x) = a pn (x) w(x) dx (x − x0 )2 pn (x)2 w(x) dx > 0. . . b). tiene grado n−(k+1). = a Esta contradicci´n proviene de suponer que el grado de r es no nulo. tenemos o . (x − x0 ) . . a Supongamos que x0 . Sea p(x) ∈ P2n+1 y supongamos que los puntos xj est´n dados por o a pn+1 (xj ) = 0 0 ≤ j ≤ n. Supongamos que r(x) > 0. . a Teorema 7. con lo cual es ortogonal a pn y tiene signo constante en (a. (x − x0 )2 que resulta. . o Finalmente. b) y supongamos que k < n − 1.22. . Por la definici´n de los pesos Aj .

por nuestra j=0 hip´tesis I(p) = Qn (p). Ahora supongamos que {xj } es un conjunto de puntos distintos y que se verifica b N p(x)w(x) dx = a j=0 Aj p(xj ) para todo p ∈ P2n+1 . Es claro que p ∈ P2n+1 . en consecuencia o b rk . Sea W (x) = n (x − xj ) y definamos p(x) = rk (x)W (x). pues W (x) se anula en los xj . en consecuencia W (x) = qn+1 (x) . CUADRATURA GAUSSIANA 153 I(R) = Qn (R).5. W = a b rk (x)W (x)w(x) dx = a n p(x)w(x) dx = j=0 n Aj p(xj ) = j=0 Aj rk (xj )W (xj ) = 0. S + I(R) = 0 + Qn (R) n = j=0 n Aj R(xj ) = j=0 Aj p(xj ) = Qn (p). Entonces I(p) = a b b b p(x)w(x) dx = a pn+1 (x)S(x)w(x) dx + R(x)w(x) dx a = pn+1 . Entonces W (x) es un polinomio m´nico de grado (n+1) que resulta o ortogonal a cualquier polinomio de grado menor o igual que n. Dado un entero k sea rk un polinomio de grado menor o igual que k.

si 0 < x ≤ h.154 ´ ´ 7. 1/3. respectivamente) para calcular las integrales: 1 0 0. 1/2. entonces lim Qn (f ) = I(f ). Corolario 7. Hallar el error de la regla de trapecios aplicada a f (x). si − h ≤ x ≤ 0 x.1 0 1 dx 1+x Calcular.23. h] (h > 0): f (x) = 0. o o (5) Considerar la funci´n definida en [−h. 1 (4) Construir la f´rmula abierta de Newton-Cotes para calcular −1 f (x) dx con nodos o −1/2. −1/3. como lk (xj ) = δkj . Ejercicios (1) Usar las f´rmulas cerradas de Newton-Cotes de dos y tres puntos (reglas de trapecios o y de Simpson. hallar una f´rmula de cuadratura por o interpolaci´n de la forma o 2h 0 f (x) dx ∼ A0 f (0) + A1 f (h). Sea Qn (f ) = n j=0 Aj f (xj ) n→∞ la cuadratura gaussiana. 0. INTEGRACION NUMERICA y entonces los xj son los ceros de pn+1 . 6. en forma exacta cada una de las integrales anteriores y verificar la a cota del error. 1. y la f´rmula cerrada de Newton-Cotes con nodos en los puntos −1. Es decir. (2) Interpolando las funciones de base de Lagrange.2 . ¿El orden es igual al obtenido para una funci´n suficientemente suave? o . adem´s. Por la definici´n de los lk (x) cada (lk )2 ∈ P2n y entonces I(lk ) = Qn (lk ) y en o o consecuencia. (3) Usar el m´todo de coeficientes indeterminados para dar una f´rmula de cuadratura por e o interpolaci´n: o 3h 0 f (x) dx ∼ A0 f (0) + A1 f (h) + A2 f (3h). b n 2 lk (x)w(x) 0< a dx = j=0 Aj (lk (xj ))2 = Ak . para la cuadratura gaussiana todos los pesos son positivos y por lo visto antes esto implica la convergencia.3 x4 dx ln(x) dx 0. 2 2 Demostraci´n.

e (b) Graficar las sucesiones obtenidas junto con el valor de π que arroja Matlab y el valor que se obtiene al aplicar la rutina quad de Matlab. b] acotar el error que se a comete al utilizarla. Mostrar que la f´rmula tiene grado de precisi´n por lo menos k. utilizar las reglas de trapecios y Simpson compuestas para aproximar num´ricamente la integral y dar un valor cercano a π. (b) Aproximar el valor de I usando el programa del Ejercicio 9 con los m´todos de los e trapecios. 1 (12) Se quiere calcular −1 e−x dx utilizando la regla de trapecios compuesta. −1 7 (b) Para f ∈ C 3 [−2. partiendo el 2 intervalo [−1. . 100. . (b) Af (x0 ) + Bf (x0 + 4). (9) Escribir un programa que utilice las reglas de trapecios. 2 4 0 1+x (a) Para n = 1. EJERCICIOS 155 (6) La f´rmula de cuadratura o b f (x) dx ∼ f ( a a+b ) b−a 2 es conocida como Regla de los Rect´ngulos. 1] en n subintervalos. 8 y 16. . . o o (13) La expresi´n Qn (f ) = n Aj f (xj ) define una f´rmula de cuadratura. . x. 4 4 4 3 4 3 (15) Hallar reglas de cuadratura de grado de precisi´n m´ximo para aproximar −3 f (x) dx. j=0 (a) Probar que Qn es lineal en f (el conjunto de funciones).6. b]. . . (7) Para f una funci´n C 2 probar que el error cometido al usar la f´rmula de cuadratura o o f ∞ 3 del Ejercicio 2 no excede el valor h . . (11) (a) Calcular exactamente la integral 2π I= 0 [1 − cos(32x)] dx.5) − 2 f (0) + 4 f (0. Simpson. Hallar n de modo que el error sea menor que 10−3 . de trapecios compuesta y de Simpson compuesta para calcular aproximaciones de la integral de una funci´n f (x) en un intervalo [a. b (b) Supongamos que Qn (f ) ∼ a f (x)w(x) dx y que es exacta para las funciones 1. Para f ∈ C 1 [a. 3 3 3 1 (b) 1 f (−1) + 3 f (− 3 ) + 3 f ( 1 ) + 1 f (1). (c) Calcular el valor de I que produce la rutina quad. . o a de las siguientes formas: (a) A[f (x0 ) + f (x1 )] (repitiendo el coeficiente). 2 (8) (a) Hallar una f´rmula de cuadratura del tipo: o 1 f (x) dx ∼ Af (−2) + Bf (0) + Cf (2).5). de Simpson. xk . 2] probar que el error cometido no excede el valor 12 f (3) ∞ . trapecios compuesta y Simpson compuesta para n = 2. 4. o o 1 o o (14) Determinar el grado de precisi´n de las f´rmulas para −1 f (x) dx: (a) 4 f (−0. o 1 1 π (10) Se sabe que dx = .

independientemente de la elecci´n o o de los coeficientes (Aj ) y de los nodos (xj ). b w(x) dx a (b) Probar que si w(x) ≡ 1. a (c) Considerar el intervalo [−1. INTEGRACION NUMERICA y determinar cu´les son dichos grados. (19) Hallar los pesos y los nodos de las f´rmulas de Gauss-Legendre de dos y tres puntos. la f´rmula tiene grado de precisi´n m´ximo si s = b a xw(x) dx . cualquiera sea w. ¿Cu´l es dicho grado? o a a (18) Sea w una funci´n de peso. (17) (a) Hallar una regla de cuadratura del siguiente tipo 1 −1 f (x) |x|dx ∼ A0 f (x0 ) + A1 f (x1 ). que tenga grado de precisi´n m´ximo. 1] y w(x) = (x − 1)2 . ¿Cu´l es dicho grado? o a a (b) Hallar una regla de cuadratura del siguiente tipo x−2 dx ∼ A0 f (x0 ) + A1 f (x1 ). Acotar el error que produce el uso de esta regla para funciones C 1 . 2 (21) Probar que una f´rmula de cuadratura o b a n f (x)w(x) dx ∼ Qn (f ) = j=0 Aj f (xj ) no puede tener grado de precisi´n mayor que 2n + 1. o (20) Usar las f´rmulas de Gauss-Legendre de tres puntos para estimar: o 1 3 2 (a) −1 sin(3x) dx. a 1 (16) Calcular −1 f (x)x2 dx mediante una regla de cuadratura de la forma 1 −1 f (x)x2 dx ∼ A0 f (x0 ) + A1 f (x1 ) que sea exacta para polinomios de grado menor o igual que 3. 2 0 que tenga grado de precisi´n m´ximo. (c) 1 ex dx. (b) 1 ln(x) dx. Se considera la regla de cuadratura de 1 punto: o f (x) b a 4 f (x)w(x) dx ∼ A0 f (s). a . o 1 3 (Los polinomios de Legendre m´nicos de grado dos y tres son x2 − 3 y x3 − 5 x). esta regla coincide con la regla de los rect´ngulos. b Sugerencia: Hallar un polinomio p ∈ P2n+2 para el cual Qn (p) = p(x)w(x) dx.156 ´ ´ 7. o o a (a) Probar que.

y) dx dy con D ⊂ IR2 usando el Teorema de Fubini. 1). y) = x2 + y 2 .6.17 y dar la f´rmula correspondiente o para D el tri´ngulo de v´rtices (0. (0. 1). (1. 0). (1. 0) la f´rmula anterior es exacta para f (x. a e o (b) Probar que si D es el tri´ngulo de v´rtices (0. EJERCICIOS 157 (22) Para f : IR2 → IR una funci´n continua. 0). (a) Repetir el procedimiento hecho en el Ejemplo 7. . y) dy. a e x Sugerencia: considerar F (x) = 0 f (x. (0. se quiere dar una f´rmula de cuadratura que o o aproxime D f (x. 0).

.

En su forma o a m´s general una ecuaci´n diferencial de orden n. para poder determinar una soluci´n es necesario tener m´s o a datos. Su soluci´n general es o o x(t) = Ceλt con C una constante arbitraria. En este ejemplo se ve f´cilmente que si se conoce el valor inicial x(0) = x0 a entonces la soluci´n es o x(t) = x0 eλt . x(n−1) (t)). o Algunos ejemplos de ecuaciones diferenciales son: Ejemplos 8. x (t). x(n) (t)) = 0. la ecuaci´n o x (t) = λx(t). La ley de o . . . . o Se llama orden de una ecuaci´n al m´ximo orden de derivada que aparece en ella. Supongamos que se tiene una part´ ıcula de masa m que se mueve en una direcci´n debido a la acci´n o o de un resorte y se quiere conocer la posici´n x(t) de la masa en el instante t. F : IRn+2 → IR es una funci´n conocida y x es la funci´n que se desea encontrar. . hay infinitas soluciones. o En este cap´ ıtulo abordaremos el problema de resolver ecuaciones diferenciales con valores iniciales. . desarrollaremos m´todos num´ricos para aproximar una funci´n conociendo una e e o ecuaci´n que involucra sus derivadas.1. es decir. x(t). . puede escribirse como a o F (t. Esto es lo que pasa en general y por lo tanto. (1) Para λ una constante dada. . x (t).CAP´ ıTULO 8 Resoluci´n de ecuaciones diferenciales ordinarias. o o Vamos a suponer que la derivada de mayor orden puede despejarse de tal forma que la ecuaci´n o se escribe como x(n) (t) = f (t. x (t). (8. donde t ∈ IR. (2) Veamos un ejemplo elemental de ecuaci´n que surge de un problema f´ o ısico. x (t). . es una ecuaci´n lineal de primer orden. Esto es algo general: dada una ecuaci´n diferencial para determinar una soluci´n es o o necesario conocer ciertos datos iniciales. Es decir.1) para t ∈ IR y f : IRn+1 → IR una funci´n dada. x(t).

La proyecci´n F de esta fuerza en la direcci´n del movimiento (o sea o o tangencial al arco de circunferencia que describe el p´ndulo) resulta entonces. una ecuaci´n no lineal de segundo orden. En efecto. ω la frecuencia y ϕ la fase. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. 2π) es el unico ´ 0 a ´ngulo que satisface cos ϕ = x0 /A y sen ϕ = v0 /ωA. o puede resolverse anal´ ıticamente. Para poder determinar la posici´n en el instante t necesitamos conocer ciertas cono diciones iniciales. la soluci´n general de esta o ecuaci´n es o x(t) = C1 cos(ωt) + C2 sen(ωt) 2 2 donde C1 y C2 son constantes arbitrarias. a . es f´cil ver que de a las condiciones iniciales se deduce que A = x2 + (v0 /ω)2 y ϕ ∈ [0. En este caso se quiere e determinar el ´ngulo θ(t) que un p´ndulo con masa m forma respecto de la vertical en el a e instante t. Introduciendo A = C1 + C2 y ϕ ∈ [0. Esto es o o consecuencia del teorema de existencia y unicidad que enunciaremos m´s adelante. Hooke dice que la fuerza F (t) que ejerce el resorte en el instante t es proporcional a su estiramiento o compresi´n. Por lo tanto. Por otra parte. o sea. la soluci´n general puede escribirse como o A cos(ϕ − ωt) donde A representa la amplitud. Para esto consideremos otro ejemplo o de los cursos b´sicos de f´ a ısica que es el problema del p´ndulo. (3) Veamos ahora un ejemplo de ecuaci´n no lineal. Veamos que con estos datos podemos encontrar A y ϕ de tal forma que la soluci´n queda un´ o ıvocamente determinada. Si llamamos ω = k/m. En consecuencia. es decir. θ(0) y Lθ (0). una fuerza en direcci´n vertical hacia abajo y u o de magnitud mg. Despreciando el rozamiento con el aire podemos suponer que la unica fuerza ´ que act´a es la de la gravedad. 2π) tal que cos ϕ = C1 /A y sen ϕ = C2 /A (notar que tal ϕ existe porque (C1 /A)2 + (C2 /A)2 = 1). es decir a o x(0) = x0 y x (0) = v0 . Tambi´n en este caso hay una unica o e ´ soluci´n si se conocen la posici´n y la velocidad inicial. Teniendo en cuenta que la longitud recorrida en un tiempo t es L(θ(t) − θ(0)). es decir. e F (t) = mg sen θ(t). Esta es una ecuaci´n lineal de segundo orden que. donde L es la longitud del p´ndulo. la ley de Newton nos dice que F (t) = ma(t) siendo a(t) la aceleraci´n en el instante t. como a(t) = x (t). Lo m´s natural es conocer la posici´n y la velocidad iniciales. o F (t) = −kx(t) donde k es la constante de rigidez del resorte. obteneo mos la ecuaci´n o mx (t) + kx(t) = 0.160 ´ 8. resulta que la aceleraci´n en la direcci´n tangencial al e o o movimiento es Lθ (t). como tiene coeficientes constantes. aplicando nuevamente la ley de Newton obtenemos Lθ (t) = g sen θ(t) o sea.

. M´s precisamente. Por ejemplo. .2) buscamos una aproximaci´n de x(t) en un cierto intervalo [0. < tN . . x(0) = a. xN que aproximen x(t1 ). . 161 Como vimos en los ejemplos una ecuaci´n diferencial puede tener muchas soluciones y para o obtener una soluci´n unica hace falta conocer ciertos datos que pueden ser valores de la funci´n o ´ o y de algunas de sus derivadas en un valor inicial t0 . puede demostrarse a que para la ecuaci´n de orden n (8. A veces solo interesa conocer el valor de x(T ) y en este caso los pasos intermedios x1 . . .1) se tiene una soluci´n unica dados los datos iniciales o o ´ (n−1) (t ).1 tienen la forma x (t) = f (t. Nuestro estudio de aproximaciones num´ricas para ecuaciones ordinarias empieza con los m´todos e e conocidos como m´todos de un solo paso. T ]. ti . x(tN ) con t1 < t2 < . x(t)) x(0) = a. Primero enunciamos un teorema de existencia y unicidad de soluci´n. Despu´s se puede interpolar en esos valores para obtener una aproximaci´n e o de x(t). Para o esto buscaremos una forma de generar N valores x1 . x(t)). x (t0 ). . Teorema 8. x o o 0 En lo que sigue. . (ii) x = t. La ecuaci´n de orden 1 que corresponden con la o o escritura 8. Si f (t. xN −1 pueden verse como pasos auxiliares para calcular xN ∼ x(T ). (8. e Dado el problema (8. El m´todo general a un paso tiene la forma e xi+1 = xi + hΦ(xi . x(t0 ). . . (iv) x = x2 . podemos considerar ecuaciones como las siguientes: (i) x = 1. cuya demostraci´n no o o damos. bajo hip´tesis adecuadas sobre la funci´n f . .2) Se trata de una ecuaci´n diferencial de primer orden porque la derivada de mayor orden que o aparece es la derivada primera. vamos a estudiar m´todos num´ricos para ecuaciones de grado 1. x) − f (t. . . h). . . y)| ≤ L|x − y| Entonces para cualquier valor a ∈ IR existe una unica funci´n derivable x(t) que verifica ´ o x (t) = f (t.2. . . (iii) x = x. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS.´ 8. e Para simplificar la notaci´n usaremos t0 = 0. x) es continua y Lipschitz en x. . . es decir |f (t. La raz´n por e e o la que hacemos esto es que las ecuaciones de grado n pueden reducirse a sistemas de ecuaciones de orden 1 y los m´todos que presentaremos pueden extenderse a sistemas.

para cada valor de t sabemos exactamente cu´nto vale o a x (t) = f (t. o 1.25 1. xi ) es una aproximaci´n razonable para x(ti + h) = x(ti+1 ). para valores peque˜os de h. La soluci´n exacta es x(t) = et .375 1. el desarrollo de e 2 orden 1 es: x(t + h) = x(t) + x (t)h + x (ξ) h .6018 0.1331 1.4549 1. x(ti )).9531 2.4238 0.125 0. Resolvamos la ecuaci´n o x (t) = x(t) x(0) = 1.3.. xi ). si xi es una aproximaci´n para x(ti ) se tiene que n o xi+1 = xi + hf (ti . es decir.. aplicando el m´todo de Euler se obtiene la siguiente o e tabla. + hk x(k) (ti ).750 2. que como vimos responde a usar el polinomio de Taylor de grado uno en ti para calcular xi+1 .8682 1. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. t et h = 0.500 1.. Una ventaja de estos m´todos es que se puede cambiar e f´cilmente el paso h. 2 k! .6487 1. En general.162 ´ 8.625 1. x).8020 0. Ahora. En general se puede usar una expansi´n en m´s t´rminos como sigue: o a e 1 1 x(ti + h) ∼ x(ti ) + hx (ti ) + h2 x (ti ) + .5625 1.25 h = 0. En consecuencia. Notar que x (t) es una funci´n conocida. Supongamos que podemos despreciar el valor de 2 2 x (ξ) h .0272 El m´todo de Euler es de la forma e xi+1 = xi + hf (ti .1170 1. M´todos de Euler y Taylor de orden k e El m´todo de Euler se basa en el desarrollo de Taylor de orden 1. 2 esto es. o Ejemplo 8. el primer valor aproximado de x en t0 + h se logra al calcular x(t0 + h) ∼ x(t0 ) + x (t0 )h. Repitiendo este procedimiento se obtiene: x(ti + h) ∼ x(ti ) + hx (ti ) = x(ti ) + hf (ti . La funci´n Φ se conoce como la funci´n de incremento y nos dice como calcular la aproximaci´n o o o xi+1 de x(ti + h) a partir de xi .125 1..2840 1. Es decir calculamos una aproximaci´n en un tiempo posterior (ti+1 ) a a o partir de una aproximaci´n en el tiempo ti ...250 1. partimos del valor x(t0 ) y nos movemos una longitud h con velocidad x (t0 ). ti y de h.2656 0.125 0.

Entonces.5. ti y h para calcular la siguiente e o aproximaci´n xi+1 ). Esto nos da una manera de e calcular m´todos de aproximaci´n a un paso (solo usamos xi . . x) + ft (t. es decir. x = fx (t. x) + ft (t. al derivar. xi . xi ) + ft (ti . k! Estos m´todos se conocen como m´todos basados en Taylor de orden k. . Ejemplo 8. i Ejemplo 8. x)f (t. La ecuaci´n diferencial x = e o o f (t. x). x(ti )) + h2 fx (ti . . se obtiene x = 2x + 2tx = 2x(1 + 2t2 ). + 1 k (k) h x (ti ) = xi + hTk (ti . Calculemos el m´todo de Taylor de orden 2 para el problema e x (t) = 2tx x(0) = 1. derivando una vez se obtiene x = fx (t. 2 k! proponemos el m´todo. x)f (t. xi ). En este caso. e xi+1 ∼ xi + hf (ti . x(ti ))f (ti . . xi+1 = xi + h 2ti xi + xi (1 + 2t2 )h . Ejercicio: Calcular el m´todo de Taylor de orden 3 en este ejemplo.´ 1. x) para obtener x en t´rminos de f y sus derivadas y continuando de esta manera calcular las e derivadas de x hasta orden k en t´rminos de f y sus derivadas. x) nos proporciona todas las derivadas de orden superior de la siguiente forma. 2 Podemos seguir derivando x = fx (t. x(ti )) + ft (ti . Es decir. METODOS DE EULER Y TAYLOR DE ORDEN k 163 Si conoci´ramos las derivadas de x hasta orden k podr´ e ıamos usar esto para implementar un m´todo que aproxime x(ti +h) a partir de una aproximaci´n de x(ti ). x).4. xi )f (ti . A partir de esto se puede poner 1 x(ti + h) ∼ x(ti ) + hf (ti . + hk x(k) (ti ). xi ) + h2 fx (ti . xi ) + . a partir de o 1 1 x(ti + h) ∼ x(ti ) + hx (ti ) + h2 x (ti ) + . x)x + ft (t. x(ti )) 2 e intentar la aproximaci´n o 1 xi+1 = xi + hf (ti . Su mayor problema es e e que requieren encontrar y evaluar derivadas sucesivas de f (x. e . t). h).

xi )αf (ti . Primero expandimos f (ti + αh.164 ´ 8. Agrupando t´rminos se obtiene e Φ(ti . xi ) + Ch] . La estrategia del m´todo de Runge-Kutta es elegir A1 . xi ) + A2 f (ti + αh. Para especificar el m´todo que usamos es necesario o e especificar los Ai y los puntos (θi . xi ) + ft (ti . Esta variaci´n. . h) es una aproximaci´n de la variaci´n de x cuando pasamos de ti o o a ti+1 . xi ) y el otro (ti + αh. xi ) = f (ti . Todav´ nos queda α libre (por ejemplo al considerar α = 1 usamos ıa (ti+1 . xi . donde (θi . 1 A2 α = . xi ) + E. + A1 f (θN . ti )). xi )α + fx (ti . xi ). xi ))] . obtenemos 1 . αhf (xi . h) = (A1 + A2 )f (ti . xi )f (ti . M´todos de Runge-Kutta e Los m´todos generales a un paso son de la forma e xi+1 = xi + hΦ(ti . xi )αhf (ti . xi ) + fx (ti . xi+1 ) donde xi+1 es la aproximaci´n que da el m´todo de Euler). 2α 1 A1 = 1 − . xi + αhf (ti . hΦ(xi . xi )αh + fx (ti . γN ). para la ecuaci´n original esta gobernada por f (x. h) = A1 f (θ1 . 2. t). xi ) + A2 h [ft (ti . llegamos a A1 + A2 = 1. xi+1 = xi + h [A1 f (ti . ti . xi . h) Podemos pensar que hΦ(ti . xi ) + αhf (ti . ˜ ˜ o e En general tenemos. 2 Despejando. Recordemos que en el m´todo de Taylor se tiene e h T2 (ti . xi . h) = f (ti . γi ) son puntos pr´ximos a (ti . xi )] 2 Igualando los coeficientes. γ1 ) + . xi . as´ que proponemos o o ı una forma particular de Φ dada por. . γi ). e Veamos como hacer esto. A2 y α para que esto se aproxime todo e lo posible a un m´todo de Taylor. Veamos un caso particular de lo anterior donde usamos solo dos puntos uno (ti . donde E tiene la forma E = Ch2 . xi ) + [ft (ti . 2α A2 = . RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS.

K2 = f (ti + h . Una forma de Runge-Kutta de orden cuatro es. h) = Tk (ti . xi + f (ti . xi )) 2 2 2 xi+1 = xi + (8.4) que se conoce como M´todo de Heun. xi . xi + hf (ti .3) que usualmente se conoce como M´todo de Euler modificado. j−1 Kj (ti . h) donde Φ(ti . xi + hK3 ). h) = f (ti + αj h. xi ).´ 2. yi + h r=1 βjr Kr (ti . xi+1 = xi + K1 = f (ti . xi . Espec´ ıficamente. A2 = 1) o e h h h f (ti + . Tambi´n e Φ(ti . METODOS DE RUNGE-KUTTA 165 Es decir. e Una elecci´n posible es α = 1/2 con lo que nos queda el m´todo (A1 = 0.6. h) = j=1 m Aj Kj (ti . 6 K3 = f (ti + h . xi ))] . xi . h) + O(hk ). donde 0 < αj ≤ 1 y αj = j−1 r=1 βjr . 2 2 . 2 (8. Ejemplo 8. xi . xi . un m´todo de Runge-Kutta de orden k tiene la forma e xi+1 = xi + hΦ(ti . xi . xi + h K2 ). Los t´rminos Kj est´n dados por e a K1 (ti . xi ). xi . o e o Considerando m´s t´rminos en el desarrollo de Taylor se pueden deducir m´todos de Rungea e e Kutta de mayor orden. e Una observaci´n importante es que estos m´todos no requieren la evaluaci´n de derivadas de f . hay infinitas soluciones dependiendo de α (y por ende. h [K1 + 2K2 + 2K3 + K4 ] . h) = f (ti . xi + h K1 ). h)). h). xi . infinitos m´todos posibles). e Otra elecci´n posible es α = 1 que nos da (A1 = A2 = 1 ) o 2 xi+1 = xi + h [f (ti . 2 2 K4 = f (ti + h. xi ) + f (ti+1 .

.7. h) es de orden k si el error de e truncaci´n local satisface o τ = O(hk ) ´ Definicion 8. u τ= h x (γ). h) + hτ (8. . .1. 2 (8. u es soluci´n de: o u (t) = f (t. An´lisis de los Errores a Primero definimos el error de truncaci´n local. n (1) El error local se define como: u(ti+1 ) − xi+1 . x(t∗ ). Si u(t) es una soluci´n de la ecuaci´n u (t) = f (t. (2) El error global es: x(ti+1 ) − xi+1 . o o es decir. Si x(t) es la soluci´n de la ecuaci´n diferencial o o o x (t) = f (x(t). u(t)) con valor inicial xi . En este caso el error de truncaci´n local e o est´ dado por a x(t∗ + h) = x(t∗ ) + hf (t∗ . u(t)) u(ti ) = xi ∀i = 1. se define el error de truncaci´n local. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. Diremos que el m´todo xi+1 = xi + hφ(ti . M´todos de Euler y Taylor de orden k.7) ´ Definicion 8. 3. xi .6) El mismo argumento usado anteriormente nos da hk x(k+1) (γ) (k + 1)! τ= (8.5) 3.8. . x(t∗ )) + hτ Si la soluci´n x(t) es suave (por ejemplo x es acotada) se tiene que o h2 x (γ) 2 x(t∗ + h) = x(t∗ ) + hx (t∗ ) + De aqu´ se tiene que ı para alg´n γ. τ por medio o de la expresi´n que da: o x(t∗ + h) = x(t∗ ) + hΦ(t∗ . . t) y consideramos t∗ y h fijos.166 ´ 8.

o ´ Diremos que el m´todo es convergente si dado t∗ en [0. e o u(ti+1 ) = u(ti ) + hΦ(ti .9. x(ti ). x(ti ). Convergencia y an´lisis del error. t∗ =nh e Teorema 8. h). t0 ] se tiene e lim xn = x(t∗ ) n→∞. xi . 3. donde la soluci´n existe. es unica y es regular en [0. h) + hτ. h) . t0 ]. e El error local puede ser expresado en t´rminos del error de truncaci´n local. Como u(ti ) = yi se sigue. Ahora nos restringiremos a problemas regulares. Esto muestra que el error global esta formado por dos “componentes” uno dado por la ecuaci´n o diferencial (el primero) y otro dado por el m´todo (el segundo).10. a es decir x (t) = f (t. Para un m´todo a un paso dado por xi+1 = xi + hΦ(ti . xi . a e ´ Observacion 8. Si el m´todo es de orden p. El error global y el error local se relacionan por la f´rmula o x(ti+1 ) − xi+1 = x(ti+1 ) − u(ti+1 ) + u(ti+1 ) − xi+1 . ANALISIS DE LOS ERRORES 167 donde xi+1 est´ dado por el m´todo xi+1 = xi + hφ(ti . h) + hτ y entonces u(ti+1 ) − yi+1 = hτ.2. x(t)). x(0) = x0 . entonces el error local satisface e u(ti+1 ) − yi+1 = O(hp ). u(ti+1 ) = yi + hΦ(ti .´ 3.

x(ti ). y.8 se obtiene o ei+1 = ei + h(Φ(ti . Empleando la hip´tesis de que φ es Lipschitz se obtiene o |ei+1 | ≤ (1 + Kh)|ei | + hτi . x. Con la misma iteraci´n calculada para |ei |. ej = x(tj ) − xj se tiene: τ |ej | ≤ (eK(tj ) − 1). h) − Φ(ti . RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. h) + hτi Donde hτi es el error de truncaci´n local en ti dado en la f´rmula (8. xi .168 ´ 8. K Demostraci´n. Si llamamos τ = max{τi } se tiene |ei+1 | ≤ (1 + Kh)|ei | + hτ. se obtiene o |ei+1 | ≤ (1 + Kh2 )|ei−1 | + hτ (1 + (1 + hK)). Fijamos un paso h = (b − a)/n y usamos el m´todo e y el desarrollo de Taylor. es decir. x(ti ). esto o es: |Φ(t. xi . con constante K entonces. h)| ≤ K|x − y|. Restando miembro a o o miembro y usando la Definici´n 8.5). h)) + hτi . para ej al error global. h) − Φ(t. Entonces. Si Φ es Lipschitz en la variable segunda variable. xi+1 = xi + hΦ(ti . Continuando de esta manera queda i |ei+1 | ≤ (1 + Kh)i+1 |e0 | + hτ ( j=0 (1 + hK)j Como e0 = x(0) − x0 se sigue que e0 = 0. con K una constante independiente de t y h. Por un lado tenemos la propiedad de Lipschitz de φ en la segunda variable. usando las sumas parciales de una serie geom´trica. e . h) x(ti+1 ) = x(ti ) + hΦ(ti .

(8. ANALISIS DE LOS ERRORES 169 |ei+1 | ≤ hτ Ahora observamos que (1 + Kh)i+1 − 1 τ = ((1 + hK)i+1 − 1) (1 + Kh) − 1 K (1 + α)i+1 ≤ e(i+1)α entonces |ei+1 | ≤ τ K(ti+1 ) (e − 1). xi + hf (ti . K ´ Observacion 8. x. s´lo verificaremos los dados por las f´rmulas (8. . los de Taylor y de Rungge-Kutta son convergentes. Como x es soluci´n de la ecuaci´n diferencial se tiene x (t) = o o f (t. x(ti ). El Ejemplo 8. xi ))] . x).8) h→0 ´ Observacion 8. xi ) + f (ti+1 . los m´todos de Euler. Φ(t. De existir una constante as´ cualquier otra mayor tambi´n sirve ı. e para acotar el error utilizando el teorema.12. se tiene que la consistencia equivale a la igualdad x (ti ) = Φ(ti . (2) En cuanto a la hip´tesis sobre Φ (debe ser Lipschitz) esto puede extraerse de una o condici´n Lipschitz sobre f . 0). 2 k! Al evaluar h = 0 tenemos.3) y e o o (8.10 se deduce que los m´todos a un paso son convergentes si lim τ = 0.11. 0) = f (t. h) = x (t) + hx (t) + . En cuanto a los m´todos de Runge-Kutta. 0) = x (t) = f (t. En m´todos de un paso o e e consistencia y convergencia son conceptos equivalentes.4). y por tanto un m´todo de un paso es consistente si y s´lo si e o Φ(t. xi + h f (ti . e Demostraci´n. . (4) Si asumimos que φ es continua. xi )) 2 2 xi+1 = xi + h [f (ti . Para los m´todos de Taylor se tiene o e 1 1 x(ti + h) ∼ x(ti ) + hx (ti ) + h2 x (ti ) + . (1) El teorema anterior requiere de la existencia de K una constante de Lipschitz para Φ. x). 2 k! y por tanto 1 1 Φ(t. . . x(t)). + hk−1 x(k) (t). e Esto se llama la condici´n de consistencia para el m´todo. o (3) Del Teorema 8. 2 . x. x. Para Runge-Kutta de orden 2 tenemos: xi+1 = xi + h f (ti + h .´ 3. + hk x(k) (ti ).6 queda como ejerecicio.

uN ) podemos usar los mismos me´odos que antes. Luego Φ(t. por ejemplo el m´todo de Euler nos queda t e Ui+1 = Ui + hF (Ui . o Los m´todos multipaso lineales (de k pasos) tienen la forma: e k−1 k xn+k = − j=0 αj xn+j + h j=0 βj f (tn+j . ti ) En general. En ambos casos resulta 1 2 f (t. x)) respectiva- Φ(t. x). RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. x + hf (t. ti . . a e e Por ejemplo. h) = f (t+ h . x)). 0) = f (t. t) nos basamos en el punto inmediato anterior para calcular el siguiente. x. h) 4. x) + f (t. La filosof´ de los m´todos multipaso es usar la “historia”.170 ´ 8. . x + h f (t. si aproximamos la derivada por . los m´todos a un paso tienen la forma e Ui+1 = Ui + hφ(Ui . Observemos que si en vez de una ecuaci´n debemos lidiar con un sistema o U (t) = F (U (t). xn+j ) M´s precisamente a un m´todo como el anterior se lo llama m´todo multipaso de k pasos. M´todos multipaso lineales e Hasta ahora para aproximar las soluciones de x = f (x. . es decir los k puntos anteriores a ti ıa e para calcular la aproximaci´n en ti+1 . x. h) = 2 2 mente. . t)) U = (u1 . y Φ(t. x.

e xn+2 − xn = Ahora usaremos la notaci´n o k k αj xn+j = h j=0 j=0 βj fn+j . Por e o e e ejemplo. x(ti )) ∼ f (ti . xi ) podemos poner xi+1 − xi−1 = f (ti . tn+2 )) 3 que es un m´todo multipaso a dos pasos. e Los m´todos de integraci´n tambi´n nos proporcionan ejemplos de m´todos multipaso. tn ) + 4f (xn+1 . ti ) que es un m´todo multipaso de dos pasos (para calcular xi+1 se usan xi y xi−1 ). tn+1 ) + f (xn+2 . t) podemos proponer el siguiente m´todo e h (f (xn .´ 4. si aproximamos la integral tn+2 x(tn+2 ) − x(tn ) = por la regla de Simpson se obtiene x (s) ds tn x(tn+2 ) − x(tn ) ∼ h (x (tn ) + 4x (tn+1 ) + x (tn+2 )) 3 Recordando que x = f (x. METODOS MULTIPASO LINEALES 171 x (t) ∼ x(t + h) − x(t − h) 2h considerando puntos equiespaciados nos queda x (ti ) ∼ y como xi+1 − xi−1 2h x (ti ) = f (ti . xi ) 2h es decir xi+1 = xi−1 + 2hf (xi .

172 ´ 8. Para ver esto. podemos expresar hτ en la forma hτ = C0 x(t) + C1 hx (t) + C2 h2 x (t) + . e xn+k − xn+k−1 = h(A0 fn + . Para comenzar a aplicar los m´todos multipaso se necesitan los primeros k valores que usuale mente se calculan con m´todos a un paso. para el m´todo. + Cq hq x(q) (t) + . . . . Este procedimiento se conoce como “predictor-corrector”. e 4. xi − xi e e ˜ para estimar el error local. . RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. e Si βk = 0 el m´todo es expl´ e ıcito. . escribimos x (t) (jh)2 + . . Si usamos una f´rmula del tipo o tn+k−1 tn+k x (s) ds ∼ h(A0 x (tn ) + . . . 2 x(t + jh) = x(t) + x (t)jh + . Empecemos por el error de truncaci´n e o para un m´todo de k pasos e k k αj xn+j = h j=0 j=0 βj fn+j Si x(t) es la soluci´n de x = f (x. A menudo se usan estos m´todos de a pares y se usa la diferencia entre los dos m´todos. t)el error de truncaci´n local est´ dado por o o a k k αj x(t + jh) − h j=0 j=0 βj x (t + jh) = hτ Si x(t) es suficientemente regular. . mientras que si βk = 0 el m´todo es impl´ e ıcito. . Convergencia de los m´todos multipaso. + Ak fn+k ) Si es expl´ ıcito se conoce como m´todo de Adams-Bashforth y si es impl´ e ıcito como m´todo de e Adams-Moulton (ver ejercicios). + Ak x (tn+k )) para aproximar integrales nos encontramos con un m´todo de la forma.1.

. − βk En general para cualquier q ≥ 1 Cq = 1 1 (α1 + 2q α2 + 3q α3 + . . e a . Usando esto se obtiene k k αj x(t∗ ) + j=0 j=0 αj ϕj (h) = 0 . . METODOS MULTIPASO LINEALES 173 x (t + jh) = x (t) + x (t)jh + x (t) (jh)2 + . + k q αk ) − (β1 + 2q−1 β2 + . + kαk − β0 − β1 − β2 − . Para un m´todo de orden e e p el error τ satisface τ h = Cp+1 hp+1 x(p+1) (t) + O(hp+2 ) Para ver la convergencia. . . Entonces podemos escribir xn+j = x(t∗ ) + ϕj (h) con ϕj (h) → 0 cuando h → 0. . Queremos lim xn+k = x(t∗ ) h→0 Queremos ver que condiciones debemos imponer al m´todo para que esto ocurra. . 2 Metiendo esto en la expresi´n de τ e igualando potencias de h se obtiene o C 0 = α0 + . . . . fijamos t∗ y ponemos n y h tales que t∗ = (n + k)h. + αk C1 = α1 + 2α2 + 3α3 + . . = Cp = 0 y Cp+1 = 0 el m´todo se dice de orden p. . x(0) = 1 (soluci´n x ≡ 1). + k q−1 βk ) q! (q − 1)! Si C0 = C1 = . . .´ 4. . como antes. . e Primero pongamos el problema x (t) = 0. El m´todo aplicado a este o e problema se reduce a k αj xn+j = 0 j=0 Para cualquier m´todo multipaso debemos tener (como k est´ fijo y h → 0) que xn+k → x(t∗ ). xn → x(t∗ ). .

174

´ 8. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS.

Como la segunda suma tiende a cero con h nos queda
k

x(t∗ )
j=0

αj = 0

Es decir C0 = 0. Para ver que C1 tambi´n debe ser cero para que el m´todo converja, consideremos el problema e e x (t) = 1, x(0) = 0 que tiene como soluci´n x(t) = t. El m´todo para este problema se reduce a o e
k k

αj xn+j = h
j=0 j=0

βj

Es f´cil verificar que la sucesi´n dada por a o xl = lhM es soluci´n de este esquema donde o
k j=0 βj k j=0 jαj

M=

Si los valores iniciales se eligen de la forma xl = lhM el m´todo va a producir la soluci´n e o xl = lhM y en particular xn+k = (n + k)hM Como suponemos que el m´todo es convergente se tiene que lo valores iniciales satisfacen xi → e x(0) = 0 cuando h → 0, y adem´s xn+k → x(t∗ ), pero a xn+k = (n + k)hM = t∗ M → t∗ Entonces conclu´ ımos que M =1 lo que nos da

´ 4. METODOS MULTIPASO LINEALES

175

C1 = 0 Esto se denomina consistencia del m´todo multipaso. e Para los m´todos de un paso, la consistencia implicaba la convergencia, para los m´todos mule e tipaso se requiere una condici´n adicional la condici´n de la ra´ o o ız. Veamos esto. Ahora consideremos el problema x (t) = 0, x(t) = 0, cuya soluci´n es x(t) ≡ 0. o En este caso el m´todo se reduce a e
k

αj xn+j = 0
j=0

Esto describe una ecuaci´n en diferencias que admite como soluci´n a la sucesi´n o o o xm = h(ri )m donde ri es cualquiera de las ra´ ıces del polinomio p(r) dado por p(r) = rk + αk−1 rk−1 + . . . + α1 r + α0 Si asumimos que el m´todo es convergente se tiene que e xn+k → x(t∗ ) = 0 Adem´s a xn+k = h(ri )n+k h→0

Para verificar que xn+k → 0, como n = t∗ /h → ∞ cuando h → 0 se debe tener que |ri | ≤ 1 Entonces la convergencia implica que todo cero de p(r) debe satisfacer |ri | ≤ 1. Adem´s, si ri es una ra´ m´ltiple de p(r) podemos poner a ız u xj = hj q (ri )j

176

´ 8. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS.

con q ≤ m − 1 (m es la multiplicidad de la ra´ Tenemos ız). xn+k = h(n + k)q (ri )n+k y como h(n + k) = t∗ para que xn+k → 0 se debe tener |ri | < 1. Es decir debemos pedir la ´ Condicion 8.13. (de la ra´ ız) (1) |ri | ≤ 1 si ri es un cero simple de p(r). (2) |ri | < 1 si ri es un cero m´ltiple de p(r). u Ahora podemos enunciar el teorema Teorema 8.14. Un m´todo multipaso es convergente si y solo si el m´todo es consistente y e e satisface la condici´n de la ra´ o ız. Terminaremos este cap´ ıtulo con una secci´n de m´todos de paso variable. o e 5. M´todos de paso variable e La idea es elegir los pasos hi en forma variable. Por ejemplo, 5.1. Euler adaptivo para una ecuaci´n que explota. Ahora analizaremos un m´todo o e adaptivo para elegir los pasos τj en el m´todo de Euler. e Sea y(t) la soluci´n de la ecuaci´n diferencial o o y (t) = f (y(t)) y(0) = y0 > 0 donde f es positiva, creciente y regular. Supongamos que 1/f < +∞, entonces y(t) explota en tiempo finito T y podemos calcular exactamente el tiempo de explosi´n. De hecho vale o
+∞ +∞

(8.9)

T =
y0

1 ds f (s)

Si aproximamos y(t) usando el m´todo de Euler nos queda e

τj = Adem´s nos provee de una estimaci´n del tiempo de explosi´n. λ .1.10) y (8.10) (8. 10. h = 0. f (y0 ) Adem´s. Usando (8.11) tenemos y j+1 = y j + λ = . (8. como y es convexa. Concluimos que. = y 0 + (j + 1)λ y entonces. Graficar las tres soluciones num´ricas e obtenidas junto con la soluci´n exacta. vale a o o ∞ ∞ τj = τ0 + j=0 j=1 λ λ ≤ + f (y0 + jλ) f (y0 ) +∞ y0 +∞ 0 λ ds = f (y0 + sλ) λ + f (y0 ) Entonces Tλ = j τj 1 λ ds = +T f (s) f (y(0 ) < +∞ y Tλ − T ≤ λ . De hecho. . 1] x(0) = 1 empleando pasos h = 0. para k = 0. . j) f (y f (y0 + jλ) De esto podemos concluir que el esquema num´rico tambi´n explota en el sentido siguiente: e e j → ∞ mientras y j τj < +∞. o (2) Hacer el mapa de curvas integrales en la regi´n [0. 1. graficando simult´neamente. 10] de la ecuaci´n diferencial o o x (t) = (x(t) − 5). |T − Tλ | ≤ f (y0 ) 6. .01.5).01 y con condici´n inicial e o x(0) = k. .11) λ λ = . 10] × [0.6. . la soluci´n que se obtiene utilizando a o el m´todo de Euler con paso h = 0. EJERCICIOS 177 y j+1 = y j + τj f (y j ) y 0 = y0 Ahora elegimos τj f (y j ) = λ como los pasos τj .(cos2 (t) − 0.05 y h = 0. . . Ejercicios (1) Utilizar el m´todo de Euler para resolver e x = 2x en [0. es f´cil ver que la soluci´n num´rica est´ por debajo de la continua a a o e a y entonces T ≤ Tλ .

x(0) = 0 Utilizar un m´todo de Runge-Kutta de orden 2 para hallar erf(ti ) con ti = 0. Decidir en que regi´n del gr´fico o o a deber´ situarse la soluci´n anal´ a o ıtica del problema. (7) Verificar que la funci´n error. e e (9) Probar que el m´todo de Runge-Kutta de oprden 4 dado en el Ejemplo 8.05. e (4) Se considera el problema x (t) = x(t) + t2 + 3 x(0) = −2 en [0. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. e 0. Graficar simult´neamente o o a en el intervalo [0. erf. 0. (b) Mostrar que si λ < 0.6 es consistente. . 4] la soluci´n exacta y las que se obtienen con los m´todos de Euler o e y Taylor de orden 2. Agregar estas soluciones al gr´fico e a realizado en dicho ejercicio. . x(0) = 0. 1. 1. o (c) Para λ < 0. . a (c) Agregar al gr´fico anterior las aproximaciones obtenidas en el mismo intervalo con el m´todo de Euler usual con paso h = 0. (3) Considerar el problema x = λx . x(0) = x0 (a) Probar que el m´todo de Euler con paso h genera la sucesi´n: e o xi = (1 + λh)i x0 i = 0. T − 0.05 y con el comando ode45.1] la aproximaci´n a la soluci´n de la ecuaci´n utilizando el m´todo de Euler adaptativo de par´metro λ con un λ tal o e a que el tiempo en que explota la soluci´n num´rica Tλ diste de T en menos que o e 10−1 . (8) Considerar la ecuaci´n o x = x2 . . (10) Hallar el error local para los m´todos de Euler expl´ e ıcito e impl´ ıcito.1.178 ´ 8. . la soluci´n exacta tiende a cero a medida que x crece. ambos con paso h = 0. (6) Escriba un programa que resuelva la ecuaci´n diferencial del Ejercicio 5 por alg´n o u m´todo de Runge-Kutta de orden 2 y de orden 4.5 (a) Calcular el tiempo T en que la soluci´n anal´ o ıtica explota.05 para obtener dos aproximaciones de la soluci´n y graficarlas. . . o o (b) Calcular y graficar en el intervalo [0. . o (5) Se considera la siguiente ecuaci´n diferencial: o x (t) = 2x(t) − 5 sin(t) x(0) = 1 cuya soluci´n exacta es la funci´n x(t) = 2 sin(t) + cos(t). Comparar con los valores obtenidos directamente con el comando erf de Matlab. (b) Utilizar los m´todos de Euler expl´ e ıcito e impl´ ıcito. .05. puede ser definida como la soluci´n de la ecuaci´n o o o diferencial 2 2 x (t) = √π e−t .15. determinar para qu´ valores de h ocurre que xi → 0 cuando i → ∞. 2] o o (a) Demostrar que la soluci´n es una funci´n convexa. 0. (c) Graficar la soluci´n que se logra al utilizar el comando ode45 de Matlab. con paso h = 0.

05 y graficar la trayectoria de la part´ ıcula. sabiendo que en tiempo t = 0 se encontraba en el punto (1. (15) Probar que una ecuaci´n de orden n se puede escribir como un sistema de n ecuaciones o de primer orden.6. x(t)). x(0) = 1. Mostrar que un problema de valores iniciales para la primera se transforma en un problema de valores iniciales para el sistema. o (b) Analizar la convergencia (estabilidad y consistencia) del m´todo y calcular su e o ´rden. Resolver la ecuaci´n anal´ o ıticamente y aproximar el valor x(1) con un m´todo de Rungee Kutta de orden 2 para distintos valores de h. para el error cometido si se usa el m´todo e e de Euler para calcular x(1). con t ≥ 0. y o verificar las estimaciones previstas comparando con la soluci´n exacta. EJERCICIOS 179 (11) Se quiere estimar. e (12) Considerar el problema x = −2tx. el valor de e como x(1) donde x(t) es e soluci´n de x = x. x2 (t)). (a) Determinar una cota. o (a) Deducir la f´rmula de Milne: o 1 4 1 xn = xn−2 + h( fn + fn−1 + fn−2 ). x2 (t) = x1 (t) − x2 (t) Resolver este sistema en el intervalo [0. Realizar el mismo trabajo para el m´todo de Taylor de orden 2. e o • Adams-Bashforth. (17) Considerar la ecuaci´n x (t) = f (t. o (13) Repetir los items (a) y (b) del ejercicio anterior para el problema: x (t) = t sin2 (x(t)) x(0) = 1 ıcula que se se mueve en el plano est´ dada por las cura (14) La trayectoria de una part´ va (x1 (t). Realizar nuevamente el gr´fico utilizando la soluci´n a o obtenida con el comando ode45. con x(0) = 1. con la f´rmula de Simpson. en t´rminos de h. 3 3 3 aproiximando la integral tn tn f (t. Hallar un paso h de modo que el error cometido resulte o menor que 10−3 . (18) Analizar la convergencia de los siguientes m´todos y calcular su ´rden. −1). 20] con el m´todo de Euler utilizando paso e h = 0. (b) ¿C´mo deber´ tomar h si se desea que el error cometido sea menor que 10−2 ? o ıa (c) Calcular la soluci´n en t = 1 usando el valor de h obtenido en el item previo. aplicando el m´todo de Euler. x2 son la soluci´n del siguiente sistema de o ecuaciones diferenciales: x1 (t) = −x2 (t) . x(0) = 1. (16) Considerar el siguiente problema: x − 3x + 2x = 0. 12 . x (0) = 0. h xn+3 − xn+2 = (23fn+2 − 16fn+1 + 5fn ). x(t))dt = tn−2 tn−2 x (t)dt = x(tn ) − x(tn−2 ). donde las funciones x1 .

12 . (b) Graficar la soluci´n que se obtiene al aplicar el m´todo de Euler. β0 de modo que el m´todo resultante tenga orden 4. si el valor de x(0) o e es dado con un error de 10−6 .000001. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. o h (5fn+3 + 8fn+2 − fn+1 ). Nota: La gran propagaci´n del error en el dato inicial se debe a que esta ecuaci´n o o tiene infinitas soluciones si x(0) = 0. Considerar la ecuaci´n x = |x|. Determinar a. β1 .180 ´ 8. cualquiera sea α > 0   0 t≤α 2 x(t) = (t − α)  t>α 4 es soluci´n de la misma. xn+3 − xn+2 = (19) Considerar el m´todo de 2 pasos e xn+2 + axn+1 + axn = h(β2 fn+2 + β1 fn+1 + β0 fn ). β2 . a o (a) Para el valor inicial x(0) = 0. En particular. es decir x(0) = 0.1 hasta llegar al valor de x(10). seguir las iteraciones del m´todo de Euler. • Adams-Moulton. con paso e h = 0. e (20) Decidir si existe alg´n valor de a ∈ IR para el cual el siguiente m´todo multipaso sea u e convergente: xn+3 − 3xn+2 + (3 − a2 )xn+1 + (a2 − 1)xn = h[5fn+2 + (−a2 − 5)fn ]. (21) Miscel´nea.

Sign up to vote on this title
UsefulNot useful