P. 1
Apunte Calculo Numerico UBA

Apunte Calculo Numerico UBA

|Views: 109|Likes:
Publicado porMariela Animalis

More info:

Published by: Mariela Animalis on Sep 13, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

03/27/2013

pdf

text

original

Sections

  • 1. Punto flotante
  • 2. Redondeo
  • 3. Ejercicios
  • 1. Ejercicios
  • 1. M´etodos directos
  • 2. M´etodos iterativos
  • 1. M´etodo de bisecci´on
  • 2. M´etodo regula falsi
  • 3. M´etodo de Newton-Raphson
  • 4. M´etodo de punto fijo
  • 5. M´etodo de la secante
  • 6. Ejercicios
  • 1. Interpolaci´on de Lagrange
  • 2. Error de interpolaci´on
  • 3. Forma de Newton
  • 4. Polinomios de Tchebychev - Minimizaci´on del Error
  • 5. Interpolaci´on de Hermite
  • 6. Interpolaci´on por polinomios a trozos
  • 7. Ejercicios
  • Polinomios ortogonales y aproximaci´on por cuadrados m´ınimos
  • 1. Preliminares
  • 2. Soluci´on de los Problemas de Aproximaci´on
  • 1. F´ormulas de Newton-Cˆotes
  • 2. Estimaci´on del error
  • 3. F´ormulas de cuadratura compuestas

ELEMENTOS DE C

´
ALCULO NUM
´
ERICO
Ricardo G. Dur´an, Silvia B. Lassalle y Julio D. Rossi
´
Indice General
Cap´ıtulo 1. Punto flotante y redondeo 1
1. Punto flotante 1
2. Redondeo 3
3. Ejercicios 11
Cap´ıtulo 2. Normas y condicionamiento de una matriz. 15
1. Ejercicios 29
Cap´ıtulo 3. Resoluci´on de sistemas lineales. 35
1. M´etodos directos 35
2. M´etodos iterativos 40
3. Ejercicios 60
Cap´ıtulo 4. Resoluci´on de ecuaciones no lineales. 65
1. M´etodo de bisecci´on. 65
2. M´etodo regula falsi 68
3. M´etodo de Newton-Raphson. 69
4. M´etodo de punto fijo 76
5. M´etodo de la secante 79
6. Ejercicios 83
Cap´ıtulo 5. Interpolaci´on 87
1. Interpolaci´on de Lagrange 87
2. Error de interpolaci´on 90
3. Forma de Newton 92
4. Polinomios de Tchebychev - Minimizaci´on del Error 95
5. Interpolaci´on de Hermite 102
6. Interpolaci´on por polinomios a trozos 104
7. Ejercicios 107
Cap´ıtulo 6. Polinomios ortogonales y aproximaci´on por cuadrados m´ınimos. 111
1. Preliminares 112
2. Soluci´on de los Problemas de Aproximaci´on 118
3. Ejercicios 127
Cap´ıtulo 7. Integraci´on num´erica 131
1. F´ormulas de Newton-Cˆotes 132
2. Estimaci´on del error 139
3. F´ormulas de cuadratura compuestas 143
3
4
´
INDICE GENERAL
4. Convergencia de los m´etodos de cuadratura 148
5. Cuadratura Gaussiana 150
6. Ejercicios 154
Cap´ıtulo 8. Resoluci´on de ecuaciones diferenciales ordinarias. 159
1. M´etodos de Euler y Taylor de orden k 162
2. M´etodos de Runge-Kutta 164
3. An´alisis de los Errores 166
4. M´etodos multipaso lineales 170
5. M´etodos de paso variable 176
6. Ejercicios 177
CAP´ıTULO 1
Punto flotante y redondeo
El objeto de este cap´ıtulo es analizar la representaci´on de los n´ umeros en una computadora y la
propagaci´on de los errores de redondeo al realizar c´alculos.
Como la cantidad de informaci´on que puede guardarse en una computadora es finita, la m´aquina
trabajar´a s´olo con un conjunto finito de n´ umeros. A ´estos los llamaremos n´ umeros de m´aquina.
En consecuencia, toda vez que de nuestros datos o c´alculos surja un n´ umero que no pertenece a
este conjunto finito, ´este deber´a ser reemplazado por una aproximaci´on (el n´ umero de m´aquina
m´as cercano). Este reemplazo da lugar a lo que llamamos errores de redondeo.
Al realizar c´alculos estos errores de redondeo se propagan y esto puede llevar a resultados
totalmente incorrectos como veremos en algunos ejemplos simples.
En las aplicaciones del c´alculo num´erico es pr´acticamente imposible determinar exactamente la
magnitud de los errores de redondeo. Lo que si puede hacerse, y es de fundamental importancia,
es identificar las posibles causas de que los errores se propaguen m´as de lo admisible. Esto
permite mejorar los algoritmos o determinar que m´etodo es m´as conveniente para resolver un
problema. Un claro ejemplo de esto, que veremos m´as adelante, aparece cuando se utiliza el
m´etodo de eliminaci´on de Gauss para resolver un sistema de ecuaciones lineales. En este caso,
el an´alisis de la propagaci´on de errores permite determinar la forma m´as eficiente de aplicar el
m´etodo.
Por otra parte, es fundamental distinguir cuando la propagaci´on excesiva de errores se debe a
que el algoritmo utilizado es “malo” o inestable o a que el problema en s´ı mismo est´a “mal
condicionado”. En el primer caso se puede (se debe!) tratar de mejorar el m´etodo de resoluci´on
mientras que en el segundo caso el problema es m´as esencial. Los ejemplos que presentaremos
ilustrar´an estos dos casos.
1. Punto flotante
En lo que sigue supondremos que los n´ umeros de m´aquina son los que aparecen en la pantalla.
Esto no es exacto pues en realidad la computadora opera internamente con los n´ umeros desarro-
llados en base 2 y no en base 10. Este abuso de lenguaje es s´olo para mayor claridad (el lector
podr´a observar que todo nuestro an´alisis puede repetirse trabajando en base 2).
Observemos primero que un n´ umero real cualquiera, x ∈ IR, x > 0, puede escribirse como
2 1. PUNTO FLOTANTE Y REDONDEO
x = 0, a
1
a
2
. . . a
k
. . . 10
l
= r 10
l
,
1
10
≤ r < 1 (es decir, a
1
,= 0)
Pero en una computadora no se pueden poner infinitos d´ıgitos. Por lo tanto, se trabaja s´olo
con n´ umeros de desarrollo finito y de una longitud dada. De la misma forma, el exponente l
(es decir el orden del n´ umero) estar´a limitado a cierto rango. En consecuencia los n´ umeros de
m´aquina ser´an de la forma
x = 0, a
1
a
2
....a
m
10
l
= q 10
l
−M
1
≤ l ≤ M
2
, , a
1
,= 0
m´as los correspondientes negativos y el cero. Los n´ umeros m, M
1
y M
2
dependen de la m´aquina.
Esta representaci´on de los n´ umeros es la que se llama de punto flotante.
Los n´ umeros de m´aquina forman un conjunto finito de n´ umeros racionales. La cantidad de
n´ umeros de m´aquina que hay entre 1/10 y 1 es,
#¦x / 1/10 ≤ x < 1¦ = 9 10
m−1
.
En general, la cantidad que hay entre 10
l
y 10
l+1
es tambi´en 9 10
m−1
. Esto nos dice que
los n´ umeros de m´aquina no est´an uniformemente distribuidos. S´ı lo est´a el subconjunto que
est´a entre 10
l
y 10
l+1
para cada l. En particular, los n´ umeros m´as grandes est´an m´as separa-
dos. Resulta ´ util para la comprensi´on hacer un dibujo de los n´ umeros de m´aquina en la recta
num´erica (Ejercicio). Al analizar la propagaci´on de errores de redondeo se aclarar´a por qu´e esta
distribuci´on de los n´ umeros es m´as razonable que una uniforme.
Sea x ∈ IR. Para simplificar notaci´on supondremos x > 0 (claramente todas las consideraciones
que haremos se aplican an´alogamente a los n´ umeros negativos). Hay dos posibilidades: que x
est´e o no en el rango de los n´ umeros de m´aquina. Si al hacer c´alculos aparece un n´ umero en
la segunda situaci´on, por ser muy grande o muy chico, la computadora nos dar´a un mensaje
indic´andolo.
Supongamos entonces que x est´a en el rango de la m´aquina, o sea,
x = 0, a
1
a
2
....a
m
.......10
l
M
1
≤ l ≤ M
2
, a
1
,= 0
Este x est´a entre dos n´ umeros de m´aquina,
x

≤ x ≤ x

Supongamos, para simplificar, que a
m
,= 9 (analice el lector el caso contrario). Entonces tenemos
x

= 0, a
1
a
2
....a
m
10
l
y
x

= 0, a
1
a
2
....(a
m
+ 1)10
l
2. REDONDEO 3
2. Redondeo
Hay dos formas de aproximar a x. Una es por truncamiento: se elige siempre x

es decir el
mayor de los n´ umeros de m´aquina que son menores que x. La otra forma es tomar el m´as
pr´oximo a x entre x

y x

. A esta forma de aproximar se la conoce por redondeo y es la que
usan habitualmente las computadoras.
Veamos que error cometemos al aproximar un n´ umero por redondeo. Usaremos la notaci´on
x

= x redondeado
El error absoluto ser´a
[x −x

[ ≤
1
2
1
10
m
10
l
Mientras que el error relativo se puede acotar de la forma siguiente
[x −x

[
[x[

1
2
10
l−m
0, a
1
a
2
....a
m
....10
l
y como
0, a
1
a
2
....a
m
.... ≥
1
10
se tiene que
[x −x

[
[x[
≤ 5 10
−m
Es decir que el error relativo es del orden de 10
−m
si nuestra m´aquina trabaja con m d´ıgitos.
Es importante observar que, si bien el error absoluto que introduce el redondeo depende de la
magnitud del n´ umero, el relativo, que es el m´as significativo, es independiente de ´esta, est´a con-
trolado en t´erminos de la cantidad de d´ıgitos con la que trabaja nuestra computadora (Ejercicio:
meditar que tiene que ver esto con la distribuci´on no uniforme de los n´ umeros de m´aquina).
Si tenemos
x

= 0, a
1
a
2
....a
m
10
l
, a
1
,= 0
decimos que conocemos a x con m d´ıgitos significativos, lo que equivale, seg´ un vimos, a conocerlo
con un error relativo del orden de 10
−m
. Observar la importancia de la condici´on a
1
,= 0: de lo
contrario los d´ıgitos dejan de ser significativos.
4 1. PUNTO FLOTANTE Y REDONDEO
Observemos que
x

= x(1 +δ)
con
[δ[ ≤ ε = 5 10
−m
Este ε es el error de redondeo unitario, es decir, que el error que se comete al aproximar x por
x

es xδ con [δ[ ≤ ε, de esta forma el error [x −x

[ ser´a menor o igual que ε[x[.
Este valor, ε, depende de la m´aquina y se lo llama el ε de la m´aquina. Recordemos que, seg´ un lo
comentado antes, el verdadero ε de m´aquina no es exactamente ´este debido a que la computadora
trabaja en base 2. Pero desde el punto de vista pr´actico s´olo interesa el orden de ε (y ´este s´ı es
correcto!).
Ejercicio: calcular el ε exacto suponiendo que la m´aquina trabaja en base 2 con k d´ıgitos.
Otra forma de interpretar el significado del ε de la m´aquina es la siguiente: ε nos dice cu´al es el
menor n´ umero tal que, en la m´aquina,
1 +ε ,= 1
O sea, si se le suma a 1 algo menor que ε, “desaparece” debido al redondeo. En efecto, seg´ un la
m´aquina tendremos
1 + 4 10
−m
= 1, 0....04 = 0, 10....00 10 = 1
en cambio,
1 +ε = 1, 0....06 = 0, 10....01 10 ,= 1
Si sumamos exactamente ε el resultado depender´a de como redondee la m´aquina en el caso en
que x equidista de dos n´ umeros de m´aquina, es decir, cuando la cifra m+ 1 es justo 5.
M´as en general, el orden del menor n´ umero que sumado a un x da, en la m´aquina, un resultado
distinto de x es ε[x[.
Es fundamental observar que ε no es el menor n´ umero que se puede representar en la m´aquina
(y est´a muy lejos de ´este!). Este ´ ultimo depende de M
1
y no de m.
Veamos ahora algunos de los problemas que surgen debido al redondeo.
Empecemos por sumar dos n´ umeros. Como vimos, si sumamos dos n´ umeros de ordenes muy
distintos, el m´as chico puede “desaparecer”. Por ejemplo, si m = 5 y
2. REDONDEO 5
x = 78473000; y = 24
tenemos
x

= 0, 78473 10
8
; y

= 0, 24 10
2
es decir que x e y son n´ umeros de m´aquina. Entonces,
x +y = 78473024
y por lo tanto,
(x +y)

= 0.78473 10
8
= x

= x
En particular, esto nos dice que si tenemos que sumar varios n´ umeros x
1
, x
2
, .....x
N
conviene
hacerlo de menor a mayor (¿Por qu´e?).
En el ejemplo anterior el problema no es muy importante ya que no se pierden d´ıgitos significa-
tivos, es decir, el orden del error relativo no se agranda (se est´a perdiendo la informaci´on de un
n´ umero que es despreciable respecto del otro sumando).
El problema es mucho m´as serio cuando deben restarse dos n´ umeros parecidos. En este caso,
debido a lo que se conoce como “cancelaci´on catastr´ofica”, pueden perderse d´ıgitos significativos
o, en otras palabras, agrandarse mucho el error relativo.
Consideremos como antes m = 5 y tomemos
x = 0, 372154876; y = 0, 372023264
entonces,
x

= 0, 37215; y

= 0, 37202
y por lo tanto,
x −y = 0, 000131612
mientras que
x

−y

= 0, 00013 = 0, 13 10
−3
Observemos qu´e sucedi´o: x e y estaban representados con 5 d´ıgitos significativos pero al restarlos
quedaron s´olo 2 del resultado. En consecuencia el error relativo creci´o de manera tal que si bien
el error relativo en x e y era del orden de 10
−5
el del resultado es del orden de 10
−2
.
6 1. PUNTO FLOTANTE Y REDONDEO
Como conclusi´on observamos que hay que tratar de evitar restar n´ umeros “casi iguales”. Por
ejemplo, supongamos que queremos calcular
y =
_
x
2
+ 1 −1
para valores de x peque˜ nos. Si lo hacemos directamente, estamos en la situaci´on anterior. En
cambio podemos proceder de la siguiente manera:
y =
_
x
2
+ 1 −1 =
(

x
2
+ 1 −1)(

x
2
+ 1 + 1)
(

x
2
+ 1 + 1)
=
x
2
(

x
2
+ 1 + 1)
y utilizar la ´ ultima expresi´on para calcular y. Si los c´alculos fueran exactos ambas f´ormulas
dar´ıan el mismo resultado pero, debido al redondeo, dan resultados distintos. Por ejemplo,
trabajando con 5 d´ıgitos, si x = 0, 0312 obtenemos con la primera f´ormula y = 0, 0004 (un
solo d´ıgito significativo si bien conociamos x exactamente). Mientras que con la segunda, y =
0, 00048662 (que tiene cuatro d´ıgitos significativos correctos).
El mismo problema surge al calcular y = x −sin x para x peque˜ no. En este caso se puede usar
el desarrollo de Taylor,
y = x −sinx =
x
3
3!

x
5
5!
+
x
7
7!
.....
y calcular y sumando los primeros t´erminos de la serie.
Otro caso en el que la cancelaci´on de d´ıgitos significativos puede presentarse es en la resoluci´on
de una ecuaci´on cuadr´atica
ax
2
+bx +c = 0
si utilizamos la f´ormula habitual
x
1
=
−b +

b
2
−4ac
2a
y x
2
=
−b −

b
2
−4ac
2a
Consideremos por ejemplo,
x
2
−10
5
x + 1 = 0
Los primeros d´ıgitos exactos de las ra´ıces son
x
1
= 99999.99999
y
x
2
= 0.000010000000001
2. REDONDEO 7
Usando la f´ormula para x
2
tenemos
x
2
=
10
5


10
10
−4
2
Si trabajamos con ocho d´ıgitos el 4 desaparece y x
2
resulta igual a cero. Otra vez hemos restado
dos n´ umeros parecidos!
Esto se puede solucionar calculando primero x
1
y luego obtener x
2
usando que x
2
=
c
ax
1
.
En general, la forma correcta de encontrar las ra´ıces en el caso en que ac sea despreciable respecto
de b, es calculando primero
x
1
=
−b − sign(b)

b
2
−4ac
2a
y luego la otra raiz como hicimos en el ejemplo. De esta forma se evita la p´erdida de d´ıgitos
significativos.
Un problema fundamental del c´alculo num´erico es la resoluci´on de sistemas de ecuaciones lineales.
Veamos como los errores de redondeo pueden afectar la soluci´on a´ un en problemas de dos
ecuaciones con dos inc´ognitas. Tratemos de resolver el siguiente sistema utilizando el m´etodo
de eliminaci´on de Gauss,
_
ε 1
1 1
__
x
y
_
=
_
1
2
_
Pongamos, a modo de ejemplo, ε = 10
−6
y supongamos que la m´aquina trabaja con cinco d´ıgitos.
Multiplicando la primera fila por
1
ε
= 10
6
y rest´andosela a la segunda obtenemos
_
10
−6
1
0 1 −10
6
__
x
y
_
=
_
1
2 −10
6
_
pero, con el redondeo a cinco cifras nos queda
_
10
−6
1
0 −10
6
__
x
y
_
=
_
1
−10
6
_
(perdimos la informaci´on de la segunda ecuaci´on!).
Mientras que el resultado exacto es
_
10
−6
1
0 −999999
__
x
y
_
=
_
1
−999998
_
8 1. PUNTO FLOTANTE Y REDONDEO
Hasta aqui el error no parece grave. Pero veamos: si utilizamos la matriz obtenida con la m´aquina
y despejamos de la segunda ecuaci´on obtenemos la soluci´on y

= 1 y luego, reemplazando en la
primera, x

= 0.
Pero la soluci´on verdadera es
y =
1 −2 10
−6
1 −10
−6
∼ 1 = y

x =
1
1 −10
−6
,= 0 = x

Observemos que x − x

= x =
1
1−10
−6
es aproximadamente 1. Adem´as el error relativo es 1
(catastr´ofico!).
Analicemos qu´e sucedi´o. Al hacer las restas 1 −
1
ε
, 2 −
1
ε
se introduce un peque˜ no error en
la matriz triangulada que se propaga a la soluci´on. Este error, al perder la sexta cifra, no es
significativo respecto de y pero al reemplazar en la primera ecuaci´on queda,
εx

= 1 −y

, y entonces x =
1
ε
(1 −y

)
Esto implica que el error y

−y se amplifica por un factor
1
ε
dando lugar a un error grande en x.
Veamos ahora que pasa si hacemos el mismo proceso de eliminaci´on de Gauss pero intercam-
biando las filas de lugar. Queda
_
1 1
10
−6
1
__
x
y
_
=
_
2
1
_
Operando (fila 2 - ε fila 1), obtenemos
_
1 1
0 1 −10
−6
__
x
y
_
=
_
2
1 −2 10
−6
_
y con el redondeo a cinco cifras nos queda
_
1 1
0 1
__
x
y
_
=
_
2
1
_
que tiene como soluci´on y

= 1, x

= 1.
¿Qu´e pas´o? El intercambio de filas permiti´o obtener un resultado correcto evitando la propaga-
ci´on catastr´ofica del error que se daba en el otro caso. Veremos m´as adelante que esto es algo
general: conviene elegir como “pivote” (elemento por el que se divide) para la eliminaci´on de
Gauss el que tenga mayor valor absoluto.
En este ejemplo, la primera forma de resolver era un algoritmo “malo” o inestable en el sentido
de que amplificaba los errores llevando a resultados absolutamente err´oneos. Sin embargo, esto
2. REDONDEO 9
se solucion´o intercambiando el orden de las filas, o sea, modificando el algoritmo. Esto muestra
que el error en el primer caso se deb´ıa a la forma de resolver y no a algo inherente al problema
en s´ı mismo.
Hay casos de naturaleza esencialmente diferente en los cuales el problema que se quiere resolver
est´a “mal condicionado”. Esto significa que peque˜ nos cambios en los datos implican grandes
cambios en la soluci´on. Esto hace que los errores de redondeo puedan amplificarse mucho
independientemente del m´etodo que usemos para resolverlo.
Veamos un ejemplo de esto. Supongamos que nuestra m´aquina trabaja con 3 d´ıgitos y trunca.
Resolvamos el sistema
_
0.780 0.563
0.913 0.659
__
x
y
_
=
_
0.217
0.254
_
La soluci´on exacta es x = 1, y = −1.
Teniendo en cuenta lo visto antes, intercambiamos filas antes de hacer la eliminaci´on de Gauss.
Obtenemos
_
0.913 0.659
0 0.001
__
x
y
_
=
_
0.254
0.001
_
y en consecuencia y

= 1 y x

= −0.443 que no tiene nada que ver con la soluci´on exacta. En
particular, el error es mayor que la soluci´on misma!
Lo que sucede en este ejemplo es que la matriz est´a “mal condicionada” (m´as adelante precisare-
mos lo que esto significa) y habr´a problemas independientemente del algoritmo que utilicemos.
Otro ejemplo de problema “mal condicionado” es el siguiente. Las ra´ıces de
(x −2)
2
= 10
−6
son
x
1
= 2 + 10
−3
x
2
= 2 −10
−3
en cambio, las ra´ıces de
(x −2)
2
= 0
son x
1
= x
2
= 2.
Este ejemplo trivial muestra que un peque˜ no cambio en un coeficiente de la ecuaci´on polinomial
puede dar lugar a un cambio de otro orden en las ra´ıces. En este caso, un cambio de 10
−6
en el
t´ermino independiente origina un cambio de 10
−3
en las ra´ıces.
Un ejemplo m´as interesante es el estudiado por Wilkinson en 1963. Se trata de calcular las
ra´ıces de
10 1. PUNTO FLOTANTE Y REDONDEO
p(x) = (x −1)(x −2)......(x −19)(x −20) = x
20
−210x
19
+....
Wilkinson demostr´o que al cambiar el coeficiente −210 por −210 − 2
−23
las ra´ıces 16 y 17 se
transforman en el par complejo
16.73... +i2.812... 16.73... −i2.812...
Para finalizar, veamos otro ejemplo de algoritmo inestable. El problema consiste en calcular
E
n
=
_
1
0
x
n
e
x−1
dx n = 1, 2, ...
Integrando por partes se obtiene
E
n
=
_
1
0
x
n
e
x−1
dx = x
n
e
x−1
[
1
0

_
1
0
nx
n−1
e
x−1
dx
es decir
E
n
= 1 −nE
n−1
y es f´acil ver que
E
1
= 1/e
con lo que tenemos definida la sucesi´on E
n
en forma recursiva.
Usando esta relaci´on recursiva para calcular con una m´aquina que trabaje con seis d´ıgitos se
obtiene,
E
1
∼ 0.367879
E
2
∼ 0.264242
E
3
∼ 0.207274
.
.
.
E
9
∼ −0.0684800
cuando en realidad
E
9
∼ 0.0916
con lo que el resultado computacional es p´esimo.
En este caso lo que sucede es que el error de E
n−1
se amplifica multiplic´andose por n. Entonces
en nueve pasos se multiplica por 9!, obteni´endose un error de
9! error inicial = 9! 4.412 10
−7
∼ 0.1601
que resulta mayor que el verdadero E
9
.
3. EJERCICIOS 11
Como conclusi´on el algoritmo es malo. Pero observemos que no lo es el problema en s´ı mismo.
Como alternativas podemos calcular E
n
por integraci´on num´erica o bien hacer el siguiente truco.
Observemos que
E
n−1
=
1 −E
n
n
y como
E
n

_
1
0
x
n
dx =
1
n + 1
→ 0
podemos empezar de E
20
∼ 0 e ir hacia atr´as usando E
n−1
=
1−En
n
. Este algoritmo es estable
(el error en cada paso se multiplica por algo menor que uno).
Como conclusi´on, los ejemplos analizados en esta secci´on muestran la diferencia entre el caso
en el cual la amplificaci´on de los errores de redondeo se debe a que el problema est´a “mal
condicionado” o “mal planteado” y el caso en el que dicha amplificaci´on se debe al uso de un
“algoritmo inestable”. Es fundamental distinguir entre ambos casos y, por otra parte, encontrar
las causas de la propagaci´on indebida de errores con el objeto de mejorar los algoritmos.
3. Ejercicios
(1) Utilizando el m´etodo de redondeo:
(a) Hallar el n´ umero de m´aquina m´as pr´oximo a 125.6 y a= 126 si trabaja con
• Base 10 y mantisa de 2 d´ıgitos.
• Base 2 y mantisa de 8 d´ıgitos.
(b) Verificar para x = 125.6, la conocida cota para el error relativo
[
x −fl(x)
x
[ ≤
si = 1/2β
1−d
donde β es la base y d la longitud de la mantisa.
(c) ¿Cu´al es, en cada caso, el valor que da la m´aquina como resultado de las operaciones
126 + 125.6 y 126 −125.6? ¿Cu´al es el error relativo de estos resultados?
(2) Utilizando el m´etodo de truncamiento:
(a) Rehacer el Ejercicio 1, con el correspondiente, es decir: = β
−d+1
, donde β y d
son como antes.
(b) Demostrar que, en este caso, es el menor n´ umero de m´aquina tal que 1 + ,= 1.
¿Cu´anto da β +?
(3) Mostrar que fl(x) tiene (para ambos m´etodos) una escritura de la forma
fl(x) = x(1 +δ
x
)
donde [δ
x
[ ≤ . (Usar la cota para el error relativo).
(4) P´erdida de d´ıgitos significativos:
(a) Si x, y ≥ 0 demostrar que
¸
¸
¸
x +y −fl(fl(x) +fl(y))
x +y
¸
¸
¸ ≤ 2 +
2
.
12 1. PUNTO FLOTANTE Y REDONDEO
Observar que en la expresi´on 2 +
2
el valor de
2
es despreciable dado que es
peque˜ no.
(b) Si x e y no poseen el mismo signo, ¿puede repetir la misma cuenta? (Sugerencia:
recordar el error relativo de 126 − 125.6 en el ejercicio 1, item (c), utilizando la
computadora binaria con mantisa de 8 d´ıgitos.)
(5) Un ejemplo que muestra que algunas de las reglas de la aritm´etica no son v´alidas para
operaciones de punto flotante.
(a) Intentar anticipar el resultado de los siguientes c´alculos:
(i) (1 +

2
) +

2
(ii) 1 + (

2
+

2
)
(iii)
_
(1 +

2
) +

2
_
−1 (iv)
_
1 + (

2
+

2
)
_
−1
(b) Efectuar estos c´alculos usando Matlab y comprobar las predicciones hechas.
(6) Hallar la ra´ız menor en m´odulo de la ecuaci´on
x
2
−40x + 0.25 = 0,
utilizando aritm´etica de 4 d´ıgitos y comparar con el resultado obtenido utilizando arit-
m´etica exacta. Calcular el error relativo y asegurarse de comprender de d´onde viene la
p´erdida de d´ıgitos significativos. ¿Se le ocurre c´omo calcular con mayor precisi´on dicha
ra´ız? ¿Cu´al es el error relativo con el nuevo m´etodo?
(7) Hallar una forma de calcular sin p´erdida de d´ıgitos significativos las siguientes cantida-
des, para x ∼ 0:
(a) (α +x)
n
−α
n
(b) α −
_
α
2
−x
(c) cos x −1
(d) sin(α +x) −sin(α)
(8) Se pretende calcular las sumas S
N
=

N
k=1
a
k
con N ∈ IN. Llamemos
´
S
N
al valor
calculado que se logra de hacer fl(

S
N−1
+a
N
).
(a) S
N
=
N

k=1
1
k
. Mostrar que
´
S
N
se estaciona a partir de alg´ un N suficientemente
grande. Deducir que a partir de entonces S
N
,=
´
S
N
.
(b) Idem (a) para la suma S
N
=
N

k=1
2
−k+100
+ 1
k
. Encontrar, haciendo un programa
en Matlab, el valor de N para el cual
´
S
N
se estaciona.
(9) El desarrollo de Taylor de la funci´on e
x
proporciona una forma muy inestable de cal-
cular este valor cuando x es negativo. Hacer un programa en Matlab que estime e
−12
evaluando el desarrollo de Taylor hasta grado n de la funci´on e
x
en x = −12, para
n = 1, . . . , 100. Comparar con el valor exacto: 0.000006144212353328210 . . . ¿Cu´ales
son las principales fuentes de error? Realizar otra estimaci´on= de e
−12
con alg´ un
otro m´etodo que evite los problemas del m´etodo anterior (Sugerencia: Considerar
e
−x
= 1/e
x
).
(10) Calcular en Matlab los valores: sen(π/2 + 2π10
j
) c= on 1 ≤ j ≤ 18. ¿Cu´anto deber´ıa
dar? ¿Qu´e est´a pasando?
(11) Aproximaci´on de la derivada de una funci´on.
3. EJERCICIOS 13
(a) Llamamos derivada discreta de f en x = 1 al valor
d
h
f(1) =
f(1 +h) −f(1)
h
.
Utilizando el desarrollo de Taylor, demostrar que
[f

(1) −d
h
f(1)[ ≤ [f

(1)[
h
2
+o(h) (h → 0)
siempre que f sea suficientemente derivable.
(b) Considerar la funci´on f(x) = x
2
. Hacer un programa en Matlab que calcule
los valores de d
h
f(1) para aproximar f

(1), d´andole a h los valores 10
−18
, 10
−17.9
,
10
−17.8
, . . . , 10
−1
y grafique los resultados obtenidos. Decidir si ´estos se contradicen
con el resultado del ´ıtem anterior. Hacer un an´alisis de los c´alculos efectuados para
calcular d
h
f(1), teniendo en cuenta que la m´aquina utiliza aritm´etica de punto
flotante.
(c) Repetir el ´ıtem anterior, d´andole otros valores a h, de modo que el resultado resulte
m´as confiable.
(12) Las funciones de Bessel J
n
se pueden definir del siguiente modo:
J
n
(x) =
1
π
_
π
0
cos(xsin θ −nθ)dθ.
y verifican que [J
n
(x)[ ≤ 1. Se sabe adem´as que J
n+1
(x) = 2n/xJ
n
(x) − J
n−1
(x).
Con los valores estimados J
0
(1) ∼ 0.7651976865, J
1
(1) ∼ 0.4400505857 y la recurrencia
dada, hacer un programa en Matlab para calcular J
2
(1), J
3
(1), . . . , J
10
(1). Decidir si
la condici´on [J
n
(x)[ ≤ 1 deja de satisfacerse. ¿Qu´e esta sucediendo?
(13) Dada la funci´on Φ : IR → IR definida por
Φ(x) =

k=1
1
k(k +x)
,
consideramos las siguiente dos maneras de estimar num´ericamente el valor de Φ(x) para
un x fijo:
• sumar los primeros n t´erminos de la serie Φ(x),
• teniendo en cuenta que Φ(1) = 1, definir
Ψ(x) = Φ(x) −Φ(1) =

k=1
(
1
k(k +x)

1
k(k + 1)
) =

k=1
1 −x
k(k + 1)(k +x)
,
luego expresar Φ(x) = 1+Ψ(x) y, de este modo, estimar Φ(x) como 1 m´as la suma
de los primeros n t´erminos de la serie Ψ(x).
Predecir cu´al de las dos maneras converge m´as r´apidamente. Luego, hacer un
programa que calcule y grafique el resultado obtenido con los dos m´etodos propuestos
para calcular Φ(0), con n = 1, . . . , 100. Comparar con el resultado exacto, que es
π
2
6
.
(14) Algoritmo para calcular π.
Comenzar inicializando las variables a, b, c, d y e del siguiente modo: a = 0, b = 1,
c = 1/

2, d = 1/4, e = 1. Luego, iterar n veces en el orden dado las siguientes
f´ormulas:
a = b, b =
b +c
2
, c =

ca, d = d −e(b −a)
2
, e = 2e.
14 1. PUNTO FLOTANTE Y REDONDEO
Finalmente, el valor de π puede estimarse como f = b
2
/d, o como g = (b +c)
2
/(4d).
Hacer un programa que calcule los valores de π estimados por f y g cuando n =
1, 2, . . . , 10. ¿Qu´e estimaci´on converge m´as r´apido? ¿Cu´an precisos son sus resultados?
El valor de π correcto hasta 36 d´ıgitos es
π = 3.14159265358979323846264338327950288
CAP´ıTULO 2
Normas y condicionamiento de una matriz.
Consideramos el sistema de n ecuaciones con n inc´ognitas
Ax = b
con A ∈ IR
n×n
, x ∈ IR
n
y b ∈ IR
n
y nos preguntamos cu´anto afectar´a a la soluci´on un error
en el dato b. Para poder dar una respuesta debemos decidir primero c´omo medir el error. Es
decir, necesitamos dar alguna forma de medir vectores de IR
n
. Una forma posible es utilizar la
longitud o norma eucl´ıdea del vector, o sea,
|x|
2
=
_
x
2
1
+..... +x
2
n
Pero ´esta no es la ´ unica medida razonable y en muchos casos es conveniente trabajar con otras.
Por ejemplo, podemos decir que un vector es “chico” si lo son todas sus componentes y tomar
entonces como medida de x la siguiente, llamada “norma infinito”,
|x|

= max
1≤i≤n
[x
i
[
Otra elecci´on natural es la “norma uno”,
|x|
1
= [x
1
[ +..... +[x
n
[
o m´as en general la “norma p”,
|x|
p
= ([x
1
[
p
+..... +[x
n
[
p
)
1
p
con 1 ≤ p < ∞.
Todas estas formas de medir resultan equivalentes en el sentido de que, si x es “chico” en una de
las normas entonces lo es en cualquier otra, puesto que una norma mayora a la otra salvo una
constante que depende s´olo de n. Por ejemplo, utilizando la desigualdad de Schwartz se obtiene
|x|
1


n|x|
2
y por otra parte, es f´acil ver que,
|x|
2
≤ |x|
1
16 2. NORMAS Y CONDICIONAMIENTO
Tambi´en se verifica f´acilmente que
|x|

≤ |x|
1
≤ n|x|

M´as en general, decimos que una norma en IR
n
es una manera de asignar a cada x un n´ umero |x|
de tal forma que se verifiquen las siguientes propiedades, an´alogas a las que cumple la longitud
usual,
1) |x| ≥ 0 ∀x ∈ IR
n
2) |x| = 0 si y solo si x = 0.
3) |λx| = [λ[|x| ∀λ ∈ IR, ∀x ∈ IR
n
4) |x +y| ≤ |x| +|y| ∀x ∈ IR
n
, ∀y ∈ IR
n
(desigualdad triangular)
Una vez que sabemos como medir vectores podemos hablar tambi´en de la distancia entre dos
vectores x e y la cual est´a dada por |x−y|. En particular, esto permite hablar de convergencia
de sucesiones: x
n
→ x si |x −x
n
| → 0.
Tanto para medir el error como para analizar la convergencia de una sucesi´on elegiremos la
norma que nos resulte m´as conveniente en cada caso. Esto est´a justificado por el hecho de
que todas las normas son equivalentes: convergencia en una de ellas implica convergencia en
cualquier otra. M´as a´ un, se tiene el siguiente resultado.
Teorema 2.1. Dadas dos normas en IR
n
, | | y | |

, existen constantes C
1
y C
2
que dependen
s´olo de n y de las normas consideradas (en particular, son independientes de x) tales que
C
1
|x| ≤ |x|

≤ C
2
|x| ∀x ∈ IR
n
Demostraci´ on. Basta ver que una norma cualquiera | | es equivalente a la norma eucl´ıdea usual,
| |
2
. Sea ¦e
i
¦ la base can´onica de IR
n
y definamos la constante C = (

n
i=1
|e
i
|
2
)
1/2
, la cual
depende s´olo de n y de | |. Utilizando las propiedades de la norma y la desigualdad de Schwartz
obtenemos
|x| = |
n

i=1
x
i
e
i
| ≤
n

i=1
[x
i
[|e
i
| ≤ (
n

i=1
[x
i
[
2
)
1/2
(
n

i=1
|e
i
|
2
)
1/2
= C|x|
2
(2.1)
Queremos ver ahora que existe una constante K tal que
|x|
2
≤ K|x| ∀x ∈ IR
n
(2.2)
Supongamos que una tal K no existe y veamos que se llega a una contradicci´on. En efecto, si
(2.2) no se cumple para ning´ un K tenemos, en particular, que dado m ∈ IN, existe y
m
∈ IR
n
tal
que
2. NORMAS Y CONDICIONAMIENTO 17
|y
m
|
2
≥ m|y
m
|
y llamando x
m
= y
m
/|y
m
|
2
obtenemos |x
m
|
2
= 1 y
|x
m
| ≤
1
m
(2.3)
pero, toda sucesi´on acotada en la norma eucl´ıdea tiene una subsucesi´on convergente. Entonces
existe una subsucesi´on de (x
m
), (x

m
) tal que
|x

m
−x|
2
→ 0
para cierto x ∈ IR
n
. Pero entonces por (2.1), tambi´en vale que
|x

m
−x| → 0
Por otra parte, por (2.3) tenemos que |x

m
| → 0 y en consecuencia, por unicidad del l´ımite,
resulta x = 0. Pero observemos finalmente que, por la desigualdad triangular,
¸
¸
¸|x

m
|
2
−|x|
2
¸
¸
¸ ≤ |x

m
−x|
2
y entonces se llega a la contradicci´on 1 = |x

m
|
2
→ |x|
2
= 0, finalizando la demostraci´on.
Ahora s´ı, estamos en condiciones de abordar el problema de c´omo afecta el error en los datos a
la soluci´on de un sistema lineal cuya matriz A es inversible. Si se reemplaza el dato b por b+∆b,
la soluci´on x del sistema ser´a modificada de tal forma que tendremos
A(x + ∆x) = (b + ∆b)
o equivalentemente,
A∆x = ∆b
y nos preguntamos que relaci´on hay entre
|∆x|
|x|
y
|∆b|
|b|
Veamos primero el siguiente ejemplo simple,
_
4.1 2.8
9.7 6.6
__
x
1
x
2
_
=
_
4.1
9.7
_
La soluci´on es
x =
_
1
0
_
18 2. NORMAS Y CONDICIONAMIENTO
Observemos que
|b|
1
= 13.8 |x|
1
= 1
Si modificamos b poniendo
b

= b + ∆b =
_
4.11
9.70
_
entonces la soluci´on es
x

= x + ∆x =
_
0.34
0.97
_
y se obtiene en consecuencia
|∆b|
1
= 0.01 |∆x|
1
= 1.63
con lo que el error relativo se amplific´o mucho, en efecto,
|∆b|
1
|b|
1
= 0.7246 10
−3
mientras que
|∆x|
1
|x|
1
= 1.63
Nuestro objetivo es tratar de entender a qu´e se debe este comportamiento y poder predecir,
dada una matriz A, cu´al ser´a el factor de amplificaci´on del error relativo o, al menos, dar una
cota de ´este en t´erminos de A.
Analicemos primero el caso de una matriz diagonal.
_
λ
1
0
0 λ
2
__
x
1
x
2
_
=
_
b
1
b
2
_
La soluci´on es (si λ
1
, λ
2
,= 0)
x
1
=
b
1
λ
1
x
2
=
b
2
λ
2
Por ejemplo, si
A =
_
1000 0
0
1
100
_
entonces,
x
1
=
b
1
1000
x
2
= 100b
2
2. NORMAS Y CONDICIONAMIENTO 19
Si ponemos b

= b + ∆b con
∆b =
_
0
∆b
2
_
b =
_
b
1
0
_
entonces,
x
1
=
b
1
1000
∆x
2
= 100∆b
2
obteni´endose
10
5
|∆b|
2
|b|
2
=
|∆x|
2
|x|
2
es decir que el error relativo se multiplic´o por 10
5
.
Si en cambio elegimos
∆b =
_
∆b
1
0
_
b =
_
0
b
2
_
tenemos entonces,
∆x
1
=
1
1000
∆b
1
x
2
= 100b
2
y en consecuencia,
1
10
5
|∆b|
2
|b|
2
=
|∆x|
2
|x|
2
o sea que en este caso el error relativo se redujo en un factor 10
5
. En general, para una matriz
diagonal
A =
_
λ
1
0
0 λ
2
_
con [λ
1
[ > [λ
2
[, el error relativo puede multiplicarse por

1
[

2
[
en el peor de los casos y por

2
[

1
[
en el mejor de los casos.
20 2. NORMAS Y CONDICIONAMIENTO
En general, el error tendr´a componentes en cualquier direcci´on por lo que es de esperar que si

1
|

2
|
es grande los errores relativos se amplifiquen.
El mismo an´alisis puede hacerse en IR
n
. Si A es una matriz diagonal
A =
_
_
λ
1
0

0 λ
N
_
_
el error relativo se puede amplificar, a lo sumo, por un factor

max
[

min
[
siendo λ
max
y λ
min
los de m´aximo y m´ınimo valor absoluto entre los λ
j
(observemos que λ
min
,= 0
pues estamos suponiendo que A es inversible). Este cociente se llama n´ umero de condici´on o de
condicionamiento de A en la norma | |
2
y lo denotaremos Cond
2
(A).
Ahora veamos como definir el n´ umero de condici´on para una matriz A arbitraria. Comencemos
por el caso en que A sea sim´etrica, es decir a
ij
= a
ji
. En este caso A se puede diagonalizar,
es decir, existe una base de autovectores ¦v
1
, ...., v
n
¦. Adem´as, por ser A sim´etrica podemos
considerar que la base es ortonormal. Entonces, si Ax = b , A(x + ∆x) = b + ∆b y
x =
n

i=1
α
i
v
i
∆x =
n

i=1
β
i
v
i
tenemos,
|x|
2
2
=
n

i=1
α
2
i
|∆x|
2
2
=
n

i=1
β
2
i
y adem´as, si llamamos λ
i
al autovalor correspondiente a v
i
,
b =
n

i=1
α
i
λ
i
v
i
∆b =
n

i=1
β
i
λ
i
v
i
y en consecuencia,
|b|
2
2
=
n

i=1
α
2
i
λ
2
i
|∆b|
2
2
=
n

i=1
β
2
i
λ
2
i
Entonces, si λ
max
y λ
min
son los autovalores de m´aximo y m´ınimo valor absoluto respectivamente,
obtenemos
|∆x|
2
2
|x|
2
2
=

n
i=1
β
2
i

n
i=1
α
2
i

1/[λ
min
[
2
1/[λ
max
[
2
|∆b|
2
2
|b|
2
2
o sea
2. NORMAS Y CONDICIONAMIENTO 21
|∆x|
2
|x|
2


max
[

min
[
|∆b|
2
|b|
2
es decir que el n´ umero Cond
2
(A) =
|λmax|

min
|
es una cota para el factor de amplificaci´on del error
relativo. M´as a´ un, esta cota es la mejor posible pues la desigualdad se convierte en una igualdad
para cierta elecci´on de b y ∆b (b en la direcci´on correspondiente al m´aximo autovalor y ∆b en
la correspondiente al m´ınimo).
Para generalizar el n´ umero de condici´on a cualquier matriz observemos que, en el caso de una
sim´etrica, la direcci´on correspondiente al autovalor de m´aximo valor absoluto nos da la direcci´on
de “m´axima expansi´on”, es decir, si miramos el cociente entre la longitud de Ax y la de x
|Ax|
2
|x|
2
´este ser´a m´aximo entre todos los x cuando x est´a en la direcci´on correspondiente a λ
max
. En
efecto, si escribimos x en la base de autovectores ¦v
1
, ..., v
n
¦
x =
n

i=1
α
i
v
i
entonces,
Ax =
n

i=1
α
i
λ
i
v
i
y de ac´a resulta que
|Ax|
2
≤ [λ
max
[|x|
2
y tomando x = v
j
con λ
j
= λ
max
se ve que se verifica la igualdad.
An´alogamente, la direcci´on de “m´ınima expansi´on” corresponde a la asociada a λ
min
, la cual
corresponde tambi´en a la de “m´axima expansi´on” de la inversa de A.
El an´alisis realizado para matrices sim´etricas nos muestra que el factor de amplificaci´on del error
relativo est´a relacionado con los m´aximos factores de expansi´on de A y de su inversa. Teniendo
en cuenta esto, definimos para una matriz arbitraria A ∈ IR
n×n
y una norma de vectores | |
cualquiera, la norma matricial asociada como
|A| = max
0=x∈IR
n
|Ax|
|x|
Es decir, la norma de A nos da lo m´aximo que “agranda” el multiplicar por A medido en la
norma de vectores dada. Es f´acil ver que
22 2. NORMAS Y CONDICIONAMIENTO
|A| = max
x=1
|Ax|
y en particular, esto muestra que el m´aximo existe, o sea que la norma esta bien definida (|Ax|
es una funci´on continua de x y por lo tanto, alcanza su m´aximo en el conjunto de vectores de
norma igual a uno pues ´este es cerrado y acotado).
De la definici´on se desprende la siguiente desigualdad que usaremos frecuentemente,
|Ax| ≤ |A||x| ∀x ∈ IR
n
valiendo la igualdad para algun x. Tambi´en es f´acil ver que
|AB| ≤ |A||B| ∀A ∈ IR
n×n
, ∀B ∈ IR
n×n
(2.4)
Por otra parte puede verificarse que |A| es la menor entre todas las constantes C para las cuales
vale la desigualdad
|Ax| ≤ C|x| ∀x ∈ IR
n
siendo ´esta otra forma usual de definir la norma matricial.
Como ejemplo tenemos que, por lo visto antes, si A es sim´etrica entonces
|A|
2
= [λ
max
[
donde el sub´ındice 2 nos indica cual es la norma de vectores correspondiente.
An´alogamente tenemos que para A inversible y sim´etrica
|A
−1
|
2
=
1

min
[
y por lo tanto,
|A|
2
|A
−1
|
2
=

max
[

min
[
En general introducimos entonces la siguiente
Definici´ on 2.2. Sea A ∈ IR
n×n
una matriz inversible y sea | | una norma en IR
n
definimos el
n´ umero de condici´on de A como
Cond(A) = |A||A
−1
|
2. NORMAS Y CONDICIONAMIENTO 23
Es claro que Cond(A) depende de la norma de vectores elegida.
Es f´acil ver que valen las siguientes propiedades,
Cond(A) = Cond(A
−1
)
y
Cond(A) ≥ 1 ∀A ∈ IR
n×n
En efecto, la primera es obvia mientras que, para ver la segunda, utilizamos la propiedad (2.4)
y obtenemos
1 = |I| = |AA
−1
| ≤ |A||A
−1
| = Cond(A)
Podemos ahora probar el siguiente resultado fundamental
Teorema 2.3. Si A ∈ IR
n×n
es inversible, b, ∆b ∈ IR
n
, Ax = b y A(x+∆x) = b +∆b entonces,
|∆x|
|x|
≤ Cond(A)
|∆b|
|b|
(2.5)
valiendo la igualdad para alguna elecci´on de b y ∆b.
Adem´as,
1
Cond(A)
|∆b|
|b|

|∆x|
|x|
(2.6)
y nuevamente, vale la igualdad para ciertos b y ∆b.
Demostraci´on. Se tiene que
A(∆x) = ∆b
y entonces,
|∆x|
|x|

|A
−1
||∆b|
|x|
=
|A
−1
||∆b|
|b|
|b|
|x|

|A
−1
||∆b|
|b|
|A|
donde para la ´ ultima desigualdad hemos usado que |b| = |Ax| ≤ |A||x|. Por lo tanto (2.5)
vale.
Observemos adem´as que si elegimos ∆b tal que |∆x| = |A
−1
∆b| = |A
−1
||∆b|, x tal que
|Ax| = |A||x| (lo que siempre se puede por la definici´on de la norma matricial) y b = Ax
resulta la igualdad en (2.5).
Ahora, para ver la desigualdad (2.6) observemos que ´esta puede escribirse como
24 2. NORMAS Y CONDICIONAMIENTO
|∆b|
|b|
≤ Cond(A)
|∆x|
|x|
la cual, teniendo en cuenta que Cond(A) = Cond(A
−1
), es exactamente la desigualdad (2.5)
aplicada a A
−1
con lo que el teorema est´a demostrado.
Veamos ahora que el n´ umero de condici´on tambi´en tiene que ver con la propagaci´on del error
que se cometa en los coeficientes del sistema. Como veremos m´as adelante, el teorema siguiente
es tambi´en de suma importancia en el an´alisis del error de redondeo en la eliminaci´on de Gauss.
Teorema 2.4. Si A ∈ IR
n×n
es inversible, E ∈ IR
n×n
, b ∈ IR
n
, Ax = b y (A+E)(x + ∆x) = b
entonces, llamando ˜ x = x + ∆x tenemos
|∆x|
|˜ x|
≤ Cond(A)
|E|
|A|
(2.7)
y si
Cond(A)
|E|
|A|
≤ δ < 1
entonces,
|∆x|
|x|

1
1 −δ
Cond(A)
|E|
|A|
(2.8)
Demostraci´ on. Tenemos
Ax = b A˜ x = b −E˜ x
y entonces,
−E˜ x = A∆x
por lo que conclu´ımos que
|∆x| ≤ |A
−1
||E||˜ x| ≤ Cond(A)
|E|
|A|
|˜ x|
lo que prueba (2.7).
Ahora observemos que
|˜ x|
|x|
=
|x + ∆x|
|x|

|x| +|∆x|
|x|
= 1 +
|∆x|
|x|
2. NORMAS Y CONDICIONAMIENTO 25
lo cual, junto con la desigualdad anterior implica que
|∆x|
|x|
≤ Cond(A)
|E|
|A|
_
1 +
|∆x|
|x|
_
≤ Cond(A)
|E|
|A|

|∆x|
|x|
lo que concluye la demostraci´on de (2.8).
Veamos ahora como calcular algunas normas matriciales. Dada A ∈ IR
n×n
se llama radio
espectral de A a
ρ(A) = [λ
max
[
siendo λ
max
el de m´aximo valor absoluto entre todos los autovalores de A, incluyendo los com-
plejos.
Ya vimos que si A es sim´etrica entonces,
|A|
2
= ρ(A)
En general, para A ∈ IR
n×n
arbitraria se tiene
|A|
2
=
_
ρ(A
T
A)
donde A
T
es la matriz traspuesta de A. En efecto, como A
T
A es sim´etrica, existe una base
ortonormal de autovectores ¦v
j
¦. Llamando µ
j
a los autovalores correspondientes tenemos
A
T
Av
j
= µ
j
v
j
j = 1, ....., n
y si x =

n
i=1
α
i
v
i
entonces, por la ortonormalidad de los v
j
resulta |x|
2
2
=

n
i=1
α
2
j
y en
consecuencia, teniendo en cuenta que A
T
Ax =

n
i=1
α
j
µ
j
v
j
, se tiene que para todo x ∈ IR
n
|Ax|
2
2
|x|
2
2
=
x
T
A
T
Ax
|x|
2
2
=

n
i=1
α
2
j
µ
j

n
i=1
α
2
j
≤ ρ(A
T
A)
es decir que
|A|
2

_
ρ(A
T
A)
y tomando x = v
j
con µ
j
= µ
max
se ve que vale la igualdad.
El c´alculo de la norma 2 de una matriz involucra el c´alculo de autovalores, el cual es un problema
complicado. Sin embargo, otras normas son mucho m´as f´aciles de calcular. Por ejemplo, se tiene
que
26 2. NORMAS Y CONDICIONAMIENTO
|A|

= max
1≤i≤n
n

j=1
[a
ij
[
Para ver esto observemos primero que, para todo x ∈ IR
n
vale
|Ax|

= max
1≤i≤n
[
N

j=1
a
ij
x
j
[≤ |x|

max
1≤i≤n
N

j=1
[a
ij
[
y entonces,
|A|

≤ max
1≤i≤n
n

j=1
[a
ij
[
Para ver que vale la otra desigualdad, sea k tal que

n
j=1
[a
kj
[ es m´axima y tomemos
x =
_
_
_
_
sg(a
k1
)
sg(a
k2
)

sg(a
kn
)
_
_
_
_
donde sg(a) = 1 si a ≥ 0 y sg(a) = −1 si a < 0. Entonces,
(Ax)
k
=
n

j=1
[a
kj
[
y en particular, |Ax|

n
j=1
[a
kj
[ y como |x|

= 1 obtenemos
|Ax|

|x|


n

j=1
[a
kj
[
y conclu´ımos que
|A|

≥ max
1≤i≤n
n

j=1
[a
ij
[
De manera similar puede verse, aunque no lo haremos aqui, que
|A|
1
= max
1≤j≤n
n

i=1
[a
ij
[
2. NORMAS Y CONDICIONAMIENTO 27
Hemos visto que el n´ umero Cond(A) nos da una medida de cu´an mala es una matriz en cuanto
a la propagaci´on de los errores relativos. Si este n´ umero es grande se dice que la matriz est´a
“mal condicionada”.
Si A es una matriz singular y, para cierto b, el sistema Ax = b tiene alguna soluci´on, entonces
tendr´a infinitas y ´estas formar´an una variedad lineal de IR
n
. Es decir que sin cambiar nada
b se pueden obtener soluciones tan distantes como se quiera. En otras palabras, en este caso
tendr´ıamos ∆b = 0 mientras que ∆x ser´ıa arbitrariamente grande.
En consecuencia, es natural esperar que el n´ umero Cond(A) nos de una medida de cu´an cerca
est´a A de ser singular. Esto es efectivamente as´ı y lo formalizaremos en el pr´oximo teorema.
Pero antes veamos algunos ejemplos. Sea ε ∼ 0 entonces la matriz
A =
_
1 1 +ε
1 −ε 1
_
est´a cerca de la matriz singular
B =
_
1 1
1 1
_
y en este caso
A
−1
= ε
−2
_
1 −1 −ε
−1 +ε 1
_
entonces,
|A|

= 2 +ε |A
−1
|

= (2 +ε)ε
−2
y en consecuencia,
Cond

(A) =
_
2 +ε
ε
_
2
>
4
ε
2
Es importante recalcar que esta “distancia a las matrices singulares” debe entenderse en forma
relativa al tama˜ no de A. En este ejemplo tenemos no s´olo que |A−B|

es chica sino que lo es
en relaci´on con |A|

. En efecto,
|A−B|

|A|

=
ε
2 +ε
<
ε
2
En particular, estar “cerca” de ser singular no tiene nada que ver con el tama˜ no del determinante.
Para aclarar esto veamos algunos casos simples. Por ejemplo, si ε ∼ 0, la matriz
28 2. NORMAS Y CONDICIONAMIENTO
A =
_
ε 0
0 ε
_
tiene determinante muy peque˜ no pero es una matriz buen´ısima en cuanto a la propagaci´on de
errores relativos pues Cond(A) = 1.
En cambio,
A =
_
1 0
0
1
ε
_
tiene determinante grande pero, en las normas 2, 1 o ∞, Cond(A) = 1/ε
Damos ahora el resultado que relaciona el n´ umero de condici´on de una matriz con su distancia
relativa a las matrices singulares.
Teorema 2.5. Dadas A ∈ IR
n×n
inversible y una norma de vectores cualquiera se tiene
1
Cond(A)
= inf
B singular
|A−B|
|A|
Demostraci´ on. Sea B ∈ IR
n×n
una matriz singular y tomemos x ,= 0 tal que Bx = 0. Entonces,
|x| = |A
−1
(A−B)x| ≤ |A
−1
||A−B||x|
y en consecuencia,
1 ≤ |A
−1
||A−B|
lo cual muestra que
1
Cond(A)

|A−B|
|A|
∀B ∈ IR
n×n
singular (2.9)
Entonces, para concluir el teorema, falta ver que hay una B singular para la cual vale la igualdad
en (2.9). Para esto, sean y tal que |A
−1
y| = |A
−1
||y| y x tal que Ax = y. Como y puede
tomarse con norma arbitraria, lo elegimos de tal forma que |y| = 1/|A
−1
| y en consecuencia
|x| = 1.
Sea ahora z un vector tal que
z
T
x = 1 (2.10)
y
z
T
u ≤ 1 ∀u ∈ IR
n
tal que |u| = 1 (2.11)
1. EJERCICIOS 29
La existencia de un tal z es la parte m´as t´ecnica de la demostraci´on y omitiremos la escri-
tura formal. Sin embargo, observemos que es intuitivamente claro si analizamos el significado
geom´etrico: los u que verifican la ecuaci´on z
T
u = 1 forman un hiperplano (es decir, una variedad
lineal de dimensi´on n −1). Por lo tanto, que haya un z verificando (2.10) y (2.11) significa que
hay un hiperplano que pasa por x y que deja a la bola unitaria B
1
= ¦u ∈ IR
n
: |u| ≤ 1¦ de un
lado. La existencia de tal hiperplano es clara si se tiene en cuenta que, para toda norma, B
1
es
un conjunto convexo y que x est´a en el borde de ´este. Observemos tambi´en que, en el caso de
la norma | |
2
, se tiene que z = x.
Definamos ahora B = A − yz
T
y veamos que esta matriz es singular y cumple con la igualdad
que quer´ıamos. En efecto,
Bx = Ax −yz
T
x = y −y = 0
y por lo tanto, B es singular.
Por otra parte, |A − B| = |yz
T
|, pero por (2.11) tenemos que [z
T
u[ ≤ 1 para todo u tal que
|u| = 1 puesto que, si z
T
u < 0 entonces, [z
T
u[ = −z
T
u = z
T
(−u) ≤ 1 ya que | − u| = 1.
Entonces,
|yz
T
u| = |y|[z
T
u[ ≤
1
|A
−1
|
∀u ∈ IR
n
tal que |u| = 1
y por lo tanto,
|A−B| ≤
1
|A
−1
|
lo que concluye la demostraci´on.
1. Ejercicios
(1) Calcular la norma 2 de la matriz A =
_
3 0
4 5
_
.
(2) Se quiere estimar la norma 2 de una matriz A ∈ IR
3×3
como el m´aximo del valor
|Ax|
2
/|x|
2
entre varios vectores x ∈ IR
3
no nulos generados al azar. Hacer un progra-
ma que pida el ingreso de una matriz A y luego
• genere los primeros 100 t´erminos de la siguiente sucesi´on:
s
1
= 0, s
k+1
= max
_
s
k
,
|Ax
k
|
2
|x
k
|
2
_
donde los x
k
∈ IR
3
son vectores no nulos generados al azar cuyas coordenadas
est´en el intervalo [−1, 1].
• grafique la sucesi´on calculada, junto con el valor exacto de la norma de la matriz.
30 2. NORMAS Y CONDICIONAMIENTO
Recordar que tanto la norma de un vector como de una matriz se calculan en Matlab
con el comando norm. Tener en cuenta que los vectores generados al azar (comando
rand) tienen coordenadas en el intervalo [0, 1]. Chequear, adem´as, que estos vectores
generados resulten no nulos.
(3) Sea A =
_
_
3 0 0
0
5
4
3
4
0
3
4
5
4
_
_
. Calcular cond
2
(A) y cond

(A).
(4) Probar que si A ∈ IR
n×n
es una matriz inversible y | | es una norma matricial, la
condici´on de A verifica la desigualdad:
1
cond(A)
≤ inf
_
|A−B|
|A|
: B es singular
_
Nota: M´as a´ un, vale la igualdad, pero la otra desigualdad es un poco m´as compli-
cada de probar. De dicha igualdad se puede concluir que cond(A) mide la distancia
relativa de A a la matriz singular m´as pr´oxima.
(5) (a) Mostrar que cond

(A) → ∞ cuando ε → 0 para
(i) A =
_
_
1 1 1
1 ε ε
2
1 0 0
_
_
, (ii) B =
_
_
1 0 1 +ε
2 3 4
1 −ε 0 1
_
_
.
(b) Concluir que la condici´on de las matrices A y B del ´ıtem anterior tienden a infinito,
cualquiera sea la norma considerada.
(6) Sea A la matriz del ejercicio 3. Se quiere resolver el sistema Ax = b para un valor
de b ,= 0 que se conoce con una precisi´on mayor que 10
−3
; es decir, se conoce el valor
conjunto de b + ∆b y se sabe que el error relativo
|∆b|
2
|b|
2
< 10
−3
.
(a) Estimar el error relativo de la soluci´on hallada ˜ x = x + ∆x.
(b) Encuentre un ejemplo para b y ∆b ,= 0 de modo que
∆x
2
x
2
sea exactamente
cond
2
(A)
∆b
2
b
2
.
(7) Sea x la soluci´on exacta al sistema Ax = b y ˜ x la soluci´on obtenida num´ericamente. Se
llama “vector residual” a r := b −A˜ x. Si e = x − ˜ x se tiene Ae = r. Mostrar que:
1
cond(A)
|r|
|b|

|e|
|x|
≤ cond(A)
|r|
|b|
.
Concluir que para una matriz mal condicionada los m´etodos num´ericos no aseguran
buena aproximaci´on.
(8) Para cada n ∈ IN, se definen A
n
=
_
1 2
2 4 +
1
n
2
_
, b
n
= (1, 2 −
1
n
2
) y se quiere resolver
el sistema A
n
x = b
n
. Utilizando cierto m´etodo num´erico se obtiene como resultado el
vector (1, 0).
(a) Calcular el vector residual producido por esta soluci´on tentativa. ¿Puede decirse
que para n grande la soluci´on es razonablemente confiable?
(b) Resolver A
n
x = b
n
en forma exacta, calcular cond

(A
n
) y verificar la cota de error
del ejercicio 7.
(9) Sea D
n
la matriz diagonal de n n con elementos diagonales iguales a 1/10. Calcular
el determinante de D
n
y ver que det(D
n
) → 0 si n → ∞. ¿D
n
est´a mal condicionada?
1. EJERCICIOS 31
(10) (a) Escribir un programa en Matlab que resuelva un sistema Ax = b, A ∈ IR
n×n
usando eliminaci´on gaussiana sin pivoteo.
(b) Adaptar el programa del ´ıtem anterior para que calcule la matriz A
−1
.
(11) Para cada n ∈ IN, se quiere calcular la soluci´on del sistema lineal:
10
−n
x + 2y = 8
x +y = 2
utilizando eliminaci´on gaussiana sin pivoteo, con aritm´etica de punto flotante de 3
d´ıgitos y sistema de redondeo.
(a) Para n = 2 y n = 3, analizar si el resultado difiere significativamente de la soluci´on
real.
(b) Para n = 3, repetir el m´etodo de eliminaci´on gaussiana eligiendo el pivote m´as
conveniente.
32 2. NORMAS Y CONDICIONAMIENTO
(12) Obtener la descomposici´on LU de la matriz
_
_
_
_
2 4 −1 0
4 10 −1 −1
6 10 −7 1
0 2 1 −2
_
_
_
_
de las siguientes dos
maneras:
(a) mediante el algoritmo de eliminaci´on gaussiana,
(b) despejando los coeficientes de L y U ordenadamente.
(13) Sea A ∈ IR
n×n
una matriz que admite descomposici´on LU.
(a) Estimar cu´antas operaciones se necesitan para calcular esta descomposici´on de A,
despejando los coeficientes de L y U.
(b) Se quiere calcular el determinante de A. Para n ≥ 2, mostrar que si esto se hace
mediante el desarrollo sucesivo por alguna fila o columna, entonces se requieren
m´as de n! operaciones. Estimar cu´antas operaciones se necesitan para calcularlo
si se utiliza la descomposici´on LU.
(14) Demostrar que si todos los menores principales de una matriz A ∈ IR
n×n
son no singu-
lares, entonces ´esta admite descomposici´on LU.
(15) Probar que la matriz no singular:
_
_
0 0 1
1 0 0
0 1 0
_
_
no tiene una descomposici´on LU, mientras que la matriz singular A−I s´ı la tiene. Dar
la matriz de permutaciones P tal que PA tenga una factorizaci´on LU.
(16) Considerar el algoritmo de eliminaci´on gaussiana sin pivoteo aplicado a un sistema
Ax = b donde A ∈ IR
n×n
es una matriz tridiagonal. Demostrar que si A es adem´as
estrictamente diagonal dominante, entonces durante la ejecuci´on del algoritmo no se
encuentra ning´ un pivote nulo. (Ayuda: demostrar que si A es estrictamente diagonal
dominante, entonces luego de hacer cada etapa de la eliminaci´on la matriz resultante
tambi´en lo es.)
(17) Sea A ∈ IR
n×n
una matriz tridiagonal tal que en el proceso de eliminaci´on gaussiana
no se encuentra ning´ un pivote nulo. Demostrar que A admite descomposici´on LU con
L y U tambi´en tridiagonales.
(18) Adaptar el programa del ejercicio 10 para que resuelva un sistema de ecuaciones Ax = b,
donde A ∈ IR
n×n
es una matriz tridiagonal. Utilizar el comando flops de Matlab para
conocer la cantidad de operaciones efectuadas y comparar con las que se requieren al
resolver el mismo sistema utilizando los comandos inv y ¸, que no est´an especialmente
pensados para matrices tridiagonales.
1. EJERCICIOS 33
(19) La n-´esima matriz de Hilbert H
n
∈ IR
n×n
, se define de la siguiente manera
(H
n
)
i,j
=
1
i +j −1
.
Estas matrices son un ejemplo de matrices mal condicionadas y por tal motivo se las
utiliza habitualmente para testear rutinas num´ericas.
(a) Demostrar que cond

(H
n
) ≥ n
2
.
(b) Utilizar su programa del ejercicio 10 para calcular la inversa de la matriz de Hilbert
H
9
. Verificar su resultado calculando los productos H
9
H
−1
9
y H
−1
9
H
9
. Comparar
con el resultado obtenido mediante el comando inv.
Nota: En realidad, cond

(H
n
) es mucho mayor que n
2
. Estas matrices pueden ob-
tenerse en Matlab mediante el comando hilb(n) y su condici´on infinito puede calcularse
con el comando cond.
(20) Considerar el sistema de ecuaciones lineales Ax = b, con
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 2 3 4 5 6 7 8 9 10
2 1 0 0 0 0 0 0 0 0
3 0 1 0 0 0 0 0 0 0
4 0 0 1 0 0 0 0 0 0
5 0 0 0 1 0 0 0 0 0
6 0 0 0 0 1 0 0 0 0
7 0 0 0 0 0 1 0 0 0
8 0 0 0 0 0 0 1 0 0
9 0 0 0 0 0 0 0 1 0
10 0 0 0 0 0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Utilizando el comando lu de Matlab, verificar que la eliminaci´on gaussiana puede crear
elementos no nulos en lugares donde inicialmente hab´ıa ceros (es decir, se produce una
matriz densa a pesar de partir de una matriz rala). En muchas aplicaciones, uno debe
resolver un sistema de ecuaciones lineales del orden de 10
4
10
4
donde hay a lo sumo
5 elementos no nulos por fila. Es decir, hay a lo sumo 5 10
4
elementos no nulos en la
matriz, cifra bastante inferior a la cantidad total de elementos. Calcular qu´e cantidad
de bytes (2 bytes por elemento) ocupar´ıa una matriz densa de esas dimensiones. Este
tipo de situaci´on motiva el estudio de m´etodos de resoluci´on de sistemas con matrices
ralas que no involucren un llenado excesivo.
(21) Utilizar el Teorema de Cholesky para demostrar que las siguientes propiedades de una
matriz son equivalentes:
• A es sim´etrica y definida positiva
• hay un conjunto de vectores linealmente independientes x
1
, x
2
, , x
n
de IR
n
, tales
que a
ij
= (x
i
)
t
x
j
.
(22) Considerar la matriz
_
_
4 2 −2
2 5 5
−2 5 11
_
_
.
Mostrar que es definida positiva y calcular su descomposici´on de Cholesky.
(23) Estimar cu´antas operaciones se requieren para hallar la descomposici´on de Cholesky de
una matriz sim´etrica y definida positiva A ∈ IR
n×n
.
CAP´ıTULO 3
Resoluci´on de sistemas lineales.
El objetivo de este cap´ıtulo es estudiar diferentes formas de resolver un sistema lineal de n
ecuaciones con n inc´ognitas. Para dar soiluci´on a este problema se pueden emplear dos grandes
subclases de m´etodos; los directos y los iterados. Dentro de los m´etodos de c´alculo directo se en-
cuentran el de triangulaci´on de Gauss, el de descomposici´on LU y el m´etodo de Cholesky. Entre
los m´etodos iterativos m´as usuales encontramos el de Jacobi, Gauss-Seidel y el de relajaci´on.
1. M´etodos directos
1.1. Triangulaci´on de Gauss y descomposici´on LU. El proceso de triangulaci´on de
Gauss puede verse como el resultado que se obtiene de multiplicar por matrices de la siguiente
forma,
Primer paso: Multiplicar por
L
1
=
_
_
_
_
_
1 0 0
m
21
1 0
.
.
.
.
.
.
.
.
.
m
N1
0 1
_
_
_
_
_
con
m
i1
= −
a
i1
a
11
Entonces L
1
A tendr´a la forma
L
1
A =
_
_
_
_
_
a
11
a
12
a
1N
0 a
1
22
a
1
2N
.
.
.
.
.
.
.
.
.
0 a
1
N2
a
1
NN
_
_
_
_
_
Segundo paso: Multiplicar por
36 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
L
2
=
_
_
_
_
_
_
_
1 0 0
0 1 0
0 m
32
0
.
.
.
.
.
.
.
.
.
0 m
N2
1
_
_
_
_
_
_
_
y nos queda
L
2
L
1
A =
_
_
_
_
_
a
11
a
12
a
1N
0 a
2
22
a
2
2N
.
.
.
.
.
.
.
.
.
0 0 a
2
NN
_
_
_
_
_
As´ı sucesivamente hasta llegar a una matriz triangular suprior
L
N−1
L
N−2
L
2
L
1
A = U =
_
_
_
_
_
u
11
u
12
u
1N
0 u
22
u
2N
.
.
.
.
.
.
.
.
.
0 0 u
NN
_
_
_
_
_
.
Es f´acil ver que la inversa de L
1
viene dada por
(L
1
)
−1
=
_
_
_
_
_
1 0 0
−m
21
1 0
.
.
.
.
.
.
.
.
.
−m
N1
0 1
_
_
_
_
_
y, en general, L
−1
j
es como L
j
pero cambiando los signos de los m
ji
.
Entonces podemos escribir A como sigue,
A = L
−1
1
L
−1
2
L
−1
N−1
U,
adem´as, observemos que la matriz L = L
−1
1
L
−1
2
L
−1
N−1
es de la forma
L = L
−1
1
L
−1
2
L
−1
N−1
=
_
_
_
_
_
1 0 0
−m
21
1 0
.
.
.
.
.
.
.
.
.
−m
N1
−m
N2
1
_
_
_
_
_
As´ı hemos demostrado el siguiente teorema,
1. M
´
ETODOS DIRECTOS 37
Teorema 3.1. Si no hace falta intercambiar filas en la eliminaci´on de Gauss se obtiene
A = LU
donde U es triangular superior y L es triangular inferior con 1 en la diagonal.
Adem´as tenemos el siguiente corolario.
Corolario 3.2.
det(A) = det(U).
En el caso general, si hace falta cambiar filas, se tiene
PA = LU
con P una matriz de permutaciones.
1.2. Descomposici´on de Cholesky. En el caso en que A ∈ IR
N×N
es definida positiva y
sim´etrica una descomposici´on L−U (con U = L
T
) puede obtenerse m´as eficientemente mediante
el m´etodo de Cholesky.
Definici´ on 3.3. A ∈ IR
N×N
se dice definida positiva si
¸x, Ax) > 0 ∀x ,= 0
Observemos que si A = LL
T
con L una matriz inversible, entonces
(1) A es sim´etrica.
(2) A es definida positiva pues ¸x, Ax) = |L
T
x|
2
2
> 0, ∀x ,= 0.
En consecuencia, para que A pueda escribirse como LL
T
con L inversible es necesario que A sea
sim´etrica y definida positiva.
Ahora, para lograr una descomposici´on de la forma LL
T
, analicemos primero el caso simple,
A ∈ IR
3×3
. Planteamos A = LL
T
y nos queda
A =
_
_
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
_
_
_
_
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
_
_
Entonces, despejando los coeficientes, se obtiene
a
11
= l
2
11
l
11
=

a
11
a
12
= l
11
l
21
l
21
=
a
12
l
11
etc.
38 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Ahora veamos algunas propiedades que nos ser´an muy ´ utiles. En el caso general en que A ∈
IR
N×N
sea sim´etrica (i.e. A = A
T
) y definida positiva se tienen las siguientes propiedades,
(1) a
ii
> 0 para cualquier i = 1, ..., N, pues
0 < ¸e
i
, Ae
i
) = a
ii
(2) Los menores principales s
j
son positivos (esto fue demostrado en algebra lineal).
Ahora observamos que lo que hicimos en 3 3 se puede hacer en N N, es decir,
A = LL
T
si y solo si
a
ik
=
k

j=1
l
ij
l
kj
.
Es decir,
a
ik
=
k−1

j=1
l
ij
l
kj
+l
ik
l
kk
.
Entonces, despejando,
l
ik
=
_
a
ik

k−1
j=1
l
ij
l
kj
_
l
kk
i > k.
Adem´as
a
kk
=
k

j=1
l
2
kj
=
k−1

j=1
l
2
kj
+l
2
kk
y entonces
l
kk
=
¸
¸
¸
¸
_
_
_
a
kk

k−1

j=1
l
2
kj
_
_
Obtenemos, de esta manera, una forma recursiva para el c´alculo de los elementos l
ij
.
1. M
´
ETODOS DIRECTOS 39
Para k = 1, 2, ...., N hacemos
_
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
_
l
11
→ l
21
l
N1
l
22
→ l
32
l
N2
.
.
.
.
.
.
l
N−1N−1
→ l
NN−1
l
NN
Para que el algoritmo de Cholesky est´e bien definido necesitamos ver que el argumento de la
ra´ız cuadrada involucrada en el c´alculo de l
kk
sea positivo; es decir,
a
kk

k−1

j=1
l
2
kj
> 0.
Veamos que ´esto es una consecuencia de ser A definida positiva. Argumentemos por inducci´on.
El a
11
es positivo, entonces existe l
11
positivo tal que l
2
11
= a
11
. Supongamos que llegamos hasta
el paso k, es decir
l
11
, l
22
, . . . , l
k−1k−1
son todos n´ umeros reales positivos y supongamos que
a
kk

k−1

j=1
l
2
kj
≤ 0.
Entonces
l
kk
=
¸
¸
¸
¸
_
_
_
a
kk

k−1

j=1
l
2
kj
_
_
= 0 ´o es un n´ umero en C.
Pero si llamamos A
k
al menor principal de A y L
k
al menor principal de L, las matrices que se
obtienen son de tama˜ no k k
A
k
=
_
_
_
a
11
a
1k
.
.
.
.
.
.
.
.
.
a
k1
a
kk
_
_
_ y L
k
=
_
_
_
l
11
l
1k
.
.
.
.
.
.
.
.
.
l
k1
l
kk
_
_
_
y resulta f´acil ver que
A
k
= L
k
L
T
k
.
Entonces
0 < det(A
k
) = (det(L
k
))
2
= l
2
11
l
2
k−1k−1
l
2
kk
;
40 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
como los primeros factores son positivos el ´ ultimo, l
2
kk
debe tambi´en ser positivo, absurdo.
Para terminar, hagamos las siguientes observaciones, el algoritmo de Cholesky es m´as conve-
niente que el de Gauss (L −U) porque,
(1) El n´ umero de operaciones es O(N
3
/6) (en lugar de O(N
3
/3)).
(2) Es estable, sin necesidad de “pivoteo”. Los l
ij
no crecen respecto de A pues
a
kk
=
k

j=1
l
2
kj
implica que
[l
kj
[ ≤

a
kk
2. M´etodos iterativos
Estos m´etodos convienen en general para matrices ralas (i.e. con muchos ceros). Este tipo de
matrices aparecen, por ejemplo, cuando se discretizan ecuaciones diferenciales.
Como antes el objetivo es resolver
Ax = b
con A una matriz inversible.
Los m´etodos iterativos generan una sucesi´on
x
0
→ x
1
→ x
2

donde x
k+1
se calcula a partir de x
k
.
2.1. M´etodo de Jacobi. Empecemos con un ejemplo para ver como funciona el m´etodo
de Jacobi,
_
4x
1
+x
2
= 5
x
1
+ 4x
2
= 5
La soluci´on es
x =
_
1
1
_
y llamaremos
b =
_
5
5
_
El m´etodo de Jacobi calcula x
k+1
a partir de x
k
de la siguiente forma
2. M
´
ETODOS ITERATIVOS 41
_
4x
k+1
1
= 5 −x
k
2
4x
k+1
2
= 5 −x
k
1
Es decir
x
k+1
=
_
0 −
1
4

1
4
0
_
x
k
+
b
4
.
Entonces si empezamos con x
0
= (0, 0), tenemos
x
0
=
_
_
0
0
_
_
→ x
1
=
_
_
5
4
5
4
_
_
→ x
2
=
_
_
15
16
15
16
_
_

Convergencia y estimaci´on del error
En forma matricial la iteraci´on de Jacobi se escribe como
x
k+1
= Bx
k
+c.
Por otro lado la soluci´on exacta, x, cumple que
x = Bx +c,
entonces el error e
k
= x
k
−x verifica
e
k+1
= Be
k
y entonces, iterando esta ´ ultima igualdad,
e
k
= B
k
e
0
.
En nuestro ejemplo observamos que
|B|

=
1
4
y entonces
|B
k
|

≤ |B|
k

≤ (
1
4
)
k
→ 0 k → ∞.
De ´esto conclu´ımos que
|e
k
|


_
1
4
_
k
|e
0
|

→ 0
es decir la iteraci´on converge cualquiera sea el dato inicial x
0
.
Por supuesto, esto no es cierto en general. La convergencia depende de como sea la matriz B.
Si |B| < 1 para alguna norma asociada a una norma de vectores entonces el m´etodo converger´a
cualquiera sea la condici´on inicial y si no no.
En el caso general, A ∈ IR
N×N
supongamos a
ii
,= 0, ∀i (si A es inversible esto se puede obtener
reordenando). Despejamos x
i
de la i−´esima ecuaci´on, para i = 1, ..., N tenemos
x
k+1
i
=
_
b
i

i−1
j=1
a
ij
x
k
j

N
j=i+1
a
ij
x
k
j
_
a
ii
42 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Resulta natural utilizar las componentes ya calculadas x
k+1
1
, . . . , x
k+1
i−1
para calcular la nueva
aproximaci´on x
k+1
i
, resultando el m´etodo de Gauss-Seidel.
2.2. M´etodo de Gauss-Seidel. Para i = 1, . . . , N;
x
k+1
i
=
_
b
i

i−1
j=1
a
ij
x
k+1
j

N
j=i+1
a
ij
x
k
j
_
a
ii
Escritura matricial de la iteraci´on Escribimos
A = D +L +U
A =
_
_
_
a
11
0
.
.
.
0 a
NN
_
_
_+
_
_
_
0 a
1N
.
.
.
.
.
.
.
.
.
0 0
_
_
_+
_
_
_
0 0
.
.
.
.
.
.
.
.
.
a
N1
0
_
_
_
Entonces
Ax = b
si y solo si
Dx = −(L +U)x +b
Tanto el m´etodo de Jacobi como el de Gauss-Seidel pueden escribirse en la forma
x
k+1
= Bx
k
+c.
(1) Jacobi
x
k+1
= −D
−1
(L +U)x
k
+D
−1
b
(2) Gauss-Seidel
x
k+1
= −(D +L)
−1
Ux
k
+ (D +L)
−1
b
Si escribimos e
k
= x
k
−x y usamos que la soluci´on exacta x cumple
x = −D
−1
(L +U)x +D
−1
b
y
x = −(D +L)
−1
Ux + (D +L)
−1
b
respectivamente, tenemos
e
k+1
= −D
−1
(L +U)e
k
= B
J
e
k
e
k+1
= −(D +L)
−1
Ue
k
= B
GS
e
k
En general, si la iteraci´on est´a dada por una matriz B, o sea,
e
k+1
= Be
k
tenemos
e
k
= B
k
e
0
2. M
´
ETODOS ITERATIVOS 43
Entonces si queremos que e
k
→ 0 para todo dato inicial, es necesario que B
k
→ 0. El siguiente
objetivo es dar una caracterizaci´on de las matrices con esta propiedad.
En el ejemplo dedujimos que B
k
→ 0 del hecho de que |B| < 1. Sin embargo |B|

podr´ıa ser
grande y B
k
→ 0. Por ejemplo
B =
_
1
2
1000
0
1
2
_
Observemos que |B|

= 1000.5. Sin embargo B
k
→ 0. En efecto B =
1
2
_
1 2000
0 1
_
.
En general las matrices de la forma C =
_
1 a
0 1
_
verifican que C
k
=
_
1 ka
0 1
_
Entonces
B
k
= (
1
2
)
k
_
1 k2000
0 1
_
y se tiene que (B
k
)
ij
→ 0, ∀i, j y esto implica que B
k
→ 0.
Vale destacar que para que B
k
→ 0 basta que exista alguna norma tal que |B| < 1.
El segundo ejemplo trata el caso en que A es sim´etrica. En este caso se puede diagonalizar, es
decir, existe S tal que
SAS
−1
=
_
_
_
λ
1
0
.
.
.
0 λ
N
_
_
_
con λ
i
los autovalores de A. En este caso
A
k
= S
−1
_
_
_
λ
k
1
0
.
.
.
0 λ
k
N
_
_
_S
y se tiene que
A
k
→ 0
si y solo si
max
i

i
[ = ρ(A) < 1
Esto es cierto en general, pero si A no es diagonalizable es m´as dif´ıcil de probar.
En el caso en que A es sim´etrica se tiene
ρ(A) = |A|
2
entonces, si ρ(A) < 1 se tiene que |A|
2
< 1 y entonces A
k
→ 0.
En general vale que,
ρ(A) ≤ |A| para cualquier norma
44 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
y aunque ρ(A) no es una norma, se tiene
Teorema 3.4.
ρ(A) = inf

|A|
O sea ∀ε > 0 existe una norma tal que
ρ(A) ≤ |A| ≤ ρ(A) +ε.
Demostraci´ on. Primero veamos que
ρ(A) ≤ |A|.
Observamos que |A| en IR es igual a |A| en C (ejercicio).
Sea x tal que
Ax = λ
max
x x ,= 0
entonces

max
[|x| = |Ax| ≤ |A||x|
y as´ı

max
[ = ρ(A) ≤ |A|
Ahora veamos que dado ε > 0 existe una norma con
|A| ≤ ρ(A) +ε.
Queremos definir |x|, para x ∈ IR
N
. Recordemos la forma de Jordan de una matriz. En alguna
base ¦v
i
¦, una matriz B se transforma en
_
_
_
J
1
0
.
.
.
0 J
r
_
_
_
donde los J
i
son los ”bloques de Jordan”,
J
i
=
_
_
_
_
_
λ
i
1 0
0 λ
i
0
.
.
.
0 0 λ
i
_
_
_
_
_
Esta es la forma normal usual. Sin embargo, puede obtenerse una nueva base en la cual la
transformaci´on lineal toma la forma an´aloga pero con los
˜
J
i
=
_
_
_
_
_
λ
i
ε 0
0 λ
i
0
.
.
.
0 0 λ
i
_
_
_
_
_
2. M
´
ETODOS ITERATIVOS 45
donde ε es positivo y arbitrario. Esto se logra re-escalando la base. Miremos, por ejemplo, el
bloque 1,
J
1
=
_
_
_
_
_
λ
1
1 0
0 λ
1
0
.
.
.
0 0 λ
1
_
_
_
_
_
en la base v
1
, ..., v
m
. Si T es la transformaci´on lineal asociada a B tenemos
Tv
1
= λ
1
v
1
Tv
2
= v
1

1
v
2
Tv
3
= v
2

1
v
3
.
.
.
Tv
m
= v
m−1

1
v
m
Ahora definamos ˜ v
1
= v
1
, ˜ v
2
= εv
2
, ˜ v
3
= ε
2
v
3
,......, ˜ v
m
= ε
m−1
v
m
. Tenemos entonces
T ˜ v
1
= λ
1
˜ v
1
T ˜ v
2
= ε˜ v
1

1
˜ v
2
T ˜ v
3
= ε˜ v
2

1
˜ v
3
.
.
.
T ˜ v
m
= ε˜ v
m−1

1
˜ v
m
Por lo tanto en la base ˜ v
1
, ....., ˜ v
m
queda el bloque
˜
J
1
=
_
_
_
_
_
λ
1
ε 0
0 λ
1
0
.
.
.
0 0 λ
1
_
_
_
_
_
Hecho esto, definamos la norma de la siguiente manera, dado x lo escribimos en la base ˜ v
i
,
x =

α
i
˜ v
i
y definimos
|x| = max [α
i
[
es decir la norma | |

en esa base.
Entonces, es f´acil ver que,
|A| = ρ(A) +ε
pues |A| es el m´aximo de

j
[a
ij
[ si |A| es la norma asociada a |x|.
Corolario 3.5.
B
k
→ 0 si y solo si ρ(B) < 1.
46 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Demostraci´ on. Veamos primero la vuelta. Si ρ(B) < 1 por el teorema anterior existe una norma
tal que |B| < 1, entonces
|B
k
| ≤ |B|
k
→ 0
. Ahora para la ida, supongamos que ρ(B) ≥ 1, entonces existe z ∈ C
N
, z ,= 0, tal que
Bz = λ
max
z
y entonces
B
k
z = λ
k
max
z
Esto implica que
|B
k
z| = ρ(B)
k
|z|
no tiende a cero.
Tomando parte real e imaginaria se ve que hay alg´ un x ∈ IR
N
tal que B
k
x no tiende a cero.
Ahora veamos otra forma de probar estos resultados.
Teorema 3.6.
B
k
→ 0 si y solo si ρ(B) < 1
Demostraci´ on. B es semejante a una matriz triangular (forma de Jordan), o sea, existe una
matriz C tal que
CBC
−1
= J
con J la forma de Jordan de B.
Ahora dado ε > 0 multiplicamos por la matriz diagonal
D =
_
_
_
_
_
ε
−1
0 0
0 ε
−2
0
.
.
.
0 0 ε
−N
_
_
_
_
_
y su inversa para obtener
DJD
−1
=
_
_
_
_
_
ε
−1
0 0
0 ε
−2
0
.
.
.
0 0 ε
−N
_
_
_
_
_
J
_
_
_
_
_
ε 0 0
0 ε
2
0
.
.
.
0 0 ε
N
_
_
_
_
_
=
_
_
_
_
_
λ
1
ε 0
0 λ
2
0
.
.
.
0 0 λ
k
_
_
_
_
_
En general la matriz J = (α
ij
) tiene coeficientes no nulos solo en la diagonal y en los lugares
(i, i + 1). Y al multiplicar por D y D
−1
quedan ε y 0 en lugar de 1 y 0 en la forma de Jordan.
2. M
´
ETODOS ITERATIVOS 47
En conclusi´on, queda
DCBC
−1
D
−1
=
_
_
_
_
_
λ
1
ε 0
0 λ
2
0
.
.
.
0 0 λ
k
_
_
_
_
_
= A
Para simplificar llamemos S = DC y nos queda
SBS
−1
= A
Ahora observamos que
|A|

= ρ(B) +ε
pues
|A|

= max
j

[a
ij
[
Pero,
B
k
= S
−1
A
k
S
Entonces,
|B
k
|

≤ |S
−1
|

|A
k
|

|S|

= Cond(S)|A
k
|


≤ Cond(S)|A|
k

≤ Cond(S)(ρ(B) +ε)
k
→ 0
si ε es tal que ρ(B) +ε < 1.
Observemos que Cond(S) ∼
1
ε
N−1
.
Corolario 3.7.
|B
k
|
1/k
→ ρ(B)
Demostraci´on. Basta probarlo para la norma | |

pues todas las normas son equivalentes. Ya
vimos que ∀ε,
|B
k
|

≤ Cond(S)(ρ(B) +ε)
k

C
ε
N−1
(ρ(B) +ε)
k
Por otro lado se ve f´acil que
ρ(B)
k
≤ ρ(B
k
) ≤ |B
k
|

Entonces
ρ(B)
k
≤ |B
k
|


C
ε
N−1
(ρ(B) +ε)
k
.
Luego,
ρ(B) ≤ |B
k
|
1/k

≤ (
C
ε
N−1
)
1/k
(ρ(B) +ε) → (ρ(B) +ε)
O sea, ∀ε existe k a partir del cual
ρ(B) ≤ |B
k
|
1/k

≤ (ρ(B) + 2ε)
es decir
|B
k
|
1/k

→ ρ(B)
48 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Ahora observemos lo siguiente, para B sim´etrica ya sab´ıamos que |B
k
| = ρ(B)
k
. En general esto
no es cierto pero, para k grande vale que |B
k
| ∼ ρ(B)
k
. Esto da una manera de comparar dos
m´etodos iterativos (por ejemplo Jacobi y Gauss-Seidel). Supongamos que el m´etodo i (i = 1, 2)
tiene la matriz de iteraci´on B
i
. Si
ρ(B
1
) < ρ(B
2
)
entonces
|B
k
1
| < |B
k
2
|
para k grande. O sea el m´etodo 1 es mejor asint´oticamente (aunque para un n´ umero dado de
iteraciones podr´ıa ser mejor el 2).
2.3. An´alisis de los m´etodos de Jacobi y Gauss-Seidel.
Definici´ on 3.8. Una matriz A ∈ IR
N×N
es estrictamente diagonal dominante si
[a
ii
[ >

i=j
[a
ij
[ ∀i
Si A es estrictamente diagonal dominante entonces tanto Jacobi como Gauss-Seidel convergen.
Teorema 3.9. Si A es estrictamente diagonal dominante el m´etodo de Jacobi converge.
Demostraci´ on. Recordemos que
A = D +L +U B
J
= −D
−1
(L +U)
En este caso es f´acil ver que
|B
J
|

< 1
En efecto, B
J
= (b
ij
) con
b
ij
=
a
ij
a
ii
i ,= j b
ii
= 0
entonces
|B
J
|

= max
i

i=j
[a
ij
[
[a
ii
[
< 1
pues A es estrictamente diagonal dominante.
Teorema 3.10. Si A es estrictamente diagonal dominante el m´etodo de Gauss-Seidel converge.
Demostraci´ on. Como antes recordemos que
A = D +L +U B
GS
= −(L +D)
−1
U.
Hay que ver que ρ(B) < 1. Sea λ un autovalor de B y x un autovector con |x|

= 1. Entonces
tenemos,
−(L +D)
−1
Ux = λx
2. M
´
ETODOS ITERATIVOS 49
y esto es equivalente a
−Ux = λ(L +D)x

N

j=i+1
a
ij
x
j
= λ
i

j=1
a
ij
x
j
.
O bien,
λa
ii
x
i
= −λ
i

j=1
a
ij
x
j

N

j=i+1
a
ij
x
j
Sea i tal que |x|

= [x
i
[ ≥ [x
j
[, entonces
[λ[[a
ii
[ ≤ [λ[
i−1

j=1
[a
ij
[ +
N

j=i+1
[a
ij
[.
De esta forma obtuvimos
[λ[ ≤

N
j=i+1
[a
ij
[
[a
ii
[ −

i−1
j=1
[a
ij
[
< 1
pues A es estrictamente diagonal dominante.
2.4. Matrices sim´etricas definidas positivas. Un caso importante es el de A sim´etrica
y definida positiva. En este caso veremos,
(1) Jacobi no es necesariamente convergente.
(2) Gauss-Seidel es convergente.
Empecemos con un ejemplo. Sea a tal que 0 < a < 1 y tomemos
A =
_
_
1 a a
a 1 a
a a 1
_
_
Esta matriz A es sim´etrica y definida positiva. Para ver que es definida positiva hay que ver
que los menores principales son positivos.
A
1
= (1)
A
2
=
_
1 a
a 1
_
det(A) = 1 −a
2
> 0
y adem´as
det(A) = 1 + 2a
3
−3a
2
= (a −1)
2
(a +
1
2
) > 0 si a > −
1
2
Analicemos el m´etodo de Jacobi en este caso,
B
J
= −D
−1
(L +U) =
_
_
0 −a −a
−a 0 −a
−a −a 0
_
_
.
50 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Calculemos los autovalores de B, el polinomio caracter´ıstico es
p(λ) = det
_
_
λ a a
a λ a
a a λ
_
_
= λ
3
+ 2a
3
−3a
2
λ.
Observemos que p(a) = 0 entonces λ
1
= a y como p

(a) = 0, λ
1
= a es una raiz doble de p.
Dividiendo p por (λ −a)
2
se obtiene que la tercer raiz es λ
3
= −2a. Entonces si
1 > a ≥
1
2
se tiene que
ρ(B) = 2a ≥ 1
y con esto no se puede asegurar que el m´etodo de Jacobi converja para cualquier dato inicial.
Conclusi´ on: A sim´etrica definida positiva no implica que el m´etodo de Jacobi sea necesaria-
mente convergente.
Observaci´ on 3.11. Tomando
A =
_
_
_
_
_
_
1
1
2
1
2
1
2
1
1
2
1
2
1
2
1
_
_
_
_
_
_
tenemos que ρ(B
J
) = 1, con lo cual Jacobi no converge. Entonces la condici´on estricta es
necesaria en el teorema que muestra la convergencia para A estrictamente diagonal dominante.
Observaci´ on 3.12.
A = D +L +L
T
Puede demostrarse que si D −(L +L
T
) es definida positiva, entonces
ρ(B
J
) < 1
si y s´olo si A es definida positiva . En particular, si
A = D +L +L
T
y
˜
A = D −(L +L
T
)
son definidas positivas, se tiene que
ρ(B
J
) < 1
o sea Jacobi converge para A y para
˜
A (la matriz
˜
B
J
= −B
J
, s´olo cambia de signo). Para una
demostraci´on de este hecho ver Isaacson-Keller (pag 72).
Ejemplo 3.13. Para la matriz
A =
_
_
1 a a
a 1 a
a a 1
_
_
con
1
2
≤ a < 1 se tiene
˜
A =
_
_
1 −a −a
−a 1 −a
−a −a 1
_
_
.
2. M
´
ETODOS ITERATIVOS 51
Y resulta que
˜
A no es definida positiva.
Ahora analicemos que pasa con el m´etodo de Gauss-Seidel en este mismo ejemplo.
A =
_
_
1 a a
a 1 a
a a 1
_
_
y entonces
L +D =
_
_
1 0 0
a 1 0
a a 1
_
_
y U =
_
_
0 a a
0 0 a
0 0 0
_
_
.
Calculando obtenemos
(L +D)
−1
=
_
_
1 0 0
−a 1 0
a
2
−a −a 1
_
_
.
Entonces B = B
GS
= −(L +D)
−1
U es
B =
_
_
0 −a −a
0 a
2
a
2
−a
0 a
2
−a
3
2a
2
−a
3
_
_
.
Veamos los autovalores de B,
λI −B =
_
_
λ a a
0 λ −a
2
a −a
2
0 −a
2
+a
3
λ −2a
2
+a
3
_
_
.
Tenemos λ
1
= 0. Para simplificar, ahora consideremos el caso particular a =
1
2
, para este valor
de a se obtiene
B =
_
_
0 −
1
2

1
2
0
1
4

1
4
0
1
8
3
8
_
_
.
Y entonces,
8B =
_
_
0 −4 −4
0 2 −2
0 1 3
_
_
y λI −8B =
_
_
λ 4 4
0 λ −2 2
0 −1 λ −3
_
_
.
Con lo cual,
det(λI −8B) = λ((λ −2)(λ −3) + 2).
Las ra´ıces de (λ −2)(λ −3) + 2 son
λ
2
=
5 +

−7
2
λ
3
=
5 −

−7
2
Como ´estos son los autovalores de 8B los autovalores de B son
λ
1
= 0 λ
2
=
5 +

−7
16
λ
2
=
5 −

−7
16
.
52 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Observemos que

2
[ = [λ
3
[ =

32
16
=

2
4
< 1.
Entonces el m´etodo de Gauss-Seidel converge.
M´as adelante veremos que si A es sim´etrica y definida positiva entonces Gauss-Seigel converge.
En particular este ejemplo nos da un caso donde el m´etodo de Gauss-Seigel converge pero Jacobi
no, o sea ρ(B
GS
) < 1 y ρ(B
J
) ≥ 1.
Ahora veremos un ejemplo “al rev´es´´, es decir donde Jacobi converge pero Gauss-Seigel no.
Ejemplo 3.14. (Collatz 1942, ver Varga, pag 74). Sea
A =
_
_
1 2 −2
1 1 1
2 2 1
_
_
.
Para el m´etodo de Jacobi nos queda
B
J
=
_
_
0 −2 2
−1 0 −1
−2 −2 0
_
_
λI −B
J
=
_
_
λ 2 −2
1 λ 1
2 2 λ
_
_
entonces
p(λ) = λ
3
y los autovalores resultan ser
λ
1
= λ
2
= λ
3
= 0
Entonces B
J
es nilpotente, ρ(B
J
) = 0 y el m´etodo converge en tres pasos.
e
3
= B
3
J
e
0
= 0
Ahora analicemos el m´etodo de Gauss-Seidel para este ejemplo.
L +D =
_
_
1 0 0
1 1 0
2 2 1
_
_
; −U =
_
_
0 −2 2
0 0 −1
0 0 0
_
_
y (L +D)
−1
=
_
_
1 0 0
−1 1 0
0 −2 1
_
_
En consecuencia,
B
GS
= −(L +D)
−1
U =
_
_
0 −2 2
0 2 −3
0 0 2
_
_
y
λI −B
GS
=
_
_
λ 2 −2
0 λ −2 3
0 0 λ −2
_
_
Los autovalores resultan ser
λ
1
= 0 λ
2
= 2 λ
3
= 2
2. M
´
ETODOS ITERATIVOS 53
entonces ρ(B
GS
) = 2 y el m´etodo de Gauss-Seidel no converge.
Conclu´ımos que en este ejemplo el m´etodo de Jacobi converge en tres pasos pero Gauss-Seidel
no converge (existen datos iniciales para los cuales no converge).
Modificando trivialmente este ejemplo puede obtenerse un ejemplo en que ambos m´etodos con-
vergen y se tiene ρ(B
J
) < ρ(B
GS
) < 1. Sea
A =
_
_
5 2 −2
1 5 1
2 2 5
_
_
que es estrictamente diagonal dominante y entonces Jacobi y Gauss-Seidel ambos convergen.
Veamos un ejemplo m´as.
Ejemplo 3.15. Este es un ejemplo para el cual ninguno de los dos m´etodos converge.
A =
_
_
2 1 −1
−2 2 −2
1 1 2
_
_
.
Aplicando Jacobi resulta
B
J
=
_
_
0 −
1
2
1
2
1 0 1

1
2

1
2
0
_
_
λI −B
J
=
_
_
λ
1
2

1
2
−1 λ −1
1
2
1
2
λ
_
_
con lo cual,
p(λ) = λ
3
+
5
4
λ
y los autovalores de B
J
resultan
λ
1
= 0 λ
2
= i

5
2
λ
3
= −i

5
2
.
Entonces,
ρ(B
J
) =

5
2
> 1
y en consecuencia Jacobi no converge.
Para Gauss-Seidel se tiene
L +D =
_
_
2 0 0
−2 2 0
1 1 2
_
_
; (L +D)
−1
=
_
_
_
_
_
_
1
2
0 0
1
2
1
2
0

1
2

1
4
1
2
_
_
_
_
_
_
y
54 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
−(L +D)
−1
U =
1
4
_
_
0 −2 2
0 −2 6
0 2 −4
_
_
de donde p(λ) = λ
3
+
5
4
λ
2

1
4
λ y calculando las ra´ıces de p(λ) obtenemos con aproximaci´on los
autovalores λ
1
= 0, λ
2
= 0.1514 y λ
3
= −1.6514 y por tanto
ρ(B
GS
) = [λ
3
[ > 1
y entonces el m´etodo de Gauss-Seigel no converge.
Ejemplo 3.16. Caso IR
2
En este caso es f´acil analizar el m´etodo de Jacobi y el de Gauss-Seidel.
A =
_
a
11
a
12
a
21
a
22
_
entonces
B
J
= −D
−1
(L +U) =
_
0 −
a
12
a
11

a
21
a
22
0
_
y
B
GS
= −(D +L)
−1
U =
_
0 −
a
12
a
11
0
a
12
a
21
a
11
a
22
_
.
Entonces,
ρ(B
J
) =
¸
[a
12
a
21
[
[a
11
a
22
[
ρ(B
GS
) =
[a
12
a
21
[
[a
11
a
22
[
.
Es decir,
ρ(B
GS
) = ρ(B
J
)
2
.
Como conclusi´on en IR
2
Jacobi converge si y solo si Gauss-Seidel converge. Y si convergen (o
sea ρ < 1) es mejor asint´oticamente Gauss-Seidel, pues en este caso ρ(B
GS
) < ρ(B
J
).
Por ejemplo, si A es estrictamente diagonal dominante, entonces convergen los dos m´etodos. Y
esto en IR
2
es decir [a
12
[ < [a
11
[ y [a
21
[ < [a
22
[.
Si A es sim´etrica y definida positiva entonces convergen ambos m´etodos en IR
2
, pues
a
11
> 0 a
12
= a
21
det A = a
11
a
22
−a
2
12
> 0
entonces
a
11
a
22
> a
2
12
a
2
12
a
11
a
22
= ρ(B
GS
) = ρ(B
J
)
2
< 1.
El ejemplo anterior se generaliza para el m´etodo de Gauss-Seidel en IR
N
pero no para el m´etodo
de Jacobi.
Veamos ahora el ´ ultimo ejemplo de esta serie.
2. M
´
ETODOS ITERATIVOS 55
Ejemplo 3.17. Sea A ∈ IR
3
una matriz tridiagonal entonces,
ρ(B
GS
) = ρ(B
J
)
2
Si ponemos A =
_
_
a
11
a
12
0
a
21
a
22
a
23
0 a
32
a
33
_
_
entonces B
J
= −D
−1
(L + U) =
_
_
0 −
a
12
a
11
0

a
21
a
22
0 −
a
23
a
22
0 −
a
32
a
33
0
_
_
y
det(λI −B
J
) = λ
3
−λ
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Y entonces
ρ(B
J
) =
¸
¸
¸
¸
¸
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
¸
¸
¸
¸
.
Para el m´etodo de Gauss-Seidel se tiene
L +D =
_
_
a
11
0 0
a
21
a
22
0
0 a
32
a
33
_
_
y U =
_
_
0 a
12
0
0 0 a
23
0 0 0
_
_
.
Entonces
B
GS
= −(L +D)
−1
U =
_
_
_
_
_
_
0 −
a
12
a
11
0
0
a
12
a
21
a
11
a
22

a
23
a
22
0 −
a
12
a
21
a
32
a
11
a
22
a
33
a
23
a
32
a
22
a
33
_
_
_
_
_
_
det(λI −B
GS
) = λ
3
−λ
2
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Y los autovalores resultan ser
λ
1
= λ
2
= 0 λ
3
=
_
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
_
.
Entonces,
ρ(B
GS
) =
¸
¸
¸
¸
a
12
a
21
a
11
a
22
+
a
23
a
32
a
22
a
33
¸
¸
¸
¸
= ρ(B
J
)
2
Los autovalores de Jacobi son los autovalores de B
J
= −D
−1
(L +U) y resultan ser las ra´ıces µ
de
det(µI +D
−1
(L +U)) = det(D
−1
(µD +L +U))
= det(D
−1
) det(µD +L +U)
y como por hip´otesis det(D
−1
) ,= 0 (asumimos a
ii
,= 0), µ son las ra´ıces de
det(µD +L +U).
56 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
An´alogamente, los autovalores λ de B
GS
= −(L +D)
−1
U son las ra´ıces de
det(µI + (L +D)
−1
U) = det((L +D)
−1
(µ(L +D) +U))
= det((L +D)
−1
) det(µ(L +D) +U)
y como det((L +D)
−1
) ,= 0, λ son las ra´ıces de
det(µ(L +D) +U).
Lema 3.18. Sea A ∈ IR
N×N
tridiagonal entonces, para todo α ,= 0 se tiene que
det(D +L +U) = det(D +αL +α
−1
U)
Demostraci´ on. Basta ver que las matrices A = D + L + U y D + αL + α
−1
U son semejantes.
Pongamos
A =
_
_
_
_
_
_
_
d
1
a
1
0 0
b
2
d
2
a
2
0
0 b
3
d
3
.
.
.
.
.
.
.
.
.
.
.
.
a
N−1
0 . . . b
N−1
d
N
_
_
_
_
_
_
_
y consideremos
C =
_
_
_
_
_
1 0 0
0 α 0
.
.
.
.
.
.
.
.
.
0 α
N−1
_
_
_
_
_
Entonces,
CAC
−1
=
_
_
_
_
_
_
_
d
1
α
−1
a
1
0 0
αb
2
d
2
α
−1
a
2
0
0 αb
3
d
3
.
.
.
.
.
.
.
.
.
.
.
.
α
−1
a
N−1
0 . . . αb
N−1
d
N
_
_
_
_
_
_
_
= D +αL +α
−1
U
Teorema 3.19. Sea A ∈ IR
N×N
una matriz tridiagonal y sean λ los autovalores no nulos de
B
GS
, µ los autovalores no nulos de B
J
, entonces λ y µ se relacionan de la siguiente manera
λ = µ
2
.
En particular,
ρ(B
GS
) = ρ(B
J
)
2
.
2. M
´
ETODOS ITERATIVOS 57
Demostraci´on. Los λ son autovalores de B
GS
y por lo anterior son ra´ıces de
det(λ(L +D) +U) = 0
pero λ(L +D) +U es tridiagonal y por el lema anterior
det(λD +αλL +α
−1
U) = 0
Si λ ,= 0 sea α tal que α
2
=
1
λ
. Entonces,
0 = α
−N
det(λαD +L +U)
y como los autovalores de B
J
son las ra´ıces µ de det(µD +L +U) = 0 resulta que
µ = λα
Pero como α
2 1
λ
se tiene que
µ
2
= λ.
Ahora observemos que en lo anterior, dado λ ,= 0 autovalor de B
GS
encontramos µ autovalor de
B
J
con µ
2
= λ, pero en realidad es un si y solo si. Es decir, dado µ autovalor de B
J
, λ = µ
2
resulta ser un autovalor de B
GS
,
det(µD +L +U) = 0
si y solo si
det(µ
2
D +µ(L +U)) = 0
si y solo si (por el lema previo)
det(µ
2
D +αµL +α
−1
µU) = 0
y tomando α = µ se tiene
det(µ
2
(D +L) +U)) = 0.
Entonces µ
2
es autovalor de B
GS
.
Convergencia del m´etodo de Gauss-Seidel para A ∈ IR
N×N
sim´etrica
Como los autovalores de A ∈ IR
N×N
pueden ser complejos, trabajaremos directamente con
A ∈ C
N×N
.
Recordemos algunas definiciones
Definici´ on 3.20. Si A ∈ C
N×N
de define A

= A
T
o sea A

es la matriz que en el lugar i, j
tiene al elemento a

ij
= a
ji
.
Definici´ on 3.21. A ∈ C
N×N
es Hermitiana si
A

= A.
58 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Observemos que si A ∈ IR
N×N
, A

= A
T
y Hermitiana significa sim´etrica.
Si z ∈ C
N
y A es Hermitiana entonces
z

Az ∈ IR.
En general para A cualquiera z

Az = z

A

z. Veamos esto,
z

Az =

ij
z
i
a
ij
z
j
y entonces
z

Az =

ij
z
i
a
ij
z
j
= z

A

z
Teorema 3.22. Sea A ∈ C
N×N
Hermitiana y definida positiva (o sea z

Az > 0 ∀z ,= 0),
entonces el m´etodo de Gauss-Seidel es convergente.
Demostraci´ on.
A = L +D +L

con
L =
_
_
_
_
_
0 0 0
a
21
0 0
.
.
.
.
.
.
a
N1
0
_
_
_
_
_
Hay que ver que ρ(B
GS
) < 1 donde B
GS
= −(L +D)
−1
L

.
Observemos que B
GS
puede escribirse como
B
GS
= I −(L +D)
−1
A
Sea λ ∈ C un autovalor de B
GS
y z ∈ C
N
, z ,= 0, un autovector correspondiente a λ, es decir
(I −(L +D)
−1
A)z = λz
o bien
(L +D)z −Az = λ(L +D)z
y esto es equivalente a
Az = (1 −λ)(L +D)z
Como Az ,= 0 se deduce que λ ,= 1. Multiplicando por z

se obtiene
1
1 −λ
=
z

(L +D)z
z

Az
tomando conjugado y recordando que z

Az ∈ IR y que D es real se tiene
1
1 −λ
=
z

(L +D)

z
z

Az
=
z

(L

+D)z
z

Az
.
Y sumando estas dos igualdades se obtiene
2Re(
1
1 −λ
) = 1 +
z

Dz
z

Az
> 1
2. M
´
ETODOS ITERATIVOS 59
pues z

Az > 0 y z

Dz > 0 (a
ii
> 0 si A es definida positiva).
Entonces si λ = α +iβ, tenemos
1
1 −λ
=
1
1 −α −iβ
1 −α +iβ
1 −α +iβ
=
1 −α +iβ
(1 −α)
2
+ (β)
2
.
Y de esta forma
Re(
1
1 −λ
) =
1 −α
(1 −α)
2
+ (β)
2
y por lo anterior
1 −α
(1 −α)
2
+ (β)
2
>
1
2
es decir
2(1 −α) > 1 −2α +α
2

2
y esto es equivalente a
1 > α
2

2
.
Hemos conseguido ver que
[λ[ < 1.
Se puede probar que si A ∈ C
N×N
es Hermitiana y con a
ii
> 0 entonces el m´etodo de Gauss-
Seigel converge si y solo si A es definida positiva (ver Isaacson-Keller pag. 71).
2.5. M´etodo SOR. La idea del m´etodo SOR (succesive overrrelaxation / sobre relajaci´on
sucesiva) es tomar un “promedio” entre el x
k
i
y el x
k+1
i
de Gauss-Seidel (promedio entre comillas
pues los pesos no son necesariamente menores o iguales que 1).
Dado ω un par´ametro se define
x
k+1
i
= (1 −ω)x
k
i

_
_
b
i

i−1

j=1
a
ij
x
k+1
j

N

j=i+1
a
ij
x
k
j
_
_
1
a
ii
En forma matricial escribimos como antes A = L +D +U queda
(D +ωL)x
k+1
= ((1 −ω)D −ωU)x
k
+ωb
entonces
x
k+1
= B
ω
x
k
+ (D +ωL)
−1
ωb
con
B
ω
= (D +ωL)
−1
((1 −ω)D −ωU)
Observemos que B
1
= B
GS
.
En principio, ω es arbitrario. Sin embargo el siguiente teorema nos dice que es necesario que
[ω − 1[ < 1 para que haya convergencia (o sea para que ρ(B
ω
) < 1). Si ω ∈ IR entonces hace
falta que 0 < ω < 2.
Teorema 3.23. (Kahan) Sea A ∈ C
N×N
, con a
ii
,= 0, entonces
ρ(B
ω
) ≥ [1 −ω[
60 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
Demostraci´ on. Si L es triangular inferior con ceros en la diagonal entonces det(D
−1
) = det((D+
ωL)
−1
). En consecuencia,
det(B
ω
) = det((D +ωL)
−1
) det((1 −ω)D −ωU)
= det(D
−1
) det((1 −ω)D −ωU)
= det((1 −ω)I −ωD
−1
U)
= det((1 −ω)I) = (1 −ω)
N
Pero como det(B
ω
) =

i
λ
i
se tiene que
ρ(B
ω
) ≥ [1 −ω[
Si ω ∈ IR, una condici´on necesaria para que el m´etodo converja es que 0 < ω < 2. Esta condici´on
es tambi´en suficiente si A es sim´etrica definida positiva.
El problema consiste en encontrar el par´ametro ´optimo (o cercano al ´optimo) para acelerar la
convergencia. Para ciertas clases de matrices esto puede hacerse (ver libro Varga, Ortega o
Smith).
3. Ejercicios
(1) Escribir un programa que implemente el m´etodo de Jacobi y otro el de Gauss-Seidel
con las siguientes condiciones:
• que incluya una restricci´on al n´ umero de iteraciones
• que finalice si el m´etodo se estaciona
(2) Decidir para cada uno de los siguientes sistemas, si los m´etodos de Jacobi y de Gauss-
Seidel son convergentes (sugerencia: utilizar los comandos tril, diag y eig de Matlab).
En caso afirmativo usarlos para resolver el sistema. Si ambos m´etodos convergen,
determinar cu´al converge m´as r´apido. ¿Es la matriz del sistema diagonal dominante?
¿y sim´etrica y definida positiva?
(a)
_
_
3 1 1
2 6 1
1 1 4
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
5
9
6
_
_
, (b)
_
_
_
_
5 7 6 5
7 10 8 7
6 8 10 9
5 7 9 10
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
23
32
33
31
_
_
_
_
(3) Dar ejemplos donde converja el m´etodo de Jacobi y no lo haga el de Gauss-Seidel y
viceversa.
(4) Considerar el sistema Ax = b para A =
_
2 1
3 6
_
y b = (8, 21). Mostrar que el m´etodo
de Jacobi converge; hacer un programa que lo modele y a la vez grafique en el plano la
sucesi´on de aproximaciones obtenidas empezando en cada uno de lo siguientes valores
iniciales
(a) x
0
= (1, 4) (b) x
0
= (1, 0) (c) x
0
= (5, 2)
(5) Considerar el sistema
_
x −y = 0
x +y = 0
. Estudiar autovalores y autovectores de la matriz
de iteraci´on asociada al m´etodo de Gauss-Seidel, decidir si el m´etodo es convergente o
3. EJERCICIOS 61
no y, sin hacer c´alculos, predecir el comportamiento de las sucesiones que se obtienen
con los siguientes valores iniciales.
(a) x
0
= (2, 0) (b) x
0
= (−0.03, 0.03) (c) x
0
= (0, 1)
Decidir si en este caso el m´etodo de Jacobi resulta convergente.
(6) (a) Mostrar que toda matriz A ∈ IR
n×n
con det(A) > 1 tiene un autovalor λ, real o
complejo, con [λ[ > 1.
(b) Decidir si el m´etodo de Jacobi converge o no para un sistema dado por la matriz
A =
_
_
−1 1 2
4 −1 3
5 6 −1
_
_
.
(7) Sean A, B ∈ IR
3×3
las matrices
A =
_
_
a c 0
c a c
0 c a
_
_
; B =
_
_
0 b 0
b 0 b
0 b 0
_
_
.
(a) Probar que lim
n→∞
B
n
= 0 si y s´olo si [b[ <

2/2.
(b) Dar condiciones necesarias y suficientes sobre a, c ∈ IR para la convergencia de los
m´etodos de Jacobi y de Gauss-Seidel aplicados a la resoluci´on de Ax = v.
(8) (a) Probar que si A tiene una base de autovectores v
i
, con autovalores λ
i
, la matriz
B = I +sA, s ∈ IR
tiene los mismos autovectores, con autovalores ν
i
= 1 +sλ
i
.
(b) Sabiendo que los autovalores de la matriz A ∈ IR
(n−1)×(n−1)
A =
_
_
_
_
_
_
_
_
−2 1 0 0
1 −2 1 0 0


0 1 −2 1
0 0 1 −2
_
_
_
_
_
_
_
_
son λ
j
= −4 sin
πj
2n
, j = 1, . . . , n − 1, decidir si el m´etodo de Jacobi aplicado a
Ax = b es convergente o no.
(c) Decidir si el m´etodo de Gauss-Seidel resulta convergente. En caso afirmativo, ¿qu´e
m´etodo converge m´as r´apido?
Comentario: Este problema es interesante por sus aplicaciones, pues
corresponde a la discretizaci´on de la ecuaci´on de Poisson en una di-
mensi´on espacial:
_
¸
_
¸
_
d
2
u
dx
2
= f(x), x ∈ [0, 1];
u(0) = u(1) = 0.
(9) Sea B
J
la matriz asociada al m´etodo de Jacobi de un sistema dado. Estimar
(a) cu´antas multiplicaciones y divisiones se requieren para calcular B
J
.
(b) cu´antas multiplicaciones y divisiones se requieren para para realizar una iteraci´on
con el m´etodo de Jacobi.
62 3. RESOLUCI
´
ON DE SISTEMAS LINEALES.
(c) si ρ(B
J
) < 1, cu´antas iteraciones se necesitan para reducir el error del m´etodo en
m´as de 10
−m
(en funci´on de ρ(B
J
)).
(d) cu´antas multiplicaciones y divisiones se requieren para calcular la soluci´on del
sistema por el m´etodo de eliminaci´on gaussiana.
(e) cu´antas iteraciones del m´etodo de Jacobi podr´ıan realizarse antes de igualar la
cantidad de operaciones necesarias al usar el m´etodo de eliminaci´on gaussiana.
(10) Sean B
J
y B
GS
las matrices asociadas al m´etodo de Jacobi y de Gauss-Seidel respec-
tivamente del sistema Ax = b.
(a) Mostrar que si A(i, k) = 0 entonces, el elemento B
J
(i, k) = 0. Notar que si A es
una matriz rala (con muchos ceros) entonces B
J
tambi´en lo es. Luego, en cada
iteraci´on se requieren pocas multiplicaciones.
(b) Mostrar que λ = 0 siempre es un autovalor de B
GS
. ¿De qu´e autovector?
(11) Dada una matriz
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
y un vector b ∈ IR
3
, se quiere resolver el sistema de ecuaciones Ax = b; para lo cual
se considera el siguiente m´etodo iterativo, que es un caso particular de los m´etodos
llamados Jacobi por bloques:
x
k+1
= −
_
_
a
11
a
12
0
a
21
a
22
0
0 0 a
33
_
_
−1

_
_
0 0 a
13
0 0 a
23
a
31
a
32
0
_
_
x
k
+
_
_
a
11
a
12
0
a
21
a
22
0
0 0 a
33
_
_
−1
b,
Este m´etodo resulta convergente para los siguientes datos:
A =
_
_
8 2 −3
−3 9 4
3 −1 7
_
_
y b =
_
_
−20
62
0
_
_
.
Hacer un programa que calcule la sucesi´on de aproximaciones generada con valor inicial
el vector nulo y que se detenga cuando |x
k+1
− x
k
|

≤ 10
−4
(es decir, cuando la
iteraci´on “se estabiliza”).
(12) Sea A ∈ IR
n×n
. Probar que λ = 1 es autovalor de la matriz de Jacobi (o Gauss-Seidel)
de A si y solo si A es no inversible.
(13) Para resolver el sistema Ax = b, se utiliza un m´etodo iterativo cuya matriz de iteraci´on
J es diagonalizable y satisface ρ(J) < 1. Sea e
k
el vector error en el k-´esimo paso.
(a) Demostrar que |e
k
|

= O(ρ(J)
k
).
(b) Probar que si e
k
,= 0 para todo k ∈ IN y ρ(J) ,= 0, la sucesi´on (|e
k
|

)
k∈IN
tiende
a 0 linealmente.
(14) Utilizar la iteraci´on de Gauss-Seidel para resolver el sistema A
n
x = b
n
para
A
n
=
_
1 2
2 4 +
1
n
2
_
y b
n
= (1, 2 −
1
n
2
).
¿C´omo es la convergencia? ¿Tiene ´esto que ver con el mal condicionamiento de A? Dar
un ejemplo de una matriz mal condicionada para la cual la convergencia sea r´apida.
(15) Hacer un programa que pida el ingreso de una matriz A y un vector b y luego
• calcule las matrices de iteraci´on de los m´etodos de Jacobi y Gauss-Seidel.
3. EJERCICIOS 63
• calcule el menor de los radios espectrales de las dos matrices anteriores y, si este
valor resulta menor a 1, entonces realice las primeras 10 iteraciones del m´etodo
correspondiente (o de cualquiera de los dos m´etodos en caso de que los radios
espectrales resulten coincidentes), con valor inicial el vector nulo.
(16) Considerar el sistema Ax = b para A =
_
64 −6
6 −1
_
y b = (1, 2).
(a) Demostrar que el m´etodo de Jacobi converge para todo dato inicial. Verificar, sin
embargo, que la matriz no es diagonal dominante.
(b) Sea J la matriz de iteraci´on. Hallar las normas 1, ∞ y 2 de J. Hallar una norma
| | en la cual |J| sea < 1.
CAP´ıTULO 4
Resoluci´on de ecuaciones no lineales.
En muchos problemas, aparece en forma natural, la necesidad de calcular el valor de x donde
una funci´on f se anula, es decir, una ra´ız de f. En general, con las herramientas anal´ıticas que
se usan para estudiar y graficar funciones suaves (derivables) s´olo podemos analizar si hay un
intervalo [a, b] donde el gr´afico de f cruza el eje x.
En este cap´ıtulo, veremos distintos m´etodos que nos permitir´an aproximar el valor de una ra´ız,
´este valor suele hallarse por aproximaciones sucesivas y por ende los m´etodos a utilizar son
iterativos. En muchas ocasiones, s´olo tiene sentido encontrar una soluci´on aproximada. A veces,
el c´alculo exacto no es posible ya sea porque se trata de una ra´ız irracional (f(x) = x
2
− 2) o
porque la funci´on viene dada por coeficientes cuyos valores se conocen s´olo en forma aproximada.
Lo importante al utilizar m´etodos que estimen el valor deseado es, como venimos remarcando
en estas notas, poder controlar el error que se comete al utilizar un valor aproximado en lugar
del exacto.
El problema se plantea de la siguiente manera: Dada f : IR → IR (o bien f : [a, b] → IR) se
quiere encontrar r tal que
f(r) = 0.
El c´alculo aproximado de ra´ıces puede dividirse en dos etapas. En la primera, se separan las
ra´ıces. Es decir, se busca un subintervalo de [a, b] que contenga una y s´olo una ra´ız de f. Para
asegurar la existencia de al menos una ra´ız en el intervalo propuesto se utiliza el teorema de
Bolzano. Para asegurar que no hay m´as de una ra´ız se usa el teorema de Rolle, es decir, se
verifica que la derivada primera no cambie de signo en dicho intervalo. En la segunda etapa, se
aplica un m´etodo para aproximar la ra´ız aislada.
Antes de describir el primer m´etodo de estas notas, el de bisecci´on, recordamos el teorema de
Bolzano.
Teorema 4.1. Bolzano Sea f : [a, b] → IR continua en [a, b]. Si f(a)f(b) < 0 (o sea f(a) y
f(b) tienen distinto signo) entonces existe alguna ra´ız de f en el intervalo [a, b].
1. M´etodo de bisecci´on.
Este m´etodo, que se apoya en la idea geom´etrica del teorema de Bolzano, permite construir una
sucesi´on (x
n
)
n∈IN
que converge a la soluci´on de f(x) = 0 de la siguiente manera.
66 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Supongamos que f(a)f(b) < 0. Calculemos c =
a+b
2
. Supongamos, por ejemplo, que f(a) > 0 y
f(b) < 0, entonces
(1) Si f(c) = 0 listo.
(2) Si f(c) < 0, habr´a una ra´ız en [a, c].
(3) Si f(c) > 0, habr´a una ra´ız en [c, b].
Ahora se elige el subintervalo, cuya longitud es la mitad de [a, b] y que contiene a la ra´ız. Este
proceso se sigue sucesivamente.
As´ı se genera una sucesi´on x
1
=
a+b
2
∈ [a
1
, b
1
], x
2
∈ [a
2
, b
2
], x
3
∈ [a
3
, b
3
] . . . donde cada intervalo
[a
n
, b
n
] mide la mitad del anterior,
b
1
−a
1
=
b −a
2
b
2
−a
2
=
b
1
−a
1
2
=
b −a
4
.
.
.
b
n
−a
n
= =
b −a
2
n
Adem´as,
a ≤ a
1
≤ a
2
≤ . . . ≤ b
b ≥ b
1
≥ b
2
≥ . . . ≥ a
Entonces a
n
y b
n
son sucesiones mon´otonas y acotadas y en consecuencia convergen, es decir,
existen los l´ımites
lim
n→∞
a
n
y lim
n→∞
b
n
.
Y como
[b
n
−a
n
[ ≤
b −a
2
n
→ 0
se tiene que
lim
n→∞
a
n
= lim
n→∞
b
n
= r.
En cada paso se verifica f(a
n
)f(b
n
) ≤ 0 y tomando l´ımite (usando que f es continua) resulta
f(r)
2
≤ 0.
Entonces r es la ra´ız buscada pues cumple, f(r) = 0.
1. M
´
ETODO DE BISECCI
´
ON. 67
Por otra parte el error puede acotarse de la siguiente forma. Tenemos que
x
n
=
a
n−1
+b
n−1
2
entonces
[r −x
n
[ ≤
1
2
(b
n−1
−a
n−1
) ≤
b −a
2
n
.
Resumiendo, hemos demostrado,
Teorema 4.2. Si f : [a, b] → IR es continua y f(a)f(b) < 0 entonces, el m´etodo de bisecci´on
genera una sucesi´on x
n
tal que,
(1) x
n
→ r con f(r) = 0,
(2) [r −x
n
[ ≤
b −a
2
n
.
Una de las ventajas que tiene el m´etodo de bisecci´on es que converge para cualquier f continua,
es decir no hace falta derivabilidad como en otros m´etodos que veremos mas adelante.
Ejemplo 4.3. Calculemos

2.
Tomemos f(x) = x
2
−2 y [a, b] = [1, 3]. Se tiene f(1) = −1 < 0 < f(3) = 7 y con un gr´afico de
f podemos asegurar que no hay otra ra´ız positiva. La suecsi´on que produce el m´etodo es:
x
1
= 2 f(x
1
) = 2 [a
1
, b
1
] = [1, 2]
x
2
= 1.5 f(x
2
) = 0.25 [a
2
, b
2
] = [1, 1.5]
x
3
= 1.25 f(x
3
) = −0.4375 [a
3
, b
3
] = [1.25, 1.5]
x
4
= 1.375 f(x
4
) = −0.109375 [a
4
, b
4
] = [1.375, 1.5]
x
5
= 1.4375 f(x
5
) = 0.06640625 [a
5
, b
5
] = [1.375, 1.4375]
x
6
= 1.40625 f(x
6
) = −0.022 . . . [a
6
, b
6
] = [1.40625, 1.4375]
x
7
= 1.421875 f(x
7
) = 0.02 . . . [a
7
, b
7
] = [1.40625, 1.421875]
x
8
= 1.4140625 . . .
Para x
8
, vemos que la aproximaci´on lograda tiene 4 cifras exactas. Fue necesario hacer ocho
pasos para obtener cuatro cifras exactas (

2 = 1.4142 . . .).
Del an´alisis hecho en general sab´ıamos que,
68 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
[

2 −x
8
[ ≤
b −a
2
8
=
2
2
8
=
1
128
.
Entonces el error relativo es
[

2 −x
8
[

2

1
128

2
≤ 0.005 . . . ∼
5
1000
.
La desventaja del m´etodo de bisecci´on es que converge muy lentamente, por ejemplo en compa-
raci´on con el m´etodo de Newton-Raphson que veremos m´as adelante.
En cada paso la cota del error, (b −a)/2
n
, se reduce a la mitad,
[e
n+1
[ ≤
b −a
2
n
.
En consecuencia se reduce
1
10
en tres o cuatro pasos (se gana una cifra en tres o cuatro pasos).
2. M´etodo regula falsi
Este m´etodo llamado “regula falsi” o de falsa posici´on puede verse tanto como una variante del
m´etodo de bisecci´on como del m´etodo Newton-Raphson, que veremos en la pr´oxima secci´on.
Supongamos, nuevamente, que tenemos una funci´on f : [a, b] → IR continua que verifica
f(a)f(b) < 0 (entonces existe una ra´ız, r, en [a, b], por el teorema de Bolzano) y supongamos
que la ra´ız es ´ unica en ese intervalo.
Definimos x
1
como la intersecci´on de la recta secante L con el eje x (en lugar de tomar el
promedio
b−a
2
, como se hace con el m´etodo de bisecci´on).
La recta L, que une los puntos (a, f(a)) con (b, f(b)) tiene ecuaci´on:
y −f(a) =
f(b) −f(a)
b −a
(x −a).
Como x
1
es el valor de x que cumple y = 0, se tiene,
x
1
= a −
f(a)
f(b) −f(a)
(b −a) =
af(b) −bf(a)
f(b) −f(a)
Si f(x
1
) ,= 0 entonces f(a)f(x
1
) < 0 o bien f(b)f(x
1
) < 0. Supongamos f(b)f(x
1
) < 0, defini-
mos x
2
con el mismo procedimiento anterior con el intervalo [x
1
, b] = I
1
, y as´ı sucesivamente.
Observemos que puede suceder que [I
n
[ no tienda a cero, pero sin embargo x
n
→ r para toda f
continua.
3. M
´
ETODO DE NEWTON-RAPHSON. 69
Método de Regula Falsi: tres iteraciones
f(x)
|
|
a
x
1
x
2 b
Solución exacta
Figura 4.1.
3. M´etodo de Newton-Raphson.
La idea del m´etodo es “ir por la tangente” como se describe a continuaci´on.
Se empieza con x
0
. Se traza la tangente en x
0
y se define x
1
como la intersecci´on de la tangente
con el eje x. Luego se traza la tangente por x
1
y se toma x
2
la intersecci´on de la tangente con
el eje x, y as´ı sucesivamente. Esto genera una sucesi´on x
n
como muestra la Figura 4.2.
Observemos que hace falta que f sea derivable. Adem´as, puede ocurrir que la sucesi´on que
produce este m´etodo no sea convergente. Esto ´ ultimo se puede ver gr´aficamente con el ejemplo
que muestra la Figura 4.3.
Sin embargo veremos que el m´etodo converge muy r´apidamente si x
0
est´a “suficientemente cerca”
de una ra´ız, bajo condiciones bastante generales sobre la funci´on f.
Descripci´on anal´ıtica de m´etodo de Newton-Raphson.
Sea f : [a, b] → IR derivable, x
0
∈ [a, b], se toma x
1
tal que
f(x
0
) + (x
1
−x
0
)f

(x
0
) = 0
Y en general, se toma x
n+1
tal que
f(x
n
) + (x
n+1
−x
n
)f

(x
n
) = 0
70 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Método de Newton−Raphson
f(x)
x
0
x
1

x
2

Figura 4.2.
x
0
x
1
x
2
f(x)
Figura 4.3.
o sea,
x
n+1
= x
n

f(x
n
)
f

(x
n
)
Observemos que para que esto tenga sentido, hay que suponer f

(x
n
) ,= 0, esto es obvio
gr´aficamente como muestra la figura 4.3.
3. M
´
ETODO DE NEWTON-RAPHSON. 71
Ahora analicemos la convergencia del m´etodo. Sea r una ra´ız simple de f, es decir, f(r) = 0,
f

(r) ,= 0 y supongamos que f

es acotada.
Debemos estimar el error que se comete al usar x
n
en lugar de la soluci´on exacta (y desconocida)
r. Esto es, estudiamos la expresi´on e
n
= x
n
−r y vemos si e
n
→ 0.
x
0

f(x)
x
Recta tangente a f en x
0

Figura 4.4.
Para analizar la convergencia del error miramos la sucesi´on recursiva
e
n+1
= x
n+1
−r = x
n

f(x
n
)
f

(x
n
)
−r = e
n

f(x
n
)
f

(x
n
)
entonces
e
n+1
=
e
n
f

(x
n
) −f(x
n
)
f

(x
n
)
(4.1)
Observemos que si f

(r) ,= 0 entonces f

(x
n
) ,= 0 para x
n
cercano a r (esto lo justificaremos con
m´as precisi´on despu´es).
Usando el desarrollo de Taylor de orden 2 centrado en la ra´ız r se tiene,
0 = f(r) = f(x
n
) −(x
n
−r)f

(x
n
) +
1
2
(x
n
−r)
2
f

(ξ)
donde ξ es un valor intermedio entre x
n
y r. Entonces
72 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
e
n
f

(x
n
) −f(x
n
) =
1
2
f

(ξ)e
2
n
Reemplazando en la igualdad 4.1 queda
e
n+1
=
1
2
f

(ξ)
f

(x
n
)
e
2
n
(4.2)
Con todo esto podemos demostrar el siguiente teorema.
Teorema 4.4. (de convergencia) Si r es un cero simple de f (i.e. f

(r) ,= 0) y sea I =
[r −α, r +α] un intervalo tal que [f

(x)[ ≥ δ > 0 y [f

(x)[ ≤ M en I. Entonces,
Existe ε > 0 tal que I
ε
= [r −ε, r +ε] ⊂ I y se tiene que [e
n
[ → 0 y
[e
n+1
[ ≤
1
2
M
δ
[e
n
[
2
, (4.3)
siempre que x
0
∈ I
ε
.
Demostraci´ on. Como las cotas para f

y f

siguen siendo ciertas para cualquier subintervalo de
I, podemos elegir ε > 0 tal que
1
2
M
δ
ε = λ < 1.
Entonces, si x
0
∈ I
ε
tenemos que [e
0
[ = [x
0
−r[ < ε y usando (4.2) obtenemos
[e
1
[ = [x
1
−r[ ≤ λ[e
0
[.
En particular, x
1
∈ I
ε
. An´alogamente,
[e
2
[ = [x
2
−r[ ≤ λ[e
1
[ ≤ λ
2
[e
0
[
y x
2
∈ I
ε
. Continuando de esta manera, obtenemos una sucesi´on (x
n
)
n∈IN
⊂ I
ε
tal que
[e
n
[ ≤ λ
n
[e
0
[.
Como 0 < λ < 1 se tiene que [e
n
[ → 0 si n → ∞. Finalmente, la desigualdad (4.3) se obtiene de
(4.2).
Corolario 4.5. Si f

es continua y f

es acotada en [a, b] y r ∈ [a, b] es una ra´ız simple de
f, entonces existe un ε > 0 tal que si x
0
∈ I
ε
= [r − ε, r + ε] ⊂ [a, b], el m´etodo de Newton
empezando en x
0
converge a r.
3. M
´
ETODO DE NEWTON-RAPHSON. 73
Demostraci´on. Como f

(r) ,= 0 y f

es continua, existen α > 0 y δ > 0 tales que I =
[r − α, r + α] ⊂ [a, b] y [f

(x)[ > δ para todo x ∈ I. Ahora estamos en las condiciones del
teorema 4.4.
Observaci´ on 4.6. Un caso particular del corolario 4.5 es una funci´on C
2
([a, b]) que tiene a
r ∈ [a, b] como ra´ız simple.
Ahora, queremos estudiar la r´apidez con la que una sucesi´on generada por un m´etodo, converge
a la soluci´on exacta. Para eso necesitamos la siguiente
Definici´ on 4.7. En general podemos definir que un m´etodo es de orden p si
lim
n→∞
[e
n+1
[
[e
n
[
p
= cte y lim
n→∞
[e
n+1
[
[e
n
[
p−ε
= 0
Observemos primero que cuanto m´as grande sea p mejor. Ahora, veamos que significa ´esto
geom´etricamente. Para valores grandes de n, es decir, asint´oticamente, se puede considerar que
el comportamiento de las sucesiones [e
n+1
[ y [e
n
[
p
son equivalentes, lo que se expresa como
[e
n+1
[ ∼ C[e
n
[
p
.
Por otra parte, si se obtiene una desigualdad de la forma
[e
n+1
[ ≤ C[e
n
[
p
podemos asegurar que el orden de convergencia es por lo menos p.
La convergencia para el m´etodo de Newton-Raphson es cuadr´atica, es decir, p = 2. Si bien, con
la desigualdad (4.3) podemos asegurar que existe C > 0 tal que
[e
n+1
[ ≤ C[e
n
[
2
de la igualdad (4.2) se deduce que el m´etodo, en general, converge cuadr´aticamente. Esto es, en
cada paso el error se reduce cuadr´aticamente (o sea es menor o igual que el cuadrado del error
del paso anterior).
Esta es la gran ventaja del m´etodo de Newton. El n´ umero de cifras correctas se duplica (esen-
cialmente) en un paso.
Este resultado de convergencia es “local”, o sea, el teorema garantiza la convergencia si se
empieza “suficientemente cerca” de r. En la pr´actica es un tema dif´ıcil determinar lo que es
“suficientemente cerca”. Muchas veces, se combinan unos pasos del m´etodo de bisecci´on para
encontrar un intervalo en el que se aplique el Teorema 4.4. Sin embargo, el m´etodo de Newton
funciona en forma excelente (incluso en N variables) y es de los m´as usados.
74 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Ejemplo 4.8. Calculemos, aplicando el m´etodo de Newton una aproximaci´on de

2. Compa-
remos el resultado con el que se obtuvo al aplicar el m´etodo de bisecci´on. Como antes la funci´on
es f(x) = x
2
−2 y elegimos x
0
= 3. Tenemos
x
n+1
= x
n

f(x
n
)
f

(x
n
)
= x
n

x
2
n
−2
2x
n
=
x
n
2
+
1
x
n
(4.4)
Y aplicando esto obtenemos
x
0
= 3 x
3
= 1.41499843 . . .
x
1
= 1.833 . . . x
4
= 1.41421378 . . .
x
2
= 1.4621212 . . . x
5
= 1.414213562 . . .
Observemos que

2 = 1.414213562 . . .
Es decir, con cinco pasos del m´etodo tenemos m´as de diez cifras exactas, mientras que con
bisecci´on en ocho pasos ten´ıamos cuatro cifras exactas.
Comentario. Hacia el a˜ no 2000 a.C. los Babilonios usaban el siguiente m´etodo para “calcular”
el n´ umero

p si p ∈ IN. Si a >

p se tiene que
p
a
<

p. Luego

p es un n´ umero entre
p
a
y a.
Entonces, consideraban el promedio
1
2
(a +
p
a
) como primera aproximaci´on, as´ı sucesivamente.
Esto coincide con el m´etodo de Newton, de 1669 d.C., aplicado a la funci´on x
2
−p. Comparar
con (4.4).
Ejemplo 4.9. Como segundo ejemplo veamos que sucede con f(x) = x
3
, r = 0. Es claro que la
´ unica ra´ız es r = 0. Lo que se pretende con este ejemplo es mostrar alguna de las dificultades a
tener en cuenta cuando se aplica el m´etodo de Newton. La sucesi´on que produce este m´etodo
es:
x
n+1
= x
n

x
3
n
3x
2
n
=
2
3
x
n
Entonces
[e
n+1
[ =
2
3
[e
n
[
3. M
´
ETODO DE NEWTON-RAPHSON. 75
En este caso, observamos que la convergencia es lineal y no es cuadr´atica. Lo que sucede es que
no se verifica la hip´otesis de que r sea una ra´ız simple (f

(r) = 0 en este caso).
Ejemplo 4.10. Este es un ejemplo donde el m´etodo de Newton-Raphson no converge. En este
caso, la hip´otesis que no se cumple es la derivabilidad de f. Consideremos la funci´on
f(x) =
_
_
_

x x ≥ 0


−x x < 0,
con r = 0.
Un c´alculo sencillo permite ver que f no es derivable en la ra´ız. En cualquier otro valor se tiene
f

(x) =
_
_
_
1
2
x

1
2
x > 0
1
2
(−x)

1
2
x < 0.
Es decir,
f

(x) =
1
2
[x[

1
2
.
La sueci´on que produce el m´etodo se escribe como
x
n+1
= x
n

x
1
2
n
1
2
x

1
2
n
= x
n
−2x
n
= −x
n
.
Ahora, salvo que comencemos en la ra´ız (con lo cual no necesitar´ıamos de un m´etodo para
hallarla) se tiene que x
n
es positivo o negativo.
Supongamos que x
n
> 0, entonces x
n+1
= −x
n
< 0 y x
n+2
= −x
n+1
> 0.
Si seguimos el proceso que genera x
n
desde un x
0
inicial vemos que la sucesi´on es:
x
0
→ −x
0
→ x
0
→ −x
0
→ . . .
Conclu´ımos que, en este ejemplo, el m´etodo de Newton no converge para ning´ un x
0
por m´as
cerca de r = 0 que est´e.
Ahora veamos un teorema de convergencia global para el m´etodo de Newton que se aplica a
funciones convexas. Una funci´on se dice convexa en (a, b) si la recta tangente al gr´afico de f
est´a por debajo de ´este para todo los x en el intervalo. Si la funci´on es dos veces derivable esto
corresponde con la condici´on f

> 0. En este caso, f puede tener un valor m´ınimo. Digamos, si
existe, que lo alcanza en x

.
76 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Teorema 4.11. Sea f dos veces derivable en [a, b] tal que f

> 0 (f es convexa), entonces el
m´etodo de Newton-Raphson converge para todo x
0
,= x

. Es decir, en este caso no hace falta
pedir que x
0
est´e cerca de r.
Demostraci´ on. Si p´erdida de generalidad podemos suponer que f es “mon´otona” (si estamos a
la derecha de x

, la iteraci´on de Newton nunca ir´a a la izquierda, ver figura 4.2).
Si x
0
> r entonces r < x
1
< x
0
y en general
x
0
> x
1
> x
2
> .... > x
n
> .... > r
y entonces la sucesi´on x
n
converge pues es mon´otona. Veamos que converge a una ra´ız de f.
Supongamos que x
n
→ α, luego tomando l´ımite en la expresi´on x
n+1
= x
n

f(x
n
)
f

(x
n
)
y usando
que f

es continua queda
α = α −
f(α)
f

(α)
de d´onde f(α) = 0 y α = r pues supusimos f mon´otona.
Si bien este teorema es bastante claro geom´etricamente para funciones definidas en IR, su inter´es
radica en su extensi´on a IR
N
.
4. M´etodo de punto fijo
El m´etodo de Newton puede verse como un caso particular del m´etodo de punto fijo.
La idea es reemplazar la ecuaci´on f(x) = 0 por otra de la forma x = g(x) de manera que la
soluci´on de ´esta sea la soluci´on del problema original.
Esto puede hacerse de diversas maneras, por ejemplo, si
f(x) = x
3
−13x + 18
podemos tomar g(x) como cualquiera de las siguientes funciones
g
1
(x) =
x
3
+ 18
13
, g
2
(x) = (13x −18)
1
3
, g
3
(x) =
13x −18
x
2
.
Una vez encontrada g una funci´on continua, el problema se reduje a encontrar puntos fijos de
g, es decir, r tales que
r = g(r).
Se define una sucesi´on por iteraci´on, se elige un x
0
y despu´es se toma
4. M
´
ETODO DE PUNTO FIJO 77
x
n+1
= g(x
n
). (4.5)
Observemos que si la sucesi´on generada por (4.5) x
n
converge, entonces lo hace a un punto fijo
de g. En efecto, tomando l´ımite y usando que g es continua se tiene que si x
n
→ r entonces
r = g(r).
Teorema 4.12. Sea I = [a, b] si g(I) ⊂ I entonces g tiene al menos un punto fijo en I.
Demostraci´on. Como g(I) ⊂ I se tiene que a ≤ g(a) ≤ b y a ≤ g(b) ≤ b, si a = g(a) o b = g(b)
listo. Si no, g(a) −a > 0 y g(b) −b < 0. Entonces la funci´on F(x) = g(x) −x cumple, F(a) > 0
y F(b) < 0 y como F es continua existe un r en I tal que 0 = F(r) = g(r) −r.
Teorema 4.13. Si g es adem´as derivable y [g

(x)[ ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces g tiene
un ´ unico punto fijo.
Demostraci´on. Si hay dos puntos fijos, r
1
, r
2
con r
1
,= r
2
, tenemos
[r
1
−r
2
[ = [g(r
1
) −g(r
2
)[ = [g

(ξ)(r
1
−r
2
)[ ≤ λ[r
1
−r
2
[ < [r
1
−r
2
[
una contradicci´on.
Bajo estas mismas hip´otesis, la sucesi´on generada iterativamente converge y se puede dar una
cota del error en t´erminos de λ.
Teorema 4.14. Sea g tal que [g

(x)[ ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces la sucesi´on x
n
definida
por
x
n+1
= g(x
n
)
converge al ´ unico punto fijo de g y adem´as,
(1) [x
n
−r[ ≤ λ
n
[x
0
−r[
(2) [e
n
[ ≤
λ
n
1−λ
[x
1
− x
0
[. O sea, se tiene una acotaci´ on en t´erminos de [x
1
− x
0
[ que es
conocido.
Demostraci´on. Por el teorema anterior sabemos que existe un ´ unico punto fijo de g que llamamos
r. La hip´otesis sobre la derivada de g implica que [g(x) −g(y)[ ≤ λ[x −y[, o sea g es Lipschitz
con constante λ. Entonces
[x
n+1
−r[ = [g(x
n
) −g(r)[ ≤ λ[x
n
−r[
y de aqu´ı, como λ < 1 se tiene que
[x
n
−r[ ≤ λ
n
[x
0
−r[ → 0.
78 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
En particular demostramos que x
n
→ r.
Por otra parte, intercalando x
1
y usando desigualdad triangular,
[x
0
−r[ ≤ [x
0
−x
1
[ +[x
1
−r[ ≤ [x
0
−x
1
[ +λ[x
0
−r[.
Entonces
(1 −λ)[x
0
−r[ ≤ [x
1
−x
0
[
y como
[x
n
−r[ ≤ λ
n
[x
0
−r[
se obtine la estimaci´on 2).
La figura 4.5 muestra gr´aficamente como se genera una sucesi´on por el m´etodo de punto fijo.
En dicho gr´afico 0 < f

(x) < 1.
x
0
x
1
x
2
x
3
x
4
y=x
f(x)
Figura 4.5.
Para aplicar el teorema 4.14 hay que garantizar que g(I) ⊂ I (o sea primero hay que encontrar
un tal I).
Si r es un punto fijo de g con [g

(r)[ < 1 este intervalo I existe, resultado que probamos en el
siguiente teorema.
5. M
´
ETODO DE LA SECANTE 79
Teorema 4.15. g

continua en (a, b), r ∈ (a, b) un punto fijo de g. Si [g

(r)[ < 1, entonces
existe ε > 0 tal que la iteraci´on es convergente siempre que x
0
∈ I
ε
= (r −ε, r +ε).
Demostraci´on. Como [g

(r)[ < 1, existe una constante K < 1 y un ε > 0 tales que [g

(x)[ < K,
∀x ∈ I
ε
= (r −ε, r +ε) (por la continuidad de g

). Entonces, ∀x ∈ I
ε
,
[g(x) −r[ = [g(x) −g(r)[ ≤ K[x −r[ ≤ Kε < ε
o sea, g(I
ε
) ⊂ I
ε
, y podemos aplicar el teorema anterior en I
ε
.
5. M´etodo de la secante
En este m´etodo tenemos que x
n+1
es funci´on de x
n
y de x
n−1
. La idea es la misma que en
el m´etodo “regula falsi”, trazar la secante, pero este m´etodo es diferente pues se usan las dos
´ ultimas aproximaciones x
n−1
y x
n
en lugar de encerrar la ra´ız como en “regula falsi”. Para
empezar hay que dar dos valores x
0
y x
1
.
La ecuaci´on de la secante que une los puntos (x
n−1
, f(x
n−1
)) y (x
n
, f(x
n
)) es
y = f(x
n
) + (x −x
n
)
f(x
n
) −f(x
n−1
)
x
n
−x
n−1
entonces se define x
n+1
como la intersecci´on de esta recta con el eje x, as´ı, x
n+1
verifica
0 = f(x
n
) + (x
n+1
−x
n
)
f(x
n
) −f(x
n−1
)
x
n
−x
n−1
es decir,
x
n+1
= x
n
−f(x
n
)
x
n
−x
n−1
f(x
n
) −f(x
n−1
)
.
Observemos que esta f´ormula es an´aloga a la de Newton reemplazando f

por un cociente
incremental.
La ventaja es que no hay que calcular la derivada de f (esto es de gran ayuda en un caso en que
f

sea dif´ıcil de calcular).
La desventaja es, seg´ un veremos, que la convergencia de la sucesi´on es m´as lenta que la que
produce el ´etodo de Newton.
Observemos que la iteraci´on del m´etodo de la secante tambi´en puede escribirse como
80 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
x
n+1
=
f(x
n
)x
n−1
−f(x
n−1
)x
n
f(x
n
) −f(x
n−1
)
.
Analicemos el orden de convergencia de este m´etodo, seg´ un la definici´on 4.7. Tenemos
f(r) = 0 y e
n
= r −x
n
.
Luego,
e
n+1
= r −x
n+1
= r −
f(x
n
)x
n−1
−f(x
n−1
)x
n
f(x
n
) −f(x
n−1
)
=
e
n−1
f(x
n
) −e
n
f(x
n−1
)
f(x
n
) −f(x
n−1
)
=
e
n−1
(f(x
n
) −f(r)) −e
n
(f(r) −f(x
n−1
))
f(x
n
) −f(x
n−1
)
=
−e
n
e
n−1
f(x
n
)−f(r)
x
n
−r
+e
n
e
n−1
f(r)−f(x
n−1
)
x
n−1
−r
f(x
n
) −f(x
n−1
)
.
Es decir,
e
n+1
= e
n
e
n−1
f(x
n−1
)−f(r)
x
n−1
−r

f(r)−f(x
n
)
x
n
−r
f(x
n
) −f(x
n−1
)
. (4.6)
Definamos ahora las diferencias.
Primera diferencia :
f[a, b] =
f(b) −f(a)
b −a
= f

(ξ).
Segunda diferencia :
f[a, b, c] =
f(c)−f(b)
c−b

f(b)−f(a)
b−a
c −a
.
Entonces el error del m´etodo de la secante verifica,
e
n+1
= −e
n
e
n−1
f[x
n−1
, r, x
n
]
f[x
n−1
, x
n
]
.
5. M
´
ETODO DE LA SECANTE 81
Lema 4.16.
f[a, b, c] =
1
2
f

(η).
Demostraci´on.
f(x) = f(a) +f[a, b](x −a) +f[a, b, c](x −a)(x −b) +Resto.
Despreciamos el resto y nos quedamos con el polinomio de grado 2:
f(a) +f[a, b](x −a) +f[a, b, c](x −a)(x −b)
Se ver´a m´as adelante que este polinomio es el polinomio interpolador de grado dos.
Sea
g(x) = f(x) −f(a) +f[a, b](x −a) +f[a, b, c](x −a)(x −b) (4.7)
g cumple que g(a) = 0, g(b) = 0 y g(c) = 0.
Entonces g

se anula en por lo menos dos puntos y de ah´ı que existe η con g

(η) = 0. Ahora,
derivando dos veces la expresi´on (4.7) y evaluando en η se obtiene
0 = g

(η) = f

(η) −2f[a, b, c],
es decir,
f[a, b, c] =
1
2
f

(η).
Aplicando el lema 4.16 a nuestra expresi´on de e
n+1
dada en (4.6) queda
e
n+1
= −
f


n
)
f


n
)
e
n
e
n−1
y de ac´a se puede deducir la convergencia local.
Teorema 4.17. Si f

(r) ,= 0, [f

[ ≤ K en un entorno de r y x
0
, x
1
est´an suficientemente cerca
de r, es decir existe ε > 0 tal que si x
0
, x
1
∈ I
ε
= (r −ε, r +ε), entonces
e
n
→ 0.
82 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
Demostraci´ on. Existe ε > 0 tal que [f

[ > δ en I
ε
, entonces si x
0
, x
1
∈ I
ε
tenemos que
[e
2
[ ≤
K

[e
1
[[e
0
[ ≤
K

ε
2
y si ahora pedimos (quiz´as achicando el ε) que
K

ε = λ < 1
nos queda que
[e
2
[ ≤ λε < ε
y entonces x
2
∈ I
ε
. Ahora bien
[e
3
[ ≤
K

[e
2
[[e
1
[ ≤
K

λε
2
≤ λ
2
ε
[e
4
[ ≤
K

[e
3
[[e
2
[ ≤
K

ελ
2
ελ ≤ λ
3
ε.
Y podemos concluir por inducci´on que
[e
n
[ ≤ λ
n−1
ε → 0.
Veamos el orden de convergencia del m´etodo de la secante, ten´ıamos
[e
n+1
[ = [ −
1
2
f


n
)
f


n
)
[[e
n
[[e
n−1
[ = c
n
[e
n
[[e
n−1
[,
y adem´as, si llamamos c

al l´ımite de c
n
tenemos
c
n
→ c

=
¸
¸
¸
¸
1
2
f

(r)
f

(r)
¸
¸
¸
¸
.
Supongamos que f

(r) ,= 0, de esta forma c

,= 0.
Buscamos p tal que
lim
n→∞
[e
n+1
[
[e
n
[
p
= C ,= 0.
Tenemos
6. EJERCICIOS 83
[e
n+1
[
[e
n
[
p
= c
n
[e
n
[
1−p
[e
n−1
[ = c
n
_
[e
n
[
[e
n−1
[
p
_
α
.
Si α = 1 −p y αp = −1, o sea
p −p
2
= αp = −1,
entonces p es soluci´on de
p
2
−p −1 = 0,
y como p > 0,
p =
1 +

5
2
= 1.618...
Con esta elecci´on de p tenemos que
y
n
=
[e
n+1
[
[e
n
[
p
cumple la iteraci´on de punto fijo (salvo que c
n
es variable pero converge a c

),
y
n+1
= c
n
y

1
p
n
.
Entonces, y
n
converge al punto fijo de la ecuaci´on x = c

x

1
p
(esto es cierto porque p > 1 y se
ve directamente escribiendo la iteraci´on). El punto fijo es x = c
1
p

. Entonces nos queda que
[e
n+1
[
[e
n
[
p

¸
¸
¸
¸
1
2
f

(r)
f

(r)
¸
¸
¸
¸
1
p
,
para n grande.
Ahora veamos una idea intuitiva de la demostraci´on directamente.
Si suponemos [e
n+1
[ ∼ [e
n
[
p
tenemos [e
n+1
[ ∼ [e
n
[
p
∼ [e
n−1
[
p
2
y de la relaci´on entre e
n+1
, e
n
y e
n−1
se tiene [e
n−1
[
p
2
∼ [e
n−1
[
p
[e
n−1
[. O sea, [e
n−1
[
p
2
−p−1
∼ cte. Luego p > 0 tiene que ser
soluci´on de p
2
−p −1 = 0 y entonces p =
1+

5
2
= 1.618....
6. Ejercicios
(1) Usar el m´etodo de bisecci´on para hallar una ra´ız positiva de la ecuaci´on trascendente:
2x = tan(x)
¿Cu´antos pasos hay que hacer para garantizar que el error sea menor que 10
−5
?
84 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
(2) Hacer un programa en Matlab que ejecute los primeros 20 pasos de los m´etodos de
bisecci´on y Regula-Falsi para hallar una ra´ız de la ecuaci´on 2x
3
+x−2 = 0 comenzando
con el intervalo [0, 1].
(3) Hacer un programa en Matlab que ejecute los primeros 20 pasos de los m´etodos de
bisecci´on y N-R, para calcular
3

2 comenzando con valores iniciales apropiados.
(4) Demostrar que la ecuaci´on
f(x) = e
x
+ 5 sin x −2 = 0
tiene una ´ unica ra´ız en el intervalo (0,
3
2
). Encontrar las cotas necesarias de [f

[ y [f

[
para determinar un valor inicial de modo que el m´etodo N-R converja a la ra´ız. Aplicar
el m´etodo para hallar una aproximaci´on de ´esta. ¿Cu´al es el orden de convergencia?
(5) Considerar la funci´on f(x) =
x
1 +[x[
. Determinar para qu´e valores de x
0
la iteraci´on
N-R es convergente, para cu´ales es divergente, y cu´ando se obtienen ciclos peri´odicos.
(6) Se quiere resolver la ecuaci´on f(x) = 0, donde f(x) = e
x
−2. Calcular los 10 primeros
t´erminos de las sucesiones generadas por los m´etodos N-R y de la secante, comenzando
con los valores iniciales x
1
= 3 para el primer m´etodo e y
1
= 3, y
2
= 2.3 para el segundo.
Graficar simult´aneamente las dos sucesiones obtenidas.
(7) Sea f una funci´on C
1
y sea (x
n
)
n∈IN
la sucesi´on que se obtiene de aplicar el m´etodo
N-R a f. Supongamos que x
n
converge a r y f

(r) ,= 0, mostrar que r es ra´ız de f.
(8) Sea f una funci´on suave, y a tal que f(a) = 0, y f

(a) ,= 0.
(a) Suponiendo que en (a, b], f, f

, f

son positivas, probar que la iteraci´on de N-R
generada a partir de x
0
∈ (a, b) converge decrecientemente hacia a.
(b) Con las mismas hip´otesis, si x
1
∈ (a, x
0
), probar que la sucesi´on generada por el
m´etodo de la secante a partir de x
0
, x
1
converge decrecientemente hacia a.
(9) Sea f(x) = x
α
. Se desea utilizar el m´etodo N-R para resolver la ecuaci´on f(x) = 0,
comenzando con x
0
> 0. Analizar el comportamiento del m´etodo en los casos
(a) α ≥ 1 (b) α =
1
3
(c) α =
1
2
(10) (a) Sea f(x) = (x − r
1
)(x − r
2
) . . . (x − r
d
) donde r
1
< r
2
< < r
d
. Probar que si
x
0
> r
d
la sucesi´on de N-R converge a r
d
.
(b) Para un polinomio P ∈ IR[x], P(x) = a
d
x
d
+ + a
0
, a
d
,= 0, tal que sus d ra´ıces
son reales y distintas, se propone el siguiente m´etodo que aproxima los valores de
todas sus ra´ıces:
(i) Se comienza con un valor x
0
mayor que M = max¦1,

d−1
i=0
|a
i
|
|a
d
|
¦ (Dato: M
es una cota para el m´odulo de todas las ra´ıces del polinomio).
(ii) Se genera a partir de x
0
la sucesi´on de N-R, que, seg´ un el ´ıtem anterior,
converge a la ra´ız m´as grande de P, llam´emosla r
d
; obteni´endose de este
modo un valor aproximado ˜ r
d
.
(iii) Se divide P por x − ˜ r
d
y se desprecia el resto, dado que r
d
∼ ˜ r
d
. Se redefine
ahora P como el resultado de esta divisi´on y se comienza nuevamente desde
el primer ´ıtem, para hallar las otras ra´ıces.
Aplicar este m´etodo para aproximar todas las ra´ıces del polinomio P(x) = 2x
3

4x + 1.
(11) Recordar que una ra´ız m´ ultiple de un polinomio f es una ra´ız simple del polinomio
f/ gcd(f, f

), donde gcd indica el m´aximo com´ un divisor. Hacer un programa en Matlab
6. EJERCICIOS 85
que aplique el m´etodo N-R a f(x) y a f(x)/ gcd(f, f

) para hallar la ra´ız m´ ultiple de
f(x) = (x −1)(x −2)
2
.
Demostrar que, a pesar que la funci´on f no est´a en las hip´otesis del m´etodo N-R,
´este converge (aunque no tan velozmente como cuando la ra´ız m´ ultiple se halla como
soluci´on de f/ gcd(f, f

)).
(12) Para f una funci´on C
2
que tiene una ra´ız de orden 2 en x
0
:
(a) Demostrar que el m´etodo N-R converge s´olo linealmente a x
0
.
(b) ¿Cu´al es el orden de convergencia de la siguiente modificaci´on?
x
n+1
= x
n
−2
f(x
n
)
f

(x
n
)
(13) Sea f(x) = 4x
3
−3x + 1 = 0. La ecuaci´on f(x) = 0 tiene una ra´ız doble. Aproximarla
calculando las 10 primeras iteraciones de los m´etodos N-R y N-R con la modificaci´on
del ejercicio anterior, comenzando con los valores iniciales x
1
= y
1
= 25. Graficar
simult´aneamente las dos sucesiones obtenidas.
(14) Se quiere aplicar el m´etodo N-R para dar una tabla de valores de la funci´on y(x) definida
impl´ıcitamente por la ecuaci´on G(x, y) = 0 en un intervalo [a, b].
El m´etodo consiste en comenzar la tabla en un par de valores x
0
, y
0
que verifican
x
0
= a y G(x
0
, y
0
) = 0 y proceder por incrementos en x hasta llegar al valor x
N
= b.
En cada paso se obtiene el valor de y
n+1
aplicando el m´etodo N-R a la funci´on
G(x
n+1
, y) donde y es la variable y x
n+1
permanece fijo; con valor inicial el valor de
y
n
obtenido en el paso anterior. Dado que la funci´on y(x) se supone continua, esta
elecci´on del valor inicial se supone apropiada.
(a) Aplicar el m´etodo para la ecuaci´on G(x, y) = x
2
+ y
2
− 1 = 0, comenzando en
x
0
= 0, y
0
= 1 para valores de x en [0, 1]. Graficar junto con la soluci´on que se
obtiene de despejar anal´ıticamente y comparar. Utilizar distintos valores para el
incremento y para la cantidad de iteraciones del m´etodo N-R en cada paso.
(b) Aplicar el m´etodo para G(x, y) = 3x
7
+ 2y
5
− x
3
+ y
3
− 3. Comenzar la tabla en
x
0
= 0, y
0
= 1 y proceder por incrementos en x de 0.2 hasta llegar a x
50
= 10.
(15) Dada F : IR
n
→ IR
n
el m´etodo N-R generalizado consiste en realizar la iteraci´on
vectorial
x
k+1
= x
k
−(DF[
x
k)
−1
.F(x
k
),
donde (DF[
x
k)
−1
es la inversa de la matriz diferencial de F evaluada en x
k
.
Usar la versi´on generalizada a varias variables del m´etodo N-R para para resolver
el sistema de ecuaciones
2x −3y = 0, x
2
−y
2
−3 = 0
comenzando con valores iniciales (x
0
, y
0
) = (2, 1).
(16) Resolver cos(x) = 2x, x > 0 comenzando con x
0
= 0.5 y utilizando:
(a) La iteraci´on de punto fijo x
n+1
=
1
2
cos(x
n
)
(b) El m´etodo N-R.
Graficar, usando Matlab, las sucesiones obtenidas y comparar.
(17) Sea g una funci´on tal que g

es continua en [s, b], donde s es un punto fijo de g. Si
adem´as, se verifica que 0 ≤ g

(x) ≤ K < 1 para todo x ∈ [s, b], mostrar que la iteraci´on,
comenzando con x
0
∈ [s, b], converge decrecientemente a s.
86 4. RESOLUCI
´
ON DE ECUACIONES NO LINEALES.
(18) Sea f : IR
>0
→ IR definida como f(x) =
8x −1
x
−e
x
.
(a) Dibujar la gr´afica de f y determinar el n´ umero de ra´ıces de la ecuaci´on f(x) = 0,
localizando cada ra´ız entre dos enteros consecutivos.
(b) Para cada una de las siguientes funciones:
f
1
(x) =
1
8
(1 +xe
x
), f
2
(x) = ln
_
8x −1
x
_
consideramos el siguiente m´etodo iterativo: dado x
0
= 1 sea
x
n+1
= f
i
(x
n
), n ∈ IN, (i = 1, 2).
Estudiar si estas sucesiones convergen hacia alguna de las ra´ıces de f = 0.
(c) Utilizando Matlab, estimar las ra´ıces con estos dos m´etodos.
(19) Sea f(x) = x
3
−x−1. Se consideran las dos siguientes iteraciones de m´etodo de punto
fijo.
g(x) = x
3
−1, h(x) =
3

x + 1.
(a) Determinar cu´ales de estas funciones son apropiadas para la iteraci´on.
(b) Para las que s´ı lo sean:
• Determinar un intervalo inicial I en el cual el m´etodo converja.
• Dar un valor inicial x
0
∈ I y la cantidad de iteraciones necesarias para
aproximar la ra´ız de f con error menor que 10
−5
comenzando con el x
0
dado.
(20) Dada la funci´on f(x) = x + 1/x −2, f : IR
>0
→ IR, se construye el siguiente algoritmo
para aproximar la ra´ız r = 1:
x
n+1
= 2 −1/x
n
(a) Verificar que si x
0
> 1 entonces la sucesi´on ¦x
n
¦ es mon´otona decreciente y acotada
inferiormente por 1. Concluir que x
n
→ 1, aunque esta iteraci´on no est´a en las
hip´otesis del teorema del punto fijo. ¿Qu´e hip´otesis no se cumple?
(b) Dar un algoritmo para aproximar la ra´ız de f que converja cuadr´aticamente.
(21) Sea f una funci´on C
1
en las condiciones del m´etodo N-R. Sea g(x) = x−
f(x)
f

(x)
. Mostrar
que el m´etodo N-R es un m´etodo de punto fijo.
CAP´ıTULO 5
Interpolaci´on
El objetivo de este cap´ıtulo es estudiar c´omo puede aproximarse una funci´on por polinomios.
Una forma de hacer ´esto es construir los polinomios de manera que coincidan con la funci´on
dada en algunos puntos predeterminados, lo que recibe el nombre de interpolaci´on polinomial.
Analizaremos distintos m´etodos para resolver este problema y estudiaremos el error que se
comete al reemplazar una funci´on por un polinomio interpolante.
Hay diversos motivos para estudiar este problema. Por un lado, el polinomio interpolante puede
utilizarse para reconstruir una funci´on f a partir de una tabla de valores. Por otra parte, es
una herramienta fundamental para integraci´on y diferenciaci´on num´erica, como veremos m´as
adelante.
1. Interpolaci´on de Lagrange
En lo que sigue, si n ∈ IN
0
, llamaremos T
n
al conjunto de polinomios de grado menor o igual
que n, incluyendo el polinomio nulo.
Supongamos que se sabe que la tabla de valores
(x
j
): x
0
x
1
x
2
. . . x
n
(y
j
): y
0
y
1
y
2
. . . y
n
corresponde con datos de una funci´on continua que se desconoce. Queremos poder modelizar
dicha funci´on a por medio de un polinomio. Es decir, queremos encontrar un polinomio tal que
p(x
j
) = y
j
, ∀j = 0, 1, . . . , n. (5.1)
Nuestro primer paso ser´a dar un resultado b´asico que establece que ´esto es posible. Mostraremos
una forma concreta de hallar un polinomio p que verifique (5.1) y adem´as veremos que si el
polinomio es de grado menor o igual que n, ´este es ´ unico. Vamos a basar nuestra demostraci´on
en la Base de Lagrange que es una base de polinomios que construimos a continuaci´on.
Base de Lagrange: Para cada punto x
j
, j = 1, . . . , n, buscamos un polinomio de grado n que
se anule en todos los x
i
salvo x
j
donde queremos que valga 1. Por ejemplo,
0
ser´a un polinomio
en T
n
tal que se anula en x
1
, . . . , x
n
y
0
(x
0
) = 1.
88 5. INTERPOLACI
´
ON
Como x
1
, . . . , x
n
son ra´ıces de
0
,
0
(x) = α

n
i=1
(x−x
i
); donde α es una constante que se elige
de modo que
0
(x
0
) = 1. Imponiendo esta condici´on obtenemos

0
(x) =
n

i=1
(x −x
i
)
n

i=1
(x
0
−x
i
)
.
De manera an´aloga, para cada j = 1, . . . , n,, el polinomio
j
∈ T
n
tal que

j
(x
i
) = δ
ij
=
_
1 i = j
0 i ,= j
estar´a dado por

j
(x) =

i=j
(x −x
i
)

i=j
(x
j
−x
i
)
(5.2)
Los polinomios ¦
0
,
1
, . . . ,
n
¦ se conocen como la base de Lagrange. Vale destacar que estos
polinomios s´olo dependen de los datos ¦x
0
, x
1
, . . . , x
n
¦.
Teorema 5.1. Dados x
0
,. . . ,x
n
y valores y
0
, . . . , y
n
existe un ´ unico polinomio p
n
∈ T
n
tal que
p
n
(x
j
) = y
j
; ∀j = 0, . . . , n.
Demostraci´ on. Usando la base de Lagrange definimos
p
n
(x) =
n

j=0
y
j

j
(x). (5.3)
obteniendo un polinomio p
n
∈ T
n
que verifica (5.1). Veamos que es ´ unico. Supongamos que hay
dos polinomios p
n
, q
n
∈ T
n
que interpolan la tabla de pares (x
i
, y
i
), esto es
(p
n
−q
n
)(x
j
) = 0 ∀j = 0, . . . , n.
Entonces p
n
− q
n
es un polinomio de grado menor o igual que n con n + 1 ra´ıces distintas; es
decir, p
n
−q
n
es el polinomio nulo.
1. INTERPOLACI
´
ON DE LAGRANGE 89
Observaci´ on 5.2. (1) La escritura (5.3) se llama forma de Lagrange del polinomio inter-
polador.
(2) El polinomio p
n
puede tener grado estrictamente menor que n. Por ejemplo, si se
considera la tabla de 5 valores
(x
j
): -4 -2 0 1 3
(y
j
): 9 5 1 -1 -5
El polinomio de grado menor o igual que 4 que interpola la tabla es p
4
(x) = −2x + 1.
Gracias a la unicidad, como se trata de un polinomio de grado 1, es suficiente mostrar
que en cada x
j
, p
4
toma el valor y
j
; esto es inmediato.
(3) Si los datos corresponden con una funci´on f que es un polinomio de grado menor o
igual que n, es decir, f ∈ T
n
y los valores y
j
= f(x
j
); entonces f = p
n
(la interpolaci´on
es exacta para polinomios).
(4) El polinomio que interpola en n + 1 puntos distintos es ´ unico en T
n
. Si se permite
mayor grado hay infinitos. Por ejemplo, si q es un polinomio cualquiera, el polinomio
p(x) = (−2x + 1) +q(x)(x + 4)(x + 2)x(x −1)(x −3),
tambi´en interpola la tabla dada arriba.
Otra forma de demostrar la existencia (y de encontrar el polinomio) es por el m´etodo de los
coeficientes indeterminados. El polinomio ser´a de la forma
p
n
(x) = a
0
+a
1
x + +a
n
x
n
y se buscan a
0
, . . . , a
n
tales que
p
n
(x
j
) = y
j
.
Al evaluar, queda formado un sistema (n + 1) (n + 1)
_
_
_
_
_
1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
x
n
n
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
n
_
_
_
_
_
=
_
_
_
_
_
y
0
y
1
.
.
.
y
n
_
_
_
_
_
La matriz de la izquierda se llama matriz de Van der Monde y como s´olo depende de los datos
¦x
0
, . . . , x
n
¦ suele notarse por V (x
0
, . . . , x
n
).
Para ver que existe una soluci´on (a
0
, . . . , a
n
) y que es ´ unica hay que ver que la matriz V (x
0
, . . . , x
n
)
es inversible. Esto equivale a ver que el n´ ucleo es nulo. Ahora, si (a
0
, . . . , a
n
) ∈ Nu(V (x
0
, . . . , x
n
))
tendr´ıamos
90 5. INTERPOLACI
´
ON
a
0
+a
1
x
j
+a
2
x
2
j
+. . . +a
n
x
n
j
= 0 ∀j = 0, . . . , n.
Entonces a
0
= . . . = a
n
= 0 (pues un polinomio de grado n no nulo no puede tener n + 1 ra´ıces
distintas).
Ejemplo 5.3. Se quiere interpolar la funci´on f(x) = x
2
3
en el intervalo [−1, 1] por un polinomio.
Si tenemos en cuenta la paridad de la funci´on, podemos pensar que un polinomio de grado par
ser´a una buena elecci´on. La Figura 5.1 muestra el gr´afico de f junto con el polinomio interpolante
p que se obtiene al considerar 11 puntos equiespaciados. Si consideramos la diferencia m´axima
entre f y el polinomio p evaluados en una malla suficientemente fina (puntos equiespaciados con
distancia h = 0.01), el error que se obtiene es grande como puede observarse en el gr´afico; el
error num´erico = 1.4886...
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
1.2
Figura 5.1. Interpolaci´ on de f(x) = x
2
3
en [−1, 1], (11 puntos equiespaciados)
2. Error de interpolaci´on
Cuando los datos obtenidos corresponden con datos de una funci´on f definida en [a, b] y x
0
,
x
1
,. . . , x
n
∈ [a, b], son n + 1 puntos distintos; el polinomio interpolador a encontrar ser´a un
polinomio p
n
∈ T
n
que coincida con f en dichos puntos, es decir p
n
verifica que
p
n
(x
j
) = f(x
j
) ∀j = 0, . . . , n.
La ventaja de obtener un polinomio que interpole a una funci´on f de la cual s´olo se conocen
sus valores en los puntos ¦x
0
, . . . , x
n
¦ es que, el polinomio, arroja una f´ormula que permite
sustituir la funci´on f y hacer evaluaciones en puntos diferentes a los conocidos. Para que este
reemplazo tenga alguna validez num´erica es importante conocer una estimaci´on del error que
2. ERROR DE INTERPOLACI
´
ON 91
se comete. Para ´esto ser´a necesario suponer que la funci´on f verifica algunas condiciones de
suavidad. Llamemos a este error:
E
n
(x) = f(x) −p
n
(x), x ∈ [a, b].
Con el siguiente teorema, damos el primer paso para poder estimar el error cometido; es decir,
damos una expresi´on para E
n
(x).
Dados los puntos x
0
, . . . , x
n
, utilizaremos la notaci´on W
n+1
para designar al polinomio m´onico
de grado n + 1 que se anula en esos puntos. Es decir,
W
n+1
(x) = (x −x
0
) (x −x
n
)
Teorema 5.4. Sean f ∈ C
n+1
[a, b] y p
n
∈ T
n
el polinomio interpolador de f en x
0
, . . . , x
n
puntos del intervalo [a, b]. Para cada x ∈ [a, b], existe ξ ∈ [a, b], ξ = ξ(x), tal que
E
n
(x) = f(x) −p
n
(x) =
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x).
Demostraci´on. Notar que E
n
(x
j
) = 0 y W
n+1
(x
j
) = 0 para todo j. Por lo tanto, podemos
suponer x ,= x
j
. Fijado x definimos la siguiente funci´on de t,
F(t) = f(t) −p
n
(t) −αW
n+1
(t)
donde α se elige de modo que F(x) = 0. O sea, α =
f(x)−p
n
(x)
W
n+1
(x)
, que est´a bien definida pues
W
n+1
(x) ,= 0. Observemos que para todo j,
F(x
j
) = f(x
j
) −p
n
(x
j
) −αW
n+1
(x
j
) = 0.
Entonces F se anula en los n+2 puntos x
0
, . . . , x
n
, x. En consecuencia, por el teorema de Rolle,
F

tiene al menos n + 1 ceros, F

al menos n ceros y as´ı siguiendo se tiene que existe un punto
ξ ∈ (a, b) tal que F
(n+1)
(ξ) = 0. Como
F
(n+1)
(t) = f
(n+1)
(t) −(n + 1)!α
Se obtiene,
f
(n+1)
(ξ)
(n + 1)!
=
f(x) −p
n
(x)
W
n+1
(x)
lo que concluye la demostraci´on.
Ejemplo 5.5. Se quiere interpolar la funci´on f(x) = cos(x)
3
en el intervalo [−3, 3] por un
polinomio.
92 5. INTERPOLACI
´
ON
Si se eligen 10 puntos equiespaciados se obtiene un polinomio como muestra la Figura 5.2.
Si consideramos el error num´erico, que es el que se obtiene como diferencia m´axima entre f
y el polinomio evaluados en una malla suficientemente fina (puntos equiespaciados con paso
h = 0.01) se tiene un error de 0.4303... Tan s´olo al considerar 25 puntos equiespaciados (tomados
a intervalos de longitud 0.25) se obtiene un error num´erico menor que 10
−6
. En este caso, en
una figura como la anterior, los gr´aficos del polinomio y la funci´on se confunden.
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
−6
−5
−4
−3
−2
−1
0
1
2
3
4
Figura 5.2. Interpolaci´ on de f(x) = cos(x)
3
en [−3, 3], (10 puntos equiespaciados)
3. Forma de Newton
La forma de Newton es conveniente para calcular el polinomio, en T
n
, que interpola a una
funci´on f en x
0
, . . . , x
n−1
, x
n
una vez conocido el polinomio interpolador de f en x
0
, . . . , x
n−1
.
La forma de Newton del polinomio interpolador puede verse como una generalizaci´on del poli-
nomio de Taylor asociado a una funci´on. En esta construcci´on aparecen las diferencias divididas
que presentamos a continuaci´on.
Primera diferencia dividida
f[x
0
, x
1
] =
f(x
1
) −f(x
0
)
x
1
−x
0
.
Segunda diferencia dividida
f[x
0
, x
1
, x
2
] =
f[x
1
, x
2
] −f[x
0
, x
1
]
x
2
−x
0
.
As´ı sucesivamente se define la diferencia de orden k asociada a los puntos x
0
, . . . , x
k
,
3. FORMA DE NEWTON 93
f[x
0
, . . . , x
k
] =
f[x
1
, . . . , x
k
] −f[x
0
, . . . , x
k−1
]
x
k
−x
0
.
La construcci´on de la forma de Newton se basa en la siguiente idea. Una vez obtenido p
k
∈ T
k
que interpola a f en x
0
, . . . , x
k
escribimos p
k+1
∈ T
k+1
como
p
k+1
(x) = p
k
(x) +a
k+1
(x −x
0
) (x −x
k
).
Observemos que como el t´ermino agregado no modifica el valor de p
k
en x
0
, . . . , x
k
, p
k+1
tambi´en
interpola a f en esos puntos independientemente del valor de a
k+1
. Por otra parte, podemos
elegir
a
k+1
=
f(x
k+1
) −p
k
(x
k+1
)
(x
k+1
−x
0
) (x
k+1
−x
k
)
de modo que p
k+1
(x
k+1
) = f(x
k+1
).
Iterando este procedimiento desde k = 1 hasta k = n −1 se obtiene la forma de Newton
p
n
(x) = a
0
+a
1
(x −x
0
) +a
2
(x −x
0
)(x −x
1
) +. . . +a
n
(x −x
0
) (x −x
n−1
)
En lo que sigue veremos que los a
j
resultan ser las diferencias divididas y por lo tanto esta
expresi´on es an´aloga al polinomio de Taylor.
Por ejemplo si n = 1,
p
1
(x) = a
0
+a
1
(x −x
0
)
y como
p
1
(x
0
) = f(x
0
) p
1
(x
1
) = f(x
1
)
tenemos
a
0
= f(x
0
) a
1
= f[x
0
, x
1
].
Si n = 2,
p
2
(x) = a
0
+a
1
(x −x
0
) +a
2
(x −x
0
)(x −x
1
).
Como en el caso n = 1, de las igualdades p
1
(x
0
) = f(x
0
) y p
1
(x
1
) = f(x
1
) queda
94 5. INTERPOLACI
´
ON
a
0
= f(x
0
) a
1
= f[x
0
, x
1
].
Veamos ahora que
a
2
= f[x
0
, x
1
, x
2
].
Sabemos ya que el polinomio p
1
(x) que interpola a f en x
0
, x
1
se escribe como
p
1
(x) = f(x
0
) +f[x
0
, x
1
](x −x
0
).
An´alogamente, si q
1
(x) ∈ T
1
interpola a f en x
1
, x
2
tenemos,
q
1
(x) = f(x
1
) +f[x
1
, x
2
](x −x
1
).
Entonces, el polinomio
r(x) =
(x −x
0
)q
1
(x) −(x −x
2
)p
1
(x)
x
2
−x
0
tiene grado menor o igual que 2 y verifica r(x
j
) = f(x
j
) para j = 0, 1, 2. Por lo tanto, coincide
con p
2
.
En consecuencia, igualando los coeficientes de x
2
de r y p
2
se obtiene
a
2
=
f[x
1
, x
2
] −f[x
0
, x
1
]
x
2
−x
0
= f[x
0
, x
1
, x
2
].
El mismo argumento puede aplicarse para demostrar el siguiente teorema.
Teorema 5.6. El polinomio p
n
∈ T
n
, que interpola a f en los puntos x
0
, . . . , x
n
est´a dado por
p
n
(x) = f(x
0
) +f[x
0
, x
1
](x −x
0
) + +f[x
0
, . . . , x
n
](x −x
0
) . . . (x −x
n−1
) (5.4)
No s´olo los coeficientes del polinomio interpolador pueden expresarse en t´erminos de las diferen-
cias divididas, sino tambi´en el error como lo muestra el siguiente teorema.
Teorema 5.7. Si p
n
∈ T
n
interpola a f en los puntos x
0
, . . . , x
n
, se tiene la siguiente expresi´ on
del error
E
n
(x) = f(x) −p
n
(x) = f[x
0
, . . . , x
n
, x]W
n+1
(x).
Demostraci´ on. Agregamos x
n+1
a la sucesi´on ¦x
0
, . . . , x
n
¦ y consideramos p
n
y p
n+1
como en
(5.4), entonces se tiene
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 95
p
n+1
(x) = f(x
0
) +f[x
0
, x
1
](x −x
0
) + +f[x
0
, . . . , x
n+1
](x −x
0
) (x −x
n
)
= p
n
(x) +f[x
0
, . . . , x
n+1
]W
n+1
(x).
Por lo tanto
f(x
n+1
) = p
n+1
(x
n+1
) = p
n
(x
n+1
) +f[x
0
, . . . , x
n+1
]W
n+1
(x
n+1
).
De aqu´ı se deduce que el error satisface
E
n
(x
n+1
) = f(x
n+1
) −p
n
(x
n+1
) = f[x
0
, . . . , x
n+1
]W
n+1
(x
n+1
).
Como tomamos x
n+1
cualquier punto distinto de x
0
, . . . , x
n
se tiene para todo x,
E
n
(x) = f(x) −p
n
(x) = f[x
0
, . . . , x
n
, x]W
n+1
(x).
Corolario 5.8. Dados x
0
, . . . , x
n
puntos distintos, existe ξ intermedio, es decir ξ entre x
0
, . . . , x
n
tal que
f[x
0
, . . . , x
n
] =
f
(n)
(ξ)
n!
.
Demostraci´on. Evaluando en x = x
n
la expresi´on del error E
n−1
= f −p
n−1
, dada por el teorema
anterior tenemos,
E
n−1
(x
n
) = f[x
0
, . . . , x
n
](x
n
−x
0
) (x
n
−x
n−1
)
lo que junto con la f´ormula del error dada en el Teorema 5.4 concluye la demostraci´on.
4. Polinomios de Tchebychev - Minimizaci´on del Error
Una pregunta natural es c´omo elegir los puntos de interpolaci´on para optimizar la aproximaci´on.
El Teorema 5.4 nos dice que el error depende de f
n+1
en alg´ un punto del intervalo y de los puntos
x
j
a trav´es del polinomio W
n+1
(x) = (x − x
0
)(x − x
1
) (x − x
n
). Como se pretende obtener
una buena aproximaci´on sin tener informaci´on sobre la funci´on f, la idea es elegir los puntos de
manera tal que |W
n+1
()|

sea m´ınima. Este problema, que en principio parece complicado,
fue resuelto por Tchebychev en el siglo XIX introduciendo una sucesi´on de polinomios, que hoy
llevan su nombre.
Para simplificar la presentaci´on resolveremos el problema para funciones definidas en el intervalo
[−1, 1]. M´as adelante veremos que se puede trasladar la construcci´on a cualquier intervalo [a, b]
mediante un cambio de variables.
Los polinomios de Tchebychev se definen para k = 0, 1, 2, . . . por
96 5. INTERPOLACI
´
ON
T
k
(x) = cos(k cos
−1
x)
donde cos
−1
es la inversa de cos : [0, π] → [−1, 1].
En principio no es evidente que T
k
sea un polinomio. Pero esto puede verse utilizando identidades
trigonom´etricas. En efecto,
T
0
(x) = 1, T
1
(x) = x
y como cos(α +β) + cos(α −β) = 2 cos αcos β, si ponemos x = cos θ resulta
T
k+1
(x) = cos((k + 1)θ) = 2 cos θ cos(kθ) −cos((k −1)θ),
es decir,
T
k+1
(x) = 2xT
k
(x) −T
k−1
(x). (5.5)
Algunos ejemplos que siguen a T
0
y T
1
cuyos gr´aficos se muestran en la figura 5.1 son
T
2
(x) = 2x
2
−1, T
4
(x) = 8x
4
−8x
2
+ 1,
T
3
(x) = 4x
3
−3x, T
5
(x) = 16x
5
−20x
3
+ 5x
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=3
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=4
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=5
−1 −0.5 0 0.5 1
−1
−0.5
0
0.5
1
n=6
Figura 5.3. Polinomios de Tchebychev
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 97
Los polinomios de Tchebychev tienen las siguientes propiedades.
Proposici´ on 5.9. Sea T
k
el polinomio de Tchebychev de grado k.
(1) El coeficiente principal de T
k
es 2
k−1
, para todo k ∈ IN.
(2) Las ra´ıces del polinomio T
k
se encuentran en el intervalo [−1, 1] y son de la forma
x
i
= cos
_
(2i + 1)π
2k
_
para i = 0, 1, . . . , k −1. En particular, son todas distintas.
(3) |T
k
|

= 1. Adem´ as, T
k
alcanza los valores 1 y -1 en k + 1 puntos, es decir,
|T
k
|

= [T
k
(y
i
)[ = 1 para y
i
= cos(

k
)
con i = 0, . . . , k.
Demostraci´on. La primer afirmaci´on puede verse de la relaci´on de recurrencia (5.5).
Como T
k
(x) = cos(k cos
−1
x), T
k
(x) = 0 si y s´olo si el argumento es m´ ultiplo impar de
π
2
. Es
decir, para i ∈ ZZ,
k cos
−1
(x) = (2i + 1)
π
2
x = cos(
(2i+1)
k
π
2
)
ambas afirmaciones de 2 quedan probadas. Es decir, las ra´ıces pertenecen al intervalo [−1, 1] y
variando los valores de i = 0, 1, . . . , k −1 se obtienen todas.
Para probar 3, basta notar que [T
k
(x)[ ≤ 1 por ser imagen de la funci´on coseno. Adem´as, sobre
los puntos y
i
= cos(

k
), T
k
toma alternativamente los valores 1, −1 y por lo tanto la norma es
exactamente 1.
Ahora s´ı, estamos en condiciones de enunciar y probar el resultado que anticipamos. Es decir,
entre todas las posibles elecciones de n + 1 puntos en [−1, 1], los ceros de T
n+1
son los puntos
de interpolaci´on que hay que elegir para minimizar la expresi´on |(x − x
0
) . . . (x − x
n
)|

que
aparece en la f´ormula del error.
Teorema 5.10. Entre todos los polinomios m´onicos de grado n + 1,
W
n+1
(x) =
1
2
n
T
n+1
(x)
minimiza la norma | |

en [−1, 1]. O sea, si P ∈ T
n+1
y es m´onico entonces,
|W
n+1
|

≤ |P|

.
Demostraci´on. Como el coeficiente principal de T
n+1
es 2
n
se tiene que W
n+1
es m´onico.
Supongamos que existe un polinomio P ∈ T
n+1
, m´onico tal que
|P|

< |W
n+1
|

.
98 5. INTERPOLACI
´
ON
Por la proposici´on anterior, [W
n+1
(x)[ alcanza su m´aximo (que es
1
2
n
) en los n + 2 puntos
y
i
= cos(

n+1
), i = 0, . . . , n + 1. Esto es, si restringimos W
n+1
a [y
i
, y
i+1
], W
n+1
alcanza la
norma infinito en cada uno de estos subintervalos. Entonces, en cada subintervalo se mantiene
la relaci´on
|P|
L

[y
i
,y
i+1
]
<
1
2
n
= |W
n+1
|
L

[y
i
,y
i+1
]
. (5.6)
Por otra parte, W
n+1
(y
i
) = −W
n+1
(y
i+1
). Supongamos, por ejemplo, que W
n+1
(y
i
) > 0 (en el
caso contrario se procede de manera an´aloga). Entonces, de la desigualdad (5.6) se sigue que
P(y
i
) < W
n+1
(y
i
) y que P(y
i+1
) > W
n+1
(y
i+1
).
Luego, el polinomio Q(x) = P(x) − W
n+1
(x) tiene al menos un cero en el intervalo (y
i
, y
i+1
) y
como hay n+2 valores de y
i
, resulta que Q tiene al menos n+1 ceros. Pero tanto P como W
n+1
son polinomios de grado n + 1 y ambos son m´onicos de donde se deduce que Q tiene grado a
lo sumo n. Esto es una contradicci´on pues acabamos de ver que Q tiene n + 1 ra´ıces distintas.
Luego, un tal P no puede existir.
Observaci´ on 5.11. Puede demostrarse, aunque no lo haremos aqu´ı, que la desigualdad del
teorema es estricta, o sea, |W
n+1
|

< |P|

si P ,= W
n+1
es un polinomio m´onico P ∈ T
n+1
.
Es decir el minimizante es ´ unico.
Ejemplo 5.12. Se quiere aproximar la funci´on f(x) = x
2
3
en el intervalo [−1, 1] por un polinomio
que la interpole en 11 puntos.
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
0
0.2
0.4
0.6
0.8
1
Figura 5.4. Interpolaci´ on de f(x) = x
2
3
en los ceros de T11
Si se eligen los nodos como los ceros de T
11
se obtiene un polinomio como muestra la Figura 5.4
(comparar con Figura 5.1). En este caso el error num´erico cometido es menor que 0.1408,
(comparar con Ejemplo 5.3).
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 99
Veamos ahora como se aplica el Teorema 5.7 para acotar el error cuando se usan las ra´ıces de
T
n+1
como puntos de interpolaci´on.
Teorema 5.13. Sea f ∈ C
n+1
[−1, 1]. Si p
n
∈ T
n
es el polinomio que interpola a f en las ra´ıces
de T
n+1
entonces,
|f −p
n
|


|f
(n+1)
|

2
n
(n + 1)!
.
Demostraci´on. Basta observar que W
n+1
=
1
2
n
T
n+1
para obtener
f(x) −p
n
(x) =
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x) =
f
(n+1)
(ξ)
2
n
(n + 1)!
T
n+1
(x),
donde ξ ∈ [−1, 1]. Entonces, el resultado se sigue del hecho de que [T
n+1
(x)[ ≤ 1.
Ejemplo 5.14. Sea f : [−1, 1] → IR dada por f(x) = e
3x
. Queremos comparar las cotas del
error que se produce al estimar el valor de f(0.8) al usar el polinomio interpolador de grado 4
constru´ıdo con puntos equiespaciados y con los ceros del polinomio T
5
.
Comencemos observando que f
(5)
(x) = 243e
3x
y por lo tanto
|f
(5)
|

5!

243e
3
5!

4880.79
5!
.
Si interpolamos f en cinco puntos equiespaciados tenemos que
W
5
(x) = (x + 1)(x + 0.5)x(x −0.5)(x −1),
entonces [W
5
(0.8)[ = 0.11232 y usando la f´ormula del error obtenemos
[(f −p
4
)(0.8)[ ≤
4880.79
5!
0.11232 ∼ 4.57.
Cuando en realidad
[E
4
(0.8)[ = 0.4591 . . .
Notar que en este caso, se sobre estima el error en un factor de 10.
Ahora, interpolamos usando los ceros de T
4
. La cota que se obtiene de la f´ormula de error es
[E
4
(0.8)[ ≤
4880.79
5!2
4
= 2.54,
mientras que E
4
(0.8) = f(0.8) −p
4
(0.8) = 0.2544.
100 5. INTERPOLACI
´
ON
Observemos que tanto el error como su estimaci´on se reducen aproximadamente la mitad que
en el caso de puntos equiespaciados.
Observaci´ on 5.15. Una traslaci´on lineal del intervalo [a, b] al intervalo [−1, 1] nos permite dar
los polinomios de Tchebychev correspondientes al intervalo [a, b].
En efecto, es f´acil ver que el cambio de variables t =
2(x −a)
b −a
−1 es la transformaci´on mencio-
nada. Por lo tanto
¯
T
k
(x) = T
k
(t) = T
k
_
2(x −a)
b −a
−1
_
= cos
_
k cos
−1
_
2(x −a)
b −a
−1
__
es un polinomio de grado k que tiene propiedades an´alogas a T
k
pero ahora en el intervalo [a, b].
En particular se tiene:
(1) La relaci´on de recurrencia:
¯
T
k+1
(x) = 2
_
2(x −a)
b −a
−1
_
¯
T
k
(x) −
¯
T
k−1
(x)
(2) El coeficiente principal de
¯
T
k
(x) es 2
k−1
(
2
b−a
)
k
.
(3) Los ceros de
¯
T
k
(x) son de la forma
x
j
=
b −a
2
cos
_
(2j + 1)π
2k
_
+
b +a
2
∀j = 0, . . . , k −1.
(4) Interpolando en los ceros de
¯
T
n+1
W
n+1
(x) =
1
2
n
_
b −a
2
_
n+1
¯
T
n+1
(x) y |W
n+1
|

=
1
2
n
_
b −a
2
_
n+1
obteni´endose, para x ∈ [a, b], la cota del error
[f(x) −p
n
(x)[ ≤
|f
(n+1)
|

(n + 1)!2
n
_
b −a
2
_
n+1
.
Antes de proceder con algunos comentarios finales estudiemos el an´alogo al Ejemplo 5.5 consi-
derando como nodos los ceros del correspondiente polinomio de Tchebychev.
Ejemplo 5.16. Se quiere aproximar la funci´on f(x) = cos(x)
3
en el intervalo [−3, 3] por un
polinomio que la interpole en los ceros de T
10
.
Al elegirse como nodos los ceros de T
10
se obtiene un polinomio como muestra la Figura 5.5
(comparar con Figura 5.2). En este caso el error num´erico cometido es menor que 4 10
−3
.
Comparar con Ejemplo 5.5 en el que se interpola la misma funci´on en 10 puntos equiespaciados.
Comentarios:
4. POLINOMIOS DE TCHEBYCHEV - MINIMIZACI
´
ON DEL ERROR 101
−3 −2 −1 0 1 2 3
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 5.5. Interpolaci´on de f(x) = cos(t)
3
en [−3, 3], (en los ceros de T
10
)
(1) A partir de la f´ormula del error dada en el Teorema 5.4 puede demostrarse que si f
es una funci´on entera, es decir, admite desarrollo de Taylor convergente en todo IR,
entonces
|f −p
n
|
L

[a,b]
→ 0 (n → ∞).
cualesquiera sean los puntos de interpolaci´on.
(2) No podemos asegurar convergencia uniforme, es decir, en norma infinito, si se cambia
la hip´otesis f entera por f ∈ C

(IR). Por ejemplo, si se eligen puntos equidistribuidos
en el intervalo [−1, 1] se sabe que el error no tiende a cero para la funci´on de Runge
f(x) =
1
1 + 25x
2
(3) El comportamiento de la interpolaci´on en los puntos de Tchebychev es mucho mejor.
Por ejemplo, puede demostrarse que si la funci´on f es derivable
|f −p
n
|

→ 0 (n → ∞).
(4) La interpolaci´on en los puntos de Tchebychev no converge para cualquier funci´on con-
tinua. O sea, puede verse que existe f continua tal que |f −p
n
|

,→ 0. M´as a´ un puede
demostrarse el siguiente
Teorema. (Faber) Dados puntos
x
0
0
x
1
0
x
1
1
x
2
0
x
2
1
x
2
2
x
3
0
x
3
1
x
3
2
x
3
3
.
.
.
102 5. INTERPOLACI
´
ON
arbitrarios en [a, b], existe f continua tal que |f −p
n
|

,→ 0, donde p
n
es el polinomio
interpolador en x
n
0
, . . . , x
n
n
.
5. Interpolaci´on de Hermite
En algunos casos interesa tambi´en considerar junto con los valores de una funci´on f datos
relacionados con sus derivadas. Por ejemplo, puede buscarse un polinomio p que interpole a f
en determinados puntos y que adem´as p

coincida con f

en algunos de esos puntos. M´as en
general, se tiene el siguiente teorema que fue probado por Hermite.
Teorema 5.17. Dada una funci´on f, puntos x
0
, . . . , x
k
y m
0
, . . . , m
k
∈ IN
0
tales que m
0
+. . . +
m
k
= n + 1, existe un ´ unico polinomio p ∈ T
n
que satisface
_
¸
¸
¸
_
¸
¸
¸
_
p(x
0
) = f(x
0
), p

(x
0
) = f

(x
0
), . . . p
(m
0
−1)
(x
0
) = f
(m
0
−1)
(x
0
),
p(x
1
) = f(x
1
), p

(x
1
) = f

(x
1
), . . . p
(m
1
−1)
(x
1
) = f
(m
1
−1)
(x
1
),
.
.
.
.
.
.
.
.
.
p(x
k
) = f(x
k
), p

(x
k
) = f

(x
k
), . . . p
(m
k
−1)
(x
k
) = f
(m
k
−1)
(x
k
).
No haremos una demostraci´on de este teorema pero para dar una idea mostramos la construcci´on
del polinomio interpolador en un caso particular; donde adem´as puede verse c´omo se generaliza
la definici´on de diferencias divididas para valores de x
i
no todos distintos.
Se busca un polinomio p ∈ T
3
que cumpla
_
(i) p(x
0
) = f(x
0
), (iii) p(x
1
) = f(x
1
),
(ii) p

(x
0
) = f

(x
0
), (iv) p

(x
1
) = f

(x
1
).
Como ¦1, x −x
0
, (x −x
0
)
2
, (x −x
0
)
2
(x −x
1
)¦ forman una base de T
3
por ser todos de distinto
grado, cualquier polinomio en T
3
se puede escribir de la forma
p(x) = a
0
+a
1
(x −x
0
) +a
2
(x −x
0
)
2
+a
3
(x −x
0
)
2
(x −x
1
).
Las condiciones (i), (ii) se satisfacen si y solo si a
0
= f(x
0
) y a
1
= f

(x
0
). Ahora hay que
determinar a
2
y a
3
para que se cumplan las dos condiciones restantes. Para simplificar la
notaci´on ponemos h = (x
1
−x
0
), entonces se tiene
p(x
1
) = a
0
+ha
1
+h
2
a
2
= f(x
0
) +f

(x
0
)h +a
2
h
2
Para que se satisfaga la condici´on (iii) debe ser
a
2
=
f(x
1
) −f(x
0
) −f

(x
0
)h
h
2
=
_
f(x
1
) −f(x
0
)
h
−f

(x
0
)
_
1
h
.
5. INTERPOLACI
´
ON DE HERMITE 103
Observemos que lim
x
1
→x
0
f[x
0
, x
1
] = f

(x
0
) por lo que resulta natural generalizar la primer
diferencia dividida poniendo
f[x
0
, x
0
] = f

(x
0
).
De esta manera se obtiene, de la definici´on de segunda diferencia dividida,
f[x
0
, x
0
, x
1
] =
f[x
0
, x
1
] −f[x
0
, x
0
]
x
1
−x
0
=
_
f(x
1
) −f(x
0
)
h
−f

(x
0
)
_
1
h
y por lo tanto, a
2
= f[x
0
, x
0
, x
1
].
Por ´ ultimo, queremos que p

(x
1
) = f

(x
1
). Entonces, debemos elegir a
3
para que se cumpla
f

(x
1
) = a
1
+ 2a
2
h +a
3
h
2
= f

(x
0
) + 2f[x
0
, x
0
, x
1
]h +a
3
h
2
de d´onde,
a
3
=
1
h
2
_
f

(x
1
) −f

(x
0
) −2f[x
0
, x
0
, x
1
]h
_
=
1
h
2
(f[x
1
, x
1
] −f[x
0
, x
0
] −2f[x
0
, x
0
, x
1
]h)
=
1
h
2
(f[x
1
, x
1
] −f[x
0
, x
1
] +f[x
0
, x
1
] −f[x
0
, x
0
] −2f[x
0
, x
0
, x
1
]h)
=
1
h
(f[x
0
, x
1
, x
1
] +f[x
0
, x
0
, x
1
] −2f[x
0
, x
0
, x
1
])
=
f[x
0
, x
1
, x
1
] −f[x
0
, x
0
, x
1
]
x
1
−x
0
.
O sea
a
3
= f[x
0
, x
0
, x
1
, x
1
].
En consecuencia, hemos demostrado que el ´ unico polinomio en T
3
que satisface las condiciones
pedidas es
p
3
(x) = f[x
0
] +f[x
0
, x
0
](x −x
0
) +f[x
0
, x
0
, x
1
](x −x
0
)
2
+f[x
0
, x
0
, x
1
, x
1
](x −x
0
)
2
(x −x
1
).
Esto generaliza la forma de Newton para x
i
no todos distintos.
104 5. INTERPOLACI
´
ON
6. Interpolaci´on por polinomios a trozos
En muchos casos para lograr una mejor aproximaci´on es conveniente utilizar funciones polino-
miales a trozos como interpolantes. De esta manera se parte el intervalo de manera tal que
en cada subintervalo se elige un polinomio distinto que interpole los datos. Por ejemplo, al
interpolar con polinomios de grado uno a trozos, quedan poligonales.
| | | | | | |
x
0
x
1
x
2
x
3
x
4
x
5
x
6
p
1
p
2
p
3
p
4
p
5
p
6
Aproximación por poligonales
Figura 5.2
f(x)
Partimos el intervalo [a, b] en subintervalos [x
j
, x
j+1
], a = x
0
< x
1
< x
2
. . . < x
n
= b. Dada
f : [a, b] → IR definimos la funci´on interpolante q
n
(x) tal que
q
n
[
[x
j
,x
j+1
]
∈ T
1
.
Consideremos el caso de puntos equiespaciados o sea, x
j
= a +jh con h =
b−a
n
. Para cualquier
f ∈ C
2
[a, b] y cualquier x ∈ [x
j
, x
j+1
], usando el Teorema tenemos 5.4
f(x) −q
n
(x) =
f


j
)
2
(x −x
j
)(x −x
j+1
).
Entonces
|f −q
n
|


|f

|

2
h
2
4
=
|f

|

8
(b −a)
2
n
2
→ 0
cuando n → ∞.
Ejemplo 5.18. Sea f : [−1, 1] → IR, la funci´on de Runge f(x) =
1
1 + 25x
2
. Puede verse que
|f

|

= 50. En consecuencia, aproximando por poligonales obtenemos
6. INTERPOLACI
´
ON POR POLINOMIOS A TROZOS 105
|f −q
n
|


|f

|

8
_
2
n
_
2
=
25
n
2
.
Luego, en este caso, interpolando por poligonales obtenemos una aproximaci´on mucho mejor
que la que se obtiene interpolando con un polinoimio, si se utilizan los mismos puntos.
Splines c´ ubicos.
En muchos problemas interesa aproximar por funciones derivables. Esto no puede lograrse
aproximando por poligonales y por lo tanto es necesario aumentar el grado de los aproximantes.
Un m´etodo cl´asico es el corrospondiente a grado tres, splines c´ ubicos. Vamos a ver que, de esta
manera, puede obtenerse un aproximante C
2
.
Dada f ∈ C[a, b] y a = x
0
< x
1
< x
2
. . . < x
n
= b buscamos S tal que S, S

y S

sean continuas
en [a, b] y adem´as se verifique
S(x
j
) = f(x
j
) para 0 ≤ j ≤ n y S [
[x
j
,x
j+1
]
∈ T
3
.
Por ejemplo si n = 3, como S
j
∈ T
3
tenemos 4 3 = 12 coeficientes a determinar. Veamos
cu´antas condiciones se tienen que satisfacer. Tenemos que verificar,
S
0
(x
0
) = f(x
0
), S
1
(x
1
) = f(x
1
), S
2
(x
2
) = f(x
2
),
S
0
(x
1
) = S
1
(x
1
), S
1
(x
2
) = S
1
(x
2
), S
2
(x
3
) = f(x
3
).
es decir, seis condiciones. Si adem´as queremos S

y S

continuas en x
1
, x
2
tenemos cuatro
condiciones mas. O sea, en total diez condiciones para doce inc´ognitas. Una cuenta an´aloga
puede hacerse en el caso general para ver que la cantidad de coeficientes a determinar supera en
dos al n´ umero de condiciones.
Luego, si hay soluci´on habr´a infinitas pues tenemos dos coeficientes para fijar arbitrariamente.
Lo natural entonces es fijar S

(x
0
) y S

(x
n
) o bien S

(x
0
) y S

(x
n
). Elegiremos esta ´ ultima
opci´on por ser m´as simple.
Teorema 5.19. Dada f ∈ C[a, b] y a = x
0
< x
1
< x
2
. . . < x
n
= b, existe un ´ unica S ∈ C
2
[a, b]
tal que
_
_
_
S(x
j
) = f(x
j
) 0 ≤ j ≤ n
S [
[x
j
,x
j+1
]
∈ T
3
con S

(a) = S

(b) = 0.
106 5. INTERPOLACI
´
ON
Demostraci´ on. Para j = 0, . . . , n −1 usaremos la notaci´on
S
j
= S [
[x
j
,x
j+1
]
y h
j
= x
j+1
−x
j
.
La funci´on S buscada debe cumplir que S

es una poligonal. Por lo tanto, si S

(x
j
) = y
j
, S

j
se
escribe como
S

j
(x) = y
j
x
j+1
−x
h
j
+y
j+1
x −x
j
h
j
0 ≤ j ≤ n −1.
Veremos que es posible encontrar valores y
j
de tal forma que se cumplan las condiciones reque-
ridas para S. Integrando dos veces obtenemos, para x ∈ [x
j
, x
j+1
], con 0 ≤ j ≤ n −1
S
j
(x) =
y
j
6h
j
(x
j+1
−x)
3
+
y
j+1
6h
j
(x −x
j
)
3
+c
j
(x −x
j
) +d
j
(x
j+1
−x) (5.7)
donde c
j
, d
j
son constantes a determinar que provienen de la integraci´on.
Observemos que para cualquier elecci´on de y
j
, c
j
y d
j
, S

resulta continua por ser poligonal.
Por lo tanto resta ver que esas constantes pueden elegirse de manera que se verifiquen las otras
condiciones requeridas sobre S.
Para que S sea continua e interpole a f tenemos que elegir c
j
, d
j
tal que
S
j
(x
j
) = f(x
j
) y S
j
(x
j+1
) = f(x
j+1
), 0 ≤ j ≤ n −1
de lo que, reemplazando en (5.7), obtenemos
c
j
=
f(x
j+1
)
h
j

y
j+1
h
j
6
y d
j
=
f(x
j
)
h
j

y
j
h
j
6
y por lo tanto, para cada 0 ≤ j ≤ n −1
S
j
(x) =
y
j
6h
j
(x
j+1
−x)
3
+
y
j+1
6h
j
(x −x
j
)
3
+
+
_
f(x
j+1
)
h
j

y
j+1
h
j
6
_
(x −x
j
) +
_
f(x
j
)
h
j

y
j
h
j
6
_
(x
j+1
−x).
Derivando, y utilizando la notaci´on ∆f
j
= f(x
j+1
) −f(x
j
), obtenemos
S

j
(x) = −
y
j
2h
j
(x
j+1
−x)
2
+
y
j+1
2h
j
(x −x
j
)
2
+
∆f
j
h
j

h
j
6
(y
j+1
−y
j
)
y tenemos que elegir y
j
para que se cumpla la condici´on que falta, es decir, que S

sea continua,
o sea
S

j
(x
j
) = S

j−1
(x
j
) 1 ≤ j ≤ n −1
7. EJERCICIOS 107
de lo que resulta que las n + 1 inc´ognitas y
j
deben ser soluci´on del siguiente sistema de n − 1
ecuaciones,
h
j−1
y
j−1
+ 2(h
j
+h
j−1
)y
j
+h
j
y
j+1
= b
j
con
b
j
= 6
_
∆f
j
h
j

∆f
j−1
h
j−1
_
Como tenemos dos inc´ognitas m´as que ecuaciones, podemos dar valores arbitrarios a y
0
, y
n
y,
pasando los t´erminos correspondientes al lado derecho, obtenemos el sistema tridiagonal,
_
_
_
_
_
γ
1
h
1
0 0
h
1
γ
2
h
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 γ
n−1
_
_
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
n−1
_
_
_
_
_
=
_
_
_
_
_
b
1
−h
0
y
0
b
2
.
.
.
b
n−1
−h
n−1
y
n
_
_
_
_
_
donde γ
i
= 2(h
i
+h
i−1
).
Ahora, como A es diagonal estrictamente dominante, entonces es inversible. Por lo tanto existe
soluci´on ´ unica una vez elegidos y
0
, y
n
.
Por ejemplo podemos elegir y
0
= y
n
= 0 para que se satisfagan las condiciones S

(x
0
) = 0 y
S

(x
n
) = 0, lo que concluye la demostraci´on.
Observemos que en general S

(x
j
) ,= f

(x
j
) y S

(x
j
) ,= f

(x
j
).
7. Ejercicios
(1) Para cada uno de los conjuntos de datos dados, calcular el polinomio p(x) interpolador
de grado menor o igual que 3, en la forma de Lagrange. Verificar utilizando el comando
polyfit de Matlab. Graficar el polinomio interpolador, usando el comando polyval.
x -1 0 2 3
y -1 3 11 27
x -1 0 1 2
y -3 1 1 3
(2) Repetir el problema anterior, usando el m´etodo de coeficientes indeterminados.
(3) (a) Construir las tablas de diferencias divididas para los datos del Ejercicio 1, y em-
plearlas para construir los polinomios interpoladores.
(b) Agregar a las tablas de datos del Ejercicio 1 el punto x = 4, y = 1. Aumentar las
tablas de diferencias divididas y calcular los polinomios interpoladores.
108 5. INTERPOLACI
´
ON
(4) Considerar la funci´on f(x) =
1
1 + 25x
2
en el intervalo [-1,1]. Graficar f junto con los
polinomios que resultan de interpolar a f en los n + 1 puntos equiespaciados x
0
=
−1, . . . , x
i
= x
0
+
2i
n
, . . . , x
n
= 1; para n = 5, 10, 15.
(5) Repetir el Ejercicio ?? para la funci´on f
1
: [−1, 1] → IR, f
1
(x) = [x[ y para la funci´on
f
2
: [−1, 1] → IR, f
2
(x) = sin(πx).
(6) Sea f : [0, 5] → IR, f(x) = 2
x
. Sea P
n
un polinomio de grado n que interpola a f
en n + 1 puntos distintos cualesquiera de dicho intervalo. Demostrar que para todo
x ∈ [0, 5],
[P
n
(x) −f(x)[ ≤
32.5
n+1
(n + 1)!
(7) Sea f una funci´on C

tal que para todo k ∈ IN y para todo x ∈ [a, b] se tiene:
[f
k
(x)[ ≤ C
k
k!
Mostrar que, si 0 < C <
1
b −a
y P
n
en un polinomio de grado n que interpola a f en
n+1 puntos distintos, entonces P
n
converge a f uniformemente, es decir, |f−P
n
|

→ 0
cuando n tiende a ∞.
(8) Sea f : [−1, 1] → IR, f(x) =
1
a +x
. Sean (x
n
)
n≥0
una sucesi´on arbitraria de puntos en
[−1, 1] y P
n
(x) el polinomio que interpola a f(x) en x
0
, x
1
, . . . , x
n
. Demostrar que si
a > 3 entonces P
n
converge a f uniformemente.
(9) (a) Dado el intervalo [a, b], sea m el punto medio entre a y b y sea h < (b −a)/2. Sea
p = m−h y q = m+h. Demostrar que para todo x en [a, b],
[(x −p)(x −q)[ ≤
(b −a)
2
4
.
(b) Sean x
0
= a, . . . , x
i
= x
0
+
b−a
n
, . . . , x
n
= b, n + 1 puntos equiespaciados en el
intervalo [a, b]. Demostrar que para todo x en [a, b],
[(x −x
0
) . . . (x −x
n
)[ ≤
(b −a)
n+1
2
n+1
.
(10) Sea f : [−π, π] → IR, f(x) = sin(x). Sea P
n
un polinomio de grado n que interpola a f
en n + 1 puntos equiespaciados en dicho intervalo.
(a) Demostrar que para todo x ∈ [−π, π]
[P
n
(x) −f(x)[ ≤
π
n+1
(n + 1)!
(b) Concluir que P
n
converge uniformemente a f.
(11) Sea f : [0, 1] → IR, f(x) = sin(πx) +e
x
. Sea P
n
el polinomio de grado n que interpola
a f en n + 1 puntos equiespaciados.
(a) Usando el ejercicio 9, acotar el error |f −P
n
|

.
(b) Sea C
n
la cota hallada en (a). Para n = 1, 3, 5 graficar simult´aneamente f, f +C
n
,
f −C
n
y P
n
.
(12) Dado un intervalo [a, b], decidir como tienen que estar distribuidos n + 1 nodos x
0
<
x
1
< < x
n
en el intervalo de modo que exista x ∈ [a, b] tal que
[(x −x
0
) . . . (x −x
n
)[ ∼ (b −a)
n+1
.
7. EJERCICIOS 109
(13) Calcular el grado m´ınimo n que debe tener un polinomio P
n
que interpola en los ceros
de T
n+1
a la funci´on f(x) = e
2x
, x ∈ [−1, 1], para que el error |f −P
n
|

≤ 10
−2
.
(14) Repetir el ejercicio anterior para f(x) = e
x
, x ∈ [0, 4].
(15) Para n = 5, 10, 15; graficar simult´aneamente el polinomio W
n+1
(x) =

n
i=0
(x − x
i
),
donde x
i
= −1 + 2i/n; i = 0, . . . , n y el polinomio de Tchebychev T
n+1
.
(16) Repetir los Ejercicios 4 y 5 usando los polinomios que interpolan a la funci´on f en los
ceros del polinomio de Tchebychev de grado n + 1, para n = 5, 10, 15.
(17) Utilizar el m´etodo de coeficientes indeterminados para hallar un polinomio p de grado
2 que satisfaga:
p(1) = 0, p

(1) = 7, p(2) = 10
(18) (a) Sea f(x) = cos(πx), hallar un polinomio de grado menor o igual que 3 que verifique
p(−1) = f(−1), p(0) = f(0), p(1) = f(1), p

(1) = f

(1).
(b) Hallar un polinomio de grado menor o igual que 4 que verifique las condiciones del
item anterior, m´as la condici´on
p

(1) = f

(1).
(19) Sea f : [−1, 1] → IR la funci´on f(x) = e
2x−1
y sean x
0
< x
1
< . . . < x
n
los ceros
del polinomio de Tchebychev, T
n+1
. Se interpola a f con un polinomio P de grado
≤ n + 1 de modo que P(x
0
) = f(x
0
), P(x
1
) = f(x
1
), . . . , P(x
n
) = f(x
n
) y adem´as
P

(x
n
) = f

(x
n
). Probar que si n ≥ 6 entonces, el error cometido en la interpolaci´on
sobre el intervalo [−1, 1] es menor que 10
−3
.
(20) Para ilustrar qu´e pasa cuando se desea interpolar no s´olo una funci´on sino tambi´en sus
derivadas, consideramos el problema de hallar p de grado a lo sumo 3 que verifique:
(a) p(0) = 1, p

(0) = 1, p

(1) = 2, p(2) = 1;
(b) p(−1) = 1, p

(−1) = 1, p

(1) = 2, p(2) = 1;
(c) p(−1) = 1, p

(−1) = −6, p

(1) = 2, p(2) = 1.
Usando el m´etodo de coeficientes indeterminados, demostrar que el problema (a)
tiene soluci´on ´ unica, el problema (b) no tiene soluci´on, y el problema (c) tiene infinitas
soluciones.
(21) Analizar para que valores de x
0
, x
1
, x
2
, y α
0
, α
1
, α
2
existe un polinomio de grado 2
que satisface:
p(x
0
) = α
0
, p(x
1
) = α
1
, p

(x
2
) = α
2
.
(22) Sea f ∈ C
2
[a, b], y sean x
0
= a, x
1
= a+h, . . . , x
n
= b, donde h = (b−a)/n. Considerar
la poligonal l(x)que interpola a f en los puntos x
i
, i = 0 . . . n. Probar que
(a)
[f(x) −l(x)[ ≤
h
2
2
max
x∈[a,b]
[f

(x)[
(b)
[f

(x) −l

(x)[ ≤ h max
x∈[a,b]
[f

(x)[
(23) (a) Determinar valores de α, β y γ en IR para que S sea una funci´on spline c´ ubica,
siendo:
S(x) =
_
αx
3
+γx, 0 ≤ x ≤ 1
−αx
3
+βx
2
−5αx + 1, 1 ≤ x ≤ 2.
110 5. INTERPOLACI
´
ON
(b) Con los valores de α, β y γ obtenidos en el ´ıtem anterior, decidir si S interpola a
la funci´on f(x) = 2
x
+0.5x
2
−0.5x−1, 0 ≤ x ≤ 2 respecto de la partici´on ¦0, 1, 2¦.
(c) Graficar simult´aneamente f y S en el intervalo [0, 2].
(24) Sea f como en el Ejercicio 4. Utilizando Matlab, graficar la funci´on f junto con
una spline c´ ubica que la interpole en la red ¦−1, −0.75, . . . , 0.75, 1¦, tomando como
condiciones de borde las derivadas de f.
(25) Encontrar una funci´on del tipo 2
ax
3
+bx
2
+cx+d
que interpole la siguiente tabla de datos:
x -1 0 1 2
y 1 1 0.5 4
(26) Utilizando Matlab, encontrar y graficar una funci´on del tipo e
a
4
x
4
+a
3
x
3
+···+a
0
que in-
terpole a la funci´on f(x) = 1/x en 5 nodos equiespaciados en el intervalo [1, 10].
CAP´ıTULO 6
Polinomios ortogonales y aproximaci´on por cuadrados m´ınimos.
En el cap´ıtulo anterior hemos discutido como aproximar una funci´on por polinomios que in-
terpolan a la funci´on misma y/o a sus derivadas en algunos puntos. Hasta ahora, los m´etodos
analizados nos permiten construir polinomios de grado n a partir de n +1 datos. Cierto es que,
en un problema a modelizar, cu´antos m´as datos se conocen es de esperar que se pueda lograr
mayor precisi´on. Pero, como vimos, muchas veces polinomios de alto grado producen efectos no
deseados como por ejemplo grandes oscilaciones. En este cap´ıtulo consideraremos otra forma de
aproximar funciones conocida como el m´etodo de cuadrados m´ınimos. Este m´etodo nos permi-
tir´a, cuando se trate de aproximar por polinomios, contemplar una tabla de valores sin sujetar
el grado del polinomio a la cantidad de datos. Tambi´en ser´a posible considerar funciones m´as
generales que ajusten de manera natural los valores predeterminados.
En general, en esta clase de problemas uno sabe a priori a qu´e tipo de funci´on corresponden
los datos. Una situaci´on frecuente es la de aproximar una tabla de m´as de dos valores por una
recta (como muestra la Figura 6.1). Es decir, se tienen valores (x
i
, y
i
), i = 0, . . . , n y se quiere
encontrar una recta que ajuste estos datos lo mejor posible. Si escribimos la ecuaci´on de la recta
como y = mx + b nuestro problema consiste en encontrar valores de m y b que hagan que el
error [y
i
− (mx
i
+ b)[ sea lo mas chico posible para todo i. Por ejemplo, una manera de lograr
esto ser´ıa pedir que m y b minimicen
max
0≤i≤n
[y
i
−(mx
i
+b)[
o tambi´en podr´ıamos pedir que minimicen
n

i=0
[y
i
−(mx
i
+b)[ o
n

i=0
[y
i
−(mx
i
+b)[
2
.
De todas estas opciones es usual considerar la ´ ultima, llamada “aproximaci´on por cuadrados
m´ınimos”, debido a que es la m´as simple ya que el problema se reduce a resolver ecuaciones
lineales.
En este cap´ıtulo estudiaremos distintos m´etodos para resolver ´este y otros problemas. Como
en general los valores de y
i
corresponden a datos de una funci´on f, podemos plantear estos
problemas en el contexto de aproximaci´on de funciones. Dada una funci´on f consideramos:
112 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Figura 6.1. Aproximaci´on de 10 valores por una recta
Problema A. Dados w
0
, . . . , w
n
constantes positivas (pesos), m < n y valores (x
i
, f(x
i
)), con
i = 0, . . . , n se trata de hallar p ∈ T
m
que minimice
n

i=0
w
i
(p(x
i
) −f(x
i
))
2
.
Problema B. Dada w(x) una funci´on positiva en [a, b], dada f y m ∈ IN se trata de hallar
p ∈ T
m
que minimice
_
b
a
w(x)(f(x) −p(x))
2
dx.
1. Preliminares
Nos dedicaremos especialmente al estudio de aproximaciones por polinomios. Comenzamos esta
secci´on presentando un resultado cl´asico de Weierstrass que muestra que toda funci´on continua
puede aproximarse uniformemente por polinomios, en todo intervalo cerrado y acotado.
Teorema 6.1. (Weierstrass) Sea f ∈ C[a, b]. Para todo ε > 0 existe un polinomio p tal que
|f −p|

< ε
Demostraci´ on. Damos la demostraci´on para el intervalo [0, 1], el caso general se obtiene f´acilmente
mediante un cambio de variables.
1. PRELIMINARES 113
Definimos los polinomios de Bernstein,
B
n
f(x) =
n

k=0
_
n
k
_
f
_
k
n
_
x
k
(1 −x)
n−k
y vamos a demostrar que B
n
f converge uniformemente a f en el intervalo [0, 1]. Para eso
necesitaremos calcular B
n
h
j
para h
j
(x) = x
j
, j = 0, 1, 2.
Usando la f´ormula del binomio de Newton, se tiene:
B
n
h
0
(x) =
n

k=0
_
n
k
_
x
k
(1 −x)
n−k
= (x + 1 −x)
n
= 1.
B
n
h
1
(x) =
n

k=0
_
n
k
_
k
n
x
k
(1 −x)
n−k
=
n

k=1
_
n −1
k −1
_
x
k
(1 −x)
n−k
= x
n

k=1
_
n −1
k −1
_
x
k−1
(1 −x)
n−k
= x(x + 1 −x)
n−1
= x.
B
n
h
2
(x) =
n

k=0
_
n
k
__
k
n
_
2
x
k
(1 −x)
n−k
=
n

k=0
_
n −1
k −1
_
k
n
x
k
(1 −x)
n−k
=
n

k=0
_
n −1
k −1
__
n −1
n
k −1
n −1
+
1
n
_
x
k
(1 −x)
n−k
=
n −1
n
x
2
n

k=2
_
n −2
k −2
_
x
k−2
(1 −x)
n−k
+
x
n
=
n −1
n
x
2
(x + 1 −x)
n−2
+
x
n
= x
2
+
x(1 −x)
n
.
Dado y ∈ IR consideremos la funci´on g
y
(x) = (x −y)
2
. Desarrollando (x −y)
2
= x
2
−2xy +y
2
y usando que B
n
es lineal (o sea, B
n
(f
1
+f
2
) = B
n
f
1
+B
n
f
2
y B
n
(kf) = kB
n
f) se obtiene
B
n
g
y
(x) = g
y
(x) +
x(1 −x)
n
. (6.1)
Por otra parte, como toda funci´on continua en un intervalo cerrado es uniformemente continua,
dado ε > 0, existe δ > 0 tal que,
[f(x) −f(y)[ ≤ ε si [x −y[ < δ.
Adem´as, para los x, y tales que [x −y[ ≥ δ se tiene
114 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
[f(x) −f(y)[ ≤ 2|f|


2|f|

δ
2
(x −y)
2
.
Luego, para todo x, y, podemos asegurar que,
[f(x) −f(y)[ ≤ ε +
2|f|

δ
2
(x −y)
2
es decir,
−ε −
2|f|

δ
2
(x −y)
2
≤ f(x) −f(y) ≤ ε +
2|f|

δ
2
(x −y)
2
.
Ahora, si f
1
≤ f
2
, de la definici´on de B
n
puede verse que B
n
f
1
≤ B
n
f
2
; esto es B
n
preserva el
orden. En consecuencia, aplicando B
n
en la desigualdad anterior, teniendo en cuenta (6.1), y
recordando que B
n
es lineal y que B
n
1 = 1 se obtiene (tener presente que hasta aqu´ı estamos
considerando y como una constante),
[B
n
f(x) −f(y)[ ≤ ε +
2|f|

δ
2
(x −y)
2
+
2|f|

δ
2
x(1 −x)
n
y por lo tanto, evaluando ambos lados de la desigualdad en y, resulta
[B
n
f(y) −f(y)[ ≤ ε +
2|f|

δ
2
y(1 −y)
n
y por lo tanto
[B
n
f(y) −f(y)[ ≤ 2ε
para n suficientemente grande independientemente de y, es decir que B
n
f converge uniforme-
mente a f en el [0, 1].
Los Problemas A y B se enmarcan dentro de la teor´ıa de espacios con producto interno. El
producto interno no s´olo permite definir distancia entre vectores, como vimos que se puede
hacer mediante la noci´on de norma; sino que, adem´as, permite introducir el concepto de ´angulo
entre vectores y por tanto tiene sentido hablar de ortogonalidad.
Definici´ on 6.2. Sea V un IR espacio vectorial. Un producto interno (o producto escalar) sobre
V es una funci´on ¸., .) : V V → IR que asigna a cada par de vectores un n´ umero real de manera
tal que, para todo x, y, z ∈ V y todo α ∈ IR se satisfacen las propiedades:
(i) ¸x +y, z) = ¸x, z) +¸y, z);
(ii) ¸αx, y) = α¸x, y);
(iii) ¸x, y) = ¸y, x);
(iv) ¸x, x) > 0 si x ,= 0.
1. PRELIMINARES 115
Ejemplos 6.3. (1) El producto interno usual en IR
n
, para x = (x
1
, . . . , x
n
); y = (y
1
, . . . , y
n
),
est´a dado por
¸x, y) =
n

j=1
x
j
y
j
.
Es f´acil ver (queda como ejercicio) que se satisfacen todas las condiciones de la defini-
ci´on.
(2) Otros productos internos para IR
n
similares al usual son los dados por pesos w
j
> 0
para j = 1, . . . , n:
¸x, y)
w
=
n

j=1
w
j
x
j
y
j
.
Ahora, si definimos la matriz D
w
∈ IR
n×n
como:
D
w
=
_
_
_
_
_
w
1
0 . . . 0
0 w
2
. . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . w
n
_
_
_
_
_
el producto interno con pesos (w
j
)
n
j=1
puede darse a trav´es del producto interno usual
¸. , . ) y la matriz D
w
,
¸x, y)
w
=
n

j=1
w
j
x
j
y
j
= ¸x, D
w
y).
(3) Si V = C[0, 1] es el espacio de funciones continuas y f, g ∈ V ,
¸f, g) =
_
1
0
f(x)g(x) dx,
define un producto interno. Las condiciones (i)-(iii) se satisfacen gracias a la linealidad
del producto y de la integral. Para asegurar que vale la condici´on (iv) basta ver que la
integral de una funci´on no negativa y continua, g = f
2
, s´olo puede ser nula si la funci´on
lo es. En efecto, supongamos que existe un x
0
∈ [0, 1] para el cual g(x
0
) = δ > 0.
Ahora, por continuidad, existe un subintervalo [a, b] tal que, para todo x ∈ [a, b] es
g(x) >
δ
2
y por ser g no negativa se tiene
_
1
0
g(x) dx ≥
_
b
a
g(x) dx >
δ
2
(b −a) > 0,
lo que es una contradicci´on.
(4) Otros productos internos para espacios de funciones son los dados por una funci´on de
peso w, con w(x) > 0 para todo x ∈ (a, b):
¸f, g) =
_
b
a
f(x)g(x)w(x) dx.
116 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
En los espacios vectoriales con producto interno se tiene la norma inducida por dicho producto:
|x| = ¸x, x)
1
2
, para todo x ∈ V.
No es inmediato ver que con esta definici´on se obtiene efectivamente una norma. Esto es posible
gracias a la siguiente desigualdad.
Proposici´ on 6.4. (Desigualdad de Cauchy - Schwarz) Si ¸., .) es un producto interno sobre
un espacio vectorial V , entonces
[¸x, y)[ ≤ ¸x, x)
1
2
¸y, y)
1
2
para todo x, y ∈ V.
Demostraci´ on. Sean x, y ∈ V dos vectores fijos. Si ¸y, y) = 0, no hay nada que probar.
Supongamos entonces que ¸y, y) ,= 0.
Para cada t ∈ IR consideramos x −ty, entonces
0 ≤ ¸x −ty, x −ty)
= ¸x, x) −t¸x, y) −t¸y, x) +t
2
¸y, y)
= ¸x, x) −2t¸x, y) +t
2
¸y, y)
= c −2bt +at
2
= p(t).
De esta manera se obtiene una funci´on cuadr´atica donde a = ¸y, y), b = ¸x, y) y c = ¸x, x).
Como p(t) ≥ 0 para todo t ∈ IR, esta cuadr´atica tiene a lo sumo una ra´ız real y por lo tanto
4b
2
−4ac ≤ 0. Luego,
0 ≥ b
2
−ac = ¸x, y)
2
−¸x, x)¸y, y)
de donde se sigue el resultado.
Corolario 6.5. Si ¸., .) es un producto interno sobre un espacio vectorial V , entonces
|x| = ¸x, x)
1
2
define una norma sobre V .
Demostraci´ on. La ´ unica dificultad est´a en probar la desigualdad triangular, para eso notemos
que dados x, y ∈ V se tiene,
|x +y|
2
= ¸x +y, x +y)
= |x|
2
+ 2¸x, y) +|y|
2
.
Usando la desigualdad de Cauchy - Schwarz vale, ¸x, y) ≤ [¸x, y)[ ≤ |x||y|. Luego,
|x +y|
2
≤ |x|
2
+ 2|x||y| +|y|
2
= (|x| +|y|)
2
1. PRELIMINARES 117
La desigualdad triangular se obtiene al tomar ra´ız cuadrada.
La norma asociada al producto escalar usual en IR
2
o IR
3
definido en el Ejemplo 6.3 (1) corres-
ponde a la norma |x|
2
y da la longitud del vector x. Recordemos adem´as que este producto
escalar puede escribirse, para x e y no nulos, en t´erminos de las longitudes de ambos vectores y
de θ, el ´angulo entre ´estos, a saber,
¸x, y) = |x||y| cos θ.
En particular, x e y son ortogonales si y solo si ¸x, y) = 0.
La gran ventaja de trabajar en espacios con producto interno es que se puede generalizar esta
noci´on de ortogonalidad.
Notar que la desigualdad de Cauchy - Schwartz da, para todo x, y ,= 0
[¸x, y)[
|x||y|
≤ 1.
Esto permite definir el ´angulo entre dos vectores x, y no nulos mediante la funci´on coseno. Es
decir θ ∈ [0, π] ser´a el ´angulo entre x e y si verifica
cos(θ) =
¸x, y)
|x||y|
.
Luego resulta natural la siguiente definici´on.
Definici´ on 6.6. Si V es un espacio con producto interno ¸., .), se dice que x e y son ortogonales
si ¸x, y) = 0. En este caso suele notarse x ⊥ y.
Definici´ on 6.7. Dos conjuntos A, B ⊂ V se dicen ortogonales (A ⊥ B) si x ⊥ y para todo
x ∈ A e y ∈ B.
El siguiente teorema relaciona los problemas de aproximaci´on que queremos estudiar con la
noci´on de ortogonalidad.
Teorema 6.8. Dados S un subespacio de un espacio V con producto interno, x ∈ V e y ∈ S,
son equivalentes:
(1) |x −y| = min
s∈S
¦|x −s|¦
(2) ¸x −y, s) = 0, ∀s ∈ S.
Adem´as, un elemento y ∈ S que verifique alguna de las propiedades anteriores es ´ unico.
Demostraci´on. Veamos primero que (1) implica (2). Sabemos que y ∈ S minimiza la distancia
de x a S. Como S es un subespacio, se tiene que y +s ∈ S para todo s ∈ S, y por lo tanto,
|x −y|
2
≤ |x −(y +s)|
2
= |(x −y) −s)|
2
= |x −y|
2
−2¸x −y, s) +|s|
2
.
118 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
As´ı,
2¸x −y, s) ≤ |s|
2
para todo s ∈ S. Si ahora consideramos t ∈ IR y s ∈ S se tiene que ts ∈ S y de la desigualdad
anterior obtenemos
2¸x −y, ts) ≤ |ts|
2
2t¸x −y, s) ≤ t
2
|s|
2
para todo t ∈ IR y para todo s ∈ S. Para los t > 0 tenemos 2¸x−y, s) ≤ t|s|
2
y haciendo t → 0
queda 2¸x −y, s) ≤ 0. Los t < 0 dan la otra desigualdad, 0 ≤ 2¸x −y, s); de d´onde
¸x −y, s) = 0 para todo s ∈ S.
Para ver que (2) implica (1), supongamos que y ∈ S es tal que x−y ⊥ s para todo s ∈ S. Como
S es un subespacio x −y ⊥ y −s para todo s ∈ S. Luego,
|x −s|
2
= |(x −y) + (y −s)|
2
= |x −y|
2
+|y −s|
2
≥ |x −y|
2
.
Tomando ra´ız cuadrada se obtiene que |x −y| = min
s∈S
¦|x −s|¦.
Nos queda mostrar que no puede haber m´as de un elemento que cumpla las condiciones (1) o
(2). Para esto, veamos que si y, ¯ y ∈ S verifican (2) entonces, y = ¯ y. En efecto, para cada s ∈ S
fijo se tiene
¸x −y, s) = 0, y ¸x − ¯ y, s) = 0,
luego, restando miembro a miembro, queda
¸¯ y −y, s) = 0,
en particular, tomado s = ¯ y −y ∈ S obtenemos |¯ y −y| = 0 de d´onde ¯ y = y.
Veremos m´as adelante que cuando S es de dimensi´on finita siempre existe y en las condiciones
del teorema anterior. Este y se llama proyecci´on ortogonal de x sobre S.
2. Soluci´on de los Problemas de Aproximaci´on
Ahora s´ı, estamos en condiciones de describir los m´etodos para hallar las soluciones de los
problemas A y B planteados. En lo que sigue de este cap´ıtulo trabajaremos sobre espacios con
un producto interno.
El primer problema se puede reformular de la siguiente manera: Se considera en IR
n
el producto
escalar dado por los pesos w
0
, . . . , w
n
, es decir,
¸x, y) =
n

i=1
x
i
y
i
w
i
.
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 119
Para los datos (x
i
, f(x
i
)), se quiere encontrar un polinomio p ∈ T
m
con n > m+1 que minimice
la distancia entre los vectores (f(x
1
), . . . , f(x
n
)) y (p(x
1
), . . . , p(x
n
)) en la norma asociada al
producto escalar.
Si p(x) = a
m
x
m
+. . . +a
1
x +a
0
entonces
_
_
_
_
_
p(x
1
)
p(x
2
)
.
.
.
p(x
n
)
_
_
_
_
_
=
_
_
_
_
_
1 x
1
x
m
1
1 x
2
x
m
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
m
n
_
_
_
_
_
_
_
_
_
_
a
0
a
1
.
.
.
a
m
_
_
_
_
_
(6.2)
Ahora, llamando b = (f(x
1
), . . . , f(x
n
)) el problema se reduce a encontrar un vector a =
(a
0
, . . . , a
m
) ∈ IR
m+1
que minimice
|Aa −b|,
donde A ∈ IR
n×(m+1)
es la matriz de 6.2.
En forma gen´erica el problema puede plantearse de la siguiente manera:
Dada A ∈ IR
n×m
y b ∈ IR
n
se quiere hallar x tal que
|Ax −b|
sea lo menor posible.
Considerando el subespacio S:
S = ¦y ∈ IR
n
, y = Ax, para alg´ un x ∈ IR
m
¦
el problema se transforma en hallar y ∈ S tal que
|y −b| ≤ |s −b| para todo s ∈ S
y luego x tal que Ax = y.
En el caso del producto interno usual, es decir ¸x, y) =

n
j=1
x
j
y
j
, la soluci´on de este problema
puede obtenerse resolviendo las llamadas ecuaciones normales que pueden obtenerse f´acilmente
a partir del Teorema 6.8 como veremos en el teorema que sigue. Recordemos que A
T
denota la
matriz traspuesta de A.
Lema 6.9. Sea A ∈ IR
n×m
, x ∈ IR
n
, y ∈ IR
m
. Si ¸ . , . ) indica el producto interno usual (tanto
en IR
n
como en IR
m
) entonces,
¸A
T
y, x) = ¸y, Ax)
120 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Demostraci´ on.
¸A
T
y, x) =
n

i=1
_
_
m

j=1
a
ji
y
j
_
_
x
i
=
m

j=1
y
j
_
n

i=1
a
ji
x
i
_
= ¸y, Ax)
Teorema 6.10. Sea A ∈ IR
n×m
y b ∈ IR
n
. Si ¸ . , . ) indica el producto interno usual (tanto en
IR
n
como en IR
m
) entonces, son equivalentes
(1) x
0
∈ IR
m
minimiza |Ax −b|
(2) x
0
es soluci´on del sistema A
T
Ax = A
T
b.
Adem´ as, si los vectores columnas de la matriz A son linealmente independientes, existe x
0
solu-
ci´on del sistema A
T
Ax = A
T
b y es ´ unico.
Demostraci´ on. Considerando el subespacio S = ¦y ∈ IR
n
, y = Ax, para x ∈ IR
m
¦, por el
Teorema 6.8 y ∈ S es tal que |b − y| = min
s∈S
¦|b − s|¦ si y solo si ¸b − y, s) = 0 para todo
s ∈ S. Como y ∈ S existe x
0
∈ IR
m
tal que y = Ax
0
y s = Ax, con x variando en IR
m
, luego la
condici´on ¸b −y, s) = 0 para todo s ∈ S podemos reescribirla
¸b −Ax
0
, Ax) = 0 ∀ x ∈ IR
m
,
o equivalentemente, por el Lema 6.9,
0 = ¸A
T
(b −Ax
0
), x) = ¸A
T
b −A
T
Ax
0
), x) ∀ x ∈ IR
m
,
lo que ocurre si y solo si A
T
Ax
0
= A
T
b.
Para mostrar la existencia y unicidad de un elemento x
0
que cumpla con el enunciado, llamemos
A
j
∈ IR
n
a los vectores columna de la matriz A, para j = 1, . . . , m.
Si x = (x
1
, x
2
, . . . , x
m
) el vector Ax puede escribirse en t´erminos de las columnas de A por
Ax =

m
j=1
A
j
x
j
. Luego, si las columnas de A son linealmente independientes resulta Ax = 0
si y solo si x = 0. Veamos que esto implica que A
T
A es una matriz inversible. En efecto, si
A
T
Ax = 0 entonces ¸A
T
Ax, x) = 0, y por el Lema 6.9 tenemos que ¸Ax, Ax) = 0. Es decir
|Ax|
2
= 0, con lo cual Ax = 0 y por tanto x = 0.
Como la ´ unica soluci´on del sistema A
T
Ax = 0 es la trivial, se deduce que A
T
A es inversible y
hay una ´ unica soluci´on para el sistema A
T
Ax = A
T
b.
Observaci´ on 6.11. Si el producto interno no es el usual sino que viene dado por pesos w
j
, o
sea, ¸x, y)
w
=

n
j=1
w
j
x
j
y
j
, entonces x
0
∈ IR
m
minimiza |Ax − b|
w
si y solo si x
0
es soluci´on
del sistema A
T
D
w
Ax = A
T
D
w
b.
La demostraci´on es an´aloga a la del teorema anterior considerando la escritura ¸x, y)
w
= ¸x, D
w
y)
(ver Ejemplo 6.3 (b)).
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 121
Notemos que si el problema original
Ax = b
tiene una soluci´on exacta x, este x tambi´en es soluci´on de
A
T
Ax = A
T
b
Este sistema de m m puede resolverse por el m´etodo de eliminaci´on de Gauss o bien por
m´etodos iterativos.
Ejemplo 6.12. Veamos un ejemplo sencillo, como presentamos a trav´es de la Figura 6.1. Se
quiere trazar una recta (p(x) = a
0
+a
1
x) que aproxime los puntos
(a
j
): 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
(y
j
): 0.35 0.5 0.45 0.55 0.6 0.1 0.9 0.75 0.8 0.8
Siguiendo (6.2) el sistema a resolver es:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0.1
1 0.2
1 0.3
1 0.4
1 0.5
1 0.6
1 0.7
1 0.8
1 0.9
1 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
0
a
1
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0.35
0.5
0.45
0.55
0.6
0.1
0.9
0.75
0.8
0.8
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Que, despu´es de multiplicar por la transpuesta de A, queda
_
10 5.5
5.5 3.85
__
a
0
a
1
_
=
_
5.8
3.6
_
La soluci´on es
a
1
= 0.497
a
0
= 0.3067
Es decir la recta que mejor aproxima, en el sentido de minimizar

(f(x
i
) −p(x
i
))
2
, a f en los
puntos dados es
p(x) = 0.497x + 0.3067
122 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Esta forma de resolver no puede aplicarse, en general, para resolver el problema B. Para abordar
esta clase de problemas necesitamos desarrollar m´as teor´ıa relacionada con el producto interno
y la idea de ortogonalizaci´on. Es decir, vamos a dar una descripci´on de la soluci´on a trav´es de
la proyecci´on ortogonal sobre un subespacio.
Definici´ on 6.13. Un subconjunto A de un espacio vectorial V se dice ortonormal si A es
ortogonal y adem´as ¸f, f) = 1 para cualquier f ∈ A.
Si se considera en el espacio V una base ortonormal B = ¦v
1
, . . . , v
n
¦ cada elemento x ∈ V
admite una ´ unica escritura de la forma
x =
n

i=1
x
i
v
i
.
La ventaja de trabajar con una base ortonormal es que podemos describir f´acilmente los escalares
x
i
en t´erminos de x y de la base. En efecto, tenemos
¸x, v
k
) = ¸
n

i=1
x
i
v
i
, v
k
) =
n

i=1
x
i
¸v
i
, v
k
) = x
k
.
Luego,
x =
n

i=1
¸x, v
i
)v
i
.
Ahora, dado un subespacio S de dimensi´on finita de V , una base ortonormal de S puede en-
contrarse a partir de una base dada de S mediante el proceso de ortonormalizaci´on de Gram-
Schmidt que damos en el siguiente teorema.
Teorema 6.14. Dada una base de S,
B
S
= ¦r
1
, r
2
, . . . , r
m
¦,
se consideran
u
1
= r
1
, v
1
= u
1
/|u
1
|.
y, para k = 2, . . . , m,
u
k
= r
k

k−1

i=1
¸r
k
, v
i
)v
i
, y v
k
= u
k
/|u
k
|.
Entonces, el conjunto ¦u
1
, . . . , u
m
¦ es ortogonal y el conjunto ¦v
1
, . . . , v
m
¦ es una base ortonor-
mal del subespacio S.
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 123
Demostraci´on. Se hace por inducci´on.
Con el siguiente teorema demostramos la existencia de la proyecci´on ortogonal sobre S un
subespacio de V , cuando S tienen dimensi´on finita.
Teorema 6.15. Dado x ∈ V y un subespacio S ⊂ V de dimension finita, existe un ´ unico y ∈ S
que satisface
¸x −y, s) = 0, ∀s ∈ S. (6.3)
Demostraci´on. Sea ¦v
1
, . . . , v
m
¦ una base ortonormal de S (que sabemos que existe gracias al
Teorema 6.14). Veamos que el elemento y ∈ S buscado es
y =
m

i=1
¸x, v
i
)v
i
. (6.4)
En efecto, es claro que y ∈ S ya que es una combinaci´on lineal de elementos de la base y. Por
otra parte, para verificar (6.3) es suficiente ver que se cumple para s = v
j
, j = 1, . . . , m. Pero
¸x −y, v
j
) = ¸x, v
j
) −¸
m

i=1
¸x, v
i
)v
i
, v
j
) = ¸x, v
j
) −¸x, v
j
) = 0
donde en el ´ ultimo paso hemos usado la ortonormalidad de la base. La unicidad la probamos
en el Teorema 6.8
El teorema anterior nos permite definir una aplicaci´on
P : V −→ S
que a cada elemento x ∈ V le asigna Px ∈ S de tal forma que
¸x −Px, s) = 0, ∀s ∈ S
generalizando a espacios con producto interno la noci´on de proyecci´on ortogonal conocida en
IR
n
. Teniendo en cuenta el Teorema 6.8, Px nos da la mejor aproximaci´on a x por elementos
del subespacio S en la norma asociada al producto interno.
Estos resultados nos permiten encontrar la mejor approximaci´on a una funci´on continua por
polinomios de un grado dado, en la norma asociada a un producto interno. Para esto basta
considerar el espacio V = C[a, b] y el subespacio S = T
n
.
Aplicando el proceso de ortogonalizaci´on dado en el Teorema 6.14 a la base can´onica de T
n
,
es decir B = ¦1, x, x
2
, . . . , x
n
¦, en un producto interno dado, obtenemos los polinomios ortogo-
nales q
k
asociados a dicho producto y los correspondientes polinomios ortonormales p
k
. Estos
polinomios est´an dados por,
124 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
q
0
(x) = 1, p
0
(x) = 1/|q
0
|.
y, definiendo h
k
(x) = x
k
, para k = 1, . . . , n,
q
k
(x) = x
k

k−1

i=1
¸h
k
, p
i
)p
i
(x), y p
k
(x) = q
k
(x)/|q
k
|.
Observemos que, como este procedimiento puede hacerse para cualquier n ∈ IN lo que se obtiene
es una sucesi´on de polinomios ortogonales q
0
, q
1
, . . . , q
n
, . . . cuyas propiedades b´asicas resumimos
en el siguiente teorema.
Teorema 6.16. Dado el espacio V = C[a, b] con un producto interno, los polinomios ortogonales
q
0
, q
1
, . . . , q
n
, . . . obtenidos mediante el proceso de Gram-Schmidt aplicado a la base can´onica
dada por las potencias satisfacen las siguientes propiedades. Para todo k ∈ IN
0
,
(1) q
k
es un polinomio m´onico de grado k.
(2) ¦q
0
, q
1
, . . . , q
k
¦ es una base ortogonal de T
k
.
(3) q
k
es ortogonal a todo polinomio de grado menor que k.
Las conclusiones del teorema son v´alidas si se considera la base can´onica de T
k
: B = ¦1, x, x
2
, . . . , x
k
¦.
El orden en que se toman los elementos es importante. La demostraci´on se sigue de todo lo an-
terior y por tanto la omitimos.
En lo que sigue consideramos fijado el producto interno y usamos la notaci´on p
k
para indicar la
sucesi´on de polinomios ortonormales asociados a dicho producto, es decir p
k
= q
k
/|q
k
|. Una vez
obtenidos estos polinomios podemos encontrar la mejor aproximaci´on a una funci´on continua
utilizando la teor´ıa general que hemos visto. En efecto, tenemos
Teorema 6.17. Si f ∈ C[a, b] entonces el polinomio p

n
∈ T
n
que satisface
|f −p

n
| ≤ |f −p|, ∀p ∈ T
n
,
est´a dado por p

n
= Pf, donde P : C[a, b] −→ T
n
es la proyecci´on ortogonal, o sea,
p

n
=
n

i=0
¸f, p
i
)p
i
,
Demostraci´ on. Se sigue del Teorema 6.4.
Observemos que esto resuelve simult´aneamente los problemas A y B. Para resolver cualquiera
de los dos hay que, primero generar los polinomios ortonormales p
j
y luego calcular ¸f, p
i
). En
el caso continuo (problema B) aplicamos la teor´ıa trabajando en el espacio de dimensi´on infinita
C[a, b] mientras que en el caso discreto (problema A) trabajamos en el espacio de dimensi´on finita
IR
n+1
identificando a los valores de una funci´on continua f con el vector (f(x
0
), . . . , f(x
n
)). De
esta forma se tiene un procedimiento alternativo al dado en el Teorema 6.10 para el problema
discreto. En algunos casos el m´etodo basado en el uso de los polinomios ortogonales resulta
mejor respecto de la propagaci´on de errores de redondeo.
2. SOLUCI
´
ON DE LOS PROBLEMAS DE APROXIMACI
´
ON 125
El teorema de Weierstrass nos permite demostrar que el error entre la f y su mejor aproxi-
maci´on en la norma asociada al producto interno tiende a cero cuando el grado del polinomio
aproximante tiende a infinito. Este es el objetivo del siguiente teorema.
Teorema 6.18. Si el producto interno en C[a, b] est´a dado por
¸f, g) =
_
b
a
f(x)g(x)w(x)dx
donde w es una funci´on positiva e integrable en (a, b) entonces,
p

n
−→ f cuando n −→ ∞.
Demostraci´on. Por el teorema de Weierstrass, dado ε > 0 existe un polinomio p ∈ T
n
(n depende
de ε) tal que
max
a≤x≤b
[f(x) −p(x)[ = |f −p|

< ε.
Entonces
|f −p

n
|
2
≤ |f −p|
2
=
_
b
a
w(x)(f(x) −p(x))
2
dx
≤ |f −p|
2

_
b
a
w(x) dx ≤ ε
2
_
b
a
w(x) dx.
Por lo tanto,
lim
n→∞
|f −p

n
| = 0.
Corolario 6.19. (Igualdad de Parseval) Para un producto interno como el del teorema
anterior se tiene,
|f|
2
=

j=0
¸f, p
j
)
2
Demostraci´on. Recordemos que p

n
=

n
i=0
¸f, p
i
)p
i
, y por lo tanto
|p

n
|
2
=
n

j=0
¸f, p
j
)
2
.
Entonces, de la ortogonalidad entre f −p

n
y p

n
se obtiene
|f|
2
= |f −p

n
|
2
+|p

n
|
2
= |f −p

n
|
2
+
n

j=0
¸f, p
j
)
2
pero por el teorema sabemos que el primer sumando del t´ermino de la derecha tiende a cero
cuando n tiende a infinito con lo que concluye la demostraci´on.
126 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
Terminamos el cap´ıtulo dando una forma m´as eficiente de encontrar los polinomios ortogonales
asociados a un producto interno. En efecto, el siguiente teorema muestra que cada polinomio q
n
se escribe en funci´on de los dos anteriores y por lo tanto la sucesi´on de polinomios ortogonales
m´onicos puede obtenerese por recurrencia.
Teorema 6.20. Si un producto interno en C[a, b] satisface ¸xf, g) = ¸f, xg) entonces los poli-
nomios ortogonales m´onicos q
n
satisfacen la relaci´on de recurrencia
q
n
(x) = (x −a
n
)q
n−1
(x) −b
n
q
n−2
(x) , ∀n ≥ 2 (6.5)
donde a
n
y b
n
estan dados por
a
n
=
¸xq
n−1
, q
n−1
)
¸q
n−1
, q
n−1
)
y b
n
=
¸q
n−1
, q
n−1
)
¸q
n−2
, q
n−2
)
.
Demostraci´ on. Sea n ≥ 2. Como cero es ra´ız del polinomio q
n
(x) −q
n
(0) podemos escribir
q
n
(x) −q
n
(0) = xr
n−1
donde r
n−1
es un polinomio de grado menor o igual que n − 1. Adem´as, como q
n
es m´onico,
r
n−1
tambi´en lo es. Tenemos entonces,
q
n
(x) = xr
n−1
(x) +q
n
(0) = xq
n−1
(x) +x(r
n−1
(x) −q
n−1
(x)) +q
n
(0). (6.6)
Pero como r
n−1
y q
n−1
son m´onicos su diferencia resulta un polinomio de grado menor o igual
que n − 2 y por lo tanto, como q
0
, . . . , q
n−1
forman una base de T
n−1
, existen coeficientes β
j
tales que
x(r
n−1
(x) −q
n−1
(x)) +q
n
(0) =
n−1

j=0
β
j
q
j
(x)
y reemplazando en (6.6) obtenemos
q
n
(x) = xq
n−1
(x) +
n−1

j=0
β
j
q
j
(x). (6.7)
Ahora, para i < n −2, tenemos
0 = ¸q
n
, q
i
) = ¸(x +β
n−1
)q
n−1
+
n−2

j=0
β
j
q
j
, q
i
) = ¸xq
n−1
, q
i
) +β
i
¸q
i
, q
i
)
donde en el ´ ultimo paso hemos usado la ortogonalidad de los q
j
. Pero, como xq
i
es un polinomio
de grado menor que n −1, resulta
¸xq
n−1
, q
i
) = ¸q
n−1
, xq
i
) = 0
y en consecuencia β
i
= 0 para todo i < n−2. Por lo tanto, definiendo a
n
= −β
n−1
y b
n
= −β
n−2
,
(6.5) se obtiene de (6.7).
Finalmente, usando (6.5) y la ortogonalidad de los q
j
tenemos,
0 = ¸q
n
, q
n−1
) = ¸xq
n−1
, q
n−1
) −a
n
¸q
n−1
, q
n−1
)
de donde se obtiene la expresi´on para a
n
. An´alogamente,
0 = ¸q
n
, q
n−2
) = ¸xq
n−1
, q
n−2
) −b
n
¸q
n−2
, q
n−2
)
3. EJERCICIOS 127
y por lo tanto,
b
n
=
¸xq
n−1
, q
n−2
)
¸q
n−2
, q
n−2
)
.
Para terminar la demostraci´on falta ver que
¸xq
n−1
, q
n−2
) = ¸q
n−1
, q
n−1
),
pero como
¸xq
n−1
, q
n−2
) = ¸q
n−1
, xq
n−2
),
basta ver que
¸q
n−1
, xq
n−2
−q
n−1
) = 0
lo que resulta del hecho de que xq
n−2
−q
n−1
es un polinomio de grado menor que n −1 porque
tanto xq
n−2
como q
n−1
son m´onicos de grado n −1.
Observaci´ on 6.21. Los productos internos asociados a los problemas A y B satisfacen trivial-
mente la hip´otesis del teorema.
3. Ejercicios
(1) (a) Encontrar el polinomio de grado 1 que aproxima en el sentido de cuadrados
m´ınimos la siguiente tabla de datos:
x 0 1 2 3 4 5 6 7 8 9
y -.1 1.1 1.9 3.2 3.8 5 6 7.3 8.1 8.9
y el polinomio de grado 2 que aproxima en el mismo sentido la siguiente tabla de
datos:
x -1 0 1 3 6
y 6.1 2.8 2.2 6 26.9
(b) En cada caso, comparar gr´aficamente, usando Matlab, con el polinomio interpola-
dor.
(2) Considerar la funci´on f(x) =
1
1 + 25x
2
en el intervalo [-1,1].
Para n = 5, 10, 15; graficar simult´aneamente f junto con
• los polinomios que aproximan a f en el sentido de cuadrados m´ınimos en n + 1
puntos equiespaciados y tienen grado
2
5
n y
4
5
n,
• el polinomio que resulta de interpolar a f en los puntos anteriores.
(3) Probar que si se tienen n + 1 puntos distintos, el polinomio de cuadrados m´ınimos de
grado n coincide con el polinomio interpolador.
Concluir que para ciertas aplicaciones puede ser una mala idea aumentar el grado
del polinomio de cuadrados m´ınimos, hasta hacerlo cercano al grado del polinomio
interpolador.
(4) Sea A la matriz en IR
3×2
dada por A =
_
_
a b
c d
e f
_
_
. Mostrar que
128 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
(a) det(A
T
A) = (ad −bc)
2
+ (af −be)
2
+ (cf −ed)
2
.
(b) Los rangos de las matrices A
T
A y A coinciden.
(c) El polinomio de grado 1 que aproxima en el sentido de cuadrados m´ınimos una
tabla de 3 datos es ´ unico.
(5) Aproximar la siguiente tabla de datos en el sentido de cuadrados m´ınimos
x -1 0 2 3
y 0.3 -0.2 7.3 23.3
con funciones del tipo: (a) y = a2
x
+b3
x
, (b) y = a2
x
+b3
x
+c.
(6) Considerar erf : IR → IR la funci´on dada por
erf(x) =
2

π
_
x
0
e
−t
2
dt.
(a) Graficar la funci´on con el comando erf de Matlab en el intervalo [−5, 5] y verificar
num´ericamente que lim
x→±∞
erf(x) = ±1.
(b) Ajustar la funci´on erf en el sentido de cuadrados m´ınimos con polinomios de grado
1, 2, 5 y 10; considerando 15 puntos equiespaciados en el intervalo [−1, 1]. Graficar
erf junto con estos polinomios en el intervalo [−5, 5]. Observar que la aproximaci´on
es mala fuera del intervalo [−1, 1].
(c) Utilizando los mismos puntos, hallar la aproximaci´on de cuadrados m´ınimos que
utiliza el siguiente modelo:
erf(t) ∼ c
1
+c
2
e
−t
2
+c
3
e
−t
2
1 +t
+c
4
e
−t
2
(1 +t)
2
+c
5
e
−t
2
(1 +t)
3
.
Comparar el error obtenido al aproximar por la funci´on hallada con el del item
anterior.
(7) Aproximar los datos de la tabla siguiente
x -1 0 1 2
y 8.1 3 1.1 0.5
con un modelo de la forma: f(x) ∼ a e
bx
; en el sentido de cuadrados m´ınimos para
la funci´on ln(f(x)).
(8) Aproximar los datos de la tabla siguiente
x -1 0 1 2
y - 1.1 - 0.4 - 0.9 - 2.7
con un modelo de la forma: f(x) ∼ −e
ax
2
+bx+c
, en el sentido de cuadrados m´ınimos
para la funci´on ln(f(x)).
3. EJERCICIOS 129
(9) Decidir cu´ales de las siguientes aplicaciones < , >: XX → IR, son productos internos,
siendo X = ¦polinomios de grado menor o igual a 1 definidos en[0, 1]¦.
(a) < f, g >= f(0) + 2g(0)
(b) < f, g >= (f(0) +g(0))
2
(c) < f, g >= f(0)g(0) +
_
1
0
f

(t)g

(t)dt
(d) < f, g >= f(0)g(0) +f(1)g(1)
(10) Sea < f, g > cualquiera de los siguientes productos escalares:
(a) < f, g >=
n

0
f(x
j
)g(x
j
)w
j
, (b) < f, g >=
_
b
a
f(x)g(x)w(x)dx
Probar que S = ¦1, x, x
2
, . . . , x
n
¦ no puede ser un conjunto ortogonal para n ≥ 2.
(11) Polinomios de Laguerre. Utilizando el m´etodo de Gram-Schmidt, calcular los pri-
meros cuatro polinomios m´onicos ortogonales con respecto al producto escalar:
< f, g >=
_

0
e
−x
f(x)g(x)dx.
(12) Polinomios de Hermite. Repetir el ejercicio anterior con el producto escalar
< f, g >=
_

−∞
e
−x
2
f(x)g(x)dx.
(13) Considerar
< f, g >=
_
1
−1
f

(x)g

(x) dx
(a) Probar que <, >es un producto interno en S
m
, el espacio generado por ¦x, x
2
, x
3
, , x
m
¦.
(b) Hallar una base ortonormal para S
3
.
(c) Hallar la mejor aproximaci´on en el sentido de cuadrados m´ınimos sobre S
3
para
f(x) = x
4
y para g(x) = 1.
(14) Sea S el subespacio de las funciones derivables definidas en el intervalo [−π, π] generado
por ¦1, cos(x), sin(x)¦ y considerar
< f, g >= f

(−
π
2
)g

(−
π
2
) +f

(0)g

(0) +f(
π
2
)g(
π
2
).
(a) Probar que < , > es un producto interno en S.
(b) Hallar una base ortonormal para S.
(c) Hallar la mejor aproximaci´on en el sentido de cuadrados m´ınimos sobre S para
f(x) = sin(2x), g(x) = cos(2x) y h(x) =
3
2
sin(2x) −5 cos(2x).
(15) (a) Probar que el conjunto de funciones: ¦1, sin(kx), cos(mx), k, m ∈ IN¦ es ortogonal
con el producto escalar
< f, g >=
_

0
f(x)g(x)dx.
y calcular las normas de cada una de estas funciones.
130 6. POLINOMIOS ORTOGONALES Y APROXIMACI
´
ON POR CUADRADOS M
´
INIMOS.
(b) Verificar la ortogonalidad y calcular la norma de los polinomios de Tchebychev,
con el producto escalar
< f, g >=
_
1
−1
f(x)g(x)

1 −x
2
dx.
(Sugerencia: usar el cambio de variables u = arcsin(x)).
(16) Hallar los primeros 5 t´erminos de la expansi´on en serie de Tchebychev para la funci´on
f(x) = [x[. Graficar en el intervalo [−1, 1].
(17) Sea T
j
el polinomio de Tchebychev de grado j; (j ∈ IN). Considerar las relaciones de
ortogonalidad discretas para ´estos polinomios:
m

k=1
T
i
(x
k
)T
j
(x
k
) =
_
_
_
0 i ,= j
m/2 i = j ,= 0
m i = j = 0
donde ¦x
k
; k = 1, . . . , m¦ es el conjunto de ceros de T
m
.
Para una funci´on f : [−1, 1] → IR se definen m coeficientes c
j
, j = 1, . . . , m seg´ un
c
j
=
2
m
m

k=1
f(x
k
)T
j−1
(x
k
).
Probar que el polinomio
_
m

k=1
c
k
T
k−1
(x)
_
−0.5c
1
interpola a f en las ra´ıces de T
m
.
(Sugerencia: usar Ejercicio 3).
Notar que esta f´ormula proporciona una manera m´as directa de encontrar el poli-
nomio interpolador en los ceros de T
m
.
CAP´ıTULO 7
Integraci´on num´erica
En este cap´ıtulo estudiamos m´etodos para aproximar el valor de una integral definida en un
intervalo [a, b]. En los cursos elementales de C´alculo se aprende que el valor
_
b
a
f(x)dx puede
obtenerse a partir de una primitiva de f mediante la regla de Barrow. Sin embargo, en muchos
casos no es posible encontrar una primitiva expresable en t´erminos de funciones conocidas.
Un ejemplo es el de la integral
_
b
a
e
−x
2
dx que juega un papel muy importante en la teor´ıa de
probabilidades. Puede demostrarse que la funci´on e
−x
2
no tiene primitiva expresable mediante
composiciones y operaciones algebraicas de las funciones conocidas (polinomios, trigonom´etricas,
logaritmos y exponenciales). Si bien este es un ejemplo cl´asico, esta situaci´on se da en una gran
variedad de funciones.
En consecuencia ser´a necesario recurrir a las llamadas reglas de integraci´on num´erica o de
cuadratura. La idea b´asica para construir estas reglas es reemplazar la funci´on por un polinomio
puesto que:
(1) Es f´acil integrar polinomios.
(2) Toda funci´on continua puede aproximarse por polinomios.
Entonces, dada una funci´on f ∈ C[a, b] aproximamos el valor
_
b
a
f(x)dx por
_
b
a
p(x)dx donde p
es alg´ un polinomio que esta cerca de f.
A continuaci´on describimos el procedimiento m´as usual para construir reglas de integraci´on, el
cual consiste en elegir el polinomio aproximante como uno que interpole a f. Para esto se eligen
en primer lugar n + 1 puntos x
0
, . . . , x
n
∈ [a, b]. Sabemos que existe un ´ unico p
n
∈ T
n
tal que
p
n
(x
j
) = f(x
j
) para j = 0, . . . , n y definimos entonces la regla de integraci´on num´erica Q(f) por
Q(f) =
_
b
a
p
n
(x) dx.
Si escribimos p
n
en la forma de Lagrange (ver (5.3)), o sea,
p
n
(x) =
n

i=0
f(x
j
)
j
(x),
donde
j
(x
j
) = 1 y
j
(x
i
) = 0 para i ,= j, tenemos
_
b
a
p
n
(x) dx =
_
b
a
n

j=0
f(x
j
)
j
(x) dx =
n

j=0
f(x
j
)
_
b
a

j
(x) dx =
n

j=0
A
j
f(x
j
).
132 7. INTEGRACI
´
ON NUM
´
ERICA
Luego, obtenemos las f´ormulas de cuadratura usuales Q para aproximar una integral buscada,
de la forma:
_
b
a
f(x)dx ∼ Q(f) =
n

j=0
A
j
f(x
j
) (7.1)
donde los puntos x
j
son llamados los nodos y los A
j
los pesos de la integraci´on num´erica
(j = 0, . . . , n).
Los pesos A
j
=
_
b
a

j
(x) dx dependen s´olo de los nodos x
j
, una vez calculados se usan para
aproximar la integral de cualquier funci´on f.
Notemos que si f es un polinomio de grado n entonces, como la interpolaci´on en n + 1 puntos,
es exacta, la f´ormula que obtuvimos para aproximar la integral ser´a exacta sobre los polinomios
de grado menor o igual que n. En otro caso, habr´a que estudiar el error que se comete al utilizar
este tipo de aproximaciones. Es decir, estudiaremos para cada f´ormula de cuadratura el error
que viene dado por:
R(f) =
_
b
a
f(x) dx −
_
b
a
p
n
(x) dx =
_
b
a
(f −p
n
)(x) dx.
Hay, esencialmente, dos maneras de determinar una f´ormula de cuadratura como en (7.1).
• Los nodos ¦x
0
, x
1
, . . . , x
n
¦ est´an prefijados. En este caso, se trata de hallar los pesos
¦A
0
, A
1
, . . . , A
n
¦. Cuando los nodos se toman equiespaciados, el problema se conoce
como las F´ormulas de Newton-Cˆotes.
• Se buscan a la vez los nodos ¦x
0
, x
1
, . . . , x
n
¦ y los pesos ¦A
0
, A
1
, . . . , A
n
¦. Este m´etodo
se conoce como F´ormulas de cuadratura gaussiana.
1. F´ormulas de Newton-Cˆotes
Si queremos aproximar la integral una funci´on continua f : [a, b] → IR por la integral de un
polinomio interpolador de grado n, probablemente la elecci´on m´as natural para los nodos x
j
es
tomarlos equiespaciados en el intervalo [a, b]. para esto consideramos h = (b−a)/n y x
j
= a+jh
con j = 0, . . . , n. Una f´ormula de aproximaci´on basada en estos puntos se conoce como “formula
de Newton-Cˆotes cerrada” y si los puntos son tomados como x
j
= a + jh con j = 1, . . . , n − 1
se llama “f´ormula de Newton-Cˆotes abierta” (no incluye a los extremos del intervalo). Estas
f´ormulas ser´an exactas cuando el polinomio interpolador coincida con la funci´on f, esto es, para
todo polinomio en T
n
.
1. F
´
ORMULAS DE NEWTON-C
ˆ
OTES 133
1.1. F´ormulas simples de Newton-Cˆotes. Veamos primero las f´ormulas de cuadratura
si se considera el intervalo [a, b] considerando nodos equiespaciados. Comencemos interpolando
por una recta o por una funci´on cuadr´arica.
Regla de Trapecios: es la que se obtiene si se reemplaza en el intervalo [a, b] la integral de
la funci´on f por la de la recta que une los puntos (a, f(a)) con (b, f(b)). De ah´ı el nombre de
trapecios (ver Figura 7.1). Como los nodos de interpolaci´on son los extremos del intervalo, esta
f´ormula tambi´en suele llamarse de trapecios cerrada.
−1 −0.9 −0.8 −0.7 −0.6 −0.5 −0.4 −0.3 −0.2 −0.1 0
0
1
2
3
4
5
6
7
Figura 7.1. Regla de los Trapecios simple cerrada
La recta est´a dada por p(x) = f(a) +
f(b) −f(a)
b −a
(x −a), integrado p obtenemos
_
b
a
p(x) dx = f(a)x +
f(b) −f(a)
b −a
(x −a)
2
2
¸
¸
¸
b
a
= f(a)(b −a) +
f(b) −f(a)
2
(b −a),
es decir:
_
b
a
f(x)dx ∼ T(f) =
(b −a)
2
(f(a) +f(b)). (7.2)
Ejemplo 7.1. Consideremos la funci´on f(x) = x
3
−4x + 4 en el intervalo [−1, 0]. ¿Cu´al es el
valor aproximado de la integral en este intervalo que da la regla de trapecios?
Seg´ un vimos, se tiene
_
0
−1
x
3
−4x + 4 dx ∼
0 −(−1)
2
(f(−1) +f(0)) =
1
2
(7 + 4) =
11
2
.
134 7. INTEGRACI
´
ON NUM
´
ERICA
En este caso, es sencillo calcular el valor exacto de
_
0
−1
x
3
−4x +4 dx =
23
4
con lo cual se puede
calcular exactamente el error que se comete, R(f) =
1
4
= 0.25.
M´as adelante nos dedicaremos al estudio del error. Veamos ahora una peque˜ na modificaci´on a
la regla de trapecios.
Regla de Trapecios abierta: en este caso, en lugar de considerar como nodos los extremos del
intervalo [a, b] vamos a usar dos puntos interiores equiespaciados ¦x
1
, x
2
¦. Luego, sustitu´ımos
la funci´on f por la recta que la interpola en esos nodos (ver Figura 7.2). Para ´esto partimos
al intervalo [a, b] en tercios, es decir en subintervalos de longitud h =
b−a
3
. De esta manera
consideramos ¦x
1
, x
2
¦ los extremos del intervalo medio, es decir x
j
= a + jh para j = 1, 2. El
polinomio de grado 1 que interpola a f en esos nodos es
p(x) = f(x
1
) +
f(x
2
) −f(x
1
)
x
2
−x
1
(x −x
1
).
Integrando p en [a, b] y recordando que h =
b−a
3
(´esto es: b −a = 3h, x
2
−x
1
= h, b −x
1
= 2h,
y a −x
1
= −h) tenemos
−1 −0.9 −0.8 −0.7 −0.6 −0.5 −0.4 −0.3 −0.2 −0.1 0
0
1
2
3
4
5
6
7
(x
1
, f(x
1
))
(x
2
, f(x
2
))
Figura 7.2. Regla de Trapecios simple abierta
_
b
a
p(x) dx = f(x
1
)x +
f(x
2
) −f(x
1
)
x
2
−x
1
(x −x
1
)
2
2
¸
¸
¸
b
a
= f(x
1
)3h +
f(x
1
) −f(x
2
)
h
_
(2h)
2
−(−h)
2
2
_
= 3hf(x
1
) +
f(x
1
) −f(x
2
)
h
3h
2
2
= 3h
_
f(x
1
) +f(x
2
)
2
_
Luego, para h =
b −a
3
,
1. F
´
ORMULAS DE NEWTON-C
ˆ
OTES 135
_
b
a
f(x)dx ∼
3h
2
(f(x
1
) +f(x
2
)). (7.3)
Ejemplo 7.2. Consideremos nuevamente la funci´on f(x) = x
3
−4x + 4 en el intervalo [−1, 0].
Queremos calcular la aproximaci´on que da la f´ormula de Trapecios abierta.
La regla de trapecios abierta tienen por nodos ¦x
1
= −
2
3
, x
2
= −
1
3
¦ con h =
1
3
. El valor
aproximado de la integral de f en [−1, 0] es
_
0
−1
x
3
−4x +4 dx ∼
1
2
(f(−
2
3
) +f(−
1
3
)) =
1
2
_

8
27
+
8
3
+4 −
1
27
+
4
3
+4
_
=
1
2
53
3
= 5.8333...
Usando el valor exacto, ya calculado, de
_
0
−1
x
3
−4x +4 dx =
23
4
podemos asegurar que el error
cometido es, R(f) = −0.08333...
Regla de Simpson: es la que se obtiene si se reemplaza en el intervalo [a, b] la integral de la
funci´on f por la de una funci´on cuadr´atica que interpola a f. Como para dar un ´ unico polinomio
de grado 2 que interpole a f se necesitan tres nodos, se consideran los extremos del intervalo y
su punto medio, es decir, ¦a,
a−b
2
, b¦ (ver Figura 7.3). Como a y b forman parte de los nodos,
esta f´ormula tambi´en suele llamarse de Simpson cerrada.
−1 −0.5 0 0.5 1 1.5 2
0
1
2
3
4
5
6
7 (a, f(a))
(a+h, f(a+h))
(b, f(b))
Figura 7.3. Regla de Simpson
Para simplificar los c´alculos, queremos hallar la f´ormula que le corresponde a una funci´on con-
tinua cuando se considera el intervalo [−1, 1] y derivar de ´esta la f´ormula general. Para ´esto
necesitaremos el siguiente lema.
136 7. INTEGRACI
´
ON NUM
´
ERICA
Lema 7.3. Si Q
0
(f) =
n

j=0
A
j
f(t
j
) es una f´ormula de cuadratura para aproximar la integral
_
1
−1
f(x) dx entonces, para
x
j
=
(b −a)
2
t
j
+
(a +b)
2
, ∀j = 0, . . . , n;
se tiene una f´ormula de cuadratura para el intervalo [a, b]:
_
b
a
f(x) dx ∼ Q(f) =
n

j=0
(b −a)
2
A
j
f(x
j
). (7.4)
Demostraci´ on. Consideremos el cambio de variables x = αt+β, con α = (b−a)/2 y β = (a+b)/2
que transforma el intervalo [−1, 1] en [a, b]. As´ı,
_
b
a
f(x) dx =
_
1
−1
f(αt +β) α dt.
Aplicando la f´ormula Q
0
a la funci´on g(t) = αf(αt +β) para el intervalo [−1, 1] tenemos,
_
b
a
f(x) dx =
_
1
−1
f(αt +β) α dt ∼ Q
0
(g) (7.5)
con,
Q
0
(g) =
n

j=0
A
j
g(t
j
) =
n

j=0
αA
j
f(αt
j
+β).
Si llamamos x
j
= αt
j
+β, para j = 0, . . . , n, tenemos que
x
j
=
(b −a)
2
t
j
+
(a +b)
2
∀j = 0, . . . , n.
Luego, podemos re-escribir la aproximaci´on en [a, b] dada en (7.5) como en la f´ormula (7.4).
Ahora s´ı, procedemos a dar la f´ormula de Simpson, que aproxima a
_
1
−1
f(x) dx, usando el
polinomio interpolador p en los nodos equiespaciados ¦−1, 0, 1¦. Si p(x) = a
0
+a
1
x +a
2
x
2
,
_
1
−1
p(x) dx = 2
_
a
0
+
a
2
3
¸
=
2
6
_
6a
0
+ 2a
2
¸
.
1. F
´
ORMULAS DE NEWTON-C
ˆ
OTES 137
Por otro lado, sabemos que p(x) = a
0
+a
1
x +a
2
x
2
verifica el sistema:
_
_
1 −1 1
1 0 0
1 1 1
_
_
_
_
a
0
a
1
a
2
_
_
=
_
_
f(−1)
f(0)
f(1)
_
_
Por lo tanto, a
0
= f(0), a
1
=
f(1) −f(−1)
2
y a
2
=
f(−1) −2f(0) +f(1)
2
.
Luego,
_
1
−1
f(x) dx ∼
_
1
−1
p(x) dx =
2
6
[f(−1) + 4f(0) +f(1)].
Ahora, por el Lema 7.4, se tiene para un intervalo [a, b] la f´ormula de Simpson simple cerrada:
S(f) =
(b −a)
6
_
f(a) + 4f((a +b)/2) +f(b)
¸
.
Si escribimos la f´ormula en t´erminos de la distancia entre un nodo y otro, h =
b−a
2
, se tiene:
S(f) =
h
3
_
f(a) + 4f(a +h) +f(b)
¸
. (7.6)
Ejemplo 7.4. Para la funci´on f(x) = x
3
−4x+4 consideremos ahora el intervalo [−1, 2]. ¿Cu´al
es el valor que se obtiene al aproximar la integral de f en este intervalo si se emplea la f´ormula
de Simpson cerrada?
Para este intervalo tenemos, b −a = 3, luego h =
3
2
y a +h =
a+b
2
=
1
2
, entonces la f´omula (7.6)
nos da
S(f) =
1
2
_
f(−1) + 4f(
1
2
) +f(2)
¸
=
1
2
_
7 + 4
17
8
+ 4] =
39
4
.
En este caso el c´alculo es exacto puesto que al calcular la integral de f en [−1, 2] obtenemos por
resultado
39
4
.
Regla de Simpson abierta: es la que se obtiene al reemplazar f por un polinomio de grado
2 que la interpole en nodos equiespaciados en el interior del intervalo [a, b]. Para ´esto partimos
al intervalo [a, b] en cuartos, es decir en subintervalos de longitud h =
b−a
4
. De esta manera
consideramos ¦x
1
, x
2
, x
3
¦ los extremos de los intervalos medios, es decir x
j
= a + jh para
j = 1, 2, 3; (ver Figura 7.4). Como a y b no forman parte de los nodos, esta f´ormula recibe el
nombre de Simpson abierta.
Si procedemos como antes, podemos hallar el polinomios de grado 2 que interpola a una funci´on
en el intervalo [−1, 1] y luego por el Lema 7.4 extendemos la f´ormula a cualquier intervalo [a, b].
En este caso, el polinomio p(x) = a
0
+ a
1
x + a
2
x
2
interpola a f en los nodos ¦−
1
2
, 0,
1
2
¦. y
resultan a
0
= f(0), a
1
= f(
1
2
) −f(−
1
2
), y a
2
= 2f(−
1
2
) −4f(0) + 2f(
1
2
).
138 7. INTEGRACI
´
ON NUM
´
ERICA
−1 −0.5 0 0.5 1 1.5 2
0
1
2
3
4
5
6
7
8
9
(a+h, f(a+h))
(a+2h, f(a+2h))
(a+3h, f(a+3h))
Figura 7.4. Regla de Simpson abierta
Luego,
_
1
−1
p(x) dx =
2
3
_
3a
0
+ a
2
¸
=
2
3
_
2f(−
1
2
) − f(0) + 2f(
1
2
)
¸
. Al pasar a un intervalo [a, b]
por medio del Lema 7.4 y escribiendo la f´ormula en t´erminos del paso h =
b−a
4
obtenemos,
_
b
a
f(x) dx ∼
4h
3
_
2f(a +h) −f(a + 2h) + 2f(a + 3h)
¸
.
Ejemplo 7.5. Consideremos nuevamente la funci´on f(x) = x
3
−4x + 4 en el intervalo [−1, 2].
Queremos hallar una aproximaci´on de la integral de f en dicho intervalo por medio de la regla
de Simpson abierta.
Como h =
b−a
4
=
3
4
, entonces a +h = −
1
4
, a + 2h =
1
2
, a + 3h =
5
4
, as´ı tenemos
_
2
−1
x
3
−4x + 4 dx ∼ 1
_
2f(−
1
4
) −f(
1
2
) + 2f(
5
4
)
¸
=
_
2
319
64

17
8
+ 2
61
64
¸
=
624
64
=
39
4
,
que vuelve a ser un c´alculo exacto.
Es claro que la f´ormula de Simpson es exacta para polinomios de T
2
, al igual que la f´ormula de
Trapecios lo es para polinomios de T
1
. Esto motiva la siguiente definici´on.
Definici´ on 7.6. Decimos que una f´ormula de cuadratura Q(f) =
n

j=0
A
j
f(x
j
) tienen grado de
exactitud k, si
_
b
a
p(x) dx = Q(p) para todo polinomio p ∈ T
k
y no para T
k+1
.
2. ESTIMACI
´
ON DEL ERROR 139
Observaci´ on 7.7. Toda f´ormula de cuadratura
_
b
a
f(x) dx ∼ Q(f) =
n

j=0
A
j
f(x
j
) es lineal.
Es decir, Q(αf + g) = αQ(f) + Q(g) y este valor aproxima en [a, b] la integral de αf + g para
todo α ∈ IR, f y g funciones.
En virtud de este resultado, podemos reducir el estudio del grado de exactitud al comportamiento
de la f´ormula sobre una base del espacio de polinomios. Esto queda expresado en la siguiente
observaci´on.
Observaci´ on 7.8. Una f´ormula de cuadratura Q tiene grado de exactitud k si y solo si es exacta
para la base de T
k
, B = ¦1, x, x
2
, . . . , x
k
¦ y no lo es para el polinomio x
k+1
. Esto es, la igualdad
_
b
a
x
m
dx =
n

j=0
A
j
x
m
j
debe verificarse para todo m = 0, . . . , k y no para m = k + 1.
Adem´as, gracias al Lema 7.4, una f´ormula de cuadratura tiene grado de exactitud k indepen-
dientemente del intervalo [a, b] para el cual est´a calculada.
Ejemplo 7.9. Se quiere calcular el grado de exactitud de la f´ormula de Simpson cerrada.
Es claro que las f´ormulas de Simpson, tanto abiertas como cerradas, son exactas para polinomios
de T
2
. Luego, por Observaci´on 7.8, basta ver qu´e sucede con x
3
, x
4
, . . ., y esto puede hacerse,
sin perder generalidad, en el intervalo [−1, 1]. Tenemos
_
1
−1
x
3
dx = 0 =
2
6
[(−1)
3
+ 4(0)
3
+ (1)
3
],
_
1
−1
x
4
dx =
2
5
,=
2
3
=
1
3
[(−1)
4
+ 4(0)
4
+ (1)
4
].
Luego, la f´ormula de Simpson cerrada tiene grado de exactitud k = 3. Lo mismo suceder´a para
la f´ormula abierta.
2. Estimaci´on del error
Antes de estudiar c´omo pueden mejorarse las aproximaciones obtenidas, veamos cu´al es el error
que se comete al utilizarlas. Las f´ormulas de Trapecios y Simpson se obtienen de integrar el
polinomio interpolador de grado 1, 2 respectivamente. Tambi´en podr´ıamos buscar otras f´ormulas
interpolando con polinomios de mayor grado.
En lo que sigue notaremos por I(f) =
_
b
a
f(x) dx.
140 7. INTEGRACI
´
ON NUM
´
ERICA
El Teorema 5.4 da, para cualquier funci´on f ∈ C
n+1
[a, b] una f´ormula que mide el error cuando
se considera su polinomio interpolador p
n
∈ T
n
en lugar de f:
E
n
(x) = f(x) −p
n
(x) =
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x) (con ξ ∈ (a, b) que depende de) x.
Luego, si Q es una f´ormula de cuadratura como en (7.1) podemos expresar el error de integraci´on
por
R(f) = I(f) −Q(f) =
_
b
a
(f −p
n
)(x) dx.
Es decir
R(f) =
_
b
a
f
(n+1)
(ξ)
(n + 1)!
W
n+1
(x) dx.
Error para la Regla de Trapecios: Para estimar el error citamos el siguiente teorema del
que omitimos dar una demostraci´on.
Teorema 7.10. (Valor Medio Integral Generalizado). Si g, h son funciones continuas en
[a, b] tales que g no cambia de signo, entonces existe η ∈ (a, b) tal que
_
b
a
g(x)h(x) dx = h(η)
_
b
a
g(x) dx.
Para calcular el error de la regla de los trapecios recordemos que los nodos son ¦a, b¦, y por
tanto W
2
(x) = (x − a)(x − b), que no cambia de signo en [a, b], entonces usando el teorema
anterior,
R(f) = I(f) −Q(f) =
_
b
a
f

(ξ)
2!
W
2
(x) dx
=
f

(η)
2
_
b
a
(x −a)(x −b) dx
= −
f

(η)
12
(b −a)
3
.
Notar que hay una forma directa de calcular
_
b
a
(x − a)(x − b) dx que es calcularla por partes.
Si derivamos (x −b) e integramos (x −a), tenemos
_
b
a
(x −a)(x −b) dx = (x −b)
(x −a)
2
2
¸
¸
¸
b
a

_
b
a
(x −a)
2
2
dx = −
(x −a)
3
6
¸
¸
¸
b
a
= −
(b −a)
3
6
.
Finalmente, si h = b − a es la distancia que hay entre los dos nodos, el error puede expresarse
por
2. ESTIMACI
´
ON DEL ERROR 141
R(f) = −
h
3
12
f

(η), para alg´ un η ∈ (a, b). (7.7)
Ejemplo 7.11. Estimar el error cometido al aproximar
_
1
2
0
x
4
−x
2
+ 2x + 3 dx por la f´ormula
de trapecios cerrada. ¿Cu´al es el valor de dicha aproximaci´on? ¿Qu´e an´alisis se puede hacer si
se considera la misma funci´on en el intervalo [−1, 1]?
Tenemos h =
1
2
, f(x) = x
4
− x
2
+ 2x + 3 y f

(x) = 12x
2
− 2. Como R(f) = −
h
3
12
f

(η) para
alg´ un η ∈ (0,
1
2
), acotamos [f

(x)[ para todo x ∈ [0,
1
2
]. Esto es, [f

(x)[ ≤ 2, puesto que alcanza
su valor m´aximo en el extremo izquierdo del intervalo.
Luego, [R(f)[ =
h
3
12
[f

(η)[ ≤
1
8
1
12
2 = 0.020833...
El valor de la aproximaci´on est´a dado por T(f) =
1
4
(f(0) +f(
1
2
)) =
1
4
(3 +
61
16
) = 3.81250
A veces, al estimar el error perdemos informaci´on. Por ejemplo, si queremos estimar el error
cometido al considerar x ∈ [−1, 1], no logramos un resultado muy fino. Por un lado [f

(x)[ =
[12x
2
−2[ ≤ 10, pues alcanza su valor m´aximo en los extremos del intervalo y h = b −a = 2, as´ı,
[R(f)[ =
h
3
12
[f

(η)[ ≤
8
12
10 =
20
3
= 6.666...
Aunque
_
1
−1
x
4
− x
2
+ 2x + 3 dx =
86
15
= 5.7333... y el valor que arroja la f´ormula es T(f) =
2
2
(f(−1) +f(1)) = 6 y el error real es 0.2666...
Error para la Regla de Simpson: es un poco m´as dif´ıcil de analizar pues el polinomio
W
3
(x) = (x −a)(x −
a+b
2
)(x −b) cambia de signo en [a, b],
Sean x
0
= a, x
1
= (a +b)/2 y x
2
= b. Definamos el polinomio c´ ubico auxiliar, p
3
(x) como aquel
polinomio que verifica
p
3
(x
0
) = f(x
0
),
p
3
(x
1
) = f(x
1
),
p
3
(x
2
) = f(x
2
),
p

3
(x
1
) = f

(x
1
),
(dejamos como ejercicio probar que un tal p
3
existe). Observemos que S(f) = S(p
3
) pues p
3
interpola a f en x
0
, x
1
, x
2
. Adem´as, como la regla de Simpson es exacta en polinomios de grado
3, tenemos que S(p
3
) = I(p
3
), entonces
I(f) −S(f) = I(f) −S(p
3
) = I(f) −I(p
3
).
Para acotar esto necesitamos acotar f(x) − p
3
(x). Para x fijo distinto de x
0
, x
1
, x
2
, definimos
φ(t) para t ∈ [a, b] por
142 7. INTEGRACI
´
ON NUM
´
ERICA
φ(t) = f(t) −p
3
(t) −(f(x) −p
3
(x))
_
(t −x
0
)(t −x
1
)
2
(t −x
2
)
(x −x
0
)(x −x
1
)
2
(x −x
2
)
_
.
Entonces φ(x) tiene al menos cuatro ceros en [a, b], x
0
, x
1
, x
2
y x. Por el teorema de Rolle
φ

tiene al menos tres ceros en (a, b) que est´an entre los cuatro ceros de φ. Por construcci´on
φ

(x
1
) = 0, en consecuencia φ

tiene al menos cuatro ceros. Si f es C
4
encontramos que existe
un punto ξ ∈ (a, b) tal que
φ
(iv)
(ξ) = 0.
De la definici´on de φ esto es equivalente a
f(x) −p
3
(x) =
f
(iv)
(ξ)
4!
(x −x
0
)(x −x
1
)
2
(x −x
2
).
Como la funci´on (x −x
0
)(x −x
1
)
2
(x −x
2
) no cambia de signo en (a, b) podemos obtener,
I(f) −I(p
3
) =
_
b
a
f
(iv)
(ξ)
4!
(x −x
0
)(x −x
1
)
2
(x −x
2
) dx.
O bien, por el valor medio
I(f) −I(p
3
) =
f
(iv)
(η)
4!
_
b
a
(x −x
0
)(x −x
1
)
2
(x −x
2
) dx.
Ahora observamos que, llamando h = (b −a)/2,
_
b
a
(x −x
0
)(x −x
1
)
2
(x −x
2
) dx =
−4h
5
15
.
Entonces
R(f) = I(f) −S(f) = I(f) −I(p
3
) =
f
(iv)
(η)
4!
(
−4h
5
15
) =
−h
5
90
f
(iv)
(η).
Ejemplo 7.12. Aproximar
_
1
0
e
−x
2
dx mediante la regla de Simpson cerrada y estimar el error
que se comete al efectuar dicho c´alculo.
Tenemos h =
1
2
, f(x) = e
−x
2
, as´ı
_
1
0
e
−x
2
dx ∼
1
6
(f(0) + 4f(
1
2
) +f(1)) =
1
6
(1 +e

1
4
+e
−1
) = 0.74951...
Para estimar el error consideramos f
iv
(x) = 4(4x
4
−12x
2
+ 3)e
−x
2
. Como R(f) =
−h
5
90
f
(iv)
(η)
para alg´ un η ∈ (0, 1), acotamos [f

(x)[ para todo x ∈ [0, 1].
Por una parte tenemos que en [0, 1], e
−x
2
≤ 1 y por otra parte puede verse que [4x
4
−12x
2
+3[
alcanza su valor m´aximo en el extremo superior del intervalo. Luego, [4x
4
− 12x
2
+ 3[ ≤ 5 en
[0, 1] y por lo tanto
[R(f)[ ≤
1
90
_
1
2
_
5
20 = 0.006944...
3. F
´
ORMULAS DE CUADRATURA COMPUESTAS 143
3. F´ormulas de cuadratura compuestas
Si queremos aumentar la presici´on al aproximar
_
b
a
f(x) dx, podemos aumentar el n´ umero de
nodos. Esto es, considerar n + 1 nodos y el polinomio de T
n
que interpola a f en esos nodos,
con n ∈ IN grande. Veremos m´as adelante que ´esto no siempre es conducente. Como vimos en
el Cap´ıtulo 5, aumentar el grado del polinomio interpolador puede producir errores grandes en
la aproximaci´on, los que se trasladar´ıan al c´alculo de la integral. Otro m´etodo, que es que que
vamos a desarrollar en esta secci´on, es el de partir el intervalo [a, b] en peque˜ nos subintervalos
y en cada uno de estos aplicar una aproximaci´on del tipo Trapecios o Simpson. Este ´ ultimo
procedimiento se conoce como “cuadraturas compuestas”.
La idea general es como sigue. Partimos el intervalo [a, b] en subintervalos eligiendo puntos x
j
con a = x
0
< x
1
< . . . < x
n
= b. Sabemos que
I(f) =
_
b
a
f(x) dx =
n−1

j=0
_
x
j+1
x
j
f(x) dx.
Ahora si para cada
I
j
(f) =
_
x
j+1
x
j
f(x) dx
tenemos una f´ormula de cuadratura Q
j
(f) y consideramos el error respectivo,
R
j
(f) = I
j
(f) −Q
j
(f)
obtenemos
R(f) =
n−1

j=0
R
j
(f) =
n−1

j=0
(I
j
(f) −Q
j
(f))
=
_
b
a
f(x) dx −
n−1

j=0
Q
j
(f)
Esto es, la f´ormula de cuadratura ser´a
_
b
a
f(x) dx ∼
n−1

j=0
Q
j
(f) con error R(f) =
n−1

j=0
R
j
(f). (7.8)
Para dar una exprexi´on de las f´ormulas y estudiar simult´aneamente el error cometido en cada
caso vamos a necesitar el siguiente lema.
Lema 7.13. Sea g ∈ C([a, b]) y sean ¦a
0
, . . . , a
k
¦ constantes con el mismo signo y ¦t
0
, . . . , t
k
¦ ∈
[a, b], entonces se tiene
144 7. INTEGRACI
´
ON NUM
´
ERICA
k

j=0
a
j
g(t
j
) = g(η)
k

j=0
a
j
para alg´ un η ∈ [a, b].
Demostraci´ on. Sea m = min g(x) y M = max g(x) en [a, b]. Podemos suponer que a
j
≥ 0 para
todo j = 1, . . . , k, luego
para cada j : m ≤ g(t
j
) ≤ M
(a
j
≥ 0) m a
j
≤ a
j
g(t
j
) ≤ M a
j
(sumando) m
k

j=0
a
j

k

j=0
g(t
j
)a
j
≤ M
k

j=0
a
j
Ahora, definimos la funci´on G : [a, b] → IR,
G(x) = g(x)
k

j=0
a
j
,
como G es un m´ ultiplo de g, resulta continua en [a, b]. Adem´as, el valor m´aximo de G en [a, b]
es M

k
j=0
a
j
y el valor m´ınimo es m

k
j=0
a
j
. Entonces, por el teorema del valor medio, existe
η ∈ [a, b] tal que
G(η) =
k

j=0
a
j
g(t
j
),
es decir
g(η)
k

j=0
a
j
=
k

j=0
a
j
g(t
j
),
como quer´ıamos demostrar.
Ahora estamos en condiciones de desarrollar las f´ormulas de cuadratura compuestas. Considera-
remos el caso de nodos equiespaciados. Esto nos permitir´a aprovechar las f´ormulas ya calculadas
(Trapecios y Simpson) dado que la distancia entre dos nodos, que tambi´en llamaremos ‘paso h’
no var´ıa.
Regla de Trapecios compuesta: para la f´ormula cerrada se tiene que tanto a como b son
nodos, luego tomamos los nodos x
j
= a +jh para j = 0, . . . , n −1 con h = (b −a)/n.
La f´ormula (7.2) nos da para cada integral
_
x
j+1
x
j
f(x) dx ∼ T
j
(f) =
h
2
(f(x
j
) +f(x
j+1
)),
3. F
´
ORMULAS DE CUADRATURA COMPUESTAS 145
Luego,
T(f) =
n−1

j=0
h
2
(f(x
j
) +f(x
j+1
))
=
h
2
[f(x
0
) +f(x
1
) +f(x
1
) +f(x
2
) +. . . +f(x
n−1
) +f(x
n
)]
=
h
2
_
_
f(x
0
) +
n−1

j=1
2f(x
j
) +f(x
n
)
_
_
Entonces la cuadratura compuesta usando la regla de Trapecios cerrada viene dada por
T(f) =
h
2
_
_
f(x
0
) +
n−1

j=1
2f(x
j
) +f(x
n
)
_
_
(7.9)
Como para cada subintervalo se comete un error (ver (7.7)) R
j
(f) = −
f


j
)
12
h
3
se tiene
R(f) =
n−1

j=0

f


j
)
12
h
3
= −
h
3
12
n−1

j=0
f


j
).
Ahora, gracias al Lema 7.13 (con a
j
= 1 para todo j) y teniendo en cuenta que h = (b − a)/n
si y solo si n = (b −a)/h, tenemos que existe η ∈ (a, b) tal que
R(f) = −
h
3
12
nf

(η) = −
h
3
12
b −a
h
f

(η) = −
h
2
12
(b −a)f

(η). (7.10)
Ejemplo 7.14. Determinar el n´ umero n de subintervalos necesario para que el error cometido
con la regla de Trapecios compuesta de una aproximaci´on de la integral
_
1
0
e
−x
2
dx con error
menor que 10
−4
.
Para hallar el n´ umero de subintervalos a considerar usamos la expresi´on del error (7.10). Debe-
mos acotar [f

(x)[ para x ∈ [0, 1] siendo f

(x) = (4x
2
−2)e
−x
2
, Como e
−x
2
≤ 1 y [4x
2
−2[ ≤ 2
en este intervalo, se tiene:
[R(f)[ =
h
2
12
(b −a)[f

(η)[ ≤
h
2
12
2 =
1
6
_
1
n
_
2
Si tomamos n > 40.8248... podemos asegurar que [R(f)[ < 10
−4
. Es decir, basta tomar n = 41.
146 7. INTEGRACI
´
ON NUM
´
ERICA
Regla de Simpson compuesta: se trata de obtener una f´ormula del tipo (7.8) cuando se usa
la f´ormula de Simpson en cada partici´on del intervalo [a, b].
La f´ormula (7.6) nos da para cada integral
_
x
j+1
x
j
f(x) dx ∼ S
j
(f) =
h
3
(f(x
j
) + 4f(
x
j
+x
j+1
2
) +f(x
j+1
)).
Como interpolamos f por un polinomio de grado 2, en puntos equiespaciados, en cada integral
intervienen los nodos ¦x
j
,
x
j
+x
j+1
2
, x
j+1
¦. As´ı, el paso h entre dos nodos de cada integral es la
longitud media del intervalo [x
j
, x
j+1
]. Es decir, h =
1
2
b−a
n
=
b−a
2n
. Luego,
S(f) =
n−1

j=0
h
3
(f(x
j
) + 4f(
x
j
+x
j+1
2
) +f(x
j+1
))
f´ormula que podemos expresar como
S(f) =
h
3
_
_
f(a) + 2
n−1

j=0
f(x
j
) + 4
n−1

j=0
f(
x
j
+x
j+1
2
) + f(b)
_
_
(7.11)
Para analizar el error cometido al usar esta f´ormula, recordemos que en cada subintervalo el
error est´a dado por
R
j
(f) =
−h
5
90
f
(iv)

j
).
R(f) =
n−1

j=0
−h
5
90
f
(iv)

j
) =
−h
5
90
n−1

j=0
f
(iv)

j
).
Por el Lema 7.13 (con a
j
= 1 para todo j) y teniendo en cuenta que h =
b−a
2n
si y solo si n =
b−a
2h
,
tenemos que existe η ∈ (a, b) tal que
R(f) =
−h
5
90
nf
(iv)
(η) =
−h
5
90
b −a
2h
f
(iv)
(η) =
−h
4
180
(b −a)f
(iv)
(η). (7.12)
Ejemplo 7.15. Determinar el n´ umero n de subintervalos necesario para que el error cometido
con la regla de Simpson compuesta de una aproximaci´on de la integral
_
1
0
e
−x
2
dx con error
menor que 10
−4
. Comparar con el ejemplo 7.14
3. F
´
ORMULAS DE CUADRATURA COMPUESTAS 147
El error viene dado por la f´ormula (7.12). Necesitamos acotar f
(iv)
(x) en el intervalo [0, 1].
Usamos la cota hallada en el Ejemplo 7.12. Esto es, [f
(iv)
(x)[ = [4(4x
4
− 12x
2
+ 3)e
−x
2
[ ≤ 20.
Entonces, con h =
b−a
2n
=
1
2n
se tiene
[R(f)[ =
h
4
180
[f
(iv)
(η)[ ≤
1
9
_
1
2n
_
4
.
Si tomamos n > 2.886... podemos asegurar que [R(f)[ < 10
−4
. Es decir, basta tomar n = 3,
mientras que para la regla de Trapecios compuesta pod´ıamos asegurar el mismo error partiendo
en 41 subintervalos de igual longitud.
Finalizaremos esta secci´on con una aplicaci´on de los m´etodos hasta ahora estudiados al c´alculo
aproximado de integrales m´ ultiples.
Observaci´ on 7.16. Es posible aplicar en forma iterada las reglas de integraci´on que acabamos
de desarrollar para aproximar integrales m´ ultiples de funciones continuas, para las cuales el
teorema de Fubini puede aplicarse.
Por ejemplo, si D ⊂ IR
2
es una regi´on que podemos describir por medio de funciones reales,
podemos escribir (si la regi´on es de Tipo 1)
__
D
f(x, y) dxdy =
_
b
a
_
ψ(x)
φ(x)
f(x, y) dydx,
y calcular las integrales iteradas por los procedimientos anteriores.
Ejemplo 7.17. Para f : IR
2
→ IR una funci´on continua y D = [0, 1] [0, 1], se define la funci´on
F(x) =
_
1
0
f(x, y) dy y luego
• Se aproximan los valores F(0), F(
1
2
), F(1) con la regla de Simpson.
• Se aproxima
_
1
0
F(x) dx usando otra vez la misma regla.
El valor de F(0) es el valor de la integral
_
1
0
g(y) dy con g(y) = f(0, y), luego aplicando la regla
de Simpson simple cerrada tenemos
F(0) ∼
1
6
_
f(0, 0) + 4f(0,
1
2
) +f(0, 1)
_
An´alogamente se obtiene los otros dos valores:
F(
1
2
) ∼
1
6
_
f(
1
2
, 0) + 4f(
1
2
,
1
2
) +f(
1
2
, 1)
_
F(1) ∼
1
6
_
f(1, 0) + 4f(1,
1
2
) +f(1, 1)
_
Ahora,
_
1
0
F(x) dx ∼
1
6
_
F(0) + 4F(
1
2
) +F(1)
_
,
148 7. INTEGRACI
´
ON NUM
´
ERICA
donde cada valor F(0), F(
1
2
) y F(1) se reemplazan por los valores aproximados ya calculados.
En la forma expl´ıcita de esta regla aparecen los 9 nodos:
_
(0, 0), (
1
2
, 0), (1, 0), (0,
1
2
), (
1
2
,
1
2
), (1,
1
2
), (0, 1), (
1
2
, 1), (1, 1)
_
para los cuales se debe calcular el valor de f(x, y).
4. Convergencia de los m´etodos de cuadratura
Es natural preguntarse si el procedimiento estudiado converge a la integral cuando el n´ unero
de nodos tiende a infinito. Esto es, si Q
n
(f) es la aproximaci´on de
_
b
a
f(x) dx que se hace a
trav´es de un polinomio que interpola a f en n+1 nodos, ¿vale que Q
n
(f) →
_
b
a
f(x) dx cuando
n → ∞? En esta secci´on veremos una condici´on para que esto suceda.
Si bien hasta ahora aproximamos el valor de
_
b
a
f(x) dx, podr´ıamos haber tratado un caso m´as
general, el de aproximar
_
b
a
f(x)w(x) dx, con w : [a, b] → IR una funci´on de peso positiva. Se
recupera exactamente lo estudiado hasta ahora al considerar w(x) = 1 para todo x ∈ [a, b]
En tal caso una cuadratura
_
b
a
f(x)w(x)dx ∼ Q(f) =
n

j=0
A
j
f(x
j
)
tendr´a pesos A
j
dependiendo de los nodos ¦x
0
, x
1
, . . . , x
n
¦ y de la funci´on w.
Cuando aproximamos f por el polinomio interpolador de Lagrange y usamos la base de Lagrange
para tal fin, se tendr´a que A
j
=
_
b
a

j
(x)w(x) dx para j = 0, . . . , n.
Para estudiar la convergencia de estas cuadraturas cuando se incrementa el n´ umero de nodos
usaremos notaci´on m´as espec´ıfica. Es decir, tanto la base de Lagrange como la cuadratura, los
nodos y pesos de la misma se indicar´an con el n correspondiente. El siguiente teorema da una
condici´on que asegura la convergencia.
Teorema 7.18. Dada f ∈ C[a, b] y dado n ∈ IN notamos por
I(f) =
_
b
a
f(x)w(x) dx, y definimos Q
n
(f) =
n

j=0
A
(n)
j
f(x
(n)
j
)
donde los A
(n)
j
est´an dados por
A
(n)
j
=
_
b
a

(n)
j
(x)w(x) dx.
4. CONVERGENCIA DE LOS M
´
ETODOS DE CUADRATURA 149
Si existe una constante K tal que
n

j=0
[A
(n)
j
[ ≤ K ∀n
entonces
lim
n→∞
Q
n
(f) = I(f)
Demostraci´on. Por el teorema de Weierstrass, dado ε > 0 existe un polinomio q
N
∈ P
N
(N
depende de ε) tal que
max
a≤x≤b
[f(x) −q
N
(x)[ = |f −q
N
|

≤ ε.
Observemos que como Q
n
es exacta para polinomios de grado menos o igual que n, entonces se
tiene que Q
n
(q
N
) = I(q
N
) para todo n > N. Tenemos que,
[I(f) −Q
n
(f)[ = [I(f) −I(q
N
) +Q
n
(q
N
) −Q
n
(f)[
≤ [I(f) −I(q
N
)[ +[Q
n
(q
N
) −Q
n
(f)[.
Ahora bien, si llamamos c =
_
b
a
w(x) dx, se tiene
[I(f) −I(q
N
)[ =
¸
¸
¸
¸
_
b
a
w(x)(f(x) −q
N
(x)) dx
¸
¸
¸
¸
≤ |f −q
N
|

_
b
a
w(x) dx ≤ cε,
y adem´as,
[Q
n
(q
N
) −Q
n
(f)[ =
¸
¸
¸

n
j=0
A
(n)
j
(q
N
(x
(n)
j
) −f(x
(n)
j
))
¸
¸
¸
≤ |f −q
N
|

n
j=0
[A
(n)
j
[ ≤ Kε.
Con todo esto, hemos probado que dado ε > 0 existe N tal que si n > N,
[I(f) −Q
n
(f)[ ≤ (c +K)ε.
Tambi´en vale la implicaci´on rec´ıproca, que enunciamos en el siguiente teorema, de la cual omi-
timos una demostraci´on.
150 7. INTEGRACI
´
ON NUM
´
ERICA
Teorema 7.19. Con las notaciones anteriores, si lim
n→∞
Q
n
(f) = I(f) entonces existe una cons-
tante K tal que
n

j=0
[A
(n)
j
[ ≤ K ∀n.
Corolario 7.20. Si los pesos A
(n)
j
son todos positivos tenemos entonces
Q
n
(f) →
_
b
a
f(x)w(x) dx,
para toda funci´on continua f.
Demostraci´ on. Como la aproximaci´on por cuadraturas Q
n
es exacta para polinomios de T
n
, en
particular se tiene que Q
n
(1) =
_
b
a
w(x) dx, para todo n ∈ IN.
Como w(x) > 0 y los pesos son todos positivos tenemos que,
0 < I(1) =
_
b
a
w(x) dx = Q
n
(1) =
n

j=0
A
(n)
j
=
n

j=0
[A
(n)
j
[.
La constante K que satisface la hip´otesis del teorema anterior es
K =
_
b
a
w(x) dx =
n

j=0
[A
(n)
j
[,
y tenemos que estas aproximaciones de la integral convergen a la misma.
Se sabe que si n ≥ 10 los pesos de las f´ormulas de Newton-Cˆotes cambian de signo. Peor a´ un,
cuando n crece, los pesos crecen y no est´an acotados, por lo tanto existen funciones continuas
para las cuales este procedimiento para aproximar la integral no converge. As´ı, el camino
seguro para aumentar la precisi´on usando f´ormulas de Newton-Cˆotes es por medio de f´ormulas
compuestas. Sin embargo es posible aumentar precisi´on aumentando el n´ umero de los nodos de
interpolaci´on. Estudiaremos este m´etodo en la secci´on siguiente.
5. Cuadratura Gaussiana
Queremos aumentar la presici´on al aproximar
_
b
a
f(x) dx, o
_
b
a
f(x)w(x) dx como vimos en la
secci´on anterior. Si consideramos nodos fijos ¦x
0
, x
1
, . . . , x
n
¦ e interpolamos f con un polinomio
p ∈ T
n
pueden producirse errores grandes en la aproximaci´on como vimos en el Cap´ıtulo 5. Una
forma de mejorar el error que se comete es elegir los puntos de interpolaci´on para optimizar
la aproximaci´on. Los polinomios de Tchebychev dan una soluci´on en este sentido. Los nodos
a considerar son los ceros del polinomio de grado n + 1. El m´etodo de cuadratura gaussiana
generaliza este tipo de elecci´on.
5. CUADRATURA GAUSSIANA 151
En s´ıntesis, queremos encontrar una f´ormula de cuadratura
_
b
a
f(x)w(x)dx ∼ Q(f) =
n

j=0
A
j
f(x
j
)
donde podamos elegir tanto los pesos ¦A
0
, A
1
, . . . , A
n
¦ como los nodos ¦x
0
, x
1
, . . . , x
n
¦, es decir
que tenemos 2n + 2 variables. Si pedimos que las formulas de inetgraci´on sean exactas para
polinomios del mayor grado posible nos quedan las siguientes ecuaciones
_
b
a
x
k
w(x) dx =
n

j=0
A
j
x
k
j
0 ≤ k ≤ 2n + 1
Esto es un sistema no lineal de 2n + 2 ecuaciones con 2n + 2 inc´ognitas. Gauss demostr´o que
este sistema tiene soluci´on ´ unica cuando w = 1 y el intervalo es [−1, 1]. El Lema 7.4 nos
permite independizarnos del intervalo mientras que la teor
´
ia de espacios con producto interno y
polinomios ortogonales vistos en el Cap´ıtulo 6 nos permiten trabajar con un peso arbitrario w,
(w(x) > 0).
As´ı como los ceros del polinomio de Tchebychev de grado n son todos distinto, para cada n fijo,
y ´estos son tomados como nodos para interpolar una funci´on f, el Teorema que sigue nos da un
resultado an´alogo para cualquier familia de polinomios ortogonales.
Consideremos sobre V = C[a, b] el producto interno
¸f, g) =
_
b
a
f(x)g(x)w(x) dx,
y llamemos ¦q
j
¦ a los polinomios ortogonales y m´onicos con respecto a este producto interno.
Respectivamente, notemos ¦p
j
¦ los polinomios ortonormales.
Teorema 7.21. Las ra´ıces de p
n
son todas reales, distintas entre s´ı y pertenecen al intervalo
(a, b).
Demostraci´on. Sea n ≥ 1 fijo. Veamos primero p
n
tiene al menos una ra´ız real. Si no fuera as´ı,
p
n
tiene signo constante, en particular, tiene signo constante en el intervalo (a, b). Supongamos
que p
n
(x) > 0 en (a, b). Como p
n
y q
0
(q
0
= 1) son ortogonales tenemos
0 = ¸p
n
, 1) =
_
b
a
p
n
(x)w(x) dx > 0
esta contradicci´on muestra que p
n
no s´olamente tiene una ra´ız real sino que tiene al menos un
cero en (a, b).
El segundo paso ser´a ver que las ra´ıces de p
n
son simples. Supongamos que p
n
tiene alg´ un cero
m´ ultiple y veamos que esto no es posible. Si x
0
∈ IR es una ra´ız mu´ ultiple, entonces p
n
es
divisible por (x − x
0
)
2
, y entonces q(x) =
p
n
(x)
(x −x
0
)
2
es un polinomio de grado n − 2. Luego, q
es una combinaci´on lineal de ¦p
0
, p
1
, . . . , p
n−2
¦ y resulta ser ortogonal a p
n
, por consiguiente,
152 7. INTEGRACI
´
ON NUM
´
ERICA
0 = ¸p
n
, q) =
_
b
a
p
n
(x)
p
n
(x)
(x −x
0
)
2
w(x) dx
=
_
b
a
p
n
(x)
2
(x −x
0
)
2
w(x) dx > 0,
que resulta, nuevamente, es una contradicci´on. En consecuencia todos lo ceros de p
n
son simples.
Finalmente, resta ver que todas las ra´ıces de p
n
pertenecen al intervalo (a, b).
Supongamos que x
0
, . . . , x
k
son los ceros de p
n
que est´an en (a, b) y supongamos que k < n −1,
es decir que p
n
tiene ceros que no pertenecen a (a, b). Como las ra´ıces x
0
, . . . , x
k
son simples el
polinomio r dado por
r(x) = p
n
(x)/(x −x
0
)(x −x
1
) . . . (x −x
k
).
tiene grado n−(k+1), con lo cual es ortogonal a p
n
y tiene signo constante en (a, b). Supongamos
que r(x) > 0.
0 = ¸p
n
, (x −x
0
) . . . (x −x
k
)) =
_
b
a
p
n
(x)(x −x
0
) . . . (x −x
k
)w(x) dx
=
_
b
a
r(x)(x −x
0
)
2
. . . (x −x
k
)
2
(x)w(x) dx > 0,
Esta contradicci´on proviene de suponer que el grado de r es no nulo, luego k = n −1 y todos lo
ceros de p
n
est´an en (a, b).
Ahora probemos el teorema b´asico de las cuadraturas de Gauss.
Teorema 7.22. La f´ormula
_
b
a
p(x)w(x) dx =
n

j=0
A
j
p(x
j
),
vale para cualquier polinomio de grado menor o igual a 2n + 1 si y solo si los puntos ¦x
j
¦ son
los ceros de p
n+1
(x).
Demostraci´ on. Sea p(x) ∈ P
2n+1
y supongamos que los puntos x
j
est´an dados por
p
n+1
(x
j
) = 0 0 ≤ j ≤ n.
Por el algoritmo de divisi´on para polinomios se puede escribir
p(x) = p
n+1
(x)S(x) +R(x)
con S(x) y R(x) en P
n
(x).
Por la definici´on de los pesos A
j
, como el grado de R es a lo sumo n, tenemos
5. CUADRATURA GAUSSIANA 153
I(R) = Q
n
(R).
Entonces
I(p) =
_
b
a
p(x)w(x) dx
=
_
b
a
p
n+1
(x)S(x)w(x) dx +
_
b
a
R(x)w(x) dx
= ¸p
n+1
, S) +I(R)
= 0 +Q
n
(R)
=
n

j=0
A
j
R(x
j
)
=
n

j=0
A
j
p(x
j
) = Q
n
(p).
Ahora supongamos que ¦x
j
¦ es un conjunto de puntos distintos y que se verifica
_
b
a
p(x)w(x) dx =
N

j=0
A
j
p(x
j
)
para todo p ∈ P
2n+1
. Dado un entero k sea r
k
un polinomio de grado menor o igual que k. Sea
W(x) =

n
j=0
(x − x
j
) y definamos p(x) = r
k
(x)W(x). Es claro que p ∈ P
2n+1
, por nuestra
hip´otesis I(p) = Q
n
(p), en consecuencia
¸r
k
, W) =
_
b
a
r
k
(x)W(x)w(x) dx
=
_
b
a
p(x)w(x) dx
=
n

j=0
A
j
p(x
j
)
=
n

j=0
A
j
r
k
(x
j
)W(x
j
) = 0,
pues W(x) se anula en los x
j
. Entonces W(x) es un polinomio m´onico de grado (n+1) que resulta
ortogonal a cualquier polinomio de grado menor o igual que n, en consecuencia W(x) = q
n+1
(x)
154 7. INTEGRACI
´
ON NUM
´
ERICA
y entonces los x
j
son los ceros de p
n+1
.
Corolario 7.23. Sea Q
n
(f) =

n
j=0
A
j
f(x
j
) la cuadratura gaussiana, entonces
lim
n→∞
Q
n
(f) = I(f).
Demostraci´ on. Por la definici´on de los l
k
(x) cada (l
k
)
2
∈ P
2n
y entonces I(l
2
k
) = Q
n
(l
2
k
) y en
consecuencia, como l
k
(x
j
) = δ
kj
,
0 <
_
b
a
l
2
k
(x)w(x) dx =
n

j=0
A
j
(l
k
(x
j
))
2
= A
k
.
Es decir, para la cuadratura gaussiana todos los pesos son positivos y por lo visto antes esto
implica la convergencia.
6. Ejercicios
(1) Usar las f´ormulas cerradas de Newton-Cotes de dos y tres puntos (reglas de trapecios
y de Simpson, respectivamente) para calcular las integrales:
_
1
0
x
4
dx
_
0.2
0.1
ln(x) dx
_
.3
0
1
1 +x
dx
Calcular, adem´as, en forma exacta cada una de las integrales anteriores y verificar la
cota del error.
(2) Interpolando las funciones de base de Lagrange, hallar una f´ormula de cuadratura por
interpolaci´on de la forma
_
2h
0
f(x) dx ∼ A
0
f(0) +A
1
f(h).
(3) Usar el m´etodo de coeficientes indeterminados para dar una f´ormula de cuadratura por
interpolaci´on:
_
3h
0
f(x) dx ∼ A
0
f(0) +A
1
f(h) +A
2
f(3h).
(4) Construir la f´ormula abierta de Newton-Cotes para calcular
_
1
−1
f(x) dx con nodos
−1/2, 0, 1/2, y la f´ormula cerrada de Newton-Cotes con nodos en los puntos −1, −1/3, 1/3, 1.
(5) Considerar la funci´on definida en [−h, h] (h > 0):
f(x) =
_
0, si −h ≤ x ≤ 0
x, si 0 < x ≤ h.
Hallar el error de la regla de trapecios aplicada a f(x). ¿El orden es igual al obtenido
para una funci´on suficientemente suave?
6. EJERCICIOS 155
(6) La f´ormula de cuadratura
_
b
a
f(x) dx ∼ f(
a +b
2
)
_
b −a
_
es conocida como Regla de los Rect´angulos. Para f ∈ C
1
[a, b] acotar el error que se
comete al utilizarla.
(7) Para f una funci´on C
2
probar que el error cometido al usar la f´ormula de cuadratura
del Ejercicio 2 no excede el valor
|f

|

2
h
3
.
(8) (a) Hallar una f´ormula de cuadratura del tipo:
_
1
−1
f(x) dx ∼ Af(−2) +Bf(0) +Cf(2).
(b) Para f ∈ C
3
[−2, 2] probar que el error cometido no excede el valor
7
12
|f
(3)
|

.
(9) Escribir un programa que utilice las reglas de trapecios, de Simpson, de trapecios
compuesta y de Simpson compuesta para calcular aproximaciones de la integral de una
funci´on f(x) en un intervalo [a, b].
(10) Se sabe que
_
1
0
1
1 +x
2
dx =
π
4
.
(a) Para n = 1, . . . , 100, utilizar las reglas de trapecios y Simpson compuestas para
aproximar num´ericamente la integral y dar un valor cercano a π.
(b) Graficar las sucesiones obtenidas junto con el valor de π que arroja Matlab y el
valor que se obtiene al aplicar la rutina quad de Matlab.
(11) (a) Calcular exactamente la integral
I =
_

0
[1 −cos(32x)] dx.
(b) Aproximar el valor de I usando el programa del Ejercicio 9 con los m´etodos de los
trapecios, Simpson, trapecios compuesta y Simpson compuesta para n = 2, 4, 8 y
16.
(c) Calcular el valor de I que produce la rutina quad.
(12) Se quiere calcular
_
1
−1
e
−x
2
dx utilizando la regla de trapecios compuesta, partiendo el
intervalo [−1, 1] en n subintervalos. Hallar n de modo que el error sea menor que 10
−3
.
(13) La expresi´on Q
n
(f) =

n
j=0
A
j
f(x
j
) define una f´ormula de cuadratura.
(a) Probar que Q
n
es lineal en f (el conjunto de funciones).
(b) Supongamos que Q
n
(f) ∼
_
b
a
f(x)w(x) dx y que es exacta para las funciones
1, x, . . . , x
k
. Mostrar que la f´ormula tiene grado de precisi´on por lo menos k.
(14) Determinar el grado de precisi´on de las f´ormulas para
_
1
−1
f(x) dx:
(a)
4
3
f(−0.5) −
2
3
f(0) +
4
3
f(0.5).
(b)
1
4
f(−1) +
3
4
f(−
1
3
) +
3
4
f(
1
3
) +
1
4
f(1).
(15) Hallar reglas de cuadratura de grado de precisi´on m´aximo para aproximar
_
3
−3
f(x) dx,
de las siguientes formas:
(a) A[f(x
0
) +f(x
1
)] (repitiendo el coeficiente).
(b) Af(x
0
) +Bf(x
0
+ 4).
156 7. INTEGRACI
´
ON NUM
´
ERICA
y determinar cu´ales son dichos grados.
(16) Calcular
_
1
−1
f(x)x
2
dx mediante una regla de cuadratura de la forma
_
1
−1
f(x)x
2
dx ∼ A
0
f(x
0
) +A
1
f(x
1
)
que sea exacta para polinomios de grado menor o igual que 3.
(17) (a) Hallar una regla de cuadratura del siguiente tipo
_
1
−1
f(x)
_
[x[dx ∼ A
0
f(x
0
) +A
1
f(x
1
).
que tenga grado de precisi´on m´aximo. ¿Cu´al es dicho grado?
(b) Hallar una regla de cuadratura del siguiente tipo
_
4
0
f(x)
_
¸
¸
¸
x −2
2
¸
¸
¸dx ∼ A
0
f(x
0
) +A
1
f(x
1
).
que tenga grado de precisi´on m´aximo. ¿Cu´al es dicho grado?
(18) Sea w una funci´on de peso. Se considera la regla de cuadratura de 1 punto:
_
b
a
f(x)w(x) dx ∼ A
0
f(s).
(a) Probar que, cualquiera sea w, la f´ormula tiene grado de precisi´on m´aximo si s =
_
b
a
xw(x) dx
_
b
a
w(x) dx
.
(b) Probar que si w(x) ≡ 1, esta regla coincide con la regla de los rect´angulos.
(c) Considerar el intervalo [−1, 1] y w(x) = (x − 1)
2
. Acotar el error que produce el
uso de esta regla para funciones C
1
.
(19) Hallar los pesos y los nodos de las f´ormulas de Gauss-Legendre de dos y tres puntos.
(Los polinomios de Legendre m´onicos de grado dos y tres son x
2

1
3
y x
3

3
5
x).
(20) Usar las f´ormulas de Gauss-Legendre de tres puntos para estimar:
(a)
_
1
−1
sin(3x) dx, (b)
_
3
1
ln(x) dx, (c)
_
2
1
e
x
2
dx.
(21) Probar que una f´ormula de cuadratura
_
b
a
f(x)w(x) dx ∼ Q
n
(f) =
n

j=0
A
j
f(x
j
)
no puede tener grado de precisi´on mayor que 2n+1, independientemente de la elecci´on
de los coeficientes (A
j
) y de los nodos (x
j
).
Sugerencia: Hallar un polinomio p ∈ T
2n+2
para el cual Q
n
(p) ,=
_
b
a
p(x)w(x) dx.
6. EJERCICIOS 157
(22) Para f : IR
2
→ IR una funci´on continua, se quiere dar una f´ormula de cuadratura que
aproxime
__
D
f(x, y) dx dy con D ⊂ IR
2
usando el Teorema de Fubini.
(a) Repetir el procedimiento hecho en el Ejemplo 7.17 y dar la f´ormula correspondiente
para D el tri´angulo de v´ertices (0, 0), (0, 1), (1, 0).
Sugerencia: considerar F(x) =
_
x
0
f(x, y) dy.
(b) Probar que si D es el tri´angulo de v´ertices (0, 0), (0, 1), (1, 0) la f´ormula anterior
es exacta para f(x, y) = x
2
+y
2
.
CAP´ıTULO 8
Resoluci´on de ecuaciones diferenciales ordinarias.
En este cap´ıtulo abordaremos el problema de resolver ecuaciones diferenciales con valores inicia-
les. Es decir, desarrollaremos m´etodos num´ericos para aproximar una funci´on conociendo una
ecuaci´on que involucra sus derivadas.
Se llama orden de una ecuaci´on al m´aximo orden de derivada que aparece en ella. En su forma
m´as general una ecuaci´on diferencial de orden n, puede escribirse como
F(t, x(t), x

(t), x

(t), . . . , x
(n)
(t)) = 0,
donde t ∈ IR, F : IR
n+2
→ IR es una funci´on conocida y x es la funci´on que se desea encontrar.
Vamos a suponer que la derivada de mayor orden puede despejarse de tal forma que la ecuaci´on
se escribe como
x
(n)
(t) = f(t, x(t), x

(t), x

(t), . . . , x
(n−1)
(t)), (8.1)
para t ∈ IR y f : IR
n+1
→ IR una funci´on dada.
Algunos ejemplos de ecuaciones diferenciales son:
Ejemplos 8.1.
(1) Para λ una constante dada, la ecuaci´on
x

(t) = λx(t).
es una ecuaci´on lineal de primer orden. Su soluci´on general es
x(t) = Ce
λt
con C una constante arbitraria, es decir, hay infinitas soluciones. Esto es lo que pasa
en general y por lo tanto, para poder determinar una soluci´on es necesario tener m´as
datos. En este ejemplo se ve f´acilmente que si se conoce el valor inicial x(0) = x
0
entonces la soluci´on es
x(t) = x
0
e
λt
.
Esto es algo general: dada una ecuaci´on diferencial para determinar una soluci´on es
necesario conocer ciertos datos iniciales.
(2) Veamos un ejemplo elemental de ecuaci´on que surge de un problema f´ısico. Supongamos
que se tiene una part´ıcula de masa m que se mueve en una direcci´on debido a la acci´on
de un resorte y se quiere conocer la posici´on x(t) de la masa en el instante t. La ley de
160 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Hooke dice que la fuerza F(t) que ejerce el resorte en el instante t es proporcional a su
estiramiento o compresi´on, es decir,
F(t) = −kx(t)
donde k es la constante de rigidez del resorte. Por otra parte, la ley de Newton nos
dice que
F(t) = ma(t)
siendo a(t) la aceleraci´on en el instante t. En consecuencia, como a(t) = x

(t), obtene-
mos la ecuaci´on
mx

(t) +kx(t) = 0.
Esta es una ecuaci´on lineal de segundo orden que, como tiene coeficientes constantes,
puede resolverse anal´ıticamente. Si llamamos ω =
_
k/m, la soluci´on general de esta
ecuaci´on es
x(t) = C
1
cos(ωt) +C
2
sen(ωt)
donde C
1
y C
2
son constantes arbitrarias. Introduciendo A =
_
C
2
1
+C
2
2
y ϕ ∈ [0, 2π)
tal que cos ϕ = C
1
/A y sen ϕ = C
2
/A (notar que tal ϕ existe porque (C
1
/A)
2
+
(C
2
/A)
2
= 1), la soluci´on general puede escribirse como
Acos(ϕ −ωt)
donde A representa la amplitud, ω la frecuencia y ϕ la fase.
Para poder determinar la posici´on en el instante t necesitamos conocer ciertas con-
diciones iniciales. Lo m´as natural es conocer la posici´on y la velocidad iniciales, es decir
x(0) = x
0
y x

(0) = v
0
. Veamos que con estos datos podemos encontrar A y ϕ de tal
forma que la soluci´on queda un´ıvocamente determinada. En efecto, es f´acil ver que de
las condiciones iniciales se deduce que A =
_
x
2
0
+ (v
0
/ω)
2
y ϕ ∈ [0, 2π) es el ´ unico
´angulo que satisface cos ϕ = x
0
/A y sen ϕ = v
0
/ωA.
(3) Veamos ahora un ejemplo de ecuaci´on no lineal. Para esto consideremos otro ejemplo
de los cursos b´asicos de f´ısica que es el problema del p´endulo. En este caso se quiere
determinar el ´angulo θ(t) que un p´endulo con masa m forma respecto de la vertical en el
instante t. Despreciando el rozamiento con el aire podemos suponer que la ´ unica fuerza
que act´ ua es la de la gravedad, es decir, una fuerza en direcci´on vertical hacia abajo y
de magnitud mg. La proyecci´on F de esta fuerza en la direcci´on del movimiento (o sea
tangencial al arco de circunferencia que describe el p´endulo) resulta entonces,
F(t) = mg sen θ(t).
Teniendo en cuenta que la longitud recorrida en un tiempo t es L(θ(t) − θ(0)), donde
L es la longitud del p´endulo, resulta que la aceleraci´on en la direcci´on tangencial al
movimiento es Lθ

(t). Por lo tanto, aplicando nuevamente la ley de Newton obtenemos

(t) = g sen θ(t)
o sea, una ecuaci´on no lineal de segundo orden. Tambi´en en este caso hay una ´ unica
soluci´on si se conocen la posici´on y la velocidad inicial, o sea, θ(0) y Lθ

(0). Esto es
consecuencia del teorema de existencia y unicidad que enunciaremos m´as adelante.
8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS. 161
Como vimos en los ejemplos una ecuaci´on diferencial puede tener muchas soluciones y para
obtener una soluci´on ´ unica hace falta conocer ciertos datos que pueden ser valores de la funci´on
y de algunas de sus derivadas en un valor inicial t
0
. M´as precisamente, puede demostrarse
que para la ecuaci´on de orden n (8.1) se tiene una soluci´on ´ unica dados los datos iniciales
x(t
0
), x

(t
0
), . . . , x
(n−1)
(t
0
), bajo hip´otesis adecuadas sobre la funci´on f.
En lo que sigue, vamos a estudiar m´etodos num´ericos para ecuaciones de grado 1. La raz´on por
la que hacemos esto es que las ecuaciones de grado n pueden reducirse a sistemas de ecuaciones
de orden 1 y los m´etodos que presentaremos pueden extenderse a sistemas.
Para simplificar la notaci´on usaremos t
0
= 0. La ecuaci´on de orden 1 que corresponden con la
escritura 8.1 tienen la forma
_
x

(t) = f(t, x(t)),
x(0) = a.
(8.2)
Se trata de una ecuaci´on diferencial de primer orden porque la derivada de mayor orden que
aparece es la derivada primera.
Por ejemplo, podemos considerar ecuaciones como las siguientes:
(i) x

= 1, (iii) x

= x,
(ii) x

= t, (iv) x

= x
2
.
Primero enunciamos un teorema de existencia y unicidad de soluci´on, cuya demostraci´on no
damos.
Teorema 8.2. Si f(t, x) es continua y Lipschitz en x, es decir
[f(t, x) −f(t, y)[ ≤ L[x −y[
Entonces para cualquier valor a ∈ IR existe una ´ unica funci´on derivable x(t) que verifica
_
x

(t) = f(t, x(t))
x(0) = a.
Nuestro estudio de aproximaciones num´ericas para ecuaciones ordinarias empieza con los m´etodos
conocidos como m´etodos de un solo paso.
Dado el problema (8.2) buscamos una aproximaci´on de x(t) en un cierto intervalo [0, T]. Para
esto buscaremos una forma de generar N valores x
1
, . . . , x
N
que aproximen x(t
1
), . . . , x(t
N
) con
t
1
< t
2
< . . . < t
N
. Despu´es se puede interpolar en esos valores para obtener una aproximaci´on
de x(t). A veces solo interesa conocer el valor de x(T) y en este caso los pasos intermedios
x
1
, . . . , x
N−1
pueden verse como pasos auxiliares para calcular x
N
∼ x(T).
El m´etodo general a un paso tiene la forma
x
i+1
= x
i
+hΦ(x
i
, t
i
, h).
162 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
La funci´on Φ se conoce como la funci´on de incremento y nos dice como calcular la aproximaci´on
x
i+1
de x(t
i
+h) a partir de x
i
, t
i
y de h. Una ventaja de estos m´etodos es que se puede cambiar
f´acilmente el paso h. Es decir calculamos una aproximaci´on en un tiempo posterior (t
i+1
) a
partir de una aproximaci´on en el tiempo t
i
.
1. M´etodos de Euler y Taylor de orden k
El m´etodo de Euler se basa en el desarrollo de Taylor de orden 1. En general, el desarrollo de
orden 1 es: x(t +h) = x(t) +x

(t)h +x

(ξ)
h
2
2
. Supongamos que podemos despreciar el valor de
x

(ξ)
h
2
2
; el primer valor aproximado de x en t
0
+h se logra al calcular x(t
0
+h) ∼ x(t
0
)+x

(t
0
)h;
esto es, partimos del valor x(t
0
) y nos movemos una longitud h con velocidad x

(t
0
). Notar que
x

(t) es una funci´on conocida, es decir, para cada valor de t sabemos exactamente cu´anto vale
x

(t) = f(t, x).
Repitiendo este procedimiento se obtiene:
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) = x(t
i
) +hf(t
i
, x(t
i
)),
para valores peque˜ nos de h. En consecuencia, si x
i
es una aproximaci´on para x(t
i
) se tiene que
x
i+1
= x
i
+hf(t
i
, x
i
)
es una aproximaci´on razonable para x(t
i
+h) = x(t
i+1
).
Ejemplo 8.3. Resolvamos la ecuaci´on
_
x

(t) = x(t)
x(0) = 1.
La soluci´on exacta es x(t) = e
t
. Ahora, aplicando el m´etodo de Euler se obtiene la siguiente
tabla,
t e
t
h = 0.25 h = 0.125
0.125 1.1331 1.125
0.250 1.2840 1.25 1.2656
0.375 1.4549 1.4238
0.500 1.6487 1.5625 1.6018
0.625 1.8682 1.8020
0.750 2.1170 1.9531 2.0272
El m´etodo de Euler es de la forma
x
i+1
= x
i
+hf(t
i
, x
i
).
que como vimos responde a usar el polinomio de Taylor de grado uno en t
i
para calcular x
i+1
.
En general se puede usar una expansi´on en m´as t´erminos como sigue:
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +....... +
1
k!
h
k
x
(k)
(t
i
).
1. M
´
ETODOS DE EULER Y TAYLOR DE ORDEN k 163
Si conoci´eramos las derivadas de x hasta orden k podr´ıamos usar esto para implementar un
m´etodo que aproxime x(t
i
+h) a partir de una aproximaci´on de x(t
i
). La ecuaci´on diferencial x

=
f(t, x) nos proporciona todas las derivadas de orden superior de la siguiente forma, derivando
una vez se obtiene
x

= f
x
(t, x)x

+f
t
(t, x),
es decir,
x

= f
x
(t, x)f(t, x) +f
t
(t, x).
A partir de esto se puede poner
x(t
i
+h) ∼ x(t
i
) +hf(t
i
, x(t
i
)) +
1
2
h
2
f
x
(t
i
, x(t
i
))f(t
i
, x(t
i
)) +f
t
(t
i
, x(t
i
))
e intentar la aproximaci´on
x
i+1
= x
i
+hf(t
i
, x
i
) +
1
2
h
2
f
x
(t
i
, x
i
)f(t
i
, x
i
) +f
t
(t
i
, x
i
).
Podemos seguir derivando
x

= f
x
(t, x)f(t, x) +f
t
(t, x)
para obtener x

en t´erminos de f y sus derivadas y continuando de esta manera calcular las
derivadas de x hasta orden k en t´erminos de f y sus derivadas. Esto nos da una manera de
calcular m´etodos de aproximaci´on a un paso (solo usamos x
i
, t
i
y h para calcular la siguiente
aproximaci´on x
i+1
). Es decir, a partir de
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
),
proponemos el m´etodo,
x
i+1
∼ x
i
+hf(t
i
, x
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
) = x
i
+hT
k
(t
i
, x
i
, h).
Estos m´etodos se conocen como m´etodos basados en Taylor de orden k. Su mayor problema es
que requieren encontrar y evaluar derivadas sucesivas de f(x, t).
Ejemplo 8.4. Calculemos el m´etodo de Taylor de orden 2 para el problema
_
x

(t) = 2tx
x(0) = 1.
En este caso, al derivar, se obtiene
x

= 2x + 2tx

= 2x(1 + 2t
2
).
Entonces,
x
i+1
= x
i
+h
_
2t
i
x
i
+x
i
(1 + 2t
2
i
)h
¸
.
Ejemplo 8.5. Ejercicio: Calcular el m´etodo de Taylor de orden 3 en este ejemplo.
164 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
2. M´etodos de Runge-Kutta
Los m´etodos generales a un paso son de la forma
x
i+1
= x
i
+hΦ(t
i
, x
i
, h)
Podemos pensar que hΦ(t
i
, x
i
, h) es una aproximaci´on de la variaci´on de x cuando pasamos de t
i
a t
i+1
. Esta variaci´on, para la ecuaci´on original esta gobernada por f(x, t), as´ı que proponemos
una forma particular de Φ dada por,
hΦ(x
i
, t
i
, h) = A
1
f(θ
1
, γ
1
) +. . . +A
1
f(θ
N
, γ
N
),
donde (θ
i
, γ
i
) son puntos pr´oximos a (t
i
, x
i
). Para especificar el m´etodo que usamos es necesario
especificar los A
i
y los puntos (θ
i
, γ
i
).
Veamos un caso particular de lo anterior donde usamos solo dos puntos uno (t
i
, x
i
) y el otro
(t
i
+ αh, αhf(x
i
, t
i
)). Todav´ıa nos queda α libre (por ejemplo al considerar α = 1 usamos
(t
i+1
, ˜ x
i+1
) donde ˜ x
i+1
es la aproximaci´on que da el m´etodo de Euler).
En general tenemos,
x
i+1
= x
i
+h[A
1
f(t
i
, x
i
) +A
2
f(t
i
+αh, x
i
+αhf(t
i
, x
i
))] .
La estrategia del m´etodo de Runge-Kutta es elegir A
1
, A
2
y α para que esto se aproxime todo
lo posible a un m´etodo de Taylor.
Veamos como hacer esto. Primero expandimos
f(t
i
+αh, x
i
) +αhf(t
i
, x
i
) = f(t
i
, x
i
) +f
t
(t
i
, x
i
)αh +f
x
(t
i
, x
i
)αhf(t
i
, x
i
) +E,
donde E tiene la forma E = Ch
2
. Agrupando t´erminos se obtiene
Φ(t
i
, x
i
, h) = (A
1
+A
2
)f(t
i
, x
i
) +A
2
h[f
t
(t
i
, x
i
)α +f
x
(t
i
, x
i
)αf(t
i
, x
i
) +Ch] .
Recordemos que en el m´etodo de Taylor se tiene
T
2
(t
i
, x
i
, h) = f(t
i
, x
i
) +
h
2
[f
t
(t
i
, x
i
) +f
x
(t
i
, x
i
)f(t
i
, x
i
)]
Igualando los coeficientes, llegamos a
A
1
+A
2
= 1,
A
2
α =
1
2
.
Despejando, obtenemos
A
2
=
1

,
A
1
= 1 −
1

.
2. M
´
ETODOS DE RUNGE-KUTTA 165
Es decir, hay infinitas soluciones dependiendo de α (y por ende, infinitos m´etodos posibles).
Una elecci´on posible es α = 1/2 con lo que nos queda el m´etodo (A
1
= 0, A
2
= 1)
x
i+1
= x
i
+
h
2
_
f(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
¸
(8.3)
que usualmente se conoce como M´etodo de Euler modificado.
Otra elecci´on posible es α = 1 que nos da (A
1
= A
2
=
1
2
)
x
i+1
= x
i
+
h
2
[f(t
i
, x
i
) +f(t
i+1
, x
i
+hf(t
i
, x
i
))] , (8.4)
que se conoce como M´etodo de Heun.
Una observaci´on importante es que estos m´etodos no requieren la evaluaci´on de derivadas de f.
Considerando m´as t´erminos en el desarrollo de Taylor se pueden deducir m´etodos de Runge-
Kutta de mayor orden. Espec´ıficamente, un m´etodo de Runge-Kutta de orden k tiene la forma
x
i+1
= x
i
+hΦ(t
i
, x
i
, h)
donde
Φ(t
i
, x
i
, h) = T
k
(t
i
, x
i
, h) +O(h
k
).
Tambi´en
Φ(t
i
, x
i
, h) =
m

j=1
A
j
K
j
(t
i
, x
i
, h).
Los t´erminos K
j
est´an dados por
K
1
(t
i
, x
i
, h) = f(t
i
, x
i
),
K
j
(t
i
, x
i
, h) = f(t
i

j
h, y
i
+h
j−1

r=1
β
jr
K
r
(t
i
, x
i
, h)),
donde 0 < α
j
≤ 1 y α
j
=

j−1
r=1
β
jr
.
Ejemplo 8.6. Una forma de Runge-Kutta de orden cuatro es,
x
i+1
= x
i
+
h
6
[K
1
+ 2K
2
+ 2K
3
+K
4
] ,
K
1
= f(t
i
, x
i
), K
3
= f(t
i
+
h
2
, x
i
+
h
2
K
2
),
K
2
= f(t
i
+
h
2
, x
i
+
h
2
K
1
), K
4
= f(t
i
+h, x
i
+hK
3
).
166 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
3. An´alisis de los Errores
Primero definimos el error de truncaci´on local. Si x(t) es la soluci´on de la ecuaci´on diferencial
x

(t) = f(x(t), t) y consideramos t

y h fijos, se define el error de truncaci´on local, τ por medio
de la expresi´on que da:
x(t

+h) = x(t

) +hΦ(t

, x(t

), h) +hτ (8.5)
3.1. M´etodos de Euler y Taylor de orden k. En este caso el error de truncaci´on local
est´a dado por
x(t

+h) = x(t

) +hf(t

, x(t

)) +hτ
Si la soluci´on x(t) es suave (por ejemplo x

es acotada) se tiene que
x(t

+h) = x(t

) +hx

(t

) +
h
2
2
x

(γ) para alg´ un γ.
De aqu´ı se tiene que
τ =
h
2
x

(γ). (8.6)
El mismo argumento usado anteriormente nos da
τ =
h
k
(k + 1)!
x
(k+1)
(γ) (8.7)
Definici´ on 8.7. Diremos que el m´etodo x
i+1
= x
i
+ hφ(t
i
, x
i
, h) es de orden k si el error de
truncaci´ on local satisface
τ = O(h
k
)
Definici´ on 8.8. Si u(t) es una soluci´on de la ecuaci´ on u

(t) = f(t, u(t)) con valor inicial x
i
,
es decir, u es soluci´on de:
_
u

(t) = f(t, u(t))
u(t
i
) = x
i
∀i = 1, . . . , n
(1) El error local se define como: u(t
i+1
) −x
i+1
.
(2) El error global es: x(t
i+1
) −x
i+1
.
3. AN
´
ALISIS DE LOS ERRORES 167
donde x
i+1
est´a dado por el m´etodo x
i+1
= x
i
+hφ(t
i
, x
i
, h).
Observaci´ on 8.9. El error global y el error local se relacionan por la f´ormula
x(t
i+1
) −x
i+1
= x(t
i+1
) −u(t
i+1
) +u(t
i+1
) −x
i+1
.
Esto muestra que el error global esta formado por dos “componentes” uno dado por la ecuaci´on
diferencial (el primero) y otro dado por el m´etodo (el segundo).
El error local puede ser expresado en t´erminos del error de truncaci´on local,
u(t
i+1
) = u(t
i
) +hΦ(t
i
, x(t
i
), h) +hτ.
Como u(t
i
) = y
i
se sigue,
u(t
i+1
) = y
i
+hΦ(t
i
, x(t
i
), h) +hτ
y entonces
u(t
i+1
) −y
i+1
= hτ.
Si el m´etodo es de orden p, entonces el error local satisface
u(t
i+1
) −y
i+1
= O(h
p
).
3.2. Convergencia y an´alisis del error. Ahora nos restringiremos a problemas regulares,
es decir
_
x

(t) = f(t, x(t)),
x(0) = x
0
.
donde la soluci´on existe, es ´ unica y es regular en [0, t
0
].
Diremos que el m´etodo es convergente si dado t

en [0, t
0
] se tiene
lim
n→∞, t

=nh
x
n
= x(t

)
Teorema 8.10. Para un m´etodo a un paso dado por
x
i+1
= x
i
+hΦ(t
i
, x
i
, h)
168 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Si Φ es Lipschitz en la variable segunda variable, con constante K entonces, para e
j
al error
global, es decir, e
j
= x(t
j
) −x
j
se tiene:
[e
j
[ ≤
τ
K
(e
K(t
j
)
−1).
Demostraci´ on. Por un lado tenemos la propiedad de Lipschitz de φ en la segunda variable, esto
es:
[Φ(t, x, h) −Φ(t, y, h)[ ≤ K[x −y[,
con K una constante independiente de t y h. Fijamos un paso h = (b−a)/n y usamos el m´etodo
y el desarrollo de Taylor,
x
i+1
= x
i
+ hΦ(t
i
, x
i
, h)
x(t
i+1
) = x(t
i
) + hΦ(t
i
, x(t
i
), h) +hτ
i
Donde hτ
i
es el error de truncaci´on local en t
i
dado en la f´ormula (8.5). Restando miembro a
miembro y usando la Definici´on 8.8 se obtiene
e
i+1
= e
i
+h(Φ(t
i
, x(t
i
), h) −Φ(t
i
, x
i
, h)) +hτ
i
.
Empleando la hip´otesis de que φ es Lipschitz se obtiene
[e
i+1
[ ≤ (1 +Kh)[e
i
[ +hτ
i
.
Si llamamos τ = max¦τ
i
¦ se tiene
[e
i+1
[ ≤ (1 +Kh)[e
i
[ +hτ.
Con la misma iteraci´on calculada para [e
i
[, se obtiene
[e
i+1
[ ≤ (1 +Kh
2
)[e
i−1
[ +hτ(1 + (1 +hK)).
Continuando de esta manera queda
[e
i+1
[ ≤ (1 +Kh)
i+1
[e
0
[ +hτ(
i

j=0
(1 +hK)
j
Como e
0
= x(0) − x
0
se sigue que e
0
= 0. Entonces, usando las sumas parciales de una serie
geom´etrica,
3. AN
´
ALISIS DE LOS ERRORES 169
[e
i+1
[ ≤ hτ
(1 +Kh)
i+1
−1
(1 +Kh) −1
=
τ
K
((1 +hK)
i+1
−1)
Ahora observamos que
(1 +α)
i+1
≤ e
(i+1)α
entonces
[e
i+1
[ ≤
τ
K
(e
K(t
i+1
)
−1).
Observaci´ on 8.11. (1) El teorema anterior requiere de la existencia de K una constante
de Lipschitz para Φ. De existir una constante as´ı, cualquier otra mayor tambi´en sirve
para acotar el error utilizando el teorema.
(2) En cuanto a la hip´otesis sobre Φ (debe ser Lipschitz) esto puede extraerse de una
condici´on Lipschitz sobre f.
(3) Del Teorema 8.10 se deduce que los m´etodos a un paso son convergentes si lim
h→0
τ = 0.
Esto se llama la condici´on de consistencia para el m´etodo. En m´etodos de un paso
consistencia y convergencia son conceptos equivalentes.
(4) Si asumimos que φ es continua, se tiene que la consistencia equivale a la igualdad
x

(t
i
) = Φ(t
i
, x(t
i
), 0). Como x es soluci´on de la ecuaci´on diferencial se tiene x

(t) =
f(t, x(t)), y por tanto un m´etodo de un paso es consistente si y s´olo si
Φ(t, x, 0) = f(t, x). (8.8)
Observaci´ on 8.12. los m´etodos de Euler, los de Taylor y de Rungge-Kutta son convergentes.
Demostraci´on. Para los m´etodos de Taylor se tiene
x(t
i
+h) ∼ x(t
i
) +hx

(t
i
) +
1
2
h
2
x

(t
i
) +. . . +
1
k!
h
k
x
(k)
(t
i
),
y por tanto
Φ(t, x, h) = x

(t) +
1
2
hx

(t) +. . . +
1
k!
h
k−1
x
(k)
(t).
Al evaluar h = 0 tenemos, Φ(t, x, 0) = x

(t) = f(t, x).
En cuanto a los m´etodos de Runge-Kutta, s´olo verificaremos los dados por las f´ormulas (8.3) y
(8.4). El Ejemplo 8.6 queda como ejerecicio.
Para Runge-Kutta de orden 2 tenemos:
x
i+1
= x
i
+h
_
f(t
i
+
h
2
, x
i
+
h
2
f(t
i
, x
i
))
¸
x
i+1
= x
i
+
h
2
[f(t
i
, x
i
) +f(t
i+1
, x
i
+hf(t
i
, x
i
))] .
170 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Luego Φ(t, x, h) = f(t
+
h
2
, x +
h
2
f(t, x)), y Φ(t, x, h) =
1
2
_
f(t, x) + f(t, x + hf(t, x))
¸
respectiva-
mente. En ambos casos resulta
Φ(t, x, 0) = f(t, x).
Observemos que si en vez de una ecuaci´on debemos lidiar con un sistema
U

(t) = F(U(t), t))
U = (u
1
, . . . , u
N
)
podemos usar los mismos me
´
todos que antes, por ejemplo el m´etodo de Euler nos queda
U
i+1
= U
i
+hF(U
i
, t
i
)
En general, los m´etodos a un paso tienen la forma
U
i+1
= U
i
+hφ(U
i
, t
i
, h)
4. M´etodos multipaso lineales
Hasta ahora para aproximar las soluciones de x

= f(x, t) nos basamos en el punto inmediato
anterior para calcular el siguiente.
La filosof´ıa de los m´etodos multipaso es usar la “historia”, es decir los k puntos anteriores a t
i
para calcular la aproximaci´on en t
i+1
.
Los m´etodos multipaso lineales (de k pasos) tienen la forma:
x
n+k
= −
k−1

j=0
α
j
x
n+j
+h
k

j=0
β
j
f(t
n+j
, x
n+j
)
M´as precisamente a un m´etodo como el anterior se lo llama m´etodo multipaso de k pasos.
Por ejemplo, si aproximamos la derivada por
4. M
´
ETODOS MULTIPASO LINEALES 171
x

(t) ∼
x(t +h) −x(t −h)
2h
considerando puntos equiespaciados nos queda
x

(t
i
) ∼
x
i+1
−x
i−1
2h
y como
x

(t
i
) = f(t
i
, x(t
i
)) ∼ f(t
i
, x
i
)
podemos poner
x
i+1
−x
i−1
2h
= f(t
i
, x
i
)
es decir
x
i+1
= x
i−1
+ 2hf(x
i
, t
i
)
que es un m´etodo multipaso de dos pasos (para calcular x
i+1
se usan x
i
y x
i−1
).
Los m´etodos de integraci´on tambi´en nos proporcionan ejemplos de m´etodos multipaso. Por
ejemplo, si aproximamos la integral
x(t
n+2
) −x(t
n
) =
_
t
n+2
t
n
x

(s) ds
por la regla de Simpson se obtiene
x(t
n+2
) −x(t
n
) ∼
h
3
(x

(t
n
) + 4x

(t
n+1
) +x

(t
n+2
))
Recordando que x

= f(x, t) podemos proponer el siguiente m´etodo
x
n+2
−x
n
=
h
3
(f(x
n
, t
n
) + 4f(x
n+1
, t
n+1
) +f(x
n+2
, t
n+2
))
que es un m´etodo multipaso a dos pasos.
Ahora usaremos la notaci´on
k

j=0
α
j
x
n+j
= h
k

j=0
β
j
f
n+j
172 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
para el m´etodo.
Si β
k
= 0 el m´etodo es expl´ıcito, mientras que si β
k
,= 0 el m´etodo es impl´ıcito.
Si usamos una f´ormula del tipo
_
t
n+k−1
t
n+k
x

(s) ds ∼ h(A
0
x

(t
n
) +. . . +A
k
x

(t
n+k
))
para aproximar integrales nos encontramos con un m´etodo de la forma,
x
n+k
−x
n+k−1
= h(A
0
f
n
+. . . +A
k
f
n+k
)
Si es expl´ıcito se conoce como m´etodo de Adams-Bashforth y si es impl´ıcito como m´etodo de
Adams-Moulton (ver ejercicios).
A menudo se usan estos m´etodos de a pares y se usa la diferencia entre los dos m´etodos, x
i
− ˜ x
i
para estimar el error local. Este procedimiento se conoce como “predictor-corrector”.
Para comenzar a aplicar los m´etodos multipaso se necesitan los primeros k valores que usual-
mente se calculan con m´etodos a un paso.
4.1. Convergencia de los m´etodos multipaso. Empecemos por el error de truncaci´on
para un m´etodo de k pasos
k

j=0
α
j
x
n+j
= h
k

j=0
β
j
f
n+j
Si x(t) es la soluci´on de x

= f(x, t)el error de truncaci´on local est´a dado por
k

j=0
α
j
x(t +jh) −h
k

j=0
β
j
x

(t +jh) = hτ
Si x(t) es suficientemente regular, podemos expresar hτ en la forma
hτ = C
0
x(t) +C
1
hx

(t) +C
2
h
2
x

(t) +. . . +C
q
h
q
x
(q)
(t) +. . .
Para ver esto, escribimos
x(t +jh) = x(t) +x

(t)jh +
x

(t)
2
(jh)
2
+. . .
4. M
´
ETODOS MULTIPASO LINEALES 173
x

(t +jh) = x

(t) +x

(t)jh +
x

(t)
2
(jh)
2
+. . .
Metiendo esto en la expresi´on de τ e igualando potencias de h se obtiene
C
0
= α
0
+. . . +α
k
C
1
= α
1
+ 2α
2
+ 3α
3
+. . . +kα
k
−β
0
−β
1
−β
2
−. . . −β
k
En general para cualquier q ≥ 1
C
q
=
1
q!

1
+ 2
q
α
2
+ 3
q
α
3
+. . . +k
q
α
k
) −
1
(q −1)!

1
+ 2
q−1
β
2
+. . . +k
q−1
β
k
)
Si C
0
= C
1
= . . . = C
p
= 0 y C
p+1
,= 0 el m´etodo se dice de orden p. Para un m´etodo de orden
p el error τ satisface
τh = C
p+1
h
p+1
x
(p+1)
(t) +O(h
p+2
)
Para ver la convergencia, como antes, fijamos t

y ponemos n y h tales que t

= (n + k)h.
Queremos
lim
h→0
x
n+k
= x(t

)
Queremos ver que condiciones debemos imponer al m´etodo para que esto ocurra.
Primero pongamos el problema x

(t) = 0, x(0) = 1 (soluci´on x ≡ 1). El m´etodo aplicado a este
problema se reduce a
k

j=0
α
j
x
n+j
= 0
Para cualquier m´etodo multipaso debemos tener (como k est´a fijo y h → 0) que x
n+k
→ x(t

),
. . . , x
n
→ x(t

). Entonces podemos escribir x
n+j
= x(t

) +ϕ
j
(h) con ϕ
j
(h) → 0 cuando h → 0.
Usando esto se obtiene
k

j=0
α
j
x(t

) +
k

j=0
α
j
ϕ
j
(h) = 0
174 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
Como la segunda suma tiende a cero con h nos queda
x(t

)
k

j=0
α
j
= 0
Es decir
C
0
= 0.
Para ver que C
1
tambi´en debe ser cero para que el m´etodo converja, consideremos el problema
x

(t) = 1, x(0) = 0 que tiene como soluci´on x(t) = t. El m´etodo para este problema se reduce a
k

j=0
α
j
x
n+j
= h
k

j=0
β
j
Es f´acil verificar que la sucesi´on dada por
x
l
= lhM
es soluci´on de este esquema donde
M =

k
j=0
β
j

k
j=0

j
Si los valores iniciales se eligen de la forma x
l
= lhM el m´etodo va a producir la soluci´on
x
l
= lhM y en particular
x
n+k
= (n +k)hM
Como suponemos que el m´etodo es convergente se tiene que lo valores iniciales satisfacen x
i

x(0) = 0 cuando h → 0, y adem´as x
n+k
→ x(t

), pero
x
n+k
= (n +k)hM = t

M → t

Entonces conclu´ımos que
M = 1
lo que nos da
4. M
´
ETODOS MULTIPASO LINEALES 175
C
1
= 0
Esto se denomina consistencia del m´etodo multipaso.
Para los m´etodos de un paso, la consistencia implicaba la convergencia, para los m´etodos mul-
tipaso se requiere una condici´on adicional la condici´on de la ra´ız.
Veamos esto. Ahora consideremos el problema x

(t) = 0, x(t) = 0, cuya soluci´on es x(t) ≡ 0.
En este caso el m´etodo se reduce a
k

j=0
α
j
x
n+j
= 0
Esto describe una ecuaci´on en diferencias que admite como soluci´on a la sucesi´on
x
m
= h(r
i
)
m
donde r
i
es cualquiera de las ra´ıces del polinomio p(r) dado por
p(r) = r
k

k−1
r
k−1
+. . . +α
1
r +α
0
Si asumimos que el m´etodo es convergente se tiene que
x
n+k
→ x(t

) = 0 h → 0
Adem´as
x
n+k
= h(r
i
)
n+k
Para verificar que x
n+k
→ 0, como n = t

/h → ∞ cuando h → 0 se debe tener que
[r
i
[ ≤ 1
Entonces la convergencia implica que todo cero de p(r) debe satisfacer
[r
i
[ ≤ 1.
Adem´as, si r
i
es una ra´ız m´ ultiple de p(r) podemos poner
x
j
= hj
q
(r
i
)
j
176 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
con q ≤ m−1 (m es la multiplicidad de la ra´ız). Tenemos
x
n+k
= h(n +k)
q
(r
i
)
n+k
y como h(n +k) = t

para que x
n+k
→ 0 se debe tener
[r
i
[ < 1.
Es decir debemos pedir la
Condici´ on 8.13. (de la ra´ız)
(1) [r
i
[ ≤ 1 si r
i
es un cero simple de p(r).
(2) [r
i
[ < 1 si r
i
es un cero m´ ultiple de p(r).
Ahora podemos enunciar el teorema
Teorema 8.14. Un m´etodo multipaso es convergente si y solo si el m´etodo es consistente y
satisface la condici´on de la ra´ız.
Terminaremos este cap´ıtulo con una secci´on de m´etodos de paso variable.
5. M´etodos de paso variable
La idea es elegir los pasos h
i
en forma variable. Por ejemplo,
5.1. Euler adaptivo para una ecuaci´on que explota. Ahora analizaremos un m´etodo
adaptivo para elegir los pasos τ
j
en el m´etodo de Euler.
Sea y(t) la soluci´on de la ecuaci´on diferencial
_
y

(t) = f(y(t))
y(0) = y
0
> 0
(8.9)
donde f es positiva, creciente y regular.
Supongamos que
_
+∞
1/f < +∞, entonces y(t) explota en tiempo finito T y podemos calcular
exactamente el tiempo de explosi´on. De hecho vale
T =
_
+∞
y
0
1
f(s)
ds
Si aproximamos y(t) usando el m´etodo de Euler nos queda
6. EJERCICIOS 177
_
y
j+1
= y
j

j
f(y
j
)
y
0
= y
0
(8.10)
Ahora elegimos
τ
j
f(y
j
) = λ (8.11)
como los pasos τ
j
. Usando (8.10) y (8.11) tenemos
y
j+1
= y
j
+λ = . . . = y
0
+ (j + 1)λ
y entonces,
τ
j
=
λ
f(y
j
)
=
λ
f(y
0
+jλ)
.
De esto podemos concluir que el esquema num´erico tambi´en explota en el sentido siguiente:
y
j
→ ∞ mientras

j
τ
j
< +∞.
Adem´as nos provee de una estimaci´on del tiempo de explosi´on. De hecho, vale

j=0
τ
j
= τ
0
+

j=1
λ
f(y
0
+jλ)

λ
f(y
0
)
+
_
+∞
0
λ
f(y
0
+sλ)
ds =
λ
f(y
0
)
+
_
+∞
y
0
1
f(s)
ds =
λ
f(y(
0
)
+T
Entonces T
λ
=

j
τ
j
< +∞ y
T
λ
−T ≤
λ
f(y
0
)
.
Adem´as, como y es convexa, es f´acil ver que la soluci´on num´erica est´a por debajo de la continua
y entonces
T ≤ T
λ
.
Concluimos que,
[T −T
λ
[ ≤
λ
f(y
0
)
.
6. Ejercicios
(1) Utilizar el m´etodo de Euler para resolver
_
x

= 2x en [0, 1]
x(0) = 1
empleando pasos h = 0.1, h = 0.05 y h = 0.01. Graficar las tres soluciones num´ericas
obtenidas junto con la soluci´on exacta.
(2) Hacer el mapa de curvas integrales en la regi´on [0, 10] [0, 10] de la ecuaci´on diferencial
x

(t) = (x(t) −5).(cos
2
(t) −0.5),
graficando simult´aneamente, para k = 0, 1, . . . , 10, la soluci´on que se obtiene utilizando
el m´etodo de Euler con paso h = 0.01 y con condici´on inicial
x(0) = k.
178 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
(3) Considerar el problema
_
x

= λx
x(0) = x
0
.
(a) Probar que el m´etodo de Euler con paso h genera la sucesi´on:
x
i
= (1 +λh)
i
x
0
i = 0, 1, . . . .
(b) Mostrar que si λ < 0, la soluci´on exacta tiende a cero a medida que x crece.
(c) Para λ < 0, determinar para qu´e valores de h ocurre que x
i
→ 0 cuando i → ∞.
(4) Se considera el problema
_
x

(t) = x(t) +t
2
+ 3 en [0, 2]
x(0) = −2
(a) Demostrar que la soluci´on es una funci´on convexa.
(b) Utilizar los m´etodos de Euler expl´ıcito e impl´ıcito, con paso h = 0.05 para obtener
dos aproximaciones de la soluci´on y graficarlas. Decidir en que regi´on del gr´afico
deber´a situarse la soluci´on anal´ıtica del problema.
(c) Graficar la soluci´on que se logra al utilizar el comando ode45 de Matlab.
(5) Se considera la siguiente ecuaci´on diferencial:
_
x

(t) = 2x(t) −5 sin(t)
x(0) = 1
cuya soluci´on exacta es la funci´on x(t) = 2 sin(t) + cos(t). Graficar simult´aneamente
en el intervalo [0, 4] la soluci´on exacta y las que se obtienen con los m´etodos de Euler
y Taylor de orden 2, ambos con paso h = 0.05.
(6) Escriba un programa que resuelva la ecuaci´on diferencial del Ejercicio 5 por alg´ un
m´etodo de Runge-Kutta de orden 2 y de orden 4. Agregar estas soluciones al gr´afico
realizado en dicho ejercicio.
(7) Verificar que la funci´on error, erf, puede ser definida como la soluci´on de la ecuaci´on
diferencial
_
x

(t) =
2

π
e
−t
2
x(0) = 0
.
Utilizar un m´etodo de Runge-Kutta de orden 2 para hallar erf(t
i
) con t
i
= 0, 0.05, 0.1,
0.15, . . . , 1. Comparar con los valores obtenidos directamente con el comando erf de
Matlab.
(8) Considerar la ecuaci´on
x

= x
2
, x(0) = 0.5
(a) Calcular el tiempo T en que la soluci´on anal´ıtica explota.
(b) Calcular y graficar en el intervalo [0, T − 0.1] la aproximaci´on a la soluci´on de la
ecuaci´on utilizando el m´etodo de Euler adaptativo de par´ametro λ con un λ tal
que el tiempo en que explota la soluci´on num´erica T
λ
diste de T en menos que
10
−1
.
(c) Agregar al gr´afico anterior las aproximaciones obtenidas en el mismo intervalo con
el m´etodo de Euler usual con paso h = 0.05 y con el comando ode45.
(9) Probar que el m´etodo de Runge-Kutta de oprden 4 dado en el Ejemplo 8.6 es consistente.
(10) Hallar el error local para los m´etodos de Euler expl´ıcito e impl´ıcito.
6. EJERCICIOS 179
(11) Se quiere estimar, aplicando el m´etodo de Euler, el valor de e como x(1) donde x(t) es
soluci´on de x

= x, x(0) = 1. Hallar un paso h de modo que el error cometido resulte
menor que 10
−3
. Realizar el mismo trabajo para el m´etodo de Taylor de orden 2.
(12) Considerar el problema x

= −2tx, x(0) = 1, con t ≥ 0.
(a) Determinar una cota, en t´erminos de h, para el error cometido si se usa el m´etodo
de Euler para calcular x(1).
(b) ¿C´omo deber´ıa tomar h si se desea que el error cometido sea menor que 10
−2
?
(c) Calcular la soluci´on en t = 1 usando el valor de h obtenido en el item previo, y
verificar las estimaciones previstas comparando con la soluci´on exacta.
(13) Repetir los items (a) y (b) del ejercicio anterior para el problema:
_
x

(t) = t sin
2
(x(t))
x(0) = 1
(14) La trayectoria de una part´ıcula que se se mueve en el plano est´a dada por las cur-
va (x
1
(t), x
2
(t)), donde las funciones x
1
, x
2
son la soluci´on del siguiente sistema de
ecuaciones diferenciales:
x

1
(t) = −x
2
(t)
x

2
(t) = x
1
(t) −x
2
(t)
.
Resolver este sistema en el intervalo [0, 20] con el m´etodo de Euler utilizando paso
h = 0.05 y graficar la trayectoria de la part´ıcula, sabiendo que en tiempo t = 0 se
encontraba en el punto (1, −1). Realizar nuevamente el gr´afico utilizando la soluci´on
obtenida con el comando ode45.
(15) Probar que una ecuaci´on de orden n se puede escribir como un sistema de n ecuaciones
de primer orden. Mostrar que un problema de valores iniciales para la primera se
transforma en un problema de valores iniciales para el sistema.
(16) Considerar el siguiente problema:
x

−3x

+ 2x = 0, con x(0) = 1, x

(0) = 0.
Resolver la ecuaci´on anal´ıticamente y aproximar el valor x(1) con un m´etodo de Runge-
Kutta de orden 2 para distintos valores de h.
(17) Considerar la ecuaci´on x

(t) = f(t, x(t)).
(a) Deducir la f´ormula de Milne:
x
n
= x
n−2
+h(
1
3
f
n
+
4
3
f
n−1
+
1
3
f
n−2
),
aproiximando la integral
_
t
n
t
n−2
f(t, x(t))dt =
_
t
n
t
n−2
x

(t)dt = x(t
n
) −x(t
n−2
),
con la f´ormula de Simpson.
(b) Analizar la convergencia (estabilidad y consistencia) del m´etodo y calcular su
´orden.
(18) Analizar la convergencia de los siguientes m´etodos y calcular su ´orden.
• Adams-Bashforth.
x
n+3
−x
n+2
=
h
12
(23f
n+2
−16f
n+1
+ 5f
n
).
180 8. RESOLUCI
´
ON DE ECUACIONES DIFERENCIALES ORDINARIAS.
• Adams-Moulton.
x
n+3
−x
n+2
=
h
12
(5f
n+3
+ 8f
n+2
−f
n+1
).
(19) Considerar el m´etodo de 2 pasos
x
n+2
+ax
n+1
+ax
n
= h(β
2
f
n+2

1
f
n+1

0
f
n
).
Determinar a, β
2
, β
1
, β
0
de modo que el m´etodo resultante tenga orden 4.
(20) Decidir si existe alg´ un valor de a ∈ IR para el cual el siguiente m´etodo multipaso sea
convergente:
x
n+3
−3x
n+2
+ (3 −a
2
)x
n+1
+ (a
2
−1)x
n
= h[5f
n+2
+ (−a
2
−5)f
n
].
(21) Miscel´anea. Considerar la ecuaci´on x

=
_
[x[.
(a) Para el valor inicial x(0) = 0, seguir las iteraciones del m´etodo de Euler, con paso
h = 0.1 hasta llegar al valor de x(10).
(b) Graficar la soluci´on que se obtiene al aplicar el m´etodo de Euler, si el valor de x(0)
es dado con un error de 10
−6
, es decir x(0) = 0.000001.
Nota: La gran propagaci´on del error en el dato inicial se debe a que esta ecuaci´on
tiene infinitas soluciones si x(0) = 0. En particular, cualquiera sea α > 0
x(t) =
_
_
_
0 t ≤ α
(t −α)
2
4
t > α
es soluci´on de la misma.

´ Indice General
Cap´ ıtulo 1. Punto flotante y redondeo 1. Punto flotante 2. Redondeo 3. Ejercicios Cap´ ıtulo 2. Normas y condicionamiento de una matriz. 1. Ejercicios Cap´ ıtulo 3. Resoluci´n de sistemas lineales. o 1. M´todos directos e 2. M´todos iterativos e 3. Ejercicios Cap´ ıtulo 4. Resoluci´n de ecuaciones no lineales. o 1. M´todo de bisecci´n. e o 2. M´todo regula falsi e 3. M´todo de Newton-Raphson. e 4. M´todo de punto fijo e 5. M´todo de la secante e 6. Ejercicios Cap´ ıtulo 5. Interpolaci´n o 1. Interpolaci´n de Lagrange o 2. Error de interpolaci´n o 3. Forma de Newton 4. Polinomios de Tchebychev - Minimizaci´n del Error o 5. Interpolaci´n de Hermite o 6. Interpolaci´n por polinomios a trozos o 7. Ejercicios Cap´ ıtulo 6. Polinomios ortogonales y aproximaci´n por cuadrados m´ o ınimos. 1. Preliminares 2. Soluci´n de los Problemas de Aproximaci´n o o 3. Ejercicios Cap´ ıtulo 7. Integraci´n num´rica o e 1. F´rmulas de Newton-Cˆtes o o 2. Estimaci´n del error o 3. F´rmulas de cuadratura compuestas o
3

1 1 3 11 15 29 35 35 40 60 65 65 68 69 76 79 83 87 87 90 92 95 102 104 107 111 112 118 127 131 132 139 143

4 ´ INDICE GENERAL 4. M´todos multipaso lineales e 5. Ejercicios . o 1. M´todos de Runge-Kutta e 3. M´todos de paso variable e 6. An´lisis de los Errores a 4. Resoluci´n de ecuaciones diferenciales ordinarias. Convergencia de los m´todos de cuadratura e Cuadratura Gaussiana Ejercicios 148 150 154 159 162 164 166 170 176 177 Cap´ ıtulo 8. 6. M´todos de Euler y Taylor de orden k e 2. 5.

aparece cuando se utiliza el a m´todo de eliminaci´n de Gauss para resolver un sistema de ecuaciones lineales. En las aplicaciones del c´lculo num´rico es pr´cticamente imposible determinar exactamente la a e a magnitud de los errores de redondeo. Lo que si puede hacerse.CAP´ ıTULO 1 Punto flotante y redondeo El objeto de este cap´ ıtulo es analizar la representaci´n de los n´meros en una computadora y la o u propagaci´n de los errores de redondeo al realizar c´lculos. Un claro ejemplo de esto. Este abuso de lenguaje es s´lo para mayor claridad (el lector o podr´ observar que todo nuestro an´lisis puede repetirse trabajando en base 2). e Por otra parte. o a Como la cantidad de informaci´n que puede guardarse en una computadora es finita. u a Esto no es exacto pues en realidad la computadora opera internamente con los n´meros desarrou llados en base 2 y no en base 10. es identificar las posibles causas de que los errores se propaguen m´s de lo admisible. puede escribirse como u . En el primer caso se puede (se debe!) tratar de mejorar el m´todo de resoluci´n e o mientras que en el segundo caso el problema es m´s esencial. a 1. toda vez que de nuestros datos o c´lculos surja un n´mero que no pertenece a a u este conjunto finito. a a Observemos primero que un n´mero real cualquiera. a Al realizar c´lculos estos errores de redondeo se propagan y esto puede llevar a resultados a totalmente incorrectos como veremos en algunos ejemplos simples. a o u e u a En consecuencia. x > 0. Los ejemplos que presentaremos a ilustrar´n estos dos casos. En este caso. Esto a permite mejorar los algoritmos o determinar que m´todo es m´s conveniente para resolver un e a problema. Este reemplazo da lugar a lo que llamamos errores de redondeo. que veremos m´s adelante. A ´stos los llamaremos n´meros de m´quina. e o el an´lisis de la propagaci´n de errores permite determinar la forma m´s eficiente de aplicar el a o a m´todo. es fundamental distinguir cuando la propagaci´n excesiva de errores se debe a o que el algoritmo utilizado es “malo” o inestable o a que el problema en s´ mismo est´ “mal ı a condicionado”. x ∈ IR. ´ste deber´ ser reemplazado por una aproximaci´n (el n´mero de m´quina e a o u a m´s cercano). la m´quina o a trabajar´ s´lo con un conjunto finito de n´meros. y es de fundamental importancia. Punto flotante En lo que sigue supondremos que los n´meros de m´quina son los que aparecen en la pantalla.

para simplificar. a1 = 0 x ≤x≤x Supongamos. Los n´meros m. . por ser muy grande o muy chico. . a a x = 0.2 1. Entonces tenemos x = 0. a1 = 0 m´s los correspondientes negativos y el cero. a Supongamos entonces que x est´ en el rango de la m´quina.. ak .. a1 a2 .. M1 y M2 dependen de la m´quina.am . En particular. a u a Esta representaci´n de los n´meros es la que se llama de punto flotante.10l Este x est´ entre dos n´meros de m´quina. a1 a2 . Al analizar la propagaci´n de errores de redondeo se aclarar´ por qu´ esta e o a e distribuci´n de los n´meros es m´s razonable que una uniforme. o u a Sea x ∈ IR. Por lo tanto. De la misma forma. Hay dos posibilidades: que x a u est´ o no en el rango de los n´meros de m´quina. S´ lo est´ el subconjunto que u a a ı a est´ entre 10l y 10l+1 para cada l. La cantidad de u a u n´meros de m´quina que hay entre 1/10 y 1 es. 1 ≤r<1 10 (es decir.. ... o u Los n´meros de m´quina forman un conjunto finito de n´meros racionales.. En general. que am = 9 (analice el lector el caso contrario). a1 a2 . o sea. la cantidad que hay entre 10l y 10l+1 es tambi´n 9 × 10m−1 .(am + 1)10l . a1 a2 . En consecuencia los n´meros de u a u m´quina ser´n de la forma a a x = 0.. los n´meros m´s grandes est´n m´s separaa u a a a dos. 10l = r × 10l . a1 = 0) Pero en una computadora no se pueden poner infinitos d´ ıgitos.am 10l y x = 0. Para simplificar notaci´n supondremos x > 0 (claramente todas las consideraciones o que haremos se aplican an´logamente a los n´meros negativos). u a #{x / 1/10 ≤ x < 1} = 9 × 10m−1 .. se trabaja s´lo o con n´meros de desarrollo finito y de una longitud dada. . Si al hacer c´lculos aparece un n´mero en e u a a u la segunda situaci´n.. la computadora nos dar´ un mensaje o a indic´ndolo.am 10l = q × 10l − M1 ≤ l ≤ M2 ... PUNTO FLOTANTE Y REDONDEO x = 0.. Resulta util para la comprensi´n hacer un dibujo de los n´meros de m´quina en la recta ´ o u a num´rica (Ejercicio)... a u a M1 ≤ l ≤ M2 . a1 a2 .. Esto nos dice que e los n´meros de m´quina no est´n uniformemente distribuidos.. .. el exponente l u (es decir el orden del n´mero) estar´ limitado a cierto rango.

.. Usaremos la notaci´n u o x∗ = x redondeado El error absoluto ser´ a |x − x∗ | ≤ 1 1 10l 2 10m Mientras que el error relativo se puede acotar de la forma siguiente 1 10l−m |x − x∗ | ≤ |x| 2 0. a1 a2 . a1 = 0 decimos que conocemos a x con m d´ ıgitos significativos.... que es el m´s significativo. a1 a2 . Redondeo Hay dos formas de aproximar a x. A esta forma de aproximar se la conoce por redondeo y es la que o usan habitualmente las computadoras. . es independiente de ´sta. Observar la importancia de la condici´n a1 = 0: de lo o contrario los d´ ıgitos dejan de ser significativos. a conocerlo u con un error relativo del orden de 10−m . Una es por truncamiento: se elige siempre x es decir el mayor de los n´meros de m´quina que son menores que x. est´ conu a e a trolado en t´rminos de la cantidad de d´ e ıgitos con la que trabaja nuestra computadora (Ejercicio: meditar que tiene que ver esto con la distribuci´n no uniforme de los n´meros de m´quina).am ......2. el relativo. seg´n vimos. o u a Si tenemos x∗ = 0. a1 a2 ..am .am 10l .10l y como 0. lo que equivale. si bien el error absoluto que introduce el redondeo depende de la magnitud del n´mero... Veamos que error cometemos al aproximar un n´mero por redondeo. Es importante observar que.. ≥ se tiene que 1 10 |x − x∗ | ≤ 5 × 10−m |x| Es decir que el error relativo es del orden de 10−m si nuestra m´quina trabaja con m d´ a ıgitos.. REDONDEO 3 2. La otra forma es tomar el m´s u a a pr´ximo a x entre x y x .

Otra forma de interpretar el significado del ε de la m´quina es la siguiente: ε nos dice cu´l es el a a menor n´mero tal que. 10. si m = 5 y a . Pero desde el punto de vista pr´ctico s´lo interesa el orden de ε (y ´ste s´ es a o e ı correcto!). Es fundamental observar que ε no es el menor n´mero que se puede representar en la m´quina u a (y est´ muy lejos de ´ste!).. depende de la m´quina y se lo llama el ε de la m´quina.. es decir. Como vimos.. 1 + ε = 1. 0. un resultado a u a distinto de x es ε|x|. en la m´quina. Empecemos por sumar dos n´meros. el m´s chico puede “desaparecer”... seg´n la u m´quina tendremos a 1 + 4 × 10−m = 1.00 × 10 = 1 en cambio. PUNTO FLOTANTE Y REDONDEO Observemos que x∗ = x(1 + δ) con |δ| ≤ ε = 5 × 10−m Este ε es el error de redondeo unitario. Ejercicio: calcular el ε exacto suponiendo que la m´quina trabaja en base 2 con k d´ a ıgitos. 10.. En efecto. u a M´s en general.06 = 0. el orden del menor n´mero que sumado a un x da.. si se le suma a 1 algo menor que ε. el verdadero ε de m´quina no es exactamente ´ste debido a que la computadora a e trabaja en base 2. “desaparece” debido al redondeo...04 = 0. 0.. seg´n lo a a u comentado antes.01 × 10 = 1 Si sumamos exactamente ε el resultado depender´ de como redondee la m´quina en el caso en a a que x equidista de dos n´meros de m´quina. a Este valor. si sumamos dos n´meros de ordenes muy u u distintos. es decir. de esta forma el error |x − x∗ | ser´ menor o igual que ε|x|. u a 1+ε=1 O sea.4 1.. cuando la cifra m + 1 es justo 5.. ε. a e ´ Veamos ahora algunos de los problemas que surgen debido al redondeo. Este ultimo depende de M1 y no de m. Por ejemplo. Recordemos que. que el error que se comete al aproximar x por x∗ es xδ con |δ| ≤ ε. en la m´quina.

13 × 10−3 Observemos qu´ sucedi´: x e y estaban representados con 5 d´ e o ıgitos significativos pero al restarlos quedaron s´lo 2 del resultado. 78473 × 108 . a u debido a lo que se conoce como “cancelaci´n catastr´fica”. x − y = 0. y ∗ = 0. En este caso. y por lo tanto. 372023264 . tenemos y = 24 x∗ = 0. u a x + y = 78473024 y por lo tanto. esto nos dice que si tenemos que sumar varios n´meros x1 . Consideremos como antes m = 5 y tomemos x = 0. el orden del error relativo no se agranda (se est´ perdiendo la informaci´n de un a o n´mero que es despreciable respecto del otro sumando). e En el ejemplo anterior el problema no es muy importante ya que no se pierden d´ ıgitos significativos. agrandarse mucho el error relativo. 37202 y = 0.xN conviene u hacerlo de menor a mayor (¿Por qu´?). (x + y)∗ = 0. y ∗ = 0... en otras palabras. 00013 = 0.78473 × 108 = x∗ = x En particular. 37215. u El problema es mucho m´s serio cuando deben restarse dos n´meros parecidos. En consecuencia el error relativo creci´ de manera tal que si bien o o el error relativo en x e y era del orden de 10−5 el del resultado es del orden de 10−2 . es decir. Entonces.2. REDONDEO 5 x = 78473000. . pueden perderse d´ o o ıgitos significativos o. x∗ = 0. 372154876.. 000131612 mientras que x∗ − y ∗ = 0. x2 . 24 × 102 es decir que x e y son n´meros de m´quina.. entonces.

. PUNTO FLOTANTE Y REDONDEO Como conclusi´n observamos que hay que tratar de evitar restar n´meros “casi iguales”. si x = 0. 0004 (un o solo d´ ıgito significativo si bien conociamos x exactamente). En este caso se puede usar n el desarrollo de Taylor. En n o cambio podemos proceder de la siguiente manera: √ √ ( x2 + 1 − 1)( x2 + 1 + 1) x2 √ y= +1−1= = √ ( x2 + 1 + 1) ( x2 + 1 + 1) y utilizar la ultima expresi´n para calcular y. debido al redondeo.000010000000001 . y = 0. estamos en la situaci´n anterior. 00048662 (que tiene cuatro d´ ıgitos significativos correctos). Mientras que con la segunda..6 1. 0312 obtenemos con la primera f´rmula y = 0. Por ejemplo. dan resultados distintos. Si lo hacemos directamente. e y = x − sin x = Otro caso en el que la cancelaci´n de d´ o ıgitos significativos puede presentarse es en la resoluci´n o de una ecuaci´n cuadr´tica o a ax2 + bx + c = 0 si utilizamos la f´rmula habitual o −b + √ b2 − 4ac 2a −b − √ b2 − 4ac 2a x1 = y x2 = Consideremos por ejemplo. x2 − 105 x + 1 = 0 Los primeros d´ ıgitos exactos de las ra´ ıces son x1 = 99999. ıan trabajando con 5 d´ ıgitos. supongamos que queremos calcular y = x2 + 1 − 1 para valores de x peque˜os..99999 y x2 = 0. x2 El mismo problema surge al calcular y = x − sin x para x peque˜o. x3 x5 x7 − + . 3! 5! 7! y calcular y sumando los primeros t´rminos de la serie.. Por o u ejemplo. Si los c´lculos fueran exactos ambas f´rmulas ´ o a o dar´ el mismo resultado pero.

Otra vez hemos restado dos n´meros parecidos! u 105 − Esto se puede solucionar calculando primero x1 y luego obtener x2 usando que x2 = c ax1 . En general. Multiplicando la primera fila por 1 ε = 106 y rest´ndosela a la segunda obtenemos a x y 1 2 − 106 10−6 1 0 1 − 106 pero. De esta forma se evita la p´rdida de d´ e ıgitos significativos. Tratemos de resolver el siguiente sistema utilizando el m´todo o e de eliminaci´n de Gauss. ε = 10−6 y supongamos que la m´quina trabaja con cinco d´ a ıgitos. REDONDEO 7 Usando la f´rmula para x2 tenemos o √ 1010 − 4 x2 = 2 Si trabajamos con ocho d´ ıgitos el 4 desaparece y x2 resulta igual a cero. a e o Veamos como los errores de redondeo pueden afectar la soluci´n a´n en problemas de dos o u ecuaciones con dos inc´gnitas. con el redondeo a cinco cifras nos queda 10−6 1 0 −106 = x y = 1 −106 (perdimos la informaci´n de la segunda ecuaci´n!). o o Mientras que el resultado exacto es 10−6 1 0 −999999 x y 1 −999998 = . es calculando primero √ −b − sign(b) b2 − 4ac x1 = 2a y luego la otra raiz como hicimos en el ejemplo. la forma correcta de encontrar las ra´ en el caso en que ac sea despreciable respecto ıces de b. a modo de ejemplo. o ε 1 1 1 x y 1 2 = Pongamos.2. Un problema fundamental del c´lculo num´rico es la resoluci´n de sistemas de ecuaciones lineales.

reemplazando en la o o primera. o 1 1−10−6 n Analicemos qu´ sucedi´. Pero la soluci´n verdadera es o 1 − 2 × 10−6 ∼1=y 1 − 10−6 1 =0=x x= 1 − 10−6 es aproximadamente 1. Al hacer las restas 1 − 1 . x = 1. o 1 εx = 1 − y . y entonces x = (1 − y ) ε ∗ − y se amplifica por un factor 1 dando lugar a un error grande en x. x = 0. Adem´s el error relativo es 1 a y= Observemos que x − x = x = (catastr´fico!). En este ejemplo.ε fila 1). Este error. Esto implica que el error y ε Veamos ahora que pasa si hacemos el mismo proceso de eliminaci´n de Gauss pero intercamo biando las filas de lugar. no es o significativo respecto de y pero al reemplazar en la primera ecuaci´n queda. Pero veamos: si utilizamos la matriz obtenida con la m´quina a y despejamos de la segunda ecuaci´n obtenemos la soluci´n y = 1 y luego. al perder la sexta cifra. esto o . Veremos m´s adelante que esto es algo o o a general: conviene elegir como “pivote” (elemento por el que se divide) para la eliminaci´n de o Gauss el que tenga mayor valor absoluto. Sin embargo. o x y 2 1 − 2 × 10−6 x y 2 1 = = x y = 2 1 ¿Qu´ pas´? El intercambio de filas permiti´ obtener un resultado correcto evitando la propagae o o ci´n catastr´fica del error que se daba en el otro caso. PUNTO FLOTANTE Y REDONDEO Hasta aqui el error no parece grave. Queda 1 1 10−6 1 Operando (fila 2 . la primera forma de resolver era un algoritmo “malo” o inestable en el sentido de que amplificaba los errores llevando a resultados absolutamente err´neos. 2 − 1 se introduce un peque˜o error en e o ε ε la matriz triangulada que se propaga a la soluci´n. obtenemos 1 1 0 1 − 10−6 y con el redondeo a cinco cifras nos queda 1 1 0 1 que tiene como soluci´n y = 1.8 1.

e Veamos un ejemplo de esto. Supongamos que nuestra m´quina trabaja con 3 d´ a ıgitos y trunca.254 = . REDONDEO 9 se solucion´ intercambiando el orden de las filas. las ra´ ıces de (x − 2)2 = 0 son x1 = x2 = 2. Un ejemplo m´s interesante es el estudiado por Wilkinson en 1963.443 que no tiene nada que ver con la soluci´n exacta. el error es mayor que la soluci´n misma! o Lo que sucede en este ejemplo es que la matriz est´ “mal condicionada” (m´s adelante precisarea a mos lo que esto significa) y habr´ problemas independientemente del algoritmo que utilicemos. Esto significa que peque˜os cambios en los datos implican grandes a n cambios en la soluci´n. un cambio de 10−6 en el t´rmino independiente origina un cambio de 10−3 en las ra´ e ıces.659 x 0. Esto hace que los errores de redondeo puedan amplificarse mucho o independientemente del m´todo que usemos para resolverlo. y = −1. Resolvamos el sistema 0. o sea. En o particular.563 0. Esto muestra o que el error en el primer caso se deb´ a la forma de resolver y no a algo inherente al problema ıa en s´ mismo.254 = 0 0.217 0. Las ra´ ıces de (x − 2)2 = 10−6 son x1 = 2 + 10−3 en cambio. intercambiamos filas antes de hacer la eliminaci´n de Gauss.659 La soluci´n exacta es x = 1.001 y 0. En este caso. o Obtenemos 0. modificando el algoritmo.001 y en consecuencia y = 1 y x = −0. a Otro ejemplo de problema “mal condicionado” es el siguiente. o Teniendo en cuenta lo visto antes.780 0.913 0. ı Hay casos de naturaleza esencialmente diferente en los cuales el problema que se quiere resolver est´ “mal condicionado”. Se trata de calcular las a ra´ ıces de x2 = 2 − 10−3 x y 0.913 0.2. Este ejemplo trivial muestra que un peque˜o cambio en un coeficiente de la ecuaci´n polinomial n o puede dar lugar a un cambio de otro orden en las ra´ ıces.

. . Para finalizar...812. . − i2.1601 que resulta mayor que el verdadero E9 . 0 En = es decir 0 xn ex−1 dx = xn ex−1 |1 − 0 En = 1 − nEn−1 1 0 nxn−1 ex−1 dx y es f´cil ver que a E1 = 1/e con lo que tenemos definida la sucesi´n En en forma recursiva..0684800 cuando en realidad E9 ∼ 0. . El problema consiste en calcular 1 En = Integrando por partes se obtiene 1 xn ex−1 dx n = 1.207274 . PUNTO FLOTANTE Y REDONDEO p(x) = (x − 1)(x − 2). E1 ∼ 0. E9 ∼ −0.....264242 E3 ∼ 0... + i2.367879 E2 ∼ 0.. o Usando esta relaci´n recursiva para calcular con una m´quina que trabaje con seis d´ o a ıgitos se obtiene. Wilkinson demostr´ que al cambiar el coeficiente −210 por −210 − 2−23 las ra´ o ıces 16 y 17 se transforman en el par complejo 16. . e En este caso lo que sucede es que el error de En−1 se amplifica multiplic´ndose por n... 16.812.73. veamos otro ejemplo de algoritmo inestable..10 1....412 × 10−7 ∼ 0. 2.0916 con lo que el resultado computacional es p´simo.(x − 19)(x − 20) = x20 − 210x19 + . Entonces a en nueve pasos se multiplica por 9!.. obteni´ndose un error de e 9! × error inicial = 9! × 4.73.

donde β y d son como antes.6 y 126 − 125. EJERCICIOS 11 Como conclusi´n el algoritmo es malo. y ≥ 0 demostrar que x + y − f l(f l(x) + f l(y)) ≤2 + x+y 2 . en este caso. Pero observemos que no lo es el problema en s´ mismo. los ejemplos analizados en esta secci´n muestran la diferencia entre el caso o o en el cual la amplificaci´n de los errores de redondeo se debe a que el problema est´ “mal o a condicionado” o “mal planteado” y el caso en el que dicha amplificaci´n se debe al uso de un o “algoritmo inestable”. o ı Como alternativas podemos calcular En por integraci´n num´rica o bien hacer el siguiente truco.6 y a= 126 si trabaja con u a a o • Base 10 y mantisa de 2 d´ ıgitos. (b) Verificar para x = 125. es el menor n´mero de m´quina tal que 1 + = 1. . (Usar la cota para el error relativo).6? ¿Cu´l es el error relativo de estos resultados? a (2) Utilizando el m´todo de truncamiento: e (a) Rehacer el Ejercicio 1. es decir: = β −d+1 . el valor que da la m´quina como resultado de las operaciones a a 126 + 125. con el correspondiente. Es fundamental distinguir entre ambos casos y.3. en cada caso. encontrar las causas de la propagaci´n indebida de errores con el objeto de mejorar los algoritmos. En−1 = y como 1 En ≤ xn dx = 0 podemos empezar de E20 ∼ 0 e ir hacia atr´s usando En−1 = a (el error en cada paso se multiplica por algo menor que uno). Este algoritmo es estable Como conclusi´n. o 3. (c) ¿Cu´l es.6. ¿Cu´nto da β + ? a e (3) Mostrar que f l(x) tiene (para ambos m´todos) una escritura de la forma f l(x) = x(1 + δx ) donde |δx | ≤ . o e Observemos que 1 − En n 1 →0 n+1 1−En n . la conocida cota para el error relativo | x − f l(x) |≤ x si = 1/2β 1−d donde β es la base y d la longitud de la mantisa. u a (b) Demostrar que. • Base 2 y mantisa de 8 d´ ıgitos. e ıgitos significativos: (4) P´rdida de d´ (a) Si x. por otra parte. Ejercicios (1) Utilizando el m´todo de redondeo: e (a) Hallar el n´mero de m´quina m´s pr´ximo a 125.

o o . Hacer un programa en Matlab que estime e−12 evaluando el desarrollo de Taylor hasta grado n de la funci´n ex en x = −12. Comparar con el valor exacto: 0. Encontrar. PUNTO FLOTANTE Y REDONDEO Observar que en la expresi´n 2 + 2 el valor de 2 es despreciable dado que es o peque˜o.6 en el ejercicio 1. . .000006144212353328210 . Mostrar que SN se estaciona a partir de alg´n N suficientemente u k grande. ¿Cu´nto deber´ dar? ¿Qu´ est´ pasando? e a (11) Aproximaci´n de la derivada de una funci´n. ¿Se le ocurre c´mo calcular con mayor precisi´n dicha o o ra´ ¿Cu´l es el error relativo con el nuevo m´todo? ız? a e (7) Hallar una forma de calcular sin p´rdida de d´ e ıgitos significativos las siguientes cantidades. . haciendo un programa k k=1 en Matlab. a (6) Hallar la ra´ menor en m´dulo de la ecuaci´n ız o o x2 − 40x + 0. utilizando la computadora binaria con mantisa de 8 d´ ıgitos. a ıa (10) Calcular en Matlab los valores: sen(π/2 + 2π10j ) c= on 1 ≤ j ≤ 18. (9) El desarrollo de Taylor de la funci´n ex proporciona una forma muy inestable de calo cular este valor cuando x es negativo.) (5) Un ejemplo que muestra que algunas de las reglas de la aritm´tica no son v´lidas para e a operaciones de punto flotante. para x ∼ 0: (a) (α + x)n − αn (b) α − α2 − x (c) cos x − 1 (d) sin(α + x) − sin(α) N (8) Se pretende calcular las sumas SN = k=1 ak con N ∈ IN. ¿puede repetir la misma cuenta? (Sugerencia: recordar el error relativo de 126 − 125. n (b) Si x e y no poseen el mismo signo. . N 2−k+100 + 1 (b) Idem (a) para la suma SN = . para o n = 1. el valor de N para el cual SN se estaciona. item (c). N (a) SN = k=1 1 . . ¿Cu´les a son las principales fuentes de error? Realizar otra estimaci´n= de e−12 con alg´n o u otro m´todo que evite los problemas del m´todo anterior (Sugerencia: Considerar e e e−x = 1/ex ). utilizando aritm´tica de 4 d´ e ıgitos y comparar con el resultado obtenido utilizando aritm´tica exacta. Calcular el error relativo y asegurarse de comprender de d´nde viene la e o p´rdida de d´ e ıgitos significativos.12 1. . 100. Llamemos SN al valor calculado que se logra de hacer f l(SN −1 + aN ). (a) Intentar anticipar el resultado de los siguientes c´lculos: a (i) (1 + 2 ) + 2 (ii) 1 + ( 2 + 2 ) (iii) (1 + 2 ) + 2 − 1 (iv) 1 + ( 2 + 2 ) − 1 (b) Efectuar estos c´lculos usando Matlab y comprobar las predicciones hechas.25 = 0. Deducir que a partir de entonces SN = SN .

a 10−17. 100. Comenzar inicializando las variables a. teniendo en cuenta que la m´quina utiliza aritm´tica de punto a e flotante. d = 1/4. k(k + x) consideramos las siguiente dos maneras de estimar num´ricamente el valor de Φ(x) para e un x fijo: • sumar los primeros n t´rminos de la serie Φ(x). 2 . . Hacer un programa en Matlab que calcule o los valores de dh f (1) para aproximar f (1). 10−1 y grafique los resultados obtenidos. Luego. e = 1. b. d = d − e(b − a)2 . Hacer un an´lisis de los c´lculos efectuados para a a calcular dh f (1). J1 (1) ∼ 0. h Utilizando el desarrollo de Taylor. a (12) Las funciones de Bessel Jn se pueden definir del siguiente modo: dh f (1) = Jn (x) = 1 π π cos(x sin θ − nθ)dθ. Luego. J3 (1). Decidir si la condici´n |Jn (x)| ≤ 1 deja de satisfacerse. . de este modo. demostrar que h |f (1) − dh f (1)| ≤ |f (1)| + o(h) (h → 0) 2 siempre que f sea suficientemente derivable. . . que es π . (c) Repetir el ´ ıtem anterior.3. 10−17. a Con los valores estimados J0 (1) ∼ 0. c. . hacer un programa en Matlab para calcular J2 (1). iterar n veces en el orden dado las siguientes f´rmulas: o √ b+c a = b. EJERCICIOS 13 (a) Llamamos derivada discreta de f en x = 1 al valor f (1 + h) − f (1) . c = ca. Comparar con el resultado exacto. b = 1. d´ndole otros valores a h. .8 . . ¿Qu´ esta sucediendo? o e (13) Dada la funci´n Φ : IR → IR definida por o ∞ Φ(x) = k=1 1 . e • teniendo en cuenta que Φ(1) = 1. e Predecir cu´l de las dos maneras converge m´s r´pidamente. J10 (1). 6 (14) Algoritmo para calcular π.4400505857 y la recurrencia dada. . . . hacer un a a a programa que calcule y grafique el resultado obtenido con los dos m´todos propuestos e 2 para calcular Φ(0). d´ndole a h los valores 10−18 . con n = 1. e = 2e. k(k + 1)(k + x) luego expresar Φ(x) = 1 + Ψ(x) y. . estimar Φ(x) como 1 m´s la suma a de los primeros n t´rminos de la serie Ψ(x). Decidir si ´stos se contradicen e con el resultado del ´ ıtem anterior. . √ c = 1/ 2. definir ∞ Ψ(x) = Φ(x) − Φ(1) = k=1 ( 1 1 − )= k(k + x) k(k + 1) ∞ k=1 1−x . de modo que el resultado resulte a m´s confiable.7651976865. Se sabe adem´s que Jn+1 (x) = 2n/xJn (x) − Jn−1 (x).9 . 0 y verifican que |Jn (x)| ≤ 1. b = . (b) Considerar la funci´n f (x) = x2 . d y e del siguiente modo: a = 0.

14 1. o como g = (b + c)2 /(4d).14159265358979323846264338327950288 . . . . . 10. 2. el valor de π puede estimarse como f = b2 /d. PUNTO FLOTANTE Y REDONDEO Finalmente. ¿Qu´ estimaci´n converge m´s r´pido? ¿Cu´n precisos son sus resultados? e o a a a El valor de π correcto hasta 36 d´ ıgitos es π = 3. Hacer un programa que calcule los valores de π estimados por f y g cuando n = 1.

podemos decir que un vector es “chico” si lo son todas sus componentes y tomar entonces como medida de x la siguiente.. Para poder dar una respuesta debemos decidir primero c´mo medir el error. + x2 n 1 x 2 = Pero ´sta no es la unica medida razonable y en muchos casos es conveniente trabajar con otras.. Todas estas formas de medir resultan equivalentes en el sentido de que. puesto que una norma mayora a la otra salvo una constante que depende s´lo de n. e ´ Por ejemplo. x ∈ IRn y b ∈ IRn y nos preguntamos cu´nto afectar´ a la soluci´n un error a a o en el dato b. + |xn |p ) p 1 ∞ = max |xi | 1≤i≤n 1 = |x1 | + .. Consideramos el sistema de n ecuaciones con n inc´gnitas o Ax = b con A ∈ IRn×n .. Por ejemplo... llamada “norma infinito”. si x es “chico” en una de las normas entonces lo es en cualquier otra.. Es o decir. a x con 1 ≤ p < ∞. Una forma posible es utilizar la longitud o norma eucl´ ıdea del vector.. necesitamos dar alguna forma de medir vectores de IRn . x2 + .. es f´cil ver que.. o sea. utilizando la desigualdad de Schwartz se obtiene o x y por otra parte. + |xn | p 1 2 2 1 .. x Otra elecci´n natural es la “norma uno”. o x o m´s en general la “norma p”..CAP´ ıTULO 2 Normas y condicionamiento de una matriz. a x ≤ x ≤ √ n x = (|x1 |p + .

16

2. NORMAS Y CONDICIONAMIENTO

Tambi´n se verifica f´cilmente que e a x ≤ x ≤n x

1

M´s en general, decimos que una norma en IRn es una manera de asignar a cada x un n´mero x a u de tal forma que se verifiquen las siguientes propiedades, an´logas a las que cumple la longitud a usual, 1) x ≥ 0 ∀x ∈ IRn

2) x = 0 si y solo si x = 0. 3) λx = |λ| x 4) x + y ≤ x + y ∀λ ∈ IR, ∀x ∈ IRn ∀x ∈ IRn , ∀y ∈ IRn (desigualdad triangular)

Una vez que sabemos como medir vectores podemos hablar tambi´n de la distancia entre dos e vectores x e y la cual est´ dada por x − y . En particular, esto permite hablar de convergencia a de sucesiones: xn → x si x − xn → 0. Tanto para medir el error como para analizar la convergencia de una sucesi´n elegiremos la o norma que nos resulte m´s conveniente en cada caso. Esto est´ justificado por el hecho de a a que todas las normas son equivalentes: convergencia en una de ellas implica convergencia en cualquier otra. M´s a´n, se tiene el siguiente resultado. a u Teorema 2.1. Dadas dos normas en IRn , y , existen constantes C1 y C2 que dependen s´lo de n y de las normas consideradas (en particular, son independientes de x) tales que o C1 x ≤ x ≤ C2 x ∀x ∈ IRn

Demostraci´n. Basta ver que una norma cualquiera o es equivalente a la norma eucl´ ıdea usual, n 2 1/2 , la cual n o 2 . Sea {ei } la base can´nica de IR y definamos la constante C = ( i=1 ei ) depende s´lo de n y de o . Utilizando las propiedades de la norma y la desigualdad de Schwartz obtenemos
n n n n

x =
i=1

xi ei ≤
i=1

|xi | ei ≤ (
i=1

|xi |2 )1/2 (
i=1

ei 2 )1/2 = C x

2

(2.1)

Queremos ver ahora que existe una constante K tal que x 2≤K x ∀x ∈ IRn (2.2) Supongamos que una tal K no existe y veamos que se llega a una contradicci´n. En efecto, si o (2.2) no se cumple para ning´n K tenemos, en particular, que dado m ∈ IN, existe ym ∈ IRn tal u que

2. NORMAS Y CONDICIONAMIENTO

17

y llamando xm = ym / ym

2

ym 2 ≥ m ym obtenemos xm 2 = 1 y xm ≤

1 (2.3) m pero, toda sucesi´n acotada en la norma eucl´ o ıdea tiene una subsucesi´n convergente. Entonces o existe una subsucesi´n de (xm ), (xm ) tal que o xm − x 2 → 0 Pero entonces por (2.1), tambi´n vale que e

para cierto x ∈

IRn .

xm − x → 0 Por otra parte, por (2.3) tenemos que xm → 0 y en consecuencia, por unicidad del l´ ımite, resulta x = 0. Pero observemos finalmente que, por la desigualdad triangular, xm − x ≤ xm − x → x
2

2

2 2

2

y entonces se llega a la contradicci´n 1 = xm o

= 0, finalizando la demostraci´n. o

Ahora s´ estamos en condiciones de abordar el problema de c´mo afecta el error en los datos a ı, o la soluci´n de un sistema lineal cuya matriz A es inversible. Si se reemplaza el dato b por b + ∆b, o la soluci´n x del sistema ser´ modificada de tal forma que tendremos o a A(x + ∆x) = (b + ∆b) o equivalentemente, A∆x = ∆b y nos preguntamos que relaci´n hay entre o ∆x x Veamos primero el siguiente ejemplo simple, 4.1 2.8 9.7 6.6 La soluci´n es o 1 0 ∆b b

y

x1 x2

=

4.1 9.7

x=

18

2. NORMAS Y CONDICIONAMIENTO

Observemos que b Si modificamos b poniendo b = b + ∆b = entonces la soluci´n es o x = x + ∆x = y se obtiene en consecuencia ∆b 1 = 0.01 ∆x 1 = 1.63 con lo que el error relativo se amplific´ mucho, en efecto, o ∆b 1 = 0.7246 × 10−3 b 1 mientras que ∆x 1 = 1.63 x 1 Nuestro objetivo es tratar de entender a qu´ se debe este comportamiento y poder predecir, e dada una matriz A, cu´l ser´ el factor de amplificaci´n del error relativo o, al menos, dar una a a o cota de ´ste en t´rminos de A. e e Analicemos primero el caso de una matriz diagonal. λ1 0 0 λ2 La soluci´n es (si λ1 , λ2 = 0) o x1 = Por ejemplo, si 1000 0 0
1 100

1

= 13.8

x

1

=1

4.11 9.70 0.34 0.97

x1 x2

=

b1 b2

b1 λ1

x2 =

b2 λ2

A= entonces, b1 1000

x1 =

x2 = 100b2

b= x1 = obteni´ndose e b1 1000 ∆x2 = 100∆b2 ∆b 2 ∆x 2 = b 2 x 2 5. es decir que el error relativo se multiplic´ por 10 o 105 Si en cambio elegimos ∆b1 0 0 b2 ∆b = tenemos entonces. b= ∆x1 = y en consecuencia. 1 ∆b1 1000 x2 = 100b2 1 ∆b 2 ∆x 2 = 105 b 2 x 2 o sea que en este caso el error relativo se redujo en un factor 105 . para una matriz diagonal λ1 0 0 λ2 con |λ1 | > |λ2 |. el error relativo puede multiplicarse por A= |λ1 | |λ2 | en el peor de los casos y por |λ2 | |λ1 | en el mejor de los casos. NORMAS Y CONDICIONAMIENTO 19 Si ponemos b = b + ∆b con 0 ∆b2 b1 0 ∆b = entonces.2. En general. .

e es decir. por un factor  |λmax | |λmin | siendo λmax y λmin los de m´ximo y m´ a ınimo valor absoluto entre los λj (observemos que λmin = 0 pues estamos suponiendo que A es inversible). si llamamos λi al autovalor correspondiente a vi ... x 2 2 = i=1 2 αi ∆x 2 2 = i=1 2 βi y adem´s. . a lo sumo. Adem´s. Entonces. NORMAS Y CONDICIONAMIENTO En general. es decir aij = aji . el error tendr´ componentes en cualquier direcci´n por lo que es de esperar que si a o |λ1 | es grande los errores relativos se amplifiquen.. n n 2 αi λ2 i i=1 b 2 2 = ∆b 2 2 = i=1 2 βi λ2 i Entonces.. |λ2 | El mismo an´lisis puede hacerse en IRn . si λmax y λmin son los autovalores de m´ximo y m´ a ınimo valor absoluto respectivamente. obtenemos ∆x 2 2 = x 2 2 n 2 i=1 βi n 2 i=1 αi ≤ o sea 1/|λmin |2 ∆b 2 2 1/|λmax |2 b 2 2 .20 2. Este cociente se llama n´mero de condici´n o de u o condicionamiento de A en la norma 2 y lo denotaremos Cond2 (A). En este caso A se puede diagonalizar. A(x + ∆x) = b + ∆b y n n x= i=1 αi vi n ∆x = i=1 βi vi n tenemos. si Ax = b . existe una base de autovectores {v1 . vn }. a n n b= i=1 αi λi vi ∆b = i=1 βi λi vi y en consecuencia. Ahora veamos como definir el n´mero de condici´n para una matriz A arbitraria. por ser A sim´trica podemos a e considerar que la base es ortonormal. Si A es una matriz diagonal a  λ1 · · · 0  ··· A= 0 · · · λN el error relativo se puede amplificar. Comencemos u o por el caso en que A sea sim´trica.

e a o El an´lisis realizado para matrices sim´tricas nos muestra que el factor de amplificaci´n del error a e o relativo est´ relacionado con los m´ximos factores de expansi´n de A y de su inversa.. NORMAS Y CONDICIONAMIENTO 21 ∆x 2 |λmax | ∆b 2 ≤ x 2 |λmin | b 2 o es decir que el n´mero Cond2 (A) = |λmax|| es una cota para el factor de amplificaci´n del error u |λmin relativo. la norma matricial asociada como Ax 0=x∈IR x Es decir. es decir. definimos para una matriz arbitraria A ∈ IRn×n y una norma de vectores cualquiera.2. si miramos el cociente entre la longitud de Ax y la de x a o Ax 2 x 2 ´ste ser´ m´ximo entre todos los x cuando x est´ en la direcci´n correspondiente a λmax . . n Ax = i=1 αi λi vi y de ac´ resulta que a Ax ≤ |λmax | x 2 2 y tomando x = vj con λj = λmax se ve que se verifica la igualdad. Para generalizar el n´mero de condici´n a cualquier matriz observemos que.. la norma de A nos da lo m´ximo que “agranda” el multiplicar por A medido en la a norma de vectores dada.. si escribimos x en la base de autovectores {v1 . An´logamente. la direcci´n de “m´ a o ınima expansi´n” corresponde a la asociada a λmin . En e a a a o efecto. Teniendo a a o en cuenta esto. la direcci´n correspondiente al autovalor de m´ximo valor absoluto nos da la direcci´n e o a o de “m´xima expansi´n”. vn } n x= i=1 αi vi entonces. esta cota es la mejor posible pues la desigualdad se convierte en una igualdad a u para cierta elecci´n de b y ∆b (b en la direcci´n correspondiente al m´ximo autovalor y ∆b en o o a la correspondiente al m´ ınimo). Es f´cil ver que a A = max n . la cual o corresponde tambi´n a la de “m´xima expansi´n” de la inversa de A. en el caso de una u o sim´trica. M´s a´n.

e De la definici´n se desprende la siguiente desigualdad que usaremos frecuentemente. alcanza su m´ximo en el conjunto de vectores de o a norma igual a uno pues ´ste es cerrado y acotado).2. Tambi´n es f´cil ver que e a ∀A ∈ IRn×n . e Como ejemplo tenemos que.4) Por otra parte puede verificarse que A es la menor entre todas las constantes C para las cuales vale la desigualdad ∀x ∈ IRn Ax ≤ C x siendo ´sta otra forma usual de definir la norma matricial.22 2. si A es sim´trica entonces e A 2 = |λmax | donde el sub´ ındice 2 nos indica cual es la norma de vectores correspondiente. 2 = A 2 A−1 2 = |λmax | |λmin | En general introducimos entonces la siguiente ´ Definicion 2. Sea A ∈ IRn×n una matriz inversible y sea n´mero de condici´n de A como u o Cond(A) = A A−1 una norma en IRn definimos el . An´logamente tenemos que para A inversible y sim´trica a e 1 |λmin | A−1 y por lo tanto. ∀B ∈ IRn×n AB ≤ A B (2. o sea que la norma esta bien definida ( Ax a es una funci´n continua de x y por lo tanto. esto muestra que el m´ximo existe. por lo visto antes. o ∀x ∈ IRn Ax ≤ A x valiendo la igualdad para algun x. NORMAS Y CONDICIONAMIENTO A = max Ax x =1 y en particular.

2. NORMAS Y CONDICIONAMIENTO

23

Es claro que Cond(A) depende de la norma de vectores elegida. Es f´cil ver que valen las siguientes propiedades, a Cond(A) = Cond(A−1 ) y Cond(A) ≥ 1 ∀A ∈ IRn×n En efecto, la primera es obvia mientras que, para ver la segunda, utilizamos la propiedad (2.4) y obtenemos 1 = I = AA−1 ≤ A A−1 = Cond(A) Podemos ahora probar el siguiente resultado fundamental Teorema 2.3. Si A ∈ IRn×n es inversible, b, ∆b ∈ IRn , Ax = b y A(x + ∆x) = b + ∆b entonces, ∆x ∆b ≤ Cond(A) x b valiendo la igualdad para alguna elecci´n de b y ∆b. o Adem´s, a 1 ∆b ∆x ≤ Cond(A) b x y nuevamente, vale la igualdad para ciertos b y ∆b. Demostraci´n. Se tiene que o A(∆x) = ∆b y entonces, ∆x A−1 ∆b A−1 ∆b b A−1 ∆b ≤ = ≤ A x x b x b donde para la ultima desigualdad hemos usado que b = Ax ≤ A x . Por lo tanto (2.5) ´ vale. Observemos adem´s que si elegimos ∆b tal que ∆x = A−1 ∆b = A−1 ∆b , x tal que a Ax = A x (lo que siempre se puede por la definici´n de la norma matricial) y b = Ax o resulta la igualdad en (2.5). Ahora, para ver la desigualdad (2.6) observemos que ´sta puede escribirse como e

(2.5)

(2.6)

24

2. NORMAS Y CONDICIONAMIENTO

∆b ∆x ≤ Cond(A) b x −1 ), es exactamente la desigualdad (2.5) la cual, teniendo en cuenta que Cond(A) = Cond(A aplicada a A−1 con lo que el teorema est´ demostrado. a Veamos ahora que el n´mero de condici´n tambi´n tiene que ver con la propagaci´n del error u o e o que se cometa en los coeficientes del sistema. Como veremos m´s adelante, el teorema siguiente a es tambi´n de suma importancia en el an´lisis del error de redondeo en la eliminaci´n de Gauss. e a o Teorema 2.4. Si A ∈ IRn×n es inversible, E ∈ IRn×n , b ∈ IRn , Ax = b y (A + E)(x + ∆x) = b entonces, llamando x = x + ∆x tenemos ˜ ∆x E ≤ Cond(A) x ˜ A y si E ≤δ<1 A

(2.7)

Cond(A) entonces,

∆x 1 E ≤ Cond(A) x 1−δ A Demostraci´n. Tenemos o Ax = b y entonces, −E x = A∆x ˜ por lo que conclu´ ımos que ∆x ≤ A−1 lo que prueba (2.7). Ahora observemos que x + ∆x x + ∆x ∆x x ˜ = ≤ =1+ x x x x E A A˜ = b − E x x ˜

(2.8)

E

x ≤ Cond(A) ˜

x ˜

2. NORMAS Y CONDICIONAMIENTO

25

lo cual, junto con la desigualdad anterior implica que ∆x E ∆x ≤ Cond(A) 1+ x A x lo que concluye la demostraci´n de (2.8). o E ∆x +δ A x

≤ Cond(A)

Veamos ahora como calcular algunas normas matriciales. Dada A ∈ IRn×n se llama radio espectral de A a ρ(A) = |λmax | siendo λmax el de m´ximo valor absoluto entre todos los autovalores de A, incluyendo los coma plejos. Ya vimos que si A es sim´trica entonces, e A = ρ(A)

2

En general, para A ∈ IRn×n arbitraria se tiene

A

2

=

ρ(AT A)

donde AT es la matriz traspuesta de A. En efecto, como AT A es sim´trica, existe una base e ortonormal de autovectores {vj }. Llamando µj a los autovalores correspondientes tenemos AT Avj = µj vj
n i=1 αi vi

j = 1, ....., n

n 2 y si x = entonces, por la ortonormalidad de los vj resulta x 2 = 2 i=1 αj y en consecuencia, teniendo en cuenta que AT Ax = n αj µj vj , se tiene que para todo x ∈ IRn i=1 n 2 i=1 αj µj n 2 i=1 αj

Ax 2 xT AT Ax 2 = = x 2 x 2 2 2 es decir que

≤ ρ(AT A)

A

2

ρ(AT A)

y tomando x = vj con µj = µmax se ve que vale la igualdad. El c´lculo de la norma 2 de una matriz involucra el c´lculo de autovalores, el cual es un problema a a complicado. Sin embargo, otras normas son mucho m´s f´ciles de calcular. Por ejemplo, se tiene a a que

que n A 1 = max 1≤j≤n |aij | i=1 . NORMAS Y CONDICIONAMIENTO n A ∞ = max 1≤i≤n |aij | j=1 Para ver esto observemos primero que. para todo x ∈ IRn vale N N Ax y entonces. Ax ∞ ≥ n j=1 |akj | y como x Ax ∞ ≥ x ∞ = 1 obtenemos n |akj | j=1 y conclu´ ımos que n A ∞ ≥ max 1≤i≤n |aij | j=1 De manera similar puede verse. ∞ = max | 1≤i≤n j=1 aij xj |≤ x ∞ 1≤i≤n max |aij | j=1 n A ∞ ≤ max 1≤i≤n |aij | j=1 n j=1 |akj | Para ver que vale la otra desigualdad. sea k tal que  es m´xima y tomemos a  sg(ak1 )  sg(ak2 )   x=  ···  sg(akn ) donde sg(a) = 1 si a ≥ 0 y sg(a) = −1 si a < 0.26 2. Entonces. n (Ax)k = j=1 |akj | ∞ y en particular. aunque no lo haremos aqui.

a ı o Pero antes veamos algunos ejemplos. en este caso tendr´ ıamos ∆b = 0 mientras que ∆x ser´ arbitrariamente grande. si ε ∼ 0.2. Esto es efectivamente as´ y lo formalizaremos en el pr´ximo teorema. Si A es una matriz singular y. En este ejemplo tenemos no s´lo que A − B ∞ es chica sino que lo es n o en relaci´n con A ∞ . Sea ε ∼ 0 entonces la matriz 1 1+ε 1−ε 1 A= est´ cerca de la matriz singular a B= y en este caso 1 1 1 1 A−1 = ε−2 entonces. Es decir que sin cambiar nada a e a b se pueden obtener soluciones tan distantes como se quiera. NORMAS Y CONDICIONAMIENTO 27 Hemos visto que el n´mero Cond(A) nos da una medida de cu´n mala es una matriz en cuanto u a a la propagaci´n de los errores relativos. entonces o tendr´ infinitas y ´stas formar´n una variedad lineal de IRn . la matriz . En efecto. es natural esperar que el n´mero Cond(A) nos de una medida de cu´n cerca u a est´ A de ser singular. o ε ε A−B ∞ = < A ∞ 2+ε 2 En particular. 1 −1 − ε −1 + ε 1 A y en consecuencia. para cierto b. n Para aclarar esto veamos algunos casos simples. estar “cerca” de ser singular no tiene nada que ver con el tama˜o del determinante. En otras palabras. ıa En consecuencia. Si este n´mero es grande se dice que la matriz est´ o u a “mal condicionada”. el sistema Ax = b tiene alguna soluci´n. Por ejemplo. ∞ =2+ε A−1 ∞ = (2 + ε)ε−2 Cond∞ (A) = 2+ε ε 2 > 4 ε2 Es importante recalcar que esta “distancia a las matrices singulares” debe entenderse en forma relativa al tama˜o de A.

1 0 0 1 ε tiene determinante grande pero.5. A= En cambio. Como y puede tomarse con norma arbitraria. sean y tal que A−1 y = A−1 y y x tal que Ax = y. 1 ≤ A−1 lo cual muestra que 1 A−B ≤ Cond(A) A ∀B ∈ IRn×n A−B A−B x singular (2. o x = A−1 (A − B)x ≤ A−1 y en consecuencia. lo elegimos de tal forma que y = 1/ A−1 y en consecuencia x = 1.11) (2.9). Sea B ∈ IRn×n una matriz singular y tomemos x = 0 tal que Bx = 0. 1 o ∞. para concluir el teorema. NORMAS Y CONDICIONAMIENTO ε 0 0 ε tiene determinante muy peque˜o pero es una matriz buen´ n ısima en cuanto a la propagaci´n de o errores relativos pues Cond(A) = 1.10) . Entonces. falta ver que hay una B singular para la cual vale la igualdad en (2.28 2.9) Entonces. Sea ahora z un vector tal que zT x = 1 y zT u ≤ 1 ∀u ∈ IRn tal que u =1 (2. Cond(A) = 1/ε A= Damos ahora el resultado que relaciona el n´mero de condici´n de una matriz con su distancia u o relativa a las matrices singulares. en las normas 2. Teorema 2. Para esto. Dadas A ∈ IRn×n inversible y una norma de vectores cualquiera se tiene 1 = inf Cond(A) B singular A−B A Demostraci´n.

se tiene que z = x. Por lo tanto. Sin embargo. B es singular. Definamos ahora B = A − yz T y veamos que esta matriz es singular y cumple con la igualdad que quer´ ıamos. ∀u ∈ IRn tal que u =1 A−B ≤ lo que concluye la demostraci´n. observemos que es intuitivamente claro si analizamos el significado geom´trico: los u que verifican la ecuaci´n z T u = 1 forman un hiperplano (es decir. que haya un z verificando (2. Axk 2 xk 2 donde los xk ∈ IR3 son vectores no nulos generados al azar cuyas coordenadas est´n el intervalo [−1. 4 5 a (2) Se quiere estimar la norma 2 de una matriz A ∈ IR3×3 como el m´ximo del valor 3 no nulos generados al azar. sk+1 = max sk . e • grafique la sucesi´n calculada. Ejercicios 3 0 .11) tenemos que |z T u| ≤ 1 para todo u tal que u = 1 puesto que. B1 es un conjunto convexo y que x est´ en el borde de ´ste. Por otra parte. Bx = Ax − yz T x = y − y = 0 y por lo tanto. |z T u| = −z T u = z T (−u) ≤ 1 ya que − u = 1. en el caso de a e e la norma 2 . Observemos tambi´n que. o . EJERCICIOS 29 La existencia de un tal z es la parte m´s t´cnica de la demostraci´n y omitiremos la escria e o tura formal. Entonces. Hacer un prograAx 2 / x 2 entre varios vectores x ∈ IR ma que pida el ingreso de una matriz A y luego e o • genere los primeros 100 t´rminos de la siguiente sucesi´n: (1) Calcular la norma 2 de la matriz A = s1 = 0. para toda norma. pero por (2.1. una variedad e o lineal de dimensi´n n − 1). En efecto.10) y (2. o 1 A−1 1.11) significa que o hay un hiperplano que pasa por x y que deja a la bola unitaria B1 = {u ∈ IRn : u ≤ 1} de un lado. La existencia de tal hiperplano es clara si se tiene en cuenta que. si z T u < 0 entonces. junto con el valor exacto de la norma de la matriz. A − B = yz T . 1]. 1 A−1 yz T u = y |z T u| ≤ y por lo tanto.

De dicha igualdad se puede concluir que cond(A) mide la distancia relativa de A a la matriz singular m´s pr´xima. o (a) Calcular el vector residual producido por esta soluci´n tentativa. Se quiere resolver el sistema Ax = b para un valor de b = 0 que se conoce con una precisi´n mayor que 10−3 . b (7) Sea x la soluci´n exacta al sistema Ax = b y x la soluci´n obtenida num´ricamente. b 2 (a) Estimar el error relativo de la soluci´n hallada x = x + ∆x. la condici´n de A verifica la desigualdad: o 1 ≤ inf cond(A) A−B : B es singular A Nota: M´s a´n. cond(A) b x b Concluir que para una matriz mal condicionada los m´todos num´ricos no aseguran e e buena aproximaci´n. o ˜ (b) Encuentre un ejemplo para b y ∆b = 0 de modo que ∆x 22 sea exactamente x cond2 (A) ∆b 22 . (i) A =  1 ε ε2  . adem´s.   3 0 0 (3) Sea A =  0 5 3 . pero la otra desigualdad es un poco m´s complia u a cada de probar. vale la igualdad. NORMAS Y CONDICIONAMIENTO Recordar que tanto la norma de un vector como de una matriz se calculan en Matlab con el comando norm.30 2. (6) Sea A la matriz del ejercicio 3. calcular cond∞ (An ) y verificar la cota de error del ejercicio 7. o 1 2 1 (8) Para cada n ∈ IN. (9) Sea Dn la matriz diagonal de n × n con elementos diagonales iguales a 1/10. ¿Dn est´ mal condicionada? a . se conoce el valor o ∆b 2 conjunto de b + ∆b y se sabe que el error relativo < 10−3 . 1]. 2 − n2 ) y se quiere resolver 1 2 4 + n2 el sistema An x = bn . 4 4 0 3 5 4 4 (4) Probar que si A ∈ IRn×n es una matriz inversible y es una norma matricial. Utilizando cierto m´todo num´rico se obtiene como resultado el e e vector (1. bn = (1. a o (5) (a) Mostrar que cond∞ (A) → ∞ cuando ε → 0 para     1 1 1 1 0 1+ε 3 4 . cualquiera sea la norma considerada. 0). Tener en cuenta que los vectores generados al azar (comando rand) tienen coordenadas en el intervalo [0. (ii) B =  2 1−ε 0 1 1 0 0 (b) Concluir que la condici´n de las matrices A y B del ´ o ıtem anterior tienden a infinito. se definen An = . Si e = x − x se tiene Ae = r. Chequear. que estos vectores a generados resulten no nulos. Se o ˜ o e llama “vector residual” a r := b − A˜. Mostrar que: x ˜ 1 r e r ≤ ≤ cond(A) . Calcular el determinante de Dn y ver que det(Dn ) → 0 si n → ∞. Calcular cond2 (A) y cond∞ (A). ¿Puede decirse que para n grande la soluci´n es razonablemente confiable? o (b) Resolver An x = bn en forma exacta. es decir.

con aritm´tica de punto flotante de 3 o e d´ ıgitos y sistema de redondeo. (b) Para n = 3. o (b) Adaptar el programa del ´ ıtem anterior para que calcule la matriz A−1 .1. analizar si el resultado difiere significativamente de la soluci´n o real. (11) Para cada n ∈ IN. (a) Para n = 2 y n = 3. . A ∈ IRn×n usando eliminaci´n gaussiana sin pivoteo. EJERCICIOS 31 (10) (a) Escribir un programa en Matlab que resuelva un sistema Ax = b. se quiere calcular la soluci´n del sistema lineal: o 10−n x + 2y = 8 x+y = 2 utilizando eliminaci´n gaussiana sin pivoteo. repetir el m´todo de eliminaci´n gaussiana eligiendo el pivote m´s e o a conveniente.

e (18) Adaptar el programa del ejercicio 10 para que resuelva un sistema de ecuaciones Ax = b. NORMAS Y CONDICIONAMIENTO (12) (13) (14) (15)  2 4 −1 0  4 10 −1 −1   Obtener la descomposici´n LU de la matriz  o  6 10 −7 1  de las siguientes dos 0 2 1 −2 maneras: (a) mediante el algoritmo de eliminaci´n gaussiana. (b) Se quiere calcular el determinante de A.32 2. o (b) despejando los coeficientes de L y U ordenadamente. Dar o ı la matriz de permutaciones P tal que P A tenga una factorizaci´n LU . Sea A ∈ IRn×n una matriz que admite descomposici´n LU . entonces ´sta admite descomposici´n LU . que no est´n especialmente a pensados para matrices tridiagonales. Demostrar que si A es adem´s a estrictamente diagonal dominante. mientras que la matriz singular A − I s´ la tiene. entonces se requieren m´s de n! operaciones. o (16) Considerar el algoritmo de eliminaci´n gaussiana sin pivoteo aplicado a un sistema o Ax = b donde A ∈ IRn×n es una matriz tridiagonal. Estimar cu´ntas operaciones se necesitan para calcularlo a a si se utiliza la descomposici´n LU . donde A ∈ IRn×n es una matriz tridiagonal. Utilizar el comando flops de Matlab para conocer la cantidad de operaciones efectuadas y comparar con las que se requieren al resolver el mismo sistema utilizando los comandos inv y \. Demostrar que A admite descomposici´n LU con u o L y U tambi´n tridiagonales. Para n ≥ 2. mostrar que si esto se hace mediante el desarrollo sucesivo por alguna fila o columna. a o despejando los coeficientes de L y U . o (a) Estimar cu´ntas operaciones se necesitan para calcular esta descomposici´n de A. entonces durante la ejecuci´n del algoritmo no se o encuentra ning´n pivote nulo.) e (17) Sea A ∈ IRn×n una matriz tridiagonal tal que en el proceso de eliminaci´n gaussiana o no se encuentra ning´n pivote nulo. o Demostrar que si todos los menores principales de una matriz A ∈ IRn×n son no singulares. (Ayuda: demostrar que si A es estrictamente diagonal u dominante. e o Probar que la matriz no singular:   0 0 1  1 0 0  0 1 0  no tiene una descomposici´n LU . entonces luego de hacer cada etapa de la eliminaci´n la matriz resultante o tambi´n lo es. .

con   1 2 3 4 5 6 7 8 9 10  2 1 0 0 0 0 0 0 0 0     3 0 1 0 0 0 0 0 0 0     4 0 0 1 0 0 0 0 0 0     5 0 0 0 1 0 0 0 0 0   A=  6 0 0 0 0 1 0 0 0 0 . −2 5 11 Mostrar que es definida positiva y calcular su descomposici´n de Cholesky. tales que aij = (xi )t xj . se produce una ıa matriz densa a pesar de partir de una matriz rala). e (a) Demostrar que cond∞ (Hn ) ≥ n2 . Verificar su resultado calculando los productos H9 H9 y H9 H9 .1. EJERCICIOS 33 (19) La n-´sima matriz de Hilbert Hn ∈ IRn×n . o a o (23) Estimar cu´ntas operaciones se requieren para hallar la descomposici´n de Cholesky de una matriz sim´trica y definida positiva A ∈ IRn×n .j = . (b) Utilizar su programa del ejercicio 10 para calcular la inversa de la matriz de Hilbert −1 −1 H9 . (20) Considerar el sistema de ecuaciones lineales Ax = b. Nota: En realidad.    7 0 0 0 0 0 1 0 0 0     8 0 0 0 0 0 0 1 0 0     9 0 0 0 0 0 0 0 1 0  10 0 0 0 0 0 0 0 0 1 Utilizando el comando lu de Matlab. Comparar con el resultado obtenido mediante el comando inv. se define de la siguiente manera e 1 (Hn )i. e . cond∞ (Hn ) es mucho mayor que n2 . x2 . Este ıa tipo de situaci´n motiva el estudio de m´todos de resoluci´n de sistemas con matrices o e o ralas que no involucren un llenado excesivo. (21) Utilizar el Teorema de Cholesky para demostrar que las siguientes propiedades de una matriz son equivalentes: • A es sim´trica y definida positiva e • hay un conjunto de vectores linealmente independientes x1 . Calcular qu´ cantidad e de bytes (2 bytes por elemento) ocupar´ una matriz densa de esas dimensiones. Estas matrices pueden obtenerse en Matlab mediante el comando hilb(n) y su condici´n infinito puede calcularse o con el comando cond. cifra bastante inferior a la cantidad total de elementos. Es decir.  4 2 −2 (22) Considerar la matriz  2 5 5  . uno debe resolver un sistema de ecuaciones lineales del orden de 104 × 104 donde hay a lo sumo 5 elementos no nulos por fila. xn de IRn . hay a lo sumo 5 × 104 elementos no nulos en la matriz. · · · . verificar que la eliminaci´n gaussiana puede crear o elementos no nulos en lugares donde inicialmente hab´ ceros (es decir. i+j−1 Estas matrices son un ejemplo de matrices mal condicionadas y por tal motivo se las utiliza habitualmente para testear rutinas num´ricas. En muchas aplicaciones.

.

CAP´ ıTULO 3

Resoluci´n de sistemas lineales. o
El objetivo de este cap´ ıtulo es estudiar diferentes formas de resolver un sistema lineal de n ecuaciones con n inc´gnitas. Para dar soiluci´n a este problema se pueden emplear dos grandes o o subclases de m´todos; los directos y los iterados. Dentro de los m´todos de c´lculo directo se ene e a cuentran el de triangulaci´n de Gauss, el de descomposici´n LU y el m´todo de Cholesky. Entre o o e los m´todos iterativos m´s usuales encontramos el de Jacobi, Gauss-Seidel y el de relajaci´n. e a o

1. M´todos directos e 1.1. Triangulaci´n de Gauss y descomposici´n LU. El proceso de triangulaci´n de o o o Gauss puede verse como el resultado que se obtiene de multiplicar por matrices de la siguiente forma, Primer paso: Multiplicar por    L1 =   con ai1 a11 1 m21 . . . 0 ··· 1 ··· .. . 0 0 . . . 1     

mN 1 0 · · ·

mi1 = − Entonces L1 A tendr´ la forma a    L1 A =   a11 0 . . . 0 Segundo paso: Multiplicar por a12 a1 22

··· ··· .. .

a1N a1 2N . . . a1 N N

    

a1 2 · · · N

36

´ 3. RESOLUCION DE SISTEMAS LINEALES.

    L2 =    y nos queda    L2 L1 A =  

1 0 0 . . .

0 1 m32

··· ··· ··· .. .

0 0 0 . . . 1

      

0 mN 2 · · ·

a11 a12 · · · 0 a2 · · · 22 . .. . . . 0 0 ···

a1N a2 2N . . . a2 N N

    

As´ sucesivamente hasta llegar a una matriz triangular suprior ı    LN −1 LN −2 · · · L2 L1 A = U =   u11 u12 · · · 0 u22 · · · . .. . . . 0 0 ··· u1N u2N . . . uN N    . 

Es f´cil ver que la inversa de L1 viene dada por a  (L1 )
−1

  = 

1 −m21 . . .

0 ··· 1 ··· .. .

0 0 . . . 1

    

−mN 1 0 · · ·

y, en general, L−1 es como Lj pero cambiando los signos de los mji . j Entonces podemos escribir A como sigue, A = L−1 L−1 · · · L−1 U, 1 2 N −1 adem´s, observemos que la matriz L = L−1 L−1 · · · L−1 es de la forma a 1 2 N −1  1 0 ··· 0  −m21 1 ··· 0  L = L−1 L−1 · · · L−1 =  . . .. 1 2 N −1 .  . . . . −mN 1 −mN 2 · · · 1 As´ hemos demostrado el siguiente teorema, ı     

´ 1. METODOS DIRECTOS

37

Teorema 3.1. Si no hace falta intercambiar filas en la eliminaci´n de Gauss se obtiene o A = LU donde U es triangular superior y L es triangular inferior con 1 en la diagonal. Adem´s tenemos el siguiente corolario. a Corolario 3.2. det(A) = det(U ). En el caso general, si hace falta cambiar filas, se tiene P A = LU con P una matriz de permutaciones. 1.2. Descomposici´n de Cholesky. En el caso en que A ∈ IRN ×N es definida positiva y o sim´trica una descomposici´n L−U (con U = LT ) puede obtenerse m´s eficientemente mediante e o a el m´todo de Cholesky. e ´ Definicion 3.3. A ∈ IRN ×N se dice definida positiva si x, Ax > 0 ∀x = 0

Observemos que si A = LLT con L una matriz inversible, entonces (1) A es sim´trica. e (2) A es definida positiva pues x, Ax = LT x
2 2

> 0,

∀x = 0.

En consecuencia, para que A pueda escribirse como LLT con L inversible es necesario que A sea sim´trica y definida positiva. e Ahora, para lograr una descomposici´n de la forma LLT , analicemos primero el caso simple, o A ∈ IR3×3 . Planteamos A = LLT y nos queda   l11 0 0 l11 l21 l31 A =  l21 l22 0   0 l22 l32  0 0 l33 l31 l32 l33 Entonces, despejando los coeficientes, se obtiene
2 a11 = l11

l11 = l21

a12 = l11 l21 etc.

√ a11 a12 = l11

a . A = AT ) y definida positiva se tienen las siguientes propiedades. Entonces. A = LLT si y solo si k aik = j=1 lij lkj . Ahora veamos algunas propiedades que nos ser´n muy utiles. de esta manera. es decir. N ..38 ´ 3.e. despejando. En el caso general en que A ∈ a ´ IRN ×N sea sim´trica (i. pues 0 < ei . . e (1) aii > 0 para cualquier i = 1. RESOLUCION DE SISTEMAS LINEALES. k k−1 2 lkj akk = j=1 = j=1 2 2 lkj + lkk y entonces  lkk = akk − j=1 k−1  2 lkj  Obtenemos. k−1 aik = j=1 lij lkj + lik lkk .. Ahora observamos que lo que hicimos en 3 × 3 se puede hacer en N × N . una forma recursiva para el c´lculo de los elementos lij .. Es decir. Aei = aii (2) Los menores principales sj son positivos (esto fue demostrado en algebra lineal). k−1 j=1 lij lkj lik = Adem´s a aik − lkk i > k.

o u Pero si llamamos Ak al menor principal de A y Lk al menor principal de L. l22 .. k Entonces 2 2 2 0 < det(Ak ) = (det(Lk ))2 = l11 · · · lk−1k−1 lkk . entonces existe l11 positivo tal que l11 = a11 . . 2. N hacemos           lN −1N −1 → lN N −1    l NN Para que el algoritmo de Cholesky est´ bien definido necesitamos ver que el argumento de la e ra´ cuadrada involucrada en el c´lculo de lkk sea positivo. .. . . ız a k−1 l11 l22 . Veamos que ´sto es una consecuencia de ser A definida positiva. lk1 · · ·   l1k . .  . Supongamos que llegamos hasta el paso k.. → → l21 l32 .  . . Entonces  lkk = akk − j=1 k−1  2 lkj  = 0 ´ es un n´mero en C. ak1 · · · y resulta f´cil ver que a   a1k . akk l11 · · ·  .´ 1. . . lkk y Ak = Lk LT ..  . . ··· ··· lN 1 lN 2 akk − j=1 2 lkj > 0. . e o 2 El a11 es positivo. lk−1k−1 son todos n´meros reales positivos y supongamos que u k−1 akk − j=1 2 lkj ≤ 0. . Ak =  . es decir l11 . . las matrices que se obtienen son de tama˜o k × k n a11 · · ·  . Lk =  . es decir.. . Argumentemos por inducci´n. . METODOS DIRECTOS 39 Para k = 1.. .  . .

M´todos iterativos e Estos m´todos convienen en general para matrices ralas (i. hagamos las siguientes observaciones. Los m´todos iterativos generan una sucesi´n e o x0 → x1 → x2 → · · · donde xk+1 se calcula a partir de xk . ´ e Para terminar. sin necesidad de “pivoteo”. 2. Como antes el objetivo es resolver Ax = b con A una matriz inversible.e. Los lij no crecen respecto de A pues k akk = j=1 2 lkj implica que |lkj | ≤ √ akk 2. por ejemplo. cuando se discretizan ecuaciones diferenciales.40 ´ 3. Este tipo de e matrices aparecen. lkk debe tambi´n ser positivo.1. RESOLUCION DE SISTEMAS LINEALES. absurdo. (2) Es estable. el algoritmo de Cholesky es m´s convea niente que el de Gauss (L − U ) porque. 4x1 + x2 = 5 x1 + 4x2 = 5 La soluci´n es o 1 1 5 5 x= y llamaremos b= El m´todo de Jacobi calcula xk+1 a partir de xk de la siguiente forma e . M´todo de Jacobi. con muchos ceros). 2 como los primeros factores son positivos el ultimo. u (1) El n´mero de operaciones es O(N 3 /6) (en lugar de O(N 3 /3)). Empecemos con un ejemplo para ver como funciona el m´todo e e de Jacobi.

N tenemos e o xk+1 i = bi − i−1 k j=1 aij xj − N k j=i+1 aij xj aii . 4   → ··· Entonces si empezamos con x0 = (0. Despejamos xi de la i−´sima ecuaci´n.´ 2. 0). cumple que o x = Bx + c. tenemos    5   0 4  → x2 =  x0 =   → x1 =  5 0 4 Convergencia y estimaci´n del error o En forma matricial la iteraci´n de Jacobi se escribe como o xk+1 = Bxk + c. A ∈ IRN ×N supongamos aii = 0. o En el caso general. METODOS ITERATIVOS 41 4xk+1 = 5 − xk 2 1 4xk+1 = 5 − xk 1 2 Es decir xk+1 = 0 −1 4 −1 4 0 b xk + . ≤ B k ∞ 1 ≤ ( )k → 0 4 ≤ Por supuesto. Por otro lado la soluci´n exacta. En nuestro ejemplo observamos que B y entonces Bk De ´sto conclu´ e ımos que 1 k 0 e ∞→0 4 es decir la iteraci´n converge cualquiera sea el dato inicial x0 . ∀i (si A es inversible esto se puede obtener reordenando). x. o ek ∞ ∞ ∞ 15 16 15 16 = 1 4 k → ∞... entonces el error ek = xk − x verifica ek+1 = Bek y entonces. La convergencia depende de como sea la matriz B. Si B < 1 para alguna norma asociada a una norma de vectores entonces el m´todo converger´ e a cualquiera sea la condici´n inicial y si no no. para i = 1. esto no es cierto en general. ´ ek = B k e0 . .. iterando esta ultima igualdad.

. tenemos ek+1 = −D−1 (L + U )ek = BJ ek ek+1 = −(D + L)−1 U ek = BGS ek En general. . Resulta natural utilizar las componentes ya calculadas xk+1 . . 0 ··· Entonces 0 aN N 0 ···   . o a ek+1 = Bek tenemos ek = B k e0 . 0 aN 1 · · ·  0 . . N . RESOLUCION DE SISTEMAS LINEALES. . + . si la iteraci´n est´ dada por una matriz B. . . Para i = 1. . . resultando el m´todo de Gauss-Seidel. .. . o e 2. M´todo de Gauss-Seidel. + . (1) Jacobi xk+1 = −D−1 (L + U )xk + D−1 b (2) Gauss-Seidel xk+1 = −(D + L)−1 U xk + (D + L)−1 b Si escribimos ek = xk − x y usamos que la soluci´n exacta x cumple o x = −D−1 (L + U )x + D−1 b y x = −(D + L)−1 U x + (D + L)−1 b respectivamente.   .  . . . 0 a11 · · ·  . o sea. . 0 ··· Ax = b si y solo si Dx = −(L + U )x + b Tanto el m´todo de Jacobi como el de Gauss-Seidel pueden escribirse en la forma e xk+1 = Bxk + c. ...42 ´ 3. e bi − i−1 k+1 j=1 aij xj xk+1 i = − N k j=i+1 aij xj aii Escritura matricial de la iteraci´n Escribimos o A=D+L+U      a1N 0 ··· .  .2. xk+1 para calcular la nueva 1 i−1 k+1 aproximaci´n xi . . A= .

.´ 2. En este caso se puede diagonalizar. es necesario que B k → 0. o En el ejemplo dedujimos que B k → 0 del hecho de que B < 1. es e decir. Por ejemplo 1 2 1000 B= 1 0 2 Observemos que B ∞ ∞ podr´ ser ıa = 1000. j y esto implica que B k → 0.. En este caso  k  λ1 · · · 0   .. ∀i. Ak = S −1  S . Sin embargo B grande y B k → 0. k 0 · · · λN y se tiene que si y solo si max |λi | = ρ(A) < 1 i Ak → 0 Esto es cierto en general. SAS −1 =   . El segundo ejemplo trata el caso en que A es sim´trica. ρ(A) ≤ A para cualquier norma 2 2 < 1 y entonces Ak → 0. y se tiene que (B ij Vale destacar que para que B k → 0 basta que exista alguna norma tal que B < 1. Sin embargo B k → 0. En efecto B = 1 a 0 1 1 2 1 2000 0 1 1 ka 0 1 . METODOS ITERATIVOS 43 Entonces si queremos que ek → 0 para todo dato inicial. a ıcil En el caso en que A es sim´trica se tiene e ρ(A) = A entonces. si ρ(A) < 1 se tiene que A En general vale que. 0 · · · λN con λi los autovalores de A. existe S tal que   λ1 · · · 0   . pero si A no es diagonalizable es m´s dif´ de probar.5. En general las matrices de la forma C = Entonces verifican que C k = 1 1 k2000 B k = ( )k 0 1 2 k ) → 0. El siguiente objetivo es dar una caracterizaci´n de las matrices con esta propiedad.

Queremos definir x ..4. En alguna base {vi }. λi 1 · · ·  0 λi · · ·  Ji =  . Recordemos la forma de Jordan de una matriz. puede obtenerse una nueva base en la cual la transformaci´n lineal toma la forma an´loga pero con los o a   λi ε · · · 0  0 λi · · · 0   ˜  Ji =   .. se tiene Teorema 3. ρ(A) = inf A O sea ∀ε > 0 existe una norma tal que ρ(A) ≤ A ≤ ρ(A) + ε. Sea x tal que Ax = λmax x entonces |λmax | x = Ax ≤ A x y as´ ı |λmax | = ρ(A) ≤ A Ahora veamos que dado ε > 0 existe una norma con A ≤ ρ(A) + ε. una matriz B se transforma en   J1 · · · 0   . 0 0 ···   0 0     λi ··· Jr x=0 Esta es la forma normal usual. y aunque ρ(A) no es una norma. Primero veamos que o ρ(A) ≤ A . para x ∈ IRN . Observamos que A en IR es igual a A en C (ejercicio). Demostraci´n.44 ´ 3.   . Sin embargo. 0 0 ··· λi . 0 donde los Ji son los ”bloques de Jordan”. RESOLUCION DE SISTEMAS LINEALES..  .   .

.   λ1 1 · · · 0  0 λ1 · · · 0    J1 =   . es f´cil ver que. Si T es la transformaci´n lineal asociada a B tenemos o T v1 = λ1 v1 T v2 = v1 + λ1 v2 T v3 = v2 + λ1 v3 .. ˜ x= y definimos x = max |αi | es decir la norma ∞ αi vi ˜ en esa base.. vm queda el bloque ˜ ˜  λ1 ε  0 λ1  ˜ J1 =   0 0  0 0     λ1 ··· ··· .. v3 = ε2 v3 .. . vm = εm−1 vm . Tenemos entonces ˜ ˜ ˜ ˜ T v1 = λ1 v1 ˜ ˜ T v2 = ε˜1 + λ1 v2 ˜ v ˜ T v3 = ε˜2 + λ1 v3 ˜ v ˜ .. el bloque 1. .. . T vm = vm−1 + λ1 vm Ahora definamos v1 = v1 . definamos la norma de la siguiente manera. por ejemplo. . a A = ρ(A) + ε pues A es el m´ximo de a j |aij | si A es la norma asociada a x . . . Corolario 3. T vm = ε˜m−1 + λ1 vm ˜ v ˜ Por lo tanto en la base v1 .. dado x lo escribimos en la base vi .. Entonces. v2 = εv2 . 0 0 ··· λ1 en la base v1 .5. ··· Hecho esto... . B k → 0 si y solo si ρ(B) < 1.´ 2.. Esto se logra re-escalando la base.... Miremos..   . vm . . METODOS ITERATIVOS 45 donde ε es positivo y arbitrario..

z = 0. Tomando parte real e imaginaria se ve que hay alg´n x ∈ IRN tal que B k x no tiende a cero. B es semejante a una matriz triangular (forma de Jordan). Demostraci´n. RESOLUCION DE SISTEMAS LINEALES. Teorema 3. Y al multiplicar por D y D−1 quedan ε y 0 en lugar de 1 y 0 en la forma de Jordan.  .   . u Ahora veamos otra forma de probar estos resultados.. Si ρ(B) < 1 por el teorema anterior existe una norma o tal que B < 1. 0 0 ··· εN  0 0     λk      0 0 ε−N ε 0 ···   0 ε2 · · ·   J  .   . tal que Bz = λmax z y entonces B k z = λk z max Esto implica que B k z = ρ(B)k z no tiende a cero. Ahora dado ε > 0 multiplicamos por la matriz diagonal  −1 ε 0 ··· 0  0 ε−2 · · · 0  D= .. 0 y su inversa para obtener  −1 ε 0 ···  0 ε−2 · · ·  DJD−1 =  . . Veamos primero la vuelta. entonces Bk ≤ B k →0 .. supongamos que ρ(B) ≥ 1.. i + 1).  . B k → 0 si y solo si ρ(B) < 1 Demostraci´n.6. o sea. existe una o matriz C tal que CBC −1 = J con J la forma de Jordan de B. 0 0 ··· En general la matriz J = (αij ) tiene coeficientes no nulos solo en la diagonal y en los lugares (i. entonces existe z ∈ CN . Ahora para la ida.46 ´ 3. 0 0 ···   0 ··· ε−N   0 λ1 ε · · · 0   0 λ2 · · ·   = .

∀ε existe k a partir del cual ρ(B) ≤ B k es decir Bk → ρ(B) ≤ (ρ(B) + 2ε) . METODOS ITERATIVOS 47 En conclusi´n. 0 0 ··· SBS −1 = A   0 0   =A  λk Para simplificar llamemos S = DC y nos queda Ahora observamos que A pues A Pero. εN −1 → ρ(B) ∞ Demostraci´n.´ 2.  . Ya C εN −1 ∞ ≤ Cond(S)(ρ(B) + ε)k ≤ (ρ(B) + ε)k Por otro lado se ve f´cil que a ρ(B)k ≤ ρ(B k ) ≤ B k Entonces ρ(B)k ≤ B k Luego. Bk ∞ ∞ ∞ = ρ(B) + ε |aij | = max j ≤ S −1 ∞ Ak ∞ S ∞ = Cond(S) Ak ∞ ≤ ≤ Cond(S) A k ∞ ≤ Cond(S)(ρ(B) + ε)k → 0 si ε es tal que ρ(B) + ε < 1. Basta probarlo para la norma o vimos que ∀ε. B k = S −1 Ak S Entonces. ρ(B) ≤ B k 1/k ∞ ∞ ≤ C εN −1 (ρ(B) + ε)k . ≤( C 1/k ) (ρ(B) + ε) → (ρ(B) + ε) εN −1 1/k ∞ 1/k ∞ O sea. Bk ∞ pues todas las normas son equivalentes. queda o DCBC −1 D−1 λ1 ε · · ·  0 λ2 · · ·  = .7. Bk 1/k 1 . Observemos que Cond(S) ∼ Corolario 3..

Esto da una manera de comparar dos no es cierto pero. Si A es estrictamente diagonal dominante el m´todo de Gauss-Seidel converge. −(L + D)−1 U x = λx = 1. RESOLUCION DE SISTEMAS LINEALES. para k grande vale que B m´todos iterativos (por ejemplo Jacobi y Gauss-Seidel). Recordemos que o A=D+L+U En este caso es f´cil ver que a BJ En efecto. Supongamos que el m´todo i (i = 1. e Demostraci´n. An´lisis de los m´todos de Jacobi y Gauss-Seidel. Sea λ un autovalor de B y x un autovector con x tenemos. para B sim´trica ya sab´ e ıamos que B k = ρ(B)k . e Teorema 3.8. ıa 2. Una matriz A ∈ IRN ×N es estrictamente diagonal dominante si |aii | > i=j |aij | ∀i Si A es estrictamente diagonal dominante entonces tanto Jacobi como Gauss-Seidel convergen. O sea el m´todo 1 es mejor asint´ticamente (aunque para un n´mero dado de e o u iteraciones podr´ ser mejor el 2). 2) e e tiene la matriz de iteraci´n Bi . Ahora observemos lo siguiente. Demostraci´n.9. ∞ Hay que ver que ρ(B) < 1. Como antes recordemos que o A=D+L+U BGS = −(L + D)−1 U.10. Si A es estrictamente diagonal dominante el m´todo de Jacobi converge. BJ = (bij ) con bij = entonces BJ ∞ BJ = −D−1 (L + U ) <1 bii = 0 |aij | <1 |aii | aij i=j aii = max i i=j ∞ pues A es estrictamente diagonal dominante. Entonces .3. a e ´ Definicion 3.48 ´ 3. Teorema 3. En general esto k ∼ ρ(B)k . Si o ρ(B1 ) < ρ(B2 ) entonces k k B1 < B2 para k grande.

O bien. −a −a 0 1 a a 1 det(A) = 1 − a2 > 0 .´ 2. Un caso importante es el de A sim´trica e e y definida positiva.4. En este caso veremos. N λaii xi = −λ j=1 aij xj − j=i+1 aij xj Sea i tal que x ∞ = |xi | ≥ |xj |. METODOS ITERATIVOS 49 y esto es equivalente a −U x = λ(L + D)x N i − j=i+1 aij xj = λ j=1 i aij xj . Matrices sim´tricas definidas positivas. e   0 −a −a BJ = −D−1 (L + U ) =  −a 0 −a  . De esta forma obtuvimos |λ| ≤ N j=i+1 |aij | |aii | − i−1 |aij | j=1 <1 pues A es estrictamente diagonal dominante. Sea a tal que 0 < a < 1 y tomemos   1 a a A= a 1 a  a a 1 Esta matriz A es sim´trica y definida positiva. Empecemos con un ejemplo. (2) Gauss-Seidel es convergente. A1 = (1) A2 = y adem´s a 1 1 det(A) = 1 + 2a3 − 3a2 = (a − 1)2 (a + ) > 0 si a > − 2 2 Analicemos el m´todo de Jacobi en este caso. (1) Jacobi no es necesariamente convergente. 2. Para ver que es definida positiva hay que ver e que los menores principales son positivos. entonces i−1 N |λ||aii | ≤ |λ| j=1 |aij | + j=i+1 |aij |.

o Ejemplo 3. si o A = D + L + LT son definidas positivas. entonces ρ(BJ ) < 1 si y s´lo si A es definida positiva . a a λ Observemos que p(a) = 0 entonces λ1 = a y como p (a) = 0. A = D + L + LT Puede demostrarse que si D − (L + LT ) es definida positiva. −a −a 1   y ˜ A = D − (L + LT ) con 1 2 ≤ a < 1 se tiene . ´ Observacion 3. el polinomio caracter´ ıstico es   λ a a p(λ) = det  a λ a  = λ3 + 2a3 − 3a2 λ. Entonces si 1 1>a≥ 2 se tiene que ρ(B) = 2a ≥ 1 y con esto no se puede asegurar que el m´todo de Jacobi converja para cualquier dato inicial.11.50 ´ 3. λ1 = a es una raiz doble de p.12. con lo cual Jacobi no converge. En particular. Para la matriz  1 a a A= a 1 a  a a 1  1 −a −a ˜ A =  −a 1 −a  .13. se tiene que ρ(BJ ) < 1 ˜ (la matriz BJ = −BJ . Tomando    A=   1 1 2 1 2 1 2 1 2 1 2       1 1 2 1 tenemos que ρ(BJ ) = 1. Calculemos los autovalores de B. ´ Observacion 3. Dividiendo p por (λ − a)2 se obtiene que la tercer raiz es λ3 = −2a. Para una ˜ o sea Jacobi converge para A y para A o demostraci´n de este hecho ver Isaacson-Keller (pag 72). e ´ Conclusion: A sim´trica definida positiva no implica que el m´todo de Jacobi sea necesariae e mente convergente. RESOLUCION DE SISTEMAS LINEALES. Entonces la condici´n estricta es o necesaria en el teorema que muestra la convergencia para A estrictamente diagonal dominante. s´lo cambia de signo).

16 16 5+ . e   1 a a A= a 1 a  a a 1 y entonces  1 0 0 L+D = a 1 0  a a 1 Calculando obtenemos   (L + D)−1 Entonces B = BGS = −(L + D)−1 U es   0 a a U =  0 0 a . λ − a2 a − a2 λI − B =  0 2 + a3 λ − 2a2 + a3 0 −a 1 Tenemos λ1 = 0. ahora consideremos el caso particular a = 2 . 0 0 0  y  1 0 0 1 0 . Ahora analicemos que pasa con el m´todo de Gauss-Seidel en este mismo ejemplo. METODOS ITERATIVOS 51 ˜ Y resulta que A no es definida positiva.´ 2.     0 −4 −4 λ 4 4 2 . para este valor de a se obtiene   0 −1 −1 2 2 B =  0 1 −1  . B= 0 2 − a3 2a2 − a3 0 a  Veamos los autovalores de B. det(λI − 8B) = λ((λ − 2)(λ − 3) + 2). Las ra´ ıces de (λ − 2)(λ − 3) + 2 son √ √ −7 5 − −7 λ2 = λ3 = 2 2 Como ´stos son los autovalores de 8B los autovalores de B son e √ √ 5 + −7 5 − −7 λ1 = 0 λ2 = λ2 = . Para simplificar.  λ a a . =  −a 2 − a −a 1 a  0 −a −a a2 a2 − a  . 8B =  0 2 −2  y λI − 8B =  0 λ − 2 0 1 3 0 −1 λ − 3 Con lo cual. 4 4 3 0 1 8 8 Y entonces.

 1 2 A= 1 1 2 2 Para el m´todo de Jacobi nos queda e   −2 1 . a e En particular este ejemplo nos da un caso donde el m´todo de Gauss-Seigel converge pero Jacobi e no. o sea ρ(BGS ) < 1 y ρ(BJ ) ≥ 1. −U =  0 0 −1  y (L + D)−1 =  −1 1 0  1 0 0 0 0 −2 1  0 −2 2 =  0 2 −3  0 0 2  2 −2 λ−2 3  0 λ−2 λ3 = 2  BGS = −(L + D)−1 U y λ λI − BGS =  0 0 Los autovalores resultan ser λ1 = 0  λ2 = 2 . es decir donde Jacobi converge pero Gauss-Seigel no.52 ´ 3. 1 Sea  0 −2 2 BJ =  −1 0 −1  −2 −2 0   λ 2 −2 λI − BJ =  1 λ 1  2 2 λ p(λ) = λ3 entonces y los autovalores resultan ser λ1 = λ2 = λ3 = 0 Entonces BJ es nilpotente.14. RESOLUCION DE SISTEMAS LINEALES. Ahora veremos un ejemplo “al rev´s´´. 16 4 Entonces el m´todo de Gauss-Seidel converge. m´todo de Gauss-Seidel para este ejemplo. e M´s adelante veremos que si A es sim´trica y definida positiva entonces Gauss-Seigel converge. e      0 −2 2 1 0 0 0 0  . Observemos que √ √ 32 2 |λ2 | = |λ3 | = = < 1. ver Varga. e 3 e3 = BJ e0 = 0 Ahora analicemos el  1 0 L+D = 1 1 2 2 En consecuencia. e Ejemplo 3. pag 74). ρ(BJ ) = 0 y el m´todo converge en tres pasos. (Collatz 1942.

y los autovalores de BJ resultan λ1 = 0 Entonces. 1 1 2  Aplicando Jacobi resulta 0 BJ =  1 −1 2  −1 2 0 −1 2 1 2   1 1 λ 2 −2 λI − BJ =  −1 λ −1  1 1 λ 2 2 con lo cual. Modificando trivialmente este ejemplo puede obtenerse un ejemplo en que ambos m´todos cone vergen y se tiene ρ(BJ ) < ρ(BGS ) < 1. a Ejemplo 3.´ 2. Sea   5 2 −2 A= 1 5 1  2 2 5 que es estrictamente diagonal dominante y entonces Jacobi y Gauss-Seidel ambos convergen. Veamos un ejemplo m´s. Para Gauss-Seidel se tiene 2 0 0 L + D =  −2 2 0  .15. 2 1  0 y en consecuencia Jacobi no converge. 1 1 2   √ 5 >1 ρ(BJ ) = 2  (L + D) −1   =   1 2 1 2 0 1 2   0    1 2 0  y −1 2 −1 4 . e  2 1 −1 A =  −2 2 −2  . METODOS ITERATIVOS 53 entonces ρ(BGS ) = 2 y el m´todo de Gauss-Seidel no converge. Este es un ejemplo para el cual ninguno de los dos m´todos converge. 5 p(λ) = λ3 + λ 4 √ 5 λ2 = i 2 √ 5 λ3 = −i . e Conclu´ ımos que en este ejemplo el m´todo de Jacobi converge en tres pasos pero Gauss-Seidel e no converge (existen datos iniciales para los cuales no converge).

Veamos ahora el ultimo ejemplo de esta serie. . a11 a22 El ejemplo anterior se generaliza para el m´todo de Gauss-Seidel en IRN pero no para el m´todo e e de Jacobi. ´ a12 = a21 det A = a11 a22 − a2 > 0 12 |a12 a21 | |a11 a22 | |a12 a21 | . ρ(BGS ) = ρ(BJ )2 . o Por ejemplo. Y si convergen (o o sea ρ < 1) es mejor asint´ticamente Gauss-Seidel. Como conclusi´n en IR2 Jacobi converge si y solo si Gauss-Seidel converge. |a11 a22 | a11 a12 a21 a22 0 − a21 a22 0 0 a12 − a11 0  a12 a21 a11 a22 − a12 a11 . e Ejemplo 3. pues e e a11 > 0 entonces a11 a22 > a2 12 a2 12 = ρ(BGS ) = ρ(BJ )2 < 1.  0 −2 2 1 −(L + D)−1 U =  0 −2 6  4 0 2 −4 ıces o de donde p(λ) = λ3 + 5 λ2 − 1 λ y calculando las ra´ de p(λ) obtenemos con aproximaci´n los 4 4 autovalores λ1 = 0. entonces convergen los dos m´todos. Caso IR2 En este caso es f´cil analizar el m´todo de Jacobi y el de Gauss-Seidel. pues en este caso ρ(BGS ) < ρ(BJ ). a e A= entonces BJ = −D−1 (L + U ) = y BGS = −(D + L)−1 U = Entonces.54 ´ 3.6514 y por tanto ρ(BGS ) = |λ3 | > 1 y entonces el m´todo de Gauss-Seigel no converge. si A es estrictamente diagonal dominante.16. Si A es sim´trica y definida positiva entonces convergen ambos m´todos en IR2 . ρ(BJ ) = ρ(BGS ) = Es decir. λ2 = 0. RESOLUCION DE SISTEMAS LINEALES. Y e esto en IR2 es decir |a12 | < |a11 | y |a21 | < |a22 |.1514 y λ3 = −1.

  0 a11 a12 0 Si ponemos A =  a21 a22 a23  entonces BJ = −D−1 (L + U ) =  − a21 a22 0 a32 a33 0 y a12 a21 a23 a32 + . Sea A ∈ IR3 una matriz tridiagonal entonces.17. µ son las ra´ o ıces de det(µD + L + U ). 0 0 0  0   a12 a21 U = 0 a11 a22   0 − a12 a21 a32 a11 a22 a33 − a12 a11 0 a23 − a22 a23 a32 a22 a33       det(λI − BGS ) = λ3 − λ2 Y los autovalores resultan ser λ1 = λ2 = 0 Entonces. . ρ(BGS ) = λ3 = a12 a21 a23 a32 + a11 a22 a22 a33 a12 a21 a23 a32 + a11 a22 a22 a33 .´ 2. a12 a21 a23 a32 = ρ(BJ )2 + a11 a22 a22 a33 Los autovalores de Jacobi son los autovalores de BJ = −D−1 (L + U ) y resultan ser las ra´ µ ıces de det(µI + D−1 (L + U )) = det(D−1 (µD + L + U )) = det(D−1 ) det(µD + L + U ) y como por hip´tesis det(D−1 ) = 0 (asumimos aii = 0). det(λI − BJ ) = λ3 − λ a11 a22 a22 a33 Y entonces a12 a21 a23 a32 + . METODOS ITERATIVOS 55 Ejemplo 3. . ρ(BJ ) = a11 a22 a22 a33 Para el m´todo de Gauss-Seidel se tiene e  a11 0 0 L + D =  a21 a22 0  0 a32 a33  Entonces  BGS = −(L + D) −1  ρ(BGS ) = ρ(BJ )2 − a12 a11 0 − a32 a33 0  a23 − a22  0 y  0 a12 0 U =  0 0 a23  .

.  . . entonces λ y µ se relacionan de la siguiente manera λ = µ2 . α−1 aN −1 0 . . An´logamente. En particular.. Sea A ∈ IRN ×N tridiagonal entonces.18... . 0 α ··· ··· .  .. . λ son las ra´ ıces de det(µ(L + D) + U ). ρ(BGS ) = ρ(BJ )2 . αN −1      = D + L + U y D + αL + α−1 U son semejantes. CAC −1 d1 α−1 a1 0 ··· 0 −1 a  αb2 d2 α ··· 0 2  . . para todo α = 0 se tiene que det(D + L + U ) = det(D + αL + α−1 U ) Demostraci´n.. ··· 0 ··· 0 . Basta ver que las matrices A o Pongamos  d1 a1  b2 d2   A =  0 b3   0 y consideremos    C=  1 0 . . αbN −1 dN       = D + αL + α−1 U   Teorema 3. 0 0 . .. αb3 d3 . .. 0 a2 d3 . . los autovalores λ de BGS = −(L + D)−1 U son las ra´ a ıces de det(µI + (L + D)−1 U ) = det((L + D)−1 (µ(L + D) + U )) = det((L + D)−1 ) det(µ(L + D) + U ) y como det((L + D)−1 ) = 0. . µ los autovalores no nulos de BJ . . aN −1 bN −1 dN        0 ··· Entonces. . = 0  . Lema 3. .19. Sea A ∈ IRN ×N una matriz tridiagonal y sean λ los autovalores no nulos de BGS . .. ..56 ´ 3.. . . RESOLUCION DE SISTEMAS LINEALES. .

trabajaremos directamente con A ∈ CN ×N . A ∈ CN ×N es Hermitiana si A∗ = A. . dado λ = 0 autovalor de BGS encontramos µ autovalor de BJ con µ2 = λ. Convergencia del m´todo de Gauss-Seidel para A ∈ IRN ×N sim´trica e e Como los autovalores de A ∈ IRN ×N pueden ser complejos. 0 = α−N det(λαD + L + U ) y como los autovalores de BJ son las ra´ ıces µ de det(µD + L + U ) = 0 resulta que µ = λα 1 Pero como α2 λ se tiene que µ2 = λ. Entonces.20. Los λ son autovalores de BGS y por lo anterior son ra´ o ıces de det(λ(L + D) + U ) = 0 pero λ(L + D) + U es tridiagonal y por el lema anterior det(λD + αλL + α−1 U ) = 0 1 Si λ = 0 sea α tal que α2 = λ . ij ´ Definicion 3.´ 2. λ = µ2 resulta ser un autovalor de BGS . Ahora observemos que en lo anterior. Entonces µ2 es autovalor de BGS . det(µD + L + U ) = 0 si y solo si det(µ2 D + µ(L + U )) = 0 si y solo si (por el lema previo) det(µ2 D + αµL + α−1 µU ) = 0 y tomando α = µ se tiene det(µ2 (D + L) + U )) = 0.21. j tiene al elemento a∗ = aji . Recordemos algunas definiciones ´ Definicion 3. Si A ∈ CN ×N de define A∗ = AT o sea A∗ es la matriz que en el lugar i. pero en realidad es un si y solo si. Es decir. dado µ autovalor de BJ . METODOS ITERATIVOS 57 Demostraci´n.

e Si z ∈ CN y A es Hermitiana entonces z ∗ Az ∈ IR.22. entonces el m´todo de Gauss-Seidel es convergente.58 ´ 3. un autovector correspondiente a λ. Observemos que BGS puede escribirse como BGS = I − (L + D)−1 A Sea λ ∈ C un autovalor de BGS y z ∈ CN . Observemos que si A ∈ IRN ×N . Multiplicando por z ∗ se obtiene 1 z ∗ (L + D)z = 1−λ z ∗ Az tomando conjugado y recordando que z ∗ Az ∈ IR y que D es real se tiene 1 z ∗ (L + D)∗ z z ∗ (L∗ + D)z = = . Veamos esto. ∗ Az z z ∗ Az 1−λ Y sumando estas dos igualdades se obtiene 1 z ∗ Dz 2Re( )=1+ ∗ >1 1−λ z Az . 0 0 ··· ··· . z ∗ Az = ij zi aij zj y entonces z ∗ Az = ij zi aij zj = z ∗ A∗ z Teorema 3. Sea A ∈ CN ×N Hermitiana y definida positiva (o sea z ∗ Az > 0 ∀z = 0).. RESOLUCION DE SISTEMAS LINEALES. En general para A cualquiera z ∗ Az = z ∗ A∗ z. o con A = L + D + L∗    L=  0 a21 . z = 0. .  0 0     0 aN 1 · · · Hay que ver que ρ(BGS ) < 1 donde BGS = −(L + D)−1 L∗ . . es decir (I − (L + D)−1 A)z = λz o bien (L + D)z − Az = λ(L + D)z y esto es equivalente a Az = (1 − λ)(L + D)z Como Az = 0 se deduce que λ = 1. A∗ = AT y Hermitiana significa sim´trica. e Demostraci´n. .

tenemos 1 1 1 − α + iβ 1 − α + iβ = = . (Kahan) Sea A ∈ CN ×N . N ×N es Hermitiana y con a > 0 entonces el m´todo de Gausse Se puede probar que si A ∈ C ii Seigel converge si y solo si A es definida positiva (ver Isaacson-Keller pag. 2. Si ω ∈ IR entonces hace falta que 0 < ω < 2. En principio.5. ω es arbitrario. Entonces si λ = α + iβ.23. La idea del m´todo SOR (succesive overrrelaxation / sobre relajaci´n e e o sucesiva) es tomar un “promedio” entre el xk y el xk+1 de Gauss-Seidel (promedio entre comillas i i pues los pesos no son necesariamente menores o iguales que 1). 1−λ 1 − α − iβ 1 − α + iβ (1 − α)2 + (β)2 Y de esta forma 1 1−α Re( )= 1−λ (1 − α)2 + (β)2 y por lo anterior 1−α 1 > (1 − α)2 + (β)2 2 es decir 2(1 − α) > 1 − 2α + α2 + β 2 y esto es equivalente a 1 > α2 + β 2 . M´todo SOR. 71). Sin embargo el siguiente teorema nos dice que es necesario que |ω − 1| < 1 para que haya convergencia (o sea para que ρ(Bω ) < 1). METODOS ITERATIVOS 59 pues z ∗ Az > 0 y z ∗ Dz > 0 (aii > 0 si A es definida positiva). Hemos conseguido ver que |λ| < 1.´ 2. entonces ρ(Bω ) ≥ |1 − ω| xk+1 = Bω xk + (D + ωL)−1 ωb Bω = (D + ωL)−1 ((1 − ω)D − ωU ) . Teorema 3. con aii = 0. Dado ω un par´metro se define a   aij xk  j j=i+1 i−1 N xk+1 = (1 − ω)xk + ω bi − i i j=1 aij xk+1 − j 1 aii En forma matricial escribimos como antes A = L + D + U queda (D + ωL)xk+1 = ((1 − ω)D − ωU )xk + ωb entonces con Observemos que B1 = BGS .

2) x−y = 0 . e e El problema consiste en encontrar el par´metro ´ptimo (o cercano al ´ptimo) para acelerar la a o o convergencia. En caso afirmativo usarlos para resolver el sistema. diag y eig de Matlab). Ortega o Smith). Si ambos m´todos convergen. una condici´n necesaria para que el m´todo converja es que 0 < ω < 2. e determinar cu´l converge m´s r´pido. Demostraci´n. Ejercicios (1) Escribir un programa que implemente el m´todo de Jacobi y otro el de Gauss-Seidel e con las siguientes condiciones: • que incluya una restricci´n al n´mero de iteraciones o u • que finalice si el m´todo se estaciona e (2) Decidir para cada uno de los siguientes sistemas. RESOLUCION DE SISTEMAS LINEALES. (b)   6 8 10 9   x3  =  33  x3 6 1 1 4 5 7 9 10 x4 31 (3) Dar ejemplos donde converja el m´todo de Jacobi y no lo haga el de Gauss-Seidel y e viceversa. Para ciertas clases de matrices esto puede hacerse (ver libro Varga. hacer un programa que lo modele y a la vez grafique en el plano la sucesi´n de aproximaciones obtenidas empezando en cada uno de lo siguientes valores o iniciales (a) x0 = (1. det(Bω ) = = = = Pero como det(Bω ) = i λi det((D + ωL)−1 ) det((1 − ω)D − ωU ) det(D−1 ) det((1 − ω)D − ωU ) det((1 − ω)I − ωD−1 U ) det((1 − ω)I) = (1 − ω)N ρ(Bω ) ≥ |1 − ω| se tiene que Si ω ∈ IR. Esta condici´n o e o es tambi´n suficiente si A es sim´trica definida positiva. Estudiar autovalores y autovectores de la matriz x+y = 0 de iteraci´n asociada al m´todo de Gauss-Seidel. 4) (5) Considerar el sistema (b) x0 = (1. 2 1 (4) Considerar el sistema Ax = b para A = y b = (8. Si L es triangular inferior con ceros en la diagonal entonces det(D−1 ) = det((D + o ωL)−1 ). si los m´todos de Jacobi y de Gausse Seidel son convergentes (sugerencia: utilizar los comandos tril. En consecuencia. 21). Mostrar que el m´todo e 3 6 de Jacobi converge. decidir si el m´todo es convergente o o e e . 3. ¿Es la matriz del sistema diagonal dominante? a a a ¿y sim´trica y definida positiva? e           5 7 6 5 x1 23 x1 5 3 1 1  7 10 8 7   x2   32      (a)  2 6 1   x2  =  9  . 0) (c) x0 = (5.60 ´ 3.

e (9) Sea BJ la matriz asociada al m´todo de Jacobi de un sistema dado. 1) Decidir si en este caso el m´todo de Jacobi resulta convergente. ¿qu´ e e m´todo converge m´s r´pido? e a a Comentario: Este problema es interesante por sus aplicaciones. e o (8) (a) Probar que si A tiene una base de autovectores vi . e (6) (a) Mostrar que toda matriz A ∈ IRn×n con det(A) > 1 tiene un autovalor λ. B ∈ IR     a c 0 0 b 0 A =  c a c . s ∈ IR tiene los mismos autovectores. e . real o complejo. con |λ| > 1. n − 1. 1]. (a) x0 = (2. con autovalores λi . con autovalores νi = 1 + sλi . 0. EJERCICIOS 61 no y. j = 1.03) (c) x0 = (0.3. . . En caso afirmativo. 0) (b) x0 = (−0. B =  b 0 b . o (b) Dar condiciones necesarias y suficientes sobre a. . Estimar (a) cu´ntas multiplicaciones y divisiones se requieren para calcular BJ . (c) Decidir si el m´todo de Gauss-Seidel resulta convergente. pues corresponde a la discretizaci´n de la ecuaci´n de Poisson en una dio o mensi´n espacial: o  2  d u = f (x). la matriz B = I + sA. (b) Sabiendo que los autovalores de la matriz A ∈ IR(n−1)×(n−1)   −2 1 0 · · 0  1 −2 1 0 · 0      · · ·  A=   · · ·    0 · · 1 −2 1  0 · · 0 1 −2 πj son λj = −4 sin 2n . sin hacer c´lculos. a a o (b) cu´ntas multiplicaciones y divisiones se requieren para para realizar una iteraci´n con el m´todo de Jacobi. dx2   u(0) = u(1) = 0. predecir el comportamiento de las sucesiones que se obtienen a con los siguientes valores iniciales. 5 6 −1 3×3 las matrices (7) Sean A. c ∈ IR para la convergencia de los m´todos de Jacobi y de Gauss-Seidel aplicados a la resoluci´n de Ax = v. (b) Decidir si el m´todo de Jacobi converge o no para un sistema dado por la matriz e   −1 1 2 A =  4 −1 3  .03. decidir si el m´todo de Jacobi aplicado a e Ax = b es convergente o no. 0 c a 0 b 0 √ (a) Probar que limn→∞ B n = 0 si y s´lo si |b| < 2/2.  x ∈ [0. .

o (b) Mostrar que λ = 0 siempre es un autovalor de BGS . (a) Mostrar que si A(i. Sea ek el vector error en el k-´simo paso.62 ´ 3. A =  −3 9 0 3 −1 7 Hacer un programa que calcule la sucesi´n de aproximaciones generada con valor inicial o el vector nulo y que se detenga cuando xk+1 − xk ∞ ≤ 10−4 (es decir. Notar que si A es una matriz rala (con muchos ceros) entonces BJ tambi´n lo es. (13) Para resolver el sistema Ax = b. 2 − 1 ). para lo cual se considera el siguiente m´todo iterativo. o (14) Utilizar la iteraci´n de Gauss-Seidel para resolver el sistema An x = bn para An = 1 2 1 2 4 + n2 y bn = (1. que es un caso particular de los m´todos e e llamados Jacobi por bloques: −1   −1   a11 a12 0 0 0 a13 a11 a12 0 0 a23  · xk +  a21 a22 0  · b. (b) Probar que si ek = 0 para todo k ∈ IN y ρ(J) = 0. Probar que λ = 1 es autovalor de la matriz de Jacobi (o Gauss-Seidel) de A si y solo si A es no inversible. Luego. el elemento BJ (i. se quiere resolver el sistema de ecuaciones Ax = b. ¿De qu´ autovector? e (11) Dada una matriz   a11 a12 a13 A =  a21 a22 a23  a31 a32 a33 y un vector b ∈ IR3 . k) = 0. la sucesi´n ( ek ∞ )k∈IN tiende o a 0 linealmente. cuando la iteraci´n “se estabiliza”). en cada e iteraci´n se requieren pocas multiplicaciones. xk+1 = −  a21 a22 0  ·  0 0 0 a33 a31 a32 0 0 0 a33 Este m´todo resulta convergente para los siguientes datos: e     −20 8 2 −3 4  y b =  62  . se utiliza un m´todo iterativo cuya matriz de iteraci´n e o J es diagonalizable y satisface ρ(J) < 1. e o (e) cu´ntas iteraciones del m´todo de Jacobi podr´ realizarse antes de igualar la a e ıan cantidad de operaciones necesarias al usar el m´todo de eliminaci´n gaussiana. n2 ¿C´mo es la convergencia? ¿Tiene ´sto que ver con el mal condicionamiento de A? Dar o e un ejemplo de una matriz mal condicionada para la cual la convergencia sea r´pida. k) = 0 entonces. a o (d) cu´ntas multiplicaciones y divisiones se requieren para calcular la soluci´n del a o sistema por el m´todo de eliminaci´n gaussiana. e o (10) Sean BJ y BGS las matrices asociadas al m´todo de Jacobi y de Gauss-Seidel respece tivamente del sistema Ax = b. cu´ntas iteraciones se necesitan para reducir el error del m´todo en a e m´s de 10−m (en funci´n de ρ(BJ )). o (12) Sea A ∈ IRn×n . (c) si ρ(BJ ) < 1. e (a) Demostrar que ek ∞ = O(ρ(J)k ). o e . a (15) Hacer un programa que pida el ingreso de una matriz A y un vector b y luego • calcule las matrices de iteraci´n de los m´todos de Jacobi y Gauss-Seidel. RESOLUCION DE SISTEMAS LINEALES.

Hallar las normas 1.3. entonces realice las primeras 10 iteraciones del m´todo e correspondiente (o de cualquiera de los dos m´todos en caso de que los radios e espectrales resulten coincidentes). si este valor resulta menor a 1. 2). Hallar una norma o en la cual J sea < 1. ∞ y 2 de J. . Verificar. que la matriz no es diagonal dominante. EJERCICIOS 63 • calcule el menor de los radios espectrales de las dos matrices anteriores y. 6 −1 (a) Demostrar que el m´todo de Jacobi converge para todo dato inicial. con valor inicial el vector nulo. (b) Sea J la matriz de iteraci´n. sin e embargo. 64 −6 (16) Considerar el sistema Ax = b para A = y b = (1.

.

b] → IR continua en [a. Es decir. o o el c´lculo exacto no es posible ya sea porque se trata de una ra´ irracional (f (x) = x2 − 2) o a ız porque la funci´n viene dada por coeficientes cuyos valores se conocen s´lo en forma aproximada. En la primera. la necesidad de calcular el valor de x donde una funci´n f se anula. aparece en forma natural. o En muchos problemas. b] → IR) se quiere encontrar r tal que f (r) = 0. poder controlar el error que se comete al utilizar un valor aproximado en lugar del exacto. o o N . que se apoya en la idea geom´trica del teorema de Bolzano. b] donde el gr´fico de f cruza el eje x. A veces. se busca un subintervalo de [a. ız 1. Para asegurar que no hay m´s de una ra´ se usa el teorema de Rolle. En la segunda etapa. veremos distintos m´todos que nos permitir´n aproximar el valor de una ra´ e a ız. recordamos el teorema de e o Bolzano. con las herramientas anal´ o ız ıticas que se usan para estudiar y graficar funciones suaves (derivables) s´lo podemos analizar si hay un o intervalo [a.1.CAP´ ıTULO 4 Resoluci´n de ecuaciones no lineales. En general. se separan las ra´ ıces. Para o ız asegurar la existencia de al menos una ra´ en el intervalo propuesto se utiliza el teorema de ız Bolzano. Teorema 4. M´todo de bisecci´n. es decir. permite construir una e e sucesi´n (xn )n∈I que converge a la soluci´n de f (x) = 0 de la siguiente manera. a En este cap´ ıtulo. e ız Antes de describir el primer m´todo de estas notas. e o Este m´todo. Bolzano Sea f : [a. es decir. como venimos remarcando e en estas notas. el de bisecci´n. El problema se plantea de la siguiente manera: Dada f : IR → IR (o bien f : [a. b]. o o Lo importante al utilizar m´todos que estimen el valor deseado es. se aplica un m´todo para aproximar la ra´ aislada. se a ız verifica que la derivada primera no cambie de signo en dicho intervalo. En muchas ocasiones. El c´lculo aproximado de ra´ a ıces puede dividirse en dos etapas. Si f (a)f (b) < 0 (o sea f (a) y f (b) tienen distinto signo) entonces existe alguna ra´ de f en el intervalo [a. s´lo tiene sentido encontrar una soluci´n aproximada. b] que contenga una y s´lo una ra´ de f . b]. una ra´ de f . ´ste valor suele hallarse por aproximaciones sucesivas y por ende los m´todos a utilizar son e e iterativos.

b1 − a1 b2 − a2 = = .66 ´ 4. a = a ≤ a1 ≤ a2 ≤ . (2) Si f (c) < 0. o existen los l´ ımites lim an y lim bn . habr´ una ra´ en [a. Supongamos que f (a)f (b) < 0. b−a 2 b1 − a1 2 b−a 4 b−a 2n = bn − an = · · · Adem´s. . por ejemplo. que f (a) > 0 y Ahora se elige el subintervalo. x3 ∈ [a3 . n→∞ En cada paso se verifica f (an )f (bn ) ≤ 0 y tomando l´ ımite (usando que f es continua) resulta f (r)2 ≤ 0. . ız . proceso se sigue sucesivamente. Entonces r es la ra´ buscada pues cumple. As´ se genera una sucesi´n x1 = a+b ∈ [a1 . Supongamos. ≤ b b ≥ b1 ≥ b2 ≥ . bn ] mide la mitad del anterior. a ız (3) Si f (c) > 0. x2 ∈ [a2 . c]. habr´ una ra´ en [c. . entonces (1) Si f (c) = 0 listo. . . b]. a ız a+b 2 .. donde cada intervalo ı o 2 [an . RESOLUCION DE ECUACIONES NO LINEALES.. n→∞ n→∞ Y como b−a →0 2n |bn − an | ≤ se tiene que n→∞ lim an = lim bn = r. . b1 ]. cuya longitud es la mitad de [a. Calculemos c = f (b) < 0. f (r) = 0. ≥ a Entonces an y bn son sucesiones mon´tonas y acotadas y en consecuencia convergen. b] y que contiene a la ra´ Este ız. b3 ] . es decir. b2 ].

2 2 Resumiendo.). 1.25 f (x3 ) = −0.4375] [a7 . Del an´lisis hecho en general sab´ a ıamos que. Si f : [a.´ ´ 1. 67 Por otra parte el error puede acotarse de la siguiente forma. ..421875] Para x8 . Tenemos que an−1 + bn−1 2 xn = entonces 1 b−a |r − xn | ≤ (bn−1 − an−1 ) ≤ n . La suecsi´n que produce el m´todo es: ız o e x1 = 2 x2 = 1. hemos demostrado. Fue necesario hacer ocho o √ pasos para obtener cuatro cifras exactas ( 2 = 1. e √ Ejemplo 4.022 . b3 ] = [1. b6 ] = [1. 1. b2 ] = [1.5] [a5 . Se tiene f (1) = −1 < 0 < f (3) = 7 y con un gr´fico de a f podemos asegurar que no hay otra ra´ positiva.5] [a4 .. el m´todo de bisecci´n e o genera una sucesi´n xn tal que. Calculemos 2. 2 Una de las ventajas que tiene el m´todo de bisecci´n es que converge para cualquier f continua. . b5 ] = [1. .06640625 f (x6 ) = −0. o (1) xn → r con f (r) = 0.109375 f (x5 ) = 0.02 . 1. b1 ] = [1.5] [a3 . e o es decir no hace falta derivabilidad como en otros m´todos que veremos mas adelante.421875 x8 = 1. vemos que la aproximaci´n lograda tiene 4 cifras exactas.25 x4 = 1. METODO DE BISECCION.375. b4 ] = [1. [a1 .25. f (x7 ) = 0. Tomemos f (x) = x2 − 2 y [a. Teorema 4. . 1. b7 ] = [1.2. 1. .4375 f (x4 ) = −0.4140625 f (x1 ) = 2 f (x2 ) = 0. b] → IR es continua y f (a)f (b) < 0 entonces.375. 2] [a2 . .4142 . 1. . b−a (2) |r − xn | ≤ n .40625 x7 = 1.4375] [a6 . .4375 x6 = 1.40625. b] = [1.40625.3.5 x3 = 1. 3].375 x5 = 1.

68 ´ 4. definimos x2 con el mismo procedimiento anterior con el intervalo [x1 . b] → IR continua que verifica o f (a)f (b) < 0 (entonces existe una ra´ r.005 . Supongamos f (b)f (x1 ) < 0. M´todo regula falsi e Este m´todo llamado “regula falsi” o de falsa posici´n puede verse tanto como una variante del e o m´todo de bisecci´n como del m´todo Newton-Raphson. por ejemplo en compae o raci´n con el m´todo de Newton-Raphson que veremos m´s adelante. 2 La recta L. en [a. f (a)) con (b. ı Observemos que puede suceder que |In | no tienda a cero. (b − a)/2n . 8 2 2 128 √ | 2 − x8 | 1 5 √ √ ≤ 0. b−a Como x1 es el valor de x que cumple y = 0. x1 = a − f (a) af (b) − bf (a) (b − a) = f (b) − f (a) f (b) − f (a) Si f (x1 ) = 0 entonces f (a)f (x1 ) < 0 o bien f (b)f (x1 ) < 0. que une los puntos (a. por el teorema de Bolzano) y supongamos ız. e o e o o Supongamos. o e a En cada paso la cota del error. que la ra´ es unica en ese intervalo. . b−a |en+1 | ≤ n . ∼ ≤ . como se hace con el m´todo de bisecci´n). 2 En consecuencia se reduce 1 10 en tres o cuatro pasos (se gana una cifra en tres o cuatro pasos). ız ´ Definimos x1 como la intersecci´n de la recta secante L con el eje x (en lugar de tomar el o e o promedio b−a . Entonces el error relativo es √ b−a 2 1 | 2 − x8 | ≤ = 8 = . b] = I1 . nuevamente. se tiene. b]. se reduce a la mitad. RESOLUCION DE ECUACIONES NO LINEALES. pero sin embargo xn → r para toda f continua. que veremos en la pr´xima secci´n. 1000 2 128 2 La desventaja del m´todo de bisecci´n es que converge muy lentamente. y as´ sucesivamente. 2. que tenemos una funci´n f : [a. f (b)) tiene ecuaci´n: o y − f (a) = f (b) − f (a) (x − a). . .

Esto ultimo se puede ver gr´ficamente con el ejemplo e ´ a que muestra la Figura 4.´ 3. ı o Observemos que hace falta que f sea derivable. x0 ∈ [a. o Descripci´n anal´ o ıtica de m´todo de Newton-Raphson. Esto genera una sucesi´n xn como muestra la Figura 4. M´todo de Newton-Raphson. METODO DE NEWTON-RAPHSON. puede ocurrir que la sucesi´n que a o produce este m´todo no sea convergente. Luego se traza la tangente por x1 y se toma x2 la intersecci´n de la tangente con o el eje x.2. e La idea del m´todo es “ir por la tangente” como se describe a continuaci´n. ız. 69 Método de Regula Falsi: tres iteraciones Solución exacta | | a f(x) x1 x2 b Figura 4. 3.3. se toma x1 tal que f (x0 ) + (x1 − x0 )f (x0 ) = 0 tal que f (xn ) + (xn+1 − xn )f (xn ) = 0 Y en general. Adem´s. e o Se empieza con x0 . Se traza la tangente en x0 y se define x1 como la intersecci´n de la tangente o con el eje x. e Sea f : [a.1. Sin embargo veremos que el m´todo converge muy r´pidamente si x0 est´ “suficientemente cerca” e a a de una ra´ bajo condiciones bastante generales sobre la funci´n f . se toma xn+1 . b]. y as´ sucesivamente. b] → IR derivable.

esto es obvio gr´ficamente como muestra la figura 4.70 ´ 4.3. xn+1 = xn − f (xn ) f (xn ) Observemos que para que esto tenga sentido. f(x) x1 x0 x2 Figura 4. RESOLUCION DE ECUACIONES NO LINEALES. o sea.2. hay que suponer f (xn ) = 0.3. a . Método de Newton−Raphson f(x) x2 x 1 x0 Figura 4.

f (r) = 0. METODO DE NEWTON-RAPHSON. ız 1 0 = f (r) = f (xn ) − (xn − r)f (xn ) + (xn − r)2 f (ξ) 2 donde ξ es un valor intermedio entre xn y r. Esto es. estudiamos la expresi´n en = xn − r y vemos si en → 0. o Recta tangente a f en x0 f(x) x x0 Figura 4. e ız f (r) = 0 y supongamos que f es acotada. Entonces .1) Observemos que si f (r) = 0 entonces f (xn ) = 0 para xn cercano a r (esto lo justificaremos con m´s precisi´n despu´s).´ 3. es decir. 71 Ahora analicemos la convergencia del m´todo. Para analizar la convergencia del error miramos la sucesi´n recursiva o f (xn ) f (xn ) − r = en − f (xn ) f (xn ) en+1 = xn+1 − r = xn − entonces en+1 = en f (xn ) − f (xn ) f (xn ) (4. Debemos estimar el error que se comete al usar xn en lugar de la soluci´n exacta (y desconocida) o r. Sea r una ra´ simple de f .4. a o e Usando el desarrollo de Taylor de orden 2 centrado en la ra´ r se tiene.

si x0 ∈ Iε tenemos que |e0 | = |x0 − r| < ε y usando (4. la desigualdad (4. Demostraci´n.3) . el m´todo de Newton e empezando en x0 converge a r.2). podemos elegir ε > 0 tal que 1M ε = λ < 1. x1 ∈ Iε . An´logamente. r + ε] ⊂ I y se tiene que |en | → 0 y |en+1 | ≤ siempre que x0 ∈ Iε . 1 en f (xn ) − f (xn ) = f (ξ)e2 n 2 Reemplazando en la igualdad 4. r + ε] ⊂ [a. (de convergencia) Si r es un cero simple de f (i. 1M |en |2 .e. 2 δ (4. Finalmente. Continuando de esta manera. 2 δ Entonces. f (r) = 0) y sea I = [r − α. Si f es continua y f es acotada en [a.72 ´ 4. entonces existe un ε > 0 tal que si x0 ∈ Iε = [r − ε.1 queda 1 f (ξ) 2 e 2 f (xn ) n en+1 = (4.5. Como 0 < λ < 1 se tiene que |en | → 0 si n → ∞. a |e2 | = |x2 − r| ≤ λ|e1 | ≤ λ2 |e0 | y x2 ∈ Iε . b] es una ra´ simple de ız f . RESOLUCION DE ECUACIONES NO LINEALES.4.3) se obtiene de (4. r + α] un intervalo tal que |f (x)| ≥ δ > 0 y |f (x)| ≤ M en I. obtenemos una sucesi´n (xn )n∈I ⊂ Iε tal que o N |en | ≤ λn |e0 |. Como las cotas para f y f siguen siendo ciertas para cualquier subintervalo de o I.2) obtenemos |e1 | = |x1 − r| ≤ λ|e0 |. Entonces. b].2) Con todo esto podemos demostrar el siguiente teorema. En particular. Existe ε > 0 tal que Iε = [r − ε. b] y r ∈ [a. Teorema 4. Corolario 4.

METODO DE NEWTON-RAPHSON. Como f (r) = 0 y f es continua.4. a . Esta es la gran ventaja del m´todo de Newton.5 es una funci´n C 2 ([a. veamos que significa ´sto a e geom´tricamente. b]) que tiene a o r ∈ [a. se puede considerar que e o el comportamiento de las sucesiones |en+1 | y |en |p son equivalentes. asint´ticamente. es decir. el m´todo de Newton e funciona en forma excelente (incluso en N variables) y es de los m´s usados. el teorema garantiza la convergencia si se empieza “suficientemente cerca” de r. en e a cada paso el error se reduce cuadr´ticamente (o sea es menor o igual que el cuadrado del error a del paso anterior). Esto es.4. ız Ahora. La convergencia para el m´todo de Newton-Raphson es cuadr´tica.2) se deduce que el m´todo. o sea. El n´mero de cifras correctas se duplica (esene u cialmente) en un paso. con e a la desigualdad (4.7. p = 2. queremos estudiar la r´pidez con la que una sucesi´n generada por un m´todo. Un caso particular del corolario 4. en general.6. En la pr´ctica es un tema dif´ determinar lo que es a ıcil “suficientemente cerca”. Ahora. existen α > 0 y δ > 0 tales que I = o [r − α. Para valores grandes de n. es decir. Si bien. lo que se expresa como |en+1 | ∼ C|en |p . converge cuadr´ticamente. b] como ra´ simple. Este resultado de convergencia es “local”. 73 Demostraci´n. converge a o e a la soluci´n exacta. ´ Observacion 4. Por otra parte. se combinan unos pasos del m´todo de bisecci´n para e o encontrar un intervalo en el que se aplique el Teorema 4. r + α] ⊂ [a. Para eso necesitamos la siguiente o ´ Definicion 4.´ 3. Muchas veces. Sin embargo. Ahora estamos en las condiciones del teorema 4. En general podemos definir que un m´todo es de orden p si e |en+1 | = cte n→∞ |en |p lim |en+1 | =0 n→∞ |en |p−ε lim y Observemos primero que cuanto m´s grande sea p mejor. si se obtiene una desigualdad de la forma |en+1 | ≤ C|en |p podemos asegurar que el orden de convergencia es por lo menos p.3) podemos asegurar que existe C > 0 tal que |en+1 | ≤ C|en |2 de la igualdad (4. b] y |f (x)| > δ para todo x ∈ I.

Comentario.833 . Es decir. . . .41499843 . x5 = 1. . de 1669 d. los Babilonios usaban el siguiente m´todo para “calcular” n e p √ p √ √ √ el n´mero p si p ∈ IN.9. Luego p es un n´mero entre y a.41421378 . Observemos que √ 2 = 1. con cinco pasos del m´todo tenemos m´s de diez cifras exactas. . Compae o remos el resultado con el que se obtuvo al aplicar el m´todo de bisecci´n.C. . Como antes la funci´n e o o es f (x) = x2 − 2 y elegimos x0 = 3. (4. aplicando el m´todo de Newton una aproximaci´n de 2. . r = 0. ..414213562 .C.8.4).74 ´ 4. u u a a 1 p Entonces. Comparar Esto coincide con el m´todo de Newton. Es claro que la unica ra´ es r = 0.414213562 . Calculemos. . x2 = 1. Si a > p se tiene que < p. La sucesi´n que produce este m´todo e o e es: x3 2 n = xn 3x2 3 n xn+1 = xn − Entonces 2 |en+1 | = |en | 3 . mientras que con e a bisecci´n en ocho pasos ten´ o ıamos cuatro cifras exactas. as´ sucesivamente. Hacia el a˜o 2000 a. o ı 2 a 2 − p. consideraban el promedio (a + ) como primera aproximaci´n. Como segundo ejemplo veamos que sucede con f (x) = x3 . Tenemos xn f (xn ) x2 − 2 1 = = xn − n + f (xn ) 2xn 2 xn xn+1 = xn − Y aplicando esto obtenemos x0 = 3 x1 = 1.4) x3 = 1. Lo que se pretende con este ejemplo es mostrar alguna de las dificultades a ´ ız tener en cuenta cuando se aplica el m´todo de Newton.4621212 . . Ejemplo 4. aplicado a la funci´n x e o con (4. x4 = 1. RESOLUCION DE ECUACIONES NO LINEALES. . √ Ejemplo 4. .

  f (x) = Es decir. Este es un ejemplo donde el m´todo de Newton-Raphson no converge.  xn+1 = xn − 2 xn 1 1 −2 xn 2 1 = xn − 2xn = −xn .10. entonces xn+1 = −xn < 0 y xn+2 = −xn+1 > 0. 1 1 f (x) = |x|− 2 . 75 En este caso. Supongamos que xn > 0. Consideremos la funci´n o o  √  x f (x) = con r = 0.´ 3. b) si la recta tangente al gr´fico de f o a est´ por debajo de ´ste para todo los x en el intervalo. f puede tener un valor m´ o ınimo. Un c´lculo sencillo permite ver que f no es derivable en la ra´ En cualquier otro valor se tiene a ız. o ız Ejemplo 4. la hip´tesis que no se cumple es la derivabilidad de f . Una funci´n se dice convexa en (a. METODO DE NEWTON-RAPHSON. Ahora. Si seguimos el proceso que genera xn desde un x0 inicial vemos que la sucesi´n es: o x0 → −x0 → x0 → −x0 → . si existe. 2 La sueci´n que produce el m´todo se escribe como o e x≥0 x < 0. . En este caso. Si la funci´n es dos veces derivable esto a e o corresponde con la condici´n f > 0. Lo que sucede es que a no se verifica la hip´tesis de que r sea una ra´ simple (f (r) = 0 en este caso). que lo alcanza en x∗ .. en este ejemplo. En este e caso. salvo que comencemos en la ra´ (con lo cual no necesitar´ ız ıamos de un m´todo para e hallarla) se tiene que xn es positivo o negativo. observamos que la convergencia es lineal y no es cuadr´tica. Conclu´ ımos que.  √ − −x 1 −1 2 2x 1 −1 2 2 (−x) x>0 x < 0. Digamos. e Ahora veamos un teorema de convergencia global para el m´todo de Newton que se aplica a e funciones convexas.. el m´todo de Newton no converge para ning´n x0 por m´s e u a cerca de r = 0 que est´.

entonces el m´todo de Newton-Raphson converge para todo x0 = x∗ . es decir. Se define una sucesi´n por iteraci´n.. b] tal que f > 0 (f es convexa). si f (x) = x3 − 13x + 18 podemos tomar g(x) como cualquiera de las siguientes funciones x3 + 18 . e Demostraci´n. el problema se reduje a encontrar puntos fijos de o g. por ejemplo..2). en este caso no hace falta e pedir que x0 est´ cerca de r. e e La idea es reemplazar la ecuaci´n f (x) = 0 por otra de la forma x = g(x) de manera que la o soluci´n de ´sta sea la soluci´n del problema original. Teorema 4. o a Si x0 > r entonces r < x1 < x0 y en general x0 > x1 > x2 > .. g3 (x) = 13x − 18 . > xn > . Sea f dos veces derivable en [a. su inter´s e e radica en su extensi´n a IRN . o e o Esto puede hacerse de diversas maneras. o o Si bien este teorema es bastante claro geom´tricamente para funciones definidas en IR.76 ´ 4. o 4.. ver figura 4. Es decir. o o ız f Supongamos que xn → α. > r y entonces la sucesi´n xn converge pues es mon´tona. RESOLUCION DE ECUACIONES NO LINEALES. la iteraci´n de Newton nunca ir´ a la izquierda. M´todo de punto fijo e El m´todo de Newton puede verse como un caso particular del m´todo de punto fijo.11. x2 Una vez encontrada g una funci´n continua. Veamos que converge a una ra´ de f . luego tomando l´ ımite en la expresi´n xn+1 = xn − f (xn )) y usando o (xn que f es continua queda f (α) α=α− f (α) de d´nde f (α) = 0 y α = r pues supusimos f mon´tona. Si p´rdida de generalidad podemos suponer que f es “mon´tona” (si estamos a o e o la derecha de x∗ . se elige un x0 y despu´s se toma o o e . r tales que r = g(r). 13 1 g1 (x) = g2 (x) = (13x − 18) 3 ...

o Bajo estas mismas hip´tesis. ´ Demostraci´n. Si hay dos puntos fijos. si a = g(a) o b = g(b) o listo. METODO DE PUNTO FIJO 77 xn+1 = g(xn ).12. F (a) > 0 o y F (b) < 0 y como F es continua existe un r en I tal que 0 = F (r) = g(r) − r. O sea. Sea g tal que |g (x)| ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces la sucesi´n xn definida o por xn+1 = g(xn ) converge al unico punto fijo de g y adem´s.5) Observemos que si la sucesi´n generada por (4. Teorema 4. e Teorema 4. Como g(I) ⊂ I se tiene que a ≤ g(a) ≤ b y a ≤ g(b) ≤ b. r1 . g(a) − a > 0 y g(b) − b < 0.5) xn converge. tenemos o |r1 − r2 | = |g(r1 ) − g(r2 )| = |g (ξ)(r1 − r2 )| ≤ λ|r1 − r2 | < |r1 − r2 | una contradicci´n. Teorema 4. se tiene una acotaci´n en t´rminos de |x1 − x0 | que es o e conocido. (4. entonces lo hace a un punto fijo o de g. La hip´tesis sobre la derivada de g implica que |g(x) − g(y)| ≤ λ|x − y|. Por el teorema anterior sabemos que existe un unico punto fijo de g que llamamos o ´ r. . ´ a (1) |xn − r| ≤ λn |x0 − r| λn (2) |en | ≤ 1−λ |x1 − x0 |. En efecto. o sea g es Lipschitz o con constante λ. Demostraci´n. b] si g(I) ⊂ I entonces g tiene al menos un punto fijo en I.14. Entonces la funci´n F (x) = g(x) − x cumple.13. tomando l´ ımite y usando que g es continua se tiene que si xn → r entonces r = g(r). Demostraci´n. |xn − r| ≤ λn |x0 − r| → 0. Si no. Si g es adem´s derivable y |g (x)| ≤ λ < 1 ∀x ∈ I y g(I) ⊂ I entonces g tiene a un unico punto fijo. Entonces |xn+1 − r| = |g(xn ) − g(r)| ≤ λ|xn − r| y de aqu´ como λ < 1 se tiene que ı. r2 con r1 = r2 . la sucesi´n generada iterativamente converge y se puede dar una o o cota del error en t´rminos de λ. Sea I = [a.´ 4.

. intercalando x1 y usando desigualdad triangular. Para aplicar el teorema 4.78 ´ 4. Entonces (1 − λ)|x0 − r| ≤ |x1 − x0 | y como |xn − r| ≤ λn |x0 − r| se obtine la estimaci´n 2). o La figura 4. a y=x f(x) x 1 x 3 x4 x2 x0 Figura 4.5 muestra gr´ficamente como se genera una sucesi´n por el m´todo de punto fijo. RESOLUCION DE ECUACIONES NO LINEALES. Si r es un punto fijo de g con |g (r)| < 1 este intervalo I existe. resultado que probamos en el siguiente teorema. a o e En dicho gr´fico 0 < f (x) < 1.5. |x0 − r| ≤ |x0 − x1 | + |x1 − r| ≤ |x0 − x1 | + λ|x0 − r|. En particular demostramos que xn → r.14 hay que garantizar que g(I) ⊂ I (o sea primero hay que encontrar un tal I). Por otra parte.

r + ε) (por la continuidad de g ). Como |g (r)| < 1. f (xn ) − f (xn−1 ) Observemos que esta f´rmula es an´loga a la de Newton reemplazando f por un cociente o a incremental. 5. pero este m´todo es diferente pues se usan las dos e e ultimas aproximaciones xn−1 y xn en lugar de encerrar la ra´ como en “regula falsi”. y podemos aplicar el teorema anterior en Iε . ıcil La desventaja es. METODO DE LA SECANTE 79 Teorema 4. f (xn ) − f (xn−1 ) xn − xn−1 0 = f (xn ) + (xn+1 − xn ) es decir. b). g(Iε ) ⊂ Iε . r + ε). g continua en (a. o ∀x ∈ Iε = (r − ε. Entonces. M´todo de la secante e En este m´todo tenemos que xn+1 es funci´n de xn y de xn−1 . existe una constante K < 1 y un ε > 0 tales que |g (x)| < K. seg´n veremos. b) un punto fijo de g. La ecuaci´n de la secante que une los puntos (xn−1 . trazar la secante.15. La idea es la misma que en e o el m´todo “regula falsi”. r ∈ (a. xn+1 = xn − f (xn ) xn − xn−1 . que la convergencia de la sucesi´n es m´s lenta que la que u o a produce el ´todo de Newton. Si |g (r)| < 1.´ 5. f (xn−1 )) y (xn . entonces existe ε > 0 tal que la iteraci´n es convergente siempre que x0 ∈ Iε = (r − ε. o Demostraci´n. e Observemos que la iteraci´n del m´todo de la secante tambi´n puede escribirse como o e e . as´ xn+1 verifica o ı. La ventaja es que no hay que calcular la derivada de f (esto es de gran ayuda en un caso en que f sea dif´ de calcular). |g(x) − r| = |g(x) − g(r)| ≤ K|x − r| ≤ Kε < ε o sea. Para ´ ız empezar hay que dar dos valores x0 y x1 . f (xn )) es o f (xn ) − f (xn−1 ) xn − xn−1 y = f (xn ) + (x − xn ) entonces se define xn+1 como la intersecci´n de esta recta con el eje x. ∀x ∈ Iε .

RESOLUCION DE ECUACIONES NO LINEALES. Luego. en+1 = en en−1 Definamos ahora las diferencias. (4. b−a f [a. seg´n la definici´n 4. b] = Segunda diferencia : f (b) − f (a) = f (ξ). f (xn ) − f (xn−1 ) . f [xn−1 . xn ] en+1 = −en en−1 . e f [xn−1 .7.80 ´ 4. Primera diferencia : f (xn−1 )−f (r) xn−1 −r − f (r)−f (xn ) xn −r f (xn ) − f (xn−1 ) . c−a Entonces el error del m´todo de la secante verifica. f (xn )xn−1 − f (xn−1 )xn f (xn ) − f (xn−1 ) en+1 = r − xn+1 = r − = = en−1 f (xn ) − en f (xn−1 ) f (xn ) − f (xn−1 ) en−1 (f (xn ) − f (r)) − en (f (r) − f (xn−1 )) f (xn ) − f (xn−1 ) n )−f −en en−1 f (xxn −r (r) + en en−1 f (r)−f (xn−1 ) xn−1 −r = Es decir. c] = f (c)−f (b) c−b − f (b)−f (a) b−a . xn ] .6) f [a. Tenemos e u o f (r) = 0 y en = r − xn . f (xn ) − f (xn−1 ) Analicemos el orden de convergencia de este m´todo. r. xn+1 = f (xn )xn−1 − f (xn−1 )xn . b.

b. b. es decir existe ε > 0 tal que si x0 .7) Entonces g se anula en por lo menos dos puntos y de ah´ que existe η con g (η) = 0. b](x − a) + f [a. x1 ∈ Iε = (r − ε. a a Sea g(x) = f (x) − f (a) + f [a. b. b](x − a) + f [a. |f | ≤ K en un entorno de r y x0 . (4. g(b) = 0 y g(c) = 0.16. c]. ı derivando dos veces la expresi´n (4. c] = f (η). b. c](x − a)(x − b) Se ver´ m´s adelante que este polinomio es el polinomio interpolador de grado dos.´ 5. c] = f (η). b. METODO DE LA SECANTE 81 Lema 4.7) y evaluando en η se obtiene o 0 = g (η) = f (η) − 2f [a. Si f (r) = 0. c](x − a)(x − b) g cumple que g(a) = 0. r + ε).6) queda o f (ηn ) en en−1 f (ξn ) y de ac´ se puede deducir la convergencia local. 1 f [a. 1 f [a. a en+1 = − a Teorema 4. es decir. 2 Aplicando el lema 4.16 a nuestra expresi´n de en+1 dada en (4. c](x − a)(x − b) + Resto. Ahora. b. o f (x) = f (a) + f [a. 2 Demostraci´n. x1 est´n suficientemente cerca de r.17. . b](x − a) + f [a. entonces en → 0. Despreciamos el resto y nos quedamos con el polinomio de grado 2: f (a) + f [a.

RESOLUCION DE ECUACIONES NO LINEALES. si llamamos c∞ a cn → c∞ = Supongamos que f (r) = 0. de esta forma c∞ = 0. ten´ e ıamos 1 f (ηn ) ||en ||en−1 | = cn |en ||en−1 |. entonces si x0 . Veamos el orden de convergencia del m´todo de la secante. Ahora bien |e3 | ≤ K K |e2 ||e1 | ≤ λε2 ≤ λ2 ε 2δ 2δ K K |e3 ||e2 | ≤ ελ2 ελ ≤ λ3 ε. x1 ∈ Iε tenemos que o K K |e1 ||e0 | ≤ ε2 2δ 2δ y si ahora pedimos (quiz´s achicando el ε) que a |e2 | ≤ K ε=λ<1 2δ nos queda que |e2 | ≤ λε < ε y entonces x2 ∈ Iε . n→∞ |en |p lim Tenemos . Buscamos p tal que |en+1 | = C = 0. 2δ 2δ Y podemos concluir por inducci´n que o |e4 | ≤ |en | ≤ λn−1 ε → 0. Demostraci´n. 2 f (ξn ) al l´ ımite de cn tenemos 1 f (r) . Existe ε > 0 tal que |f | > δ en Iε .82 ´ 4. 2 f (r) |en+1 | = | − y adem´s.

. EJERCICIOS 83 |en+1 | = cn |en |1−p |en−1 | = cn |en |p Si α = 1 − p y αp = −1.. Entonces nos queda que o |en+1 | 1 f (r) ∼ p |en | 2 f (r) para n grande. entonces p es soluci´n de o p2 − p − 1 = 0. o sea p − p2 = αp = −1.618. Ejercicios (1) Usar el m´todo de bisecci´n para hallar una ra´ positiva de la ecuaci´n trascendente: e o ız o 2x = tan(x) ¿Cu´ntos pasos hay que hacer para garantizar que el error sea menor que 10−5 ? a 2 . o 6. |en | |en−1 |p α . o Si suponemos |en+1 | ∼ |en |p tenemos |en+1 | ∼ |en |p ∼ |en−1 |p y de la relaci´n entre en+1 . |en−1 |p −p−1 ∼ cte. Entonces. en o 2 2 y en−1 se tiene |en−1 |p ∼ |en−1 |p |en−1 |.. o yn = −1 yn+1 = cn yn p . yn converge al punto fijo de la ecuaci´n x = c∞ x o 1 −p (esto es cierto porque p > 1 y se 1 p ve directamente escribiendo la iteraci´n). O sea.6. 1 p . y como p > 0. Luego p > 0 tiene que ser √ soluci´n de p2 − p − 1 = 0 y entonces p = 1+2 5 = 1. 2 Con esta elecci´n de p tenemos que o |en+1 | |en |p cumple la iteraci´n de punto fijo (salvo que cn es variable pero converge a c∞ )... √ 1+ 5 p= = 1.618. Ahora veamos una idea intuitiva de la demostraci´n directamente. El punto fijo es x = c∞ .

comenzando e e con los valores iniciales x1 = 3 para el primer m´todo e y1 = 3. Hacer un programa en Matlab a u (5) (6) (7) (8) (9) (10) (11) . que. tal que sus d ra´ ıces son reales y distintas. para hallar las otras ra´ ıces. e Sea f (x) = xα . mostrar que r es ra´ de f . donde f (x) = ex − 2. f ). (3) Hacer un programa en Matlab√ que ejecute los primeros 20 pasos de los m´todos de e 3 bisecci´n y N-R. Se desea utilizar el m´todo N-R para resolver la ecuaci´n f (x) = 0. f. . (b) Con las mismas hip´tesis. e Graficar simult´neamente las dos sucesiones obtenidas. se propone el siguiente m´todo que aproxima los valores de e todas sus ra´ ıces: |ai (i) Se comienza con un valor x0 mayor que M = max{1. (ii) Se genera a partir de x0 la sucesi´n de N-R. dado que rd ∼ rd . para cu´les es divergente. ˜ ˜ ˜ (iii) Se divide P por x − rd y se desprecia el resto. para calcular 2 comenzando con valores iniciales apropiados.84 ´ 4. P (x) = ad xd + · · · + a0 . ız Sea f una funci´n suave. a Sea f una funci´n C 1 y sea (xn )n∈IN la sucesi´n que se obtiene de aplicar el m´todo o o e N-R a f . ad = 0. Determinar para qu´ valores de x0 la iteraci´n e o 1 + |x| N-R es convergente. y cu´ndo se obtienen ciclos peri´dicos. 1]. 3 ). obteni´ndose de este ız a e e modo un valor aproximado rd . probar que la iteraci´n de N-R o generada a partir de x0 ∈ (a. el m´todo para hallar una aproximaci´n de ´sta. (2) Hacer un programa en Matlab que ejecute los primeros 20 pasos de los m´todos de e bisecci´n y Regula-Falsi para hallar una ra´ de la ecuaci´n 2x3 + x − 2 = 0 comenzando o ız o con el intervalo [0. x0 ). RESOLUCION DE ECUACIONES NO LINEALES. converge a la ra´ m´s grande de P . seg´n el ´ o u ıtem anterior. si x1 ∈ (a. d−1 |ad|| } (Dato: M i=0 es una cota para el m´dulo de todas las ra´ o ıces del polinomio). Analizar el comportamiento del m´todo en los casos e (a) α ≥ 1 (b) α = 1 (c) α = 1 3 2 (a) Sea f (x) = (x − r1 )(x − r2 ) . Supongamos que xn converge a r y f (r) = 0. o (b) Para un polinomio P ∈ IR[x]. Recordar que una ra´ m´ltiple de un polinomio f es una ra´ simple del polinomio ız u ız f / gcd(f. donde gcd indica el m´ximo com´n divisor. Encontrar las cotas necesarias de |f | y |f | ´ ız 2 para determinar un valor inicial de modo que el m´todo N-R converja a la ra´ Aplicar e ız. f . a a o Se quiere resolver la ecuaci´n f (x) = 0. y a tal que f (a) = 0. o (4) Demostrar que la ecuaci´n o f (x) = ex + 5 sin x − 2 = 0 tiene una unica ra´ en el intervalo (0. o (a) Suponiendo que en (a. (x − rd ) donde r1 < r2 < · · · < rd . e o comenzando con x0 > 0.3 para el segundo. . f son positivas. x1 converge decrecientemente hacia a. probar que la sucesi´n generada por el o o m´todo de la secante a partir de x0 . b]. Se redefine ahora P como el resultado de esta divisi´n y se comienza nuevamente desde o el primer ´ ıtem. b) converge decrecientemente hacia a. Aplicar este m´todo para aproximar todas las ra´ e ıces del polinomio P (x) = 2x3 − 4x + 1. Probar que si x0 > rd la sucesi´n de N-R converge a rd . Calcular los 10 primeros o t´rminos de las sucesiones generadas por los m´todos N-R y de la secante. y f (a) = 0. y2 = 2. ¿Cu´l es el orden de convergencia? e o e a x Considerar la funci´n f (x) = o . llam´mosla rd .

y) = 3x7 + 2y 5 − x3 + y 3 − 3.2 hasta llegar a x50 = 10. x2 − y 2 − 3 = 0 comenzando con valores iniciales (x0 . con valor inicial el valor de yn obtenido en el paso anterior. comenzando con los valores iniciales x1 = y1 = 25. y0 que verifican e x0 = a y G(x0 . y0 = 1 para valores de x en [0. esta o elecci´n del valor inicial se supone apropiada. 1). o El m´todo consiste en comenzar la tabla en un par de valores x0 .F (xk ). a (14) Se quiere aplicar el m´todo N-R para dar una tabla de valores de la funci´n y(x) definida e o impl´ ıcitamente por la ecuaci´n G(x. Graficar. y0 = 1 y proceder por incrementos en x de 0. converge decrecientemente a s. y) donde y es la variable y xn+1 permanece fijo. o (a) Aplicar el m´todo para la ecuaci´n G(x. En cada paso se obtiene el valor de yn+1 aplicando el m´todo N-R a la funci´n e o G(xn+1 . donde (DF |xk )−1 es la inversa de la matriz diferencial de F evaluada en xk . (16) Resolver cos(x) = 2x. b]. Usar la versi´n generalizada a varias variables del m´todo N-R para para resolver o e el sistema de ecuaciones 2x − 3y = 0. e (b) Aplicar el m´todo para G(x. b]. a o comenzando con x0 ∈ [s. EJERCICIOS 85 que aplique el m´todo N-R a f (x) y a f (x)/ gcd(f. y) = x2 + y 2 − 1 = 0. (17) Sea g una funci´n tal que g es continua en [s. o a o e ´ste converge (aunque no tan velozmente como cuando la ra´ m´ltiple se halla como e ız u soluci´n de f / gcd(f. y0 ) = 0 y proceder por incrementos en x hasta llegar al valor xN = b. Aproximarla calculando las 10 primeras iteraciones de los m´todos N-R y N-R con la modificaci´n e o del ejercicio anterior. Utilizar distintos valores para el incremento y para la cantidad de iteraciones del m´todo N-R en cada paso. a pesar que la funci´n f no est´ en las hip´tesis del m´todo N-R. se verifica que 0 ≤ g (x) ≤ K < 1 para todo x ∈ [s. y0 ) = (2. Graficar simult´neamente las dos sucesiones obtenidas. . mostrar que la iteraci´n. x > 0 comenzando con x0 = 0. b]. (15) Dada F : IRn → IRn el m´todo N-R generalizado consiste en realizar la iteraci´n e o vectorial xk+1 = xk − (DF |xk )−1 . Si o adem´s. f ) para hallar la ra´ m´ltiple de e ız u f (x) = (x − 1)(x − 2)2 . comenzando en e o x0 = 0. las sucesiones obtenidas y comparar. Comenzar la tabla en e x0 = 0. b]. o (12) Para f una funci´n C 2 que tiene una ra´ de orden 2 en x0 : o ız (a) Demostrar que el m´todo N-R converge s´lo linealmente a x0 . Graficar junto con la soluci´n que se o obtiene de despejar anal´ ıticamente y comparar. usando Matlab. La ecuaci´n f (x) = 0 tiene una ra´ doble. e o (b) ¿Cu´l es el orden de convergencia de la siguiente modificaci´n? a o xn+1 = xn − 2 f (xn ) f (xn ) o ız (13) Sea f (x) = 4x3 − 3x + 1 = 0. y) = 0 en un intervalo [a. Dado que la funci´n y(x) se supone continua. Demostrar que.6. f )). 1].5 y utilizando: (a) La iteraci´n de punto fijo xn+1 = 1 cos(xn ) o 2 e (b) El m´todo N-R. donde s es un punto fijo de g.

Mostrar (21) Sea f una funci´n C o e f (x) que el m´todo N-R es un m´todo de punto fijo. e (c) Utilizando Matlab. Sea g(x) = x − f (x) . aunque esta iteraci´n no est´ en las o a hip´tesis del teorema del punto fijo. f : IR>0 → IR. ¿Qu´ hip´tesis no se cumple? o e o (b) Dar un algoritmo para aproximar la ra´ de f que converja cuadr´ticamente. estimar las ra´ (19) Sea f (x) = x3 − x − 1. RESOLUCION DE ECUACIONES NO LINEALES. Se consideran las dos siguientes iteraciones de m´todo de punto e fijo. ız a 1 en las condiciones del m´todo N-R. 2). f2 (x) = ln 8 x consideramos el siguiente m´todo iterativo: dado x0 = 1 sea e xn+1 = fi (xn ). h(x) = 3 x + 1.86 ´ 4. n ∈ IN. se construye el siguiente algoritmo o para aproximar la ra´ r = 1: ız xn+1 = 2 − 1/xn (a) Verificar que si x0 > 1 entonces la sucesi´n {xn } es mon´tona decreciente y acotada o o inferiormente por 1. o localizando cada ra´ entre dos enteros consecutivos. √ g(x) = x3 − 1. e e . e • Dar un valor inicial x0 ∈ I y la cantidad de iteraciones necesarias para aproximar la ra´ de f con error menor que 10−5 comenzando con el x0 ız dado. (a) Determinar cu´les de estas funciones son apropiadas para la iteraci´n. (18) Sea f : IR>0 → IR definida como f (x) = 8x − 1 − ex . ıces con estos dos m´todos. Concluir que xn → 1. Estudiar si estas sucesiones convergen hacia alguna de las ra´ ıces de f = 0. (20) Dada la funci´n f (x) = x + 1/x − 2. x (a) Dibujar la gr´fica de f y determinar el n´mero de ra´ a u ıces de la ecuaci´n f (x) = 0. ız (b) Para cada una de las siguientes funciones: 1 8x − 1 f1 (x) = (1 + xex ). (i = 1. a o (b) Para las que s´ lo sean: ı • Determinar un intervalo inicial I en el cual el m´todo converja.

0 ser´ un polinomio a en Pn tal que se anula en x1 . 1. xn y 0 (x0 ) = 1. n.1) y adem´s veremos que si el a polinomio es de grado menor o igual que n. . . Por otra parte. o Hay diversos motivos para estudiar este problema. j = 1. queremos encontrar un polinomio tal que o p(xj ) = yj . . . como veremos m´s o o e a adelante. Por ejemplo. o o Una forma de hacer ´sto es construir los polinomios de manera que coincidan con la funci´n e o dada en algunos puntos predeterminados. . . . . . Supongamos que se sabe que la tabla de valores (xj ): (yj ): x0 x1 x2 . . . .1) Nuestro primer paso ser´ dar un resultado b´sico que establece que ´sto es posible. o Base de Lagrange: Para cada punto xj . n. ´ste es unico. xn yn corresponde con datos de una funci´n continua que se desconoce. Mostraremos a a e una forma concreta de hallar un polinomio p que verifique (5. Por un lado.CAP´ ıTULO 5 Interpolaci´n o El objetivo de este cap´ ıtulo es estudiar c´mo puede aproximarse una funci´n por polinomios. . el polinomio interpolante puede utilizarse para reconstruir una funci´n f a partir de una tabla de valores. . Queremos poder modelizar o dicha funci´n a por medio de un polinomio. . si n ∈ IN0 . Interpolaci´n de Lagrange o En lo que sigue. buscamos un polinomio de grado n que se anule en todos los xi salvo xj donde queremos que valga 1. 1. ∀j = 0. es o una herramienta fundamental para integraci´n y diferenciaci´n num´rica. y0 y1 y2 . lo que recibe el nombre de interpolaci´n polinomial. incluyendo el polinomio nulo. (5. . llamaremos Pn al conjunto de polinomios de grado menor o igual que n. o Analizaremos distintos m´todos para resolver este problema y estudiaremos el error que se e comete al reemplazar una funci´n por un polinomio interpolante. Vamos a basar nuestra demostraci´n e ´ o en la Base de Lagrange que es una base de polinomios que construimos a continuaci´n. . Es decir.

. . . . xn }. . . Veamos que es unico. . para cada j = 1. . n. . 1 .2) Los polinomios { 0 . donde α es una constante que se elige ıces i=1 de modo que 0 (x0 ) = 1. . . n. .1). el polinomio a j ∈ Pn tal que j (xi ) = δij = 1 i=j 0 i=j estar´ dado por a (x − xi ) j (x) = i=j (xj − xi ) i=j (5. . (5. esto es (pn − qn )(xj ) = 0 ∀j = 0. .1. pn − qn es el polinomio nulo. Entonces pn − qn es un polinomio de grado menor o igual que n con n + 1 ra´ ıces distintas. n. . . . . . Demostraci´n. ∀j = 0. yi ). .88 ´ 5. Imponiendo esta condici´n obtenemos o n (x − xi ) 0 (x) = i=1 n . . Usando la base de Lagrange definimos o n pn (x) = j=0 yj j (x). yn existe un unico polinomio pn ∈ Pn tal que ´ pn (xj ) = yj .. . . (x0 − xi ) i=1 De manera an´loga. es decir. 0 (x) = α n (x − xi ). . n } se conocen como la base de Lagrange. qn ∈ Pn que interpolan la tabla de pares (xi . xn son ra´ de 0 . . . . INTERPOLACION Como x1 . Vale destacar que estos polinomios s´lo dependen de los datos {x0 . o Teorema 5. Supongamos que hay ´ dos polinomios pn . . . .3) obteniendo un polinomio pn ∈ Pn que verifica (5.. . .xn y valores y0 . Dados x0 . x1 .

e Otra forma de demostrar la existencia (y de encontrar el polinomio) es por el m´todo de los e coeficientes indeterminados. . x2 · · · 0 x2 · · · 1 . xn )) u tendr´ ıamos . . Si se permite ´ mayor grado hay infinitos. . an     =   y0 y1 . . Esto equivale a ver que el n´cleo es nulo. . . esto es inmediato. si (a0 . queda formado un sistema (n + 1) × (n + 1)                  1 x0 1 x1 . (2) El polinomio pn puede tener grado estrictamente menor que n. p4 toma el valor yj . an ) y que es unica hay que ver que la matriz V (x0 . . es suficiente mostrar que en cada xj . yn 1 xn x2 · · · n La matriz de la izquierda se llama matriz de Van der Monde y como s´lo depende de los datos o {x0 . si se considera la tabla de 5 valores (xj ): (yj ): -4 -2 0 1 3 9 5 1 -1 -5 El polinomio de grado menor o igual que 4 que interpola la tabla es p4 (x) = −2x + 1. entonces f = pn (la interpolaci´n o es exacta para polinomios). es decir. Para ver que existe una soluci´n (a0 . . . .´ 1. . an ) ∈ N u(V (x0 . . . INTERPOLACION DE LAGRANGE 89 ´ Observacion 5. xn ) o ´ es inversible. f ∈ Pn y los valores yj = f (xj ). (3) Si los datos corresponden con una funci´n f que es un polinomio de grado menor o o igual que n. . . . . Por ejemplo.. . . xn n a0 a1 . . tambi´n interpola la tabla dada arriba.3) se llama forma de Lagrange del polinomio interpolador. . . . .2. . . xn } suele notarse por V (x0 . El polinomio ser´ de la forma a pn (x) = a0 + a1 x + · · · + an xn y se buscan a0 . (1) La escritura (5. Gracias a la unicidad. . . . an tales que pn (xj ) = yj . . Por ejemplo. xn 0 xn 1 . si q es un polinomio cualquiera. . (4) El polinomio que interpola en n + 1 puntos distintos es unico en Pn . . el polinomio p(x) = (−2x + 1) + q(x)(x + 4)(x + 2)x(x − 1)(x − 3). . . como se trata de un polinomio de grado 1. xn ). Ahora. . Al evaluar. . .

. Para que este o reemplazo tenga alguna validez num´rica es importante conocer una estimaci´n del error que e o .8 0. b]. . . . xn } es que. o x1 .8 −0.2 0 −0.. (11 puntos equiespaciados) o 2. e 1. arroja una f´rmula que permite o sustituir la funci´n f y hacer evaluaciones en puntos diferentes a los conocidos. Si consideramos la diferencia m´xima a entre f y el polinomio p evaluados en una malla suficientemente fina (puntos equiespaciados con distancia h = 0. . + an xn = 0 ∀j = 0.1 muestra el gr´fico de f junto con el polinomio interpolante a o a p que se obtiene al considerar 11 puntos equiespaciados. xn ∈ [a. es decir pn verifica que pn (xj ) = f (xj ) ∀j = 0. . .6 0.8 1 Figura 5. INTERPOLACION a0 + a1 xj + a2 x2 + .2 0 0. . . Interpolaci´n de f (x) = x 3 en [−1. son n + 1 puntos distintos.4 0. . 1]. .6 −1 −0. .6 0. b] y x0 . . Ejemplo 5. . La Figura 5. = an = 0 (pues un polinomio de grado n no nulo no puede tener n + 1 ra´ ıces distintas). . 1] por un polinomio. el a error num´rico = 1.1. n. 2 La ventaja de obtener un polinomio que interpole a una funci´n f de la cual s´lo se conocen o o sus valores en los puntos {x0 .2 2 1 0.3.. Error de interpolaci´n o Cuando los datos obtenidos corresponden con datos de una funci´n f definida en [a. el polinomio interpolador a encontrar ser´ un a polinomio pn ∈ Pn que coincida con f en dichos puntos..4 −0.4 −0.4 0. .2 −0.4886. el polinomio. o Si tenemos en cuenta la paridad de la funci´n. n.6 −0. .01). podemos pensar que un polinomio de grado par o ser´ una buena elecci´n. .2 0.90 ´ 5. el error que se obtiene es grande como puede observarse en el gr´fico. j j Entonces a0 = . . Se quiere interpolar la funci´n f (x) = x 3 en el intervalo [−1.

α = Wn+1 (x) = 0. podemos o suponer x = xj . b) tal que F (n+1) (ξ) = 0. F al menos n ceros y as´ siguiendo se tiene que existe un punto ı ξ ∈ (a. . Es decir. por el teorema de Rolle. o Ejemplo 5. Observemos que para todo j. es decir. ξ = ξ(x). xn . Fijado x definimos la siguiente funci´n de t. Wn+1 (x) = (x − x0 ) · · · (x − xn ) Teorema 5. Por lo tanto. O sea. xn puntos del intervalo [a. f (x) − pn (x) f (n+1) (ξ) = (n + 1)! Wn+1 (x) lo que concluye la demostraci´n. x. (n + 1)! En (x) = f (x) − pn (x) = Demostraci´n. utilizaremos la notaci´n Wn+1 para designar al polinomio m´nico o o de grado n + 1 que se anula en esos puntos. f (x)−pn (x) Wn+1 (x) . xn . o F (t) = f (t) − pn (t) − αWn+1 (t) donde α se elige de modo que F (x) = 0. b]. F tiene al menos n + 1 ceros. Para ´sto ser´ necesario suponer que la funci´n f verifica algunas condiciones de e a o suavidad. . damos una expresi´n para En (x). b] y pn ∈ Pn el polinomio interpolador de f en x0 . b]. Sean f ∈ C n+1 [a. . existe ξ ∈ [a. Como F (n+1) (t) = f (n+1) (t) − (n + 1)!α Se obtiene. . En consecuencia. damos el primer paso para poder estimar el error cometido. tal que f (n+1) (ξ) Wn+1 (x). o Dados los puntos x0 . . Llamemos a este error: En (x) = f (x) − pn (x). . 3] por un o polinomio.4. . x ∈ [a. . b]. Se quiere interpolar la funci´n f (x) = cos(x)3 en el intervalo [−3. ERROR DE INTERPOLACION 91 se comete. que est´ bien definida pues a F (xj ) = f (xj ) − pn (xj ) − αWn+1 (xj ) = 0. . Entonces F se anula en los n + 2 puntos x0 . Con el siguiente teorema. . .´ 2. . Para cada x ∈ [a. Notar que En (xj ) = 0 y Wn+1 (xj ) = 0 para todo j.5. b]. .

en Pn . INTERPOLACION Si se eligen 10 puntos equiespaciados se obtiene un polinomio como muestra la Figura 5.2. . . En este caso. o Primera diferencia dividida f [x0 . . ı .4 0. xn una vez conocido el polinomio interpolador de f en x0 . 3].. x2 ] = f [x1 .4303. . x1 ] . xn−1 . en e una figura como la anterior.2. Interpolaci´n de f (x) = cos(x)3 en [−3.92 ´ 5. . xn−1 . En esta construcci´n aparecen las diferencias divididas o o que presentamos a continuaci´n. a o 4 3 2 1 0 −1 −2 −3 −4 −5 −6 −1 −0. xk .8 1 Figura 5.2 0 0. x2 − x0 f (x1 ) − f (x0 ) . x2 ] − f [x0 . . . . x1 − x0 As´ sucesivamente se define la diferencia de orden k asociada a los puntos x0 .8 −0..4 −0. . que interpola a una funci´n f en x0 .2 0.6 −0. que es el que se obtiene como diferencia m´xima entre f e a y el polinomio evaluados en una malla suficientemente fina (puntos equiespaciados con paso h = 0. o La forma de Newton del polinomio interpolador puede verse como una generalizaci´n del polio nomio de Taylor asociado a una funci´n. . .01) se tiene un error de 0.6 0. (10 puntos equiespaciados) o 3. Tan s´lo al considerar 25 puntos equiespaciados (tomados o a intervalos de longitud 0. x1 ] = Segunda diferencia dividida f [x0 .25) se obtiene un error num´rico menor que 10−6 . Forma de Newton La forma de Newton es conveniente para calcular el polinomio. los gr´ficos del polinomio y la funci´n se confunden. Si consideramos el error num´rico. x1 . .

. xk . . . . . Una vez obtenido pk ∈ Pk o que interpola a f en x0 . xk−1 ] .3. o a Por ejemplo si n = 1. . p1 (x1 ) = f (x1 ) . p1 (x) = a0 + a1 (x − x0 ) y como p1 (x0 ) = f (x0 ) tenemos a0 = f (x0 ) Si n = 2. . Iterando este procedimiento desde k = 1 hasta k = n − 1 se obtiene la forma de Newton pn (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + . . . . . podemos elegir f (xk+1 ) − pk (xk+1 ) ak+1 = (xk+1 − x0 ) · · · (xk+1 − xk ) de modo que pk+1 (xk+1 ) = f (xk+1 ). . xk ] − f [x0 . . . . . FORMA DE NEWTON 93 f [x0 . pk+1 tambi´n e e interpola a f en esos puntos independientemente del valor de ak+1 . + an (x − x0 ) · · · (x − xn−1 ) En lo que sigue veremos que los aj resultan ser las diferencias divididas y por lo tanto esta expresi´n es an´loga al polinomio de Taylor. de las igualdades p1 (x0 ) = f (x0 ) y p1 (x1 ) = f (x1 ) queda a1 = f [x0 . xk escribimos pk+1 ∈ Pk+1 como pk+1 (x) = pk (x) + ak+1 (x − x0 ) · · · (x − xk ). . . Observemos que como el t´rmino agregado no modifica el valor de pk en x0 . Por otra parte. . . xk ] = f [x1 . . x1 ]. . xk − x0 La construcci´n de la forma de Newton se basa en la siguiente idea. Como en el caso n = 1. p2 (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ).

. el polinomio (x − x0 )q1 (x) − (x − x2 )p1 (x) x2 − x0 tiene grado menor o igual que 2 y verifica r(xj ) = f (xj ) para j = 0. . xn ](x − x0 ) . x1 ]. x1 ] = f [x0 . x2 ](x − x1 ). xn } y consideramos pn y pn+1 como en o o (5. que interpola a f en los puntos x0 . . a Teorema 5. xn est´ dado por pn (x) = f (x0 ) + f [x0 . x1 . . e Teorema 5. x2 ]. x2 ]. x2 ] − f [x0 . . a2 = f [x0 . . sino tambi´n el error como lo muestra el siguiente teorema. . . xn . . . . . coincide con p2 . x1 ](x − x0 ). x2 − x0 a2 = El mismo argumento puede aplicarse para demostrar el siguiente teorema. . . se tiene la siguiente expresi´n o del error En (x) = f (x) − pn (x) = f [x0 . El polinomio pn ∈ Pn . igualando los coeficientes de x2 de r y p2 se obtiene f [x1 . Si pn ∈ Pn interpola a f en los puntos x0 . An´logamente. 2. Sabemos ya que el polinomio p1 (x) que interpola a f en x0 . INTERPOLACION a0 = f (x0 ) Veamos ahora que a1 = f [x0 . x1 ](x − x0 ) + · · · + f [x0 . xn . Por lo tanto. x1 se escribe como p1 (x) = f (x0 ) + f [x0 . .94 ´ 5. . Demostraci´n.4) No s´lo los coeficientes del polinomio interpolador pueden expresarse en t´rminos de las difereno e cias divididas.4). a q1 (x) = f (x1 ) + f [x1 .7. 1. x1 . . . Agregamos xn+1 a la sucesi´n {x0 . Entonces. entonces se tiene . .6. . r(x) = En consecuencia. . . x]Wn+1 (x). x2 tenemos. si q1 (x) ∈ P1 interpola a f en x1 . (x − xn−1 ) (5.

xn+1 ]Wn+1 (xn+1 ). . . xn+1 ](x − x0 ) · · · (x − xn ) = pn (x) + f [x0 . .´ 4. fue resuelto por Tchebychev en el siglo XIX introduciendo una sucesi´n de polinomios. .4 nos dice que el error depende de f n+1 en alg´n punto del intervalo y de los puntos u xj a trav´s del polinomio Wn+1 (x) = (x − x0 )(x − x1 ) · · · (x − xn ). . . . M´s adelante veremos que se puede trasladar la construcci´n a cualquier intervalo [a. x]Wn+1 (x). Por lo tanto f (xn+1 ) = pn+1 (xn+1 ) = pn (xn+1 ) + f [x0 . Como tomamos xn+1 cualquier punto distinto de x0 . . Para simplificar la presentaci´n resolveremos el problema para funciones definidas en el intervalo o [−1. . . . . En−1 (xn ) = f [x0 . . Dados x0 .8. por .Minimizaci´n del Error o Una pregunta natural es c´mo elegir los puntos de interpolaci´n para optimizar la aproximaci´n. la idea es elegir los puntos de o o o manera tal que Wn+1 (·) ∞ sea m´ ınima. Polinomios de Tchebychev . xn ] = . . En (x) = f (x) − pn (x) = f [x0 . 1. . . xn puntos distintos. n! Demostraci´n. . . . . es decir ξ entre x0 . . Como se pretende obtener e una buena aproximaci´n sin tener informaci´n sobre la funci´n f . o o o El Teorema 5. Evaluando en x = xn la expresi´n del error En−1 = f −pn−1 .4 concluye la demostraci´n. 2. . . xn ](xn − x0 ) · · · (xn − xn−1 ) lo que junto con la f´rmula del error dada en el Teorema 5. xn . . . xn tal que f (n) (ξ) f [x0 . o o 4. xn se tiene para todo x. x1 ](x − x0 ) + · · · + f [x0 . . . . xn+1 ]Wn+1 (x). . 1]. dada por el teorema o o anterior tenemos. . Este problema. . . . POLINOMIOS DE TCHEBYCHEV . . que hoy o llevan su nombre. . xn+1 ]Wn+1 (xn+1 ). . . Los polinomios de Tchebychev se definen para k = 0. . . que en principio parece complicado. . . existe ξ intermedio.MINIMIZACION DEL ERROR 95 pn+1 (x) = f (x0 ) + f [x0 . b] a o mediante un cambio de variables. . De aqu´ se deduce que el error satisface ı En (xn+1 ) = f (xn+1 ) − pn (xn+1 ) = f [x0 . Corolario 5. .

5 0.5 0 0 −0.5 1 n=5 1 1 n=6 0. e T0 (x) = 1. T5 (x) = 16x5 − 20x3 + 5x n=4 0. T1 (x) = x y como cos(α + β) + cos(α − β) = 2 cos α cos β. Polinomios de Tchebychev . Tk+1 (x) = 2xTk (x) − Tk−1 (x). 1]. T3 (x) = 4x3 − 3x.5 0 0.5 0 0.5 −1 −1 −0. INTERPOLACION Tk (x) = cos(k cos−1 x) donde cos−1 es la inversa de cos : [0.5 1 −1 −1 −0.5 −0. si ponemos x = cos θ resulta Tk+1 (x) = cos((k + 1)θ) = 2 cos θ cos(kθ) − cos((k − 1)θ). Pero esto puede verse utilizando identidades trigonom´tricas. En efecto.5 1 −1 −1 −0.5) T4 (x) = 8x4 − 8x2 + 1.3. n=3 1 1 (5.5 1 Figura 5.1 son a T2 (x) = 2x2 − 1. En principio no es evidente que Tk sea un polinomio. Algunos ejemplos que siguen a T0 y T1 cuyos gr´ficos se muestran en la figura 5.5 0.96 ´ 5. π] → [−1. es decir.5 0 0.5 0 0 −0.5 −1 −1 −0.5 0 0.5 −0.

Sea Tk el polinomio de Tchebychev de grado k. (x − xn ) ∞ que o o aparece en la f´rmula del error.9. . 1. . k − 1. . 1]. Demostraci´n. . La primer afirmaci´n puede verse de la relaci´n de recurrencia (5. o Teorema 5. a Tk con i = 0. . las ra´ ıces pertenecen al intervalo [−1. Adem´s. . entre todas las posibles elecciones de n + 1 puntos en [−1. k. . . para todo k ∈ IN. m´nico tal que o P < Wn+1 ∞. o 1 Wn+1 (x) = n Tn+1 (x) 2 minimiza la norma en [−1. ı. 1. o o Supongamos que existe un polinomio P ∈ Pn+1 . o ∞ Wn+1 ∞ ≤ P ∞. Es o u 2 decir. para i ∈ Z Z. Adem´s. k cos−1 (x) = (2i + 1) π 2 x = cos( (2i+1) π ) k 2 ambas afirmaciones de 2 quedan probadas. es decir. o o o Como Tk (x) = cos(k cos−1 x). los ceros de Tn+1 son los puntos de interpolaci´n que hay que elegir para minimizar la expresi´n (x − x0 ) . . Es decir. Ahora s´ estamos en condiciones de enunciar y probar el resultado que anticipamos.´ 4. Tk alcanza los valores 1 y -1 en k + 1 puntos. ∞ = |Tk (yi )| = 1 para yi = cos( iπ ) k Demostraci´n. POLINOMIOS DE TCHEBYCHEV . 1] y son de la forma xi = cos (2i + 1)π 2k para i = 0. Tk toma alternativamente los valores 1. ∞ . Es decir. En particular. −1 y por lo tanto la norma es k exactamente 1. Entre todos los polinomios m´nicos de grado n + 1. . 1]. .MINIMIZACION DEL ERROR 97 Los polinomios de Tchebychev tienen las siguientes propiedades. sobre o a los puntos yi = cos( iπ ). Tk (x) = 0 si y s´lo si el argumento es m´ltiplo impar de π . son todas distintas. . ´ Proposicion 5. 1] y variando los valores de i = 0. basta notar que |Tk (x)| ≤ 1 por ser imagen de la funci´n coseno. Para probar 3. (1) El coeficiente principal de Tk es 2k−1 . (2) Las ra´ ıces del polinomio Tk se encuentran en el intervalo [−1. . si P ∈ Pn+1 y es m´nico entonces. O sea. Como el coeficiente principal de Tn+1 es 2n se tiene que Wn+1 es m´nico.5). . (3) Tk ∞ = 1. k − 1 se obtienen todas.10.

o Es decir el minimizante es unico.98 ´ 5. 1] por un polinomio o que la interpole en 11 puntos. INTERPOLACION Por la proposici´n anterior. P L∞ [yi .12. 2 . . Interpolaci´n de f (x) = x 3 en los ceros de T11 o Si se eligen los nodos como los ceros de T11 se obtiene un polinomio como muestra la Figura 5. por ejemplo.1408.8 −0.2 0 −1 −0. Wn+1 alcanza la norma infinito en cada uno de estos subintervalos.yi+1 ] .4. Wn+1 ∞ < P ∞ si P = Wn+1 es un polinomio m´nico P ∈ Pn+1 . En este caso el error num´rico cometido es menor que 0.6 −0.4 −0. ´ Observacion 5. Supongamos. .8 1 Figura 5. resulta que Q tiene al menos n + 1 ceros. aunque no lo haremos aqu´ que la desigualdad del ı.2 0.1). yi+1 ) y como hay n + 2 valores de yi . Pero tanto P como Wn+1 son polinomios de grado n + 1 y ambos son m´nicos de donde se deduce que Q tiene grado a o lo sumo n. que Wn+1 (yi ) > 0 (en el caso contrario se procede de manera an´loga).2 0 0. . Esto es una contradicci´n pues acabamos de ver que Q tiene n + 1 ra´ o ıces distintas. 2 1 0. Wn+1 (yi ) = −Wn+1 (yi+1 ). .6) se sigue que a P (yi ) < Wn+1 (yi ) y que P (yi+1 ) > Wn+1 (yi+1 ). Entonces.6) 2n Por otra parte.yi+1 ] < Luego. Luego. teorema es estricta. un tal P no puede existir. Entonces.8 0.6 0. ´ Ejemplo 5. Puede demostrarse.11. n + 1.4 0. e (comparar con Ejemplo 5. i = 0. el polinomio Q(x) = P (x) − Wn+1 (x) tiene al menos un cero en el intervalo (yi . Esto es. |Wn+1 (x)| alcanza su m´ximo (que es 21 ) en los n + 2 puntos o a n iπ yi = cos( n+1 ). si restringimos Wn+1 a [yi . en cada subintervalo se mantiene la relaci´n o 1 = Wn+1 L∞ [yi . yi+1 ].4 0.4 (comparar con Figura 5. de la desigualdad (5. o sea.3). (5.6 0. Se quiere aproximar la funci´n f (x) = x 3 en el intervalo [−1.

8)| = 0. ıdo Comencemos observando que f (5) (x) = 243e3x y por lo tanto 243e3 4880. o Teorema 5. 1] → IR dada por f (x) = e3x . Si pn ∈ Pn es el polinomio que interpola a f en las ra´ ıces de Tn+1 entonces. Notar que en este caso. 5!24 mientras que E4 (0.MINIMIZACION DEL ERROR 99 Veamos ahora como se aplica el Teorema 5.5)x(x − 0. interpolamos usando los ceros de T4 .7 para acotar el error cuando se usan las ra´ ıces de Tn+1 como puntos de interpolaci´n. Sea f : [−1.79 0. el resultado se sigue del hecho de que |Tn+1 (x)| ≤ 1. 5! |(f − p4 )(0. 1].8)| ≤ Cuando en realidad |E4 (0. Ahora.79 f (5) ∞ ≤ ≤ . f (x) − pn (x) = Ejemplo 5.2544. 1].8) − p4 (0.57.13. Queremos comparar las cotas del error que se produce al estimar el valor de f (0.8)| ≤ = 2. se sobre estima el error en un factor de 10. f (n+1) ∞ .11232 y usando la f´rmula del error obtenemos o 4880.5)(x − 1). Basta observar que Wn+1 = o ∞ ≤ 1 2n Tn+1 f (n+1) (ξ) f (n+1) (ξ) Wn+1 (x) = n Tn+1 (x).11232 ∼ 4.54. (n + 1)! 2 (n + 1)! donde ξ ∈ [−1. 2n (n + 1)! para obtener f − pn Demostraci´n. .8) = f (0. entonces |W5 (0. La cota que se obtiene de la f´rmula de error es o 4880.14. .8)| = 0.´ 4. . Sea f ∈ C n+1 [−1.4591 . 5! 5! 5! Si interpolamos f en cinco puntos equiespaciados tenemos que W5 (x) = (x + 1)(x + 0.8) al usar el polinomio interpolador de grado 4 constru´ con puntos equiespaciados y con los ceros del polinomio T5 . Entonces.79 |E4 (0.8) = 0. POLINOMIOS DE TCHEBYCHEV .

Una traslaci´n lineal del intervalo [a. Se quiere aproximar la funci´n f (x) = cos(x)3 en el intervalo [−3.100 ´ 5. la cota del error e |f (x) − pn (x)| ≤ f (n+1) ∞ (n + 1)!2n b−a 2 n+1 . b].5 en el que se interpola la misma funci´n en 10 puntos equiespaciados.16.5 consia derando como nodos los ceros del correspondiente polinomio de Tchebychev.5 (comparar con Figura 5. En efecto. 1] nos permite dar o los polinomios de Tchebychev correspondientes al intervalo [a. En este caso el error num´rico cometido es menor que 4 × 10−3 . Por lo tanto 2(x − a) −1 b−a 2(x − a) − 1 es la transformaci´n mencioo b−a Tk (x) = Tk (t) = Tk = cos k cos−1 2(x − a) −1 b−a es un polinomio de grado k que tiene propiedades an´logas a Tk pero ahora en el intervalo [a. b]. a En particular se tiene: (1) La relaci´n de recurrencia: o Tk+1 (x) = 2 2(x − a) − 1 Tk (x) − Tk−1 (x) b−a 2 (2) El coeficiente principal de Tk (x) es 2k−1 ( b−a )k . 3] por un o polinomio que la interpole en los ceros de T10 . para x ∈ [a. o Comentarios: . . (4) Interpolando en los ceros de Tn+1 1 Wn+1 (x) = n 2 b−a 2 n+1 Tn+1 (x) y Wn+1 ∞ 1 = n 2 b−a 2 n+1 obteni´ndose. INTERPOLACION Observemos que tanto el error como su estimaci´n se reducen aproximadamente la mitad que o en el caso de puntos equiespaciados. Ejemplo 5. (3) Los ceros de Tk (x) son de la forma xj = b−a cos 2 (2j + 1)π 2k + b+a 2 ∀j = 0. es f´cil ver que el cambio de variables t = a nada. b] al intervalo [−1. . e Comparar con Ejemplo 5. ´ Observacion 5. Al elegirse como nodos los ceros de T10 se obtiene un polinomio como muestra la Figura 5. b].15.2). . . k − 1. Antes de proceder con algunos comentarios finales estudiemos el an´logo al Ejemplo 5.

en norma infinito. o (2) No podemos asegurar convergencia uniforme. o Por ejemplo. es decir. (en los ceros de T10 ) o o (1) A partir de la f´rmula del error dada en el Teorema 5.´ 4.8 0. 1] se sabe que el error no tiende a cero para la funci´n de Runge o 1 1 + 25x2 (3) El comportamiento de la interpolaci´n en los puntos de Tchebychev es mucho mejor. puede demostrarse que si la funci´n f es derivable o f (x) = f − pn ∞ →0 (n → ∞). . O sea. admite desarrollo de Taylor convergente en todo IR. puede verse que existe f continua tal que f − pn ∞ → 0. es decir.4 puede demostrarse que si f es una funci´n entera. Interpolaci´n de f (x) = cos(t)3 en [−3. cualesquiera sean los puntos de interpolaci´n. Por ejemplo. . POLINOMIOS DE TCHEBYCHEV .MINIMIZACION DEL ERROR 101 1 0.6 −0. o entonces f − pn L∞ [a. (Faber) Dados puntos x0 0 x1 x1 0 1 x2 x2 x2 0 1 2 x3 x3 x3 x3 0 1 2 3 . M´s a´n puede a u demostrarse el siguiente Teorema.4 −0. si se cambia la hip´tesis f entera por f ∈ C ∞ (IR).2 0 −0.6 0.b] → 0 (n → ∞).2 −0. si se eligen puntos equidistribuidos o en el intervalo [−1. (4) La interpolaci´n en los puntos de Tchebychev no converge para cualquier funci´n cono o tinua.5.4 0. .8 −1 −3 −2 −1 0 1 2 3 Figura 5. 3].

. . puede buscarse un polinomio p que interpole a f en determinados puntos y que adem´s p coincida con f en algunos de esos puntos. p (x1 ) = f (x1 ). donde pn es el polinomio 5. x − x0 . existe f continua tal que f − pn interpolador en xn . xk y m0 . . Para simplificar la notaci´n ponemos h = (x1 − x0 ). (x − x0 )2 (x − x1 )} forman una base de P3 por ser todos de distinto grado. .    (mk −1) (x ) = f (mk −1) (x ). . (ii) p (x0 ) = f (x0 ). Como {1. Ahora hay que determinar a2 y a3 para que se cumplan las dos condiciones restantes. p (xk ) = f (xk ). . mk ∈ IN0 tales que m0 + .    p(x1 ) = f (x1 ). . . b]. se tiene el siguiente teorema que fue probado por Hermite. (ii) se satisfacen si y solo si a0 = f (x0 ) y a1 = f (x0 ). . . Las condiciones (i). + o mk = n + 1. o Se busca un polinomio p ∈ P3 que cumpla (i) p(x0 ) = f (x0 ).17. . .  . M´s en a a general.102 ´ 5. (iii) p(x1 ) = f (x1 ). puntos x0 . h a2 = . . . p(m1 −1) (x1 ) = f (m1 −1) (x1 ). p(xk ) = f (xk ). Dada una funci´n f . entonces se tiene o p(x1 ) = a0 + ha1 + h2 a2 = f (x0 ) + f (x0 )h + a2 h2 Para que se satisfaga la condici´n (iii) debe ser o f (x1 ) − f (x0 ) − f (x0 )h = h2 f (x1 ) − f (x0 ) − f (x0 ) h 1 . . . existe un unico polinomio p ∈ Pn que satisface ´   p(x0 ) = f (x0 ). donde adem´s puede verse c´mo se generaliza a o la definici´n de diferencias divididas para valores de xi no todos distintos. (x − x0 )2 . . . . (iv) p (x1 ) = f (x1 ). cualquier polinomio en P3 se puede escribir de la forma p(x) = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + a3 (x − x0 )2 (x − x1 ). . . Por ejemplo. xn . . . n 0 ∞ → 0. . Interpolaci´n de Hermite o En algunos casos interesa tambi´n considerar junto con los valores de una funci´n f datos e o relacionados con sus derivadas. INTERPOLACION arbitrarios en [a. . . . p k k No haremos una demostraci´n de este teorema pero para dar una idea mostramos la construcci´n o o del polinomio interpolador en un caso particular. Teorema 5. . . . p (x0 ) = f (x0 ). p(m0 −1) (x0 ) = f (m0 −1) (x0 ). .

x1 ] − f [x0 . Por ultimo. x0 . x1 ] + f [x0 . x1 ]h) h2 1 (f [x0 .´ 5. x1 ] = y por lo tanto. x1 . x0 . x1 ]. x1 ]. De esta manera se obtiene. INTERPOLACION DE HERMITE 103 Observemos que limx1 →x0 f [x0 . x0 . x1 ]h) h2 1 (f [x1 . debemos elegir a3 para que se cumpla ´ f (x1 ) = a1 + 2a2 h + a3 h2 = f (x0 ) + 2f [x0 . x1 ] + f [x0 . x0 . de la definici´n de segunda diferencia dividida. x0 . x0 . x0 ] − 2f [x0 . En consecuencia. Entonces. x0 . x1 ] . . x0 . x0 . x1 − x0 p3 (x) = f [x0 ] + f [x0 . x1 ](x − x0 )2 (x − x1 ). hemos demostrado que el unico polinomio en P3 que satisface las condiciones ´ pedidas es 1 f (x1 ) − f (x0 ) − 2f [x0 . x0 . x0 ] − 2f [x0 . x0 ](x − x0 ) + f [x0 . x1 ]h + a3 h2 de d´nde. x1 ] − f [x0 . x1 ] − f [x0 . x1 ] − f [x0 . x0 ] = f (x0 ). x1 . queremos que p (x1 ) = f (x1 ). a2 = f [x0 . o a3 = = = = = O sea a3 = f [x0 . x1 ] − f [x0 . x1 ]h h2 1 (f [x1 . x1 ](x − x0 )2 + f [x0 . x1 ] = f (x0 ) por lo que resulta natural generalizar la primer diferencia dividida poniendo f [x0 . x0 . x1 ] − 2f [x0 . x1 ]) h f [x0 . o f [x0 . x1 . x1 . Esto generaliza la forma de Newton para xi no todos distintos. x0 ] = x1 − x0 f (x1 ) − f (x0 ) − f (x0 ) h 1 h f [x0 . x0 .

Sea f : [−1. Dada f : [a. xj+1 ]. b] en subintervalos [xj . Interpolaci´n por polinomios a trozos o En muchos casos para lograr una mejor aproximaci´n es conveniente utilizar funciones polinoo miales a trozos como interpolantes. . 1] → IR.xj+1 ] ∈ P1 . Puede verse que 1 + 25x2 = 50.104 ´ 5. Por ejemplo. En consecuencia.4 f (ξj ) (x − xj )(x − xj+1 ). < xn = b. INTERPOLACION 6.2 Partimos el intervalo [a. xj+1 ]. usando el Teorema tenemos 5. aproximando por poligonales obtenemos . Aproximación por poligonales f(x) p2 p 1 p6 p3 p5 p4 | x 0 | x1 | x2 | x3 | x4 | x5 | x6 Figura 5. quedan poligonales. b] → IR definimos la funci´n interpolante qn (x) tal que o qn |[xj . a = x0 < x1 < x2 . De esta manera se parte el intervalo de manera tal que en cada subintervalo se elige un polinomio distinto que interpole los datos.18. al interpolar con polinomios de grado uno a trozos. Para cualquier f (x) − qn (x) = Entonces f 2 f − qn cuando n → ∞. 2 b−a n . xj = a + jh con h = f ∈ C 2 [a. la funci´n de Runge f (x) = o f ∞ 1 . Consideremos el caso de puntos equiespaciados o sea. ∞ ≤ ∞ h2 f = 4 8 ∞ (b − a)2 →0 n2 Ejemplo 5. b] y cualquier x ∈ [xj . .

puede obtenerse un aproximante C 2 . . Una cuenta an´loga o a puede hacerse en el caso general para ver que la cantidad de coeficientes a determinar supera en dos al n´mero de condiciones. u En muchos problemas interesa aproximar por funciones derivables. < xn = b. Si adem´s queremos S y S continuas en x1 . es decir. splines c´bicos. si hay soluci´n habr´ infinitas pues tenemos dos coeficientes para fijar arbitrariamente. b] y a = x0 < x1 < x2 . Dada f ∈ C[a. existe un unica S ∈ C 2 [a. b] y adem´s se verifique a S(xj ) = f (xj ) para 0 ≤ j ≤ n y S |[xj . Veamos cu´ntas condiciones se tienen que satisfacer.xj+1 ] ∈ P3 con S (a) = S (b) = 0. S1 (x2 ) = S1 (x2 ). b] tal que   S(xj ) = f (xj )  S| [xj . b] y a = x0 < x1 < x2 . Un m´todo cl´sico es el corrospondiente a grado tres.19. Tenemos que verificar. Vamos a ver que. . . Dada f ∈ C[a. Por ejemplo si n = 3. Elegiremos esta ultima ´ opci´n por ser m´s simple. Splines c´ bicos. en total diez condiciones para doce inc´gnitas. de esta e a u manera. < xn = b buscamos S tal que S. u Luego. en este caso. S2 (x3 ) = f (x3 ). o a ´ Teorema 5. . interpolando por poligonales obtenemos una aproximaci´n mucho mejor o que la que se obtiene interpolando con un polinoimio. si se utilizan los mismos puntos. n2 Luego. O sea. S1 (x1 ) = f (x1 ). Esto no puede lograrse aproximando por poligonales y por lo tanto es necesario aumentar el grado de los aproximantes.´ 6. x2 tenemos cuatro a condiciones mas.xj+1 ] ∈ P3 . INTERPOLACION POR POLINOMIOS A TROZOS 105 f − qn ∞ ≤ f 8 ∞ 2 n 2 = 25 . a S0 (x0 ) = f (x0 ). S y S sean continuas en [a. seis condiciones. S2 (x2 ) = f (x2 ). S0 (x1 ) = S1 (x1 ). 0≤j≤n . como Sj ∈ P3 tenemos 4 × 3 = 12 coeficientes a determinar. o a Lo natural entonces es fijar S (x0 ) y S (xn ) o bien S (x0 ) y S (xn ).

Integrando dos veces obtenemos. . Por lo tanto. o Por lo tanto resta ver que esas constantes pueden elegirse de manera que se verifiquen las otras condiciones requeridas sobre S. . xj+1 ].xj+1 ] y hj = xj+1 − xj . y utilizando la notaci´n ∆fj = f (xj+1 ) − f (xj ). Para que S sea continua e interpole a f tenemos que elegir cj . o Observemos que para cualquier elecci´n de yj . de lo que. La funci´n S buscada debe cumplir que S es una poligonal. reemplazando en (5. que S sea continua.106 ´ 5. INTERPOLACION Demostraci´n. con 0 ≤ j ≤ n − 1 Sj (x) = yj yj+1 (xj+1 − x)3 + (x − xj )3 + cj (x − xj ) + dj (xj+1 − x) 6hj 6hj (5.7) donde cj . cj y dj . obtenemos cj = f (xj+1 ) yj+1 hj − hj 6 y dj = f (xj ) yj hj − hj 6 0≤j ≤n−1 y por lo tanto. obtenemos o Sj (x) = − yj yj+1 ∆fj hj (xj+1 − x)2 + (x − xj )2 + − (yj+1 − yj ) 2hj 2hj hj 6 y tenemos que elegir yj para que se cumpla la condici´n que falta. si S (xj ) = yj .7). . dj son constantes a determinar que provienen de la integraci´n. dj tal que Sj (xj ) = f (xj ) y Sj (xj+1 ) = f (xj+1 ). hj hj Veremos que es posible encontrar valores yj de tal forma que se cumplan las condiciones requeridas para S. es decir. Sj se o escribe como xj+1 − x x − xj Sj (x) = yj + yj+1 0 ≤ j ≤ n − 1. n − 1 usaremos la notaci´n o o Sj = S |[xj . para cada 0 ≤ j ≤ n − 1 yj yj+1 Sj (x) = (xj+1 − x)3 + (x − xj )3 + 6hj 6hj + f (xj+1 ) yj+1 hj − hj 6 (x − xj ) + f (xj ) yj hj − hj 6 (xj+1 − x). para x ∈ [xj . S resulta continua por ser poligonal. Derivando. . Para j = 0. o o sea Sj (xj ) = Sj−1 (xj ) 1≤j ≤n−1 .

(b) Agregar a las tablas de datos del Ejercicio 1 el punto x = 4. . usando el comando polyval. podemos dar valores arbitrarios a y0 .7. y = 1. en la forma de Lagrange. ··· 0 ··· h2 · · · . . 0 h1 γ2 . yn−1   b1 − h0 y0 b2 . EJERCICIOS 107 de lo que resulta que las n + 1 inc´gnitas yj deben ser soluci´n del siguiente sistema de n − 1 o o ecuaciones. o a pasando los t´rminos correspondientes al lado derecho. o Observemos que en general S (xj ) = f (xj ) y S (xj ) = f (xj ). como A es diagonal estrictamente dominante. . Ejercicios (1) Para cada uno de los conjuntos de datos dados. yn . . . usando el m´todo de coeficientes indeterminados. lo que concluye la demostraci´n. e (3) (a) Construir las tablas de diferencias divididas para los datos del Ejercicio 1. . ··· 0 0 . hj−1 yj−1 + 2(hj + hj−1 )yj + hj yj+1 = bj con ∆fj ∆fj−1 − hj hj−1 bj = 6 Como tenemos dos inc´gnitas m´s que ecuaciones. . x y x y -1 -1 -1 -3 0 3 0 1 2 11 1 1 3 27 2 3 (2) Repetir el problema anterior. . Por lo tanto existe soluci´n unica una vez elegidos y0 . e      γ1 h1 . Aumentar las tablas de diferencias divididas y calcular los polinomios interpoladores. 7. . entonces es inversible. Verificar utilizando el comando polyfit de Matlab. γn−1      y1 y2 . . .. bn−1 − hn−1 yn          =   donde γi = 2(hi + hi−1 ). yn y. calcular el polinomio p(x) interpolador de grado menor o igual que 3. Ahora. y emplearlas para construir los polinomios interpoladores. o ´ Por ejemplo podemos elegir y0 = yn = 0 para que se satisfagan las condiciones S (x0 ) = 0 y S (xn ) = 0. obtenemos el sistema tridiagonal. . Graficar el polinomio interpolador.

15. 1] → IR. . entonces Pn converge a f uniformemente. Sean (xn )n≥0 una sucesi´n arbitraria de puntos en o a+x [−1. 32. b]. . 2n+1 (10) Sea f : [−π. (x − xn )| ≤ |Pn (x) − f (x)| ≤ π n+1 (n + 1)! (b) Concluir que Pn converge uniformemente a f . xi = x0 + b−a .1]. .5n+1 |Pn (x) − f (x)| ≤ (n + 1)! ∞ tal que para todo k ∈ IN y para todo x ∈ [a. 5] → IR. f + Cn . . 5 graficar simult´neamente f . xn = b. 1] → IR. 1] → IR. (b) Sea Cn la cota hallada en (a). |(x − p)(x − q)| ≤ (b − a)n+1 . f (x) = sin(πx) + ex . xi = x0 + .108 ´ 5. para n = 5. 5]. . 1] → IR. . b]. . (b − a)2 . b]. (9) (a) Dado el intervalo [a. . xn . xn = 1. (11) Sea f : [0. 1 (8) Sea f : [−1. Demostrar que para todo x ∈ [0. Demostrar que para todo x en [a. b] se tiene: (7) Sea f una funci´n C o |f k (x)| ≤ C k k! 1 Mostrar que. Sea Pn un polinomio de grado n que interpola a f en n + 1 puntos distintos cualesquiera de dicho intervalo. f (x) = sin(x). π] |(x − x0 ) . . . . . . . (12) Dado un intervalo [a. . . 4 (b) Sean x0 = a. . . . n o o (5) Repetir el Ejercicio ?? para la funci´n f1 : [−1. Para n = 1. 10. b] tal que |(x − x0 ) . b]. . f (x) = 2x . . . f2 (x) = sin(πx). Demostrar que para todo x en [a. f1 (x) = |x| y para la funci´n f2 : [−1. f (x) = . . Demostrar que si a > 3 entonces Pn converge a f uniformemente. sea m el punto medio entre a y b y sea h < (b − a)/2. es decir. (a) Demostrar que para todo x ∈ [−π. x1 . π] → IR. Graficar f junto con los 1 + 25x2 polinomios que resultan de interpolar a f en los n + 1 puntos equiespaciados x0 = 2i −1. (6) Sea f : [0. f −Pn ∞ → 0 cuando n tiende a ∞. decidir como tienen que estar distribuidos n + 1 nodos x0 < x1 < · · · < xn en el intervalo de modo que exista x ∈ [a. 3. Sea Pn el polinomio de grado n que interpola a f en n + 1 puntos equiespaciados. si 0 < C < y Pn en un polinomio de grado n que interpola a f en b−a n+1 puntos distintos. . Sea Pn un polinomio de grado n que interpola a f en n + 1 puntos equiespaciados en dicho intervalo. (a) Usando el ejercicio 9. acotar el error f − Pn ∞ . INTERPOLACION (4) Considerar la funci´n f (x) = o 1 en el intervalo [-1. . 1] y Pn (x) el polinomio que interpola a f (x) en x0 . (x − xn )| ∼ (b − a)n+1 . Sea p = m − h y q = m + h. b]. n + 1 puntos equiespaciados en el n intervalo [a. a f − Cn y Pn .

demostrar que el problema (a) e tiene soluci´n unica. (b) p(−1) = 1. . m´s la condici´n a o p (1) = f (1). . 1] → IR la funci´n f (x) = e2x−1 y sean x0 < x1 < . (15) Para n = 5. . . . Tn+1 . (20) Para ilustrar qu´ pasa cuando se desea interpolar no s´lo una funci´n sino tambi´n sus e o o e derivadas. n y el polinomio de Tchebychev Tn+1 .b] (23) (a) Determinar valores de α. p(2) = 1. para que el error f − Pn ∞ ≤ 10−2 . y sean x = a. p(1) = f (1). (c) p(−1) = 1. p(x1 ) = α1 . Considerar (22) Sea f ∈ C 0 1 n la poligonal l(x)que interpola a f en los puntos xi . p (1) = 7. p(2) = 1. p (x2 ) = α2 . P (xn ) = f (xn ) y adem´s a P (xn ) = f (xn ). n. p (0) = 1. 15. x = b. (17) Utilizar el m´todo de coeficientes indeterminados para hallar un polinomio p de grado e 2 que satisfaga: p(1) = 0. b]. 4]. . p(0) = f (0). Probar que (a) h2 |f (x) − l(x)| ≤ max |f (x)| 2 x∈[a. . (21) Analizar para que valores de x0 . Se interpola a f con un polinomio P de grado ≤ n + 1 de modo que P (x0 ) = f (x0 ). 0≤x≤1 S(x) = −αx3 + βx2 − 5αx + 1. p (1) = 2. p(2) = 1. α1 . o u siendo: αx3 + γx. . donde h = (b−a)/n. . P (x1 ) = f (x1 ). .7. x1 . para n = 5. p (−1) = −6. o (14) Repetir el ejercicio anterior para f (x) = ex . . 10. 1] es menor que 10−3 . x ∈ [−1. . y el problema (c) tiene infinitas o ´ o soluciones. (19) Sea f : [−1. p (1) = 2. consideramos el problema de hallar p de grado a lo sumo 3 que verifique: (a) p(0) = 1. . hallar un polinomio de grado menor o igual que 3 que verifique p(−1) = f (−1). el error cometido en la interpolaci´n o sobre el intervalo [−1. . p (−1) = 1. 2 [a. i = 0 . 1]. . x = a+h. p (1) = 2. 10. β y γ en IR para que S sea una funci´n spline c´bica. p (1) = f (1). Probar que si n ≥ 6 entonces. EJERCICIOS 109 (13) Calcular el grado m´ ınimo n que debe tener un polinomio Pn que interpola en los ceros de Tn+1 a la funci´n f (x) = e2x .b] (b) |f (x) − l (x)| ≤ h max |f (x)| x∈[a. . (16) Repetir los Ejercicios 4 y 5 usando los polinomios que interpolan a la funci´n f en los o ceros del polinomio de Tchebychev de grado n + 1. 15. el problema (b) no tiene soluci´n. < xn los ceros o del polinomio de Tchebychev. α2 existe un polinomio de grado 2 que satisface: p(x0 ) = α0 . x2 . . Usando el m´todo de coeficientes indeterminados. p(2) = 10 (18) (a) Sea f (x) = cos(πx). x ∈ [0. 1 ≤ x ≤ 2. y α0 . graficar simult´neamente el polinomio Wn+1 (x) = n (x − xi ). (b) Hallar un polinomio de grado menor o igual que 4 que verifique las condiciones del item anterior. i = 0. a i=0 donde xi = −1 + 2i/n.

10]. −0. . graficar la funci´n f junto con o una spline c´bica que la interpole en la red {−1. .5x2 − 0. 2}. . 3 2 o (25) Encontrar una funci´n del tipo 2ax +bx +cx+d que interpole la siguiente tabla de datos: x -1 0 1 2 y 1 1 0. 1}. 2].110 ´ 5. .75. 1. 0 ≤ x ≤ 2 respecto de la partici´n {0. a (24) Sea f como en el Ejercicio 4. β y γ obtenidos en el ´ ıtem anterior. INTERPOLACION (b) Con los valores de α. encontrar y graficar una funci´n del tipo ea4 x +a3 x +···+a0 que ino terpole a la funci´n f (x) = 1/x en 5 nodos equiespaciados en el intervalo [1. 0.5 4 (26) Utilizando Matlab. decidir si S interpola a la funci´n f (x) = 2x + 0. Utilizando Matlab.5x − 1. o 4 3 . o o (c) Graficar simult´neamente f y S en el intervalo [0.75. tomando como u condiciones de borde las derivadas de f .

cu´ntos m´s datos se conocen es de esperar que se pueda lograr a a mayor precisi´n. podemos plantear estos o problemas en el contexto de aproximaci´n de funciones. llamada “aproximaci´n por cuadrados ´ o m´ ınimos”.CAP´ ıTULO 6 Polinomios ortogonales y aproximaci´n por cuadrados m´ o ınimos. . . se tienen valores (xi . Es decir. los m´todos o e analizados nos permiten construir polinomios de grado n a partir de n + 1 datos. i = 0. Una situaci´n frecuente es la de aproximar una tabla de m´s de dos valores por una o a recta (como muestra la Figura 6. muchas veces polinomios de alto grado producen efectos no o deseados como por ejemplo grandes oscilaciones. . Por ejemplo. En el cap´ ıtulo anterior hemos discutido como aproximar una funci´n por polinomios que ino terpolan a la funci´n misma y/o a sus derivadas en algunos puntos. una manera de lograr esto ser´ pedir que m y b minimicen ıa 0≤i≤n max |yi − (mxi + b)| o tambi´n podr´ e ıamos pedir que minimicen n n |yi − (mxi + b)| i=0 o i=0 |yi − (mxi + b)|2 . Como e e en general los valores de yi corresponden a datos de una funci´n f . en esta clase de problemas uno sabe a priori a qu´ tipo de funci´n corresponden e o los datos.1). . como vimos. En este cap´ ıtulo consideraremos otra forma de aproximar funciones conocida como el m´todo de cuadrados m´ e ınimos. De todas estas opciones es usual considerar la ultima. Dada una funci´n f consideramos: o o . Hasta ahora. En este cap´ ıtulo estudiaremos distintos m´todos para resolver ´ste y otros problemas. En general. Cierto es que. yi ). debido a que es la m´s simple ya que el problema se reduce a resolver ecuaciones a lineales. en un problema a modelizar. Pero. Si escribimos la ecuaci´n de la recta o como y = mx + b nuestro problema consiste en encontrar valores de m y b que hagan que el error |yi − (mxi + b)| sea lo mas chico posible para todo i. cuando se trate de aproximar por polinomios. n y se quiere encontrar una recta que ajuste estos datos lo mejor posible. Este m´todo nos permie tir´. contemplar una tabla de valores sin sujetar a el grado del polinomio a la cantidad de datos. Tambi´n ser´ posible considerar funciones m´s e a a generales que ajusten de manera natural los valores predeterminados.

wn constantes positivas (pesos). 1]. i=0 Problema B. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. . . con i = 0. b]. Damos la demostraci´n para el intervalo [0. en todo intervalo cerrado y acotado. f (xi )). Dados w0 . Figura 6. . . dada f y m ∈ IN se trata de hallar o p ∈ Pm que minimice b a w(x)(f (x) − p(x))2 dx. Aproximaci´n de 10 valores por una recta o Problema A. . .1. Dada w(x) una funci´n positiva en [a. (Weierstrass) Sea f ∈ C[a. 1. Preliminares Nos dedicaremos especialmente al estudio de aproximaciones por polinomios. Para todo ε > 0 existe un polinomio p tal que f −p ∞ <ε Demostraci´n. . m < n y valores (xi . .112 ´ 6.1. b]. n se trata de hallar p ∈ Pm que minimice n wi (p(xi ) − f (xi ))2 . Teorema 6. el caso general se obtiene f´cilmente o o a mediante un cambio de variables. . Comenzamos esta secci´n presentando un resultado cl´sico de Weierstrass que muestra que toda funci´n continua o a o puede aproximarse uniformemente por polinomios.

k−1 n k n−1 k−1 n k=2 Bn h2 (x) = k=0 n k n 2 n x (1 − x) k n−k = k=0 n−1 k k x (1 − x)n−k k−1 n = k=0 n−1k−1 1 + n n−1 n xk (1 − x)n−k = = n−1 2 x n n − 2 k−2 x x (1 − x)n−k + k−2 n x x(1 − x) n−1 2 x (x + 1 − x)n−2 + = x2 + . n Bn gy (x) = gy (x) + (6. k n k k x (1 − x)n−k = k n n k=1 Bn h1 (x) = k=0 n n−1 k x (1 − x)n−k k−1 =x k=1 n n − 1 k−1 x (1 − x)n−k = x(x + 1 − x)n−1 = x. Usando la f´rmula del binomio de Newton. 1. 1].1. para los x. Desarrollando (x − y)2 = x2 − 2xy + y 2 o y usando que Bn es lineal (o sea. PRELIMINARES 113 Definimos los polinomios de Bernstein. Bn (f1 + f2 ) = Bn f1 + Bn f2 y Bn (kf ) = kBn f ) se obtiene x(1 − x) . o dado ε > 0. j = 0. Adem´s. n n n Dado y ∈ IR consideremos la funci´n gy (x) = (x − y)2 . como toda funci´n continua en un intervalo cerrado es uniformemente continua. n Bn f (x) = k=0 n f k k n xk (1 − x)n−k y vamos a demostrar que Bn f converge uniformemente a f en el intervalo [0. existe δ > 0 tal que.1) Por otra parte. |f (x) − f (y)| ≤ ε si |x − y| < δ. 2. se tiene: o n Bn h0 (x) = k=0 n n k x (1 − x)n−k = (x + 1 − x)n = 1. Para eso necesitaremos calcular Bn hj para hj (x) = xj . y tales que |x − y| ≥ δ se tiene a .

de la definici´n de Bn puede verse que Bn f1 ≤ Bn f2 . El ıa producto interno no s´lo permite definir distancia entre vectores. como vimos que se puede o hacer mediante la noci´n de norma. Sea V un IR espacio vectorial. 2 f ∞ 2 f ∞ x(1 − x) (x − y)2 + 2 δ δ2 n |Bn f (x) − f (y)| ≤ ε + y por lo tanto. αx.1). ∞ ≤ 2 f ∞ (x − y)2 . adem´s. En consecuencia. z + y. teniendo en cuenta (6. y = α x. es decir que Bn f converge uniformemente a f en el [0. si f1 ≤ f2 . aplicando Bn en la desigualdad anterior. : V ×V → IR que asigna a cada par de vectores un n´mero real de manera o u tal que. permite introducir el concepto de ´ngulo o a a entre vectores y por tanto tiene sentido hablar de ortogonalidad. δ2 |f (x) − f (y)| ≤ ε + es decir. esto es Bn preserva el o orden. . 2 f ∞ (x − y)2 δ2 −ε − 2 f ∞ 2 f ∞ (x − y)2 ≤ f (x) − f (y) ≤ ε + (x − y)2 . . 2 δ δ2 Ahora. evaluando ambos lados de la desigualdad en y. z = x. x. podemos asegurar que. y. |f (x) − f (y)| ≤ 2 f Luego. 1]. Los Problemas A y B se enmarcan dentro de la teor´ de espacios con producto interno. x . ´ Definicion 6. Un producto interno (o producto escalar) sobre V es una funci´n . y..2. y = y. y recordando que Bn es lineal y que Bn 1 = 1 se obtiene (tener presente que hasta aqu´ estamos ı considerando y como una constante). x > 0 si x = 0. z ∈ V y todo α ∈ IR se satisfacen las propiedades: (i) (ii) (iii) (iv) x + y. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS.114 ´ 6. para todo x. resulta 2 f ∞ y(1 − y) δ2 n |Bn f (y) − f (y)| ≤ ε + y por lo tanto |Bn f (y) − f (y)| ≤ 2ε para n suficientemente grande independientemente de y. y . x. z . sino que. para todo x.

o (4) Otros productos internos para espacios de funciones son los dados por una funci´n de o peso w.1. . . . (3) Si V = C[0. . y = j=1 xj yj . b] es δ g(x) > 2 y por ser g no negativa se tiene 1 b g(x) dx ≥ 0 a δ g(x) dx > (b − a) > 0. . . existe un subintervalo [a. . define un producto interno. 2 lo que es una contradicci´n. 1] para el cual g(x0 ) = δ > 0. . . g = 0 f (x)g(x) dx. con w(x) > 0 para todo x ∈ (a. g = a f (x)g(x)w(x) dx. .. . 0 0 . .  . wn (wj )n j=1 n puede darse a trav´s del producto interno usual e = j=1 wj xj yj = x.. 1 f.      Ahora. 0 el producto interno con pesos . PRELIMINARES 115 Ejemplos 6. y = (y1 . g ∈ V . g = f 2 . Ahora. y la matriz Dw . . b] tal que. yn ). En efecto. Dw y . . . n: n x. b): b f.. 1] es el espacio de funciones continuas y f. . est´ dado por a n x. s´lo puede ser nula si la funci´n o o o lo es. si definimos la matriz Dw ∈ IRn×n  w1 0  0 w2  Dw =  .. . . como: . Es f´cil ver (queda como ejercicio) que se satisfacen todas las condiciones de la definia ci´n. x. xn ). . . Las condiciones (i)-(iii) se satisfacen gracias a la linealidad del producto y de la integral.3. . por continuidad. y w 0 . para x = (x1 . y w = j=1 wj xj yj . . supongamos que existe un x0 ∈ [0. para todo x ∈ [a. o (2) Otros productos internos para IRn similares al usual son los dados por pesos wj > 0 para j = 1. (1) El producto interno usual en IRn . Para asegurar que vale la condici´n (iv) basta ver que la o integral de una funci´n no negativa y continua. ..

esta cuadr´tica tiene a lo sumo una ra´ real y por lo tanto a ız 4b2 − 4ac ≤ 0. y − t y. ´ Proposicion 6. x+y 2 ≤ x 2+2 x y + y = ( x + y )2 2 . y = 0. o Supongamos entonces que y. entonces 0 ≤ x − ty. y = c − 2bt + at2 = p(t). entonces | x. y | ≤ x y . .Schwarz) Si . x + t2 y. y 1 2 2 − x. x 2 . y ∈ V dos vectores fijos. x para todo x. y = 0.5. x + y = x 2 + 2 x. De esta manera se obtiene una funci´n cuadr´tica donde a = y. y de donde se sigue el resultado. Si . Corolario 6. x − ty = x. Para cada t ∈ IR consideramos x − ty. y + t2 y.4. entonces x = x. y . y y c = x. es un producto interno sobre un espacio vectorial V . Luego..Schwarz vale. 1 para todo x ∈ V. Demostraci´n. y = x + y. Esto es posible o gracias a la siguiente desigualdad. b = x. Demostraci´n. No es inmediato ver que con esta definici´n se obtiene efectivamente una norma. no hay nada que probar. para eso notemos o ´ a que dados x. es un producto interno sobre un espacio vectorial V . x define una norma sobre V . Sean x.. x+y 2 1 2 1 2 y. x. x − 2t x.116 ´ 6. . En los espacios vectoriales con producto interno se tiene la norma inducida por dicho producto: x = x. y ∈ V se tiene. La unica dificultad est´ en probar la desigualdad triangular. x . x y. Luego. x − t x. y ≤ | x. y | ≤ x. y = x. (Desigualdad de Cauchy . o a Como p(t) ≥ 0 para todo t ∈ IR. y + y 2 . Usando la desigualdad de Cauchy . Si y. 0 ≥ b2 − ac = x. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. y ∈ V.

y | ≤ 1. y = x y cos θ. s∈S x.3 (1) corresponde a la norma x 2 y da la longitud del vector x. a saber. a e x. el ´ngulo entre ´stos. en t´rminos de las longitudes de ambos vectores y e de θ. Dos conjuntos A. un elemento y ∈ S que verifique alguna de las propiedades anteriores es unico. para todo x. x e y son ortogonales si y solo si x. ´ Definicion 6.7. x y Esto permite definir el ´ngulo entre dos vectores x. En este caso suele notarse x ⊥ y. Veamos primero que (1) implica (2). y . x y ∀s ∈ S. El siguiente teorema relaciona los problemas de aproximaci´n que queremos estudiar con la o noci´n de ortogonalidad. x ∈ V e y ∈ S. Como S es un subespacio.6. para x e y no nulos. se tiene que y + s ∈ S para todo s ∈ S. s = 0. s + s 2 . . y = 0. Es a o decir θ ∈ [0. Adem´s. o ´ Definicion 6. son equivalentes: (1) x − y = min{ x − s } (2) x − y. . La gran ventaja de trabajar en espacios con producto interno es que se puede generalizar esta noci´n de ortogonalidad. . a ´ Demostraci´n.. x−y 2 ≤ x − (y + s) 2 = (x − y) − s) 2 = x−y 2 − 2 x − y. o Teorema 6. ız La norma asociada al producto escalar usual en IR2 o IR3 definido en el Ejemplo 6. se dice que x e y son ortogonales si x. En particular. π] ser´ el ´ngulo entre x e y si verifica a a cos(θ) = Luego resulta natural la siguiente definici´n. Si V es un espacio con producto interno .Schwartz da. y por lo tanto. B ⊂ V se dicen ortogonales (A ⊥ B) si x ⊥ y para todo x ∈ A e y ∈ B. y no nulos mediante la funci´n coseno. Recordemos adem´s que este producto a escalar puede escribirse.8. y = 0. y = 0 | x. Sabemos que y ∈ S minimiza la distancia o de x a S. Dados S un subespacio de un espacio V con producto interno.1. PRELIMINARES 117 La desigualdad triangular se obtiene al tomar ra´ cuadrada. o Notar que la desigualdad de Cauchy .

. restando miembro a miembro. es decir. s ≤ t s 2 y haciendo t → 0 queda 2 x − y. x−s 2 = = ≥ (x − y) + (y − s) x−y 2+ y−s x − y 2. ız Nos queda mostrar que no puede haber m´s de un elemento que cumpla las condiciones (1) o a (2). . de d´nde o x − y. luego. 0 ≤ 2 x − y. . . supongamos que y ∈ S es tal que x − y ⊥ s para todo s ∈ S. Si ahora consideramos t ∈ IR y s ∈ S se tiene que ts ∈ S y de la desigualdad anterior obtenemos 2 x − y. o 2. s∈S 2 2 Tomando ra´ cuadrada se obtiene que x − y = min{ x − s }. Este y se llama proyecci´n ortogonal de x sobre S. tomado s = y − y ∈ S obtenemos y − y = 0 de d´nde y = y. 2 x − y. Para ver que (2) implica (1). o Veremos m´s adelante que cuando S es de dimensi´n finita siempre existe y en las condiciones a o del teorema anterior. En efecto. El primer problema se puede reformular de la siguiente manera: Se considera en IRn el producto escalar dado por los pesos w0 . Luego. Los t < 0 dan la otra desigualdad. s . Como S es un subespacio x − y ⊥ y − s para todo s ∈ S. s = 0 para todo s ∈ S. . y x − y. en particular. y ∈ S verifican (2) entonces. s ≤ s 2 para todo s ∈ S.118 ´ 6. ts ≤ ts 2 2t x − y. Soluci´n de los Problemas de Aproximaci´n o o Ahora s´ estamos en condiciones de describir los m´todos para hallar las soluciones de los ı. s ≤ t2 s 2 para todo t ∈ IR y para todo s ∈ S. s ≤ 0. s = 0. wn . e problemas A y B planteados. queda y − y. y = i=1 xi yi wi . As´ ı. n x. y = y. para cada s ∈ S fijo se tiene x − y. s = 0. s = 0. Para los t > 0 tenemos 2 x − y. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. En lo que sigue de este cap´ ıtulo trabajaremos sobre espacios con un producto interno. Para esto. veamos que si y.

. . . 1 xn · · · xm 1 xm 2 . x ∈ IRn . f (xi )). + a1 x + a0 entonces      p(x1 ) p(x2 ) . x = y. . SOLUCION DE LOS PROBLEMAS DE APROXIMACION 119 Para los datos (xi .2. . . . . am      (6. . Considerando el subespacio S: S = {y ∈ IRn .2)     =   Ahora. llamando b = (f (x1 ). y ∈ IRm . . . . . . y = Ax. . indica el producto interno usual (tanto en IRn como en IRm ) entonces. Si . p(xn )   1 x1 · · · 1 x2 · · · .8 como veremos en el teorema que sigue. AT y. es decir x. . . . . . . . am ) ∈ IRm+1 que minimice Aa − b . p(xn )) en la norma asociada al producto escalar. . . xm n      a0 a1 . se quiere encontrar un polinomio p ∈ Pm con n > m + 1 que minimice la distancia entre los vectores (f (x1 ). y = n xj yj . . Sea A ∈ IRn×m . . donde A ∈ IRn×(m+1) es la matriz de 6. Ax . . f (xn )) y (p(x1 ). . Si p(x) = am xm + . Lema 6.9. .. Recordemos que AT denota la matriz traspuesta de A. . . la soluci´n de este problema o j=1 puede obtenerse resolviendo las llamadas ecuaciones normales que pueden obtenerse f´cilmente a a partir del Teorema 6. .´ ´ 2. para alg´n x ∈ IRm } u el problema se transforma en hallar y ∈ S tal que y − b ≤ s − b para todo s ∈ S y luego x tal que Ax = y. En el caso del producto interno usual. . En forma gen´rica el problema puede plantearse de la siguiente manera: e Dada A ∈ IRn×m y b ∈ IRn se quiere hallar x tal que Ax − b sea lo menor posible. f (xn )) el problema se reduce a encontrar un vector a = (a0 .

llamemos Aj ∈ IRn a los vectores columna de la matriz A. En efecto. . = x. s = 0 para todo s ∈ S podemos reescribirla o b − Ax0 . Si . Considerando el subespacio S = {y ∈ IRn . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS.11. y o a (ver Ejemplo 6. o ´ Demostraci´n. Es decir Ax 2 = 0. indica el producto interno usual (tanto en IRn como en IRm ) entonces. Como la unica soluci´n del sistema AT Ax = 0 es la trivial. xm ) el vector Ax puede escribirse en t´rminos de las columnas de A por e Ax = m Aj xj . .9. Luego. con lo cual Ax = 0 y por tanto x = 0. Dw y . x = 0. entonces x0 ∈ IRm minimiza Ax − b w si y solo si x0 es soluci´n o j=1 T D Ax = AT D b. si AT Ax = 0 entonces AT Ax. . Para mostrar la existencia y unicidad de un elemento x0 que cumpla con el enunciado. o sea. con x variando en IRm . . y w = n wj xj yj . por el o Teorema 6. x.120 ´ 6. si los vectores columnas de la matriz A son linealmente independientes. 0 = AT (b − Ax0 ).10. luego la condici´n b − y. o equivalentemente. . . m.3 (b)). Como y ∈ S existe x0 ∈ IRm tal que y = Ax0 y s = Ax. son equivalentes (1) x0 ∈ IRm minimiza Ax − b o (2) x0 es soluci´n del sistema AT Ax = AT b. Si el producto interno no es el usual sino que viene dado por pesos wj . s = 0 para todo s ∈ S. por el Lema 6.8 y ∈ S es tal que b − y = min{ b − s } si y solo si b − y. existe x0 solua ci´n del sistema AT Ax = AT b y es unico. si las columnas de A son linealmente independientes resulta Ax = 0 j=1 si y solo si x = 0. x = i=1 yj j=1 i=1 aji xi = y. Ax = 0 ∀ x ∈ IRm . ´ o ´ Observacion 6. Sea A ∈ IRn×m y b ∈ IRn . . .9 tenemos que Ax. o n   m j=1  aji yj  xi = m n AT y. x lo que ocurre si y solo si AT Ax0 = AT b. se deduce que AT A es inversible y ´ o hay una unica soluci´n para el sistema AT Ax = AT b. Adem´s. x2 . Demostraci´n. . Veamos que esto implica que AT A es una matriz inversible. . para x ∈ IRm }. para j = 1. w s∈S ∀ x ∈ IRm . Si x = (x1 . Ax Teorema 6. y por el Lema 6. y = Ax. x = AT b − AT Ax0 ). Ax = 0. del sistema A w w La demostraci´n es an´loga a la del teorema anterior considerando la escritura x.

497x + 0.4 0. despu´s de multiplicar por la transpuesta de A. a f en los p(x) = 0.3 0. queda e 10 5.2 0.497 a0 a1 5.8 0. como presentamos a trav´s de la Figura 6.35 0.5 3.7 0.1 0.45 0.6 = a0 = 0.3067 Es decir la recta que mejor aproxima. Veamos un ejemplo sencillo.7 0.45 0.5 0.2) el sistema a resolver  1  1   1   1   1   1   1   1   1 1 es: 0.8 Siguiendo (6.55 0. este x tambi´n es soluci´n de o e o AT Ax = AT b Este sistema de m × m puede resolverse por el m´todo de eliminaci´n de Gauss o bien por e o m´todos iterativos.1 0.1 0.8 0. en el sentido de minimizar puntos dados es (f (xi ) − p(xi ))2 .1 0.6 0.8 0.3 0.6 0.8 3.55 0. SOLUCION DE LOS PROBLEMAS DE APROXIMACION 121 Notemos que si el problema original Ax = b tiene una soluci´n exacta x.75 0.9 1                a0       =      a1             0.12.4 0.5 0.´ ´ 2.9 0.2 0.9 1 (yj ): 0.5 0.8                 Que.75 0.35 0.3067 .9 0.6 0. e Ejemplo 6.5 5.85 La soluci´n es o a1 = 0.6 0. Se e quiere trazar una recta (p(x) = a0 + a1 x) que aproxime los puntos (aj ): 0.1.5 0.8 0.

vamos a dar una descripci´n de la soluci´n a trav´s de o o o e la proyecci´n ortogonal sobre un subespacio. En efecto. Esta forma de resolver no puede aplicarse. vi vi . k−1 v1 = u1 / u1 . f = 1 para cualquier f ∈ A. . y vk = uk / uk . BS = {r1 . a Si se considera en el espacio V una base ortonormal B = {v1 . m. . . . Teorema 6. . . . vk = i=1 xi vi .14. um } es ortogonal y el conjunto {v1 . vk = xk . para k = 2. n x= i=1 x. uk = rk − i=1 rk . Ahora. . vi vi . . Dada una base de S. vn } cada elemento x ∈ V admite una unica escritura de la forma ´ n x= i=1 xi vi . . en general. r2 . vk = i=1 xi vi . . La ventaja de trabajar con una base ortonormal es que podemos describir f´cilmente los escalares a xi en t´rminos de x y de la base. rm }. . . vm } es una base ortonormal del subespacio S. . Es decir. Para abordar esta clase de problemas necesitamos desarrollar m´s teor´ relacionada con el producto interno a ıa y la idea de ortogonalizaci´n. . Entonces. o ´ Definicion 6. Un subconjunto A de un espacio vectorial V se dice ortonormal si A es ortogonal y adem´s f. . tenemos e n n x. . .122 ´ 6. se consideran u1 = r1 . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS.13. . dado un subespacio S de dimensi´n finita de V . y. una base ortonormal de S puede eno contrarse a partir de una base dada de S mediante el proceso de ortonormalizaci´n de Gramo Schmidt que damos en el siguiente teorema. Luego. . para resolver el problema B. . el conjunto {u1 .

a . x.14 a la base can´nica de Pn . vi vi . Dado x ∈ V y un subespacio S ⊂ V de dimension finita. vj = x.8.3) es suficiente ver que se cumple para s = vj . . cuando S tienen dimensi´n finita.4) En efecto. . j = 1. La unicidad la probamos ´ en el Teorema 6. . . vi vi . x nales qk asociados a dicho producto y los correspondientes polinomios ortonormales pk . obtenemos los polinomios ortogoes decir B = {1. vj − x. xn }. (6. m. Aplicando el proceso de ortogonalizaci´n dado en el Teorema 6. Estos resultados nos permiten encontrar la mejor approximaci´n a una funci´n continua por o o polinomios de un grado dado. (6. en la norma asociada a un producto interno. vj = 0 donde en el ultimo paso hemos usado la ortonormalidad de la base. o o 2 . o Teorema 6. . Veamos que el elemento y ∈ S buscado es m y= i=1 x.3) Demostraci´n. Por o otra parte. Pero m x − y. es claro que y ∈ S ya que es una combinaci´n lineal de elementos de la base y. . . o o Con el siguiente teorema demostramos la existencia de la proyecci´n ortogonal sobre S un o subespacio de V . existe un unico y ∈ S ´ que satisface x − y. Para esto basta considerar el espacio V = C[a. P x nos da la mejor aproximaci´n a x por elementos o del subespacio S en la norma asociada al producto interno. s = 0. . SOLUCION DE LOS PROBLEMAS DE APROXIMACION 123 Demostraci´n. s = 0.14). . vj − i=1 x. Teniendo en cuenta el Teorema 6. vj = x. . . Sea {v1 .´ ´ 2. ∀s ∈ S. . ∀s ∈ S generalizando a espacios con producto interno la noci´n de proyecci´n ortogonal conocida en o o IRn . Estos polinomios est´n dados por. Se hace por inducci´n. b] y el subespacio S = Pn . en un producto interno dado.8 El teorema anterior nos permite definir una aplicaci´n o P : V −→ S que a cada elemento x ∈ V le asigna P x ∈ S de tal forma que x − P x. para verificar (6.15. vm } una base ortonormal de S (que sabemos que existe gracias al o Teorema 6.

La demostraci´n se sigue de todo lo ano terior y por tanto la omitimos. o .10 para el problema discreto. Teorema 6. x2 . (3) qk es ortogonal a todo polinomio de grado menor que k. y. Observemos que. . . . y pk (x) = qk (x)/ qk . primero generar los polinomios ortonormales pj y luego calcular f. est´ dado por p∗ = P f . k−1 p0 (x) = 1/ q0 . o Observemos que esto resuelve simult´neamente los problemas A y B. . a o n p∗ = n i=0 f. En lo que sigue consideramos fijado el producto interno y usamos la notaci´n pk para indicar la o sucesi´n de polinomios ortonormales asociados a dicho producto. .16.4. . . q0 (x) = 1. De o esta forma se tiene un procedimiento alternativo al dado en el Teorema 6. Si f ∈ C[a. . . . a o El orden en que se toman los elementos es importante. pi pi . . para k = 1. . En efecto. tenemos ıa Teorema 6. . . En el caso continuo (problema B) aplicamos la teor´ trabajando en el espacio de dimensi´n infinita ıa o C[a. b] mientras que en el caso discreto (problema A) trabajamos en el espacio de dimensi´n finita o IRn+1 identificando a los valores de una funci´n continua f con el vector (f (x0 ). q1 . f (xn )). q1 . q1 . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. Las conclusiones del teorema son v´lidas si se considera la base can´nica de Pk : B = {1. obtenidos mediante el proceso de Gram-Schmidt aplicado a la base can´nica o dada por las potencias satisfacen las siguientes propiedades. los polinomios ortogonales q0 .17. pi . b] entonces el polinomio p∗ ∈ Pn que satisface n f − p∗ ≤ f − p . xk }. qn . . . donde P : C[a. b] −→ Pn es la proyecci´n ortogonal. Demostraci´n. qk } es una base ortogonal de Pk . es decir pk = qk / qk . definiendo hk (x) = xk . b] con un producto interno. Una vez o obtenidos estos polinomios podemos encontrar la mejor aproximaci´n a una funci´n continua o o utilizando la teor´ general que hemos visto. qk (x) = xk − i=1 hk . . . cuyas propiedades b´sicas resumimos o a en el siguiente teorema. Se sigue del Teorema 6. pi pi (x). Dado el espacio V = C[a. o sea. n n ∀p ∈ Pn . qn . En algunos casos el m´todo basado en el uso de los polinomios ortogonales resulta e mejor respecto de la propagaci´n de errores de redondeo. . (1) qk es un polinomio m´nico de grado k. Para todo k ∈ IN0 . . . . o (2) {q0 . x. . . n. . . . Para resolver cualquiera a de los dos hay que. como este procedimiento puede hacerse para cualquier n ∈ IN lo que se obtiene es una sucesi´n de polinomios ortogonales q0 . .124 ´ 6. . .

n→∞ lim f − p∗ = 0.19. Recordemos que p∗ = o n n i=0 f. pj 2 . Este es el objetivo del siguiente teorema. Si el producto interno en C[a.´ ´ 2. Por lo tanto. de la ortogonalidad entre f − f 2 2 = j=0 f. o . y por lo tanto n p∗ n Entonces. SOLUCION DE LOS PROBLEMAS DE APROXIMACION 125 El teorema de Weierstrass nos permite demostrar que el error entre la f y su mejor aproximaci´n en la norma asociada al producto interno tiende a cero cuando el grado del polinomio o aproximante tiende a infinito. Teorema 6. pj 2 pero por el teorema sabemos que el primer sumando del t´rmino de la derecha tiende a cero e cuando n tiende a infinito con lo que concluye la demostraci´n. (Igualdad de Parseval) Para un producto interno como el del teorema anterior se tiene. g = a f (x)g(x)w(x)dx donde w es una funci´n positiva e integrable en (a. dado ε > 0 existe un polinomio p ∈ Pn (n depende o de ε) tal que max |f (x) − p(x)| = f − p < ε.18. Por el teorema de Weierstrass. n Corolario 6. n Demostraci´n. p∗ n y p∗ se obtiene n n 2 = f − p∗ n 2 + p∗ n = f − p∗ n 2 + j=0 f. ∞ f 2 = j=0 f. a≤x≤b ∞ Entonces f − p∗ n 2 ≤ f −p ≤ f −p 2 = b a w(x)(f (x) − p(x))2 dx b a w(x) b 2 ∞ a w(x) dx ≤ ε2 dx. pi pi . o p∗ −→ f cuando n −→ ∞. pj 2 Demostraci´n. b) entonces. b] est´ dado por a b f.

. existen coeficientes βj tales que n−1 x(rn−1 (x) − qn−1 (x)) + qn (0) = j=0 βj qj (x) y reemplazando en (6.20. qi donde en el ultimo paso hemos usado la ortogonalidad de los qj . resulta xqn−1 . xqi = 0 y en consecuencia βi = 0 para todo i < n−2. Por lo tanto. . Si un producto interno en C[a.126 ´ 6. qn−2 = xqn−1 . qn−2 . qi = (x + βn−1 )qn−1 + j=0 βj qj . xg entonces los polinomios ortogonales m´nicos qn satisfacen la relaci´n de recurrencia o o qn (x) = (x − an )qn−1 (x) − bn qn−2 (x) . o Teorema 6. En efecto. . qn−2 . qn−1 qn−1 . qn−1 forman una base de Pn−1 . An´logamente. tenemos n−2 0 = qn . g = f. e qn (x) = xrn−1 (x) + qn (0) = xqn−1 (x) + x(rn−1 (x) − qn−1 (x)) + qn (0). qn−1 de donde se obtiene la expresi´n para an . (6. a o rn−1 tambi´n lo es. Terminamos el cap´ ıtulo dando una forma m´s eficiente de encontrar los polinomios ortogonales a asociados a un producto interno. Sea n ≥ 2. b] satisface xf. (6. qi = qn−1 . Tenemos entonces. (6. el siguiente teorema muestra que cada polinomio qn se escribe en funci´n de los dos anteriores y por lo tanto la sucesi´n de polinomios ortogonales o o m´nicos puede obtenerese por recurrencia.6) obtenemos n−1 qn (x) = xqn−1 (x) + j=0 βj qj (x).5) Demostraci´n. donde an y bn estan dados por an = xqn−1 . como q0 .7). qn−1 − an qn−1 . 0 = qn . usando (6. como xqi es un polinomio ´ de grado menor que n − 1. para i < n − 2. Finalmente. qi + βi qi .7) Ahora. Pero. qn−1 . qn−1 y bn = qn−1 . . qn−2 − bn qn−2 . qn−1 = xqn−1 . como qn es m´nico.5) se obtiene de (6. qn−2 ∀n ≥ 2 (6.5) y la ortogonalidad de los qj tenemos. o a 0 = qn . Como cero es ra´ del polinomio qn (x) − qn (0) podemos escribir o ız qn (x) − qn (0) = xrn−1 donde rn−1 es un polinomio de grado menor o igual que n − 1. qi = xqn−1 .6) Pero como rn−1 y qn−1 son m´nicos su diferencia resulta un polinomio de grado menor o igual o que n − 2 y por lo tanto. Adem´s. POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. definiendo an = −βn−1 y bn = −βn−2 .

15.8 5 6 7.9 3. qn−2 . EJERCICIOS 127 y por lo tanto. pero como xqn−1 .8 2.   a b (4) Sea A la matriz en IR3×2 dada por A =  c d  . Los productos internos asociados a los problemas A y B satisfacen trivialmente la hip´tesis del teorema.1 8. qn−2 = qn−1 . basta ver que qn−1 . o 3.2 6 26. 5 • el polinomio que resulta de interpolar a f en los puntos anteriores. xqn−2 − qn−1 = 0 lo que resulta del hecho de que xqn−2 − qn−1 es un polinomio de grado menor que n − 1 porque tanto xqn−2 como qn−1 son m´nicos de grado n − 1. graficar simult´neamente f junto con a • los polinomios que aproximan a f en el sentido de cuadrados m´ ınimos en n + 1 2 puntos equiespaciados y tienen grado 5 n y 4 n.3 8. qn−1 . xqn−2 . qn−2 = qn−1 . bn = Para terminar la demostraci´n falta ver que o xqn−1 .3. Concluir que para ciertas aplicaciones puede ser una mala idea aumentar el grado del polinomio de cuadrados m´ ınimos. qn−2 xqn−1 . qn−2 . 1 + 25x2 Para n = 5. hasta hacerlo cercano al grado del polinomio interpolador.9 (b) En cada caso.9 y el polinomio de grado 2 que aproxima en el mismo sentido la siguiente tabla de datos: x -1 0 1 3 6 y 6.2 3.1 1. 1 (2) Considerar la funci´n f (x) = o en el intervalo [-1.1 1. el polinomio de cuadrados m´ ınimos de grado n coincide con el polinomio interpolador. con el polinomio interpolaa dor.21. 10. comparar gr´ficamente.1]. (3) Probar que si se tienen n + 1 puntos distintos. o ´ Observacion 6. Mostrar que e f .1 2. usando Matlab. Ejercicios (1) (a) Encontrar el polinomio de grado 1 que aproxima en el sentido de cuadrados m´ ınimos la siguiente tabla de datos: x 0 1 2 3 4 5 6 7 8 9 y -.

3 23. en el sentido de cuadrados m´ ınimos . (b) Los rangos de las matrices AT A y A coinciden.1 0.3 -0. (a) det(AT A) = (ad − bc)2 + (af − be)2 + (cf − ed)2 . 2. 5 y 10. 1]. o 2 +bx+c . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. (c) Utilizando los mismos puntos. π 0 (a) Graficar la funci´n con el comando erf de Matlab en el intervalo [−5. (7) Aproximar los datos de la tabla siguiente erf(t) ∼ c1 + c2 e−t + c3 2 2 2 2 x -1 0 1 2 y 8.4 . hallar la aproximaci´n de cuadrados m´ o ınimos que utiliza el siguiente modelo: e−t e−t e−t + c4 + c5 . (b) y = a2x + b3x + c.2 7. considerando 15 puntos equiespaciados en el intervalo [−1. 5].5 con un modelo de la forma: f (x) ∼ a ebx .3 con funciones del tipo: (a) y = a2x + b3x . (6) Considerar erf : IR → IR la funci´n dada por o x 2 2 erf(x) = √ e−t dt.1 3 1. Graficar erf junto con estos polinomios en el intervalo [−5.1 .9 .128 ´ 6.2. o (8) Aproximar los datos de la tabla siguiente x -1 0 1 2 y .1.0. 1+t (1 + t)2 (1 + t)3 Comparar el error obtenido al aproximar por la funci´n hallada con el del item o anterior. en el sentido de cuadrados m´ ınimos para la funci´n ln(f (x)). e x→±∞ o ınimos con polinomios de grado (b) Ajustar la funci´n erf en el sentido de cuadrados m´ 1. Observar que la aproximaci´n o es mala fuera del intervalo [−1.0. (c) El polinomio de grado 1 que aproxima en el sentido de cuadrados m´ ınimos una tabla de 3 datos es unico.7 con un modelo de la forma: f (x) ∼ −eax para la funci´n ln(f (x)). ´ (5) Aproximar la siguiente tabla de datos en el sentido de cuadrados m´ ınimos x -1 0 2 3 y 0. 1]. 5] y verificar o num´ricamente que lim erf(x) = ±1.

π] generado por {1. g >= 0 f (x)g(x)dx. g >= −1 f (x)g (x) dx (a) Probar que < . g >= 0 f (xj )g(xj )wj . . g >= a f (x)g(x)w(x)dx Probar que S = {1. · · · . g >= −∞ e−x f (x)g(x)dx. (b) < f. el espacio generado por {x. g >= (f (0) + g(0))2 1 (c) < f. g > cualquiera de los siguientes productos escalares: n b (a) < f. son productos internos. 2 2 2 2 (a) Probar que < . f (x) = x (14) Sea S el subespacio de las funciones derivables definidas en el intervalo [−π. (c) Hallar la mejor aproximaci´n en el sentido de cuadrados m´ o ınimos sobre S3 para 4 y para g(x) = 1. calcular los prie meros cuatro polinomios m´nicos ortogonales con respecto al producto escalar: o ∞ < f. x. g >= f (0)g(0) + 0 f (t)g (t)dt (d) < f. 1]}. a siendo X = {polinomios de grado menor o igual a 1 definidos en[0. (12) Polinomios de Hermite. . (15) (a) Probar que el conjunto de funciones: {1. (b) Hallar una base ortonormal para S. m ∈ IN} es ortogonal con el producto escalar 2π < f. (b) Hallar una base ortonormal para S3 . x3 . Utilizando el m´todo de Gram-Schmidt. x2 . cos(mx). sin(x)} y considerar π π π π < f. g >= f (− )g (− ) + f (0)g (0) + f ( )g( ). (a) < f.3. . x2 . (c) Hallar la mejor aproximaci´n en el sentido de cuadrados m´ o ınimos sobre S para 3 f (x) = sin(2x). 2 (13) Considerar 1 < f. >: X ×X → IR. cos(x). > es un producto interno en Sm . g >= f (0) + 2g(0) (b) < f. k. . y calcular las normas de cada una de estas funciones. g >= 0 e−x f (x)g(x)dx. (11) Polinomios de Laguerre. g >= f (0)g(0) + f (1)g(1) (10) Sea < f. g(x) = cos(2x) y h(x) = 2 sin(2x) − 5 cos(2x). sin(kx). > es un producto interno en S. Repetir el ejercicio anterior con el producto escalar ∞ < f. . EJERCICIOS 129 (9) Decidir cu´les de las siguientes aplicaciones < . xm }. xn } no puede ser un conjunto ortogonal para n ≥ 2.

con el producto escalar f (x)g(x) √ dx. (17) Sea Tj el polinomio de Tchebychev de grado j. k=1 Probar que el polinomio k=1 ck Tk−1 (x) − 0. m seg´n o u cj = m 1 2 m m f (xk )Tj−1 (xk ). Notar que esta f´rmula proporciona una manera m´s directa de encontrar el polio a nomio interpolador en los ceros de Tm . k = 1. Para una funci´n f : [−1. (16) Hallar los primeros 5 t´rminos de la expansi´n en serie de Tchebychev para la funci´n e o o f (x) = |x|. Considerar las relaciones de ortogonalidad discretas para ´stos polinomios: e  m i=j  0 m/2 i = j = 0 Ti (xk )Tj (xk ) =  m i=j=0 k=1 < f.130 ´ 6. . . POLINOMIOS ORTOGONALES Y APROXIMACION POR CUADRADOS M´ INIMOS. 1] → IR se definen m coeficientes cj . . . .5c1 interpola a f en las ra´ ıces de Tm . . g >= donde {xk . (b) Verificar la ortogonalidad y calcular la norma de los polinomios de Tchebychev. . Graficar en el intervalo [−1. m} es el conjunto de ceros de Tm . 1 − x2 −1 (Sugerencia: usar el cambio de variables u = arcsin(x)). 1]. j = 1. . (j ∈ IN). . (Sugerencia: usar Ejercicio 3).

pn (x) = i=0 f (xj ) j (x). . dada una funci´n f ∈ C[a. . trigonom´tricas. En los cursos elementales de C´lculo se aprende que el valor a f (x)dx puede a obtenerse a partir de una primitiva de f mediante la regla de Barrow. en muchos casos no es posible encontrar una primitiva expresable en t´rminos de funciones conocidas. . el o a o cual consiste en elegir el polinomio aproximante como uno que interpole a f .3)). Para esto se eligen en primer lugar n + 1 puntos x0 . a (2) Toda funci´n continua puede aproximarse por polinomios. Sabemos que existe un unico pn ∈ Pn tal que ´ pn (xj ) = f (xj ) para j = 0. n y definimos entonces la regla de integraci´n num´rica Q(f ) por o e b Q(f ) = a n pn (x) dx. b]. En consecuencia ser´ necesario recurrir a las llamadas reglas de integraci´n num´rica o de a o e cuadratura. . o sea. Si escribimos pn en la forma de Lagrange (ver (5. b]. esta situaci´n se da en una gran a o variedad de funciones. tenemos b n n b n j (x) dx b a pn (x) dx = a j=0 f (xj ) j (x) dx = j=0 f (xj ) = j=0 a Aj f (xj ). e 2 b Un ejemplo es el de la integral a e−x dx que juega un papel muy importante en la teor´ de ıa −x2 no tiene primitiva expresable mediante probabilidades. Sin embargo.CAP´ ıTULO 7 Integraci´n num´rica o e En este cap´ ıtulo estudiamos m´todos para aproximar el valor de una integral definida en un e b intervalo [a. Si bien este es un ejemplo cl´sico. b] aproximamos el valor o es alg´n polinomio que esta cerca de f . La idea b´sica para construir estas reglas es reemplazar la funci´n por un polinomio a o puesto que: (1) Es f´cil integrar polinomios. . u b a f (x)dx por b a p(x)dx donde p A continuaci´n describimos el procedimiento m´s usual para construir reglas de integraci´n. . o Entonces. . . xn ∈ [a. . e logaritmos y exponenciales). donde j (xj ) =1y j (xi ) = 0 para i = j. Puede demostrarse que la funci´n e o composiciones y operaciones algebraicas de las funciones conocidas (polinomios.

. . para esto consideramos h = (b−a)/n y xj = a+jh con j = 0. . obtenemos las f´rmulas de cuadratura usuales Q para aproximar una integral buscada. . Cuando los nodos se toman equiespaciados. A1 .132 ´ ´ 7. el problema se conoce como las F´rmulas de Newton-Cˆtes. o de la forma: b n f (x)dx a ∼ Q(f ) = j=0 Aj f (xj ) (7. En otro caso. o es exacta. dos maneras de determinar una f´rmula de cuadratura como en (7. . . . A1 . para o a o todo polinomio en Pn . Es decir. o Notemos que si f es un polinomio de grado n entonces. .1). . xn } y los pesos {A0 . . una vez calculados se usan para o aproximar la integral de cualquier funci´n f . . Este m´todo e se conoce como F´rmulas de cuadratura gaussiana. x1 . . n − 1 o se llama “f´rmula de Newton-Cˆtes abierta” (no incluye a los extremos del intervalo). xn } est´n prefijados. . Estas o o f´rmulas ser´n exactas cuando el polinomio interpolador coincida con la funci´n f . Los pesos Aj = a j (x) dx dependen s´lo de los nodos xj . . probablemente la elecci´n m´s natural para los nodos xj es o a tomarlos equiespaciados en el intervalo [a. . la f´rmula que obtuvimos para aproximar la integral ser´ exacta sobre los polinomios o a de grado menor o igual que n. esencialmente. b] → IR por la integral de un o polinomio interpolador de grado n. . An }. esto es. . An }. como la interpolaci´n en n + 1 puntos. o 1. x1 . . .1) donde los puntos xj son llamados los nodos y los Aj los pesos de la integraci´n num´rica o e (j = 0. Hay. . n. F´rmulas de Newton-Cˆtes o o Si queremos aproximar la integral una funci´n continua f : [a. En este caso. . habr´ que estudiar el error que se comete al utilizar a este tipo de aproximaciones. . . . . . o • Los nodos {x0 . n). estudiaremos para cada f´rmula de cuadratura el error o que viene dado por: b b b b R(f ) = a f (x) dx − a pn (x) dx = a (f − pn )(x) dx. b]. . INTEGRACION NUMERICA Luego. . o o • Se buscan a la vez los nodos {x0 . Una f´rmula de aproximaci´n basada en estos puntos se conoce como “formula o o de Newton-Cˆtes cerrada” y si los puntos son tomados como xj = a + jh con j = 1. se trata de hallar los pesos a {A0 . .

7 −0.4 −0.9 −0. 2 (7.1. ¿Cu´l es el o a valor aproximado de la integral en este intervalo que da la regla de trapecios? Seg´n vimos.3 −0. f (b)). De ah´ el nombre de o ı trapecios (ver Figura 7. FORMULAS DE NEWTON-COTES 133 1. b] considerando nodos equiespaciados.1). Comencemos interpolando por una recta o por una funci´n cuadr´rica. 0].1.1 0 Figura 7.8 −0. Veamos primero las f´rmulas de cuadratura o o o si se considera el intervalo [a.2) Ejemplo 7. Regla de los Trapecios simple cerrada La recta est´ dada por p(x) = f (a) + a b a f (b) − f (a) (x − a). 2 2 2 .´ ˆ 1. 2 es decir: b f (x)dx a ∼ T (f ) = (b − a) (f (a) + f (b)). f (a)) con (b. integrado p obtenemos b−a p(x) dx = f (a)x + f (b) − f (a) (x − a)2 b b−a 2 a f (b) − f (a) = f (a)(b − a) + (b − a). esta o f´rmula tambi´n suele llamarse de trapecios cerrada.6 −0.5 −0. o e 7 6 5 4 3 2 1 0 −1 −0. se tiene u 0 −1 x3 − 4x + 4 dx ∼ 1 11 0 − (−1) (f (−1) + f (0)) = (7 + 4) = . b] la integral de la funci´n f por la de la recta que une los puntos (a. Consideremos la funci´n f (x) = x3 − 4x + 4 en el intervalo [−1.1. F´rmulas simples de Newton-Cˆtes. Como los nodos de interpolaci´n son los extremos del intervalo.2 −0. o a Regla de Trapecios: es la que se obtiene si se reemplaza en el intervalo [a.

b − x1 = 2h. 2. x2 − x1 b−a 3 (´sto es: b − a = 3h.25. en lugar de considerar como nodos los extremos del intervalo [a. b] en tercios. b] vamos a usar dos puntos interiores equiespaciados {x1 .7 −0.2. x2 − x1 = h. sustitu´ ımos la funci´n f por la recta que la interpola en esos nodos (ver Figura 7. es decir en subintervalos de longitud h = b−a .6 −0.5 −0. para h = b−a . Regla de Trapecios simple abierta b a p(x) dx = f (x1 )x + f (x2 ) − f (x1 ) (x − x1 )2 b x2 − x1 2 a f (x1 ) − f (x2 ) (2h)2 − (−h)2 = f (x1 )3h + h 2 f (x1 ) − f (x2 ) 3h2 = 3hf (x1 ) + h 2 f (x1 ) + f (x2 ) = 3h 2 Luego. 4 0 23 4 con lo cual se puede M´s adelante nos dedicaremos al estudio del error. De esta manera 3 consideramos {x1 .4 −0.3 −0. f(x1)) 6 (x2.8 −0. x2 }. e 7 (x1. Regla de Trapecios abierta: en este caso. b] y recordando que h = y a − x1 = −h) tenemos f (x2 ) − f (x1 ) (x − x1 ). Para ´sto partimos o e al intervalo [a.1 0 Figura 7. x2 } los extremos del intervalo medio. R(f ) = 1 = 0. es sencillo calcular el valor exacto de −1 x3 − 4x + 4 dx = calcular exactamente el error que se comete. f(x2)) 5 4 3 2 1 0 −1 −0.134 ´ ´ 7.2). Luego. 3 . Veamos ahora una peque˜a modificaci´n a a n o la regla de trapecios. INTEGRACION NUMERICA En este caso. El polinomio de grado 1 que interpola a f en esos nodos es p(x) = f (x1 ) + Integrando p en [a.2 −0.9 −0. es decir xj = a + jh para j = 1.

8333. Para ´sto e o e necesitaremos el siguiente lema.3. 0].. se consideran los extremos del intervalo y su punto medio. − 4x + 4 dx = 23 4 podemos asegurar que el error Regla de Simpson: es la que se obtiene si se reemplaza en el intervalo [a.´ ˆ 1. FORMULAS DE NEWTON-COTES 135 b f (x)dx a ∼ 3h (f (x1 ) + f (x2 )).08333. . de cometido es. 2 esta f´rmula tambi´n suele llamarse de Simpson cerrada. El valor 0 −1 x3 − 4x + 4 dx ∼ 1 2 1 1 8 8 1 4 1 53 (f (− ) + f (− )) = − + +4− + +4 = = 5.. 2 3 3 2 27 3 27 3 2 3 0 3 −1 x Usando el valor exacto. o e 7 (a. b] la integral de la funci´n f por la de una funci´n cuadr´tica que interpola a f .3) Ejemplo 7. Como para dar un unico polinomio o o a ´ de grado 2 que interpole a f se necesitan tres nodos. 1] y derivar de ´sta la f´rmula general.2. o o 2 La regla de trapecios abierta tienen por nodos {x1 = − 3 .. 0] es 1 3. Regla de Simpson Para simplificar los c´lculos. Como a y b forman parte de los nodos.. R(f ) = −0. {a. queremos hallar la f´rmula que le corresponde a una funci´n cona o o tinua cuando se considera el intervalo [−1. Consideremos nuevamente la funci´n f (x) = x3 − 4x + 4 en el intervalo [−1.5 0 0.3). 2 (7.5 2 Figura 7. f(a+h)) 2 1 0 −1 −0. f(b)) 4 3 (a+h. x2 = − 1 } con h = 3 aproximado de la integral de f en [−1. ya calculado.5 1 1. es decir. a−b . o Queremos calcular la aproximaci´n que da la f´rmula de Trapecios abierta. f(a)) 6 5 (b. b} (ver Figura 7.

Si Q0 (f ) = j=0 1 −1 f (x) Aj f (tj ) es una f´rmula de cuadratura para aproximar la integral o dx entonces. 1}. 1 −1 p(x) dx = 2 a0 + 2 a2 = 6a0 + 2a2 . . para j = 0. o o 1 Ahora s´ procedemos a dar la f´rmula de Simpson. Luego. . ∀j = 0. que aproxima a −1 f (x) dx. o o b 1 f (x) dx = a −1 f (αt + β) α dt ∼ Q0 (g) (7. Si p(x) = a0 + a1 x + a2 x2 . podemos re-escribir la aproximaci´n en [a. . . b 1 f (x) dx = a −1 f (αt + β) α dt. . n n Q0 (g) = j=0 Aj g(tj ) = j=0 αAj f (αtj + β). n. usando el ı. b] dada en (7.5) con. n. b]. o polinomio interpolador p en los nodos equiespaciados {−1. con α = (b−a)/2 y β = (a+b)/2 o que transforma el intervalo [−1. 0.3. . tenemos que xj = (b − a) (a + b) tj + 2 2 ∀j = 0.4). 2 (7. As´ ı. Si llamamos xj = αtj + β. Aplicando la f´rmula Q0 a la funci´n g(t) = αf (αt + β) para el intervalo [−1. 1] en [a. . .136 ´ ´ 7. 1] tenemos. 2 2 se tiene una f´rmula de cuadratura para el intervalo [a. para (b − a) (a + b) tj + . . Consideremos el cambio de variables x = αt+β. INTEGRACION NUMERICA n Lema 7. . .5) como en la f´rmula (7. n. 3 6 . b]: o xj = b n f (x) dx a ∼ Q(f ) = j=0 (b − a) Aj f (xj ).4) Demostraci´n. .

2 2 2 p(x) dx = [f (−1) + 4f (0) + f (1)].4. por el Lema 7.4 extendemos la f´rmula a cualquier intervalo [a.´ ˆ 1. De esta manera 4 consideramos {x1 . 2 2 2 8 4 En este caso el c´lculo es exacto puesto que al calcular la integral de f en [−1. b]. y a2 = 2f (− 1 ) − 4f (0) + 2f ( 2 ). x3 } los extremos de los intervalos medios. luego h = 3 y a + h = a+b = 1 . a0 = f (0). 0. b]. 3 se tiene: S(f ) = (7. a1 = Luego. 3. 2] obtenemos por a resultado 39 . ¿Cu´l o a es el valor que se obtiene al aproximar la integral de f en este intervalo si se emplea la f´rmula o de Simpson cerrada? Para este intervalo tenemos. 1] y luego por el Lema 7.6) Ejemplo 7. 6 b−a 2 . a1 = f ( 1 ) − f (− 2 ). x2 . b] la f´rmula de Simpson simple cerrada: o S(f ) = (b − a) f (a) + 4f ((a + b)/2) + f (b) . Si escribimos la f´rmula en t´rminos de la distancia entre un nodo y otro. podemos hallar el polinomios de grado 2 que interpola a una funci´n o en el intervalo [−1. Para la funci´n f (x) = x3 − 4x + 4 consideremos ahora el intervalo [−1. 6 −1 1 f (x) dx −1 ∼ Ahora.4). sabemos que p(x) = a0 + a1 x + a2 x2 verifica el sistema:      1 −1 1 a0 f (−1)  1 0 0   a1  =  f (0)  1 1 1 a2 f (1) Por lo tanto. 2. o En este caso. 1 }. (ver Figura 7. b] en cuartos.4. 2 2 . FORMULAS DE NEWTON-COTES 137 Por otro lado. y 2 2 1 1 resultan a0 = f (0). esta f´rmula recibe el o nombre de Simpson abierta. Si procedemos como antes. el polinomio p(x) = a0 + a1 x + a2 x2 interpola a f en los nodos {− 1 . h = o e h f (a) + 4f (a + h) + f (b) .6) o 2 2 2 nos da 1 1 17 39 1 S(f ) = f (−1) + 4f ( ) + f (2) = 7 + 4 + 4] = . b − a = 3. es decir xj = a + jh para j = 1. se tiene para un intervalo [a. 1 f (1) − f (−1) f (−1) − 2f (0) + f (1) y a2 = . 2]. es decir en subintervalos de longitud h = b−a . entonces la f´mula (7. Como a y b no forman parte de los nodos. 4 Regla de Simpson abierta: es la que se obtiene al reemplazar f por un polinomio de grado 2 que la interpole en nodos equiespaciados en el interior del intervalo [a. Para ´sto partimos e al intervalo [a.

f(a+3h)) 0 −1 −0. Regla de Simpson abierta Luego.4. 3 Ejemplo 7.138 ´ ´ 7.6. Esto motiva la siguiente definici´n. Consideremos nuevamente la funci´n f (x) = x3 − 4x + 4 en el intervalo [−1. −1 p(x) dx = 2 3a0 + a2 = 2 2f (− 1 ) − f (0) + 2f ( 1 ) . a + 3h = 5 . Como h = 2 −1 b−a 4 3 = 4 . f(a+2h)) 2 1 (a+3h. Al pasar a un intervalo [a. f(a+h)) 5 4 3 (a+2h.5 0 0. as´ tenemos ı 4 2 4 x3 − 4x + 4 dx 1 5 319 17 61 624 39 1 − +2 = = .5. si a p(x) dx = Q(p) para todo polinomio p ∈ Pk y no para Pk+1 . o Queremos hallar una aproximaci´n de la integral de f en dicho intervalo por medio de la regla o de Simpson abierta. b] 3 3 2 2 por medio del Lema 7. entonces a + h = − 1 .4 y escribiendo la f´rmula en t´rminos del paso h = b−a obtenemos. a + 2h = 1 .5 2 Figura 7.5 1 1. . o n ´ o Definicion 7. Decimos que una f´rmula de cuadratura Q(f ) = j=0 b Aj f (xj ) tienen grado de exactitud k. 2]. a Es claro que la f´rmula de Simpson es exacta para polinomios de P2 . INTEGRACION NUMERICA 9 8 7 6 (a+h. ∼ 1 2f (− ) − f ( ) + 2f ( ) = 2 4 2 4 64 8 64 64 4 que vuelve a ser un c´lculo exacto. o e 4 b 1 f (x) dx a ∼ 4h 2f (a + h) − f (a + 2h) + 2f (a + 3h) . al igual que la f´rmula de o o Trapecios lo es para polinomios de P1 .

Tenemos 2 x3 dx = 0 = [(−1)3 + 4(0)3 + (1)3 ].. . . a Ejemplo 7. Toda f´rmula de cuadratura o a b n f (x) dx ∼ Q(f ) = j=0 Aj f (xj ) es lineal. f y g funciones. xk } y no lo es para el polinomio xk+1 . . b] la integral de αf + g para todo α ∈ IR. En virtud de este resultado. x4 . x. 6 −1 1 2 2 1 x4 dx = = = [(−1)4 + 4(0)4 + (1)4 ].9. o 1 2. Tambi´n podr´ e ıamos buscar otras f´rmulas o interpolando con polinomios de mayor grado. por Observaci´n 7. . . . Esto queda expresado en la siguiente o observaci´n. x2 . Es decir. y esto puede hacerse. 1]. veamos cu´l es el error o a que se comete al utilizarlas. o Es claro que las f´rmulas de Simpson. son exactas para polinomios o de P2 . .8. . o e sin perder generalidad. . Las f´rmulas de Trapecios y Simpson se obtienen de integrar el o polinomio interpolador de grado 1. gracias al Lema 7. una f´rmula de cuadratura tiene grado de exactitud k indepena o dientemente del intervalo [a. 5 3 3 −1 Luego. . Estimaci´n del error o Antes de estudiar c´mo pueden mejorarse las aproximaciones obtenidas. . podemos reducir el estudio del grado de exactitud al comportamiento de la f´rmula sobre una base del espacio de polinomios. basta ver qu´ sucede con x3 .7. b] para el cual est´ calculada.4. tanto abiertas como cerradas. Esto es. Luego.´ 2. en el intervalo [−1. Adem´s. la igualdad b a n xm dx = j=0 Aj xm j debe verificarse para todo m = 0. 2 respectivamente. Q(αf + g) = αQ(f ) + Q(g) y este valor aproxima en [a. o ´ Observacion 7. ESTIMACION DEL ERROR 139 ´ Observacion 7. la f´rmula de Simpson cerrada tiene grado de exactitud k = 3. Se quiere calcular el grado de exactitud de la f´rmula de Simpson cerrada. b En lo que sigue notaremos por I(f ) = a f (x) dx. . k y no para m = k + 1. Lo mismo suceder´ para o a la f´rmula abierta. B = {1. Una f´rmula de cuadratura Q tiene grado de exactitud k si y solo si es exacta o para la base de Pk .8.

b] tales que g no cambia de signo.4 da. 12 b f (ξ) W2 (x) dx 2! Notar que hay una forma directa de calcular a (x − a)(x − b) dx que es calcularla por partes. si Q es una f´rmula de cuadratura como en (7. si h = b − a es la distancia que hay entre los dos nodos.10. y por tanto W2 (x) = (x − a)(x − b). Si g.140 ´ ´ 7. que no cambia de signo en [a. h son funciones continuas en [a. o Teorema 7. b) tal que b b g(x)h(x) dx = h(η) a a g(x) dx. para cualquier funci´n f ∈ C n+1 [a. Para calcular el error de la regla de los trapecios recordemos que los nodos son {a. (n + 1)! Error para la Regla de Trapecios: Para estimar el error citamos el siguiente teorema del que omitimos dar una demostraci´n. Si derivamos (x − b) e integramos (x − a). el error puede expresarse por . 6 Finalmente. tenemos b (x − a)(x − b) dx = (x − b) a (x − a)2 2 b a b − a (x − a)2 (x − a)3 dx = − 2 6 b a =− (b − a)3 . entonces existe η ∈ (a. Luego. INTEGRACION NUMERICA El Teorema 5. Es decir b R(f ) = a f (n+1) (ξ) Wn+1 (x) dx.1) podemos expresar el error de integraci´n o o por b R(f ) = I(f ) − Q(f ) = a (f − pn )(x) dx. b]. (Valor Medio Integral Generalizado). b R(f ) = I(f ) − Q(f ) = a f (η) b = (x − a)(x − b) dx 2 a f (η) =− (b − a)3 . b}. b] una f´rmula que mide el error cuando o o se considera su polinomio interpolador pn ∈ Pn en lugar de f : En (x) = f (x) − pn (x) = f (n+1) (ξ) Wn+1 (x) (n + 1)! (con ξ ∈ (a. b) que depende de) x. entonces usando el teorema anterior.

Definamos el polinomio c´bico auxiliar. 2 ]. |R(f )| = 8 20 h3 |f (η)| ≤ 10 = = 6. |f (x)| ≤ 2. x2 . 12 para alg´n η ∈ (a. x1 . 1]? o h3 f (η) para 12 1 alg´n η ∈ (0. f (x) = x4 − x2 + 2x + 3 y f (x) = 12x2 − 2. y el valor que arroja la f´rmula es T (f ) = o 15 2 (f (−1) + f (1)) = 6 y el error real es 0. 2 Sean x0 = a. Estimar el error cometido al aproximar 02 x4 − x2 + 2x + 3 dx por la f´rmula o de trapecios cerrada.. p3 (x1 ) = f (x1 ). como la regla de Simpson es exacta en polinomios de grado a 3. 1].666. ¿Cu´l es el valor de dicha aproximaci´n? ¿Qu´ an´lisis se puede hacer si a o e a se considera la misma funci´n en el intervalo [−1.81250 A veces.. p3 (x) como aquel u polinomio que verifica p3 (x0 ) = f (x0 ). Por un lado |f (x)| = |12x2 − 2| ≤ 10.. b]. |R(f )| = h3 1 1 |f (η)| ≤ 2 = 0. puesto que alcanza u 2 su valor m´ximo en el extremo izquierdo del intervalo.. 12 12 3 1 Aunque −1 x4 − x2 + 2x + 3 dx = 86 = 5. a 1 Tenemos h = 2 . si queremos estimar el error o cometido al considerar x ∈ [−1. (dejamos como ejercicio probar que un tal p3 existe). acotamos |f (x)| para todo x ∈ [0.´ 2.. 2 Error para la Regla de Simpson: es un poco m´s dif´ de analizar pues el polinomio a ıcil W3 (x) = (x − a)(x − a+b )(x − b) cambia de signo en [a. p3 (x2 ) = f (x2 ). Observemos que S(f ) = S(p3 ) pues p3 interpola a f en x0 . ESTIMACION DEL ERROR 141 R(f ) = − h3 f (η). Como R(f ) = − Luego. Esto es. x1 . Para x fijo distinto de x0 ..2666.020833. Por ejemplo. no logramos un resultado muy fino.7) Ejemplo 7. 12 8 12 61 16 ) 1 El valor de la aproximaci´n est´ dado por T (f ) = 4 (f (0) + f ( 1 )) = 1 (3 + o a 2 4 = 3. b).11.. tenemos que S(p3 ) = I(p3 ). as´ a ı.7333. entonces I(f ) − S(f ) = I(f ) − S(p3 ) = I(f ) − I(p3 ). x1 = (a + b)/2 y x2 = b. al estimar el error perdemos informaci´n. Adem´s. Para acotar esto necesitamos acotar f (x) − p3 (x). b] por .. u 1 (7. definimos φ(t) para t ∈ [a. 1 ). x2 . p3 (x1 ) = f (x1 ). pues alcanza su valor m´ximo en los extremos del intervalo y h = b − a = 2.

90 2 . 4! f (iv) (η) b (x − x0 )(x − x1 )2 (x − x2 ) dx. acotamos |f (x)| para todo x ∈ [0. Por construcci´n a o 4 encontramos que existe φ (x1 ) = 0.. Por el teorema de Rolle φ tiene al menos tres ceros en (a.74951. Luego. 1). |4x4 − 12x2 + 3| ≤ 5 en a [0. llamando h = (b − a)/2. e−x ≤ 1 y por otra parte puede verse que |4x4 − 12x2 + 3| alcanza su valor m´ximo en el extremo superior del intervalo. a ı Tenemos h = 1 . b) que est´n entre los cuatro ceros de φ.12. 15 Entonces R(f ) = I(f ) − S(f ) = I(f ) − I(p3 ) = 1 −h5 (iv) f (iv) (η) −4h5 ( )= f (η).142 ´ ´ 7. Si f es C un punto ξ ∈ (a. x1 .. INTEGRACION NUMERICA φ(t) = f (t) − p3 (t) − (f (x) − p3 (x)) (t − x0 )(t − x1 )2 (t − x2 ) (x − x0 )(x − x1 )2 (x − x2 ) . 4! 15 90 Ejemplo 7. 1]. x0 . b]. as´ 2 1 0 2 e−x dx 2 ∼ 1 1 1 1 (f (0) + 4f ( ) + f (1)) = (1 + e− 4 + e−1 ) = 0. o f (x) − p3 (x) = b I(f ) − I(p3 ) = O bien. De la definici´n de φ esto es equivalente a o f (iv) (ξ) (x − x0 )(x − x1 )2 (x − x2 ). 1] y por lo tanto 1 1 5 |R(f )| ≤ 20 = 0. x2 y x. Aproximar 0 e−x dx mediante la regla de Simpson cerrada y estimar el error 2 que se comete al efectuar dicho c´lculo. en consecuencia φ tiene al menos cuatro ceros. por el valor medio a f (iv) (ξ) (x − x0 )(x − x1 )2 (x − x2 ) dx.. I(f ) − I(p3 ) = b a (x − x0 )(x − x1 )2 (x − x2 ) dx = −4h5 . Como R(f ) = para alg´n η ∈ (0.. 4! Como la funci´n (x − x0 )(x − x1 )2 (x − x2 ) no cambia de signo en (a. 6 2 6 Para estimar el error consideramos f iv (x) = 4(4x4 − 12x2 + 3)e−x . f (x) = e−x . u 2 2 −h5 (iv) f (η) 90 Por una parte tenemos que en [0. b) podemos obtener. Entonces φ(x) tiene al menos cuatro ceros en [a. 1].006944. b) tal que φ(iv) (ξ) = 0. 4! a Ahora observamos que.

Como vimos en a e el Cap´ ıtulo 5. Lema 7. . b] en peque˜os subintervalos o n y en cada uno de estos aplicar una aproximaci´n del tipo Trapecios o Simpson. . La idea general es como sigue. b]) y sean {a0 . . Sea g ∈ C([a.13. entonces se tiene . b] en subintervalos eligiendo puntos xj con a = x0 < x1 < . podemos aumentar el n´mero de o u nodos. .´ 3. < xn = b. es el de partir el intervalo [a. la f´rmula de cuadratura ser´ o a b n−1 n−1 f (x) dx ∼ a j=0 Qj (f ) con error R(f ) = j=0 Rj (f ). F´rmulas de cuadratura compuestas o Si queremos aumentar la presici´n al aproximar a f (x) dx. o Rj (f ) = Ij (f ) − Qj (f ) obtenemos n−1 n−1 R(f ) = j=0 Rj (f ) = j=0 b (Ij (f ) − Qj (f )) n−1 = a f (x) dx − j=0 Qj (f ) Esto es. los que se trasladar´ al c´lculo de la integral. Veremos m´s adelante que ´sto no siempre es conducente. aumentar el grado del polinomio interpolador puede producir errores grandes en la aproximaci´n.8) Para dar una exprexi´n de las f´rmulas y estudiar simult´neamente el error cometido en cada o o a caso vamos a necesitar el siguiente lema. Esto es. . tk } ∈ [a. considerar n + 1 nodos y el polinomio de Pn que interpola a f en esos nodos. (7. Otro m´todo. . . Este ultimo o ´ procedimiento se conoce como “cuadraturas compuestas”. b]. ak } constantes con el mismo signo y {t0 . . FORMULAS DE CUADRATURA COMPUESTAS 143 3. Sabemos que b n−1 xj+1 b I(f ) = a f (x) dx = j=0 xj f (x) dx. con n ∈ IN grande. Partimos el intervalo [a. . Ahora si para cada xj+1 Ij (f ) = f (x) dx xj tenemos una f´rmula de cuadratura Qj (f ) y consideramos el error respectivo. que es que que o ıan a e vamos a desarrollar en esta secci´n. .

k. . . luego tomamos los nodos xj = a + jh para j = 0. Esto nos permitir´ aprovechar las f´rmulas ya calculadas a o (Trapecios y Simpson) dado que la distancia entre dos nodos. definimos la funci´n G : [a. Adem´s. Entonces. que tambi´n llamaremos ‘paso h’ e no var´ ıa. luego para cada j : (aj ≥ 0) (sumando) m m aj k ≤ ≤ ≤ g(tj ) aj g(tj ) k ≤ ≤ M M aj k m j=0 aj g(tj )aj j=0 ≤ M j=0 aj Ahora. por el teorema del valor medio. . 2 . Regla de Trapecios compuesta: para la f´rmula cerrada se tiene que tanto a como b son o nodos. b] u a a k k es M j=0 aj y el valor m´ ınimo es m j=0 aj . existe η ∈ [a. b] → IR.2) nos da para cada integral o xj+1 f (x) dx xj ∼ Tj (f ) = h (f (xj ) + f (xj+1 )). . Considerao remos el caso de nodos equiespaciados. . b]. como G es un m´ltiplo de g. k es decir g(η) k aj = j=0 j=0 aj g(tj ). o k G(x) = g(x) j=0 aj . como quer´ ıamos demostrar.144 ´ ´ 7. Sea m = min g(x) y M = max g(x) en [a. Ahora estamos en condiciones de desarrollar las f´rmulas de cuadratura compuestas. b]. La f´rmula (7. el valor m´ximo de G en [a. u Demostraci´n. . Podemos suponer que aj ≥ 0 para o todo j = 1. b]. b] tal que k G(η) = j=0 aj g(tj ). . . INTEGRACION NUMERICA k k aj g(tj ) = g(η) j=0 j=0 aj para alg´n η ∈ [a. n − 1 con h = (b − a)/n. resulta continua en [a.

.10) Ejemplo 7.10). Debeu o 2 − 2)e−x2 . n−1 T (f ) = j=0 h (f (xj ) + f (xj+1 )) 2 = = h [f (x0 ) + f (x1 ) + f (x1 ) + f (x2 ) + . gracias al Lema 7. Como e−x2 ≤ 1 y |4x2 − 2| ≤ 2 mos acotar |f (x)| para x ∈ [0. .7)) Rj (f ) = − n−1 se tiene R(f ) = j=0 − f (ηj ) 3 h3 h =− 12 12 n−1 f (ηj ).13 (con aj = 1 para todo j) y teniendo en cuenta que h = (b − a)/n si y solo si n = (b − a)/h. . .8248. tenemos que existe η ∈ (a. Determinar el n´mero n de subintervalos necesario para que el error cometido u 1 con la regla de Trapecios compuesta de una aproximaci´n de la integral o menor que 10−4 . FORMULAS DE CUADRATURA COMPUESTAS 145 Luego. 12 12 h 12 R(f ) = − (7. se tiene: |R(f )| = h2 1 1 h2 (b − a)|f (η)| ≤ 2= 12 12 6 n 2 Si tomamos n > 40. podemos asegurar que |R(f )| < 10−4 . Es decir.. j=0 Ahora. basta tomar n = 41.´ 3. 1] siendo f (x) = (4x en este intervalo.9) Como para cada subintervalo se comete un error (ver (7. + f (xn−1 ) + f (xn )] 2  n−1 h f (x0 ) + 2f (xj ) + f (xn ) 2 j=1 Entonces la cuadratura compuesta usando la regla de Trapecios cerrada viene dada por  T (f ) = h f (x0 ) + 2 n−1 j=1 f (ηj ) 3 12 h  2f (xj ) + f (xn ) (7. 0 e−x dx con error 2 Para hallar el n´mero de subintervalos a considerar usamos la expresi´n del error (7. b) tal que h3 h3 b − a h2 nf (η) = − f (η) = − (b − a)f (η).14.

n 2n n−1 S(f ) = j=0 xj + xj+1 h (f (xj ) + 4f ( ) + f (xj+1 )) 3 2 f´rmula que podemos expresar como o  S(f ) = h f (a) + 2 3 n−1 n−1  f( xj + xj+1 ) + f (b) 2 (7. 90 90 2h 180 (7.15. xj+1 }.8) cuando se usa o la f´rmula de Simpson en cada partici´n del intervalo [a. 3 2 Como interpolamos f por un polinomio de grado 2. h = 2 b−a = b−a .11) f (xj ) + 4 j=0 j=0 Para analizar el error cometido al usar esta f´rmula. Comparar con el ejemplo 7. en puntos equiespaciados. xj+1 ]. INTEGRACION NUMERICA Regla de Simpson compuesta: se trata de obtener una f´rmula del tipo (7. 1 longitud media del intervalo [xj . b]. 90 n−1 R(f ) = j=0 −h5 (iv) −h5 f (ηj ) = 90 90 n−1 f (iv) (ηj ). o o La f´rmula (7.6) nos da para cada integral o xj+1 f (x) dx xj ∼ Sj (f ) = xj + xj+1 h (f (xj ) + 4f ( ) + f (xj+1 )). Determinar el n´mero n de subintervalos necesario para que el error cometido 1 con la regla de Simpson compuesta de una aproximaci´n de la integral o menor que 10−4 . Luego.14 0 e−x dx con error 2 . j 2 j+1 . Es decir. As´ el paso h entre dos nodos de cada integral es la ı.12) u Ejemplo 7.146 ´ ´ 7. Por el Lema 7. en cada integral x +x intervienen los nodos {xj . j=0 b−a 2n b−a 2h . recordemos que en cada subintervalo el o error est´ dado por a −h5 (iv) Rj (f ) = f (ηj ).13 (con aj = 1 para todo j) y teniendo en cuenta que h = tenemos que existe η ∈ (a. b) tal que si y solo si n = R(f ) = −h5 (iv) −h5 b − a (iv) −h4 nf (η) = f (η) = (b − a)f (iv) (η).

2 .. 1]. y calcular las integrales iteradas por los procedimientos anteriores. y). mientras que para la regla de Trapecios compuesta pod´ ıamos asegurar el mismo error partiendo en 41 subintervalos de igual longitud. 0) + 4f ( 1 . 1 ) + f (0. 1]. y) dydx. 1 ∼ ∼ 1 6 1 6 f ( 1 . Por ejemplo. o 2 Usamos la cota hallada en el Ejemplo 7. 1) 6 2 An´logamente se obtiene los otros dos valores: a F(1) 2 F (1) Ahora. 1 ) + f ( 1 .12. 0) + 4f (0. y) dy y luego • Se aproximan los valores F (0). Es posible aplicar en forma iterada las reglas de integraci´n que acabamos o de desarrollar para aproximar integrales m´ltiples de funciones continuas. 1 ) + f (1.886. FORMULAS DE CUADRATURA COMPUESTAS 147 El error viene dado por la f´rmula (7. F (1) con la regla de Simpson. Para f : IR2 → IR una funci´n continua y D = [0.12). 1 El valor de F (0) es el valor de la integral 0 g(y) dy con g(y) = f (0. Necesitamos acotar f (iv) (x) en el intervalo [0. 1) 2 F (x) dx 0 ∼ 1 6 F (0) + 4F ( 1 ) + F (1) . 1) 2 2 2 2 f (1. |f (iv) (x)| = |4(4x4 − 12x2 + 3)e−x | ≤ 20. para las cuales el u teorema de Fubini puede aplicarse. |R(f )| = Finalizaremos esta secci´n con una aplicaci´n de los m´todos hasta ahora estudiados al c´lculo o o e a aproximado de integrales m´ltiples.. podemos asegurar que |R(f )| < 10−4 . F ( 1 ). con h = b−a = 2n se tiene 2n h4 (iv) 1 1 4 |f (η)| ≤ . se define la funci´n o o 1 F (x) = 0 f (x. Esto es. 180 9 2n Si tomamos n > 2. 1] × [0. luego aplicando la regla de Simpson simple cerrada tenemos F (0) ∼ 1 f (0. si D ⊂ IR2 es una regi´n que podemos describir por medio de funciones reales. y) dxdy = D a φ(x) f (x. 1 Entonces. Es decir.´ 3. u ´ Observacion 7. o podemos escribir (si la regi´n es de Tipo 1) o b ψ(x) f (x. Ejemplo 7. 0) + 4f (1. 2 1 • Se aproxima 0 F (x) dx usando otra vez la misma regla.17. basta tomar n = 3.16.

. 1). el de aproximar a f (x)w(x) dx. El siguiente teorema da una a condici´n que asegura la convergencia. 0). Dada f ∈ C[a. 0). INTEGRACION NUMERICA donde cada valor F (0). a o Cuando aproximamos f por el polinomio interpolador de Lagrange y usamos la base de Lagrange b para tal fin. Es decir. o o Si bien hasta ahora aproximamos el valor de a f (x) dx. y). Convergencia de los m´todos de cuadratura e Es natural preguntarse si el procedimiento estudiado converge a la integral cuando el n´nero u b de nodos tiende a infinito. ). . (1. . . (1. tanto la base de Lagrange como la cuadratura. a Para estudiar la convergencia de estas cuadraturas cuando se incrementa el n´mero de nodos u usaremos notaci´n m´s espec´ o a ıfica. . podr´ ıamos haber tratado un caso m´s a b general. Esto es. 0). . x1 . (0. b] → IR una funci´n de peso positiva. 2 En la forma expl´ ıcita de esta regla aparecen los 9 nodos: 1 1 1 1 1 1 (0. o Teorema 7. b] y dado n ∈ IN notamos por b n I(f ) = a f (x)w(x) dx. .148 ´ ´ 7. (1. 1) 2 2 2 2 2 2 para los cuales se debe calcular el valor de f (x. ). si Qn (f ) es la aproximaci´n de a f (x) dx que se hace a o b trav´s de un polinomio que interpola a f en n + 1 nodos. 4. Se o recupera exactamente lo estudiado hasta ahora al considerar w(x) = 1 para todo x ∈ [a. y definimos Qn (f ) = j=0 Aj f (xj ) (n) (n) donde los Aj (n) est´n dados por a Aj (n) b = a (n) j (x)w(x) dx.18. . ¿vale que Qn (f ) → a f (x) dx cuando e n → ∞? En esta secci´n veremos una condici´n para que esto suceda. ( . (0. se tendr´ que Aj = a j (x)w(x) dx para j = 0. ). ( . xn } y de la funci´n w. n. con w : [a. b] En tal caso una cuadratura b n b f (x)w(x)dx a ∼ Q(f ) = j=0 Aj f (xj ) tendr´ pesos Aj dependiendo de los nodos {x0 . F ( 1 ) y F (1) se reemplazan por los valores aproximados ya calculados. los nodos y pesos de la misma se indicar´n con el n correspondiente. ( . 1). .

|I(f ) − Qn (f )| ≤ (c + K)ε. Ahora bien. a (n) (n) n j=0 Aj (qN (xj ) − f (xj )) ≤ Kε. a≤x≤b ∞ Observemos que como Qn es exacta para polinomios de grado menos o igual que n. |I(f ) − Qn (f )| = |I(f ) − I(qN ) + Qn (qN ) − Qn (f )| ≤ |I(f ) − I(qN )| + |Qn (qN ) − Qn (f )|. de la cual omitimos una demostraci´n. o .´ 4. dado ε > 0 existe un polinomio qN ∈ PN (N o depende de ε) tal que max |f (x) − qN (x)| = f − qN ≤ ε. que enunciamos en el siguiente teorema. Tambi´n vale la implicaci´n rec´ e o ıproca. a |Qn (qN ) − Qn (f )| = a ∞ w(x)(f (x) − qN (x)) dx b w(x) dx ≤ cε. Por el teorema de Weierstrass. CONVERGENCIA DE LOS METODOS DE CUADRATURA 149 Si existe una constante K tal que n j=0 |Aj | ≤ K entonces (n) ∀n n→∞ lim Qn (f ) = I(f ) Demostraci´n. se tiene b |I(f ) − I(qN )| = ≤ f − qN y adem´s. (n) ≤ f − qN ∞ (n) n j=0 |Aj | Con todo esto. Tenemos que. hemos probado que dado ε > 0 existe N tal que si n > N . si llamamos c = b a w(x) dx. entonces se tiene que Qn (qN ) = I(qN ) para todo n > N .

INTEGRACION NUMERICA Teorema 7. .20. o o u cuando n crece. xn } e interpolamos f con un polinomio o p ∈ Pn pueden producirse errores grandes en la aproximaci´n como vimos en el Cap´ o ıtulo 5. o f (x)w(x) dx. o b b . . x1 . (n) La constante K que satisface la hip´tesis del teorema anterior es o b n K= a w(x) dx = j=0 |Aj |. en o o b particular se tiene que Qn (1) = a w(x) dx. a Demostraci´n.150 ´ ´ 7. Como la aproximaci´n por cuadraturas Qn es exacta para polinomios de Pn . . si lim Qn (f ) = I(f ) entonces existe una consn→∞ tante K tal que n |Aj | ≤ K j=0 (n) ∀n. los pesos crecen y no est´n acotados. Si consideramos nodos fijos {x0 . por lo tanto existen funciones continuas a para las cuales este procedimiento para aproximar la integral no converge. Corolario 7. As´ el camino ı. o e o 5. Si los pesos Aj (n) son todos positivos tenemos entonces b Qn (f ) → para toda funci´n continua f . (n) y tenemos que estas aproximaciones de la integral convergen a la misma. Sin embargo es posible aumentar precisi´n aumentando el n´mero de los nodos de o u interpolaci´n. para todo n ∈ IN.19. Cuadratura Gaussiana Queremos aumentar la presici´n al aproximar a f (x) dx. b n n 0 < I(1) = a w(x) dx = Qn (1) = j=0 Aj (n) = j=0 |Aj |. . Como w(x) > 0 y los pesos son todos positivos tenemos que. o a f (x)w(x) dx como vimos en la o secci´n anterior. Los polinomios de Tchebychev dan una soluci´n en este sentido. Estudiaremos este m´todo en la secci´n siguiente. Peor a´n. Se sabe que si n ≥ 10 los pesos de las f´rmulas de Newton-Cˆtes cambian de signo. Una forma de mejorar el error que se comete es elegir los puntos de interpolaci´n para optimizar o la aproximaci´n. Los nodos o o a considerar son los ceros del polinomio de grado n + 1. Con las notaciones anteriores. seguro para aumentar la precisi´n usando f´rmulas de Newton-Cˆtes es por medio de f´rmulas o o o o compuestas. El m´todo de cuadratura gaussiana e generaliza este tipo de elecci´n.

4 nos o ´ permite independizarnos del intervalo mientras que la teor´ de espacios con producto interno y ia polinomios ortogonales vistos en el Cap´ ıtulo 6 nos permiten trabajar con un peso arbitrario w. Demostraci´n. . Luego. El segundo paso ser´ ver que las ra´ a ıces de pn son simples. . entonces pn es u ız u pn (x) es un polinomio de grado n − 2. Si x0 ∈ IR es una ra´ mu´ltiple. El Lema 7. es decir que tenemos 2n + 2 variables. . b). b). . b). ı y ´stos son tomados como nodos para interpolar una funci´n f . 1 = esta contradicci´n muestra que pn no s´lamente tiene una ra´ real sino que tiene al menos un o o ız cero en (a. pn tiene signo constante. . . x1 . y entonces q(x) = (x − x0 )2 es una combinaci´n lineal de {p0 . As´ como los ceros del polinomio de Tchebychev de grado n son todos distinto.5. por consiguiente. el Teorema que sigue nos da un e o resultado an´logo para cualquier familia de polinomios ortogonales. Las ra´ ıces de pn son todas reales.21. . o Respectivamente. Si no fuera as´ o ız ı. Teorema 7. en particular. tiene signo constante en el intervalo (a. g = a f (x)g(x)w(x) dx. pn−2 } y resulta ser ortogonal a pn . p1 . (w(x) > 0). . Supongamos que pn tiene alg´n cero u m´ltiple y veamos que esto no es posible. Veamos primero pn tiene al menos una ra´ real. Supongamos que pn (x) > 0 en (a. Gauss demostr´ que o o este sistema tiene soluci´n unica cuando w = 1 y el intervalo es [−1. queremos encontrar una f´rmula de cuadratura o b n f (x)w(x)dx a ∼ Q(f ) = j=0 Aj f (xj ) donde podamos elegir tanto los pesos {A0 . b] el producto interno b f. Como pn y q0 (q0 = 1) son ortogonales tenemos b 0 = pn . . A1 . para cada n fijo. a Consideremos sobre V = C[a. 1]. xn }. distintas entre s´ y pertenecen al intervalo ı (a. CUADRATURA GAUSSIANA 151 En s´ ıntesis. Sea n ≥ 1 fijo. . notemos {pj } los polinomios ortonormales. y llamemos {qj } a los polinomios ortogonales y m´nicos con respecto a este producto interno. Si pedimos que las formulas de inetgraci´n sean exactas para o polinomios del mayor grado posible nos quedan las siguientes ecuaciones b a n xk w(x) dx = j=0 Aj xk j 0 ≤ k ≤ 2n + 1 Esto es un sistema no lineal de 2n + 2 ecuaciones con 2n + 2 inc´gnitas. q divisible por (x − x0 )2 . An } como los nodos {x0 . . . b). o a pn (x)w(x) dx > 0 .

. (x − xk )w(x) dx r(x)(x − x0 )2 . como el grado de R es a lo sumo n. xk son los ceros de pn que est´n en (a. . . INTEGRACION NUMERICA b 0 = pn . b) y supongamos que k < n − 1. . o Finalmente. b). . luego k = n − 1 y todos lo o ceros de pn est´n en (a. (x − xk ) = a b pn (x)(x − x0 ) . (x − xk )2 (x)w(x) dx > 0. es una contradicci´n. b). En consecuencia todos lo ceros de pn son simples. La f´rmula o b n p(x)w(x) dx = a j=0 Aj p(xj ). Como las ra´ ıces x0 . tiene grado n−(k+1). = a Esta contradicci´n proviene de suponer que el grado de r es no nulo.152 ´ ´ 7. . . (x − x0 )2 que resulta. a Supongamos que x0 . a Ahora probemos el teorema b´sico de las cuadraturas de Gauss. resta ver que todas las ra´ ıces de pn pertenecen al intervalo (a. . . xk son simples el polinomio r dado por r(x) = pn (x)/(x − x0 )(x − x1 ) . b). . . q = a b pn (x) = a pn (x) w(x) dx (x − x0 )2 pn (x)2 w(x) dx > 0. . nuevamente. . Por el algoritmo de divisi´n para polinomios se puede escribir o p(x) = pn+1 (x)S(x) + R(x) con S(x) y R(x) en Pn (x). . (x − x0 ) . (x − xk ). con lo cual es ortogonal a pn y tiene signo constante en (a. Sea p(x) ∈ P2n+1 y supongamos que los puntos xj est´n dados por o a pn+1 (xj ) = 0 0 ≤ j ≤ n. Demostraci´n. b 0 = pn . Por la definici´n de los pesos Aj . .22. b). a Teorema 7. vale para cualquier polinomio de grado menor o igual a 2n + 1 si y solo si los puntos {xj } son los ceros de pn+1 (x). es decir que pn tiene ceros que no pertenecen a (a. Supongamos que r(x) > 0. tenemos o . .

en consecuencia o b rk . Ahora supongamos que {xj } es un conjunto de puntos distintos y que se verifica b N p(x)w(x) dx = a j=0 Aj p(xj ) para todo p ∈ P2n+1 . Es claro que p ∈ P2n+1 .5. por nuestra j=0 hip´tesis I(p) = Qn (p). CUADRATURA GAUSSIANA 153 I(R) = Qn (R). Entonces I(p) = a b b b p(x)w(x) dx = a pn+1 (x)S(x)w(x) dx + R(x)w(x) dx a = pn+1 . W = a b rk (x)W (x)w(x) dx = a n p(x)w(x) dx = j=0 n Aj p(xj ) = j=0 Aj rk (xj )W (xj ) = 0. en consecuencia W (x) = qn+1 (x) . pues W (x) se anula en los xj . Sea W (x) = n (x − xj ) y definamos p(x) = rk (x)W (x). Entonces W (x) es un polinomio m´nico de grado (n+1) que resulta o ortogonal a cualquier polinomio de grado menor o igual que n. S + I(R) = 0 + Qn (R) n = j=0 n Aj R(xj ) = j=0 Aj p(xj ) = Qn (p). Dado un entero k sea rk un polinomio de grado menor o igual que k.

¿El orden es igual al obtenido para una funci´n suficientemente suave? o . o o (5) Considerar la funci´n definida en [−h.3 x4 dx ln(x) dx 0. (3) Usar el m´todo de coeficientes indeterminados para dar una f´rmula de cuadratura por e o interpolaci´n: o 3h 0 f (x) dx ∼ A0 f (0) + A1 f (h) + A2 f (3h). 1/3. 2 2 Demostraci´n. si 0 < x ≤ h. para la cuadratura gaussiana todos los pesos son positivos y por lo visto antes esto implica la convergencia. 6. Por la definici´n de los lk (x) cada (lk )2 ∈ P2n y entonces I(lk ) = Qn (lk ) y en o o consecuencia. Ejercicios (1) Usar las f´rmulas cerradas de Newton-Cotes de dos y tres puntos (reglas de trapecios o y de Simpson. h] (h > 0): f (x) = 0.1 0 1 dx 1+x Calcular. INTEGRACION NUMERICA y entonces los xj son los ceros de pn+1 . adem´s. 1/2. −1/3. si − h ≤ x ≤ 0 x.154 ´ ´ 7. Corolario 7. entonces lim Qn (f ) = I(f ). hallar una f´rmula de cuadratura por o interpolaci´n de la forma o 2h 0 f (x) dx ∼ A0 f (0) + A1 f (h). como lk (xj ) = δkj . 1. y la f´rmula cerrada de Newton-Cotes con nodos en los puntos −1. 1 (4) Construir la f´rmula abierta de Newton-Cotes para calcular −1 f (x) dx con nodos o −1/2.23. b n 2 lk (x)w(x) 0< a dx = j=0 Aj (lk (xj ))2 = Ak . en forma exacta cada una de las integrales anteriores y verificar la a cota del error. 0. (2) Interpolando las funciones de base de Lagrange. Hallar el error de la regla de trapecios aplicada a f (x). Sea Qn (f ) = n j=0 Aj f (xj ) n→∞ la cuadratura gaussiana.2 . Es decir. respectivamente) para calcular las integrales: 1 0 0.

Hallar n de modo que el error sea menor que 10−3 . 4 4 4 3 4 3 (15) Hallar reglas de cuadratura de grado de precisi´n m´ximo para aproximar −3 f (x) dx. . b] acotar el error que se a comete al utilizarla. 100. o o (13) La expresi´n Qn (f ) = n Aj f (xj ) define una f´rmula de cuadratura. o a de las siguientes formas: (a) A[f (x0 ) + f (x1 )] (repitiendo el coeficiente). Mostrar que la f´rmula tiene grado de precisi´n por lo menos k. (c) Calcular el valor de I que produce la rutina quad. xk . Simpson. . j=0 (a) Probar que Qn es lineal en f (el conjunto de funciones).5) − 2 f (0) + 4 f (0. Para f ∈ C 1 [a. (11) (a) Calcular exactamente la integral 2π I= 0 [1 − cos(32x)] dx. 2 4 0 1+x (a) Para n = 1.6. EJERCICIOS 155 (6) La f´rmula de cuadratura o b f (x) dx ∼ f ( a a+b ) b−a 2 es conocida como Regla de los Rect´ngulos. o 1 1 π (10) Se sabe que dx = . . (b) Af (x0 ) + Bf (x0 + 4). b]. 2] probar que el error cometido no excede el valor 12 f (3) ∞ . . utilizar las reglas de trapecios y Simpson compuestas para aproximar num´ricamente la integral y dar un valor cercano a π. 1] en n subintervalos. 8 y 16. b (b) Supongamos que Qn (f ) ∼ a f (x)w(x) dx y que es exacta para las funciones 1. . x. trapecios compuesta y Simpson compuesta para n = 2. 2 (8) (a) Hallar una f´rmula de cuadratura del tipo: o 1 f (x) dx ∼ Af (−2) + Bf (0) + Cf (2). 4. 1 (12) Se quiere calcular −1 e−x dx utilizando la regla de trapecios compuesta. o o 1 o o (14) Determinar el grado de precisi´n de las f´rmulas para −1 f (x) dx: (a) 4 f (−0. de trapecios compuesta y de Simpson compuesta para calcular aproximaciones de la integral de una funci´n f (x) en un intervalo [a. (9) Escribir un programa que utilice las reglas de trapecios. . . 3 3 3 1 (b) 1 f (−1) + 3 f (− 3 ) + 3 f ( 1 ) + 1 f (1).5). −1 7 (b) Para f ∈ C 3 [−2. (7) Para f una funci´n C 2 probar que el error cometido al usar la f´rmula de cuadratura o o f ∞ 3 del Ejercicio 2 no excede el valor h . partiendo el 2 intervalo [−1. e (b) Graficar las sucesiones obtenidas junto con el valor de π que arroja Matlab y el valor que se obtiene al aplicar la rutina quad de Matlab. de Simpson. (b) Aproximar el valor de I usando el programa del Ejercicio 9 con los m´todos de los e trapecios. . .

independientemente de la elecci´n o o de los coeficientes (Aj ) y de los nodos (xj ). (b) 1 ln(x) dx. la f´rmula tiene grado de precisi´n m´ximo si s = b a xw(x) dx . INTEGRACION NUMERICA y determinar cu´les son dichos grados. cualquiera sea w. a . que tenga grado de precisi´n m´ximo. ¿Cu´l es dicho grado? o a a (b) Hallar una regla de cuadratura del siguiente tipo x−2 dx ∼ A0 f (x0 ) + A1 f (x1 ). ¿Cu´l es dicho grado? o a a (18) Sea w una funci´n de peso. o o a (a) Probar que. 2 (21) Probar que una f´rmula de cuadratura o b a n f (x)w(x) dx ∼ Qn (f ) = j=0 Aj f (xj ) no puede tener grado de precisi´n mayor que 2n + 1. o 1 3 (Los polinomios de Legendre m´nicos de grado dos y tres son x2 − 3 y x3 − 5 x). b w(x) dx a (b) Probar que si w(x) ≡ 1. esta regla coincide con la regla de los rect´ngulos.156 ´ ´ 7. Se considera la regla de cuadratura de 1 punto: o f (x) b a 4 f (x)w(x) dx ∼ A0 f (s). 1] y w(x) = (x − 1)2 . a 1 (16) Calcular −1 f (x)x2 dx mediante una regla de cuadratura de la forma 1 −1 f (x)x2 dx ∼ A0 f (x0 ) + A1 f (x1 ) que sea exacta para polinomios de grado menor o igual que 3. 2 0 que tenga grado de precisi´n m´ximo. o (20) Usar las f´rmulas de Gauss-Legendre de tres puntos para estimar: o 1 3 2 (a) −1 sin(3x) dx. b Sugerencia: Hallar un polinomio p ∈ P2n+2 para el cual Qn (p) = p(x)w(x) dx. (c) 1 ex dx. (17) (a) Hallar una regla de cuadratura del siguiente tipo 1 −1 f (x) |x|dx ∼ A0 f (x0 ) + A1 f (x1 ). (19) Hallar los pesos y los nodos de las f´rmulas de Gauss-Legendre de dos y tres puntos. Acotar el error que produce el uso de esta regla para funciones C 1 . a (c) Considerar el intervalo [−1.

1).6. . EJERCICIOS 157 (22) Para f : IR2 → IR una funci´n continua. a e x Sugerencia: considerar F (x) = 0 f (x. 1). a e o (b) Probar que si D es el tri´ngulo de v´rtices (0. y) dx dy con D ⊂ IR2 usando el Teorema de Fubini. y) = x2 + y 2 . (0. (1. (1. (0. 0).17 y dar la f´rmula correspondiente o para D el tri´ngulo de v´rtices (0. 0). (a) Repetir el procedimiento hecho en el Ejemplo 7. 0) la f´rmula anterior es exacta para f (x. se quiere dar una f´rmula de cuadratura que o o aproxime D f (x. 0). y) dy.

.

. . La ley de o . . la ecuaci´n o x (t) = λx(t). x(t). En este ejemplo se ve f´cilmente que si se conoce el valor inicial x(0) = x0 a entonces la soluci´n es o x(t) = x0 eλt .1) para t ∈ IR y f : IRn+1 → IR una funci´n dada.CAP´ ıTULO 8 Resoluci´n de ecuaciones diferenciales ordinarias. desarrollaremos m´todos num´ricos para aproximar una funci´n conociendo una e e o ecuaci´n que involucra sus derivadas. donde t ∈ IR. (8. . es decir. x (t). Es decir. hay infinitas soluciones. . . x (t). x (t).1. x(n−1) (t)). o Algunos ejemplos de ecuaciones diferenciales son: Ejemplos 8. Su soluci´n general es o o x(t) = Ceλt con C una constante arbitraria. o Se llama orden de una ecuaci´n al m´ximo orden de derivada que aparece en ella. F : IRn+2 → IR es una funci´n conocida y x es la funci´n que se desea encontrar. puede escribirse como a o F (t. Supongamos que se tiene una part´ ıcula de masa m que se mueve en una direcci´n debido a la acci´n o o de un resorte y se quiere conocer la posici´n x(t) de la masa en el instante t. (2) Veamos un ejemplo elemental de ecuaci´n que surge de un problema f´ o ısico. o En este cap´ ıtulo abordaremos el problema de resolver ecuaciones diferenciales con valores iniciales. es una ecuaci´n lineal de primer orden. x(n) (t)) = 0. x (t). x(t). (1) Para λ una constante dada. Esto es lo que pasa en general y por lo tanto. En su forma o a m´s general una ecuaci´n diferencial de orden n. . Esto es algo general: dada una ecuaci´n diferencial para determinar una soluci´n es o o necesario conocer ciertos datos iniciales. para poder determinar una soluci´n es necesario tener m´s o a datos. o o Vamos a suponer que la derivada de mayor orden puede despejarse de tal forma que la ecuaci´n o se escribe como x(n) (t) = f (t. .

aplicando nuevamente la ley de Newton obtenemos Lθ (t) = g sen θ(t) o sea. La proyecci´n F de esta fuerza en la direcci´n del movimiento (o sea o o tangencial al arco de circunferencia que describe el p´ndulo) resulta entonces. Veamos que con estos datos podemos encontrar A y ϕ de tal forma que la soluci´n queda un´ o ıvocamente determinada. Por otra parte. Por lo tanto. o sea. la ley de Newton nos dice que F (t) = ma(t) siendo a(t) la aceleraci´n en el instante t. Lo m´s natural es conocer la posici´n y la velocidad iniciales. Para poder determinar la posici´n en el instante t necesitamos conocer ciertas cono diciones iniciales. como tiene coeficientes constantes. a . e F (t) = mg sen θ(t). es decir.160 ´ 8. obteneo mos la ecuaci´n o mx (t) + kx(t) = 0. donde L es la longitud del p´ndulo. una ecuaci´n no lineal de segundo orden. ω la frecuencia y ϕ la fase. la soluci´n general puede escribirse como o A cos(ϕ − ωt) donde A representa la amplitud. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. Si llamamos ω = k/m. θ(0) y Lθ (0). o puede resolverse anal´ ıticamente. Tambi´n en este caso hay una unica o e ´ soluci´n si se conocen la posici´n y la velocidad inicial. es decir. es f´cil ver que de a las condiciones iniciales se deduce que A = x2 + (v0 /ω)2 y ϕ ∈ [0. En este caso se quiere e determinar el ´ngulo θ(t) que un p´ndulo con masa m forma respecto de la vertical en el a e instante t. como a(t) = x (t). En efecto. Para esto consideremos otro ejemplo o de los cursos b´sicos de f´ a ısica que es el problema del p´ndulo. es decir a o x(0) = x0 y x (0) = v0 . la soluci´n general de esta o ecuaci´n es o x(t) = C1 cos(ωt) + C2 sen(ωt) 2 2 donde C1 y C2 son constantes arbitrarias. Teniendo en cuenta que la longitud recorrida en un tiempo t es L(θ(t) − θ(0)). resulta que la aceleraci´n en la direcci´n tangencial al e o o movimiento es Lθ (t). En consecuencia. Despreciando el rozamiento con el aire podemos suponer que la unica fuerza ´ que act´a es la de la gravedad. (3) Veamos ahora un ejemplo de ecuaci´n no lineal. 2π) es el unico ´ 0 a ´ngulo que satisface cos ϕ = x0 /A y sen ϕ = v0 /ωA. Esta es una ecuaci´n lineal de segundo orden que. Hooke dice que la fuerza F (t) que ejerce el resorte en el instante t es proporcional a su estiramiento o compresi´n. una fuerza en direcci´n vertical hacia abajo y u o de magnitud mg. 2π) tal que cos ϕ = C1 /A y sen ϕ = C2 /A (notar que tal ϕ existe porque (C1 /A)2 + (C2 /A)2 = 1). Introduciendo A = C1 + C2 y ϕ ∈ [0. o F (t) = −kx(t) donde k es la constante de rigidez del resorte. Esto es o o consecuencia del teorema de existencia y unicidad que enunciaremos m´s adelante.

h). A veces solo interesa conocer el valor de x(T ) y en este caso los pasos intermedios x1 . T ]. x (t0 ). . . Despu´s se puede interpolar en esos valores para obtener una aproximaci´n e o de x(t). podemos considerar ecuaciones como las siguientes: (i) x = 1. . Si f (t. . . . . x(t)).2) buscamos una aproximaci´n de x(t) en un cierto intervalo [0. cuya demostraci´n no o o damos. M´s precisamente. La raz´n por e e o la que hacemos esto es que las ecuaciones de grado n pueden reducirse a sistemas de ecuaciones de orden 1 y los m´todos que presentaremos pueden extenderse a sistemas. x o o 0 En lo que sigue. Para o esto buscaremos una forma de generar N valores x1 . vamos a estudiar m´todos num´ricos para ecuaciones de grado 1. . RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. . e Para simplificar la notaci´n usaremos t0 = 0. .1 tienen la forma x (t) = f (t.´ 8. . y)| ≤ L|x − y| Entonces para cualquier valor a ∈ IR existe una unica funci´n derivable x(t) que verifica ´ o x (t) = f (t. . ti . 161 Como vimos en los ejemplos una ecuaci´n diferencial puede tener muchas soluciones y para o obtener una soluci´n unica hace falta conocer ciertos datos que pueden ser valores de la funci´n o ´ o y de algunas de sus derivadas en un valor inicial t0 . x) − f (t. .1) se tiene una soluci´n unica dados los datos iniciales o o ´ (n−1) (t ). Primero enunciamos un teorema de existencia y unicidad de soluci´n. . . xN que aproximen x(t1 ). es decir |f (t. . x(tN ) con t1 < t2 < . Por ejemplo. x) es continua y Lipschitz en x. El m´todo general a un paso tiene la forma e xi+1 = xi + hΦ(xi . (8. puede demostrarse a que para la ecuaci´n de orden n (8. Nuestro estudio de aproximaciones num´ricas para ecuaciones ordinarias empieza con los m´todos e e conocidos como m´todos de un solo paso. e Dado el problema (8. x(t0 ).2) Se trata de una ecuaci´n diferencial de primer orden porque la derivada de mayor orden que o aparece es la derivada primera. La ecuaci´n de orden 1 que corresponden con la o o escritura 8. x(0) = a. xN −1 pueden verse como pasos auxiliares para calcular xN ∼ x(T ). bajo hip´tesis adecuadas sobre la funci´n f .2. (ii) x = t. x(t)) x(0) = a. . (iii) x = x. < tN . Teorema 8. (iv) x = x2 . . .

En general se puede usar una expansi´n en m´s t´rminos como sigue: o a e 1 1 x(ti + h) ∼ x(ti ) + hx (ti ) + h2 x (ti ) + . que como vimos responde a usar el polinomio de Taylor de grado uno en ti para calcular xi+1 .25 h = 0. En general. el desarrollo de e 2 orden 1 es: x(t + h) = x(t) + x (t)h + x (ξ) h .250 1.1331 1. el primer valor aproximado de x en t0 + h se logra al calcular x(t0 + h) ∼ x(t0 ) + x (t0 )h. si xi es una aproximaci´n para x(ti ) se tiene que n o xi+1 = xi + hf (ti . 2 esto es. ti y de h.750 2.9531 2. para cada valor de t sabemos exactamente cu´nto vale o a x (t) = f (t. xi ). RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. partimos del valor x(t0 ) y nos movemos una longitud h con velocidad x (t0 ).625 1. para valores peque˜os de h.6487 1. Es decir calculamos una aproximaci´n en un tiempo posterior (ti+1 ) a a o partir de una aproximaci´n en el tiempo ti . x(ti )).8682 1.6018 0.8020 0. Ahora. Una ventaja de estos m´todos es que se puede cambiar e f´cilmente el paso h. Notar que x (t) es una funci´n conocida. En consecuencia. Supongamos que podemos despreciar el valor de 2 2 x (ξ) h . es decir.3..5625 1. t et h = 0. La funci´n Φ se conoce como la funci´n de incremento y nos dice como calcular la aproximaci´n o o o xi+1 de x(ti + h) a partir de xi . o 1. xi ) es una aproximaci´n razonable para x(ti + h) = x(ti+1 ).4238 0.125 0. aplicando el m´todo de Euler se obtiene la siguiente o e tabla. Repitiendo este procedimiento se obtiene: x(ti + h) ∼ x(ti ) + hx (ti ) = x(ti ) + hf (ti .1170 1.375 1.4549 1.125 0. x)...125 1.2840 1.500 1.162 ´ 8.. La soluci´n exacta es x(t) = et .. Resolvamos la ecuaci´n o x (t) = x(t) x(0) = 1.25 1. M´todos de Euler y Taylor de orden k e El m´todo de Euler se basa en el desarrollo de Taylor de orden 1.0272 El m´todo de Euler es de la forma e xi+1 = xi + hf (ti .2656 0. + hk x(k) (ti ). 2 k! .. o Ejemplo 8.

4. 2 k! proponemos el m´todo. Su mayor problema es e e que requieren encontrar y evaluar derivadas sucesivas de f (x. x) nos proporciona todas las derivadas de orden superior de la siguiente forma. . x) + ft (t. Calculemos el m´todo de Taylor de orden 2 para el problema e x (t) = 2tx x(0) = 1. x). es decir. xi ) + ft (ti . ti y h para calcular la siguiente e o aproximaci´n xi+1 ). h). + 1 k (k) h x (ti ) = xi + hTk (ti . t). Entonces. x) + ft (t. 2 Podemos seguir derivando x = fx (t. x = fx (t. a partir de o 1 1 x(ti + h) ∼ x(ti ) + hx (ti ) + h2 x (ti ) + .´ 1. i Ejemplo 8. Esto nos da una manera de e calcular m´todos de aproximaci´n a un paso (solo usamos xi . Ejercicio: Calcular el m´todo de Taylor de orden 3 en este ejemplo. . k! Estos m´todos se conocen como m´todos basados en Taylor de orden k. x)f (t. xi ). x)f (t. . e . xi+1 = xi + h 2ti xi + xi (1 + 2t2 )h . xi ) + h2 fx (ti . + hk x(k) (ti ). METODOS DE EULER Y TAYLOR DE ORDEN k 163 Si conoci´ramos las derivadas de x hasta orden k podr´ e ıamos usar esto para implementar un m´todo que aproxime x(ti +h) a partir de una aproximaci´n de x(ti ). En este caso. La ecuaci´n diferencial x = e o o f (t. Es decir. xi . xi )f (ti . Ejemplo 8. x). x(ti ))f (ti . x(ti )) 2 e intentar la aproximaci´n o 1 xi+1 = xi + hf (ti . derivando una vez se obtiene x = fx (t. se obtiene x = 2x + 2tx = 2x(1 + 2t2 ). A partir de esto se puede poner 1 x(ti + h) ∼ x(ti ) + hf (ti . x) para obtener x en t´rminos de f y sus derivadas y continuando de esta manera calcular las e derivadas de x hasta orden k en t´rminos de f y sus derivadas. e xi+1 ∼ xi + hf (ti . . xi ) + . x(ti )) + h2 fx (ti . al derivar.5. x(ti )) + ft (ti . x)x + ft (t.

˜ ˜ o e En general tenemos. xi )α + fx (ti . xi . xi ) + fx (ti . h) Podemos pensar que hΦ(ti . γN ). obtenemos 1 . xi )f (ti . xi+1 = xi + h [A1 f (ti . αhf (xi . Agrupando t´rminos se obtiene e Φ(ti . γi ). Primero expandimos f (ti + αh. xi ) + ft (ti . para la ecuaci´n original esta gobernada por f (x. llegamos a A1 + A2 = 1. xi ) + A2 f (ti + αh. 2α 1 A1 = 1 − . xi . 2. + A1 f (θN . h) = A1 f (θ1 . . xi ) + A2 h [ft (ti . hΦ(xi . . RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. xi )αhf (ti . ti )). xi ) + αhf (ti . xi ) + Ch] . xi )αf (ti . xi ) = f (ti . Todav´ nos queda α libre (por ejemplo al considerar α = 1 usamos ıa (ti+1 . γi ) son puntos pr´ximos a (ti . xi )] 2 Igualando los coeficientes. xi ) y el otro (ti + αh. Recordemos que en el m´todo de Taylor se tiene e h T2 (ti . Esta variaci´n. xi . donde (θi . Veamos un caso particular de lo anterior donde usamos solo dos puntos uno (ti . 2α A2 = . xi . xi ) + E. as´ que proponemos o o ı una forma particular de Φ dada por. h) = (A1 + A2 )f (ti . 2 Despejando. xi ) + [ft (ti . donde E tiene la forma E = Ch2 . xi ))] . La estrategia del m´todo de Runge-Kutta es elegir A1 . ti . t). 1 A2 α = . M´todos de Runge-Kutta e Los m´todos generales a un paso son de la forma e xi+1 = xi + hΦ(ti . γ1 ) + . xi + αhf (ti . xi )αh + fx (ti . e Veamos como hacer esto. h) = f (ti . A2 y α para que esto se aproxime todo e lo posible a un m´todo de Taylor. h) es una aproximaci´n de la variaci´n de x cuando pasamos de ti o o a ti+1 . xi+1 ) donde xi+1 es la aproximaci´n que da el m´todo de Euler). xi ). Para especificar el m´todo que usamos es necesario o e especificar los Ai y los puntos (θi .164 ´ 8.

Ejemplo 8. h) donde Φ(ti . h). xi . e Otra elecci´n posible es α = 1 que nos da (A1 = A2 = 1 ) o 2 xi+1 = xi + h [f (ti . j−1 Kj (ti . Tambi´n e Φ(ti . Espec´ ıficamente. xi . xi . xi+1 = xi + K1 = f (ti . 6 K3 = f (ti + h . e Una elecci´n posible es α = 1/2 con lo que nos queda el m´todo (A1 = 0. METODOS DE RUNGE-KUTTA 165 Es decir. xi . xi . xi + f (ti . xi + hf (ti . A2 = 1) o e h h h f (ti + . xi )) 2 2 2 xi+1 = xi + (8. xi + h K2 ). 2 2 K4 = f (ti + h. e Una observaci´n importante es que estos m´todos no requieren la evaluaci´n de derivadas de f . 2 2 .6. h [K1 + 2K2 + 2K3 + K4 ] . h) + O(hk ).3) que usualmente se conoce como M´todo de Euler modificado. Los t´rminos Kj est´n dados por e a K1 (ti . h) = f (ti + αj h. yi + h r=1 βjr Kr (ti . hay infinitas soluciones dependiendo de α (y por ende. h)). donde 0 < αj ≤ 1 y αj = j−1 r=1 βjr . xi ).4) que se conoce como M´todo de Heun. un m´todo de Runge-Kutta de orden k tiene la forma e xi+1 = xi + hΦ(ti . K2 = f (ti + h . Una forma de Runge-Kutta de orden cuatro es. 2 (8. h) = f (ti . xi . h) = Tk (ti . xi . h) = j=1 m Aj Kj (ti . xi ). xi ))] . xi + hK3 ). infinitos m´todos posibles).´ 2. xi . xi + h K1 ). o e o Considerando m´s t´rminos en el desarrollo de Taylor se pueden deducir m´todos de Rungea e e Kutta de mayor orden. xi ) + f (ti+1 .

o o es decir. An´lisis de los Errores a Primero definimos el error de truncaci´n local. u τ= h x (γ).166 ´ 8. . h) es de orden k si el error de e truncaci´n local satisface o τ = O(hk ) ´ Definicion 8. .1. u(t)) u(ti ) = xi ∀i = 1. M´todos de Euler y Taylor de orden k. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. τ por medio o de la expresi´n que da: o x(t∗ + h) = x(t∗ ) + hΦ(t∗ . x(t∗ ). . u(t)) con valor inicial xi . Si u(t) es una soluci´n de la ecuaci´n u (t) = f (t.6) El mismo argumento usado anteriormente nos da hk x(k+1) (γ) (k + 1)! τ= (8.5) 3. xi . t) y consideramos t∗ y h fijos. n (1) El error local se define como: u(ti+1 ) − xi+1 . Diremos que el m´todo xi+1 = xi + hφ(ti . u es soluci´n de: o u (t) = f (t. . h) + hτ (8.7.7) ´ Definicion 8. En este caso el error de truncaci´n local e o est´ dado por a x(t∗ + h) = x(t∗ ) + hf (t∗ . .8. 2 (8. se define el error de truncaci´n local. 3. (2) El error global es: x(ti+1 ) − xi+1 . Si x(t) es la soluci´n de la ecuaci´n diferencial o o o x (t) = f (x(t). x(t∗ )) + hτ Si la soluci´n x(t) es suave (por ejemplo x es acotada) se tiene que o h2 x (γ) 2 x(t∗ + h) = x(t∗ ) + hx (t∗ ) + De aqu´ se tiene que ı para alg´n γ.

o ´ Diremos que el m´todo es convergente si dado t∗ en [0. xi . x(0) = x0 . x(ti ). a es decir x (t) = f (t. h). t∗ =nh e Teorema 8. a e ´ Observacion 8. h) . entonces el error local satisface e u(ti+1 ) − yi+1 = O(hp ). e El error local puede ser expresado en t´rminos del error de truncaci´n local. h) + hτ y entonces u(ti+1 ) − yi+1 = hτ. Si el m´todo es de orden p.9.10. es unica y es regular en [0. xi . t0 ] se tiene e lim xn = x(t∗ ) n→∞. ANALISIS DE LOS ERRORES 167 donde xi+1 est´ dado por el m´todo xi+1 = xi + hφ(ti . Ahora nos restringiremos a problemas regulares.´ 3. Convergencia y an´lisis del error. h) + hτ. x(t)). Para un m´todo a un paso dado por xi+1 = xi + hΦ(ti .2. Como u(ti ) = yi se sigue. El error global y el error local se relacionan por la f´rmula o x(ti+1 ) − xi+1 = x(ti+1 ) − u(ti+1 ) + u(ti+1 ) − xi+1 . donde la soluci´n existe. t0 ]. Esto muestra que el error global esta formado por dos “componentes” uno dado por la ecuaci´n o diferencial (el primero) y otro dado por el m´todo (el segundo). u(ti+1 ) = yi + hΦ(ti . 3. x(ti ). e o u(ti+1 ) = u(ti ) + hΦ(ti .

h)) + hτi . Si Φ es Lipschitz en la variable segunda variable. Entonces. Si llamamos τ = max{τi } se tiene |ei+1 | ≤ (1 + Kh)|ei | + hτ. xi .5). h) − Φ(t. Con la misma iteraci´n calculada para |ei |. e . Empleando la hip´tesis de que φ es Lipschitz se obtiene o |ei+1 | ≤ (1 + Kh)|ei | + hτi . con K una constante independiente de t y h. con constante K entonces. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. Por un lado tenemos la propiedad de Lipschitz de φ en la segunda variable. h)| ≤ K|x − y|. Fijamos un paso h = (b − a)/n y usamos el m´todo e y el desarrollo de Taylor. y. K Demostraci´n. Restando miembro a o o miembro y usando la Definici´n 8. para ej al error global. ej = x(tj ) − xj se tiene: τ |ej | ≤ (eK(tj ) − 1). xi . h) + hτi Donde hτi es el error de truncaci´n local en ti dado en la f´rmula (8. se obtiene o |ei+1 | ≤ (1 + Kh2 )|ei−1 | + hτ (1 + (1 + hK)). x. xi+1 = xi + hΦ(ti . es decir. usando las sumas parciales de una serie geom´trica.168 ´ 8.8 se obtiene o ei+1 = ei + h(Φ(ti . h) x(ti+1 ) = x(ti ) + hΦ(ti . x(ti ). esto o es: |Φ(t. x(ti ). h) − Φ(ti . Continuando de esta manera queda i |ei+1 | ≤ (1 + Kh)i+1 |e0 | + hτ ( j=0 (1 + hK)j Como e0 = x(0) − x0 se sigue que e0 = 0.

xi + h f (ti . El Ejemplo 8.12. 0).11. x(ti ). x). xi )) 2 2 xi+1 = xi + h [f (ti .6 queda como ejerecicio. x). x. (1) El teorema anterior requiere de la existencia de K una constante de Lipschitz para Φ. 0) = x (t) = f (t. o (3) Del Teorema 8. . 2 . + hk x(k) (ti ). 2 k! Al evaluar h = 0 tenemos. .4). 0) = f (t. los de Taylor y de Rungge-Kutta son convergentes. xi ) + f (ti+1 . x(t)). (8. Para Runge-Kutta de orden 2 tenemos: xi+1 = xi + h f (ti + h . .10 se deduce que los m´todos a un paso son convergentes si lim τ = 0. De existir una constante as´ cualquier otra mayor tambi´n sirve ı. x. h) = x (t) + hx (t) + . En m´todos de un paso o e e consistencia y convergencia son conceptos equivalentes. Como x es soluci´n de la ecuaci´n diferencial se tiene x (t) = o o f (t. 2 k! y por tanto 1 1 Φ(t.8) h→0 ´ Observacion 8. K ´ Observacion 8. los m´todos de Euler. x. xi ))] . s´lo verificaremos los dados por las f´rmulas (8.3) y e o o (8. e Demostraci´n. Φ(t. En cuanto a los m´todos de Runge-Kutta. xi + hf (ti . ANALISIS DE LOS ERRORES 169 |ei+1 | ≤ hτ Ahora observamos que (1 + Kh)i+1 − 1 τ = ((1 + hK)i+1 − 1) (1 + Kh) − 1 K (1 + α)i+1 ≤ e(i+1)α entonces |ei+1 | ≤ τ K(ti+1 ) (e − 1). (2) En cuanto a la hip´tesis sobre Φ (debe ser Lipschitz) esto puede extraerse de una o condici´n Lipschitz sobre f . e para acotar el error utilizando el teorema. + hk−1 x(k) (t). (4) Si asumimos que φ es continua. . se tiene que la consistencia equivale a la igualdad x (ti ) = Φ(ti . e Esto se llama la condici´n de consistencia para el m´todo. y por tanto un m´todo de un paso es consistente si y s´lo si e o Φ(t. Para los m´todos de Taylor se tiene o e 1 1 x(ti + h) ∼ x(ti ) + hx (ti ) + h2 x (ti ) + .´ 3.

Observemos que si en vez de una ecuaci´n debemos lidiar con un sistema o U (t) = F (U (t). h) 4. 0) = f (t. es decir los k puntos anteriores a ti ıa e para calcular la aproximaci´n en ti+1 . h) = f (t+ h .170 ´ 8. x)) respectiva- Φ(t. En ambos casos resulta 1 2 f (t. . los m´todos a un paso tienen la forma e Ui+1 = Ui + hφ(Ui . M´todos multipaso lineales e Hasta ahora para aproximar las soluciones de x = f (x. h) = 2 2 mente. por ejemplo el m´todo de Euler nos queda t e Ui+1 = Ui + hF (Ui . . x. x. x) + f (t. o Los m´todos multipaso lineales (de k pasos) tienen la forma: e k−1 k xn+k = − j=0 αj xn+j + h j=0 βj f (tn+j . ti ) En general. x. x)). x + hf (t. y Φ(t. x + h f (t. La filosof´ de los m´todos multipaso es usar la “historia”. uN ) podemos usar los mismos me´odos que antes. . xn+j ) M´s precisamente a un m´todo como el anterior se lo llama m´todo multipaso de k pasos. Luego Φ(t. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. a e e Por ejemplo. si aproximamos la derivada por . . ti . t)) U = (u1 . t) nos basamos en el punto inmediato anterior para calcular el siguiente. x).

METODOS MULTIPASO LINEALES 171 x (t) ∼ x(t + h) − x(t − h) 2h considerando puntos equiespaciados nos queda x (ti ) ∼ y como xi+1 − xi−1 2h x (ti ) = f (ti . Por e o e e ejemplo. xi ) podemos poner xi+1 − xi−1 = f (ti . e Los m´todos de integraci´n tambi´n nos proporcionan ejemplos de m´todos multipaso. t) podemos proponer el siguiente m´todo e h (f (xn . tn ) + 4f (xn+1 . xi ) 2h es decir xi+1 = xi−1 + 2hf (xi . ti ) que es un m´todo multipaso de dos pasos (para calcular xi+1 se usan xi y xi−1 ). tn+2 )) 3 que es un m´todo multipaso a dos pasos. x(ti )) ∼ f (ti . e xn+2 − xn = Ahora usaremos la notaci´n o k k αj xn+j = h j=0 j=0 βj fn+j . si aproximamos la integral tn+2 x(tn+2 ) − x(tn ) = por la regla de Simpson se obtiene x (s) ds tn x(tn+2 ) − x(tn ) ∼ h (x (tn ) + 4x (tn+1 ) + x (tn+2 )) 3 Recordando que x = f (x.´ 4. tn+1 ) + f (xn+2 .

Si usamos una f´rmula del tipo o tn+k−1 tn+k x (s) ds ∼ h(A0 x (tn ) + . + Ak fn+k ) Si es expl´ ıcito se conoce como m´todo de Adams-Bashforth y si es impl´ e ıcito como m´todo de e Adams-Moulton (ver ejercicios).1. . . escribimos x (t) (jh)2 + . Convergencia de los m´todos multipaso. . para el m´todo. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. . . Este procedimiento se conoce como “predictor-corrector”. t)el error de truncaci´n local est´ dado por o o a k k αj x(t + jh) − h j=0 j=0 βj x (t + jh) = hτ Si x(t) es suficientemente regular. podemos expresar hτ en la forma hτ = C0 x(t) + C1 hx (t) + C2 h2 x (t) + . mientras que si βk = 0 el m´todo es impl´ e ıcito. e Si βk = 0 el m´todo es expl´ e ıcito. e 4. Empecemos por el error de truncaci´n e o para un m´todo de k pasos e k k αj xn+j = h j=0 j=0 βj fn+j Si x(t) es la soluci´n de x = f (x. . . + Cq hq x(q) (t) + . . + Ak x (tn+k )) para aproximar integrales nos encontramos con un m´todo de la forma.172 ´ 8. . Para comenzar a aplicar los m´todos multipaso se necesitan los primeros k valores que usuale mente se calculan con m´todos a un paso. A menudo se usan estos m´todos de a pares y se usa la diferencia entre los dos m´todos. . Para ver esto. 2 x(t + jh) = x(t) + x (t)jh + . e xn+k − xn+k−1 = h(A0 fn + . xi − xi e e ˜ para estimar el error local.

. 2 Metiendo esto en la expresi´n de τ e igualando potencias de h se obtiene o C 0 = α0 + . . . .´ 4. e a . . . xn → x(t∗ ). . − βk En general para cualquier q ≥ 1 Cq = 1 1 (α1 + 2q α2 + 3q α3 + . = Cp = 0 y Cp+1 = 0 el m´todo se dice de orden p. . . fijamos t∗ y ponemos n y h tales que t∗ = (n + k)h. Queremos lim xn+k = x(t∗ ) h→0 Queremos ver que condiciones debemos imponer al m´todo para que esto ocurra. Entonces podemos escribir xn+j = x(t∗ ) + ϕj (h) con ϕj (h) → 0 cuando h → 0. x(0) = 1 (soluci´n x ≡ 1). + αk C1 = α1 + 2α2 + 3α3 + . como antes. . Para un m´todo de orden e e p el error τ satisface τ h = Cp+1 hp+1 x(p+1) (t) + O(hp+2 ) Para ver la convergencia. . El m´todo aplicado a este o e problema se reduce a k αj xn+j = 0 j=0 Para cualquier m´todo multipaso debemos tener (como k est´ fijo y h → 0) que xn+k → x(t∗ ). . . Usando esto se obtiene k k αj x(t∗ ) + j=0 j=0 αj ϕj (h) = 0 . + k q αk ) − (β1 + 2q−1 β2 + . + k q−1 βk ) q! (q − 1)! Si C0 = C1 = . e Primero pongamos el problema x (t) = 0. . METODOS MULTIPASO LINEALES 173 x (t + jh) = x (t) + x (t)jh + x (t) (jh)2 + . . . + kαk − β0 − β1 − β2 − . .

174

´ 8. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS.

Como la segunda suma tiende a cero con h nos queda
k

x(t∗ )
j=0

αj = 0

Es decir C0 = 0. Para ver que C1 tambi´n debe ser cero para que el m´todo converja, consideremos el problema e e x (t) = 1, x(0) = 0 que tiene como soluci´n x(t) = t. El m´todo para este problema se reduce a o e
k k

αj xn+j = h
j=0 j=0

βj

Es f´cil verificar que la sucesi´n dada por a o xl = lhM es soluci´n de este esquema donde o
k j=0 βj k j=0 jαj

M=

Si los valores iniciales se eligen de la forma xl = lhM el m´todo va a producir la soluci´n e o xl = lhM y en particular xn+k = (n + k)hM Como suponemos que el m´todo es convergente se tiene que lo valores iniciales satisfacen xi → e x(0) = 0 cuando h → 0, y adem´s xn+k → x(t∗ ), pero a xn+k = (n + k)hM = t∗ M → t∗ Entonces conclu´ ımos que M =1 lo que nos da

´ 4. METODOS MULTIPASO LINEALES

175

C1 = 0 Esto se denomina consistencia del m´todo multipaso. e Para los m´todos de un paso, la consistencia implicaba la convergencia, para los m´todos mule e tipaso se requiere una condici´n adicional la condici´n de la ra´ o o ız. Veamos esto. Ahora consideremos el problema x (t) = 0, x(t) = 0, cuya soluci´n es x(t) ≡ 0. o En este caso el m´todo se reduce a e
k

αj xn+j = 0
j=0

Esto describe una ecuaci´n en diferencias que admite como soluci´n a la sucesi´n o o o xm = h(ri )m donde ri es cualquiera de las ra´ ıces del polinomio p(r) dado por p(r) = rk + αk−1 rk−1 + . . . + α1 r + α0 Si asumimos que el m´todo es convergente se tiene que e xn+k → x(t∗ ) = 0 Adem´s a xn+k = h(ri )n+k h→0

Para verificar que xn+k → 0, como n = t∗ /h → ∞ cuando h → 0 se debe tener que |ri | ≤ 1 Entonces la convergencia implica que todo cero de p(r) debe satisfacer |ri | ≤ 1. Adem´s, si ri es una ra´ m´ltiple de p(r) podemos poner a ız u xj = hj q (ri )j

176

´ 8. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS.

con q ≤ m − 1 (m es la multiplicidad de la ra´ Tenemos ız). xn+k = h(n + k)q (ri )n+k y como h(n + k) = t∗ para que xn+k → 0 se debe tener |ri | < 1. Es decir debemos pedir la ´ Condicion 8.13. (de la ra´ ız) (1) |ri | ≤ 1 si ri es un cero simple de p(r). (2) |ri | < 1 si ri es un cero m´ltiple de p(r). u Ahora podemos enunciar el teorema Teorema 8.14. Un m´todo multipaso es convergente si y solo si el m´todo es consistente y e e satisface la condici´n de la ra´ o ız. Terminaremos este cap´ ıtulo con una secci´n de m´todos de paso variable. o e 5. M´todos de paso variable e La idea es elegir los pasos hi en forma variable. Por ejemplo, 5.1. Euler adaptivo para una ecuaci´n que explota. Ahora analizaremos un m´todo o e adaptivo para elegir los pasos τj en el m´todo de Euler. e Sea y(t) la soluci´n de la ecuaci´n diferencial o o y (t) = f (y(t)) y(0) = y0 > 0 donde f es positiva, creciente y regular. Supongamos que 1/f < +∞, entonces y(t) explota en tiempo finito T y podemos calcular exactamente el tiempo de explosi´n. De hecho vale o
+∞ +∞

(8.9)

T =
y0

1 ds f (s)

Si aproximamos y(t) usando el m´todo de Euler nos queda e

05 y h = 0. 1] x(0) = 1 empleando pasos h = 0.10) y (8. como y es convexa. . vale a o o ∞ ∞ τj = τ0 + j=0 j=1 λ λ ≤ + f (y0 + jλ) f (y0 ) +∞ y0 +∞ 0 λ ds = f (y0 + sλ) λ + f (y0 ) Entonces Tλ = j τj 1 λ ds = +T f (s) f (y(0 ) < +∞ y Tλ − T ≤ λ . .1. . 1. es f´cil ver que la soluci´n num´rica est´ por debajo de la continua a a o e a y entonces T ≤ Tλ . 10] de la ecuaci´n diferencial o o x (t) = (x(t) − 5).5). EJERCICIOS 177 y j+1 = y j + τj f (y j ) y 0 = y0 Ahora elegimos τj f (y j ) = λ como los pasos τj . |T − Tλ | ≤ f (y0 ) 6. h = 0. f (y0 ) Adem´s. graficando simult´neamente. De hecho.6. j) f (y f (y0 + jλ) De esto podemos concluir que el esquema num´rico tambi´n explota en el sentido siguiente: e e j → ∞ mientras y j τj < +∞. para k = 0. Ejercicios (1) Utilizar el m´todo de Euler para resolver e x = 2x en [0. Concluimos que. (8. λ . 10.10) (8. . . la soluci´n que se obtiene utilizando a o el m´todo de Euler con paso h = 0. τj = Adem´s nos provee de una estimaci´n del tiempo de explosi´n. Usando (8. = y 0 + (j + 1)λ y entonces. . 10] × [0. .01. o (2) Hacer el mapa de curvas integrales en la regi´n [0.(cos2 (t) − 0.11) tenemos y j+1 = y j + λ = .11) λ λ = .01 y con condici´n inicial e o x(0) = k. Graficar las tres soluciones num´ricas e obtenidas junto con la soluci´n exacta.

05. 0. . (b) Utilizar los m´todos de Euler expl´ e ıcito e impl´ ıcito. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS.1.05 y con el comando ode45.5 (a) Calcular el tiempo T en que la soluci´n anal´ o ıtica explota. Agregar estas soluciones al gr´fico e a realizado en dicho ejercicio.6 es consistente. (7) Verificar que la funci´n error. 1. (10) Hallar el error local para los m´todos de Euler expl´ e ıcito e impl´ ıcito. . x(0) = 0 Utilizar un m´todo de Runge-Kutta de orden 2 para hallar erf(ti ) con ti = 0. e (4) Se considera el problema x (t) = x(t) + t2 + 3 x(0) = −2 en [0. o o (b) Calcular y graficar en el intervalo [0. la soluci´n exacta tiende a cero a medida que x crece.1] la aproximaci´n a la soluci´n de la ecuaci´n utilizando el m´todo de Euler adaptativo de par´metro λ con un λ tal o e a que el tiempo en que explota la soluci´n num´rica Tλ diste de T en menos que o e 10−1 .15. e e (9) Probar que el m´todo de Runge-Kutta de oprden 4 dado en el Ejemplo 8. a (c) Agregar al gr´fico anterior las aproximaciones obtenidas en el mismo intervalo con el m´todo de Euler usual con paso h = 0. (8) Considerar la ecuaci´n o x = x2 . x(0) = 0. x(0) = x0 (a) Probar que el m´todo de Euler con paso h genera la sucesi´n: e o xi = (1 + λh)i x0 i = 0. o (c) Para λ < 0. Decidir en que regi´n del gr´fico o o a deber´ situarse la soluci´n anal´ a o ıtica del problema. . . . . 0. . (b) Mostrar que si λ < 0.05 para obtener dos aproximaciones de la soluci´n y graficarlas. 4] la soluci´n exacta y las que se obtienen con los m´todos de Euler o e y Taylor de orden 2. Graficar simult´neamente o o a en el intervalo [0. determinar para qu´ valores de h ocurre que xi → 0 cuando i → ∞. T − 0. e 0.178 ´ 8. 1. (6) Escriba un programa que resuelva la ecuaci´n diferencial del Ejercicio 5 por alg´n o u m´todo de Runge-Kutta de orden 2 y de orden 4. erf. 2] o o (a) Demostrar que la soluci´n es una funci´n convexa. (c) Graficar la soluci´n que se logra al utilizar el comando ode45 de Matlab. o (5) Se considera la siguiente ecuaci´n diferencial: o x (t) = 2x(t) − 5 sin(t) x(0) = 1 cuya soluci´n exacta es la funci´n x(t) = 2 sin(t) + cos(t). . Comparar con los valores obtenidos directamente con el comando erf de Matlab. con paso h = 0. (3) Considerar el problema x = λx .05. ambos con paso h = 0. puede ser definida como la soluci´n de la ecuaci´n o o o diferencial 2 2 x (t) = √π e−t . .

o (b) Analizar la convergencia (estabilidad y consistencia) del m´todo y calcular su e o ´rden. 3 3 3 aproiximando la integral tn tn f (t. 20] con el m´todo de Euler utilizando paso e h = 0. Realizar nuevamente el gr´fico utilizando la soluci´n a o obtenida con el comando ode45. para el error cometido si se usa el m´todo e e de Euler para calcular x(1). con la f´rmula de Simpson. Mostrar que un problema de valores iniciales para la primera se transforma en un problema de valores iniciales para el sistema. Hallar un paso h de modo que el error cometido resulte o menor que 10−3 . x(t)). y o verificar las estimaciones previstas comparando con la soluci´n exacta. x2 son la soluci´n del siguiente sistema de o ecuaciones diferenciales: x1 (t) = −x2 (t) . (15) Probar que una ecuaci´n de orden n se puede escribir como un sistema de n ecuaciones o de primer orden. donde las funciones x1 . x2 (t)).05 y graficar la trayectoria de la part´ ıcula. 12 . con x(0) = 1. aplicando el m´todo de Euler. (18) Analizar la convergencia de los siguientes m´todos y calcular su ´rden. en t´rminos de h. (a) Determinar una cota. o (13) Repetir los items (a) y (b) del ejercicio anterior para el problema: x (t) = t sin2 (x(t)) x(0) = 1 ıcula que se se mueve en el plano est´ dada por las cura (14) La trayectoria de una part´ va (x1 (t).6. x(t))dt = tn−2 tn−2 x (t)dt = x(tn ) − x(tn−2 ). el valor de e como x(1) donde x(t) es e soluci´n de x = x. sabiendo que en tiempo t = 0 se encontraba en el punto (1. Resolver la ecuaci´n anal´ o ıticamente y aproximar el valor x(1) con un m´todo de Rungee Kutta de orden 2 para distintos valores de h. x (0) = 0. e (12) Considerar el problema x = −2tx. (16) Considerar el siguiente problema: x − 3x + 2x = 0. x2 (t) = x1 (t) − x2 (t) Resolver este sistema en el intervalo [0. con t ≥ 0. −1). o (a) Deducir la f´rmula de Milne: o 1 4 1 xn = xn−2 + h( fn + fn−1 + fn−2 ). h xn+3 − xn+2 = (23fn+2 − 16fn+1 + 5fn ). x(0) = 1. EJERCICIOS 179 (11) Se quiere estimar. (17) Considerar la ecuaci´n x (t) = f (t. Realizar el mismo trabajo para el m´todo de Taylor de orden 2. (b) ¿C´mo deber´ tomar h si se desea que el error cometido sea menor que 10−2 ? o ıa (c) Calcular la soluci´n en t = 1 usando el valor de h obtenido en el item previo. x(0) = 1. e o • Adams-Bashforth.

000001. RESOLUCION DE ECUACIONES DIFERENCIALES ORDINARIAS. con paso e h = 0. Nota: La gran propagaci´n del error en el dato inicial se debe a que esta ecuaci´n o o tiene infinitas soluciones si x(0) = 0. β0 de modo que el m´todo resultante tenga orden 4. Considerar la ecuaci´n x = |x|. 12 . a o (a) Para el valor inicial x(0) = 0. es decir x(0) = 0. Determinar a. o h (5fn+3 + 8fn+2 − fn+1 ). (b) Graficar la soluci´n que se obtiene al aplicar el m´todo de Euler.180 ´ 8. cualquiera sea α > 0   0 t≤α 2 x(t) = (t − α)  t>α 4 es soluci´n de la misma. xn+3 − xn+2 = (19) Considerar el m´todo de 2 pasos e xn+2 + axn+1 + axn = h(β2 fn+2 + β1 fn+1 + β0 fn ). β1 . β2 . (21) Miscel´nea.1 hasta llegar al valor de x(10). • Adams-Moulton. seguir las iteraciones del m´todo de Euler. e (20) Decidir si existe alg´n valor de a ∈ IR para el cual el siguiente m´todo multipaso sea u e convergente: xn+3 − 3xn+2 + (3 − a2 )xn+1 + (a2 − 1)xn = h[5fn+2 + (−a2 − 5)fn ]. En particular. si el valor de x(0) o e es dado con un error de 10−6 .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->