DEPARTAMENTO DE MATEMÁTICAS

UNIVERSIDAD DE EXTREMADURA
06071-BADAJOZ (Spain)
Universidad de Extremadura
Departamento de Matem´aticas
Apuntes de C
´
alculo Num
´
erico
Pedro Mart
´
ın Jim
´
enez
http://cum.unex.es/profes/profes/pjimenez/
Badajoz, septiembre 2005
´
Indice
Introducci´ on 7
1 Errores, redondeo, estabilidad, condicionamiento. 9
1.1 Cifras significativas. Exactitud y precisi´on. Errores. . . . . . . 9
1.2 C´alculos estables e inestables. Condicionamiento. . . . . . . . . 12
1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Condicionamiento . . . . . . . . . . . . . . . . . . . . . 12
1.3 Aritm´etica de la computadora . . . . . . . . . . . . . . . . . . . 13
1.3.1 Aritm´etica de punto flotante. . . . . . . . . . . . . . . . 13
1.3.2 Operaciones con computadoras . . . . . . . . . . . . . . 15
1.3.3 Epsilon de la m´aquina . . . . . . . . . . . . . . . . . . . 16
2 Resoluci´ on de ecuaciones no lineales 17
2.1 M´etodo de la bisecci´on . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 19
2.1.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 19
2.1.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 20
2.1.4 Variaciones del m´etodo: Regula Falsi . . . . . . . . . . . 21
2.2 M´etodo de Newton-Raphson . . . . . . . . . . . . . . . . . . . . 22
2.2.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 22
2.2.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 23
2.2.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 24
2.2.4 Variaciones del m´etodo: M´etodo de la secante . . . . . . 27
2.3 M´etodo iterativo de punto fijo . . . . . . . . . . . . . . . . . . . 28
2.3.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 28
2.3.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 29
2.3.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 30
2.4 Ra´ıces de polinomios . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Separaci´on de ra´ıces. Sucesi´on de Sturm. . . . . . . . . 34
3
4
´
INDICE
2.4.2 Acotaci´on de ra´ıces . . . . . . . . . . . . . . . . . . . . . 37
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner . . . . 38
2.4.4 Ra´ıces m´ ultiples . . . . . . . . . . . . . . . . . . . . . . 39
3 Sistemas Lineales 41
3.1
´
Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.1 Valores propios y vectores propios . . . . . . . . . . . . 45
3.1.2 Matriz definida . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Resoluci´on de sistemas de ecuaciones lineales: m´etodo de Gauss 46
3.2.1 M´etodo de Gauss . . . . . . . . . . . . . . . . . . . . . . 47
3.2.2 M´etodo de Gauss con pivoteo . . . . . . . . . . . . . . . 49
3.3 Factorizaci´on LU. Factorizaci´on de Cholesky . . . . . . . . . . . 53
3.3.1 M´etodo de Crout . . . . . . . . . . . . . . . . . . . . . . 55
3.3.2 M´etodo de Cholesky . . . . . . . . . . . . . . . . . . . . 55
3.3.3 Sistemas triangulares . . . . . . . . . . . . . . . . . . . . 55
3.4 Normas y an´alisis del error . . . . . . . . . . . . . . . . . . . . 57
3.4.1 N´ umero condici´on de una matriz . . . . . . . . . . . . . 60
3.5 Mejora de soluciones . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.1 Refinamiento iterativo . . . . . . . . . . . . . . . . . . . 62
3.5.2 Escalamiento . . . . . . . . . . . . . . . . . . . . . . . . 63
3.6 M´etodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.6.1 M´etodo de Jacobi . . . . . . . . . . . . . . . . . . . . . 66
3.6.2 M´etodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . 68
3.6.3 M´etodos de relajaci´on . . . . . . . . . . . . . . . . . . . 69
4 Aproximaci´ on de funciones 71
4.1 Construcci´on del polinomio interpolador . . . . . . . . . . . . . 71
4.1.1 M´etodo de Lagrange . . . . . . . . . . . . . . . . . . . . 73
4.1.2 M´etodo de Newton . . . . . . . . . . . . . . . . . . . . . 73
4.2 Error del polinomio interpolador . . . . . . . . . . . . . . . . . 74
4.2.1 Elecci´on de nodos. Polinomios de Chebyshev . . . . . . 75
4.3 Interpolaci´on a trozos y con condiciones sobre la derivada . . . 78
4.3.1 Interpolaci´on a trozos . . . . . . . . . . . . . . . . . . . 78
4.3.2 Interpolaci´on con condiciones sobre la derivada . . . . . 79
5 Diferenciaci´ on e integraci´ on num´erica 87
5.1 Diferenciaci´on num´erica y extrapolaci´on de Richarson . . . . . 87
5.1.1 Diferenciaci´on mediante interpolaci´on . . . . . . . . . . 90
´
INDICE 5
5.1.2 Extrapolaci´on de Richarson . . . . . . . . . . . . . . . . 92
5.2 Integraci´on num´erica mediante interpolaci´on . . . . . . . . . . . 96
5.2.1 Regla del trapecio . . . . . . . . . . . . . . . . . . . . . 97
5.2.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . 98
5.2.3 Reglas compuestas . . . . . . . . . . . . . . . . . . . . . 99
5.2.4 M´etodo de los coeficientes indeterminados . . . . . . . . 101
5.3 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . 102
5.4 Integraci´on de Romberg . . . . . . . . . . . . . . . . . . . . . . 104
5.5 Cuadratura adaptativa . . . . . . . . . . . . . . . . . . . . . . . 107
6 Resoluci´ on num´erica de ecuaciones diferenciales 113
6.1 Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . 113
6.2 M´etodo de la serie de Taylor . . . . . . . . . . . . . . . . . . . 115
6.2.1 M´etodo de Euler . . . . . . . . . . . . . . . . . . . . . . 118
6.2.2 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3 M´etodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . 119
6.3.1 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4 M´etodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4.1 F´ormulas de Adams-Bashforth . . . . . . . . . . . . . . 128
6.4.2 F´ormulas de Adams-Moulton . . . . . . . . . . . . . . . 129
Problemas 135
Introducci´ on
El texto que sigue no es definitivo ni exhaustivo. Se ir´a reformando a medida
que se detecten fallos o se modifique el contenido para mejorarlo. Debeis
emplearlo como una ayuda para preparar la asignatura An´alisis Matem´atico I
y como complemento de las notas que tomeis en clase.
Espero que os sirva.
Pedro Mart´ın.
7
Cap´ıtulo 1
Errores, redondeo,
estabilidad, condicionamiento.
1.1 Cifras significativas. Exactitud y precisi´ on. Erro-
res.
Cualquier n´ umero real x puede representarse en forma decimal con un n´ umero
finito o infinito de d´ıgitos:
x = α
m
α
m−1
. . . α
1
α
0
. β
1
β
2
. . . β
n
. . . con α
i
, β
j
∈ 0, 1, 2, . . . , 9
Con la expresi´on anterior queremos representar que
x = α
m
10
m

m−1
10
m−1
+ +α
1
10+α
0
10
0

1
10
−1

2
10
−2
+ +β
n
10
−n
+. . .
El C´alculo Num´erico consiste en desarrollar m´etodos para encontrar soluciones
lo m´as aproximadas posibles a la verdadera soluci´on de un cierto problema.
Se trabaja, por tanto, con n´ umeros aproximados en lugar de n´ umeros exactos,
por lo que se utilizan aproximaciones con un n´ umero finito de decimales.
Toda expresi´on aproximada tiene un n´ umero determinado de cifras sig-
nificativas. El concepto de cifra significativa intenta trasmitir la idea de
cuando una cifra que aparece en la expresi´on decimal trasmite informaci´on
”esencial”y ”de fiar”sobre el n´ umero que se intenta aproximar. La significa-
ci´on de una cifra depende del contexto y no solo de la expresi´on decimal en la
que aparece.
9
10 Cap´ıtulo 1
Ejemplo: Cuando decimos ”circulamos a 48.5 Km/hora”porque vemos
que la aguja del veloc´ımetro del coche est´an entre 48 y 49, en nuestra aproxi-
maci´on (48.5) al valor verdadero de la velocidad, estamos manejando solo dos
cifras significativas, las que permiten situar la velocidad entre 48 y 49. La ter-
cera cifra (.5) es una estimaci´on que podr´ıamos evitar, pues no es ”de fiar”. No
es significativa. El veloc´ımetro (para velocidades menores de 100) solo permite
aproximaciones con dos cifras significativas. Si hacemos observaciones con una
cifra decimal, esta podr´ıa variar si es otro el observador.

Los ceros que se a˜ naden a la izquierda de una expresi´on decimal para situar
la primera cifra distinta de cero no son significativos:
Ejemplo: Los n´ umeros
0.00001845 0.0001845 0.001845
tienen todos cuatro cifras significativas.

Los ceros que se a˜ naden al final pueden ser o no significativos:
Ejemplo: En la expresi´on ”se manifestaron 45000 personas”, los tres
´ ultimos ceros parecen ser no significativos. Sin embargo en la expresi´on ”me
cost´o 45000 euros exactos”s´ı son significativos.

Para evitar equ´ıvocos acerca del n´ umero de cifras significativas, se emplea
la notaci´ on cient´ıfica (en el ejemplo anterior, 4.5 10
4
, 4.5000 10
4
).
Cualquier m´etodo del C´alculo Num´erico que se emplee en la resoluci´on de
un problema, debe ser suficientemente exacto, es decir, los valores aproxi-
mados que se obtengan en diferentes intentos de soluci´on deben estar cerca
del valor verdadero. Cuanto mayor sea el n´ umero de cifras significativas de la
aproximaci´on, mayor ser´a la exactitud. Tambi´en deben ser preciso, es decir
los diferentes valores obtenidos para la resoluci´on de un problema deben estar
cercanos entre s´ı.
Con el uso de aproximaciones para representar operaciones y cantidades
matem´aticas se generan errores num´ericos. Se denomina error E a la can-
tidad:
E = valor verdadero −valor aproximado
A menudo se trabaja con el error absoluto ([E[). El error relativo es
e =
E
valor verdadero
.
Errores, redondeo, estabilidad, condicionamiento 11
Este ´ ultimo compara la magnitud del error cometido con la magnitud del valor
que se pretende estimar y puede interpretarse en t´erminos de %.
Las causas de los errores pueden ser:
• Truncamiento: surgen al sustituir un procedimiento matem´atico exacto
por uno aproximado. Ejemplo: utilizar un polinomio de Taylor para encontrar
el valor de una funci´on en un punto.
• Redondeo: surgen al sustituir un n´ umero exacto por uno aproximado.
Ejemplo: sustituir 1/3 por 0.33333333. Para minimizar este tipo de error se
recurre a las reglas de redondeo:
1. En los c´alculos, se conservan las cifras significativas y el resto se descar-
tan. El ´ ultimo d´ıgito que se conserva se aumenta en uno si el primer
d´ıgito descartado es mayor que 5. Si es 5 o es 5 seguido de ceros, enton-
ces el ´ ultimo d´ıgito retenido se incrementa en uno solo si este ´ ultimo es
impar:
n´ umero 6 cifras significativas 8 cifras significativas
5.6170431500 5.61704 5.6170432
5.6170462500 5.61705 5.6170462
2. En la suma y en la resta, el redondeo se lleva a cabo de forma tal que el
´ ultimo d´ıgito retenido en la respuesta corresponda al ´ ultimo d´ıgito M
´
AS
significativo de los n´ umeros que se est´an sumando o restando. N´otese
que un d´ıgito en la columna de las cent´esimas es m´as significativo que
una en la columna de las mil´esimas.
2.2 −1.768 = 0.432 −→0.4
4.68 10
−7
+ 8.3 10
−4
−228 10
−6
= 6.02468 10
−4
−→6.0 10
−4
3. En la multiplicaci´on y divisi´on se conserva el n´ umero m´ınimo de cifras
significativas que tenga los n´ umeros que intervienen:
0.0642 4.8 = 0.30816 −→0.31
945/0.3185 = 2967.032967 −→297 10
4. Para combinaciones de las operaciones aritm´eticas, existen dos casos
generales.
(multiplicaci´on o divisi´on ) ±(multiplicaci´on o divisi´on)
(suma o resta )
×
÷ (suma o resta)
12 Cap´ıtulo 1
En ambos casos, se ejecutan primero las operaciones entre par´entesis y
se redondea el resultado antes de proceder con otra operaci´on.
• Otras causas de error: equivocaci´on de usuario, mala formulaci´on del
modelo, incertidumbre en los datos f´ısicos recogidos, etc.
1.2 C´alculos estables e inestables. Condicionamien-
to.
1.2.1 Inestabilidad
Decimos que un proceso num´erico es inestable cuando los peque˜ nos errores
que se producen en alguna de sus etapas se agrandan en etapas posteriores y
degradan seriamente la exactitud del c´alculo en su conjunto.
Ejemplo: Consideremos la sucesi´on
x
0
= 1, x
1
=
1
3
, x
n+1
=
13
3
x
n

4
3
x
n−1
∀n ≥ 1
La sucesi´on anterior verifica que x
n
= (
1
3
)
n
. Si calculamos el t´ermino x
11
con
el programa Maxima, obtenemos −1.08616217029341310
−6
con la definici´on
inductiva y 2.867971990792441 10
−10
con la otra definici´on. El c´alculo de
los valores de la sucesi´on por el m´etodo inductivo es inestable, pues cualquier
error que se presente en x
n
se multiplica por 13/3 al calcular x
n+1
.
1.2.2 Condicionamiento
Un problema est´a mal condicionado si peque˜ nos cambios en los datos pueden
dar lugar a grandes cambios en las respuestas. En ciertos problemas se puede
calcular un n´ umero de condici´on. Si este es grande significa que el problema
est´a mal condicionado.
Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax =
b, se puede calcular el n´ umero de condici´on as´ı:
k(A) = |A| |A
−1
|,
donde |A| = max
i,j
[a
ij
[. Dado el sistema
x + 1.01y = 1
0.99x +y = 1
Errores, redondeo, estabilidad, condicionamiento 13
el n´ umero de condici´on de la matriz del sistema ser´ıa k(A) = |A| |A
−1
| =
(1.01)(10100) = 10201. Esto significa que peque˜ nos cambios en b producir´an
grandes cambios en la soluci´on. De hecho:
x + 1.01y = 1
0.99x +y = 1

⇒[x = −100, y = 100]
y
x + 1.01y = 1.01
0.99x +y = 1

⇒[x = 0, y = 1]
1.3 Aritm´etica de la computadora
1.3.1 Aritm´etica de punto flotante.
Las computadoras utilizan la llamada aritm´etica del punto flotante, es decir,
almacenan cada n´ umero desplazando sus d´ıgitos de modo que aparezca de la
forma
0.β
1
β
2
...β
n
10
e
.
Por ejemplo:
13.524 →0.13524 10
2
−0.0442 →−0.442 10
−1
C´omo todos los n´ umeros se traducen seg´ un la aritm´etica del punto flotante,
todos empezar´an con 0. y terminar´an con 10
e
. El ordenador, para almace-
narlos ahorrando memoria, prescinde de lo que es com´ un a todos los n´ umeros,
y as´ı el 13.524 se almacena como 13524E2 y el −0.0442 como −442E −1.
Por otra parte, la mayor parte de las computadoras trabajan con n´ umeros
reales en sistema binario, en contraste con el sistema decimal que normalmente
se utiliza. As´ı, el n´ umero 9.90625 en sistema decimal, se convierte en binario
en:
9 = 2 ∗ (2 ∗ (2 ∗ 1 +0) +0) +1 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
= (1001)
2
0.90625 ∗ 2 = 1.81250 1 ∗ 2
−1
0.81250 ∗ 2 = 1.625 1 ∗ 2
−2
0.625 ∗ 2 = 1.25 1 ∗ 2
−3
.25 ∗ 2 = 0.5 1 ∗ 2
−4
.5 ∗ 2 = 1 1 ∗ 2
−5


14 Cap´ıtulo 1
0.90625 = 1 ∗ 2
−1
+ 1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (0.11101)
2
Con lo que
1.90625 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
+ 1 ∗ 2
−1
+
+1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (1001.11101)
2
En general, la representaci´on de un n´ umero en una computadora ser´a de
la forma:
±

d
1
d
2
...d
p
B
e
y se almacenar´a de la forma
±d
1
d
2
...d
p
Ee
donde B es la base, d
i
∈ ¦0, 1, 2, ..., B − 1¦, d
1
> 0, p es el n´ umero m´aximo
de bits significativos y e es el exponente de la potencia de B. El 0 es un caso
especial que se almacena como 00...0E0. La parte d
1
d
2
...d
p
se llama parte sig-
nificativa o mantisa. p es el n´ umero m´aximo de bits que puede tener esa parte
significativa del n´ umero que se almacena y es, por tanto, finita. Cuanto m´as
grande sea p, mayor ser´a la precisi´on de la m´aquina. Como consecuencia de
todo lo anterior, en cualquier m´aquina solo se pueden almacenar una cantidad
finita de n´ umeros, llamados n´ umeros m´ aquina. En los ordenadores de base 2,
d
1
siempre es 1, con lo que se puede suprimir, aumentando la precisi´on. Se
gana con ello un bit que se denomina bit escondido.
Ejemplo: Si en una computadora se tiene que B = 2, p = 2 y −3 ≤ e ≤ 3,
entonces solo se podr´an almacenar n´ umeros de la forma
±.10
2
2
e
±.11
2
2
e
con −3 ≤ e ≤ 3.
Como
.10
2
= 1 2
−1
+ 0 2
−2
= 1/2
los n´ umeros ±.10
2
2
e
son
±4, ±2, ±1, ±1/2, ±1/4, ±1/8,
y como
.11
2
= 1 2
−1
+ 1 2
−2
= 1/2 + 1/4 = 3/4
los n´ umeros ±.11
2
2
e
son
±6, ±3, ±3/2, ±3/4, ±3/8, ±3/16.
Errores, redondeo, estabilidad, condicionamiento 15
En este sistema el n´ umero 2

9 se almacenar´ıa, seg´ un est´e dise˜ nada la com-
putadora, bien como 2 si se hace por truncamiento, o bien como 3 si se hace
por redondeo. Tambi´en se almacenar´ıan como 2 los n´ umeros 2

3 o 2

4.

Los par´ametros B, p y e de una m´aquina real pueden ser los siguientes:
B = 2, p = 23 bits, e = 8 bits, con lo cual el n´ umero m´aximo que se podr´ıa
almacenar ser´ıa 1

701E38. Todo n´ umero mayor que el anterior estar´ıa en el
desbordamiento positivo de la m´aquina. El n´ umero m´ınimo en valor absoluto
ser´ıa 1

755E−38. Todo n´ umero positivo menor estar´ıa en el subdesbordamiento
positivo de la m´aquina. De forma similar se definen desbordamiento negativo
y subdesbordamiento negativo.
1.3.2 Operaciones con computadoras
Supongamos una computadora cuyos par´ametros sean B = 10, p = 3 y −9 ≤
e ≤ 9. Veamos como trabajan y como se pueden generar errores al manejar
las operaciones b´asicas y el redondeo:
1. Para la suma, el de menor exponente se desplaza para alinear la coma
decimal
1.37 + 0.0269 = 0.137 10
1
+ 0.269 10
−1
=
= 0.137 10
1
+ 0.00269 10
1
= 0.13969 10
1
que se almacenar´ıa como 0.13910
1
por truncamiento y 0.14010
1
por
redondeo.
2. En la resta:
4850 −4820 = 0.485 10
4
−0.482 10
4
= 0.003 10
4
= 0.300 10
2
que se almacenar´ıa como 0.30010
2
tanto por redondeo como por trun-
camiento.
3. En el producto, se multiplican las cifras significativas y se suman los
exponentes:
403000 0.0197 = 0.403 10
6
0.197 10
−1
= 0.079391 10
5
que se almacena como 0.793 10
4
por truncamiento y 0.794 10
4
por
redondeo.
16 Cap´ıtulo 1
4. En la divisi´on, se dividen las cifras significativas y se restan los exponen-
tes:
0.0356/1560 = 0.356 10
−1
/0.156 10
4
= 2.28205 10
−5
que se almacena como 0.228 10
−4
.
Otra fuente de error puede ser el paso de sistema decimal a sistema binario.
As´ı el n´ umero 1/10 en sistema binario es (0.0001100110011001...)
2
.
1.3.3 Epsilon de la m´aquina
La diferencia m´as peque˜ na entre dos n´ umeros que puede detectar una m´aquina
se denomina epsilon de la m´ aquina. Tambi´en se puede definir como el menor
n´ umero ε > 0 tal que
1.0 +ε = 1.0
y se puede calcular programando este algoritmo:
input s ←1.0
for k = 1, 2, . . . , 100 do
s ←0.5s
t ←s + 1.0
if t ≤ 1.0 then
s ←2.0s
output k-1,s
stop
end if
end
Cap´ıtulo 2
Resoluci´ on de ecuaciones no
lineales
-10 -8 -6 -4 -2
-1
-0.5
0.5
1
1.5
f(x) = e
x
−sen(x)
Dada una funci´on f : R → R, trataremos
de encontrar m´etodos que permitan loca-
lizar valores aproximados de las soluciones
de f(x) = 0.
Ejemplo: Dada la ecuaci´ on e
x

sen(x) = 0, encuentra la soluci´ on m´ as cer-
cana a 0.

Para resolver ejercicios como el anterior es conveniente recordar los siguien-
tes resultados:
Teorema [Bolzano]: Sea f : R → R una funci´ on continua en [a, b] tal
que f(a)f(b) < 0. Entonces existe c ∈ (a, b) tal que f(c) = 0.
El teorema de Bolzano se utiliza en este contexto para localizar intervalos
que contengan una soluci´on de f(x) = 0 cuando la funci´on f(x) sea continua.
Ejercicio: Dada la ecuaci´ on e
x
− sen(x) = 0, localiza un intervalo donde
exista una soluci´ on.
17
18 Cap´ıtulo 2
Teorema [Rolle]: Sea f : R →R una funci´ on continua en [a, b], derivable
en (a, b) y tal que f(a) = f(b). Entonces existe c ∈ (a, b) tal que f

(c) = 0.
Del teorema de Rolle se deduce que, si f(x) cumple las hip´otesis, entre
cada dos soluciones de la ecuaci´on f(x) = 0 debe existir al menos una soluci´on
de f

(x) = 0. De este modo, el n´ umero m´aximo de soluciones de f(x) = 0 ser´a
el n´ umero de soluciones de f

(x) = 0 m´as uno. Por tanto, el teorema de Rolle
se utilizar´a para determinar el n´ umero m´aximo de soluciones que puede tener
una ecuaci´on f(x) = 0.
Ejercicio: Determina el n´ umero de soluciones de la ecuaci´ on e
x
−x = 0.
Teorema [Taylor]: Sea f : R →R una funci´ on n veces derivable en [a, b]
y n + 1 veces derivable en (a, b). Entonces, para cada x
0
∈ [a, b] existe un
polinomio de grado menor o igual que n que tiene un punto de contacto con
f(x) de grado n en x
0
. Dicho polinomio es
P
n,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
) + +
f
n)
(x
0
)
n!
(x −x
0
)
n
.
Adem´ as, para cada x ∈ [a, b] existe un punto θ
x
entre x y x
0
tal que
f(x) −P
n,x
0
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)
n+1
.
Teorema [de valor medio]: Sea f : R → R una funci´ on continua en
[a, b] y derivable en (a, b). Entonces existe c ∈ (a, b) tal que
f(b) −f(a)
b −a
= f

(c).
Resoluci´ on de ecuaciones no lineales 19
2.1 M´etodo de la bisecci´ on
2.1.1 Descripci´ on del m´etodo
Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos
cada vez m´as peque˜ nos. Supongamos que f(a) < 0 y f(b) > 0 (de forma
similar se razonar´ıa si f(a) > 0 y f(b) < 0).
Paso 0. Partimos del intervalo [a, b] y calculamos c
0
=
a+b
2
.
Paso 1. Si f(c
0
) < 0, definimos a
1
= c
0
y b
1
= b. Si f(c
0
) > 0, definimos
a
1
= a y b
1
= c
0
. En ambos casos, estudiamos el intervalo [a
1
, b
1
] y calculamos
c
1
=
a
1
+b
1
2
.
Paso 2. Si f(c
1
) < 0, definimos a
2
= c
1
y b
2
= b
1
. Si f(c
1
) > 0, definimos
a
2
= a
1
y b
2
= c
1
. En ambos casos, estudiamos el intervalo [a
2
, b
2
] y calculamos
c
2
=
a
2
+b
2
2
.
Paso n. Si f(c
n−1
) < 0, definimos a
n
= c
n−1
y b
n
= b
n−1
. Si f(c
n−1
) > 0,
definimos a
n
= a
n−1
y b
n
= c
n−1
. En ambos casos, estudiamos el intervalo
[a
n
, b
n
] y calculamos c
n
=
a
n
+b
n
2
.
2.1.2 Convergencia del m´etodo
Teorema: Si [a, b], [a
1
, b
1
], . . . , [a
n
, b
n
], . . . denotan los intervalos utilizados en
el m´etodo de la bisecci´ on, entonces
lim
n→∞
a
n
= lim
n→∞
b
n
= lim
n→∞
c
n
= r
y adem´ as f(r) = 0.
Demostraci´on. Por la construcci´on de las sucesiones se tiene que
a ≤ a
1
≤ a
2
≤ ≤ b
2
≤ b
1
≤ b
y
(b
n
−a
n
) =
1
2
(b
n−1
−a
n−1
) = =
1
2
n
(b −a).
Por tanto, la sucesi´on (a
n
)
n∈N
converge por ser creciente y acotada superior-
mente y la sucesi´on (b
n
)
n∈N
converge por ser decreciente y acotada inferior-
mente. Veamos que sus l´ımites son iguales
lim
n→∞
b
n
− lim
n→∞
a
n
= lim(b
n
−a
n
) = lim
n→∞
1
2
n
(b −a) = 0.
20 Cap´ıtulo 2
Dado lo anterior y puesto que a
n
≤ c
n
≤ b
n
se concluye que
lim
n→∞
a
n
= lim
n→∞
c
n
= lim
n→∞
b
n
.
Llamemos a ese l´ımite r. Veamos ahora que r es la soluci´on de f(x) = 0
utilizando las hip´otesis de continuidad de f(x) y la condici´on f(a
n
)f(b
n
) ≤ 0 :
0 ≥ f(r)f(r) = f( lim
n→∞
a
n
)f( lim
n→∞
b
n
) =
lim
n→∞
f(a
n
) lim
n→∞
f(b
n
) = lim
n→∞
f(a
n
)f(b
n
) ≤ 0.
Por tanto f(r) = 0 que era lo que se ten´ıa que probar.

2.1.3 Aproximaci´ on y error
Una aproximaci´on a la soluci´on de la ecuaci´on f(x) = 0 en el paso n es c
n
.
Una cota del error cometido ser´a:
[r −c
n
[ ≤
1
2
[b
n
−a
n
[ =
1
2
2
[b
n−1
−a
n−1
[ =
1
2
n+1
[b −a[.
Ejemplo: Encuentra una aproximaci´ on de la soluci´ on de e
x
= sen(x) con
un error menor que 10
−2
.
Aplicaremos el m´etodo de la bisecci´on a la funci´on f(x) = e
x
−sen(x). Por
el teorema de Bolzano sabemos que hay una soluci´on de f(x) = 0 en el intervalo
[−4, −3], puesto que f(−4) < 0 y f(−3) > 0. Si c
n
es la aproximaci´on y r es la
soluci´on exacta, como queremos que el error sea menor que 10
−2
, tendremos
que:
[r −c
n
[ ≤
1
2
n+1
[b −a[ =
1
2
n+1
[ −3 −(−4)[ =
1
2
n+1
< 10
−2
por lo que n ≥ 6, es decir, tendremos que calcular c
6
.
Los c´alculos ser´ıan los siguientes:
a
0
= −4 b
0
= −3 c
0
= −3.5 f(c
0
) = −0.3206
a
1
= −3.5 b
1
= −3 c
1
= −3.25 f(c
1
) = −0.0694
a
2
= −3.25 b
2
= −3 c
2
= −3.125 f(c
2
) = 0.0554
a
3
= −3.25 b
3
= −3.125 c
3
= −3.1875 f(c
3
) = −0.0046
a
4
= −3.1875 b
4
= −3.125 c
4
= −3.15625 f(c
4
) = 0.0277
a
5
= −3.1875 b
5
= −3.15625 c
5
= −3.175 f(c
5
) = 0.0084
a
6
= −3.1875 b
6
= −3.175 c
6
= −3.18125
La soluci´on aproximada propuesta ser´ıa −3.18125.
Resoluci´ on de ecuaciones no lineales 21
2.1.4 Variaciones del m´etodo: Regula Falsi
El m´etodo de la Regula-falsi difiere respecto de la bisecci´on en el c´alculo del
punto c
n
. Con este m´etodo se calcula as´ı:
c
n
= b
n
−f(b
n
)
b
n
−a
n
f(b
n
) −f(a
n
)
.
El paso siguiente es elegir el intervalo formado por los puntos a
n
y c
n
o bien
el formado por c
n
y b
n
asegurando que la funci´on en los extremos sea de signo
contrario.
Ejemplo: Aplicar el m´etodo de la regula falsi para encontrar una soluci´ on
de f(x) = 3x + sen(x) −e
x
= 0 a partir del intervalo [0, 1].
a
0
= 0 b
0
= 1 c
0
= 0.470990 f(c
0
) = 0.265160
a
1
= 0 b
1
= 0.470990 c
1
= 0.372277 f(c
1
) = 0.029533
a
2
= 0 b
2
= 0.372277 c
2
= 0.361598 f(c
2
) = 2.94 ∗ 10

3
a
3
= 0 b
3
= 0.361598 c
3
= 0.360538 f(c
3
) = 2.94 ∗ 10

4
a
4
= 0 b
4
= 0.360538 c
4
= 0.360433 f(c
4
) = 2.94 ∗ 10

5
0.2 0.4 0.6 0.8 1
-1
-0.5
0.5
1
regula falsi para f(x) = 3x + sen(x) −e
x

22 Cap´ıtulo 2
2.2 M´etodo de Newton-Raphson
2.2.1 Descripci´ on del m´etodo
Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´on
f(x).
Paso 1. Partimos de un punto inicial x
0
. Calculamos el polinomio de Taylor
de f(x) de grado 1 en x
0
P
1,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
).
Paso 2. Utilizamos P
1,x
0
(x) como aproximaci´on de f(x) y, en vez de resolver
f(x) = 0, resolvemos P
1,x
0
= 0, es decir
f(x
0
) +f

(x
0
)(x −x
0
) = 0 ⇒x = x
0

f(x
0
)
f

(x
0
)
.
Paso 3. Definimos
x
1
= x
0

f(x
0
)
f

(x
0
)
y repetimos los pasos 1, 2 y 3 sustituyendo el punto x
n−1
por el punto x
n
, es
decir construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
.
Cuando la sucesi´on x
0
, x
1
, x
2
, . . . es convergente y la funci´on f(x) tiene cierta
regularidad, su l´ımite r es la soluci´on puesto que
r = lim
n→
x
n
= lim
n→
¸
x
n−1

f(x
n−1
)
f

(x
n−1
)

= r −
f(r)
f

(r)

f(r)
f

(r)
= 0 ⇒f(r) = 0.
Ejemplo Aplica el m´etodo de Newton-Raphson para encontrar una apro-
ximaci´ on de

2.
Puesto que queremos una aproximaci´on de

2, bastar´a encontrar una apro-
ximaci´on de x
2
−2 = 0. Utilizamos el m´etodo de Newton-Raphson aplicado a
la funci´on f(x) = x
2
−2, es decir, construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−2
2x
n−1
.
Resoluci´ on de ecuaciones no lineales 23
Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´on. Comenzamos
por el punto x
0
= 1.5 :
x
0
= 1.5, x
1
= 1.4167, x
2
= 1.4142, x
3
= 1.4142, . . .
La aproximaci´on ser´ıa 1.4142.

2.2.2 Convergencia del m´etodo
Teorema: Si en un cierto intervalo se verifica que f ∈ C
2
(R), estrictamente
creciente, f

(x) ≥ 0 y f tiene un cero, entonces el cero es ´ unico y la iteraci´ on
de Newton-Raphson converger´ a a partir de cualquier punto inicial.
-1 1 2 3 4
-2
2
4
6
8
Newton Raphson converge
-2 -1 1 2
0.1
0.2
0.3
0.4
0.5
Newton Raphson no converge
Demostraci´on. Sea x
0
, x
1
, . . . , x
n
la sucesi´on construida por el m´etodo de
Newton-Raphson, r la soluci´on de la ecuaci´on f(x) = 0 y e
n
= x
n
−r el error
en el paso n. Por el teorema de Taylor sabemos que:
0 = f(r) = f(x
n
) +f

(x
n
)(−e
n
) +
f


n
)
2
(−e
n
)
2
.
Por tanto
e
n
f

(x
n
) −f(x
n
) =
f


n
)
2
e
2
n
.
De modo que
24 Cap´ıtulo 2
e
n+1
= x
n+1
−r = x
n

f(x
n
)
f

(x
n
)
−r = e
n

f(x
n
)
f

(x
n
)
=
e
n
f

(x
n
) −f(x
n
)
f

(x
n
)
=
f


n
)e
2
n
2f

(x
n
)
≥ 0
Por lo tanto
x
n+1
≥ r ⇒f(x
n
) ≥ f(r) = 0 ⇒e
n+1
= e
n

f(x
n
)
f

(x
n
)
≤ e
n
.
Puesto que x
n+1
≥ r y el error va decreciendo, se concluye que la sucesi´on
(x
n
)
n∈N
es decreciente y acotada inferiormente por r, por lo tanto tiene l´ımite.
As´ı mismo, la sucesi´on (e
n
)
n∈N
es decreciente y acotada inferiormente por 0,
por lo tanto tambi´en tiene l´ımite. Se deduce que
lim
n→∞
e
n+1
= lim
n→∞

e
n

f(x
n
)
f

(x
n
)

=
lim
n→∞
e
n

f(lim
n→∞
x
n
)
f

(lim
n→∞
x
n
)
⇒f( lim
n→∞
x
n
) = 0 (2.1)
y puesto que f(x) es estrictamente creciente se obtiene que lim
n→∞
x
n
= r
(en caso contrario f(lim
n→∞
x
n
) > f(r) = 0), es decir, la sucesi´on de Newton-
Raphson converge a la soluci´on.

2.2.3 Aproximaci´ on y error
La aproximaci´on a la soluci´on en el paso n del m´etodo de Newton-Raphson es
x
n
. Por el razonamiento anterior sabemos que
e
n+1
=
f

(x
n
)
2f

(x
n
)
e
2
n
.
Si encontramos una constante C tal que
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
siendo I un intervalo que contenga a la sucesi´on (x
n
)
n∈N
y a la soluci´on r,
tendremos que
[e
n+1
[ ≤ Ce
2
n
Resoluci´ on de ecuaciones no lineales 25
lo que significa que la convergencia de la sucesi´on de errores es cuadr´atica. En
estas condiciones
C[e
n+1
[ ≤ C
2
e
2
n
≤ C
2
(Ce
2
n−1
)
2
≤ ≤ (Ce
0
)
2
n+1
es decir
C[e
n
[ ≤ (Ce
0
)
2
n
⇒[e
n
[ ≤
1
C
(Ce
0
)
2
n
que es una cota del error que se puede obtener previamente a aplicar el m´etodo.
Si [Ce
0
[ < 1, o lo que es lo mismo [e
0
[ <
1
C
, siendo e
0
= x
0
−r, tendremos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
→0
con lo que tenemos otro criterio de convergencia del m´etodo.
Ejemplo: Calcula el n´ umero de pasos necesarios para encontrar la ra´ız
cuadrada de 3 con un error menor que 10
−6
1. Con el m´etodo de Newton-Raphson
2. Con el m´etodo de la bisecci´ on.
Puesto que la ra´ız cuadrada de 3 es soluci´on de x
2
− 3 = 0, aplicaremos
los m´etodos a la funci´on f(x) = x
2
−3. Puesto que f(x) es continua en [1, 2]
y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano
se sabe que en [1, 2] hay una soluci´on de f(x) = 0.
Apartado 1). Aplicamos el primer criterio para saber si el m´etodo de
Newton-Raphson converger´a en el intervalo [1, 2]. f(x) es un polinomio y por
tanto es de clase C
2
. Como f

(x) = 2x > 0 en [1, 2], la funci´on es estrictamente
creciente en [1, 2]. Adem´as f

(x) = 2 > 0 en [1, 2]. Por todo ello, podemos
asegurar que el m´etodo de Newton-Raphson converger´a a partir de cualquier
punto de [1, 2].
Veamos el n´ umero de iteraciones necesarias para que el error sea menor
que 10
−6
. Sabemos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
siendo
C ≥
max
x∈[1,2]|f

(x)|
2 min
x∈[1,2]
[f

(x)[
=
2
2 min
x∈[1,2]
[2x[
=
2
2 2
=
1
2
.
26 Cap´ıtulo 2
Por tanto
[e
n
[ ≤
1
1/2

1
2
e
0

2
n
= 2

1
2
e
0

2
n
Si n = 4, entonces [e
4
[ ≤ 3.051 ∗ 10
−5
Si n = 5, entonces [e
5
[ ≤ 4.66 ∗ 10
−10
. Luego basta con 5 iteraciones.
Aplicamos el m´etodo empezando en el punto x
0
= 1
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−3
2x
n−1
=
x
2
n−1
+ 3
2x
n−1
.
x
0
= 1 x
1
= 2 x
2
= 1.75 x
3
= 1.73414 x
4
= 1.73205 x
5
= 1.73205
Apartado 2). Sabemos que
[e
n
[ ≤
1
2
n+1
(b −a) =
1
2
n+1
< 10
−6
y si n = 19, entonces [e
19
[ ≤ 9.54 ∗ 10
−7
, es decir, necesitamos 19 iteraciones.

Ejemplo: Dada la ecuaci´ on e
−x
−x = 0,
1. Aplica el m´etodo de Newton-Raphson con 4 iteraciones para encontrar
la soluci´ on.
2. Calcula una cota del error cometido.
Sea f(x) = e
−x
−x. Aplicando el teorema de Bolzano al intervalo [0, 1] se
puede asegurar que en dicho intervalo hay una soluci´on de la ecuaci´on f(x) = 0.
Como f

(x) = e
−x
−1 < 0 en [0, 1] no podemos aplicar el criterio para asegurar
que el m´etodo funcione empezando en cualquier punto del intervalo [0, 1]. No
obstante, lo aplicamos empezando en el punto x
0
= 0
x
n+1
= x
n

e
−x
n
−x
n
−e
−x
n
−1
x
0
= 0 x
1
= 0.5 x
2
= 0.566311 x
3
= 0.567143 x
4
= 0.567143
Resoluci´ on de ecuaciones no lineales 27
Calculemos una cota del error
C[e
4
[ ≤ (Ce
0
)
2
n
siendo
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
=
max
x∈[0,1]
[e
−x
[
2 min
x∈[1,2]
[ −e
−x
−1[
=
1
2(1/e + 1)
=
e
2(e + 1)
≈ 0.365529.
Por tanto
[e
4
[ ≤ C
2
n
−1
e
2
n
0
≤ 0.37
15
1
16
≈ 0.33 ∗ 10
−7

2.2.4 Variaciones del m´etodo: M´etodo de la secante
Teniendo en cuenta quef

(x
n
) = lim
h→0
f(x
n
+h)−f(x
n
)
h
este m´etodo se diferen-
cia del de Newton-Raphson en que se sustituye f

(x
n
) por el valor aproximado
f(x
n−1
)−f(x
n−2
)
x
n−1
−x
n−2
de modo que la sucesi´on que queda es
x
n
= x
n−1
−f(x
n−1
)
x
n−1
−x
n−2
f(x
n−1
) −f(x
n−2
)
.
Por tanto hay que utilizar dos puntos iniciales en lugar de uno. Es un m´etodo
m´as r´apido que el de la bisecci´on pero m´as lento que el de Newton-Raphson.
Ejemplo: Calcula una aproximaci´ on de

2, con 4 iteraciones del m´etodo
de la secante.
Aplicamos el m´etodo a la soluci´on de la ecuaci´on f(x) = x
2
−2 = 0 en el
intervalo [1, 2].
x
n
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−2 −[x
2
n−2
−2]
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−x
2
n−2
y tomando tomando x
0
= 1 y x
1
= 2 nos queda
x
0
= 1 x
1
= 2 x
2
= 1.3333 x
3
= 1.4 x
4
= 1.4146

28 Cap´ıtulo 2
0.5 1.5 2 2.5
-1
1
2
3
4
M´etodo de la secante para f(x) = x
2
−2
2.3 M´etodo iterativo de punto fijo
2.3.1 Descripci´ on del m´etodo
Ciertos problemas de aproximaci´on se pueden resolver encontrando una solu-
ci´on de F(x) = x. Una soluci´on r de F(x) = x se denomina un punto fijo de
la funci´on F(x), debido a que F(r) = r. A menudo, para resolver la ecuaci´on
F(x) = x se construye la sucesi´on
x
n
= F(x
n−1
).
Cuando la sucesi´on x
n
es convergente y F(x) es continua, si r = lim
n→∞
x
n
,
entonces
F(r) = F( lim
n→∞
x
n
) = lim
n→∞
F(x
n
) = lim
n→∞
x
n+1
= r,
es decir, el l´ımite de x
n
es un punto fijo de F(x). La b´ usqueda de soluciones
de F(x) = x empleando sucesiones de la forma x
n
= F(x
n−1
), se denomina
m´etodo iterativo de punto fijo.
Ejemplo: Encuentra una soluci´ on real de x
3
− x − 1 = 0 usando cinco
pasos de un m´etodo iterativo de punto fijo.
Como pretendemos resolver la ecuaci´on f(x) = x
3
− x − 1 = 0, por el
teorema de Bolzano sabemos que hay una soluci´on en el intervalo [1, 2].
Resolver f(x) = x
3
− x − 1 = 0 es equivalente a resolver una de estas
ecuaciones
x
3
−1 = x o bien
3

1 +x = x,
Resoluci´ on de ecuaciones no lineales 29
con lo que podemos aplicar el m´etodo iterativo de punto fijo para resolver la
ecuaci´on F(x) = x siendo F(x) = x
3
−1 o bien F(x) =
3

1 +x. Construyamos
la sucesi´on x
n
= F(x
n−1
) para ambas funciones, comenzando por un punto
del intervalo [1, 2], por ejemplo por x
0
= 1 resulta lo siguiente:
x
n
= F(x
n−1
) x
0
x
1
x
2
x
3
x
4
x
5
F(x) = x
3
−1 1 0 −1 −2 −9 −730
F(x) =
3

1 +x 1 1.2600 1.3123 1.3224 1.3243 1.3246
Es claro que para la funci´on F(x) = x
3
−1, la sucesi´on no resulta conver-
gente. Sin embargo, para la funci´on F(x) =
3

1 +x la sucesi´on que sale s´ı es
convergente a un n´ umero r. Dicho n´ umero, puesto que F(x) es continua, veri-
ficar´a que F(r) = r, es decir, f(r) = 0. La mejor aproximaci´on de r obtenida
ser´ıa 1.3246.

2.3.2 Convergencia del m´etodo
Definici´ on: Sea F : R →R una funci´on. Se dice que F es contractiva en un
conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que
[F(x) −F(y)[ ≤ λ[x −y[ ∀x, y ∈ C.
Ejemplo: Comprueba que la funci´ on F(x) =
3

1 +x es contractiva en
[0, 1].
Por el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ =

1
3
3

(1 +θ)
2
(y −x)


1
3
3

1
(y −x)

=
1
3
[y −x[
para todo x, y ∈ [0, 1]. Por tanto la funci´on es contractiva con λ = 1/3.

Teorema: Si F es una funci´ on contractiva que va de un cerrado C ⊂ R
en C (F(C) ⊂ C), entonces F tiene un ´ unico punto fijo r ∈ C. Adem´ as
r es el l´ımite de cualquier sucesi´ on que se obtenga a partir de la expresi´ on
x
n+1
= F(x
n
) siendo x
0
∈ C.
30 Cap´ıtulo 2
Demostraci´on. Sea x
0
, x
1
, x
2
, . . . , x
n
, . . . la sucesi´on generada mediante la
expresi´on x
n+1
= F(x
n
). Veamos que (x
n
)
n∈N
converge. Por ser contractiva
se tiene que
[x
n
−x
n−1
[ = [F(x
n−1
) −F(x
n−2
)[ ≤ λ[x
n−1
−x
n−2
[ ≤
λ
2
[x
n−2
−x
n−3
[ ≤ ≤ λ
n−1
[x
1
−x
0
[.
Por otra parte
x
n
= x
0
+x
1
−x
0
+x
2
−x
1
+ +x
n
−x
n−1
= x
0
+
n
¸
k=1
(x
k
−x
k−1
)
por lo que
lim
n→∞
x
n
= x
0
+ lim
n→∞
n
¸
k=1
(x
k
−x
k−1
) = x
0
+

¸
k=1
(x
k
−x
k−1
)
La serie
¸

k=1
(x
k
−x
k−1
) es convergente porque


¸
k=1
(x
k
−x
k−1
)



¸
k=1
[x
k
−x
k−1
[ ≤

¸
k=1
λ
k−1
(x
1
−x
0
) = [x
1
−x
0
[
1
1 −λ
Como la serie es convergente, la sucesi´on (x
n
)
n∈N
tambi´en lo es. Sea r =
lim
n→∞
x
n
. Por la construcci´on de la sucesi´on, se tiene que F(r) = r, es decir,
hay un punto fijo. r ∈ C por ser C un conjunto cerrado y x
n
∈ C. Falta ver
que es ´ unico. Supongamos que hubiese dos puntos fijos r
1
y r
2
. Entonces
[r
1
−r
2
[ = [F(r
1
) −F(r
2
)[ ≤ λ[r
1
−r
2
[ < [r
1
−r
2
[
llegando a contradicci´on.
2.3.3 Aproximaci´ on y error
Si r es soluci´on de f(x) = 0 obtenida por iteraci´on de una funci´on F(x),
entonces si f(x) es continua y derivable, existe θ
n
∈ R entre r y x
n
tal que
f(r) −f(x
n
)
r −x
n
= f


n
).
Resoluci´ on de ecuaciones no lineales 31
Suponiendo que x
n
≤ r y puesto que f(r) = 0 y −e
n
= r −x
n
, se deduce que
f(x
n
)
e
n
= f


n
) ⇒e
n
=
f(x
n
)
f


n
)
⇒[e
n
[ ≤
[f(x
n
)[
min
θ∈[x
n
,r]
[f

(θ)[
.
La f´ormula anterior nos proporciona un m´etodo para encontrar una cota de
error a posteriori y se puede aplicar a cualquier m´etodo iterativo de punto fijo.
Si F(x) es contractiva de constante λ entonces
[x
n+p
−x
n
[ = [x
n+p
−x
n+p−1
[ +[x
n+p−1
−x
n+p−2
[ + +[x
n+1
−x
n
[ ≤
≤ λ
n+p−1
[x
1
−x
0
[ +λ
n+p−2
[x
1
−x
0
[ + +λ
n
[x
1
−x
0
[ =
= (λ
n+p−1

n+p−2
+ +λ
n
)[x
1
−x
0
[ =
= λ
n

p−1

p−2
+ + 1)[x
1
−x
0
[
de modo que cuando p tiende a infinito
[e
n
[ = [r −x
n
[ ≤ λ
n

¸
k=0
λ
k
= λ
n

1
1 −λ

[x
1
−x
0
[
que es una f´ormula que permite calcular una cota de error a priori.
Ejemplo: Encuentra una soluci´ on de la ecuaci´ on 4 +
1
3
sin(2x) − x = 0
con un m´etodo iterativo de punto fijo estimando una cota del error a priori y
otra a posteriori.
Sea f(x) = 4 +
1
3
sin(2x) −x y F(x) = 4 +
1
3
sin(2x). Aplicando el teorema
de Bolzano a la funci´on f(x) en el intervalo [−3.5, 4.5] se deduce que hay
una soluci´on de f(x) = 0 en dicho intervalo. Veamos si F(x) es contractiva
aplicando el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ = [
2
3
cos(2x)(y −x)[ ≤
2
3
[y −x[.
Se deduce que F(x) es contractiva con constante λ =
2
3
.
Por otra parte, puesto que −3.5 ≤ 4 +
1
3
sin(2x) ≤ 4.5, se deduce que
F([−3.5, 4.5]) ⊂ [−3.5, 4.5].
Por tanto, la sucesi´on x
n+1
= F(x
n
) converger´a a un punto fijo a partir de
cualquier valor inicial x
0
. Calculamos cinco iteraciones empezando en x
0
= 0 :
32 Cap´ıtulo 2
x
0
x
1
x
2
x
3
x
4
x
5
0 4 4.329786082 4.230895147 4.273633799 4.256383406
Una cota del error para x
5
a priori ser´ıa
[e
5
[ ≤

2
3

5

1
1 −
2
3

[4 −0[ ≈ 1.5802
que no es una cota muy buena.
Una cota del error para x
5
a posteriori ser´ıa
[e
5
[ ≤
[f(x
5
)[
min
θ∈[−3.5,4.5]
[
2
3
cos(2θ) −1[

0.00719542
1/3
= 0.00239847.

2.4 Ra´ıces de polinomios
No existe ninguna f´ormula algebraica para la resoluci´on de ra´ıces de polinomios
de grado mayor que 4, por tanto, hay que aplicar m´etodos num´ericos para el
c´alculo de dichas ra´ıces.
Definici´ on: Una soluci´on r de una ecuaci´on f(x) = 0 se dice que tiene
multiplicidad n si
f(r) = f

(r) = = f
n−1)
(r) = 0 f
n)
(r) = 0.
Ejemplo: r = 1 es una soluci´on de multiplicidad 2 para la ecuaci´on
x
2
−2x + 1 = 0.

Para la localizaci´on de ra´ıces de polinomios con multiplicidad par (como
en el ejemplo anterior) no podemos emplear el teorema de Bolzano. Sin em-
bargo podemos intentar calcular las ra´ıces de otro polinomio con las mismas
soluciones que el nuestro pero todas con multiplicidad 1.
Resoluci´ on de ecuaciones no lineales 33
0.5 1 1.5 2
0.2
0.4
0.6
0.8
1
f(x) = x
2
−2x + 1
Teorema [Teorema fundamental del ´algebra]: Un polinomio de grado n
con coeficientes reales tiene exactamente n ceros o ra´ıces entre los n´ umeros
complejos C, contando cada cero tantas veces como indique su multiplicidad.
De modo que dado un polinomio P
n
(x), podemos descomponerlo as´ı:
P
n
(x) = a
n
(x −r
k
)
m
k
(x −r
k−1
)
m
k−1
. . . (x −r
1
)
m
1
siendo m
i
la multiplicidad de la ra´ız i-´esima. Si derivamos, obtenemos que
P

n
(x) = a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
M(x)
siendo M(x) un polinomio tal que M(r
i
) = 0. El m´aximo com´ un divisor de
P
n
(x) y de P

n
(x) es
D(x) = M.C.D(P
n
(x), P

n
(x)) =
a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
por lo que el polinomio
Q(x) =
P(x)
M.C.D(P
n
(x), P

n
(x))
= a
n
(x −r
k
)(x −r
k−1
) . . . (x −r
1
)
tiene las mismas ra´ıces que P(x) pero todas con multiplicidad 1. Bastar´ıa
aplicar los m´etodos a Q(x) para localizar las ra´ıces de P
n
(x). El problema es
el c´alculo de Q(x) y de M.C.D(P
n
(x), P

n
(x)).
34 Cap´ıtulo 2
2.4.1 Separaci´ on de ra´ıces. Sucesi´ on de Sturm.
La sucesi´on de Sturm nos permite calcular el n´ umero de ra´ıces de un polinomio
en un intervalo [a, b]. Sea P
n
(x) un polinomio de grado n y P

n
(x) su deriva-
da. Para construir la sucesi´on de Sturm aplicamos la divisi´on de polinomios
repetidas veces a P
n
(x), P

n
(x) y a los restos obtenidos cambiados de signo:
P
n
(x) = c
1
(x)P

n
(x) +r
1
(x)
P

n
(x) = c
2
(x)(−r
1
(x)) +r
2
(x)
−r
1
(x) = c
3
(x)(−r
2
(x)) +r
3
(x)
. . .
−r
k−2
(x) = c
k
(x)(−r
k−1
(x)) +r
k
(x)
Puede ocurrir lo siguiente:
1. Hay un resto r
k
(x) = 0. En este caso r
k−1
(x) es el m´aximo com´ un
divisor de P
n
(x) y de P

n
(x). Construimos entonces la sucesi´on de Sturm co-
rrespondiente al polinomio
Q(x) =
P
n
(x)
r
k−1
(x)
que es un polinomio que tiene las mismas ra´ıces que P
n
(x) pero todas simples.
2. Llegamos a un resto r
k
(x) constante distinto de 0. En este caso la
sucesi´on de Sturm es
P
n
(x), P
n−1
(x), −r
1
(x), . . . , −r
k
(x).
La diferencia entre el n´ umero de cambios de signos de las sucesiones siguientes
P
n
(a), P
n−1
(a), −r
1
(a), . . . , −r
k
(a) P
n
(b), P
n−1
(b), −r
1
(b), . . . , −r
k
(b)
es el n´ umero de ra´ıces de P
n
(x) en el intervalo [a, b].
Resoluci´ on de ecuaciones no lineales 35
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = 36x
4

12x
3
−11x
2
+ 2x + 1.
La derivada de P(x) es P

(x) = 144x
3
−36x
2
−22x+2. Podemos multiplicar
los polinomios implicados por numeros positivos para facilitar los c´alculos sin
que ello afecte al objetivo perseguido. Comenzamos los c´alculos:
1. Multiplicamos P
n
(x) por 4 y efectuamos la primera divisi´on:
144x
4
−48x
3
−44x+8x+4 = (x−1)(144x
3
−36x
2
−22x+2)+(−300x
2
+50x+50).
2. El tercer miembro de la sucesi´on de Sturm es 300x
2
− 50x − 50. Efec-
tuamos la siguiente divisi´on:
144x
3
−36x
2
−22x + 2 = 2/50(12x −1)(300x
2
−50x −50) + 0
3. Como hay un resto que es 0 el m´aximo com´ un divisor de P(x) y P

(x) es
300x
2
−50x−50 o bien dividiendo por 50 6x
2
−x−1. calculamos el polinomio
Q(x) =
P(x)
6x
2
−x −1
= 6x
2
−x −1.
4. Construimos la sucesi´on de Sturm para Q(x).
6x
2
−x −1 = (−
1
24
+
x
2
)(12x −1) +
−25
24
Con la sucesi´on es
6x
2
−x −1, 12x −1,
25
24
Estudiamos algunos cambios de signo:
−∞ -2 0 2 ∞
6x
2
−x −1 + + - + +
12x −1 - - - + +
25
24
+ + + + +
cambios de signo 2 2 1 0 0
En el intervalo (∞, −2) y en (0, 2) no hay ninguna ra´ız porque en los extremos
de los intervalos la sucesi´on de Sturm tiene los mismos cambios de signo.
En el intervalo (−2, 0) hay una ra´ız y hay otra en el intervalo (0, 2) porque
la diferencia de cambios de signo en los extremos en ambos casos es 1.

36 Cap´ıtulo 2
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = x
4
+2x
3

3x
2
−4x −1.
La derivada es P

(x) = 4x
3
+ 6x
2
−6x −4 = 2(2x
3
+ 3x
2
−3x −2). Para
facilitar el c´alculo multiplicamos P(x) por 2 y calculamos es tercer miembro
de la sucesi´on de Sturm:
2x
4
+ 4x
3
−6x
2
−8x −1 = (x +
1
2
)(2x
3
+ 3x
2
−3x −2) + (−
9
2
x
2

9
2
x −1).
Podemos multiplicar por 2 el resto con lo que −r
1
(x) = 9x
2
− 9x + 2. Pa-
ra facilitar los c´alculos multiplicamos P

(x) por 9 y calculamos el siguiente
miembro de la sucesi´on:
18x
3
+ 27x
2
−27x −18 = (2x + 1)(9x
2
+ 9x + 2) + (−40x −20).
Dividiendo por 20 podemos suponer que −r
2
(x) = 2x + 1. Multiplicamos
−r
1
(x) por 2 y calculamos −r
3
(x):
18x
2
+ 18x + 4 = (9x +
9
2
)(2x + 1) +
−1
2
.
Con lo que la sucesi´on queda as´ı:
x
4
+ 2x
3
−3x
2
−4x −1, 2x
3
+ 3x
2
−3x −2, 9x
2
+ 9x + 2, 2x + 1,
1
2
.
Separamos las ra´ıces en intervalos disjuntos:
−∞ -3 -2 -1 -1/2 0 1 2 ∞
x
4
+ 2x
3
−3x
2
−4x −1 + + - - - - - + +
2x
3
+ 3x
2
−3x −2 - - 0 + - - 0 + +
9x
2
+ 9x + 2 + + + + + + + + +
2x + 1 - - - - 0 + + + +
1
2
+ + + + + + + + +
cambios de signo 4 4 3 3 2 1 1 0 0
En el intervalo (∞, −3), (−2, −1), (0, 1) y en (2, ∞) no hay ninguna ra´ız
porque en los extremos de los intervalos la sucesi´on de Sturm tiene los mismos
cambios de signo.
En cada uno de los intervalos (−3, −2), (−1, −1/2), −1/2, 0 y (1, 2) hay
una ra´ız porque la diferencia de cambios de signo en los extremos en ambos
casos es 1.

Resoluci´ on de ecuaciones no lineales 37
2.4.2 Acotaci´ on de ra´ıces
Proposici´ on: Sea P(x) = a
n
x
n
+ a
n−1
x
n−1
+ + a
0
. Si r es una ra´ız de
P(x), entonces
[r[ < 1 +
A
[a
n
[
siendo A = max
0≤i≤n−1
[a
i
[.
Demostraci´on. Supongamos que [r[ > 1.
0 = [P(r)[ = [a
n
r
n
+a
n−1
r
n−1
+ +a
0
[ ≥
≥ [a
n
r
n
[ −[a
n−1
r
n−1
+ +a
0
[
≥ [a
n
r
n
[ −

[a
n−1
[[r
n−1
[ + +[a
0
[


≥ [a
n
r
n
[ −A

[r[
n−1
+ +[r[ + 1

=
[a
n
r
n
[ −A
[r[
n
−1
[r[ −1
> [a
n
[[r[
n
−A
[r[
n
[r[ −1
> [r[
n

[a
n
[ −
A
[r[ −1

es decir,
0 > [a
n
[ −
A
[r[ −1
⇒[a
n
[ <
A
[r[ −1
⇒[r[ −1 <
A
[a
n
[
con lo que concluimos que
[r[ < 1 +
A
[a
n
[
.
Si [r[ ≤ 1, es trivial que [r[ < 1 +
A
|a
n
|
.

Ejemplo: Acota las ra´ıces del polinomio P(x) = x
4
+2x
3
−3x
2
−4x −1.
Com A = max
1≤i≤n−1
[a
i
[ = 4, usando la proposici´on anterior obtenemos
que cualquier ra´ız r del polinomio verifica lo siguiente
[r[ < 1 +
A
[a
n
[
= 1 +
4
1
= 5 ⇒−5 < r < 5.

38 Cap´ıtulo 2
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner
Si usamos el m´etodo de Newton-Raphson para encontrar las ra´ıces de un
polinomio P(x) hemos de calcular P(x
n
) y P

(x
n
). El algoritmo de Horner
hace estos ´ ultimos c´alculos de forma sencilla para polinomios.
Sea x
0
∈ R y P(x) = a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
. Sea
P(x) = Q(x)(x −x
0
) +R
(R ser´a constante) el resultado de dividir P(x) entre (x − x
0
). Supongamos
que
Q(x) = b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
.
Entonces P(x
0
) = R y P(x) = Q(x)(x −x
0
) +P(x
0
), con lo que
P(x) −P(x
0
) = Q(x)(x −x
0
)
es decir
a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
−P(x
0
) =
= (b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
)(x −x
0
)
Desarrollando e igualando los coeficientes de ambos t´erminos se deduce
que
b
n−1
= a
n
, b
n−2
= a
n−1
+b
n−1
x
0
, . . . , b
0
= a
1
+b
1
x
0
P(x
0
) = a
0
+b
0
x
0
.
La obtenci´on de los coeficientes b
i
se pueden representar gr´aficamente as´ı
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
que tambi´en es una forma sencilla de calcular P(x
0
). Adem´as,
P(x) = Q(x)(x−x
0
) +R ⇒P

(x) = Q

(x)(x−x
0
) +Q(x) ⇒P

(x
0
) = Q(x
0
).
De modo que para calcular P

(x
0
) podemos aplicar el algoritmo gr´afico anterior
a Q(x) :
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
x
0
c
n−2
x
0
c
n−3
x
0
. . . c
0
x
0
c
n−2
c
n−3
c
n−4
. . . P

(x
0
)
Resoluci´ on de ecuaciones no lineales 39
Ejemplo: Siendo P(x) = x
4
+2x
3
−3x
2
−4x−1, calcula con el algoritmo
de Horner P(2) y P

(2).
2 1 −3 4 −5
2 4 10 14 36
2 5 7 18 31
2 4 18 50
2 9 25 68
Se concluye que P(2) = 31 y P

(2) = 68.

2.4.4 Ra´ıces m´ ultiples
Si una ecuaci´on f(x) = 0 tiene soluciones m´ ultiples, el c´alculo puede ser
problem´atico. Si f(x) es un polinomio, podemos intentar calcular las ra´ıces
de
Q(x) =
P(x)
MCD(P(x), P

(x))
que ser´a un polinomio con las mismas ra´ıces que f(x) pero todas con multi-
plicidad 1.
Sea o no f(x) un polinomio, se puede intentar aplicar el m´etodo de Newton-
Raphson. Si la sucesi´on generada converge muy lentamente, la causa puede
encontrarse en esa multiplicidad de las ra´ıces. Para detectar de qu´e multi-
plicidad es la ra´ız en cuesti´on, para cada termino de la sucesi´on x
n
generada
calculamos f

(x
n
), f

(x
n
), f

(x
n
), . . . , f
k)
(x
n
). Si las derivadas hasta orden
k −1 son casi 0 en los valores x
n
y f
k)
(x
n
) no es cercano a 0, entonces puede
ocurrir que la soluci´on r verifique que
f
n)
(r) = 0 ∀ 0 ≤ n < k y f
k)
(r) = 0,
es decir que r sea una soluci´on de f(x) = 0 de multiplicidad k. En este caso,
se puede acelerar la convergencia de la sucesi´on calcul´andola as´ı
x
n+1
= x
n
−k
f(x
n
)
f

(x
n
)
.
40 Cap´ıtulo 2
El error se obtendr´ıa as´ı
[e
n
[ <
[f(x
n
)[
min
θ∈[a,b]
[f

(θ)[
Ejercicio: Sea f(x) = (x − 1)
3
. Aplica Newton-Raphson para encontrar
una soluci´on de f(x) = 0 empezando en x
0
= 0.
Cap´ıtulo 3
Sistemas Lineales
El objetivo de este tema es el desarrollo de t´ecnicas de b´ usqueda de soluciones
de sistemas de ecuaciones lineales como el siguiente:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2

a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
= b
n
Denotando A = (a
ij
)
1≤i,j≤n
, b = (b
i
)
1≤i≤n
y x = (x
i
)
1≤i≤n
, el sistema anterior
se puede expresar
A x = b
3.1
´
Algebra de matrices
Sea A una matriz.
Aes de orden mn si tiene tiene mfilas y n columnas (A = (a
ij
)
1≤i≤m,1≤j≤n

´
m×n
). Por ejemplo

3 5 2
2 1 3

tiene orden 2 3.
La matriz traspuesta de A es la matriz A
t
que resulta de intercambiar las
filas de A por las columnas de A.
41
42 Cap´ıtulo 3
A es sim´etrica si A
t
= A.
Si α ∈ R y B es una matriz, podemos realizar las siguientes operaciones:
- Multiplicar una matriz por un n´ umero:
α A = (αa
ij
)
1≤i≤m,1≤j≤n
.
- Sumar dos matrices A y B si A, B ∈ ´
m×n
:
A+B = (a
i,j
+b
ij
)
1≤i,j≤m
.
- Multiplicar dos matrices A ∈ ´
m×p
y B ∈ ´
p×n
:
A B = (
p
¸
k=1
a
ik
b
kj
)
1≤i≤m,1≤j≤n
∈ ´
m×n
.
La matriz identidad de orden n n es
Id =

¸
¸
¸
1 0 0 . . . 0
0 1 0 . . . 0
. . .
0 0 . . . 0 1
¸

Se verifica que A Id = Id A = A, ∀A ∈ ´
n×n
.
B es una matriz inversa de A por la derecha si B A = Id
B es una matriz inversa de A por la izquierda si A B = Id.
Si A ∈ ´
n×n
, entonces la inversa por la izquierda es tambi´en inversa por
la derecha. En este caso la inversa es ´ unica y se denota A
−1
A
−1
A = A A
−1
= Id.
Si A ∈ ´
n×n
tiene inversa, entonces A es regular, invertible o no singular.
La matriz inversa es
A
−1
=
1
[A[
(A
i,j
)
t
,
siendo A
i,j
el adjunto del elemento a
ij
.
En este caso el sistema A x = b tiene como soluci´on x = A
−1
b.
Se llaman operaciones elementales de una matriz al intercambio de dos
filas o columnas, al producto de una fila o columna por un n´ umero distinto
de 0, a la suma de una fila o columna otra fila o columna multiplicada por un
n´ umero, o cualquier combinaci´on finita de las operaciones anteriores. Cada
Sistemas lineales 43
operaci´on fundamental en una matriz A se puede expresar mediante producto
de A por otra matriz, que se llama matriz fundamental. Por ejemplo, dada la
matriz
A =

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

,
el intercambio de la segunda y tercera filas se puede expresar as´ı:

¸
1 0 0
0 0 1
0 1 0
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
31
a
32
a
33
a
21
a
22
a
23
¸

.
El producto de la segunda fila por un n´ umero α se puede expresar as´ı:

¸
1 0 0
0 α 0
0 0 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
αa
21
αa
22
αa
23
a
31
a
32
a
33
¸

Y la suma a la tercera fila de la segunda fila multiplicada por un n´ umero α es:

¸
1 0 0
0 1 0
0 α 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
αa
21
+a
31
αa
22
+a
32
αa
23
+a
33
¸

El producto de matrices

¸
1 0 0
0 0 α
0 1 αλ
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

representa aplicar a la segunda matriz los siguientes cambios:
- Sustituir la fila segunda por la tercera multiplicada por α.
- Multiplicar la tercera fila por αλ y sumarle la segunda.
Si A ∈ ´
n×n
tiene inversa, entonces existe un conjunto de matrices fun-
damentales E
k
con k = 1, . . . , p, tales que
E
p
E
p−1
. . . E
1
A = Id,
con lo que multiplicando por A
−1
por la derecha en ambos t´erminos se obtiene
que
E
p
E
p−1
. . . E
1
Id = A
−1
,
es decir, aplicando las mismas operaciones fundamentales a la matriz Id ob-
tendremos la matriz inversa A
−1
.
44 Cap´ıtulo 3
Ejemplo: Calcula la inversa de la matriz
A =

¸
1 2 3
1 3 3
2 4 7
¸

.
Partimos de A y la matriz Id. El primer cambio consiste en restar a la segunda
fila la primera (correspondiente al producto por una cierta matriz fundamental
E
1
):
E
1
A =

¸
1 2 3
0 1 0
2 4 7
¸

E
1
Id =

¸
1 0 0
−1 1 0
0 0 1
¸

El segundo cambio (multiplicar por E
2
) consiste en restar a la tercera dos
veces la primera:
E
2
E
1
A =

¸
1 2 3
0 1 0
0 0 1
¸

E
2
E
1
Id =

¸
1 0 0
−1 1 0
−2 0 1
¸

A la primera le resto dos veces la segunda (E
3
):
E
3
E
2
E
1
A =

¸
1 0 3
0 1 0
0 0 1
¸

E
3
E
2
E
1
Id =

¸
3 −2 0
−1 1 0
−2 0 1
¸

A la primera le resto tres veces la tercera (E
4
):
E
4
E
3
E
2
E
1
A =

¸
1 0 0
0 1 0
0 0 1
¸

E
4
E
3
E
2
E
1
Id =

¸
9 −2 −3
−1 1 0
−2 0 1
¸

= A
−1
.
Esta ´ ultima matriz es la inversa de A.

Sistemas lineales 45
Para toda matriz A ∈ ´
n×n
son equivalentes:
1. A
−1
existe.
2. [A[ = 0.
3. Los vectores fila de la matriz A son linealmente independientes.
4. Los vectores columna de la matriz A son linealmente independientes.
5. Para cada b ∈ R
n
, el sistema A x = b tiene una ´ unica soluci´on.
6. A es producto de matrices elementales.
3.1.1 Valores propios y vectores propios
Sea A ∈ ´
n×n
. Si existe un vector x ∈ R
n
no nulo y un n´ umero λ ∈ R tal
que A x = λx, entonces, λ es un valor propio o autovalor de la matriz A, y
x es un vector propio o autovector para el autovalor λ. Los valores propios de
una matriz A son las ra´ıces del llamado polinomio caracter´ıstico [A − λ Id[.
Los vectores propios de A para el autovalor λ, son los elementos de n´ ucleo de
la aplicaci´on lineal A−λ Id.
3.1.2 Matriz definida
Sea A ∈ ´
n×n
. Se dice que A es definida positiva (equivalentemente, negati-
va) si para todo x ∈ R
n
no nulo, se verifica que
x
t
A x > 0.
Ejemplo. La matriz A =

2 1
1 2

es definida positiva.
Sea (x
1
, x
2
) un vector no nulo.
(x
1
, x
2
)

2 1
1 2

x
1
x
2

= (x
1
, x
2
)

2x
1
+x
2
x
1
+ 2x
2

=
2x
2
1
+x
1
x
2
+x
1
x
2
+ 2x
2
2
= (x
1
+x
2
)
2
+x
2
1
+x
2
2
> 0.

Si A es una matriz definida positiva y sim´etrica, entonces los autovalores
de A son todos n´ umeros reales y positivos.
46 Cap´ıtulo 3
3.2 Resoluci´ on de sistemas de ecuaciones lineales:
m´etodo de Gauss
Dado el sistema A x = b, si [A[ = 0, puede no haber soluci´on. Si [A[ = 0,
existe una ´ unica soluci´on y se puede calcular as´ı:
x
1
=

b
1
a
12
. . . a
1n
b
2
a
22
. . . a
2n
. . .
b
n
a
n2
. . . a
nn

[A[
, , x
n
=

a
11
. . . a
1n−1
b
1
a
21
a
2n−1
b
2
. . .
a
2n
. . . a
nn−1
b
n

[A[
Los c´alculos anteriores son poco pr´acticos cuando el n´ umero de ecuaciones
es grande. Por ejemplo, para n = 50 se necesitan 10
64
operaciones. Para
evitar este problema se utilizan m´etodos num´ericos de resoluci´on de ecuaciones
lineales que pueden ser:
• Directos: proporcionan un resultado que ser´a exacto salvo errores de
redondeo tras un n´ umero determinado de operaciones.
• Iterativos: construyen una sucesi´on de soluciones aproximadas, de modo
que en cada paso se mejora la aproximaci´on anterior.
Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas
soluciones. En un sistema de ecuaciones se pueden efectuar operaciones ele-
mentales en la matriz de los coeficientes y en la de los t´erminos independientes
y resulta un sistema equivalente. Es decir, resulta un sistema equivalente si
efectuamos alguna de las siguientes operaciones:
1. Multiplicamos una ecuaci´on por un n´ umero distinto de cero.
2. Sumamos a una ecuaci´on otra ecuaci´on multiplicada por un n´ umero.
3. Intercambiamos dos ecuaciones.
Sistemas lineales 47
3.2.1 M´etodo de Gauss
El m´etodo de Gauss cl´asico es un m´etodo directo que transforma mediante
operaciones elementales el sistema de ecuaciones que se pretende resolver en
un sistema equivalente triangular de f´acil resoluci´on.
El m´etodo de Gauss puede resumirse en lo siguiente:
• Paso 1. Si a
11
= 0, se elige a
11
como elemento pivote. Si a
11
= 0, se inter-
cambian las filas para que esto no suceda. Sumando a cada una las filas
restantes la fila del elemento pivote multiplicada por ciertos n´ umeros,
llamados multiplicadores, se convierten en 0 los elementos que se en-
cuentran en la primera columna distintos del pivote. En las operaciones
de sumas de filas hay que incluir los t´erminos independientes.
• Paso i (i ≥ 2). Si a
ii
= 0, se elige a
ii
como elemento pivote. Si a
ii
= 0,
se intercambian las filas de orden mayor o igual que i para que esto
no suceda. Sumando a cada una de las filas que ocupan el lugar j
(j > i) la fila del elemento pivote multiplicada por n´ umeros, llamados
multiplicadores, se convierten en 0 los elementos que se encuentran en
la columna i de la fila j (j > i). En las operaciones de sumas de filas
hay que incluir los t´erminos independientes.
Se efect´ uan los pasos necesarios hasta que la matriz de los coeficientes sea
triangular. Conseguido esto, el c´alculo de la soluci´on es sencillo siguiendo el
siguiente orden: x
n
, x
n−1
, . . . , x
1
.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
12x
1
−8x
2
+ 6x
3
+ 10x
4
= 34
3x
1
−13x
2
+ 9x
3
+ 3x
4
= 27
−6x
1
+ 4x
2
+x
3
−18x
4
= −38.
En forma matricial es sistema ser´ıa

¸
¸
¸
6 −2 2 4
12 −8 6 10
3 −13 9 3
−6 4 1 −18
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
34
27
−38
¸

.
En el sistema anterior el m´etodo de Gauss podr´ıa aplicarse as´ı:
48 Cap´ıtulo 3
1. Paso 1. Elegimos como elemento pivote el t´ermino 6 de la primera fila
y efectuamos las siguientes operaciones:
(fila 2
a
) −2(fila 1
a
) (fila 3
a
) −1/2(fila 1
a
) (fila 4
a
) −(−1)(fila 1
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 −12 8 1
0 2 3 −14
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
21
−26
¸

.
Paso 2. Elegimos como elemento pivote el t´ermino −4 de la segunda fila y
efectuamos las siguientes operaciones:
(fila 3
a
) −3(fila 2
a
) (fila 4
a
) −(−1/2)(fila 2
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 4 −13
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−21
¸

.
Paso 3. Elegimos como elemento pivote el t´ermino 2 de la tercera fila y
efectuamos la siguiente operaci´on:
(fila 4
a
) −2(fila 3
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 0 −3
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−3
¸

.
que es un sistema de ecuaciones triangular superior de f´acil resoluci´on:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
−4x
2
+ 2x
3
+ 2x
4
= 10
2x
3
−5x
4
= −9
−3x
4
= −3


x
1
= 1/6(12 −4x
4
−2x
3
+ 2x
2
) = 1
x
2
= −1/4(10 −2x
4
−2x
3
) = −3
x
3
= 1/2(−9 + 5x
4
) = −2
x
4
= 1
Sistemas lineales 49
Se verifica que A = L U, siendo A la matriz de los coeficientes inicial, U
la matriz de los coeficientes final y L la matriz formada por los n´ umeros que
hemos utilizado para multiplicar las filas (multiplicadores):
L =

¸
¸
¸
1 0 0 0
2 1 0 0
1/2 3 1 0
−1 −1/2 2 1
¸

3.2.2 M´etodo de Gauss con pivoteo
En un sistema como este

0.001 1
1 1

x
1
x
2

=

1
2

el m´etodo de Gauss no funcionar´ıa correctamente por errores de redondeo. En
general, si = 0 es peque˜ no, el sistema

1
1 1

x
1
x
2

=

1
2

aplicando el m´etodo de Gauss se transformar´ıa en

1
0 1 −
1

x
1
x
2

=

1
2 −
1

con lo que las soluciones, si consideramos el redondeo, ser´ıan:
x
2
=
2 −
1

1 −
1

· 1 ⇒ x
1
= (1 −x
2
)
1

· 0.
Si = 0.001, obtendr´ıamos que x
2
= 0.998998998999, que, redondeando a dos
decimales, ser´ıa x
2
= 0, por lo que x
1
= 0. Sin embargo las soluciones exactas
son x
2
=
998
999
≈ 1 y x
1
= 1000/999 ≈ 1. De hecho, al hacer los c´alculos con le
programa Maxima o Mathematica, con = 10
−17
se obtiene x
2
= 1 y x
1
= 0.
Esto sucede cuando el elemento pivote en alg´ un paso es muy peque˜ no
comparado con el resto de los elementos a los que divide. En este caso el
50 Cap´ıtulo 3
multiplicador correspondiente ser´a muy grande y la ecuaci´on que origina es
”casi¨ un m´ ultiplo de la ecuaci´on del elemento pivote:
(fila 2
a
) −
1

(fila 1
a
) ≈ −
1

(fila 1
a
).
Este problema se puede resolver de dos formas:
1. Pivoteo parcial: si estamos en el paso i, se elige como elemento pivote
el elemento a
ki
que tenga mayor valor absoluto entre los de la columna
i, con k ≥ i, independientemente de si a
ii
es cero o no, y se reordenan
las filas.
2. Pivoteo total: si estamos en el paso i, se elige como elemento pivote el
elemento a
kj
que tenga mayor valor absoluto entre los de la columna i
y los de la fila i, con k, j ≥ i, independientemente de si a
ii
es cero o no,
y se reordenan las filas y columnas. Esta opci´on tiene un importante
inconveniente pues hay que reordenar las inc´ognitas.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
2x
2
+x
4
= 0
2x
1
+ 2x
2
+ 3x
3
+ 2x
4
= −2
4x
1
−3x
2
+x
4
= −7
6x
1
+x
2
−6x
3
−5x
4
= 6.
aplicando el pivoteo parcial.
La matriz de los coeficientes y de los t´erminos independientes ser´ıa

¸
¸
¸
0 2 0 1 [ 0
2 2 3 2 [ −2
4 −3 0 1 [ −7
6 1 −6 −5 [ 6
¸

El pivoteo parcial ser´ıa este proceso:
Paso 1. Elegimos como elemento pivote el t´ermino 6 de la ´ ultima fila por
ser el de mayor valor absoluto de entre los elementos de la primera columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
2 2 3 2 [ −2
4 −3 0 1 [ −7
0 2 0 1 [ 0
¸

Sistemas lineales 51
Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 2
a
) −
2
6
(fila 1
a
)
(fila 3
a
) −
4
6
(fila 1
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 1.6667 5 3.6667 [ −4
0 −3.6667 4 4.3333 [ −11
0 2 0 1 [ 0
¸

Paso 2. Elegimos como elemento pivote el t´ermino −3.667 de la tercera fila por
ser el de mayor valor absoluto de entre los elementos de la segunda columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 1.6667 5 3.6667 [ −4
0 2 0 1 [ 0
¸

Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 3
a
) −
1.6667
−3.6667
(fila 2
a
)
(fila 4
a
) −
2
−3.6667
(fila 2
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 2.1818 3.3636 [ −5.9999
¸

Paso 3. El elemento pivote ser´a 6.8182 de la tercera fila y no es necesario
intercambiar filas. Efectuamos la operaci´on indicada y obtenemos la matriz
siguiente:
(fila 4
a
) −
2.1818
6.8182
(fila 3
a
)
U =

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 0 1.5600 [ −3.1199
¸

que se corresponde con el sistema de ecuaciones
6x
1
+x
2
+−6x
3
−5x
4
= 6
−3.6667x
2
+ 4x
3
+ 4.3333x
4
= −11
6.8182x
3
+ 5.6364 = −9.0001
1.5600x
4
= −3.1199.
.
Este sistema se resuelve f´acilmente por ser triangular despejando las inc´ognitas
en orden inverso. Se obtiene la soluci´on:
52 Cap´ıtulo 3
x
4
= −1.9999, x
3
= 0.33325, x
2
= 1.0000, x
1
= −0.50000,
que es una respuesta aceptable teniendo en cuenta que la soluci´on exacta
es
x
4
= −2, x
3
= 1/3, x
2
= 1, x
1
= −1/2.

La matriz L de los multiplicadores en el ejemplo anterior es la siguiente:
L =

¸
¸
¸
1 0 0 0
0.6667 1 0 0
0.3333 −0.45454 1 0
0 −0.54545 0.32 1
¸

y se verifica que
L U =

¸
¸
¸
6 1 −6 5
4 −3 0 1
2 2 3 2
0 2 0 1
¸

:= A

.
El resultado no es exactamente A porque al aplicar el pivoteo hemos permu-
tado filas. En todo caso se verifica que existe una matriz P, que representa
permutaciones de filas si empleamos pivoteo parcial, tal que
P A = A

= L U.
Esto ´ ultimo nos permite calcular el determinante de A de forma sencilla al
ser [L[ = 1, [P[ = (−1)
p
(p es el n´ umero de permutaciones de filas) y U una
matriz triangular:
[A[ = [P
−1
A

[ = [P
−1
L U[ = [P
−1
[[L[[U[ = (−1)
p
[U[.
El m´etodo de Gauss permite:
1. Encontrar las soluciones de un sistema de ecuaciones.
2. Calcular el determinante de la matriz de los coeficientes.
3. Descomponer la matriz de los coeficientes A en un producto de matrices
P A

donde P representa una permutaci´on de filas de A y A

= L U,
siendo L y U matrices triangulares inferior y superior, respectivamente.
A = A

si no se utiliza el pivoteo.
Sistemas lineales 53
3.3 Factorizaci´ on LU. Factorizaci´ on de Cholesky
Dado el sistema de ecuaciones Ax = b, si aplicamos el m´etodo de Gauss sin
pivoteo solo a la matriz de los coeficientes y no a los t´erminos independientes
b, obtendremos una descomposici´on de la matriz A en dos matrices A = L U,
siendo L triangular inferior y U triangular superior. Esto permite, por ejemplo,
calcular de forma sencilla el determinante de A:
[A[ = [L[[U[ = (
n
¸
i=1
l
ii
)(
n
¸
i=1
u
ii
).
Adem´as, podemos resolver el sistema de ecuaciones siguiendo estos dos pasos:
Paso 1. Resolvemos el sistema Ly = b y obtenemos una soluci´on y.
Paso 2. Resolvemos el sistema Ux = y. La soluci´on x obtenida ser´a la
soluci´on de Ax = b porque
Ax = LUx = Ly = b.
Los m´etodos de factorizaci´on LU consisten en descomponer la matriz en
producto de dos matrices triangulares, para despu´es aplicar los pasos 1 y 2
anteriores y as´ı resolver el sistema.
Si A = L U tendremos que

¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
n1
a
n2
. . . a
nn
¸

=

¸
¸
¸
l
11
0 0 . . . 0
l
21
l
22
0 . . . 0
. . .
l
n1
l
n2
. . . l
nn
¸

¸
¸
¸
u
11
u
12
. . . u
1n
0 u
22
. . . u
2n
. . . u
3n
0 0 . . . u
nn
¸

.
Haciendo el producto de matrices e igualando t´ermino a t´ermino se obtienen
n
2
ecuaciones lineales con n
2
+n inc´ognitas. Si imponemos la condici´on
l
11
= l
22
= = l
nn
= 1
obtendremos un sistema de ecuaciones f´acilmente resoluble. Las soluciones
dan lugar a una descomposici´on L U que es la misma que la obtenida por el
m´etodo de Gauss sin intercambio de filas.
Si A es no singular, una condici´on necesaria y suficiente para que A admita
una descomposici´on LU de la forma anterior es que los menores fundamentales
(todos los determinantes de las matrices formadas con las primeras k filas y
columnas) sean no nulos. En este caso la factorizaci´on es ´ unica.
54 Cap´ıtulo 3
Ejemplo: Resuelve el siguiente sistema mediante factorizaci´ on L U de
Gauss

¸
3 1 2
6 3 2
−3 0 −8
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
2
¸

.
Como [A
11
[ = 3, [A
21
[ =

3 1
6 3

= 0 y A
33
=

3 1 2
6 3 2
−3 0 −8

= 0, el
sistema admite la factorizaci´on L U buscada. Igualando t´ermino a t´ermino
las matrices siguientes

¸
3 1 2
6 3 2
−3 0 −8
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
obtenemos
u
11
= 3
u
12
= 1
u
13
= 2
l
21
u
12
= 6
l
21
u
12
+u
22
= 3
l
21
u
13
+u
23
= 2
l
31
u
11
= −3
l
31
u
12
+l
32
u
22
= 0
l
31
u
13
+l
32
u
23
+u
33
= −8


u
11
= 3
u
12
= 1
u
13
= 2
l
21
= 2
u
22
= 1
u
23
= −2
l
31
= −1
l
32
= 1
u
33
= −4
Paso 1.
Ly = b ⇒

¸
1 0 0
2 1 0
−1 1 1
¸

¸
y
1
y
2
y
3
¸

=

¸
0
1
2
¸


y
1
= 0
y
2
= 1
y
3
= 1
.
Paso 2.
Ux = y ⇒

¸
3 1 2
0 1 −2
0 0 −4
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
1
¸


x
1
= 0
x
2
=
1
2
x
3
=
−1
4
,
que es la soluci´on del sistema.

Sistemas lineales 55
3.3.1 M´etodo de Crout
Si en la factorizaci´on LU fijamos
u
11
= u
22
= = u
nn
= 1
se obtiene la descomposici´on por el m´etodo de Crout, que tiene el inconveniente
que puede producir grandes errores en la resoluci´on del sistema de ecuaciones.
3.3.2 M´etodo de Cholesky
Si en la factorizaci´on LU exigimos que U = L
t
de modo que
l
11
= u
11
, l
21
= u
12
, l
31
= u
13
, . . . , l
ij
= u
ji
, . . . , l
nn
= u
nn
,
se obtiene la descomposici´on por el m´etodo de Cholesky que funciona si y solo
si la matriz inicial A es sim´etrica y definida positiva. Por tanto, si consigo la
descomposici´on de una matriz por el m´etodo de Cholesky, puedo asegurar que
dicha matriz es sim´etrica y definida positiva.
La resoluci´on de un sistema de n = 50 ecuaciones con el m´etodo de Cho-
lesky requiere 50
3
/3 operaciones.
3.3.3 Sistemas triangulares
Son sistemas de ecuaciones lineales en los que la matriz de los coeficientes es
de la forma:
A =

¸
¸
¸
¸
¸
a
11
a
12
0 0 0 . . . 0
a
21
a
22
a
23
0 0 . . . 0
0 a
32
a
33
a
34
0 . . . 0
. . .
0 0 . . . 0 a
nn−1
a
nn
¸

.
Aparecen frecuentemente en la resoluci´on num´erica de ecuaciones diferenciales
y en la aproximaci´on por splines c´ ubicos. En la mayor´ıa de los casos, la matriz
admite una descomposici´on de la forma

¸
¸
¸
¸
¸
1 0 0 . . . 0
l
21
1 0 . . . 0
0 l
32
1 0
. . .
0 0 . . . l
nn−1
1
¸

¸
¸
¸
¸
¸
u
11
u
12
0 . . . 0
0 u
22
u
23
0 0
0 0 u
32
u
33
. . . 0
. . .
0 0 . . . u
nn−1
u
nn
¸

.
56 Cap´ıtulo 3
Ejemplo: Dada la matriz

¸
60 30 20
30 20 15
20 15 12
¸

a) Obt´en la descomposici´ on de Cholesky.
b) Obt´en la factorizaci´ on de Gauss sin intercambio de filas y, a partir de ella,
las descomposiciones de Crout y de Cholesky.
a)

¸
60 30 20
30 20 15
20 15 12
¸

= LL
t
=

¸
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
¸

¸
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
¸

por tanto
l
2
11
= 60
l
11
l
21
= 30
l
11
l
31
= 20
l
2
21
l
2
22
= 20
l
21
l
31
+l
22
l
32
= 15
l
2
31
+l
2
32
+l
2
33
= 12


l
11
=

60
l
21
=

60/2
l
31
=

60/3
l
22
=

5
l
32
=

5
l
33
=

3/3
b) La factorizaci´on de Gauss se obtiene resolviendo el sistema de ecuaciones
que se deduce de

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
La descomposici´on que resulta es
A =

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 30 20
0 5 5
0 0 1/3
¸

.
Descomponiendo la segunda matriz de la parte derecha de la igualdad en un
producto de una matriz diagonal por otra triangular superior con 1 en cada
Sistemas lineales 57
elemento de la diagonal, se obtiene que
A =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 0 0
0 5 0
0 0 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

= (∗)
Multiplicando las dos primeras matrices anteriores
(∗) =

¸
60 0 0
30 5 0
20 4 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

que es la descomposici´on de Crout.
Si en (∗) descomponemos la matriz diagonal
(∗) =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

=
=

¸

60 0 0

60/2

5 0

60/3

5

3/3
¸

¸

60

60/2

60/3
0

5

5
0 0

3/3
¸

que es la descomposici´on de Cholesky.

3.4 Normas y an´alisis del error
Definici´ on: Sea V un espacio vectorial. Una norma sobre V es una aplica-
ci´ on | | : V →R tal que ∀v, w ∈ V y ∀α ∈ R se verifica que:
1. |v| ≥ 0 (v = 0 ⇔|v| = 0)
2. |v +w| ≤ |v| +|w|
3. |αv| = [α[|v|.
58 Cap´ıtulo 3
Ejemplo: las siguientes son normas definidas sobre el espacio vectorial
R
3
:
1. Norma eucl´ıdea o norma 2: |(x, y, z)|
2
=

x
2
+y
2
+z
2
2. Norma del m´ aximo o norma infinito: |(x, y, z)|

= max([x[, [y[, [z[)
3. Norma 1: |(x, y, z)|
1
= [x[ +[y[ +[z[

La norma de un vector mide la ”distancia”de ese vector al origen. La
distancia entre dos vectores se mide con la norma del vector diferencia. Las
normas del ejemplo son diferentes formas de ”medir”las distancias entre los
vectores de R
3
.
Puesto que el conjunto ´
n×n
de las matrices cuadradas de orden n, con
las operaciones suma y producto por un n´ umero real es un espacio vectorial,
para ”medir”matrices tambi´en se utilizar´an normas que, por tanto, tendr´an
que verificar las condiciones de la definici´on de norma. Si adem´as de esas
condiciones se verifica que
|A B| ≤ |A||B| A, B ∈ ´
n×n
entones dicha norma es una norma matricial.
Una norma matricial | |
M
sobre M
n×n
y una norma vectorial | |
V
sobre
R
n
se dice que son compatibles si se verifica que
|Av|
V
≤ |A|
M
|v|
V
∀A ∈ ´
n×n
∀v ∈ R
n
.
Dada cualquier norma vectorial | |
V
sobre R
n
, es posible definir una norma
matricial sobre ´
n×n
de la siguiente forma:
|A|
M
= max¦|Av|
V
: |v|
V
= 1¦
Esta nueva norma se llama norma matricial inducida o subordinada a
la norma vectorial correspondiente. La norma vectorial y su norma matricial
subordinada son siempre compatibles.
Sistemas lineales 59
Ejemplos:
1. La norma matricial inducida por la norma vectorial 1 en R
3
es
|A|
1
=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

1
= max
1≤j≤n
n
¸
i=1
[a
ij
[.
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸

1
= max(12, 4, 12) = 12.
2. La norma matricial inducida por la norma vectorial 2 en R
3
es
|A|
2
=

ρ(A
t
A).
ρ(A
t
A) es el radio espectral de A
t
A que es el m´aximo de los valores absolutos
de los autovalores de la matriz A
t
A.
Para calcular |A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
debemos calcular primero los au-
tovalores de |A
t
A| que son las ra´ıces de
[A
t
A−αId[ =

¸
13 −α −3 0
−3 1 −α 0
0 0 1 −α
¸

= (1 −α)(α
2
−14α + 4).
Los autovalores de A
t
A son 7 ±

5 y 1 y como consecuencia
|A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
=

7 +

5
3. La norma matricial inducida por la norma infinito en R
3
es
|A|

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸


= max
1≤i≤n
n
¸
j=1
[a
ij
[.
60 Cap´ıtulo 3
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸


= max(6, 11, 11) = 11.
4. Se define la norma matricial de Fr¨ obenius como |A| =

¸
1≤i,j≤n
[a
i,j
[
2
.

3.4.1 N´ umero condici´ on de una matriz
Se define el n´ umero de condici´ on de una matriz A como
k(A) = |A||A
−1
|.
El n´ umero de condici´on siempre es mayor o igual que 1 y se utiliza para estimar
si un sistema de ecuaciones Ax = b est´a bien o mal condicionado, es decir, si
peque˜ nos cambios en los datos (A o b) pueden producir grandes cambios en la
soluci´on del sistema.
Supongamos que en vez de b utilizamos
¯
b de modo que la soluci´on del
sistema es ¯ x y A¯ x =
¯
b. Esto puede ser debido a que hay un peque˜ no error
cometido al hacer alguna medida en b o bien porque en vez de la soluci´on
exacta x hemos obtenido una soluci´on aproximada ¯ x. Si denotamos e al error
en la soluci´on y r al error en b o error residual, se verifica que Ae = Ax−A¯ x =
b −
¯
b = r.
Teorema:
1
k(a)
|r|
|b|

|e|
|x|
≤ k(a)
|r|
|b|
.
Demostraci´ on. Veamos que
1
k(a)
r
b

e
x
. Se verifica que
|r||x| = |Ae||A
−1
b| ≤ |A||e||A
−1
||b|
Por tanto
1
|A||A
−1
|
|r|
|b|

|e|
|x|
Vemos que
e
x
≤ k(a)
r
b
. Se verifica que
|e||b| ≤ |A
−1
r||Ax| ≤ |A
−1
||r||A||x|.
Sistemas lineales 61
Por tanto
|e|
|x|
≤ |A||A
−1
|
|r|
|b|
.

Si k(A) est´an cerca de 1 el sistema estar´a bien condicionado porque el error
relativo en la soluci´on
e
x
ser´a similar al error relativo
r
b
en los datos. Si por
el contrario k(A) es muy grande, el sistema puede estar mal condicionado y
peque˜ nos cambios en los datos podr´an producir grandes cambios en la soluci´on.
Ejemplo: Dado el sistema

¸
3.02 −1.05 2.53
4.33 0.56 −1.78
−0.83 −0.54 1.47
¸

¸
x
1
x
2
x
3
¸

=

¸
2
3
5
¸

1. Encuentra el n´ umero de condici´ on de la matriz A de los coeficientes con
| |

.
2. Acota el error relativo de las posibles soluciones en funci´ on del error en
los datos.
a) La matriz inversa redondeada a dos decimales es
A
−1
=

¸
5.66 −7.27 −18.55
200.51 −268.26 −669.91
−76.85 −102.65 −255.88
¸

con lo que
k(a) = |A||A
−1
| = 6.67 1138.68 = 7595.
b) Se verifica que
1
7595
|r|
5

|e|
|x|
≤ 7595
|r|
5
es decir
2.63 10
−5
|r| ≤
|e|
|x|
≤ 1591|r|

62 Cap´ıtulo 3
3.5 Mejora de soluciones
3.5.1 Refinamiento iterativo
Es un m´etodo para mejorar una soluci´on aproximada ya obtenida. Sea ¯ x una
soluci´on aproximada de Ax = b tal que A¯ x =
¯
b. Se verifica que
x = A
−1
b = ¯ x+x−¯ x = ¯ x+A
−1
b+A
−1
¯
b = ¯ x+A
−1
(b−
¯
b) = ¯ x+A
−1
r = ¯ x+e.
El m´etodo consiste en aplicar los siguientes pasos:
1. Calculo r = b −A¯ x con doble precisi´on.
2. Calculo e resolviendo el sistema Ae = r.
3. La nueva soluci´on aproximada ser´a
¯
¯ x = ¯ x +e.
Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´on.
Ejemplo: Si como soluci´ on aproximada del sistema

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
875
539
399
319
¸

se obtiene ¯ x = (0.999988, 1.000137, 0.999670, 1.000215), aplica el m´etodo de
refinamiento iterativo para mejorarla.
1. Calculo r = b −A¯ x con doble precisi´on.
r =

¸
¸
¸
875
539
399
319
¸

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
0.999988
1.000137
0.999670
1.000215
¸

=

¸
¸
¸
−1.05000000 10
−4
−7.0000000 10
−5
−3.5000000 10
−5
−4.8000000 10
−5
¸

.
2. Resuelvo

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
e
1
e
2
e
3
e
4
¸

=

¸
¸
¸
−1.05 10
−4
−7.0 10
−5
−3.5 10
−5
−4.8 10
−5
¸

y obtengo e = (1.1 10
−5
, −1.4 10
−5
, 3.30 10
−4
, −2.15 10
−4
)
3. La nueva soluci´on es
¯
¯ x = (0.999999, 0.999997, 1, 1).

Sistemas lineales 63
3.5.2 Escalamiento
Si en un sistema de ecuaciones los coeficientes de las inc´ognitas son de muy
diferente magnitud, la soluci´on num´erica del sistema puede contener errores.
Ejemplo: Resolvamos el siguiente sistema por eliminaci´on gaussiana:
2x
1
+ 100000x
2
= 100000
x
1
+x
2
= 2

2 100000 100000
1 1 2

(fila 2) −1/2 (fila 1)

2 100000 100000
0 −999991 −99998

De modo que las soluciones son
x
1
=
100000−100000x
2
2
≈ 0
x
2
=
−99998
−99999
≈ 1( redondeado a 4 cifras)
Sin embargo el resultado correcto es x
1
= 1.00002 y x
2
= 0.99998.

Para solucionar este problema se puede recurrir al escalamiento que con-
siste en multiplicar cada ecuaci´on por un n´ umero para que el coeficiente m´as
grande de las inc´ognitas en valor absoluto sea 1. Al aplicar el escalamiento
podemos cometer a su vez errores de redondeo, pero puede ayudar en casos
extremos cuando hay mucha diferencia entre los coeficientes.
Ejemplo: En el caso anterior
0.00002x
1
+x
2
= 1
x
1
+x
2
= 2
redondeando a 4 decimales
x
2
= 1
x
1
+x
2
= 2
aplicando el pivoteo
x
1
+x
2
= 2
x
2
= 1
y las soluciones son x
1
= y x
2
= 1.

64 Cap´ıtulo 3
3.6 M´etodos iterativos
Los m´etodos directos estudiados anteriormente requieren aproximadamente
n
3
/3 operaciones. Son sensibles a errores de redondeo que se acrecientan al
aumentar n. De modo que, aunque te´oricamente conducen a una soluci´on
exacta, en la pr´actica la soluci´on obtenida puede ser peor que la obtenida
aproximadamente por un m´etodo iterativo.
Los m´etodos iterativos est´an especialmente indicados para la resoluci´on
de sistemas con una matriz de gran dimensi´on pero dispersa, es decir, con
muchos ceros, que suelen aparecer por ejemplo en la resoluci´on de ecuaciones
diferenciales en derivadas parciales.
Un m´etodo iterativo de resoluci´on de un sistema de n ecuaciones Ax = b
es aquel a partir de un x
0
∈ R
n
genera una sucesi´on de posibles soluciones
aproximadas x
1
, x
2
, . . . . El m´etodo es convergente si la sucesi´on generada
converge a la soluci´on del sistema a partir de cualquier vector inicial x
0
. Es
consistente si, en caso de converger, el l´ımite es la soluci´on.
Todos las m´etodos iterativos de resoluci´on de un sistema Ax = b se basan
en la descomposici´on de la matriz A en diferencia de dos matrices M − N,
siendo M una matriz regular. De modo que
Ax = b ⇔(M −N)x = b ⇔Mx = Nx +b ⇔x = M
−1
(Nx +b)
Si definimos G(x) = M
−1
(Nx+b), veremos que para encontrar la soluci´on del
sistema basta encontrar un vector fijo de la funci´on G(x). Para ello se genera
una sucesi´on x
k
= G(x
k−1
) partiendo de una determinada soluci´on aproximada
x
0
. La sucesi´on converger´a a la soluci´on en determinadas condiciones.
En la pr´actica, dadas las matrices M y N, puesto que
x
k
= G(x
k−1
) = M
−1
(Nx
k−1
) +b) ⇒Mx
k
= Nx
k−1
+b,
para calcular x
k
a partir de x
k−1
se resuelve el sistema
Mx
k
= Nx
k−1
+b.
Es esencial que M sea una matriz regular y es conveniente que sea una matriz
sencilla para facilitar el c´alculo.
La condici´on que asegura la convergencia es la siguiente.
Sistemas lineales 65
Teorema: En las condiciones anteriores, si existe una norma matricial
tal que |M
−1
N| < 1, entonces la sucesi´ on x
k+1
= G(x
k
) converge a un punto
fijo de la funci´ on G(x).
Demostraci´on. Teniendo en cuenta que
|G(y) −G(y

)| = |M
−1
(Ny +b) −M
−1
(Ny

+b)|
= |M
−1
Ny −M
−1
Ny

| = |M
−1
N(y −y

)|
≤ |M
−1
N||y −y

|.
Si |M
−1
N| < λ < 1 para un cierto λ ∈ R, entonces |G(y)−G(y

)| < λ|y−y

|.
A partir de un vector x
0
vamos generando la sucesi´on x
k+1
= G(x
k
) y se
verifica que
|x
k+1
−x
k
| = |G(x
k
) −G(x)
k−1
| =|G(x
k
−x
k−1
)| <
λ|x
k
−x
k−1
| < . . . < λ
k
|x
1
−x
0
|.
Por tanto
|x
k+p
−x
k
| < |x
k+p
−x
k+p−1
+x
k+p−1
−. . . −x
k
|

p
¸
i=1
|x
k+i
−x
k+i−1
| <
p−1
¸
i=0
λ
k+i−1
|x
1
−x
0
|
= |x
1
−x
0
|
p−1
¸
i=0
λ
k+i−1
= |x
1
−x
0
|
λ
k−1
−λ
k+p−1
1 −λ
k→∞
→ 0.
De modo que la sucesi´on x
k+1
= G(x
k
) es una sucesi´on convergente a un
vector x ∈ R
n
si |M
−1
N| < λ < 1 para un cierto λ ∈ R. Dicho vector x
verifica que
x −G(x) = lim
k→∞
x
k
−G( lim
k→∞
x
k
) = lim
k→∞
G(x
k−1
) −G( lim
k→∞
x
k
)
= G( lim
k→∞
(x
k−1
−x
k
)) = G(0) = 0 ⇒x = G(x).

66 Cap´ıtulo 3
En resumen, un m´etodo iterativo de resoluci´on de un sistema Ax = b
consiste en generar una sucesi´on x
k
= G(x
k−1
) siendo G(x) = M
−1
(Nx + b)
y A = M −N. Hay que tener en cuenta lo siguiente:
1. Si [M[ = 0, puedo calcular x
k
a partir de x
k−1
.
2. Si el sistema Mx = c se resuelve f´acilmente, el m´etodo iterativo es m´as
r´apido.
3. Si |M
−1
N| < 1 para alguna norma matricial, la sucesi´on x
k
converge
a la soluci´on del sistema Ax = b.
3.6.1 M´etodo de Jacobi
Dada la matriz A = (a
ij
)
1≤i,j≤n
, se definen:
D =

¸
¸
¸
a
11
0 0
0 a
22
0 0

0 0 a
nn
¸

, L =

¸
¸
¸
¸
¸
0 0
a
21
0 0
a
31
a
32
0 0

a
n1
a
n2
a
nn−1
0
¸

U =

¸
¸
¸
¸
¸
0 u
12
u
1n
0 0 u
23
u
2n

0 0 u
n−1n
0 0 0
¸

En el m´etodo de Jacobi M = D y N = −(L+U). Para calcula x
k
a partir de
x
k−1
se resuelve el sistema
Dx
k
= −(L +U)x
k−1
+b.
Para aplicar el m´etodo se requiere que a
ii
= 0 para todo i. Si [A[ = 0, esto se
puede conseguir intercambiando filas si fuese necesario.
El m´etodo converge si |M
−1
N| < 1 para alguna norma matricial. Puesto
que
M
−1
N =

¸
¸
¸
0
−a
12
a
11
−a
13
a
11

−a
1n
a
11
−a
21
a
22
0
−a
23
a
22

−a
2n
a
22

−a
n1
a
nn

−a
nn−1
a
nn
0
¸

y
Sistemas lineales 67
|M
−1
N|

= max
1≤i≤n
¸
n
j=1,j=i
[a
ij
[

1
a
ii
,
una condici´on suficiente para que el m´etodo de Jacobi converja es que la matriz
A sea diagonal dominante, es decir que [a
ii
[ >
¸
n
j=1,j=i
[a
ij
[ ∀i = 1, 2, . . . , n.
Como
|M
−1
N|
1
= max
1≤j≤n
¸
n
i=1,i=j

[a
ij
[
1
a
ii

,
otra condici´on suficiente es que lo anterior sea menor que 1.
Por ´ ultimo, una tercera condici´on suficiente es que la matriz D − L − U
sea sim´etrica y definida positiva.
Ejemplo: Aplica una iteraci´ on del m´etodo de Jacobi al siguiente sistema

¸
6 5 0
0 2 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
La matriz es diagonal dominante de modo que la sucesi´on x
k
de vectores
generados mediante el m´etodo de Jacobi converger´a a la soluci´on. Se tiene
que
D =

¸
6 0 0
0 2 0
0 0 3
¸

−(L +U) =

¸
0 −5 0
0 0 −1
−2 0 0
¸

Si elegimos como vector inicial el x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 2 0
0 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −5 0
0 0 −1
−2 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

Por tanto
6x
1
1
= 0
2x
1
2
= 1
3x
1
3
= 0

x
1
1
= 0
x
1
2
=
1
2
x
1
3
= 0
El siguiente vector ser´ıa x
1
= (0, 1/2, 0).

68 Cap´ıtulo 3
3.6.2 M´etodo de Gauss-Seidel
En este m´etodo M = D+L y N = −U. El sistema a resolver para calcular x
k
a partir de x
k−1
ser´a (D+L)x
k
= −Ux
k−1
+b. Distintas condiciones suficientes
para que el m´etodo funcione son:
1. que A sea diagonal dominante
2. que A
t
sea diagonal dominante
3. que A sea sim´etrica y definida positiva.
El m´etodo de Gauss-Seidel es dos veces m´as r´apido que el de Jacobi.
Ejemplo: Aplica el m´etodo de Gauss-Seidel al siguiente sistema

¸
6 2 0
0 5 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
Tendremos que
D +L =

¸
6 0 0
0 5 0
2 0 3
¸

U =

¸
0 2 0
0 0 1
0 0 0
¸

.
Si partimos de x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 5 0
2 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −2 0
0 0 −1
0 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

y se obtiene que x
1
= (0, 1/5, 0)

Sistemas lineales 69
3.6.3 M´etodos de relajaci´ on
En el m´etodo de Jacobi, para calcular cada componente de x
k
se utilizan todos
los valores de x
k−1
. Sin embargo, en el m´etodo de Gauss-Seidel, para calcular
la componente i-´esima de x
k
(x
k
i
) se utilizan las componentes x
k
1
, x
k
2
, . . . , x
k
i−1
del vector x
k
y las componentes x
k−1
i+1
, . . . , x
k−1
n
del vector x
k−1
. De este modo,
el c´alculo de las componentes de x
k
se divide en etapas, utilizando en cada
una de ellas un vector diferente:
Etapa 1: calculo x
k
1
usando (x
k−1
2
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 2: calculo x
k
2
usando (x
k
1
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 3: calculo x
k
3
usando (x
k
1
, x
k
2
, x
k−1
4
, . . . , x
k−1
n
).
Etapa n: calculo x
k
n
usando (x
k
1
, x
k
2
, . . . , x
k
n−1
).
En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de
n con el consiguiente ahorro en tiempo. Adem´as, la informaci´on obtenida en
cada etapa se incorpora a la siguiente. Los m´etodos que utilizan esto ´ ultimo se
llaman ”m´etodos de relajaci´on sucesiva”y se desarrollaron para la resoluci´on de
sistemas con matrices de dimensi´on grande pero con casi todos los elementos
nulos.
En un m´etodo de relajaci´on se considera
M =
1
w
D +L N =
1 −w
w
D −U
con lo que M − N = A. w se llama factor de relajaci´on. En funci´on de su
valor se tiene
• Subrelajaci´on si 0 < w < 1.
• Super-relajaci´on si w > 1
• Gauss-Seidel si w = 1.
Si w ∈ (0, 2) el m´etodo no converge. Una condici´on suficiente para la conver-
gencia es que A sea sim´etrica y definida positiva.
Cap´ıtulo 4
Aproximaci´ on de funciones
Dada una tabla de datos como esta
x −1 0 1 2
y −2 −2 0 4
que representa unos valores y en funci´on de otros x, pretendemos encontrar
una funci´on y = f(x) que pase por esos puntos.
4.1 Construcci´ on del polinomio interpolador
Teorema: Dada una tabla de n+1 puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) con
x
i
= x
j
, existe un ´ unico polinomio P
n
(x) de grado menor o igual que n de
modo que
P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n.
Dicho polinomio se llama polinomio interpolador de los puntos.
71
72 Cap´ıtulo 4
Demostraci´on. Consideremos un polinomio cualquiera de grado menor o
igual que n :
P
n
(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Puesto que queremos que P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n tendremos que
a
0
+a
1
x
0
+a
2
x
2
0
+ +a
n
x
n
0
= y
0
a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n
x
n
1
= y
1

a
0
+a
1
x
n
+a
2
x
2
n
+ +a
n
x
n
n
= y
n
que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´ognitas en el que
el determinante de la matriz de los coeficientes es distinto de 0 :

1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1

1 x
n
x
2
n
x
n
n

= 0.
Por lo tanto, el sistema es compatible determinado y tiene una ´ unica soluci´on.

Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de
la tabla
x −1 0 1 2
y −2 −2 0 4
Como son 4 puntos buscaremos un polinomio de grado menor o igual que
3 de la forma P
n
(x) = a
0
+a
1
x +a
2
x
2
+a
3
x
3
. El sistema que resulta es
a
0
+a
1
(−1) +a
2
(−1)
2
+a
3
(−1)
3
= −2
a
0
+a
1
(0) +a
2
(0)
2
+a
3
(0)
3
= −2
a
0
+a
1
(1) +a
2
(1)
2
+a
3
(1)
3
= −2
a
0
+a
1
(2) +a
2
(2)
2
+a
3
(2)
3
= 4
Que es un sistema compatible determinado y que, por tanto, tiene una ´ unica
soluci´on, es decir, existe un ´ unico polinomio de grado menor o igual que 3 que
pasa por los puntos de la tabla. Dicho polinomio es P(x) = −2 +x +x
2
.

Aproximacion de funciones 73
4.1.1 M´etodo de Lagrange
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), el polinomio interpolador
P
n
(x) se puede calcular as´ı:
P
n
(x) =
n
¸
i=0
L
i
(x)y
i
donde
L
i
(x) =
Π
j=i
(x −x
j
)
Π
j=i
(x
i
−x
j
)
=
(x −x
0
)(x −x
1
) . . . (x −x
i−1
)(x −x
i+1
) . . . (x −x
n
)
(x
i
−x
0
)(x
i
−x
1
) . . . (x
i
−x
i−1
)(x
i
−x
i+1
) . . . (x
i
−x
n
)
.
Se verifica que
L
i
(x
i
) = 1 L
i
(x
j
) = 0 ∀i = j
de modo que
P
n
(x
j
) =
n
¸
i=0
L
i
(x
j
)y
i
= y
j
.
Ejemplo: En el ejemplo anterior
L
0
(x) =
x(x−1)(x−2)
(−1)(−2)(−3)
L
1
(x) =
(x+1)(x−1)(x−2)
1(−1)(−2)
L
2
(x) =
(x+1)x(x−2)
2·1(−1)
L
3
(x) =
(x+1)x(x−1)
3·2·1

4.1.2 M´etodo de Newton
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), se pueden calcular las dife-
rencias divididas
• de primer orden: [x
i
, x
i+1
] =
y
i+1
−y
i
x
i+1
−x
i
• de segundo orden: [x
i
, x
i+1
, x
i+2
] =
[x
i+1
,x
i+2
]−[x
i
,x
i+1
]
x
i+2
−x
i

• de orden k [x
i
, x
i+1
, . . . , x
i+k
] =
[x
i+1
,··· ,x
i+k
]−[x
i
,··· ,x
i+k−1
]
x
i+k
−x
i
Las diferencias divididas son invariantes frente a permutaciones. Por ejemplo:
[x
0
, x
1
, x
2
] = [x
1
, x
0
, x
2
].
La tabla siguiente permite construir de forma sencilla las diferencias divididas:
74 Cap´ıtulo 4
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
2
] [x
0
, x
1
, x
2
, x
3
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
3
]
x
2
y
2
[x
2
, x
3
]
x
3
y
3
. . .
El polinomio interpolador se construye a partir de las diferencias divididas as´ı:
P
n
(x) = y
0
+ [x
0
, x
1
](x −x
0
) + [x
0
, x
1
, x
2
](x −x
0
)(x −x
1
) +. . .
+ [x
0
, x
1
, x
2
, . . . , x
n
](x −x
0
)(x −x
1
) . . . (x −x
n−1
).
Ejemplo: En el ejemplo anterior la tabla ser´ıa la siguiente
−1 −2 0 1 0
0 −2 2 1
1 0 4
2 4
y el polinomio ser´ıa P(x) = −2 + 1(x + 1)x.

4.2 Error del polinomio interpolador
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) que provienen de una cierta
funci´on y = f(x), si conocemos cierta informaci´on sobre las derivadas de la
funci´on f(x), podemos estimar el error que se comete al aproximar f(x) por
su polinomio interpolador P
n
(x) de grado menor o igual que n.
Teorema: Sea f(x) una funci´ on n + 1 veces diferenciable en un inter-
valo (a, b) y sea P
n
(x) su polinomio interpolador en los nodos x
0
, x
1
, . . . , x
n
contenidos en [a, b]. Para cada x ∈ [a, b] existe un punto θ
x
∈ (a, b) tal que
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)(x −x
1
) . . . (x −x
n
).
Demostraci´on. Sea w(t) = (t − x
0
)(t − x
1
) . . . (t − x
n
). Para un valor fijo
x ∈ [a, b] existe un λ ∈ R tal que f(x)−P
n
(x) = λw(x). De modo que tenemos
la funci´on
Φ(t) = f(t) −P
n
(t) −λw(t)
Aproximacion de funciones 75
que vale 0 en x, x
0
, x
1
, . . . , x
n
. Por tanto, Φ
1)
(t) se anular´a en n + 1 puntos,
Φ
2)
(t) se anular´a en n puntos y Φ
n+1)
(t) se anular´a en 1 punto θ
x
∈ (a, b):
Φ
n+1)

x
) = f
n+1)

x
) −P
n+1)

x
) −λw
n+1)

x
) = 0
es decir
f
n+1)

x
) −λ(n + 1)! = 0 ⇒λ =
f
n+1)

x
)
(n + 1)!
.
Como consecuencia
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
w(x).

Ejemplo: El error al aproximar la funci´on f(x) = sen(x) en un punto
x ∈ [0, 1] mediante un polinomio interpolador en 9 nodos contenidos en el
intervalo [0, 1] se puede acotar as´ı:
[f(x) −P
9
(x)[ ≤
[f
10)

x
)[
10!

9
i=0
(x −x
i
)[ ≤
1
10!
< 2.8 10
−7

4.2.1 Elecci´ on de nodos. Polinomios de Chebyshev
Si pretendemos encontrar un polinomio que interpole a una determinada fun-
ci´on y los nodos no est´an previamente fijados, ¿qu´e nodos podemos elegir?
Elegir los nodos proporcionados por los polinomios de Chebyshev tienen algu-
na ventaja.
Definici´ on: Los polinomios de Chebyshev se definen as´ı:
T
0
(x) = 1 T
1
(x) = x T
n+1
(x) = 2xT
n
(x) −T
n−1
(x) si n ≥ 1
Proposici´ on: Las ra´ıces del polinomio de Chebyshev T
n
(x) si n ≥ 1 son
los valores
cos

2j −1
2n
π

∀1 ≤ j ≤ n.
76 Cap´ıtulo 4
Como consecuencia, todas las ra´ıces de cualquier polinomio de Chebyshev
est´an contenidas en el intervalo [−1, 1].
Teorema: Si los nodos (x
i
), con i = 0, 1, . . . , n, de interpolaci´ on de una
funci´ on f(x) en x ∈ [−1, 1] son las ra´ıces del polinomio de Chebyshev T
n+1
(x),
entonces
[f(x) −P
n
(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[.
La justificaci´on del teorema se basa en que la expresi´on
max
|x|≤1
Π
n
i=0
[(x −x
i
)[
que proviene de la f´ormula general del error en la interpolaci´on, se hace m´ınima
cuando x
i
son las ra´ıces del polinomio de Chebyshev correspondiente. El re-
sultado del teorema permite encontrar una cota del error del polinomio inter-
polador m´as peque˜ na que la establecida con car´acter general.
Si en lugar del intervalo [−1, 1] tenemos un intervalo [a, b], si aplicamos a
los nodos de Chebyshev la transformaci´on af´ın que lleva el intervalo [−1, 1] en
el intervalo [a, b], obtenemos unos nuevos nodos tales que:
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
[f
n+1)
(t)[.
Ejemplo: Calcula los cuatro nodos para la interpolaci´ on de una funci´ on
en el intervalo [−1, 1] y en el intervalo [2, 8] haciendo uso de los polinomio de
Chebyshev. Establece una cota del error en cada caso para la funci´ on f(x) =
sin(x).
Calculamos las ra´ıces de T
4
(x) = 8x
4
−8x
2
+ 1 :
x
0
= −0.9239 x
1
= −0.3827 x
2
= 0.3827 x
3
= 0.9239.
Estos ser´ıa los nodos en el intervalo [−1, 1]. Para calcular los nodos en el
intervalo [2, 8] necesitamos una transformaci´on af´ın αx+β que lleve el intervalo
Aproximacion de funciones 77
[−1, 1] en el intervalo [2, 8] :
[−1, 1] → [2, 8]
−1 → α(−1) +β = 2
1 → α(1) +β = 8
Resolviendo el sistema formado por las dos ´ ultimas ecuaciones, obtenemos que
la transformaci´on es 3x + 5. Aplicamos esta transformaci´on a los nodos de
Chebyshev y obtenemos los nuevos nodos en el intervalo [2, 8] :
x

0
= 2.2284 x

1
= 3.8519 x

2
= 6.1481 x

3
= 7.7716.
Veamos las cotas de los errores para la funci´on f(x) = sin(x) en cada caso.
Para el intervalo [−1, 1] :
[f(x) −P(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[ ≤
1
2
3
(4)!
Para el intervalo [2, 8] :
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
f
n+1)
(t) ≤
3
4
2
3
4!
.

¿Es cierto que si n aumenta el polinomio P
n
(x) se ”parece”m´as a la fun-
ci´on f(x)? En general la respuesta es que no. Por ejemplo, dada funci´on
f(x) =
1
1+x
2
en [−5, 5], si elegimos los nodos x
i
igualmente espaciados, se pue-
de demostrar que los polinomios no convergen a la funci´on fuera del intervalo
[−3.63, 3.63]. (Ver figura 4.1)
Otro ejemplo es la funci´on f(x) = [x[ en [−1, 1], en la cual la convergencia
se produce solo en los puntos −1, 0, 1.
Sin embargo, si elegimos los nodos de Chebyshev y la funci´on f(x) a in-
terpolar es continua y con derivada continua, entonces P
n
(x) converge uni-
formemente a f(x) en todo el intervalo. No obstante, para cualquier elecci´on
de nodos es posible encontrar una funci´on continua tal que no se produce esa
convergencia uniforme.
78 Cap´ıtulo 4
-4 -2 2 4
0.5
1
1.5
2
-4 -2 2 4
-0.5
0.5
1
1.5
2
Figura 4.1:
1
1+x
2
y sus polinomios interpoladores de grado 10 y 20.
4.3 Interpolaci´ on a trozos y con condiciones sobre
la derivada
4.3.1 Interpolaci´ on a trozos
Si disponemos de ciertos valores de una funci´on f(x) en un intervalo [a, b],
se puede obtener una aproximaci´on a la funci´on f(x) dividiendo el intervalo
en varios intervalos m´as peque˜ nos (subintervalos) y utilizando polinomios de
peque˜ no grado (1,2,3, etc.) distintos para interpolar los valores de cada su-
bintervalo. La siguiente gr´afica muestra la funci´on seno y una funci´on que la
interpola con trozos de recta en varios puntos:
1 2 3 4 5 6
-1
-0.5
0.5
1
Aproximacion de funciones 79
Ejercicio: Dada la tabla
x −1 0 1 2
y −2 −2 0 4
encuentra una funci´ on formada
a) por trozos de recta
b) por trozos de par´ abola
que pase por los puntos anteriores.
4.3.2 Interpolaci´ on con condiciones sobre la derivada
El siguiente es un ejemplo de problema de interpolaci´on con condiciones sobre
la derivada.
Ejemplo 1: Encuentra un polinomio P(x) tal que P(0) = 0, P(1) = 1 y
P

(0.5) = 2.
Puesto que son tres las condiciones que tenemos, cabe pensar que basta
buscar entre los polinomios con tres par´ametros, es decir, los polinomios de
grado 3 de la forma P(x) = a +bx +cx
2
:
P(0) = 0
P(1) = 1
P

(0.5) = 2

a = 0
b +c = 1
b + 2 c 0.5 = 2

a = 0
b +c = 1
b +c = 2
El sistema anterior no tiene soluci´on, con lo que habr´ıa que buscar entre los
polinomios de grado 4. Al plantear las ecuaciones correspondientes resulta un
sistema con soluci´on no ´ unica.

Ejemplo 2 (Interpolaci´on de Hermite): Encuentra un polinomio P(x) que
interpole a una funci´on y = f(x) sabiendo que
x −1 0 1
y 1 1 −1
y

2 0 0
Puesto que hay seis condiciones para la funci´on y sus derivadas buscamos
entre los polinomios de la forma P(x) = a
0
+a
1
x + +a
5
x
5
que tienen seis
80 Cap´ıtulo 4
coeficientes. Planteamos el sistema correspondiente seg´ un las condiciones y
obtenemos lo siguiente:
P(−1) = 1 P

(−1) = 2
P(0) = 1 P

(0) = 0
P(1) = 0 P

(1) = 0

a
0
= 1 a
3
= −3
a
1
= 0 a
4
=
1
2
a
2
=
−3
2
a
5
= 2
Con lo que el polinomio buscado es P(x) = 1 −
3
2
x
2
−3x
3
+
1
2
x
4
+ 2x
5
.

Ejemplo 3 (Interpolaci´on de Hermite c´ ubica a trozos): Encuentra una
funci´ on formada por trozos de polinomios de grado 3 que verifique las siguien-
tes condiciones
x −1 0 1
y 1 1 −1
y

2 0 0
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.2: La funci´on g(x)
Buscamos una funci´on de la forma
g(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
Aproximacion de funciones 81
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
. A partir de
las condiciones planteamos el sistema
P(−1) = 1 P

(−1) = 2 Q(0) = 1 Q

(0) = 0
P(0) = 1 P

(0) = 0 Q(1) = −1 Q

(1) = 0
con lo que
g(x) =

1 + 2x
2
+ 2x
3
si x ∈ [−1, 0]
1 −6x
2
+ 4x
3
si x ∈ [0, 1]
(Ver Figura 4.2)

Ejemplo 5 (Splines c´ ubicos): Encuentra una funci´ on polin´ omica c´ ubica a
trozos que sea de clase (
2
(continua, derivable y con derivada segunda conti-
nua) que verifique las siguientes condiciones
x −1 0 1
y 1 1 −1
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.3: La funci´on h(x)
Buscamos una funci´on de la forma
h(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
82 Cap´ıtulo 4
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
de modo que
P(−1) = 1 P(0) = 1 Q(0) = 1 Q(1) = −1 P

(0) = Q

(0) P

(0) = Q

(0)
Puesto que tenemos 6 ecuaciones y 8 inc´ognitas necesitamos 2 condiciones
m´as. Por ejemplo, a˜ nadimos las siguientes
P

(−1) = 0 Q

(1) = 0
y obtenemos un sistema compatible determinado de modo que
h(x) =

1 −x −
3
2
x
2

1
2
x
3
si x ∈ [−1, 0]
1 −x −
3
2
x
2
+
1
2
x
3
si x ∈ [0, 1]
(Ver Figura 4.3)

Interpolaci´ on de Hermite
Un problema de interpolaci´on de Hermite consiste en encontrar un polinomio
P(x) (Polinomio de Hermite) tal que
P(x
0
) = y
0
P

(x
0
) = y

0
P

(x
0
) = y

0
P
k
0
−1)
(x
0
) = y
k
0
−1
0
P(x
1
) = y
1
P

(x
1
) = y

1
P

(x
1
) = y

1
P
k
1
−1)
(x
1
) = y
k
1
−1
1

P(x
n
) = y
n
P

(x
n
) = y

n
P

(x
n
) = y

n
P
k
n
−1)
(x
n
) = y
k
n
−1
n
siendo y
i
, y

i
, , y
k)
i
los valores de una cierta funci´on y sus derivadas en n+1
puntos. Si el n´ umero de condiciones impuestas es k
1
+k
2
+ +k
n
= m+ 1
entonces
Teorema: Existe un ´ unico polinomio de grado menor o igual que m que
satisface las condiciones de interpolaci´ on de Hermite anteriores.
Demostraci´on. Sea P(x) un polinomio de grado menor o igual que m. Las
condiciones P
j
(x
i
) = y
j
i
dan lugar a un sistema de m + 1 ecuaciones de la
forma Au = y. Este sistema tiene soluci´on ´ unica si el sistema Au = 0 tiene
´ unicamente la soluci´on 0, es decir, si el sistema formado por las condiciones
P
j)
(x
i
) = 0 tiene como soluci´on ´ unica el polinomio 0. Veamos que esto ´ ultimo
Aproximacion de funciones 83
es cierto. Un polinomio P(x) que sea soluci´on del sistema P
j)
(x
i
) = 0 verifica
que tiene la ra´ız x
i
repetida k
i
veces, con lo que si P(x) no es cero, ser´ıa de
grado mayor o igual que m+ 1, en contradicci´on con la hip´otesis inicial.

Ejercicio: ¿Qu´e otro nombre recibe el polinomio de Hermite cuando solo
hay un nodo?

Teorema. Sean x
0
, x
1
, . . . , x
n
nodos distintos de [a, b] y f ∈ (
2
[a, b]. Si
P(x) es el polinomio de grado menor o igual que 2n+1 tal que P(x
i
) = f(x
i
)
y P

(x
i
) = f

(x
i
), con 0 ≤ i ≤ n, entonces ∀x ∈ [a, b] ∃θ ∈ [a, b] tal que
f(x) −P(x) =
f
2n+2)
(θ)
(2n + 2)!
Π
n
i=0
(x −x
i
)
2

El polinomio de Hermite se puede calcular usando las diferencias divididas.
Para ello definimos
[x
0
, x
0
] = lim
x→x
0
[x
0
, x] = lim
x→x
0
y −y
0
x −x
0
= lim
x→x
0
f(x) −f(x
0
)
x −x
0
= f

(x
0
)
[x
0
, x
0
, x
1
] =
[x
0
, x
1
] −[x
0
, x
0
]
x
1
−x
0
[x
0
, x
0
, x
0
] =
1
2!
f
2)
(x
0
) [x
0
, x
0
, x
0
, x
0
] =
1
3!
f
3)
(x
0
)
Y de forma similar el resto de diferencias. En estas condiciones el polinomio
de interpolaci´on de Hermite se calcula de forma parecida a como se calculaba
el polinomio de interpolaci´on sin condiciones sobre la derivada.
El c´alculo es m´as sencillo haciendo uso de una tabla. Por ejemplo, si el
problema de Hermite incluye datos sobre la funci´on y su derivada en tres
puntos la tabla quedar´ıa as´ı:
x y 1
0
2
0
3
0
4
0
5
0
x
0
y
0
[x
0
, x
0
] [x
0
, x
0
, x
1
] [x
0
, x
0
, x
1
, x
1
] [x
0
, x
0
, x
1
, x
1
, x
2
] [x
0
, . . . , x
2
]
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
1
] [x
0
, x
1
, x
1
, x
2
] [x
0
, x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
1
] [x
1
, x
1
, x
2
] [x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
2
]
x
2
y
2
[x
2
, x
2
]
x
2
y
2
84 Cap´ıtulo 4
siendo
[x
0
, x
0
, . . . , x
0
] =
1
k!
f
k)
(x
0
)
k veces
.
El polinomio ser´ıa
P(x) = y
0
+ [x
0
, x
0
](x −x
0
) + [x
0
, x
0
, x
1
](x −x
0
)
2
+
+[x
0
, x
0
, x
1
, x
1
](x −x
0
)
2
(x −x
1
) +
+[x
0
, x
0
, x
1
, x
1
, x
2
](x −x
0
)
2
(x −x
1
)
2
+[x
0
, x
0
, x
1
, x
1
, x
2
, x
2
](x −x
0
)
2
(x −x
1
)
2
(x −x
2
).
Ejemplo: Calcula el polinomio que verifica estas condiciones:
x −1 0 1
y 1 1 −1
y

2 0 0
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
5
0
-1 1 2 −2 2 −3/2 2
-1 1 0 0 −1 5/2
0 1 0 −2 4
0 1 −2 2
1 -1 0
1 -1
El polinomio ser´ıa
P(x) = 1+2(x+1)−2(x+1)
2
+2(x+1)
2
x−3/2(x+1)
2
x
2
+2(x+1)
2
x
2
(x−1)

Ejemplo: Calcula el polinomio que verifica las siguientes condiciones:
x 1 2
y 2 6
y

3 7
y

8
Aproximacion de funciones 85
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
1 2 3 1 2 −1
1 2 4 3 1
2 6 7 8/2!=4
2 6 7
2 6
El polinomio ser´ıa
P(x) = 2 + 3(x −1) + 1(x −1)
2
+ 2(x −1)
2
(x −2) −1(x −1)
2
(x −2)
2
.

Interpolaci´ on c´ ubica de Hermite a trozos
Dada la tabla de valores
x x
0
x
1
x
n
y y
1
y
2
y
n
y

y

1
y

2
y

n
correspondientes a una cierta funci´on y sus derivadas, el m´etodo de inter-
polaci´on c´ ubica de Hermite a trozos consiste en encontrar una ´ unica funci´on
derivable definida a trozos, tal que en cada intervalo [x
i
, x
i+1
] (i = 0, . . . , n−1),
la funci´on es un polinomio P
i
(x) de grado menor o igual a 3 que verifica lo
siguiente
P
i
(x
i
) = y
i
P
i
(x
i+1
) = y
i+1
P

(x
i
) = y

i
P

i
(x
i+1
) = y

i+1
.
Planteando los correspondientes sistemas de ecuaciones, se puede encontrar la
´ unica funci´on que interpola en esas condiciones.
Splines
Una funci´on spline de grado k con nodos x
0
≤ x
1
≤ ≤ x
n
es una funci´on
S(x) definida a trozos tal que:
a) S(x) es un polinomio S
i
(x) de grado menor o igual que k en cada inter-
valo [x
i
, x
i+1
], con i = 0, 1, . . . , n −1.
b) S(x) admite derivada segunda continua de orden k −1 en [x
0
, x
n
].
86 Cap´ıtulo 4
El spline c´ ubico (k = 3) es el m´as usado en interpolaci´on. Un spline c´ ubico de
interpolaci´on en ¦x
0
, x
1
, . . . , x
n
¦ es una funci´on que cumple las propiedades
a), b) y S(x
i
) = f(x
i
), con i = 0, 1, . . . , n. El n´ umero de condiciones que se
han de cumplir es el siguiente:
condici´on ecuaciones num. ec.
continuidad S
i−1
(x
i
) = S
i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 1
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 2
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
interpolaci´on S
i
(x
i
) = y
i
con i = 0, . . . , n n + 1
total 4n −2
Cada polinomio c´ ubico S
i
(x), con i = 0, . . . , n − 1, tendr´a 4 par´ametros,
con lo que el n´ umero de inc´ognitas ser´a 4n−4. Por lo tanto, para poder resolver
el correspondiente sistema de ecuaciones hemos de a˜ nadir dos condiciones m´as
y podemos hacerlo de distintas formas:
• Si exigimos S

(x
0
) = 0 y S

(x
n
) = 0 obtendremos el spline c´ ubico
natural.
• Si exigimos S

(x
0
) = S

(x
n
) y S

(x
0
) = S

(x
n
) obtendremos el spline
peri´odico.
Se pueden elegir otras condiciones distintas del spline natural o del peri´odico.
Sin embargo, los splines natural y peri´odico existen y son ´ unicos para cualquier
conjunto de nodos y de datos. Adem´as, si la funci´on a interpolar f(x) tiene
derivada segunda continua en [x
0
, x
n
], entonces

b
a
[S

(x)]
2
dx ≤

b
a
[f

(x)]
2
dx,
siendo S(x) el spline natural. Es decir, de entre todas las funciones con deriva-
da segunda continua que pasan por ciertos puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
)
el spline natural es el que tiene menor energ´ıa el´astica (menor tensi´on
1
).
Por otra parte, si aumentamos el n´ umero de puntos a interpolar en el
intervalo [a, b] (n →∞) disminuyendo simult´aneamente el tama˜ no m´aximo de
los subintervalos [x
i
, x
i+1
] (max
0≤i≤n
[x
i
, x
i+1
] →0), entonces el spline natural
y su derivada convergen uniformemente a f(x) y f

(x) respectivamente.
1
La tensi´ on o energ´ıa el´ astica en [a, b] es proporcional a

b
a
[f

(x)]
2
dx.
Cap´ıtulo 5
Diferenciaci´ on e integraci´ on
num´erica
5.1 Diferenciaci´ on num´erica y extrapolaci´ on de Ri-
charson
¿Puede calcularse la derivada de una funci´on f(x) en un punto si se conocen
solo los valores de la funci´on f(x
0
), f(x
1
),. . . ,f(x
n
) en n + 1 puntos? Si la
funci´on es un polinomio de grado n, entonces seguro que se puede. Si de
la funci´on solo sabemos que es derivable, entonces no ser´a posible, pues hay
muchas funciones derivables que pasan por los mismos puntos. El objetivo de
esta secci´on es estimar el valor de f

(x) a partir de los valores de la funci´on
en ciertos puntos f(x
0
), f(x
1
),. . . ,f(x
n
) dando una cota del error cometido.
Dado que
f

(x) = lim
h→0
f(x +h) −f(x)
h
una primera estimaci´on es
f

(x) ≈
f(x +h) −f(x)
h
que es aplicable cuando conocemos los valores de la funci´on en dos puntos:
x
0
= x y x
1
= x+h. La f´ormula anterior es exacta para funciones lineales (por
ejemplo, para f(x) = 3x+2) y en otros casos de manera fortuita. Calculemos
87
88 Cap´ıtulo 5
una cota del error. Por el teorema de Taylor:
f(x +h) = f(x) +f

(x)h +
f

(θ)
2!
h
2
es decir
f

(x) =
f(x +h) −f(x)
h

h
2
f

(θ).
El error al aproximar f

(x) por f

(x) =
f(x+h)−f(x)
h
, llamado error de trunca-
miento, es
error = −
h
2
f

(θ) (f´ormula de orden h)
siendo θ un n´ umero entre x y x + h. Cuanto menor sea h, mejor ser´a la
aproximaci´on de f

(x), hasta que el error de redondeo impida la mejora.
Ejemplo: Estima el valor de la derivada de cos(x) en el punto
π
4
y calcula
una cota del error cometido.
Tomando como h = 0.01
f

(
π
4
) ≈
f(
π
4
+h) −f(
π
4
)
h
=
cos(
π
4
+ 0.01) −cos(
π
4
)
0.01
= −0.71063050.
La cota del error ser´ıa
[error[ = [ −
h
2
f

(θ)[ = [
0.01
2
cos(θ)[ ≤
0.01
2
= 0.005.

Otra estimaci´on de f

(x) es
f

(x) ≈
f(x +h) −f(x −h)
2h
.
Veamos la estimaci´on del error. Del teorema de Taylor se deduce que
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f


1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f


2
).
Diferenciaci´ on e integraci´ on 89
Si restamos las ecuaciones anteriores
f(x +h) −f(x −h) = 2f

(x)h +
h
3
6
[f


1
) +f


2
)].
Despejando
f

(x) =
f(x +h) −f(x −h)
2h

h
2
12
[f


1
) +f


2
)]
con lo que el error de truncamiento ser´ıa

h
2
12
[f


1
) +f


2
)]
siendo θ
1
un n´ umero entre x y x+h y θ
2
un n´ umero entre x y x−h. Si f

(x)
existe y es continua en [x−h, x+h], entonces existe un n´ umero θ ∈ [x−h, x+h]
tal que f

(θ) =
f


1
)+f


2
)
2
, con lo que error de truncamiento quedar´ıa
error = −
h
2
6
f

(θ) (f´ormula de orden h
2
).
Para estimar el valor de una derivada segunda podemos usar la f´ormula
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2
.
Veamos la estimaci´on del error. Por el teorema de Taylor
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f

(x) +
h
4
24
f
4)

1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f

(x) +
h
4
24
f
4)

2
)
.
Si sumamos las ecuaciones anteriores y despejamos
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2

h
2
24
[f
4)

1
) +f
4)

2
)].
Siendo θ
1
y θ
2
n´ umeros que est´an entre x y x +h y entre x y x −h. Si f
4)
(x)
existe y es continua, entonces existe un n´ umero θ ∈ [x −h, x +h] tal que
error =
h
2
12
f
4)
(θ) (f´ormula de orden h
2
)
90 Cap´ıtulo 5
5.1.1 Diferenciaci´ on mediante interpolaci´ on
Dada una funci´on f(x) y recordando c´omo se calcula el polinomio de interpo-
laci´on en los puntos x
0
, x
1
, . . . ,x
n
, se tiene que :
f(x) =
n
¸
i=0
f(x
i
)L
x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w(x)
donde w(x) = Π
n
i=0
(x −x
i
). Si derivamos
f

(x) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w

(x)
+
1
(n + 1)!
w(x)
d
dx
(f
n+1)

x
))

Si x = x
k
f

(x
k
) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x
k
) +
1
(n + 1)!
f
n+1)

x
k
)w

(x
k
)

.
Y como
w

(x) =
n
¸
i=0
Π
n
j=0,j=i
(x −x
j
) ⇒w

(x
k
) = Π
n
j=0,j=k
(x
k
−x
j
)
nos queda
f

(x
k
) =
n
¸
i=0

f(x
i
)L

x
i
(x
k
)

+
1
(n + 1)!
f
n+1)

x
k

n
j=0,j=k
(x
k
−x
j
)
que es una forma de calcular un valor aproximado de f

(x
k
) a partir de los
valores x
0
, x
1
, . . . ,x
n
.
Diferenciaci´ on e integraci´ on 91
Ejemplo: a) Aplica la f´ ormula anterior para calcular f

(x
1
) con n = 2.
b) Calcula lo anterior con x
1
−x
0
= x
2
−x
1
= h
Apartado a). Puesto que
L
x
0
=
(x −x
1
)(x −x
2
)
(x
0
−x
1
)(x
0
−x
2
)
L
x
1
=
(x −x
0
)(x −x
2
)
(x
1
−x
0
)(x
1
−x
2
)
L
x
2
=
(x −x
0
)(x −x
1
)
(x
2
−x
0
)(x
2
−x
1
)
se tiene que
L

x
0
=
2x −x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
L

x
1
=
2x −x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
L

x
2
=
2x −x
0
−x
1
(x
2
−x
0
)(x
2
−x
1
)
.
Por tanto
f

(x
1
) ≈ f(x
0
)
x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
+f(x
1
)
2x
1
−x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
+f(x
2
)
x
1
−x
0
(x
2
−x
0
)(x
2
−x
1
)
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(x
1
−x
0
)(x
1
−x
2
).
Apartado b). Siendo x
0
= x
1
− h y x
2
= x
1
+ h se obtiene la f´ormula ya
conocida
f

(x
1
) ≈ f(x
1
−h)
−h
(−h)(−2h)
+f(x
1
)
2x
1
−(x
1
−h) −(x
1
+h)
(h)(−h)
+f(x
1
+h)
h
(2h)(h)
f(x
1
+h) −f(x
1
−h)
2h
,
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(h)(−h) = −
1
3!
f
3)

x
1
)h
2
.

92 Cap´ıtulo 5
5.1.2 Extrapolaci´ on de Richarson
La extrapolaci´on de Richarson sirve para generar resultados de gran exactitud
cuando se usan f´ormulas de bajo orden. La extrapolaci´on puede aplicarse
siempre a cualquier m´etodo de aproximaci´on en el que sepamos el t´ermino de
error de una forma previsible y se basa en un par´ametro que generalmente es
el tama˜ no de paso h.
Por el teorema de Taylor sabemos que
f(x +h) =

¸
k=0
1
k!
h
k
f
k)
(x) y f(x +h) =

¸
k=0
1
k!
(−1)
k
h
k
f
k)
(x).
Restando las f´ormulas anteriores
f(x +h) −f(x −h) = 2hf

(x) +
2
3!
h
3
f
3)
(x) +
2
5!
f
5)
(x) +. . .
y despejando f

(x)
f

(x) =
f(x +h) −f(x −h)
2h

¸
f
3)
(x)
3!
h
2
+
f
5)
(x)
5!
h
4
+
f
7)
(x)
7!
h
6
+. . .
¸
.
Si definimos Φ(h) =
f(x+h)−f(x−h)
2h
y denotamos a
i
al coeficiente de h
i
en la
f´ormula anterior, tenemos
f

(x) = Φ(h) +a
2
h
2
+a
4
h
4
+a
6
h
6
+. . . (5.1)
que es la f´ormula ya conocida de aproximaci´on de f

(x)
f

(x) ≈ Φ(h) con error = h
2

a
2
+a
4
h
2
+a
6
h
4
+. . .

Si sustituimos h por h/2
f

(x) = Φ(
h
2
) +
a
2
2
2
h
2
+
a
4
2
4
h
4
+
a
6
2
6
h
6
+. . .
y multiplicando por 4
4f

(x) = 4Φ(
h
2
) +a
2
h
2
+
a
4
4
h
4
+
a
6
2
4
h
6
+. . . (5.2)
Diferenciaci´ on e integraci´ on 93
con lo que (5.2)-(5.1) es
3f

(x) = 4Φ(
h
2
) −Φ(h) −
3a
4
4
h
4

15a
6
16
h
6
que, despejando f

(x), da origen a la f´ormula de aproximaci´on
f

(x) ≈
4
3
Φ(
h
2
) −
1
3
Φ(h) con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

que tambi´en puede expresarse
f

(x) ≈ Φ(
h
2
) +
Φ(
h
2
) −Φ(h)
3
con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

Ejemplo: Siendo f(x) = arctan(x), calcula f

(

2) haciendo uso de la
extrapolaci´on de Richarson.
Tomamos h = 0.1.
f

(x) ≈ Φ(h) =
f(x +h) −f(x −h)
2h
=
f(

2 + 0.1) −f(

2 −0.1)
2 0.1
= 0.3339506968
y
f

(x) ≈ Φ(h/2) = 0.3334876594
Usando la extrapolaci´on
f

(x) ≈ Φ(h/2) +
Φ(h/2) −Φ(h)
3
= 0.3333333136
(El valor exacto es 1/3).

94 Cap´ıtulo 5
Si en la f´ormula (5.1.2) denotamos Ψ(h) =
4
3
Φ(
h
2
) −
1
3
Φ(h), b
4
=
−a
4
4
,
b
6
=
−5a
6
16
, . . . obtenemos la expresi´on
f

(x) = Ψ(h) +b
4
h
4
+b
6
h
6
+. . . (5.3)
Sustituyendo h por h/2
f

(x) = Ψ(h/2) +b
4

h
2

4
+b
6

h
2

6
+. . .
y multiplicando por 2
4
16f

(x) = 16Ψ(h/2) +b
4
h
4
+b
6
h
6
4
+. . . (5.4)
Restando (5.4)-(5.3) nos queda
15f

(x) = 16Ψ(h/2) −Ψ(h) −3b
6
h
6
4
+. . .
y al despejar f

(x)
f

(x) =
16
15
Ψ(h/2) −
1
15
Ψ(h) −b
6
h
6
20
+. . .
da origen a la f´ormula
f

(x) ≈
16
15
Ψ(h/2) −
1
15
Ψ(h) con error =h
6
¸
−b
6
1
20
+. . .

que tambi´en puede expresarse
f

(x) ≈ Ψ(h/2) +
Ψ(h/2) −Ψ(h)
15
con error =h
6
¸
−b
6
1
20
+. . .

El proceso puede continuar de forma similar tomando ahora otra funci´on
Ω(h) =
16
15
Ψ(h/2) −
1
15
Ψ(h). Se puede demostrar el siguiente resultado:
Teorema: El algoritmo de Richarson genera aproximaciones a f

(x) cada
vez de un orden superior.
Diferenciaci´ on e integraci´ on 95
Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular
f

(

2) siendo f(x) = arctan(x) y tomando h = 0.1.
Aplicamos la f´ormula (5.1.2) con h y h/2 para obtener las dos primeras
aproximaciones de orden 2
Φ(0.1) =
arctan(

2 + 0.1) −arctan(

2 −0.1)
2 0.1
= 0.33395069677432
Φ(0.05) =
arctan(

2 + 0.05) −arctan(

2 −0.05)
2 0.05
= 0.33348765942111
A partir de esos dos valores y aplicando la f´ormula (5.1.2) calculamos la apro-
ximaci´on Ψ(h) que es de orden 4
Ψ(0.1) = Φ(0.05) +
Φ(0.05) −Φ(0.1))
3
= 0.33333331363671
Calculando Φ(h/4) (Φ(0.025) = 0.33337191390106) podremos tambi´en calcu-
lar Ψ(h/2)
Ψ(0.05) = Φ(0.025) +
Φ(0.025) −Φ(0.05)
3
= 0.33333333206104
y a partir de estos dos valores obtenemos la aproximaci´on Ω(h)
Ω(0.1) = Ψ(0.05) +
Ψ(0.05) −Ψ(0.1)
15
= 0.33333333328933.

En general, el proceso de extrapolaci´on de Richarson puede resumirse as´ı:
Etapa 0. Calculo distintas aproximaciones R(0, h) en funci´on de un par´ametro
h (en nuestro caso R(0, h) = Φ(h) =
f(x+h)−f(x−h)
2h
).
Etapa 1. A partir de R(0, h) y de R(0, h/2) calculo las aproximaciones
R(1, h) = R(0, h/2) +
R(0, h/2) −R(0, h)
4
1
−1
.
Etapa 2. A partir de R(1, h) y de R(1, h/2) calculo las aproximaciones
R(2, h) = R(1, h/2) +
R(1, h/2) −R(1, h)
4
2
−1
.
96 Cap´ıtulo 5
Etapa n. A partir de R(n −1, h) y de R(n −1, h/2) calculo las aproxima-
ciones
R(n, h) = R(n −1, h/2) +
R(n −1, h/2) −R(n −1, h)
4
n
−1
.
Etapa 0 Etapa 1 Etapa 2 Etapa 3 . . .
R(0, h)
R(0, h/2) R(1, h)
R(0, h/4) R(1, h/2) R(2, h)
R(0, h/8) R(1, h/4) R(2, h/2) R(3, h)
. . . . . . . . . . . . . . .
5.2 Integraci´ on num´erica mediante interpolaci´ on
El objetivo es obtener un valor aproximado de

b
a
f(x)dx sin calcular la pri-
mitiva de f(x). La idea es sustituir

b
a
f(x)dx por

b
a
p(x)dx, siendo p(x) una
funci´on que se parezca a f(x), por ejemplo un polinomio interpolador en unos
nodos x
0
, x
1
, . . . , x
n
del intervalo [a, b]. Si utilizamos el m´etodo de Lagrange
para calcular el polinomio interpolador
p(x) =
n
¸
i=0
f(x
i
)l
x
i
(x) con l
x
i
(x) =
n
¸
j=0
x −x
j
x
i
−x
j
,
tendr´ıamos que

b
a
f(x)dx ≈

b
a
p(x)dx =
n
¸
i=0
f(x
i
)

b
a
l
x
i
(x)
es decir, obtenemos una f´ormula como esta

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
). (5.5)
En el ejemplo anterior A
i
=

b
a
l
x
i
(x)dx. Una expresi´on como (5.5) se denomina
f´ormula de cuadratura y los puntos x
i
son los nodos de cuadratura. Las
f´ormulas as´ı construidas son exactas para los polinomios de grado menor o
igual que n (¿por qu´e?). Si en el ejemplo utilizado los nodos est´an igualmente
espaciados, estaremos hablando del ”m´etodo de Newton-Cˆ otes”.
Diferenciaci´ on e integraci´ on 97
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-3 -2 -1 1 2
-1
-0.5
0.5
1
Figura 5.1: f´ormulas de cuadratura gr´aficamente
5.2.1 Regla del trapecio
El caso particular del m´etodo de Newton-Cˆ otes con n = 1 se conoce co-
mo el m´etodo del trapecio. Puesto que l
x
0
(x) =
b−x
a−x
, l
x
1
(x) =
x−a
b−a
, A
0
=

b
a
l
x
0
(x)dx =
1
2
(b −a) y A
0
=

b
a
l
x
1
(x)dx =
1
2
(b −a), la f´ormula de cuadratu-
ra queda as´ı

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
) =
b −a
2
[f(a) +f(b)]
La expresi´on del error del polinomio de interpolaci´on p(x) para n = 1 es
f(x) −p(x) =
f


x
)
2
(x −a)(x −b), de modo que

b
a
f(x)dx −

b
a
p(x)dx =

b
a
f(x) −p(x)dx =

b
a
f


x
)
2
(x −a)(x −b)dx
Puesto que (x − a)(x − b) no cambia de signo en todo [a, b] y suponiendo
que f

(x)/2 es una funci´on continua en [a, b], aplicando la generalizaci´on del
teorema de valor medio del c´alculo integral
1
obtenemos que el error es
f

(ξ)
2

b
a
(x −a)(x −b)dx =
f

(ξ)
2
(a −b)
3
6
1
Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a, b]. Si
g(x) no cambia de signo en todo x ∈ [a, b] y h(x) es continua en [a, b], entonces existe un
punto ξ ∈ [a, b] tal que:

b
a
h(x)g(x)dx = h(ξ)

b
a
g(x)dx,
.
98 Cap´ıtulo 5
para un cierto valor ξ ∈ (a, b). En resumen, si h = b − a, la Regla del
Trapecio quedar´ıa as´ı:

b
a
f(x)dx ≈
h
2
[f(a) +f(b)] con error=−f

(ξ)
h
3
12
(5.6)
para un cierto ξ ∈ [a, b].
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 1
(regla del trapecio).

0.2
0
e
x
2
dx ≈
0.2 −0
2
[e
0
+e
0.2
] = 0.20408107741924
Sabiendo que si x ∈ [0, 0.2] entonces
[f

(x)[ = [2e
x
2
+4x
2
e
x
2
[ ≤ [f

(0.2)[ = [2e
0.2
2
+40.2e
0.2
2
[ = 2.248151272255559,
una cota del error ser´a
[ −2.248151272255559
0.2
3
12
[ = 0.00149876751484.

5.2.2 Regla de Simpson
La f´ormula de Newton-Cˆ otes para n = 2 o n = 3 se llama Regla de Simpson.
El caso n = 2, h =
b−a
2
y x
i
= x
0
+ih, se conoce como la regla de Simpson
1/3:

b
a
f(x)dx ≈
h
3
[f(x
0
) + 4f(x
1
) +f(x
2
)] con error −f
4)
(ξ)
h
5
90
para un cierto ξ ∈ [a, b]. Por ser una f´ormula de Newton-Cˆ otes con tres puntos
es exacta para polinomios de grado menor o igual que 2; pero adem´as es exacta
para los polinomios de grado menor o igual que 3, ya que el t´ermino del error
contiene el factor f
4)
(ξ).
Diferenciaci´ on e integraci´ on 99
El caso n = 3, h =
b−a
3
y x
i
= x
0
+ ih, se conoce como la regla de
Simpson 3/8:

b
a
f(x)dx ≈
3h
8
[f(x
0
) + 3f(x
1
) + 3f(x
2
) +f(x
3
)] con error −f
4)
(ξ)
3h
5
80
para un cierto ξ ∈ [a, b]. Es mejor usar la regla de Simpson 1/3 que la de
3/8, puesto que ambas son de orden 5 y [ − 1/90[ < [ − 3/80[. En general
es preferible usar una regla con n par (n´ umero impar de puntos) que con n
impar.
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 2
(regla de Simpson 1/3).

0.2
0
e
x
2
dx ≈
0.2/2
3
[e
0
+e
0.1
2
+e
0.2
2
] = 0.2027
Sabiendo que si x ∈ [0, 0.2] entonces
[f
4)
(x)[ = [12e
x
2
+ 48e
x
2
x
2
+ 16e
x
2
x
4
[ ≤ [f
4)
(0.2)
= [12e
0.2
2
+ 48e
0.2
2
0.2
2
+ 16e
0.2
2
0.2
4
[ = 14.5147,
una cota del error ser´a
[ −14.5147
(0.2/2)
5
90
[ = 1.6 ∗ 10
−6

5.2.3 Reglas compuestas
Este m´etodo consiste en dividir el intervalo [a, b] en subintervalos y aplicar
en cada uno de ellos una regla simple. Por ejemplo, la regla del trapecio
compuesta consiste en fijar unos puntos a = x
0
< x
1
< < x
n−1
< x
n
= b y
aplicar la regla del trapecio a cada intervalo [x
i−1
, x
i
]:

b
a
f(x)dx =
n
¸
i=1

x
i
x
i−1
f(x)dx ≈
1
2
n
¸
i=1
(x
i
−x
i−1
) [f(x
i−1
) +f(x
i
)] .
Es equivalente a sustituir f(x) por una funci´on que interpole a f(x) y que
est´e formada por trozos de l´ınea. Si los puntos est´an igualmente espaciados
100 Cap´ıtulo 5
(h = x
i
−x
i−1
=
b−a
n
, x
i
= a +ih con i = 1, 2, . . . , n), la regla del trapecio
compuesta nos queda

b
a
f(x)dx ≈
h
2
[f(x
0
) + 2f(x
1
) + +2f(x
n−1
) +f(x
n
)]
con error −
h
2
12
(b −a)f

(ξ)
para un cierto ξ ∈ [a, b]. La f´ormula es exacta para polinomios de grado
menor o igual que 1.
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
Figura 5.2: Regla del trapecio compuesta con 3 y 4 puntos
Ejemplo: Calcula un valor aproximado de

0.2
0
e
x
2
dx mediante la regla
del trapecio compuesta.
Si tomamos tres puntos x
0
= 0, x
1
= 0.1 y x
2
= 0.2

0.2
0
e
x
2
dx ≈
0.1
2

e
0
+ 2e
0.1
2
+e
0.2
2

= 0.201085
Una cota del error ser´ıa


0.1
2
12
(0.2 −0)(e
x
2
(2 + 4e
x
2
))


0.1
2
12
0.2 f

(0.2)

= 0.00187346

Diferenciaci´ on e integraci´ on 101
Si el n´ umero n de intervalos en los que dividimos [a, b] es par podemos
aplicar de forma sencilla la regla de Simpson compuesta con h =
b−a
n
, x
i
=
a+ih (0 ≤ i ≤ n), aplicando a cada dos subintervalos la regla de Simpson 1/3

b
a
f(x)dx =

x
2
x
0
f(x)dx +

x
4
x
2
f(x)dx + +

x
n
x
n−2
f(x)dx
con lo que obtenemos la f´ormula

b
a
f(x) ≈
h
3
[f(x
0
) + 4f(x
1
) + 2f(x
2
) + 4f(x
3
) + 2f(x
4
) +. . .
+ 4f(x
n−1
) +f(x
n
)]
o lo que es lo mismo

b
a
f(x)dx ≈ f(x
0
) +
n
2
¸
i=1
[2f(x
2i
)+4f(x
2i−1
)] +f(x
n
)
con error −
b −a
180
h
4
f
4)
(ξ)
con ξ ∈ [a, b].
5.2.4 M´etodo de los coeficientes indeterminados
Las reglas de Newton-Cˆ otes con n +1 puntos son exactas para los polinomios
de grado n, es decir, si en la f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
)
tomamos los coeficientes A
i
=

b
a
l
x
i
(x)dx, el resultado que obtenemos al calcu-
lar con esa regla la integral de un polinomio de grado n es el valor exacto. El
objetivo de esta secci´on es, dados un conjunto de n + 1 puntos x
0
, x
1
, . . . ,
x
n
, encontrar el valor de los coeficientes A
0
, A
1
, . . . , A
n
que aseguren que la
f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
) es exacta para los polino-
mios de grado n. En cada caso, el problema se puede resolver de forma similar
al siguiente ejemplo.
102 Cap´ıtulo 5
Ejemplo: Encuentra los valores A
0
, A
1
y A
2
para que la f´ormula

1
0
f(x)dx ≈ A
0
f(0) +A
1
f(
1
2
) +A
2
f(1)
sea exacta para los polinomios de grado menor o igual que 2. En particular
la f´ormula tendr´a que ser exacta para los polinomios 1, x y x
2
que forma una
base del conjunto de los polinomios de grado menor o igual que 2:
1 =

1
0
1dx = A
0
+ 1A
1
+A
2
1
2
=

1
0
xdx = 0A
0
+
1
2
A
1
+A
2
1
3
=

1
0
x
2
dx = 0A
0
+
1
4
A
1
+A
2
y obtenemos que A
0
=
1
6
, A
1
=
2
3
y A
2
=
1
6
. Adem´as, si P(x) = a + bx + cx
2
es cualquier otro polinomio de grado menor o igual que 2, la f´ormula ser´ıa
tambi´en exacta porque

1
0
P(x)dx = a

1
0
1dx +b

1
0
xdx +c

1
0
x
2
dx =
= a(A
0
+ 1A
1
+A
2
) +b(
1
2
A
1
+A
2
) +c(
1
4
A
1
+A
2
) =
= A
0
(a) +A
1
(a +
1
2
b + (
1
2
)
2
c) +A
2
(a + 1b + 1
2
c) =
= A
0
P(0) +A
1
P(
1
2
) +A
2
P(1)
que ser´ıa el resultado obtenido al aplicar la f´ormula de cuadratura con los
coeficientes calculados. Adem´as, es la misma f´ormula que se obtendr´ıa con el
m´etodo de Simpson.

5.3 Cuadratura gaussiana
Supongamos que queremos obtener una f´ormula de cuadratura

1
−1
f(x)dx = A
1
f(t
1
) +A
2
f(t
2
)
pero no fijamos previamente los valores de t
1
, t
2
, A
1
y A
2
. Para calcular estos
valores y puesto que tenemos 4 inc´ognitas, le imponemos 4 condiciones: que
Diferenciaci´ on e integraci´ on 103
la f´ormula sea exacta para los polinomios de grado menor o igual que 3, es
decir, para 1, x, x
2
y x
3
:

1
−1
x
3
dx = 0 = A
1
t
3
1
+A
2
t
3
2

1
−1
x
2
dx =
2
3
= A
1
t
2
1
+A
2
t
2
2

1
−1
xdx = 0 = A
1
t
1
+A
2
t
2

1
−1
1dx = 2 = A
1
+A
2
Restando a la ecuaci´on primera la tercera multiplicada por t
2
1
obtenemos
0 = A
2
(t
3
2
−t
2
1
t
2
) = A
2
t
2
(t
2
−t
1
)(t
2
+t
1
)
con lo que se obtiene alguno de los siguientes valores: A
2
= 0, t
2
= 0, t
2
= t
1
,
t
2
= −t
1
. Sustituyendo en el resto de las ecuaciones podemos comprobar que
solo es aceptable t
2
= −t
1
y que en ese caso los par´ametros son A
1
= A
2
= 1
y t
2
= −t
1
=

1
3
. Por tanto la f´ormula

1
−1
f(x)dx = f(−

1
3
) +f(

1
3
)
es exacta para integrar cualquier polinomio de grado menor o igual que 3 en
el intervalo [−1, 1]. Para integrarlos en [a, b] se utiliza una transformaci´on af´ın
que lleve un intervalo en el otro.
Los nodos t
i
(i = 1, 2, . . . , n) en la cuadratura gaussiana coinciden con las
ra´ıces del polinomio de Legendre de grado n. Los polinomios de Legendre se
construyen as´ı:
L
0
(x) = 1 L
1
(x) = x L
n+1
=
(2n + 1)xL
n
(x) −nL
n−1
(x)
n + 1
.
Ejemplo: Calcula un valor aproximado de

π
2
0
sen(x)dx mediante cuadra-
tura gaussiana de dos t´erminos.
Como el intervalo de integraci´on es [0,
π
2
], hemos de hacer un cambio de
variable af´ın que lleve [−1, 1] en [0,
π
2
]. Dicho cambio es x =
π
4
t +
π
4
con lo
que dx =
π
4
dt. Ya hemos deducido cuales son los nodos t
i
y los coeficientes A
i
(i = 1, 2). Si no supi´eramos cuales son, podr´ıamos averiguar primero los nodos
104 Cap´ıtulo 5
calculando las ra´ıces del polinomio de Legendre de grado 2 (L
2
=
3x
2
−x
2
). Pos-
teriormente calcular´ıamos los coeficientes A
i
planteando un sistema de ecua-
ciones. En todo caso se obtendr´ıa
π
2
0
sen(x)dx =

1
−1
sen

π
4
t +
π
4

π
4
dt =
=
π
4
¸
sen

π
4
(−

1
3
) +
π
4

+ sen

π
4
(

1
3
) +
π
4
¸
≈ 0.99847.

5.4 Integraci´ on de Romberg
Para aplicar el m´etodo de integraci´on de Romberg construimos una tabla como
esta
R(0, 0)
R(1, 0) R(1, 1)
R(2, 0) R(2, 1) R(2,2)
R(3, 0) R(3, 1) R(3,2) R(3,3)
. . .
R(M, 0) R(M, 1) R(M, 2) R(M, 3) . . . R(M, M)
donde, si queremos aproximar

b
a
f(x)dx
R(0, 0) =
1
2
(b −a) [f(a) +f(b)]
(Regla del trapecio para 2
0
intervalos)
R(n, 0) =
1
2
R(n −1, 0) +
b −a
2
n
2
n−1
¸
i=1
f(a + (2i −1)
b −a
2
n
)
(Regla del trapecio para 2
n
intervalos)
R(n, m) = R(n, m−1) +
1
4
m
−1
[R(n, m−1) −R(n −1, m−1)]
(Extrapolaci´on de Richarson)
(5.7)
La ´ ultima f´ormula se obtiene aplicando la extrapolaci´on de Richarson que
es un proceso que ya hemos utilizado en otra ocasi´on. El factor
1
4
m
−1
depende
Diferenciaci´ on e integraci´ on 105
del orden de convergencia del m´etodo empleado, en este caso la regla del
trapecio.
Cada valor R(i, j) se considera una aproximaci´on a

b
a
f(x)dx. A partir
de la aproximaci´on R(n, m − 1) que se considera que mejora a la anterior
R(n −1, m−1), se construye otra mejor aproximaci´on R(n, m):
R(n, m) = (+exacta) +
1
4
m
−1
[(+exacta) −(-exacta)] .
Teorema: Si f(x) es una funci´on continua en [a, b] entonces la sucesi´on que
se obtiene en cada columna del m´etodo de Romberg converge a

b
a
f(x)dx.
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
e
x
2
dx.
R(0, 0) es la regla del trapecio con 2
0
= 1 intervalo:
R(0, 0) =
2 −0
2
(e
0
+e
2
2
) ≈ 55.5981
R(1, 0) es la regla del trapecio compuesta con 2
1
intervalos:
R(1, 0) =
1
2

e
0
+ 2e
1
+e
2

= 30.5174
R(2, 0) es la regla del trapecio compuesta con 2
2
intervalos:
R(2, 0) =
2/4
2

e
0
+ 2e
0.5
+ 2e
1
+ 2e
1.5
+e
2

= 20.6446
y de modo similar los t´erminos R(n, 0) de la primera columna. El resto de
t´erminos se calculan seg´ un la f´ormula 5.7 La mejor aproximaci´on obtenida
ser´ıa

2
0
e
x
2
dx ≈ 16.4529.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 55.5981
n = 1 30.5174 22.1572
n = 2 20.6446 17.3537 17.0334
n = 3 17.5651 16.5386 16.4843 16.4756
n = 4 16.7354 16.4588 16.4535 16.4530 16.4529

106 Cap´ıtulo 5
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
x
2
dx.
Obtenemos la tabla siguiente en donde a mejor aproximaci´on obtenida
ser´ıa

2
0
x
2
dx ≈ 2.6667.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 4
n = 1 3 2.6667
n = 2 2.75 2.6667 2.6667
n = 3 2.6875 2.6667 2.6667 2.6667
n = 4 2.6719 2.6667 2.6667 2.6667 2.6667

Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

0.5
0.2
e
−x
2
dx.
Obtenemos la tabla siguiente
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 0.69302
n = 1 0.66211 0.65181
n = 2 0.65947 0.65859 0.65904
n = 3 0.65898 0.65882 0.65883 0.65883
n = 4 0.65886 0.65882 0.65882 0.65882 0.65882
La mejor aproximaci´on obtenida ser´ıa

0.5
0.2
e
−x
2
dx ≈ 0.65882.

Diferenciaci´ on e integraci´ on 107
5.5 Cuadratura adaptativa
A grandes rasgos, el m´etodo consiste en calcular un valor aproximado de una
integral

b
a
f(x)dx dividiendo el intervalo [a, b] en intervalos disjuntos [x
i
, x
i+1
]
con las siguientes condiciones:
• Se fija un par´ametro llamado tolerancia T.
• Se obtienen dos estimaciones de

x
i+1
x
i
f(x)dx mediante una f´ormula de
cuadratura.
• Se fija la tolerancia en el intervalo [x
i
, x
i+1
]:
T
[
x
i
, x
i+1
] =
T
(b −a)
(x
i+1
−x
i
).
• Si la diferencia entre las dos estimaciones de

x
i+1
x
i
f(x)dx es menor que
T
[x
i
,x
i+1
]
se estima definitivamente

x
i+1
x
i
f(x)dx por extrapolaci´on. En
caso contrario se divide el intervalo en dos subintervalos disjuntos.
• Se estima

b
a
f(x)dx:

b
a
f(x)dx =
n
¸
i=0

x
i+1
x
i
f(x)dx
Ejemplo: Fijado un valor de tolerancia T = 0.02, calcula

1
0.2
1
x
2
dx usando
la regla de Simpson.
Paso 1. Aplicamos la regla de Simpson para calcular la integral:
h
1
=
1 −0.2
2
= 0.4 ⇒S
1
[0.2, 1] = 4.94814815.
Paso 2. Aplicamos la regla de Simpson compuesta en dos subintervalos
de [0.2, 1], en concreto en [0.2, 0.6] y en [0.6, 1]:
h
2
=
0.6 −0.2
2
= 0.2 ⇒ S
2
[0.2, 0.6] = 3.51851852.
h
2
=
1 −0.6
2
= 0.2 ⇒ S
2
[0.6, 1] = 0.66851852.
108 Cap´ıtulo 5
Paso 3. Hasta ahora tenemos dos aproximaciones a

1
0.2
1
x
2
dx, a saber:
S
1
[0.2, 1] y S
2
[0.2, 0.6] + S
2
[0.6, 1]. Calculo la diferencia entre ambas estima-
ciones:
S
1
[0.2, 1] −(S
2
[0.2, 0.6] +S
2
[0.6, 1]) = 0.7611111 > T = 0.02.
Si la diferencia hubiera sido menor que T, el proceso finalizar´ıa efectuando
una extrapolaci´on del tipo:
(+exacta) +
1
15
[(+exacta) −(-exacta)]
entendiendo que la primera estimaci´on es menos exacta que la segunda. Puesto
que la diferencia es mayor que T, el proceso contin´ ua fijando la tolerancia de
forma proporcional al tama˜ no de cada subintervalo y de modo que sume la
tolerancia total T = 0.02. Con estas condiciones la tolerancia ser´a 0.01 en
[0.2, 0.6] y 0.01 en [0.6, 1].
Paso 4. Estudiamos el intervalo [0.6, 1]. Tenemos la estimaci´on S
2
[0.6, 1]
de

1
0.6
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.6, 0.8] (S
3
[0.6, 0.8] = 0.41678477) y en
[0.8, 1] (S
3
[0.6, 1] = 0.25002572). Comparamos ambas estimaciones:
S
2
[0.6, 1]−(S
3
[0.6, 0.8] +S
3
[0.8, 1]) = 0.66851852−0.66681049 = 0.001708 < T
[0.6,1]
= 0.01
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

1
0.6
1
x
2
dx :

1
0.6
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)]
0.66681049 +
1
15
(0.66681049 −0.66851852) = 0.66669662
Paso 5. Actuamos ahora sobre el intervalo [0.2, 0.6] donde la toleran-
cia tambi´en es 0.01. Contamos con una estimaci´on S
2
[0.2, 0.6] de la integral
en el intervalo y aplicamos la regla de Simpson en [0.2, 0.4] (S
3
[0.2, 0.4] =
2.52314815)y en [0.4, 0.6] (S
3
[0.4, 0.6] = 0.83435926) para obtener una nueva
(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]). Comparamos ambas estimaciones:
S
2
[0.2, 0.6] −(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]) = 0.161111 > T
[0.2,0.6]
= 0.01.
Diferenciaci´ on e integraci´ on 109
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y
dividimos el intervalo [0.2, 0.6] en los intervalos [0.2, 0.4] y [0.4, 0.6]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo
[0.2,0.6] (T
[0.2,0.6]
= 0.01). Con estas condiciones T
[0.2,0.4]
= 0.005 y T
[0.4,0.6]
=
0.005.
Paso 6. Estudiamos el intervalo [0.4, 0.6]. Tenemos la estimaci´on S
3
[0.4, 0.6]
de

0.6
0.4
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.5, 0.6] (S
4
[0.4, 0.5] = 0.50005144) y en
[0.5, 0.6] (S
4
[0.5, 0.6] = 0.33334864). Comparamos ambas estimaciones:
S
3
[0.4, 0.6] −(S
4
[0.4, 0.5] +S
4
[0.5, 0.6]) = 0.000859 < T
[0.4,0.6]
= 0.005
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.6
0.4
1
x
2
dx :

0.6
0.4
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.8333428.
Paso 7. Estudiamos el intervalo [0.2, 0.4]. Tenemos la estimaci´on S
3
[0.2, 0.4]
de

0.4
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.3] y [0.3, 0.4]. Comparamos ambas
estimaciones:
S
3
[0.2, 0.4] −(S
4
[0.2, 0.3] +S
4
[0.3, 0.4]) > T
[0.2,0.4]
= 0.005.
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y di-
vidimos el intervalo [0.2, 0.4] en los intervalos [0.2, 0.3] y [0.3, 0.4]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el inter-
valo [0.2,0.4] (T
[0.2,0.4]
= 0.005). Con estas condiciones T
[0.2,0.3]
= 0.0025 y
T
[0.3,0.4]
= 0.0025.
Paso 8. Estudiamos el intervalo [0.3, 0.4]. Tenemos la estimaci´on S
4
[0.3, 0.4]
de

0.4
0.3
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.3, 0.35] y [0.35, 0.4]. Comparamos ambas
estimaciones:
S
4
[0.3, 0.4] −(S
5
[0.3, 0.35] +S
5
[0.35, 0.4]) = 0.0002220 < T
[0.3,0.4]
= 0.0025.
110 Cap´ıtulo 5
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.4
0.3
1
x
2
dx :

0.4
0.3
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.83333492.
Paso 9. Estudiamos el intervalo [0.2, 0.3]. Tenemos la estimaci´on S
4
[0.2, 0.3]
de

0.3
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.25] y [0.25, 0.3]. Comparamos ambas
estimaciones:
S
4
[0.2, 0.3] −(S
5
[0.2, 0.25] +S
5
[0.25, 0.3]) < T
[0.2,0.3]
= 0.0025.
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.3
0.2
1
x
2
dx :

0.3
0.2
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 1.666686.
Por lo tanto, la estimaci´on mediante este m´etodo de

1
0.2
1
x
2
dx ser´ıa:

1
0.2
1
x
2
dx =

0.3
0.2
1
x
2
dx +

0.4
0.3
1
x
2
dx +

0.6
0.4
1
x
2
dx +

1
0.6
1
x
2
dx
= 1.666686 + 0.83333492 + 0.8333428 + 0.66669662 = 4.00005957.

T
a
b
l
a
d
i
f
e
r
e
n
c
i
a
c
i
´o
n
e
i
n
t
e
g
r
a
c
i
´o
n
n
u
m
´e
r
i
c
a
D
e
r
i
v
a
c
i
´o
n
f

(
x
)
=
f
(
x
+
h
)

f
(
x
)
h

h 2
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h

h
2
6
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

2
f
(
x
)
+
f
(
x

h
)
h
2

h
2
1
2
f
4
)
(
ξ
)
f

(
x
k
)
=

n i
=
0
f
(
x
i
)
L
i
(
x
k
)
1
(
n
+
1
)
!
f
n
+
1
)
(
ξ
x
k
)
Π
n j
=
0
,
j
=
k
(
x
k

x
j
)
R
(
0
,
h
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h
R
(
n
,
h
)
=
R
(
n

1
,
h
/
2
)
+
1
4
n

1
[
R
(
n

1
,
h
/
2
)

R
(
n

1
,
h
)
]
I
n
t
e
g
r
a
c
i
´o
n

n i
=
0
(

b
a
l
i
(
x
)
d
x
)
f
(
x
i
)
h 2
[
f
(
x
0
)
+
f
(
x
1
)
]

1
1
2
h
3
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
f
(
x
2
)
]

1
9
0
h
5
f
4
)
(
ξ
)
3
h
8
[
f
(
x
0
)
+
3
f
(
x
1
)
+
3
f
(
x
2
)
+
f
(
x
3
)
]

3
8
0
h
5
f
4
)
(
ξ
)
h 2
[
f
(
x
0
)
+
2
f
(
x
1
)
+
2
f
(
x
2
)
+
·
·
·
+
2
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
2
h
2
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
2
f
(
x
2
)
+
4
f
(
x
3
)
+
·
·
·
+
4
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
8
0
h
4
f
4
)
(
ξ
)
f
(

1 3
)
+
f
(

1 3
)
R
(
n
,
m
)
=
R
(
n
,
m

1
)
+
1
4
m

1
[
R
(
n
,
m

1
)

R
(
n

1
,
m

1
)
]
S
i
+
1
[
a
,
b
]
+
1
1
5

S
i
+
1
[
a
,
b
]

S
i
[
a
,
b
]

1
Cap´ıtulo 6
Resoluci´ on num´erica de
ecuaciones diferenciales
6.1 Existencia y unicidad de soluciones
Una ecuaci´on diferencial ordinaria (EDO) es una expresi´on de la forma
F(x, y(x), y

(x), y

(x), . . . ) = 0,
es decir, una ecuaci´on que contiene una variable independiente x, otra depen-
diente de la primera y(x) y derivadas de distinto orden de la segunda respecto
de la primera (y

(x), y

(x), . . . ).
El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´on.
El grado de una EDO es el mayor exponente de la derivada de mayor orden
que aparece en la ecuaci´on.
Ejemplo:
ecuaci´on orden grado
y

= y tan(x + 3) 1 1
(y

)
2
= y tan(x + 3) 1 2
y

= y tan(x + 3) 2 1

La soluci´on general de una EDO es una familia de funciones que verifican
la EDO. En general, la soluci´on general de una EDO de orden k es una familia
de funciones que depende de una par´ametro k.
113
114 Cap´ıtulo 6
Ejemplo: La soluci´on general de y

= sen(x) es y = −cos(x) + k con
k ∈ R. La soluci´on general de y

= −y es y = a sen(x) +b cos(x), con a ∈ R y
b ∈ R.

Una soluci´on particular de una EDO es un elemento particular de la solu-
ci´on general. Una soluci´on singular es una funci´on que verifica la EDO pero
que no est´a recogida en la soluci´on general.
Ejemplo: La ecuaci´on y

= y
1/3
tiene como soluci´on general y = (
2
3
x)
3
2
+C
con C ∈ R. Una soluci´on particular es y = (
2
3
x)
3
2
+ 4 y una soluci´on singular
es y = 0.

Si una EDO de primer orden F(x, y(x), y

(x)) = 0 se puede expresar de la
forma y

= f(x, y(x)) entonces
Teorema: Si f(x, y) y
∂f(x,y)
∂y
son continuas en un rect´angulo D del plano
R
2
y (x
0
, y
0
) ∈ D, entonces existe una ´ unica soluci´on de la ecuaci´on y

=
f(x, y) tal que y(x
0
) = y
0
.
Ejemplo: Encuentra d´onde tiene soluci´on ´ unica la ecuaci´on y

=
−y
x
.
Sea f(x, y) =
−y
x
. La gr´afica de dicha funci´on aparece en la figura 6.1.
f(x, y) es continua en R
2
− ¦x = 0¦.
∂f(x,y)
∂y
=
−1
x
es continua tambi´en en
R
2
−¦x = 0¦.
Por el teorema anterior, si existe un rect´angulo D ⊂ R
2
− ¦x = 0¦ y
(x
0
, y
0
) ∈ D, entonces el problema y

= f(x, y) tal que y(x
0
) = y
0
tiene
soluci´on ´ unica. Por ejemplo, el problema y

=
−y
x
con y(2) = 1, tiene soluci´on
´ unica porque (2, 1) est´an dentro de un rect´angulo que a su vez est´an contenido
en R
2
−¦x = 0¦. Dicha soluci´on es y =
2
x
. Sin embargo, si la condici´on inicial
es y(0) = 2 el problema no tiene soluci´on.

En general, la b´ usqueda de soluciones exactas de una ecuaci´on diferencial
es un problema dif´ıcil. Por ello se usan m´etodos num´ericos para encontrar
soluciones aproximadas. El planteamiento t´ıpico de una ecuaci´on diferencial
ordinaria de grado 1 con valor inicial es
Ecuaciones diferenciales 115
-10
-5
0
5
10
-10
-5
0
5
10
-5
-2.5
0
2.5
5
-10
-5
0
5
10
Figura 6.1: La funci´on f(x, y) =
y
x
y

= f(x, y(x)) y(x
0
) = y
0
(6.1)
Por ejemplo
y

= −2x −y y(0) = −1.
La soluci´on num´erica de una EDO ser´a una tabla de valores aproximados
de la funci´on y(x) en un conjunto de puntos x
i
. Usando esa tabla podemos
construir una aproximaci´on de la funci´on mediante, por ejemplo, los m´etodos
de interpolaci´on. En lo que sigue, trabajaremos con puntos x
i
igualmente
espaciados, es decir, separados cada uno del siguiente por un tama˜ no de paso
h, con lo que x
i
= x
0
+ ih. y(x
i
) denotar´a el valor exacto de la funci´on y(x)
en el punto x
i
; y
i
ser´a un valor aproximado de y(x
i
).
6.2 M´etodo de la serie de Taylor
Para resolver el problema (6.1), el m´etodo de Taylor de orden k propone
sustituir la funci´on desconocida y(x) por su polinomio de Taylor de orden k
116 Cap´ıtulo 6
en un entorno de cada punto x
i
, es decir
y(x
i+1
) = y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +y

(x
i
)
h
2
2
+ +y
k)
(x
i
) +
h
k
k!
Los valores de la funci´on y(x) y de sus derivadas en x
i
son desconocidos en
general, por lo que hay que sustituirlos por aproximaciones:
y(x
i
) ≈ y
i
y

(x
i
) ≈ f(x
i
, y
i
)
y

(x
i
) ≈
d f(x
i
, y
i
)
d x
. . .
y
k)
(x
i
) ≈
d
k-1
f(x
i
, y
i
)
d x
k−1
De este modo obtenemos la expresi´on del m´etodo:
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
A la hora de derivar f(x, y) respecto de x hay que tener en cuenta que es una
funci´on de dos variables y que y es funci´on de x. De modo que, denotando
f
x
y f
y
a las derivadas parciales de f(x, y) respecto x e y, tendr´ıamos, por
ejemplo que
d f(x, y)
d x
= f
x
(x, y) +f
y
(x, y)y

(x, y) = f
x
(x, y) +f
y
(x, y)f(x, y).
Elegido, el tama˜ no del paso h, el m´etodo de Taylor paso a paso ser´ıa el
siguiente:
Paso 1. Partimos del punto x
0
, obtenemos una aproximaci´on de y(x
1
)
y
1
= y
0
+f(x
0
, y
0
)h +
d f(x
0
, y
0
)
d x
h
2
2
+ +
d
k-1
f(x
0
, y
0
)
d x
k−1
h
k
k!
Paso 2. Partimos de x
1
= x
0
+h y calculamos una aproximaci´on y(x
2
):
y
2
= y
1
+f(x
1
, y
1
)h +
d f(x
1
, y
1
)
d x
h
2
2
+ +
d
k-1
f(x
1
, y
1
)
d x
k−1
h
k
k!
Ecuaciones diferenciales 117
Paso i+1. Partimos de x
i
= x
i−1
+h y calculamos una aproximaci´on de
y(x
i+1
):
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
Ejemplo: Proporciona tres valores aproximados de la funci´on y(x), solu-
ci´on de y

= −2x −y con y(0) = −1 mediante el m´etodo de Taylor con k = 4
y tama˜ no de paso h = 0.1.
Calculamos el desarrollo de Taylor hasta grado 4 de la funci´on y(x) en un
punto cualquiera x
i
:
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2
h
2
+
y

(x
i
)
3!
h
3
+
y
4)
(x
i
)
4!
h
4
Denotando y
i
al valor aproximado de y(x
i
) y dado que
y

(x) = f(x, y)
y

(x) = [y

(x)]

= [−2x −y(x)]

= −2 −y

(x) = −2 −f(x, y)
y

(x) = [y

(x)]

= −y

(x) = 2 +y

(x) = 2 +f(x, y)
y
4)
(x) = [y

(x)]

= [−y

(x)]

= −y

(x) = −2 −y

(x) = −2 −f(x, y)
definimos el m´etodo
y
i+1
= y
i
+f(x
i
, y
i
)h +
−2 −f(x
i
, y
i
)
2
h
2
+
2 +f(x
i
, y
i
)
3!
h
3
+
−2 −f(x
i
, y
i
)
4!
h
4
Paso 1. Como y
0
= −1 y f(x
0
, y
0
) = f(0, −1) = 1, obtenemos el valor
aproximado
y
1
= −1 + 0.1 −1.5 0.1
2
+ 0.5 0.1
3
−0.125 0.1
4
= −0.9645125.
Paso 2. Como y
1
= −0.9145125 y f(x
1
, y
1
) = f(0.1, −0.9145125) = 0.7145125,
obtenemos el valor aproximado
y
2
= −0.8561927.
Paso 3. Como y
2
= −0.8561927 y f(x
2
, y
2
) = f(0.2, −0.8561927) = 0.4561927,
obtenemos el valor aproximado
y
3
= −0.8224553

118 Cap´ıtulo 6
6.2.1 M´etodo de Euler
Es el m´etodo anterior usando el polinomio de Taylor de orden 1
y
i+1
= y
i
+f(x
i
, y
i
)h
Ejemplo. Resuelve la ecuaci´on y

= −2x − y con y(0) = −1 mediante el
m´etodo de Euler.
Con estos datos se tiene que x
0
= 0, y
0
= −1, f(x
0
, y
0
) = 1 con lo que
y
1
= y
0
+f(x
0
, y
0
)h = −1 + 1 0.1 = −0.9
Puesto que f(x
1
, y
1
) = 0.7, se deduce que
y
2
= y
1
+f(x
1
, y
1
)h = −0.9 + 0.7 0.1 = −0.83
Puesto que f(x
2
, y
2
) = 0.43, se deduce que
y
3
= y
2
+f(x
2
, y
2
)h = −0.83 + 0.43 0.1 = −0.787
Puesto que f(x
3
, y
3
) = 0.187, se deduce que
y
4
= y
3
+f(x
3
, y
3
)h = −0.787 + 0.187 0.1 = −0.7683

6.2.2 Errores
Al resolver num´ericamente una ecuaci´on diferencial aparecen varios tipos de
errores:
1. error de truncamiento local
2. error de truncamiento global
3. error de redondeo local
4. error de redondeo global
5. error total
Ecuaciones diferenciales 119
El error de truncamiento local es el que aparece en un paso cuando reem-
plazamos un proceso infinito por uno finito. Por ejemplo, en el m´etodo de
Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de
infinitos t´erminos) por los primeros k-t´erminos. En este caso, para un cierto
c
i
∈ R, se tiene que
y(x
i
+h) = y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
+
y
k+1)
(c
i
)
(k + 1)!
h
k+1
y dado que en el algoritmo usamos la aproximaci´on
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
se deduce que el error local en el paso i-´esimo es proporcional a h
k+1
, digamos
C
i
h
k+1
. Un error de esa magnitud se dice que es O(h
k+1
).
La acumulaci´on de todos los errores de truncamiento local genera el error
de truncamiento global. Si al aplicar un m´etodo el error de truncamiento
local es O(h
k+1
), el tama˜ no de paso es h, el punto inicial es x
0
y el punto final
es x
n
, entonces el n´ umero de pasos ser´a n =
x
n
−x
0
h
y puesto que
C
1
h
k+1
+C
2
h
k+1
+ +C
n
h
k+1
= h
k+1
(C
1
+C
2
+ +C
n
) ≤
≤ h
k+1
nmax¦C
1
, C
2
, . . . , C
n
¦ = Ch
k
siendo C = (x
n
−x
0
) max¦C
1
+C
2
+ +C
n
¦, el error de truncamiento global
ser´a O(h
k
). Si un m´etodo tiene error de truncamiento global O(h
k
) decimos
que el procedimiento num´erico es de orden k. El m´etodo de Taylor usando
el desarrollo hasta grado k es un m´etodo de orden k.
El error de redondeo local es el que en cada paso es provocado por la
limitada precisi´on de nuestras m´aquinas de c´omputo, como ya se coment´o el
tema inicial del curso. El error de redondeo global es la acumulaci´on de los
errores de redondeo local en los pasos anteriores. El error total es la suma
de los errores de truncamiento global y redondeo global.
6.3 M´etodos de Runge-Kutta
Los m´etodos de Taylor tienen el inconveniente de la dificultad de c´alculo de
las sucesivas derivadas de la funci´on y(x). En los m´etodos de Runge-Kutta se
120 Cap´ıtulo 6
elimina esa dificultad. Las ideas que dan origen a este conjunto de m´etodos
se resumen en los siguientes pasos:
Paso 1. Consideramos la igualdad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
y despejamos y(x
i+1
)
y(x
i+1
) = y(x
i
) +

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
Paso 2. Realizamos el cambio de variable x = x
i
+ θh en la integral
anterior y obtenemos
y(x
i+1
) = y(x
i
) +h

1
0
f(x
i
+θh, y(x
i
+θh))dθ. (6.2)
Paso 3. Consideramos el conjunto de puntos 0 = θ
0
≤ θ
1
≤ . . . θ
m
≤ 1 del
intervalo de integraci´on [0, 1] y estimamos la integral anterior mediante una
f´ormula de cuadratura del siguiente tipo

1
0
F(θ)dθ ≈ A
0
F(θ
0
) +A
1
F(θ
1
) + +A
m
F(θ
m
)
con lo que, denotando x

j
= x
i

j
h, en la ecuaci´on (6.2) obtenemos
y(x
i+1
) ≈ y(x
i
) + h

A
0
f

x

0
, y(x

0
)

+
A
1
f

x

1
, y(x

1
)

+ + A
m
f

x

m
, y(x

m
)

. (6.3)
La f´ormula de cuadratura elegida puede variar, pero se le ha de exigir que
al menos sea exacta para las funciones constantes, lo que se traduce en que
los coeficientes han de cumplir la condici´on
A
0
+A
1
+ +A
m
= 1
El m´etodo de Runge-Kutta ser´a la f´ormula que resulta de sustituir en la ecua-
ci´on (6.3) los valores y(x
i
), y(x

0
), y(x

1
), . . . , y(x

m
) por sus valores aproxi-
mados. Si bien dispondremos en cada paso del valor y
i
que aproxima a y(x
i
),
no ocurre lo mismo con las aproximaciones de y(x

0
), y(x

1
), . . . , y(x

m
).
Ecuaciones diferenciales 121
Paso 4. En esta etapa conseguiremos obtener un algoritmo para las apro-
ximaciones aludidas en el apartado anterior. De forma similar a como se
obtuvo la ecuaci´on (6.2), llegamos a la igualdad
y(x

j
) = y(x
i
) +h

θ
j
x
i
f(x
i
+θh, y(x
i
+θh))dθ
y aplicando una f´ormula de cuadratura para cada j

θ
j
x
i
F(θ)dθ ≈ B
j
0
F(θ
0
) +B
j
1
F(θ
1
) + +B
j
j−1
F(θ
j−1
) (6.4)
a la integral anterior, se obtienen las aproximaciones buscadas
y(x

j
) ≈ y(x
i
) +h
j−1
¸
k=0
B
j
k
f(x

k
, y(x

k
)).
Las f´ormulas de cuadraturas usadas en (6.4) han de ser exactas al menos para
las funciones constantes, por lo tanto los coeficientes deben verificar
B
j
0
+B
j
1
+ +B
j
j−1
= θ
j
j = 1, . . . , m.
Paso 5. Si denotamos y

j
a una estimaci´on de y(x

j
), un m´etodo de Runge-
Kutta quedar´ıan as´ı:
y
i+1
= y
i
+h[A
0
f(x

0
, y

0
) +A
1
f(x

1
, y

1
) + +A
m
f(x

m
, y

m
)

(6.5)
siendo
y

0
= y
i
y

1
= y
i
+h

B
1
0
f(x

0
, y

0
)

y

2
= y
i
+h

B
2
0
f(x

0
, y

0
) +B
2
1
f(x

1
, y

1
)

. . .
y

m
= y
i
+h

B
m
0
f(x

0
, y

0
) +B
m
1
f(x

1
, y

1
) +. . .
+B
m
m−1
f(x

m−1
, y

m−1
)

Previamente deben fijarse los valores
0 = θ
0
≤ θ
1
≤ θ
2
≤ . . . θ
m
≤ 1
122 Cap´ıtulo 6
as´ı como los siguientes par´ametros que han de cumplir con las condiciones de
las sumas correspondientes que aparecen en el cuadro
A
0
A
1
A
2
. . . A
m
¸
m
r=0
A
r
= 1
B
1
0
B
2
0
B
m
0
B
2
1
. . . B
m
1
. . .
B
m
m−1
B
1
0
= θ
1
B
2
0
+B
2
1
= θ
2
. . .
¸
m−1
k=0
B
m
k
= θ
m
Un m´etodo como el anterior se conoce con el nombre de m´etodo de Runge-
Kutta de m+1 etapas, debido a que la f´ormula (6.5) requiere m+1 evaluaciones
de la funci´on f(x, y).
Ejemplo: Para m = 0 (una etapa), el m´etodo de Runge-Kutta que resulta
es el m´etodo de Euler.
Para m = 1 (dos etapas), podemos obtener, entre otras posibilidades, el
m´etodo de Heun:
θ
0
= 0, θ
1
= 1
A
0
= 1/2 A
1
= 1/2 A
0
+A
1
= 1
B
1
0
= 1
B
1
0
= θ
1
= 1
y
i+1
= y
i
+h[
1
2
f(x
i0
, y
i0
) +
1
2
f(x
i1
, y
i1
)

siendo
y
i0
= y
i
y
i1
= y
i
+hf(x
i
, y
i
)
con lo que
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

(6.6)
El llamado m´etodo de Euler modificado sale con la elecci´on
θ
0
= 0, θ
1
= 1/2
Ecuaciones diferenciales 123
A
0
= 0 A
1
= 1 A
0
+A
1
= 1
B
1
0
= 1/2
B
1
0
= θ
1
= 1/2
y
i+1
= y
i
+h[f(x
iθ1
, y
iθ1
)]
siendo
y
i0
= y
i
y
i1/2
= y
i
+h
1
2
f(x
i
, y
i
)
con lo que el m´etodo queda
y
i+1
= y
i
+hf

x
i
+
h
2
, y
i
+
h
2
f(x
i
, y
i
)

(6.7)
Otra elecci´on posible es
θ
0
= 0, θ
1
= 2/3
A
0
= 1/4 A
1
= 3/4 A
0
+A
1
= 1
B
1
0
= 2/3
B
1
0
= θ
1
= 2/3
y
i+1
= y
i
+h[
1
4
f(x

0
, y

0
) +
3
4
f(x

1
, y

1
)

siendo
y

0
= y
i
y

1
= y
i
+h

2
3
f(x

0
, y

0
)

con lo que el m´etodo queda as´ı
y
i+1
= y
i
+h[
1
4
f(x
i
, y
i
) +
3
4
f(x
i
+
2
3
h, y
i
+h
2
3
f(x
i
, y
i
)

El m´etodo cl´asico de Runge-Kutta es de m = 3 (cuatro etapas) definido
por los par´ametros
0 = θ
0
θ
1
= 1/2 θ
2
= 1/2 θ
3
= 1
124 Cap´ıtulo 6
A
0
= 1/6 A
1
= 1/3 A
2
= 1/3 A
3
= 1/6
¸
3
r=0
A
r
= 1
B
1
0
= 1/2 B
2
0
= 0 B
3
0
= 0
B
2
1
= 1/2 B
3
1
= 0
B
3
2
= 1
B
1
0
= 1/2 B
2
0
+B
2
1
= 1/2
¸
2
k=0
B
3
k
= 1
que da lugar a
y
i+1
= y
i
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) (6.8)
donde
K
1
= f(x
i
, y
i
) K
2
= f(x
i
+
h
2
, y
i
+
h
2
K
1
)
K
3
= f(x
i
+
h
2
, y
i
+
h
2
K
2
) K
4
= f(x
i
+h, y
i
+hK
3
)

Ejercicio: Aplica tres pasos del m´etodo cl´asico de Runge-Kutta de orden
4 con h = 1/128 para resolver la ecuaci´on
y

=
yx −y
2
x
2
y(1) = 2.
Paso 1. Partimos de x
0
= 1, y
0
= 2. Para aplicar la ecuaci´on (6.8)
previamente calculamos
K
1
= f(x
0
, y
0
) = f(1, 2) = −2 K
2
= f(x
0
+
h
2
, y
0
+
h
2
K
1
) = −1.95355
K
3
= f(x
0
+
h
2
, y
0
+
h
2
K
2
) = −1.95409
K
4
= f(x
0
+h, y
0
+hK
3
) = −1.90898.
Con estos datos obtenemos
y
1
= y
0
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.98473,
Paso 2. Partimos de x
1
= 1 +
1
128
, y
1
= 1.98473. Calculamos
K
1
= f(x
1
, y
1
) = −1.90899 K
2
= f(x
1
+
h
2
, y
1
+
h
2
K
1
) = −1.86520
K
3
= f(x
1
+
h
2
, y
1
+
h
2
K
2
) = −1.86570
K
4
= f(x
1
+h, y
1
+hK
3
) = −1.82316.
Ecuaciones diferenciales 125
Con estos datos obtenemos
y
2
= y
1
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.97016.
Paso 3. Partimos de x
2
= 1 +
2
128
, y
2
= 1.97016. Calculamos
K
1
= f(x
2
, y
2
) = −1.82311 K
2
= f(x
2
+
h
2
, y
2
+
h
2
K
1
) = −1.78186
K
3
= f(x
2
+
h
2
, y
2
+
h
2
K
2
) = −1.78231
K
4
= f(x
2
+h, y
2
+hK
3
) = −1.74215.
Con estos datos obtenemos
y
3
= y
2
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.96088.

6.3.1 Errores
Los m´etodos de Runge-Kutta tienen tambi´en su error de truncamiento global,
es decir, su orden. Existen m´etodos de Runge-Kutta de orden k con k menor
o igual que el n´ umero de etapas m + 1. Se da la igualdad para k = 1, 2, 3, 4.
Es decir, los m´etodos de Runge-Kutta de 1,2,3,4 etapas tienen orden 1,2,3,4,
respectivamente. Para conseguir orden k = 5 es necesario 6 etapas; para k = 6,
7 etapas; en general para k ≥ 7 se necesitan un n´ umero de etapas mayor o
igual que k + 2.
6.4 M´etodos multipaso
Tanto los m´etodos de Taylor como los de Runge-Kutta son m´etodos de un
paso, porque para calcular el valor aproximado y
i+1
solo se usa, adem´as de x
i
y de h, el valor aproximado anterior y
i
. Los m´etodos multipaso se caracterizan
por obtener y
i+1
a partir de los valores h, x
i
, y
i
, x
i−1
, y
i−1
, . . . , x
i−k
, y
i−k
.
Partimos siempre de la ecuaci´on
y

= f(x, y) y(x
0
) = y
0
.
Ejemplo: Un primer ejemplo sencillo de un m´etodo multipaso se puede
obtener de la siguiente forma. Sabemos que
y

(x) ≈
y(x +h) −y(x −h)
2h
126 Cap´ıtulo 6
con lo que
y(x
i
) ≈
y(x
i+1
) −y(x
i−1
)
2h
y se deduce que
y(x
i+1
) ≈ y(x
i−1
) + 2 h y

(x
i
),
lo que sugiere el m´etodo
y
i+1
= y
i−1
+ 2 h f(x
i
, y
i
).
Para poder obtener el punto y
i+1
son necesarios los dos valores anteriores y
i
,
y
i−1
. Es un m´etodo de dos pasos. Para empezar a aplicarlo tenemos que
disponer de y
0
e y
1
. Este ´ ultimo puede calcularse con un m´etodo de un paso.

El que sigue es un proceso para obtener un conjunto de m´etodos multipasos.
Partimos de la relaci´on
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx,
y aplicamos el cambio de variable x = x
i
+θh
y(x
i+1
) −y(x
i
) = h

1
0
f(x
i
+θh, y(x
i
+θh))dθ.
Aproximamos la integral anterior por una f´ormula de cuadratura

1
0
F(θ)dθ = A
0
F(θ
0
) +A
1
F(θ
1
) + +A
k
F(θ
k
) (6.9)
y nos queda
y(x
i+1
) −y(x
i
) ≈ h

A
0
f(x
i

0
h, y(x
i
+θh))+
+A
1
f(x
i

1
h, y(x
i
+θh))+
+ +A
k
f(x
i

k
h, y(x
i

k
h))

(6.10)
lo cual sugiere un m´etodo que resultar´a de sustituir los valores de la funci´on
por valores aproximados.
Ecuaciones diferenciales 127
Ejemplo: Deduzcamos el m´etodo de orden 2
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

(6.11)
Si en la f´ormula de cuadratura (6.9) tomamos los puntos
θ
0
= 0 θ
1
= −1
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
1
= −
1
2
y la soluci´on del sistema anterior es A
0
=
3
2
y A
1
= −
1
2
. Sustituyendo en
(6.10) nos queda
y(x
i+1
) −y(x
i
) ≈ h

3
2
f(x
i
, y(x
i
)) −
1
2
f(x
i−1
, y(x
i−1
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
Para aplicar la f´ormula (6.11) necesitamos dos puntos iniciales y
0
, y
1
, y solo
disponemos del valor y
0
= 2. Es habitual calcular los puntos necesarios para
empezar mediante un m´etodo de un paso del mismo orden. Usamos el m´etodo
de Euler modificado (ver ecuaci´on (6.7)), que es un m´etodo de Runge-Kutta
de orden 2:
y
1
= y
0
+hf

x
0
+
h
2
, y
0
+
h
2
f(x
0
, y
0
)

= 1.98474.
128 Cap´ıtulo 6
Ya disponemos de y
0
e y
1
y podemos calcular y
2
aplicando (6.11)
y
2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0

= 1.97018.
Con y
1
e y
2
podemos calcular y
3
y
3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1

= 1.95627.
Y as´ı sucesivamente.

6.4.1 F´ ormulas de Adams-Bashforth
Un m´etodo multipaso de la forma
y
i+1
= y
i
+A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) + +A
k−1
f(x
i−k+1
, y
i−k+1
)
es una f´ormula de Adams-Bashforth de k pasos y orden k. Estos m´etodos
se encuadran dentro de los m´etodos multipaso expl´ıcitos, debido a que la
definici´on de y
i+1
es expl´ıcita en funci´on de los valores anteriores, a diferencia
de los m´etodos impl´ıcitos que veremos en es siguiente apartado. Estos son
algunos ejemplos de f´ormulas de Adams-Bashforth:
1. de orden 2:
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

2. de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

3. de orden 5:
y
i+1
= y
i
+
h
720

1901f(x
i
, y
i
) −2774f(x
i−1
, y
i−1
)+
+ 2616f(x
i−2
, y
i−2
) −1274f(x
i−3
, y
i−3
) + 251f(x
n−4
, y
n−4
)

Todas ellas se pueden obtener siguiendo el proceso descrito en la p´agina
126. Dado que en dicho proceso se utiliza el cambio de variable x = x
i
+θ h,
si en la f´ormula final (6.10) deseo que aparezca la funci´on f(x, y) valorada en
los puntos
Ecuaciones diferenciales 129
x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ
0
= 0, θ
1
= −1, ..., θ
k−1
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Bashforth de k pasos necesitaremos
los valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo
de un paso del mismo orden.
6.4.2 F´ ormulas de Adams-Moulton
Un m´etodo multipaso de la forma
y
i+1
= y
i
+Bf(x
i+1
, y
i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
)
(6.12)
es una f´ormula de Adams-Moulton de k pasos y orden k + 1. Estos m´etodos
se encuadran dentro de los m´etodos multipaso impl´ıcitos, debido a que en
la f´ormula aparece el valor y
i+1
definido de forma impl´ıcita. Al igual que
las f´ormulas de Adams-Bashforth, las f´ormulas de Adams-Moulton se pueden
obtener siguiendo el proceso descrito en la p´agina 126. Dado que en dicho
proceso se utiliza el cambio de variable x = x
i
+ θ h, si en la f´ormula final
(6.10) deseo que aparezca la funci´on f(x, y) valorada en los puntos
x
i+1
, x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ = 1, θ
0
= 0, θ
1
= −1, ..., θ
k
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Moulton de k pasos necesitaremos los
valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo de
un paso del mismo orden.
Supongamos que disponemos de los valores y
i
, y
i−1
, ..., y
i−k+1
. ¿C´omo
calcular y
i+1
mediante la f´ormula (6.12)? Se puede hacer de dos formas:
130 Cap´ıtulo 6
1. M´etodo predictor-corrector. Se estima un primer valor predictor y

i+1
mediante una f´ormula de Adams-Bashforth del mismo orden y despu´es se
calcula el valor corrector y
i+1
aplicando
y
i+1
= y
i
+Bf(x
i+1
, y

i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
2. M´etodo iterativo de punto fijo. En la f´ormula (6.12) todos los t´erminos
de la parte derecha de la igualdad son datos excepto y
i+1
. En este sentido,
y
i+1
es un punto fijo de la funci´on
Φ(t) = y
i
+Bf(x
i+1
, t) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
En consecuencia, y
i+1
lo podemos obtener como l´ımite de la sucesi´on
t
0
= y

i+1
, t
n
= Φ(t
n−1
) n ≥ 1
siendo y

i+1
un valor inicial que se recomienda obtener mediante la f´ormula
de Adams-Bashforth del mismo orden. En la pr´actica, es suficiente dos o tres
iteraciones para conseguir un valor aceptable de y
i+1
.
Ejemplo: Deduzcamos la f´ormula de Adams-Moulton de orden dos
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i
)

(6.13)
Aplicaremos el proceso descrito en la p´agina 126. Si en la f´ormula de
cuadratura (6.9) tomamos los puntos
θ
0
= 1 θ
1
= 0
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
0
=
1
2
Ecuaciones diferenciales 131
y la soluci´on del sistema anterior es A
0
=
1
2
y A
1
=
1
2
. Sustituyendo en (6.10)
nos queda
y(x
i+1
) −y(x
i
) ≈ h

1
2
f(x
i+1
, y(x
i+1
)) +
1
2
f(x
i
, y(x
i
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
El m´etodo a aplicar es de orden 2 y 1 paso, por lo que solo necesitamos el
valor y
0
para empezar. Para estimar el resto de valores podemos optar por el
m´etodo predictor-corrector o por el m´etodo iterativo de punto fijo.
1. M´etodo predictor. Calculamos un valor predictor y

1
. Si es posible,
debe calcularse con una f´ormula de Adams-Bashforth del mismo orden, en
este caso la f´ormula (6.11) que es de orden dos. Sin embargo, para aplicar
(6.11) necesitamos los dos puntos iniciales y
0
e y
1
, con lo que en este primer
paso no podemos hacer uso de ella. Calculamos y

1
mediante otro m´etodo, por
ejemplo, por Runge-Kutta de orden 2 (ver 6.6):
y

1
= y
0
+h

1
2
f(x
0
, y
0
) +
1
2
f(x
1
, y
0
+hf(x
0
, y
0
))

= 1.98474
Con este valor, calculamos el valor corrector con Adams-Moulton
y
1
= y
0
+h

1
2
f(x
1
, y

1
) +
1
2
f(x
0
, y
0

= 1.98473.
Para calcular y
2
, primero calculo el valor predictor y

2
con Adams-Bashforth
de orden 2 (f´ormula (6.11))
y

2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0
)

= 1.97017
132 Cap´ıtulo 6
y despu´es calculo el corrector con Adams-Moulton
y
2
= y
1
+h

1
2
f(x
2
, y

2
) +
1
2
f(x
1
, y
1

= 1.97015.
En el siguiente paso calculo el predictor y

3
con Adams-Bashforth
y

3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1
)

= 1.95624
y despu´es calculo el corrector con Adams-Moulton
y
3
= y
2
+h

1
2
f(x
3
, y

3
) +
1
2
f(x
2
, y
2

= 1.95622.
El proceso anterior se repite para calcular el resto de valores.
2. M´etodo iterativo de punto fijo. Dada la funci´on
Φ
1
(t) = y
0
+h

1
2
f(x
1
, t) +
1
2
f(x
0
, y
0
)

el valor y
1
que buscamos verifica
Φ
1
(y
1
) = y
1
.
Es, por tanto, un punto fijo de la ecuaci´on
Φ
1
(t) = t.
Para localizarlo generamos una sucesi´on iterativa comenzando por un valor y

1
obtenido, si es posible, por Adams-Bashforth del mismo orden. En este caso
no es posible aplicar Adams-Bashforth puesto que se necesitar´ıa dos puntos
iniciales que no tenemos. Calculamos y

1
mediante Runge-Kutta de orden 2
(y

1
= 1.98474) y generamos la sucesi´on iterativa:
t
0
= y

1
= 1.98474
t
1
= Φ
1
(1.98474) = 1.98473
t
2
= Φ
1
(1.98473) = 1.98473
De forma que tomamos y
1
= 1.98473.
y
2
es un punto fijo de
Φ
2
(t) = y
1
+h

1
2
f(x
2
, t) +
1
2
f(x
1
, y
1
)

Ecuaciones diferenciales 133
que localizamos mediante la sucesi´on iterativa similar a la anterior que co-
mienza en y

2
= 1.97017, que a su vez es obtenido por Adams-Bashforth de
orden 2
t
0
= y

2
= 1.97017
t
1
= Φ
2
(1.97017) = 1.97015
t
2
= Φ
2
(1.97015) = 1.97015
Tomamos y
2
= 1.97015. Y repetimos el proceso para el resto de valores.

Ejercicio:
1. Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
2. Repite el apartado anterior para la f´ormula de Adams-Moulton de orden
4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

Ejercicio: Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del si-
guiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.

Problemas
Ecuaciones no lineales
1. Dada la ecuaci´on

xsen(x) −x
3
+ 2 = 0
encuentra una aproximaci´on de una ra´ız
(a) Con el m´etodo de la bisecci´on con un error menor que 1/30.
(b) Con 4 iteraciones del m´etodo de Newton-Raphson.
2. Determina un intervalo y una funci´on para aplicar el m´etodo del punto
fijo a las siguientes ecuaciones:
(a) x
3
−x −1 = 0
(b) 4 −x −tg(x) = 0
Realiza 4 iteraciones del m´etodo y determina en cada caso una cota del
el error cometido.
3. Se considera la ecuaci´on x
2
−1 −sen(x) = 0.
(a) Prueba que dicha ecuaci´on tiene, al menos, una ra´ız positiva.
(b) Encuentra un intervalo en el cual la iteraci´on
x
n
=

1 +sen(x
n−1
) x ∈ N
converja, para cualquier valor inicial x
0
de dicho intervalo, a una
ra´ız positiva de la ecuaci´on anterior. ¿Cu´antos pasos deben darse,
a partir de x
0
= π/2, para obtener una aproximaci´on de la ra´ız con
un error inferior a una mil´esima?
135
136 Problemas
4. Demuestra que la ecuaci´on
e
x
L(x) +x
3
−2 = 0
tiene una ´ unica ra´ız positiva. Aplica el m´etodo de Newton-Raphson para
encontrar una aproximaci´on a la ra´ız. Realiza iteraciones hasta que se
repitan las primeros cuatro decimales.
5. Determina un intervalo y una funci´on para poder aplicar el m´etodo del
punto fijo a las siguientes ecuaciones:
(a) x −L(1 +x) −0.2 = 0.
(b) x = −L(x).
Calcula una aproximaci´on a la soluci´on con un error inferior a 10
−5
.
6. Se considera la funci´on
F(x) = e
−x
−sen(x) −2.
(a) Demuestra que F(x) < 0 si x ≥ 0.
(b) Prueba que la ecuaci´on F(x) = 0 tiene una ´ unica ra´ız negativa.
(c) Determina un intervalo donde se pueda aplicar el m´etodo de Newton-
Raphson para aproximar dicha ra´ız, as´ı como los 4 primeros t´erminos
de la sucesi´on definida mediante dicho m´etodo. Calcula una cota
del error cometido.
7. Dada la funci´on f(x) = e
x
−3x
2
,
(a) Localiza un intervalo que contenga una soluci´on de f(x) = 0. Enun-
cia el resultado te´orico que utilices.
(b) Encuentra, aplicando el m´etodo del punto fijo con cuatro iteracio-
nes, una aproximaci´on de un valor donde se anule la derivada de
f(x) y una cota del error cometido.
8. Dada la ecuaci´on x = arctg(x+1), aplica el m´etodo de la bisecci´on para
encontrar una soluci´on con un error menor que 1/10.
9. Calcula tres iteraciones del m´etodo de la secante para encontrar una ra´ız
de la ecuaci´on
cos(x) −x = 0
en el intervalo [0.5, π/4]
Problemas 137
10. Dada la ecuaci´on 2cos(2x) + 4x −k = 0,
(a) Determina el valor de k para que la ecuaci´on tenga una ´ unica ra´ız
triple en el intervalo [0, 1].
(b) Para k = 3, prueba que posee una ´ unica ra´ız simple en el intervalo
[0, 1] y calc´ ulala con el m´etodo de Newton con un error menor que
10
−3
.
11. Dado el polinomio P(x) = x
4
−4x
3
+ 7x
2
−5x −2
(a) Utiliza la sucesi´on de Sturm para separar las ra´ıces del polinomio.
(b) Utiliza el m´etodo de Newton-Raphson para encontrar una aproxi-
maci´on de la ra´ız real de P(x) de menor valor absoluto.
12. Dado el polinomio P(x) = 8x
3
− 20x
2
− 2x + 5, utiliza su sucesi´on
de Sturm para separar sus ra´ıces en intervalos disjuntos. Encuentra
aproximaciones de las ra´ıces con un error menor que 10
−3
.
13. Dado la ecuaci´on x
4
−7x
3
+ 18x
2
−20x + 8 = 0:
(a) Demuestra con el teorema de Bolzano que tiene una soluci´on en el
intervalo [1.5, 3]. y utiliza el m´etodo de Newton para encontrar una
aproximaci´on con error menor que 10
−6
(b) Utiliza la sucesi´on de Sturm para separar las distintas ra´ıces del
polinomio.
14. Cuesti´on de examen de febrero de 2004:
Dada la ecuaci´on x
2
−e
2x
= −1/2,
(a) Demuestra que tiene una ´ unica soluci´on en el intervalo [−2, 0].
(b) Encuentra una aproximaci´on a la soluci´on mediante tres iteraciones
del m´etodo del punto fijo partiendo del punto x
0
= −1.5
15. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = cos(x) −x,
(a) Calcula el n´ umero de pasos necesarios para encontrar una ra´ız de
f(x) con un error menor que 10
−2
con el m´etodo de la bisecci´on
en el intervalo [0.5, π/4]. Aplica el m´etodo con el n´ umero de pasos
calculado.
138 Problemas
(b) Aplica tres iteraciones del m´etodo de la secante para encontrar una
ra´ız de f(x) en el intervalo [0.5, π/4].
16. Cuesti´on de examen de septiembre de 2004:
Dado el polinomio P(x) = −x
3
+x
2
−2x + 5,
(a) Utiliza el m´etodo de Sturm para separar las ra´ıces en intervalos
disjuntos.
(b) Empezando con x = 6 aplica un paso del m´etodo de Newton ha-
ciendo uso del algoritmo de Horner.
Problemas 139
Sistemas de ecuaciones lineales
17. Para el conjunto de ecuaciones.
7x
1
−3x
2
+ 8x
3
= −49
x
1
−2x
2
−5x
3
= 5
4x
1
−6x
2
+ 10x
3
= −84
a) Calcula la inversa de la matriz de los coeficientes haciendo uso de
las operaciones fundamentales. b) Utiliza la inversa para obtener las
soluciones del sistema. c) Calcula el n´ umero de condici´on de la matriz
con las distintas normas que conozcas.
18. Dado el sistema de ecuaciones
0.5x
1
−x
2
= −9.5
0.28x
1
−0.5x
2
= −4.72
a) Resu´elvelo por Gauss. b) Sustituye a
11
por 0.55 y resu´elvelo de nuevo.
c) Interpreta los resultados anteriores en t´erminos del condicionamiento
del sistema. d) Calcula el n´ umero de condici´on de la matriz del sistema
con la norma infinito.
19. Dado el sistema
−12x
1
+x
2
−7x
3
= −80
x
1
−6x
2
+ 4x
3
= 13
−2x
1
−x
2
+ 10x
3
= 92
a) Resu´elvelo por eliminaci´on gaussiana simple usando d´ıgitos con dos
cifras decimales. b) Encuentra las matrices triangular inferior L, trian-
gular superior U y de permutaciones P tal que PA = LU, siendo A la
matriz de los coeficientes. c) Sustituye los resultados en las ecuaciones y,
si es necesario, utiliza el m´etodo del refinamiento iterativo para mejorar
la soluci´on.
20. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´on
gaussiana con pivoteo parcial empleando d´ıgitos con dos decimales. b)
Encuentra las matrices P, L y U tal que PA = LU como en el ejercicio
anterior. c) Comprueba los resultados, y si no son exactos, emplea el
refinamiento iterativo para mejorar la soluci´on.
140 Problemas
1).
4x
1
+ 5x
2
−6x
3
= 28
2x
1
−7x
3
= 29
−5x
1
−8x
2
= −64
2).
3x
2
−13x
3
= −50
2x
1
−6x
2
+x
3
= 44
4x
1
+ 8x
3
= 4
21. Dado el sistema

¸
3 2 100
−1 3 100
1 2 −1
¸

¸
x
1
x
2
x
3
¸

=

¸
105
102
2
¸

resu´elvelo mediante descomposici´on LU de Gauss: a) sin escalamiento y
b) con escalamiento previo de filas.
22. Dados
A =

¸
4 −3 0
2 2 3
6 1 −6
¸

b =

¸
−7
−2
6
¸

b

=

¸
14
9
−8
¸

resuelve Ax = b y Ax = b

mediante una descomposici´on LU de Gauss.
Utiliza 3 decimales en los c´alculos.
23. Resuelve el sistema siguiente mediante descomposici´on LU:
−4x
1
+ 2x
2
= 0
x
1
−4x
2
= −4
x
2
−4x
3
+x
4
= −11
x
3
−4x
4
+x
5
= 5
2x
4
−4x
5
= 6
24. Resuelve el sistema

¸
¸
¸
4 −1 −1 0
−1 4 0 −1
−1 0 4 −1
0 −1 −1 4
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
−4
0
4
−4
¸

mediante la descomposici´on de Cholesky. ¿Es la matriz de los coeficientes
definida positiva?
Problemas 141
25. Dado el sistema

¸
2 0 −1
−2 −10 0
−1 −1 4
¸

¸
x
1
x
2
x
3
¸

=

¸
1
−12
2
¸

comprueba si se cumple alguna de las condiciones suficientes para que
funcionen los m´etodos de Jacobi y Gauss-Seidel. Si se cumplen, realiza
dos iteraciones para cada m´etodo tomando como valor inicial (0, 0, 0).
26. Repite el ejercicio anterior para el sistema
x
1
−2x
2
= −1
3x
1
+x
2
= 4
Intenta resolver el sistema con los m´etodos de Jacobi y Gauss-Seidel
haciendo alg´ un peque˜ no cambio en las ecuaciones.
27. Cuesti´on de examen de febrero de 2004:
Aplica el m´etodo de Jacobi a la resoluci´on del sistema:
7x −y + 4z = 8
3x −8y + 2z = −4
4x +y −6z = 3
empleando 3 iteraciones y partiendo del punto (0, 0, 0). ¿Es convergente
el m´etodo?
28. Cuesti´on de examen de junio de 2004:
Resuelve por el m´etodo de Cholesky el sistema de ecuaciones:
x
1
+ 2x
2
+ 3x
3
= 7
2x
1
+ 5x
2
+ 4x
3
= 9
3x
1
+ 4x
2
+ 14x
3
= 33
29. Cuesti´on de examen de septiembre de 2004:
Resuelve el siguiente sistema dos veces. Primero, utilizando la elimina-
ci´on gaussiana simple y encontrando la factorizaci´on A = LU. Despu´es,
utilizando la eliminaci´on gaussiana con pivoteo y encontrando la facto-
rizaci´on PA = LU.
−x
1
+x
2
−4x
3
= 0
2x
1
+ 2x
2
= 1
3x
1
+ 3x
2
+ 2x
3
=
1
2
142 Problemas
Aproximaci´ on de funciones. Interpolaci´ on
30. De la funci´on f(x, t) que representa una onda que se desplaza sobre el
plano se conocen cinco posiciones en un determinado instante:
(−1, 0), (−0.5, −1), (0, 0), (0.5, 1), (1, 0).
(a) Encuentra un polinomio que pase por esos puntos.
(b) Encuentra una funci´on formada por trozos de recta que pase por
esos puntos.
(c) Sabiendo que las derivadas de f(x) en el mismo instante en los
puntos −1, −0.5, 0, 0.5 y 1 son −π, 0, π, 0 y −π, calcula un polinomio
que cumpla todas las condiciones.
(d) Calcula el spline natural para ese conjunto de datos.
31. ¿Cu´al es el polinomio interpolador de f(x) = x
3
−2x −5 en los puntos
−0, 1, 2, 4.?
32. Se ha estudiado el proceso de recepci´on de informaci´on de un ordenador
y se ha observado que en los instantes 0, 1, 2 medidos en segundos, la
cantidad de informaci´on recibida era 0, 51, 104 megabites y se recib´ıa
a una velocidad de 0, 52, 54 megabites por segundo, respectivamente.
Encuentra una funci´on que se aproxime a la que representa el proceso.
33. Dada la funci´on f(x) = e
x
y los puntos 0, 1, 2.,
(a) Encuentra su polinomio de interpolaci´on en los puntos y estima el
error cometido.
(b) Repite el apartado anterior con los nodos de Chebyshev en el inter-
valo [0, 2].
(c) Encuentra una funci´on lineal a trozos que se aproxime a f(x) en
los puntos dados.
(d) Encuentra un polinomio que interpole a f(x) y a sus derivadas en
los puntos dados.
(e) Calcula el spline natural en los puntos dados.
34. La funci´on f(x) = L(x) se ha evaluado en varios puntos, obteni´endose
lo siguientes datos:
Problemas 143
x
0
= 1 f(x
0
) = 0
x
1
= 4 f(x
1
) = 1.3863
x
2
= 6 f(x
2
) = 1.7918
(a) Util´ıcense los datos anteriores para calcular el polinomio de inter-
polaci´on y el spline natural. Est´ımese el valor de L(2).
(b) Agregando un cuarto punto x
3
= 5, f(x
3
) = 1.6094, h´aganse de
nuevo los c´alculos y estimaciones.
35. Calculando los valores de la funci´on f(x) =

x en 1,4 y 9,
(a) Halla el polinomio interpolador de grado menor o igual que 2 por
el m´etodo de Newton que pase por esos puntos.
(b) Halla el polinomio interpolador en los nodos de Chebyshev en [1,9].
(c) Aplica el m´etodo de Hermite en los puntos iniciales y en sus deri-
vadas.
(d) Calcula el spline natural.
36. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = e
x
, determina los cuatro nodos de Chebyshev en
[0, 1], el polinomio interpolador en dichos nodos y un valor aproximado
de e
0.5
mediante dicho polinomio. Realiza los c´alculos con 4 decimales.
Polinomios de Chebysev: T
0
(x) = 1, T
1
(x) = x, T
n+1
(x) = 2xT
n
(x) −
T
n−1
(x).
37. Cuesti´on de examen de septiembre de 2004:
Determina si la funci´on
f(x) =

1 +x −x
3
si x ∈ [0, 1]
1 −2(x −1) −3(x −1)
2
+ 4(x −1)
3
si x ∈ [1, 2]
4(x −2) + 9(x −2)
2
−3(x −2)
3
si x ∈ [2, 3]
es el spline c´ ubico natural que interpola a los puntos de la tabla:
x 0 1 2 3
y 1 1 0 10
144 Problemas
Diferenciaci´ on e integraci´ on num´erica
38. De la funci´on f(x) = e
x
−2x
2
+ 3x −1 se obtienen los siguientes datos:
x 0.0 0.2 0.4 0.6
f(x) 0.00000 0.74140 1.3718 1.9021
(a) Utilizando la f´ormula m´as adecuada de entre las siguientes:
f

(x) =
f(x+h)−f(x)
h
f

(x) =
f(x+h)−f(x−h)
2h
f

(x) =
f(x+h)−2f(x)+f(x−h)
h
2
,
calcula valores aproximados de la primera y segunda derivadas de
los puntos.
(b) Calcula los errores reales y las cotas de error por medio de las
f´ormulas de error para las estimaciones anteriores.
(c) Encuentra una aproximaci´on de f

(0.2) haciendo uso de la interpo-
laci´on de la funci´on en los cuatro puntos.
(d) Sabiendo que f(−0.2) = −0.861267, aplica la interpolaci´on de Ri-
chardson para calcular una aproximaci´on de f

(0.2).
39. De una funci´on f(x) se tienen los siguientes datos:
x 0.0 0.5 1 1.5 2 2.5 3
f(x) 2.25 3.75 5 6 5.5 6 7.25
Calcula un valor aproximado de

3
0
f(x)dx utilizando los siguientes m´etodos:
(a) Trapecios.
(b) Simpson 1/3.
(c) Simpson 3/8.
(d) Trapecios compuestos.
(e) Simpson compuesto.
(f) Romberg.
40. Determina el n´ umero de subintervalos que deben tomarse para aproximar
el valor de la integral

1
0.5
cos(

x)dx con un error menor que
1
2
10
−2
(a) con el m´etodo de los trapecios compuesto,
Problemas 145
(b) con el m´etodo de Simpson compuesto.
41. Repite el ejercicio anterior para
(a)

2
1
Ln(x)dx (b)

3
2
e
x
x
dx
42. Calcula

1
0
sen(x
2
)dx:
(a) con un error menor que 10
−2
con el m´etodo de los trapecios com-
puestos
(b) con un error menor que 10
−2
con el m´etodo de Simpson compuesto,
(c) con el algoritmo de Romberg hasta R(4, 4),
(d) con el m´etodo de cuadratura adaptativa con nivel de tolerancia
10
−3
.
43. Repite el ejercicio anterior con

2
1
e
1/x
dx.
44. (a) Calcula la integral

1
0
sen(x
2
)dx mediante cuadratura gaussiana de
dos t´erminos.
(b) Plantea c´omo resolver el problema de calcular la

1
0
sen(x
2
)dx me-
diante cuadratura gaussiana de tres t´erminos. Calcula la integral
sabiendo que los nodos (t
i
) en este caso son las ra´ıces del polinomio
5x
3
−3x
2
.
45. Aplica alg´ un m´etodo de integraci´on num´erica para resolver las siguientes
integrales:
(a)

1
0
sen(x)
x
dx (b)

1
−1
cos(x)−e
x
sen(x)
dx (c)


1
(xe
x
)
−1
dx.
46. Determina los valores de A, B y C que hagan que la f´ormula

2
0
xf(x) ≈ Af(0) +Bf(1) +Cf(2)
sea exacta para todos los polinomios de grado tan alto como sea posible.
¿Cu´al es el grado m´aximo?
47. Eval´ ua la integral de x
3
sen(x) entre x = 0 y x = 2 usando un valor de
tolerancia inferior a 0.1% de la respuesta verdadera (3.791197).
146 Problemas
48. Cuesti´on de examen de febrero de 2004:
Dada la funci´on f(x) = L(x) calcula

3
2
L(x)dx empleando el m´etodo de
cuadratura de Gauss con tres t´erminos y sabiendo que los polinomios de
Legendre se calculan as´ı:
L
0
(x) = 1, L
1
(x) = x,
L
n+1
(x) =
(2n+1)xL
n
(x)−nL
n−1
(x)
n+1
∀ n ≥ 1.
49. Cuesti´on de examen de junio de 2004:
Encuentra los coeficientes A
0
, A
1
, A
2
y A
3
para que la f´ormula

3
−1
f(x)dx = A
0
f(−1) +A
1
f(0) +A
2
f(1) +A
3
f(2)
sea exacta para los polinomios de grado menor o igual que 3 y calcula
un valor aproximado de

3
−1
(x
3
+x)dx haciendo uso de dicha f´ormula.
50. Cuesti´on de examen de septiembre de 2004:
Encuentra los coeficientes A
1
y A
2
para que la f´ormula


0
f(x)dx = A
1
f(0) +A
2
f(π)
sea exacta para cualquier funci´on que tenga la forma a +b cos(x).
Calcula


0
2 + 3 cos(x)dx haciendo uso de dicha f´ormula.
Problemas 147
Resoluci´ on num´erica de ecuaciones diferenciales
ordinarias
51. Cuesti´on de examen de junio de 2004:
Aplicando el m´etodo de Taylor de grado 2 con dos pasos, calcula valores
aproximados de y(0.1) y y(0.2), sabiendo que
y

+ 2y = x
2
+ 2x y(0) = 1
52. Cuesti´on de examen de febrero de 2005:
Resuelve la ecuaci´on y

= y
2
− t
2
+ 1, y(0) = 0.5, siendo 0 ≤ t ≤ 1.2,
mediante el m´etodo de Taylor de grado 2 con 5 pasos.
53. (a) Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
(b) Repite el apartado anterior para la f´ormula de Adams-Moulton de
orden 4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

54. Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del
siguiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.
148 Problemas
55. Aplica el m´etodo cl´asico de Runge-Kutta para estimar 10 valores apro-
ximados de la soluci´on de la ecuaci´on siguiente en el intervalo [0, 1]
y

+ 2y = x
2
+ 2x y(0) = 1
56. A partir de la identidad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx
deduce el m´etodo de Runge-Kutta de orden 2
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

´ Indice
Introducci´n o 1 Errores, redondeo, estabilidad, condicionamiento. o 1.1 Cifras significativas. Exactitud y precisi´n. Errores. 1.2 C´lculos estables e inestables. Condicionamiento. . . a 1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . 1.2.2 Condicionamiento . . . . . . . . . . . . . . . 1.3 Aritm´tica de la computadora . . . . . . . . . . . . . e 1.3.1 Aritm´tica de punto flotante. . . . . . . . . . e 1.3.2 Operaciones con computadoras . . . . . . . . 1.3.3 Epsilon de la m´quina . . . . . . . . . . . . . a 2 Resoluci´n de ecuaciones no lineales o 2.1 M´todo de la bisecci´n . . . . . . . . . . . . . . . . . e o 2.1.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.1.2 Convergencia del m´todo . . . . . . . . . . . e 2.1.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.1.4 Variaciones del m´todo: Regula Falsi . . . . . e 2.2 M´todo de Newton-Raphson . . . . . . . . . . . . . . e 2.2.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.2.2 Convergencia del m´todo . . . . . . . . . . . e 2.2.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.2.4 Variaciones del m´todo: M´todo de la secante e e 2.3 M´todo iterativo de punto fijo . . . . . . . . . . . . . e 2.3.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.3.2 Convergencia del m´todo . . . . . . . . . . . e 2.3.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.4 Ra´ ıces de polinomios . . . . . . . . . . . . . . . . . . 2.4.1 Separaci´n de ra´ o ıces. Sucesi´n de Sturm. . . o 3 7 9 9 12 12 12 13 13 15 16 17 19 19 19 20 21 22 22 23 24 27 28 28 29 30 32 34

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . 45 m´todo de Gauss 46 e . . . . . . . . .4. . .2 Interpolaci´n con condiciones sobre la derivada . . . . 64 . . . . . 62 . 68 . . . . . . . . . e 3. . . . . . . . . . . . . . . . . . . .1 Construcci´n del polinomio interpolador . . . . 66 . . . . . 63 . .1 Diferenciaci´n num´rica y extrapolaci´n de Richarson . o . e 3. . . .3 M´todos de relajaci´n . . . . .1 Interpolaci´n a trozos . .3. . 49 . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . .2 Escalamiento . . e 3. . . . . 47 . . . . . . o 4. . . .4 Normas y an´lisis del error . . . . . . . . . e o 41 . . .2 2. . 90 o o . . . . . . . . . .3. . . . . .5. . . . . . . .1 M´todo de Crout . . Polinomios de Chebyshev . . . e 3. .3 Sistemas triangulares . .4 2. . . e 3. .1. . . . . . . . e 3. . 60 . 3. . . . . . . . . . . 5 Diferenciaci´n e integraci´n num´rica o o e 87 5. . . . .2 Matriz definida . . Factorizaci´n de Cholesky . . . . . . . 3. . . . . . 3. . . . . .4 ´ INDICE Acotaci´n de ra´ . . . . 3. . . . .4.3. . . . . . . . . . .2. .6. . .5. . . . . . . e 3. . . .3 Factorizaci´n LU. o 4. .3 Interpolaci´n a trozos y con condiciones sobre la derivada o 4. . . . . . . . . . . . . 3.2 Error del polinomio interpolador . . . . . . . . . . .2 M´todo de Newton . . . . . . . 45 . . . . . .5 Mejora de soluciones . . . . . . . . . . . . . . . . . . .2 Resoluci´n de sistemas de ecuaciones lineales: o 3. . . . . . . . . . a u o 3. . . . . . . . . . . . . . . . . . . . . . . 55 .1 M´todo de Gauss . .1 M´todo de Lagrange .6 M´todos iterativos . e 4. . . . . . . . . 62 . Ra´ ıces m´ltiples . . . . . . . . . .1 Algebra de matrices . . .1.1 M´todo de Jacobi . . . . . . . . . . . . . . . . 53 . . . o o 3. . .2 M´todo de Gauss-Seidel . . . . . . 55 . 87 o e o 5. . . . . .1 Refinamiento iterativo . . . . 57 . 3. . . .1. . . . . . . e 4. . . . .6. . . . . . . . . . . . . . . . . . . . .2 M´todo de Cholesky .4. 41 . . . . .1. . . . 69 71 71 73 73 74 75 78 78 79 4 Aproximaci´n de funciones o 4. . . . .2. . . . . . .3. . .6. .3 2. . . . . . . . . . . . . . u 37 38 39 3 Sistemas Lineales ´ 3. . . . . o ıces Ra´ ıces de polinomios con el algoritmo de Horner . . . . . . .1 Elecci´n de nodos. . . . . . . . . . . o 4. . .2 M´todo de Gauss con pivoteo . . . 55 . . . .4. . .1 Valores propios y vectores propios . . . . .3. . . .2. . . . . . .1 Diferenciaci´n mediante interpolaci´n . .1 N´mero condici´n de una matriz . . . . . . 3. . . 4. . . . . . .1. .

. . . . . . . . . . . . . .4 5. .3 Reglas compuestas . . . . . . . . . . . . . . . . . . . . . . . Integraci´n de Romberg . .1 Errores . . .4. . . . e 6. . . . . . .4 M´todo de los coeficientes indeterminados e Cuadratura gaussiana . . . . . . . . . . . . . .2 Regla de Simpson . .2. . . . .1 Existencia y unicidad de soluciones . . . . . . 92 96 97 98 99 101 102 104 107 113 113 115 118 118 119 125 125 128 129 135 5. . . . . . . . . o Integraci´n num´rica mediante interpolaci´n . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . .3 M´todos de Runge-Kutta . . . . . . . .2 Errores . . . . . . . . . . .´ INDICE 5 5. . . . . . o e o 5. . . . . . . . . . . . . . . . o Problemas . . . . . . . . . . . . e 6. . . . . . . . . . .4 M´todos multipaso . . .2 Extrapolaci´n de Richarson . . . .1 F´rmulas de Adams-Bashforth . . . . . . . e 6. . . . . . 6. o 6. . . . 5. . . . . . . . . . .3. . . .2. . . 6. . . . . . . . . . . . . . . . . . . . . . . . .2 M´todo de la serie de Taylor . . . .1. . . . . . . . . .2 5. .5 6 Resoluci´n num´rica de ecuaciones diferenciales o e 6.4. . . . . . . . o Cuadratura adaptativa . . 5. . . .1 Regla del trapecio . . . . . . . . . . . . .3 5. . . . .2. . . . . . . . .2 F´rmulas de Adams-Moulton . . . . . . . . . . . . . .2. . . . . . . 5. . . . . . . e 6. . . .2. . .1 M´todo de Euler . . . . . . . . . . . . . . . . . . . . . . . 6. . . . . . .

.

Se ir´ reformando a medida a que se detecten fallos o se modifique el contenido para mejorarlo. Debeis emplearlo como una ayuda para preparar la asignatura An´lisis Matem´tico I a a y como complemento de las notas que tomeis en clase. Pedro Mart´ ın. Espero que os sirva.Introducci´n o El texto que sigue no es definitivo ni exhaustivo. 7 .

.

β1 β2 . . estabilidad. 1. βn . por tanto.1 Cifras significativas. .Cap´ ıtulo 1 Errores. redondeo. . 2. Erroo res. . con αi . . u u por lo que se utilizan aproximaciones con un n´mero finito de decimales. . α1 α0 . . El concepto de cifra significativa intenta trasmitir la idea de cuando una cifra que aparece en la expresi´n decimal trasmite informaci´n o o ”esencial”y ”de fiar”sobre el n´mero que se intenta aproximar. . Exactitud y precisi´n. 1. . βj ∈ 0. a o Se trabaja. con n´meros aproximados en lugar de n´meros exactos. u u Cualquier n´mero real x puede representarse en forma decimal con un n´mero finito o infinito de d´ ıgitos: x = αm αm−1 . 9 Con la expresi´n anterior queremos representar que o x = αm 10m +αm−1 10m−1 +· · ·+α1 10+α0 100 +β1 10−1 +β2 10−2 +· · ·+βn 10−n +. . . u Toda expresi´n aproximada tiene un n´mero determinado de cifras sigo u nificativas. condicionamiento. La significau o o ci´n de una cifra depende del contexto y no solo de la expresi´n decimal en la que aparece. . El C´lculo Num´rico consiste en desarrollar m´todos para encontrar soluciones a e e lo m´s aproximadas posibles a la verdadera soluci´n de un cierto problema. 9 .

5) es una estimaci´n que podr´ o ıamos evitar. Sin embargo en la expresi´n ”me ´ o cost´ 45000 euros exactos”s´ son significativos. La tercera cifra (. Cualquier m´todo del C´lculo Num´rico que se emplee en la resoluci´n de e a e o un problema. Cuanto mayor sea el n´mero de cifras significativas de la u aproximaci´n. es decir o a e los diferentes valores obtenidos para la resoluci´n de un problema deben estar o cercanos entre s´ ı.0001845 0. Los ceros que se a˜aden al final pueden ser o no significativos: n Ejemplo: En la expresi´n ”se manifestaron 45000 personas”. valor verdadero . esta podr´ variar si es otro el observador.00001845 0. El error relativo es e= E . No es significativa. Se denomina error E a la cana e tidad: E = valor verdadero − valor aproximado A menudo se trabaja con el error absoluto (|E|). es decir. debe ser suficientemente exacto.5 × 104 . los tres o ultimos ceros parecen ser no significativos. pues no es ”de fiar”. se emplea u la notaci´n cient´ o ıfica (en el ejemplo anterior. 4. 4. en nuestra aproxia maci´n (48. ıa Los ceros que se a˜aden a la izquierda de una expresi´n decimal para situar n o la primera cifra distinta de cero no son significativos: Ejemplo: Los n´meros u 0.5 Km/hora”porque vemos que la aguja del veloc´ ımetro del coche est´n entre 48 y 49. mayor ser´ la exactitud. Con el uso de aproximaciones para representar operaciones y cantidades matem´ticas se generan errores num´ricos. Tambi´n deben ser preciso.5000 × 104 ). Si hacemos observaciones con una cifra decimal. las que permiten situar la velocidad entre 48 y 49. o ı Para evitar equ´ ıvocos acerca del n´mero de cifras significativas.10 Cap´ ıtulo 1 Ejemplo: Cuando decimos ”circulamos a 48. los valores aproximados que se obtengan en diferentes intentos de soluci´n deben estar cerca o del valor verdadero.5) al valor verdadero de la velocidad.001845 tienen todos cuatro cifras significativas. El veloc´ ımetro (para velocidades menores de 100) solo permite aproximaciones con dos cifras significativas. estamos manejando solo dos o cifras significativas.

02468 × 10−4 −→ 6. se conservan las cifras significativas y el resto se descara tan. N´tese u a o que un d´ ıgito en la columna de las cent´simas es m´s significativo que e a una en la columna de las mil´simas. el redondeo se lleva a cabo de forma tal que el ´ ultimo d´ ´ ıgito retenido en la respuesta corresponda al ultimo d´ ´ ıgito M AS significativo de los n´meros que se est´n sumando o restando. condicionamiento 11 Este ultimo compara la magnitud del error cometido con la magnitud del valor ´ que se pretende estimar y puede interpretarse en t´rminos de %.0642 × 4.6170462 2.33333333.6170432 5. En la multiplicaci´n y divisi´n se conserva el n´mero m´ o o u ınimo de cifras significativas que tenga los n´meros que intervienen: u 0.432 −→ 0.3 × 10−4 − 228 × 10−6 = 6.3185 = 2967.68 × 10−7 + 8.31 945/0. entonces el ultimo d´ ´ ıgito retenido se incrementa en uno solo si este ultimo es ´ impar: n´mero u 5.4 . e 4.6170462500 6 cifras significativas 5. estabilidad.6170431500 5. Para combinaciones de las operaciones aritm´ticas.2 − 1.61704 5.30816 −→ 0.768 = 0. u Ejemplo: sustituir 1/3 por 0.0 × 10−4 3. Para minimizar este tipo de error se recurre a las reglas de redondeo: 1. En la suma y en la resta. existen dos casos e generales. El ultimo d´ ´ ıgito que se conserva se aumenta en uno si el primer d´ ıgito descartado es mayor que 5. En los c´lculos. redondeo. (multiplicaci´n o divisi´n ) ± (multiplicaci´n o divisi´n) o o o o (suma o resta ) ÷ (suma o resta) × 2. e Las causas de los errores pueden ser: • Truncamiento: surgen al sustituir un procedimiento matem´tico exacto a por uno aproximado. Si es 5 o es 5 seguido de ceros.8 = 0. o • Redondeo: surgen al sustituir un n´mero exacto por uno aproximado. Ejemplo: utilizar un polinomio de Taylor para encontrar el valor de una funci´n en un punto.61705 8 cifras significativas 5.Errores.032967 −→ 297 × 10 4.

01y = 1 0. Si calculamos el t´rmino x11 con o e el programa Maxima. obtenemos −1. En ciertos problemas se puede calcular un n´mero de condici´n. se puede calcular el n´mero de condici´n as´ u o ı: k(A) = A · A−1 . se ejecutan primero las operaciones entre par´ntesis y e se redondea el resultado antes de proceder con otra operaci´n.2 Condicionamiento Un problema est´ mal condicionado si peque˜os cambios en los datos pueden a n dar lugar a grandes cambios en las respuestas. 3 xn+1 = 13 4 xn − xn−1 3 3 ∀n ≥ 1 1 La sucesi´n anterior verifica que xn = ( 3 )n . donde A = maxi.99x + y = 1 . El c´lculo de o a los valores de la sucesi´n por el m´todo inductivo es inestable. pues cualquier o e error que se presente en xn se multiplica por 13/3 al calcular xn+1 . etc.2. Si este es grande significa que el problema u o a est´ mal condicionado.867971990792441 × 10−10 con la otra definici´n.12 Cap´ ıtulo 1 En ambos casos.2 1. Inestabilidad Decimos que un proceso num´rico es inestable cuando los peque˜os errores e n que se producen en alguna de sus etapas se agrandan en etapas posteriores y degradan seriamente la exactitud del c´lculo en su conjunto. Dado el sistema x + 1. Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax = b. a Ejemplo: Consideremos la sucesi´n o x0 = 1. 1. incertidumbre en los datos f´ ısicos recogidos. o • Otras causas de error: equivocaci´n de usuario. 1. mala formulaci´n del o o modelo.j |aij |.1 C´lculos estables e inestables. Condicionamiena to. 1 x1 = .2.086162170293413 × 10 −6 con la definici´n o inductiva y 2.

90625 ∗ 2 = 1. u en: 9 = 2 ∗ (2 ∗ (2 ∗ 1 + 0) + 0) + 1 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 = (1001)2  0.0442 → −0.3 1.524 se almacena como 13524E2 y el −0.25 ∗ 2 = 0. De hecho: o x + 1. y = 100] 1.3. y = 1] ⇒ [x = −100. es decir.β1 β2 . As´ el n´mero 9. redondeo.13524 × 102 .5 1∗2    .25 1 ∗ 2−3 ⇒ −4   .625 1 ∗ 2−2   0. e e Las computadoras utilizan la llamada aritm´tica del punto flotante. prescinde de lo que es com´n a todos los n´meros.0442 como −442E − 1.81250 1 ∗ 2−1    0.. u u y as´ el 13. en contraste con el sistema decimal que normalmente se utiliza. ı Por otra parte.90625 en sistema decimal.01 0. almacenan cada n´mero desplazando sus d´ u ıgitos de modo que aparezca de la forma 0.βn × 10e .1 Aritm´tica de la computadora e Aritm´tica de punto flotante. Esto significa que peque˜os cambios en b producir´n n a grandes cambios en la soluci´n. para almacetodos empezar´n con 0.99x + y = 1 y x + 1.Errores. estabilidad. El ordenador.01y = 1.01y = 1 0. se convierte en binario ı. la mayor parte de las computadoras trabajan con n´meros u reales en sistema binario.625 ∗ 2 = 1.5 ∗ 2 = 1 1 ∗ 2−5 13. · · · y terminar´n con 10 a a narlos ahorrando memoria..99x + y = 1 ⇒ [x = 0. condicionamiento 13 el n´mero de condici´n de la matriz del sistema ser´ k(A) = A · A −1 = u o ıa (1.01)(10100) = 10201. o u u e e .81250 ∗ 2 = 1. Por ejemplo: −0.524 → 0.442 × 10−1 C´mo todos los n´meros se traducen seg´n la aritm´tica del punto flotante.

u u a d1 siempre es 1. ±3.. .. Cuanto m´s u a a o a grande sea p. Como consecuencia de todo lo anterior.14 Cap´ ıtulo 1 0. di ∈ {0. finita. ..112 × 2e con − 3 ≤ e ≤ 3.102 × 2e Como los n´meros ±. El 0 es un caso especial que se almacena como 00. 2. ±3/8. la representaci´n de un n´mero en una computadora ser´ de o u a la forma: ± d1 d2 . por tanto.. ±3/16. ±1/4. en cualquier m´quina solo se pueden almacenar una cantidad a finita de n´meros.dp Ee donde B es la base.0E0. entonces solo se podr´n almacenar n´meros de la forma a u ±. B − 1}. mayor ser´ la precisi´n de la m´quina. La parte d1 d2 .11101)2 Con lo que 1..90625 = 1 ∗ 2−1 + 1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (0. ±3/2. En los ordenadores de base 2. Se o gana con ello un bit que se denomina bit escondido. ±1..dp se llama parte significativa o mantisa. ...11101)2 En general. llamados n´meros m´quina. aumentando la precisi´n.102 × 2e son u y como los n´meros ±. ±1/2.112 × 2e son u . p = 2 y −3 ≤ e ≤ 3.90625 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 + 1 ∗ 2−1 + +1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (1001.102 = 1 × 2−1 + 0 × 2−2 = 1/2 ±4. ± .112 = 1 × 2−1 + 1 × 2−2 = 1/2 + 1/4 = 3/4 ±6. d1 > 0. ±3/4. p es el n´mero m´ximo de bits que puede tener esa parte u a significativa del n´mero que se almacena y es.dp × B e y se almacenar´ de la forma a ±d1 d2 . 1. ±1/8. ±2. con lo que se puede suprimir. Ejemplo: Si en una computadora se tiene que B = 2... p es el n´mero m´ximo u a de bits significativos y e es el exponente de la potencia de B..

con lo cual el n´mero m´ximo que se podr´ u a ıa almacenar ser´ 1 701E38.300 × 102 tanto por redondeo como por trunıa camiento. condicionamiento 15 En este sistema el n´mero 2 9 se almacenar´ seg´n est´ dise˜ada la comu ıa. 3.794 × 104 por redondeo.37 + 0. En la resta: 4850 − 4820 = 0. .Errores.079391 × 105 que se almacena como 0. p = 23 bits. El n´mero m´ a u ınimo en valor absoluto ser´ 1 755E −38. o bien como 3 si se hace por redondeo. el de menor exponente se desplaza para alinear la coma decimal 1. e = 8 bits. Veamos como trabajan y como se pueden generar errores al manejar las operaciones b´sicas y el redondeo: a 1.00269 × 101 = 0.140 × 101 por ıa redondeo.2 Operaciones con computadoras Supongamos una computadora cuyos par´metros sean B = 10. 1. De forma similar se definen desbordamiento negativo a y subdesbordamiento negativo. estabilidad.485 × 104 − 0.403 × 106 · 0. u e n putadora.793 × 104 por truncamiento y 0. Todo n´mero mayor que el anterior estar´ en el ıa u ıa desbordamiento positivo de la m´quina. e ıan u Los par´metros B.0197 = 0. 2. p = 3 y −9 ≤ a e ≤ 9. se multiplican las cifras significativas y se suman los exponentes: 403000 · 0.197 × 10−1 = 0.0269 = 0.137 × 101 + 0.139 × 101 por truncamiento y 0.300 × 102 que se almacenar´ como 0.3.482 × 104 = 0. redondeo. bien como 2 si se hace por truncamiento.137 × 101 + 0.003 × 104 = 0. Todo n´mero positivo menor estar´ en el subdesbordamiento ıa u ıa positivo de la m´quina.13969 × 101 que se almacenar´ como 0. Para la suma. Tambi´n se almacenar´ como 2 los n´meros 2 3 o 2 4.269 × 10−1 = = 0. En el producto. p y e de una m´quina real pueden ser los siguientes: a a B = 2.

. .3 Epsilon de la m´quina a a n u a La diferencia m´s peque˜a entre dos n´meros que puede detectar una m´quina se denomina epsilon de la m´quina. . .0 then s ← 2. se dividen las cifras significativas y se restan los exponeno tes: 0. 2.156 × 104 = 2. 100 do s ← 0. ı u 1.3..) 2 . Otra fuente de error puede ser el paso de sistema decimal a sistema binario.28205 × 10−5 que se almacena como 0.5s t ← s + 1.16 Cap´ ıtulo 1 4.0s output k-1. As´ el n´mero 1/10 en sistema binario es (0.0356/1560 = 0.0001100110011001.356 × 10−1 /0.s stop end if end .0 + ε = 1. En la divisi´n. .0 if t ≤ 1.228 × 10−4 . Tambi´n se puede definir como el menor a e n´mero ε > 0 tal que u 1.0 y se puede calcular programando este algoritmo: input s ← 1.0 for k = 1.

trataremos o de encontrar m´todos que permitan locae lizar valores aproximados de las soluciones de f (x) = 0. Entonces existe c ∈ (a.5 -10 -8 -6 -4 -2 -0. b) tal que f (c) = 0. 1 0. o o Ejercicio: Dada la ecuaci´n ex − sen(x) = 0. encuentra la soluci´n m´s cero a cana a 0.5 -1 f (x) = ex − sen(x) Para resolver ejercicios como el anterior es conveniente recordar los siguientes resultados: Teorema [Bolzano]: Sea f : R → R una funci´n continua en [a. El teorema de Bolzano se utiliza en este contexto para localizar intervalos que contengan una soluci´n de f (x) = 0 cuando la funci´n f (x) sea continua.5 Dada una funci´n f : R → R. o 17 . b] tal o que f (a)f (b) < 0. Ejemplo: Dada la ecuaci´n ex − o sen(x) = 0. localiza un intervalo donde o exista una soluci´n.Cap´ ıtulo 2 Resoluci´n de ecuaciones no o lineales 1.

n! Adem´s. Entonces existe c ∈ (a.x0 (x) = f (x0 ) + f (x0 )(x − x0 ) + · · · + f n) (x0 ) (x − x0 )n . b). b].18 Cap´ ıtulo 2 Teorema [Rolle]: Sea f : R → R una funci´n continua en [a. De este modo. (n + 1)! Teorema [de valor medio]: Sea f : R → R una funci´n continua en o [a. b−a .x0 (x) = f n+1) (θx ) (x − x0 )n+1 . u o Teorema [Taylor]: Sea f : R → R una funci´n n veces derivable en [a. el teorema de Rolle u a se utilizar´ para determinar el n´mero m´ximo de soluciones que puede tener a u a una ecuaci´n f (x) = 0. Dicho polinomio es Pn. Entonces existe c ∈ (a. b] existe un punto θx entre x y x0 tal que a f (x) − Pn. b] y derivable en (a. el n´mero m´ximo de soluciones de f (x) = 0 ser´ u a a el n´mero de soluciones de f (x) = 0 m´s uno. b] existe un polinomio de grado menor o igual que n que tiene un punto de contacto con f (x) de grado n en x0 . b) tal que f (b) − f (a) = f (c). b) y tal que f (a) = f (b). b). o Ejercicio: Determina el n´mero de soluciones de la ecuaci´n ex − x = 0. entre o cada dos soluciones de la ecuaci´n f (x) = 0 debe existir al menos una soluci´n o o de f (x) = 0. para cada x ∈ [a. derivable o en (a. Del teorema de Rolle se deduce que. Por tanto. si f (x) cumple las hip´tesis. b] o y n + 1 veces derivable en (a. b) tal que f (c) = 0. Entonces. para cada x0 ∈ [a.

´ Resolucion de ecuaciones no lineales 19 2. b2 ] y calculamos c2 = a2 +b2 .1 2. definimos a2 = a1 y b2 = c1 . Si f (cn−1 ) > 0. . entonces e o n→∞ lim an = lim bn = lim cn = r n→∞ n→∞ y adem´s f (r) = 0. 2 Paso 2. denotan los intervalos utilizados en el m´todo de la bisecci´n. . 2 Paso n. . definimos a2 = c1 y b2 = b1 . 2 2. Supongamos que f (a) < 0 y f (b) > 0 (de forma a n similar se razonar´ si f (a) > 0 y f (b) < 0). [an . . Por la construcci´n de las sucesiones se tiene que o o a ≤ a 1 ≤ a 2 ≤ · · · ≤ b 2 ≤ b1 ≤ b 1 1 (bn − an ) = (bn−1 − an−1 ) = · · · = n (b − a).1. b]. . la sucesi´n (an )n∈N converge por ser creciente y acotada superioro mente y la sucesi´n (bn )n∈N converge por ser decreciente y acotada inferioro mente. definimos an = cn−1 y bn = bn−1 .1 M´todo de la bisecci´n e o Descripci´n del m´todo o e Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos cada vez m´s peque˜os. En ambos casos. 2 2 Por tanto. estudiamos el intervalo [a2 . En ambos casos. .2 Convergencia del m´todo e Teorema: Si [a. definimos an = an−1 y bn = cn−1 .1. n→∞ 2n . Si f (c0 ) > 0. bn ]. definimos a1 = a y b1 = c0 . . b1 ]. 2 Paso 1. Partimos del intervalo [a. estudiamos el intervalo [an . b1 ] y calculamos c1 = a1 +b1 . b] y calculamos c0 = a+b . Si f (c1 ) < 0. Si f (c1 ) > 0. En ambos casos. estudiamos el intervalo [a1 . Si f (cn−1 ) < 0. Veamos que sus l´ ımites son iguales n→∞ y lim bn − lim an = lim(bn − an ) = lim n→∞ 1 (b − a) = 0. ıa Paso 0. [a1 . definimos a1 = c0 y b1 = b. Si f (c0 ) < 0. a Demostraci´n. bn ] y calculamos cn = an +bn .

Los c´lculos ser´ los siguientes: a ıan a0 = −4 a1 = −3.0277 f (c5 ) = 0. −3].0694 f (c2 ) = 0.1875 b0 = −3 b1 = −3 b2 = −3 b3 = −3. Veamos ahora que r es la soluci´n de f (x) = 0 o utilizando las hip´tesis de continuidad de f (x) y la condici´n f (an )f (bn ) ≤ 0 : o o 0 ≥ f (r)f (r) = f ( lim an )f ( lim bn ) = n→∞ n→∞ n→∞ lim f (an ) lim f (bn ) = lim f (an )f (bn ) ≤ 0.25 a3 = −3.3206 f (c1 ) = −0.125 b4 = −3. tendremos soluci´n exacta. Aplicaremos el m´todo de la bisecci´n a la funci´n f (x) = ex − sen(x).175 c6 = −3.0084 La soluci´n aproximada propuesta ser´ −3. como queremos que el error sea menor que 10 o que: 1 1 1 |r − cn | ≤ n+1 |b − a| = n+1 | − 3 − (−4)| = n+1 < 10−2 2 2 2 por lo que n ≥ 6. o ıa .15625 b6 = −3. tendremos que calcular c6 .18125.3 Aproximaci´n y error o o o o Una aproximaci´n a la soluci´n de la ecuaci´n f (x) = 0 en el paso n es cn . Por e o o el teorema de Bolzano sabemos que hay una soluci´n de f (x) = 0 en el intervalo o [−4.15625 c5 = −3.25 a4 = −3. 2 2 2 Ejemplo: Encuentra una aproximaci´n de la soluci´n de ex = sen(x) con o o un error menor que 10−2 .1875 a5 = −3. es decir.125 c3 = −3.5 c1 = −3.1.0554 f (c3 ) = −0. Una cota del error cometido ser´: a 1 1 1 |r − cn | ≤ |bn − an | = 2 |bn−1 − an−1 | = n+1 |b − a|. Si cn es la aproximaci´n y r es la o −2 .1875 a6 = −3.5 a2 = −3. n→∞ n→∞ Por tanto f (r) = 0 que era lo que se ten´ que probar. puesto que f (−4) < 0 y f (−3) > 0.0046 f (c4 ) = 0.1875 c4 = −3.25 c2 = −3.20 Dado lo anterior y puesto que an ≤ cn ≤ bn se concluye que n→∞ Cap´ ıtulo 2 lim an = lim cn = lim bn .175 c0 = −3. n→∞ n→∞ Llamemos a ese l´ ımite r.125 b5 = −3. ıa 2.18125 f (c0 ) = −0.

4 0.5 -1 0.360538 c0 c1 c2 c3 c4 = 0.94 ∗ 10− 3 f (c3 ) = 2.360433 f (c0 ) = 0.2 -0.94 ∗ 10− 5 1 0.360538 = 0. f (bn ) − f (an ) El paso siguiente es elegir el intervalo formado por los puntos an y cn o bien el formado por cn y bn asegurando que la funci´n en los extremos sea de signo o contrario. 1].1.372277 = 0.5 0.265160 f (c1 ) = 0.4 Variaciones del m´todo: Regula Falsi e El m´todo de la Regula-falsi difiere respecto de la bisecci´n en el c´lculo del e o a punto cn .029533 f (c2 ) = 2.372277 = 0.470990 = 0.361598 = 0.6 0.8 1 regula falsi para f (x) = 3x + sen(x) − ex . de f (x) = 3x + sen(x) − e a0 a1 a2 a3 a4 =0 =0 =0 =0 =0 b1 b2 b3 b4 b0 = 1 = 0. Ejemplo: Aplicar el m´todo de la regula falsi para encontrar una soluci´n e o x = 0 a partir del intervalo [0. Con este m´todo se calcula as´ e ı: cn = bn − f (bn ) bn − an .361598 = 0.470990 = 0.94 ∗ 10− 4 f (c4 ) = 2.´ Resolucion de ecuaciones no lineales 21 2.

x2 . . .x0 = 0. 2 y 3 sustituyendo el punto xn−1 por el punto xn .1 M´todo de Newton-Raphson e Descripci´n del m´todo o e Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´n o f (x). en vez de resolver o f (x) = 0. Paso 2. f (xn−1 ) 2xn−1 . Utilizamos P1. x1 . su l´ r = lim xn = lim xn−1 − n→ n→ f (xn−1 ) f (r) f (r) =r− ⇒ = 0 ⇒ f (r) = 0. resolvemos P1. Paso 1. es decir. es decir construimos la sucesi´n o xn = xn−1 − f (xn−1 ) . construimos la sucesi´n o o xn = xn−1 − x2 − 2 f (xn−1 ) = xn−1 − n−1 .x0 (x) como aproximaci´n de f (x) y. f (x0 ) y repetimos los pasos 1. Calculamos el polinomio de Taylor de f (x) de grado 1 en x0 P1. Definimos x1 = x 0 − f (x0 ) f (x0 ) f (x0 ) . f (xn−1 ) Cuando la sucesi´n x0 .22 Cap´ ıtulo 2 2.2 2.2. f (xn−1 ) f (r) f (r) Ejemplo√ Aplica el m´todo de Newton-Raphson para encontrar una aproe ximaci´n de 2. es decir f (x0 ) + f (x0 )(x − x0 ) = 0 ⇒ x = x0 − Paso 3. es convergente y la funci´n f (x) tiene cierta o o ımite r es la soluci´n puesto que o regularidad. . bastar´ encontrar una aproo a 2 − 2 = 0. Partimos de un punto inicial x0 . o √ Puesto que queremos una aproximaci´n de 2.x0 (x) = f (x0 ) + f (x0 )(x − x0 ). Utilizamos el m´todo de Newton-Raphson aplicado a ximaci´n de x o e la funci´n f (x) = x2 − 2.

´ Resolucion de ecuaciones no lineales

23

Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´n. Comenzamos o por el punto x0 = 1.5 : x0 = 1.5, x1 = 1.4167, x2 = 1.4142, x3 = 1.4142, ...

La aproximaci´n ser´ 1.4142. o ıa

2.2.2

Convergencia del m´todo e

Teorema: Si en un cierto intervalo se verifica que f ∈ C 2 (R), estrictamente creciente, f (x) ≥ 0 y f tiene un cero, entonces el cero es unico y la iteraci´n ´ o de Newton-Raphson converger´ a partir de cualquier punto inicial. a

0.5 8 0.4 6 0.3 4 0.2 2 0.1 -1 -2 1 2 3 4 -2 -1 1 2

Newton Raphson converge

Newton Raphson no converge

Demostraci´n. Sea x0 , x1 , . . . , xn la sucesi´n construida por el m´todo de o o e Newton-Raphson, r la soluci´n de la ecuaci´n f (x) = 0 y en = xn − r el error o o en el paso n. Por el teorema de Taylor sabemos que: 0 = f (r) = f (xn ) + f (xn )(−en ) + Por tanto en f (xn ) − f (xn ) = De modo que f (θn ) (−en )2 . 2

f (θn ) 2 en . 2

24

Cap´ ıtulo 2

en+1 = xn+1 − r = xn −

f (xn ) f (xn ) − r = en − = f (xn ) f (xn ) en f (xn ) − f (xn ) f (θn )e2 n = ≥0 f (xn ) 2f (xn ) f (xn ) ≤ en . f (xn )

Por lo tanto xn+1 ≥ r ⇒ f (xn ) ≥ f (r) = 0 ⇒ en+1 = en −

Puesto que xn+1 ≥ r y el error va decreciendo, se concluye que la sucesi´n o (xn )n∈N es decreciente y acotada inferiormente por r, por lo tanto tiene l´ ımite. As´ mismo, la sucesi´n (en )n∈N es decreciente y acotada inferiormente por 0, ı o por lo tanto tambi´n tiene l´ e ımite. Se deduce que
n→∞

lim en+1 =

f (xn ) = n→∞ f (xn ) f (limn→∞ xn ) ⇒ f ( lim xn ) = 0 lim en − n→∞ n→∞ f (limn→∞ xn ) lim en −

(2.1)

y puesto que f (x) es estrictamente creciente se obtiene que limn→∞ xn = r (en caso contrario f (limn→∞ xn ) > f (r) = 0), es decir, la sucesi´n de Newtono Raphson converge a la soluci´n. o

2.2.3

Aproximaci´n y error o

La aproximaci´n a la soluci´n en el paso n del m´todo de Newton-Raphson es o o e xn . Por el razonamiento anterior sabemos que en+1 = f (xn ) 2 e . 2f (xn ) n

Si encontramos una constante C tal que C≥ maxx∈I |f (x)| 2 minx∈I |f (x)|

siendo I un intervalo que contenga a la sucesi´n (xn )n∈N y a la soluci´n r, o o tendremos que |en+1 | ≤ Ce2 n

´ Resolucion de ecuaciones no lineales

25

lo que significa que la convergencia de la sucesi´n de errores es cuadr´tica. En o a estas condiciones C|en+1 | ≤ C 2 e2 ≤ C 2 (Ce2 )2 ≤ · · · ≤ (Ce0 )2 n n−1 es decir C|en | ≤ (Ce0 )2 ⇒ |en | ≤
n n+1

1 n (Ce0 )2 C que es una cota del error que se puede obtener previamente a aplicar el m´todo. e 1 Si |Ce0 | < 1, o lo que es lo mismo |e0 | < C , siendo e0 = x0 − r, tendremos que |en | ≤ 1 n (Ce0 )2 → 0 C

con lo que tenemos otro criterio de convergencia del m´todo. e Ejemplo: Calcula el n´mero de pasos necesarios para encontrar la ra´ u ız −6 cuadrada de 3 con un error menor que 10 1. Con el m´todo de Newton-Raphson e 2. Con el m´todo de la bisecci´n. e o Puesto que la ra´ cuadrada de 3 es soluci´n de x2 − 3 = 0, aplicaremos ız o 2 − 3. Puesto que f (x) es continua en [1, 2] los m´todos a la funci´n f (x) = x e o y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano se sabe que en [1, 2] hay una soluci´n de f (x) = 0. o Apartado 1). Aplicamos el primer criterio para saber si el m´todo de e Newton-Raphson converger´ en el intervalo [1, 2]. f (x) es un polinomio y por a tanto es de clase C 2 . Como f (x) = 2x > 0 en [1, 2], la funci´n es estrictamente o creciente en [1, 2]. Adem´s f (x) = 2 > 0 en [1, 2]. Por todo ello, podemos a asegurar que el m´todo de Newton-Raphson converger´ a partir de cualquier e a punto de [1, 2]. Veamos el n´mero de iteraciones necesarias para que el error sea menor u −6 . Sabemos que que 10 1 n |en | ≤ (Ce0 )2 C siendo maxx∈[1,2]|f (x)| 2 2 1 C≥ = = = . 2 minx∈[1,2] |f (x)| 2 minx∈[1,2] |2x| 2·2 2

73205 x2 = 1. Luego basta con 5 iteraciones. o 2.26 Por tanto 1 |en | ≤ 1/2 1 e0 2 Cap´ ıtulo 2 2n =2 1 e0 2 2n Si n = 4. No e obstante. es decir.75 Apartado 2). Ejemplo: Dada la ecuaci´n e−x − x = 0.73414 x4 = 1. entonces |e19 | ≤ 9. 1] se puede asegurar que en dicho intervalo hay una soluci´n de la ecuaci´n f (x) = 0.66 ∗ 10−10 . necesitamos 19 iteraciones. 1]. lo aplicamos empezando en el punto x0 = 0 xn+1 = xn − e−xn − xn −e−xn − 1 x3 = 0. o o Como f (x) = e−x −1 < 0 en [0.566311 . Calcula una cota del error cometido. entonces |e4 | ≤ 3. f (xn−1 ) 2xn−1 2xn−1 x3 = 1.73205 x5 = 1.567143 x4 = 0. Sea f (x) = e−x − x.5 x2 = 0. Sabemos que |en | ≤ 1 1 (b − a) = n+1 < 10−6 2n+1 2 y si n = 19.54 ∗ 10−7 .567143 x0 = 0 x1 = 0. entonces |e5 | ≤ 4. Aplicamos el m´todo empezando en el punto x0 = 1 e xn = xn−1 − x0 = 1 x1 = 2 x2 − 3 x2 + 3 f (xn−1 ) = xn−1 − n−1 = n−1 . o 1. Aplica el m´todo de Newton-Raphson con 4 iteraciones para encontrar e la soluci´n. 1] no podemos aplicar el criterio para asegurar que el m´todo funcione empezando en cualquier punto del intervalo [0.051 ∗ 10−5 Si n = 5. Aplicando el teorema de Bolzano al intervalo [0.

f (xn−1 ) − f (xn−2 ) Por tanto hay que utilizar dos puntos iniciales en lugar de uno. con 4 iteraciones del m´todo o e de la secante.4 Variaciones del m´todo: M´todo de la secante e e e Teniendo en cuenta quef (xn ) = limh→0 f (xn +h)−f (xn ) este m´todo se diferenh cia del de Newton-Raphson en que se sustituye f (xn ) por el valor aproximado f (xn−1 )−f (xn−2 ) de modo que la sucesi´n que queda es o xn−1 −xn−2 xn = xn−1 − f (xn−1 ) xn−1 − xn−2 . 2].2] | − e−x − 1| e 1 = ≈ 0. xn = xn−1 − (x2 − 2) n−1 x2 n−1 xn−1 − xn−2 xn−1 − xn−2 = xn−1 − (x2 − 2) 2 n−1 2 − 2 − [xn−2 − 2] xn−1 − x2 n−2 y tomando tomando x0 = 1 y x1 = 2 nos queda x0 = 1 x1 = 2 x2 = 1.365529.2.4 x4 = 1.33 ∗ 10−7 0 n 2. a a o a √ Ejemplo: Calcula una aproximaci´n de 2. Es un m´todo e m´s r´pido que el de la bisecci´n pero m´s lento que el de Newton-Raphson.3333 x3 = 1.1] |e−x | maxx∈I |f (x)| = = 2 minx∈I |f (x)| 2 minx∈[1.´ Resolucion de ecuaciones no lineales Calculemos una cota del error C|e4 | ≤ (Ce0 )2 siendo C ≥ maxx∈[0.3715 116 ≈ 0. Aplicamos el m´todo a la soluci´n de la ecuaci´n f (x) = x2 − 2 = 0 en el e o o intervalo [1. 2(1/e + 1) 2(e + 1) n −1 n 27 Por tanto |e4 | ≤ C 2 e2 ≤ 0.4146 .

por el o teorema de Bolzano sabemos que hay una soluci´n en el intervalo [1. para resolver la ecuaci´n o o F (x) = x se construye la sucesi´n o xn = F (xn−1 ). 2]. o 3 − x − 1 = 0 es equivalente a resolver una de estas Resolver f (x) = x ecuaciones √ 3 x3 − 1 = x o bien 1 + x = x. o n→∞ entonces F (r) = F ( lim xn ) = lim F (xn ) = lim xn+1 = r. . el l´ ımite de xn es un punto fijo de F (x). si r = lim xn .5 -1 1. Una soluci´n r de F (x) = x se denomina un punto fijo de o o la funci´n F (x). n→∞ n→∞ n→∞ es decir. se denomina e m´todo iterativo de punto fijo.5 Cap´ ıtulo 2 M´todo de la secante para f (x) = x2 − 2 e 2. A menudo. e Como pretendemos resolver la ecuaci´n f (x) = x3 − x − 1 = 0. La b´squeda de soluciones u de F (x) = x empleando sucesiones de la forma xn = F (xn−1 ). debido a que F (r) = r.28 4 3 2 1 0.3 2.1 M´todo iterativo de punto fijo e Descripci´n del m´todo o e Ciertos problemas de aproximaci´n se pueden resolver encontrando una soluo ci´n de F (x) = x.5 2 2.3. Ejemplo: Encuentra una soluci´n real de x3 − x − 1 = 0 usando cinco o pasos de un m´todo iterativo de punto fijo. Cuando la sucesi´n xn es convergente y F (x) es continua.

ıa 2.´ Resolucion de ecuaciones no lineales 29 con lo que podemos aplicar el m´todo iterativo de punto fijo para resolver la e √ ecuaci´n F (x) = x siendo F (x) = x3 −1 o bien F (x) = 3 1 + x. para la funci´n F (x) = 1 + x la sucesi´n que sale s´ es o o ı convergente a un n´mero r.3123 x3 −2 1. 1].3246. Construyamos o la sucesi´n xn = F (xn−1 ) para ambas funciones. 1].2600 x2 −1 1. comenzando por un punto o del intervalo [1. entonces F tiene un unico punto fijo r ∈ C. es decir.3246 Es claro que para la funci´n F (x) = x3 −√ la sucesi´n no resulta convero 1.3224 x4 −9 1. y ∈ [0. f (r) = 0. y ∈ C. o Teorema: Si F es una funci´n contractiva que va de un cerrado C ⊂ R o en C (F (C) ⊂ C).2 Convergencia del m´todo e Definici´n: Sea F : R → R una funci´n. . Sin embargo. o 3 gente. 2]. Se dice que F es contractiva en un o o conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que ∀x. Dicho n´mero. puesto que F (x) es continua. Adem´s ´ a r es el l´ ımite de cualquier sucesi´n que se obtenga a partir de la expresi´n o o xn+1 = F (xn ) siendo x0 ∈ C. Por tanto la funci´n es contractiva con λ = 1/3. veriu u ficar´ que F (r) = r. Por el teorema del valor medio |F (y) − F (x)| = |F (θ)(y − x)| = 1 3 3 |F (x) − F (y)| ≤ λ|x − y| (1 + θ)2 (y − x) ≤ 1 1 √ (y − x) = |y − x| 3 3 3 1 ≤ para todo x. por ejemplo por x0 = 1 resulta lo siguiente: xn = F (xn−1 ) F (x) = √3 − 1 x F (x) = 3 1 + x x0 1 1 x1 0 1.3. √ Ejemplo: Comprueba que la funci´n F (x) = 3 1 + x es contractiva en o [0. La mejor aproximaci´n de r obtenida a o ser´ 1.3243 x5 −730 1.

Veamos que (xn )n∈N converge. xn .30 Cap´ ıtulo 2 Demostraci´n. . r − xn . o o hay un punto fijo. la sucesi´n (xn )n∈N tambi´n lo es. se tiene que F (r) = r. Sea r = o e limn→∞ xn . r ∈ C por ser C un conjunto cerrado y xn ∈ C. . xn = x0 + x1 − x0 + x2 − x1 + · · · + xn − xn−1 = x0 + por lo que n n→∞ ∞ k=1 (xk − xk−1 ) lim xn = x0 + lim ∞ k=1 (xk n→∞ k=1 (xk − xk−1 ) = x0 + k=1 (xk − xk−1 ) La serie ∞ k=1 − xk−1 ) es convergente porque ∞ ∞ (xk − xk−1 ) ≤ k=1 |xk − xk−1 | ≤ k=1 λk−1 (x1 − x0 ) = |x1 − x0 | 1 1−λ Como la serie es convergente. Por la construcci´n de la sucesi´n. es decir. o 2. Sea x0 . . . o o o entonces si f (x) es continua y derivable. Por ser contractiva o se tiene que |xn − xn−1 | = |F (xn−1 ) − F (xn−2 )| ≤ λ|xn−1 − xn−2 | ≤ Por otra parte n λ2 |xn−2 − xn−3 | ≤ · · · ≤ λn−1 |x1 − x0 |.3 Aproximaci´n y error o Si r es soluci´n de f (x) = 0 obtenida por iteraci´n de una funci´n F (x).3. Supongamos que hubiese dos puntos fijos r1 y r2 . x2 . x1 . la sucesi´n generada mediante la o o expresi´n xn+1 = F (xn ). Entonces ´ |r1 − r2 | = |F (r1 ) − F (r2 )| ≤ λ|r1 − r2 | < |r1 − r2 | llegando a contradicci´n. . existe θn ∈ R entre r y xn tal que f (r) − f (xn ) = f (θn ). . Falta ver que es unico. .

4. la sucesi´n xn+1 = F (xn ) converger´ a un punto fijo a partir de o a cualquier valor inicial x0 .r] |f (θ)| La f´rmula anterior nos proporciona un m´todo para encontrar una cota de o e error a posteriori y se puede aplicar a cualquier m´todo iterativo de punto fijo. 4. se deduce que f (xn ) |f (xn )| f (xn ) ⇒ |en | ≤ .5]. = f (θn ) ⇒ en = en f (θn ) minθ∈[xn .5] se deduce que hay o una soluci´n de f (x) = 0 en dicho intervalo. Veamos si F (x) es contractiva o aplicando el teorema del valor medio 2 2 |F (y) − F (x)| = |F (θ)(y − x)| = | cos(2x)(y − x)| ≤ |y − x|. o Ejemplo: Encuentra una soluci´n de la ecuaci´n 4 + 1 sin(2x) − x = 0 o o 3 con un m´todo iterativo de punto fijo estimando una cota del error a priori y e otra a posteriori. Calculamos cinco iteraciones empezando en x0 = 0 : .5. e Si F (x) es contractiva de constante λ entonces |xn+p − xn | = |xn+p − xn+p−1 | + |xn+p−1 − xn+p−2 | + · · · + |xn+1 − xn | ≤ ≤ λn+p−1 |x1 − x0 | + λn+p−2 |x1 − x0 | + · · · + λn |x1 − x0 | = = (λn+p−1 + λn+p−2 + · · · + λn )|x1 − x0 | = = λn (λp−1 + λp−2 + · · · + 1)|x1 − x0 | 1 1−λ de modo que cuando p tiende a infinito ∞ |en | = |r − xn | ≤ λ n k=0 λk = λ n |x1 − x0 | que es una f´rmula que permite calcular una cota de error a priori.5 ≤ 4 + 3 sin(2x) ≤ 4. Sea f (x) = 4 + 1 sin(2x) − x y F (x) = 4 + 1 sin(2x).5.5.5. 1 Por otra parte.5]) ⊂ [−3. Por tanto. puesto que −3. se deduce que F ([−3. 4.´ Resolucion de ecuaciones no lineales 31 Suponiendo que xn ≤ r y puesto que f (r) = 0 y −en = r − xn . Aplicando el teorema 3 3 de Bolzano a la funci´n f (x) en el intervalo [−3. 3 3 2 Se deduce que F (x) es contractiva con constante λ = 3 .

Definici´n: Una soluci´n r de una ecuaci´n f (x) = 0 se dice que tiene o o o multiplicidad n si f (r) = f (r) = · · · = f n−1) (r) = 0 f n) (r) = 0. Una cota del error para x5 a posteriori ser´ ıa |e5 | ≤ |f (x5 )| 0.273633799 Cap´ ıtulo 2 x5 4.329786082 x3 4.4. ≤ 2 1/3 minθ∈[−3. por tanto. Sin embargo podemos intentar calcular las ra´ ıces de otro polinomio con las mismas soluciones que el nuestro pero todas con multiplicidad 1.5] | 3 cos(2θ) − 1| 2.32 x0 0 x1 4 x2 4. .00239847. Para la localizaci´n de ra´ o ıces de polinomios con multiplicidad par (como en el ejemplo anterior) no podemos emplear el teorema de Bolzano.00719542 = 0. Ejemplo: r = 1 es una soluci´n de multiplicidad 2 para la ecuaci´n o o x2 − 2x + 1 = 0. hay que aplicar m´todos num´ricos para el e e c´lculo de dichas ra´ a ıces.5.230895147 x4 4.4 Ra´ ıces de polinomios No existe ninguna f´rmula algebraica para la resoluci´n de ra´ de polinomios o o ıces de grado mayor que 4.5802 que no es una cota muy buena.256383406 Una cota del error para x5 a priori ser´ ıa |e5 | ≤ 2 3 5 1 1− 2 3 |4 − 0| ≈ 1.

Pn (x)) tiene las mismas ra´ ıces que P (x) pero todas con multiplicidad 1.5 1 1. . podemos descomponerlo as´ ı: Pn (x) = an (x − rk )mk (x − rk−1 )mk−1 . De modo que dado un polinomio Pn (x).C. El m´ximo com´n divisor de a u Pn (x) y de Pn (x) es D(x) = M.8 0. .4 0.6 0. .´ Resolucion de ecuaciones no lineales 1 0.D(Pn (x). El problema es el c´lculo de Q(x) y de M. . (x − r1 )m1 −1 por lo que el polinomio Q(x) = P (x) = an (x − rk )(x − rk−1 ) .2 0. Bastar´ ıa aplicar los m´todos a Q(x) para localizar las ra´ e ıces de Pn (x).C.5 2 33 f (x) = x2 − 2x + 1 Teorema [Teorema fundamental del ´lgebra]: Un polinomio de grado n a con coeficientes reales tiene exactamente n ceros o ra´ ıces entre los n´meros u complejos C. Si derivamos. contando cada cero tantas veces como indique su multiplicidad. Pn (x)) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 . Pn (x)). . . (x − r1 )m1 siendo mi la multiplicidad de la ra´ i-´sima. . a .D(Pn (x).D(Pn (x). (x − r1 )m1 −1 M (x) siendo M (x) un polinomio tal que M (ri ) = 0. obtenemos que ız e Pn (x) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 . .C. (x − r1 ) M.

. La diferencia entre el n´mero de cambios de signos de las sucesiones siguientes u Pn (a). −rk−2 (x) = c1 (x)Pn (x) + r1 (x) = c2 (x)(−r1 (x)) + r2 (x) = c3 (x)(−r2 (x)) + r3 (x) = ck (x)(−rk−1 (x)) + rk (x) Puede ocurrir lo siguiente: 1. o La sucesi´n de Sturm nos permite calcular el n´mero de ra´ de un polinomio o u ıces en un intervalo [a.34 Cap´ ıtulo 2 2. En este caso la sucesi´n de Sturm es o Pn (x).1 Separaci´n de ra´ o ıces. Sucesi´n de Sturm. Hay un resto rk (x) = 0. −rk (x). Pn (x) y a los restos obtenidos cambiados de signo: Pn (x) Pn (x) −r1 (x) . −r1 (x).4. . . −rk (a) Pn (b). ıces 2. b]. . −r1 (b). . En este caso rk−1 (x) es el m´ximo com´n a u divisor de Pn (x) y de Pn (x). Llegamos a un resto rk (x) constante distinto de 0. . . −rk (b) es el n´mero de ra´ u ıces de Pn (x) en el intervalo [a. Pn−1 (b). . Pn−1 (a). . Construimos entonces la sucesi´n de Sturm coo rrespondiente al polinomio Q(x) = Pn (x) rk−1 (x) que es un polinomio que tiene las mismas ra´ que Pn (x) pero todas simples. . −r1 (a).. . Pn−1 (x). . . . Para construir la sucesi´n de Sturm aplicamos la divisi´n de polinomios o o repetidas veces a Pn (x). b]. Sea Pn (x) un polinomio de grado n y Pn (x) su derivada.

12x La derivada de P (x) es P (x) = 144x3 −36x2 −22x+2. Estudiamos algunos cambios de signo: 6x2 − x − 1 12x − 1 25 24 cambios de signo −∞ + + 2 -2 + + 2 En el intervalo (∞. El tercer miembro de la sucesi´n de Sturm es 300x2 − 50x − 50. Podemos multiplicar los polinomios implicados por numeros positivos para facilitar los c´lculos sin a que ello afecte al objetivo perseguido. o En el intervalo (−2. Comenzamos los c´lculos: a 1. Construimos la sucesi´n de Sturm para Q(x). . −2) y en (0. o 6x2 − x − 1 = (− Con la sucesi´n es o 6x2 − x − 1. −x−1 x −25 1 + )(12x − 1) + 24 2 24 25 24 0 + 1 2 + + + 0 ∞ + + + 0 4.´ Resolucion de ecuaciones no lineales 35 Ejemplo: Localiza en intervalos disjuntos las ra´ ıces del P (x) = 36x 4 − 3 − 11x2 + 2x + 1. Multiplicamos Pn (x) por 4 y efectuamos la primera divisi´n: o 144x4 −48x3 −44x+8x+4 = (x−1)(144x3 −36x2 −22x+2)+(−300x2 +50x+50). 0) hay una ra´ y hay otra en el intervalo (0. 2) no hay ninguna ra´ porque en los extremos ız de los intervalos la sucesi´n de Sturm tiene los mismos cambios de signo. 2) porque ız la diferencia de cambios de signo en los extremos en ambos casos es 1. calculamos el polinomio Q(x) = 6x2 P (x) = 6x2 − x − 1. 2. Efeco tuamos la siguiente divisi´n: o 144x3 − 36x2 − 22x + 2 = 2/50(12x − 1)(300x2 − 50x − 50) + 0 3. 12x − 1. Como hay un resto que es 0 el m´ximo com´n divisor de P (x) y P (x) es a u 300x2 − 50x − 50 o bien dividiendo por 50 6x2 − x − 1.

−3). ∞) no hay ninguna ra´ ız porque en los extremos de los intervalos la sucesi´n de Sturm tiene los mismos o cambios de signo. Multiplicamos −r1 (x) por 2 y calculamos −r3 (x): 9 −1 18x2 + 18x + 4 = (9x + )(2x + 1) + . (−2. Para facilitar el c´lculo multiplicamos P (x) por 2 y calculamos es tercer miembro a de la sucesi´n de Sturm: o 9 9 1 2x4 + 4x3 − 6x2 − 8x − 1 = (x + )(2x3 + 3x2 − 3x − 2) + (− x2 − x − 1). (0. 2 Separamos las ra´ ıces en intervalos disjuntos: x4 + 2x3 − 3x2 − 4x − 1 2x3 + 3x2 − 3x − 2 9x2 + 9x + 2 2x + 1 1 2 cambios de signo -1/2 + 0 + 2 0 + + + 1 1 0 + + + 1 2 + + + + + 0 ∞ + + + + + 0 En el intervalo (∞. 2x + 1. 2 2 Con lo que la sucesi´n queda as´ o ı: 2x3 + 3x2 − 3x − 2. −∞ + + + 4 -3 + + + 4 -2 0 + + 3 -1 + + + 3 x4 + 2x3 − 3x2 − 4x − 1. 9x2 + 9x + 2. En cada uno de los intervalos (−3. −2). 2 2 2 Podemos multiplicar por 2 el resto con lo que −r1 (x) = 9x2 − 9x + 2. (−1. . 0 y (1.36 Cap´ ıtulo 2 Ejemplo: Localiza en intervalos disjuntos las ra´ del P (x) = x4 +2x3 − ıces − 4x − 1. Dividiendo por 20 podemos suponer que −r2 (x) = 2x + 1. −1). 3x2 La derivada es P (x) = 4x3 + 6x2 − 6x − 4 = 2(2x3 + 3x2 − 3x − 2). −1/2). 1) y en (2. Para facilitar los c´lculos multiplicamos P (x) por 9 y calculamos el siguiente a miembro de la sucesi´n: o 18x3 + 27x2 − 27x − 18 = (2x + 1)(9x2 + 9x + 2) + (−40x − 20). 2) hay una ra´ porque la diferencia de cambios de signo en los extremos en ambos ız casos es 1. −1/2. 1 .

Proposici´n: Sea P (x) = an xn + an−1 xn−1 + · · · + a0 . es trivial que |r| < 1 + A .4.´ Resolucion de ecuaciones no lineales 37 2. usando la proposici´n anterior obtenemos o que cualquier ra´ r del polinomio verifica lo siguiente ız |r| < 1 + A 4 = 1 + = 5 ⇒ −5 < r < 5. entonces A |r| < 1 + |an | Demostraci´n. Com A = max1≤i≤n−1 |ai | = 4. |an | A |r| − 1 con lo que concluimos que A |an | .2 Acotaci´n de ra´ o ıces siendo A = max0≤i≤n−1 |ai |. Si r es una ra´ de o ız P (x). |an | 1 . Ejemplo: Acota las ra´ ıces del polinomio P (x) = x4 + 2x3 − 3x2 − 4x − 1. 0 > |an | − A A A ⇒ |an | < ⇒ |r| − 1 < |r| − 1 |r| − 1 |an | |r| < 1 + Si |r| ≤ 1. Supongamos que |r| > 1. o 0 = |P (r)| = |an rn + an−1 rn−1 + · · · + a0 | ≥ ≥ |an rn | − |an−1 rn−1 + · · · + a0 | ≥ |an rn | − A |r|n−1 + · · · + |r| + 1 = |r|n − 1 |r|n |an rn | − A > |an ||r|n − A |r| − 1 |r| − 1 ≥ |an rn | − |an−1 ||rn−1 | + · · · + |a0 | ≥ > |r|n |an | − es decir.

bn−1 x0 bn−2 x0 . .. Sea P (x) = Q(x)(x − x0 ) + R (R ser´ constante) el resultado de dividir P (x) entre (x − x0 ). Adem´s. b0 = a1 +b1 x0 P (x0 ) = a0 +b0 x0 . . ´ a Sea x0 ∈ R y P (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 . P (x0 ) ..38 Cap´ ıtulo 2 2. a1 a0 x0 bn−1 x0 bn−2 x0 . . . . a1 a0 b1 x0 b0 x0 b0 P (x0 ) que tambi´n es una forma sencilla de calcular P (x0 ). . Supongamos a que Q(x) = bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 . Entonces P (x0 ) = R y P (x) = Q(x)(x − x0 ) + P (x0 ). . . . P (x) − P (x0 ) = Q(x)(x − x0 ) es decir an xn + an−1 xn−1 + · · · + a1 x + a0 − P (x0 ) = = (bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 )(x − x0 ) Desarrollando e igualando los coeficientes de ambos t´rminos se deduce e que bn−1 = an . El algoritmo de Horner hace estos ultimos c´lculos de forma sencilla para polinomios. an x0 bn−1 . bn−2 = an−1 +bn−1 x0 . .. .4. . bn−2 bn−3 . b0 P (x0 ) x0 cn−2 x0 cn−3 x0 . . e a P (x) = Q(x)(x − x0 ) + R ⇒ P (x) = Q (x)(x − x0 ) + Q(x) ⇒ P (x0 ) = Q(x0 ). . con lo que La obtenci´n de los coeficientes bi se pueden representar gr´ficamente as´ o a ı an−1 an−2 .3 Ra´ ıces de polinomios con el algoritmo de Horner Si usamos el m´todo de Newton-Raphson para encontrar las ra´ e ıces de un polinomio P (x) hemos de calcular P (xn ) y P (xn ). b1 x 0 b0 x0 bn−1 bn−2 bn−3 . c0 x 0 cn−2 cn−3 cn−4 . . De modo que para calcular P (x0 ) podemos aplicar el algoritmo gr´fico anterior a a Q(x) : an an−1 an−2 . .

f (xn ) . entonces puede ocurrir que la soluci´n r verifique que o f n) (r) = 0 ∀ 0 ≤ n < k y f k) (r) = 0. o se puede acelerar la convergencia de la sucesi´n calcul´ndola as´ o a ı xn+1 = xn − k f (xn ) . se puede intentar aplicar el m´todo de Newtone Raphson. 2.4. es decir que r sea una soluci´n de f (x) = 0 de multiplicidad k. Sea o no f (x) un polinomio. f (xn ). . Si las derivadas hasta orden k − 1 son casi 0 en los valores xn y f k) (xn ) no es cercano a 0. 2 1 −3 4 −5 4 10 14 36 2 5 7 18 31 2 4 18 50 2 9 25 68 2 Se concluye que P (2) = 31 y P (2) = 68. . el c´lculo puede ser o u a problem´tico. calcula con el algoritmo de Horner P (2) y P (2). podemos intentar calcular las ra´ a ıces de P (x) Q(x) = M CD(P (x).4 Ra´ ıces m´ ltiples u Si una ecuaci´n f (x) = 0 tiene soluciones m´ltiples. . Si la sucesi´n generada converge muy lentamente. . la causa puede o encontrarse en esa multiplicidad de las ra´ ıces.´ Resolucion de ecuaciones no lineales 39 Ejemplo: Siendo P (x) = x4 + 2x3 − 3x2 − 4x − 1. Para detectar de qu´ multie plicidad es la ra´ en cuesti´n. f (xn ). P (x)) que ser´ un polinomio con las mismas ra´ a ıces que f (x) pero todas con multiplicidad 1. En este caso. para cada termino de la sucesi´n xn generada ız o o calculamos f (xn ). f k) (xn ). Si f (x) es un polinomio.

Aplica Newton-Raphson para encontrar una soluci´n de f (x) = 0 empezando en x0 = 0.b] |f (θ)| Cap´ ıtulo 2 Ejercicio: Sea f (x) = (x − 1)3 . o .40 El error se obtendr´ as´ ıa ı |en | < |f (xn )| minθ∈[a.

el sistema anterior se puede expresar A·x=b 3. La matriz traspuesta de A es la matriz At que resulta de intercambiar las filas de A por las columnas de A. Por ejemplo 3 5 2 2 1 3 tiene orden 2 × 3.1≤j≤n ∈ Mm×n ).j≤n . 41 .Cap´ ıtulo 3 Sistemas Lineales El objetivo de este tema es el desarrollo de t´cnicas de b´squeda de soluciones e u de sistemas de ecuaciones lineales como el siguiente: a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn an1 x1 + an2 x2 + · · · + ann xn = = ··· = b1 b2 bn Denotando A = (aij )1≤i.1 ´ Algebra de matrices Sea A una matriz. A es de orden m×n si tiene tiene m filas y n columnas (A = (aij )1≤i≤m. b = (bi )1≤i≤n y x = (xi )1≤i≤n .

A−1 = |A| La matriz identidad de orden n × n es  1 0 0 0 1 0 Id =   .. . Si A ∈ Mn×n tiene inversa. B es una matriz inversa de A por la derecha si B · A = Id B es una matriz inversa de A por la izquierda si A · B = Id. a la suma de una fila o columna otra fila o columna multiplicada por un n´mero. . podemos realizar las siguientes operaciones: .j el adjunto del elemento aij . Cada u o .1≤j≤n ∈ Mm×n . En este caso la inversa es unica y se denota A ´ A−1 · A = A · A−1 = Id.42 Cap´ ıtulo 3 A es sim´trica si At = A. La matriz inversa es 1 (Ai.  0 0   1 Se verifica que A · Id = Id · A = A.. ∀A ∈ Mn×n . En este caso el sistema A · x = b tiene como soluci´n x = A−1 · b. 0 siendo Ai. B ∈ Mm×n : A + B = (ai. Si A ∈ Mn×n .j + bij )1≤i.. 0 0 . al producto de una fila o columna por un n´mero distinto u de 0.1≤j≤n ..Multiplicar una matriz por un n´mero: u α · A = (αaij )1≤i≤m.. entonces A es regular. o cualquier combinaci´n finita de las operaciones anteriores.. invertible o no singular. entonces la inversa por la izquierda es tambi´n inversa por e −1 la derecha. o Se llaman operaciones elementales de una matriz al intercambio de dos filas o columnas.Sumar dos matrices A y B si A. . . e Si α ∈ R y B es una matriz.Multiplicar dos matrices A ∈ Mm×p y B ∈ Mp×n : p A·B =( k=1 aik bkj )1≤i≤m.j≤m ...j )t .

es decir. . . Por ejemplo.Multiplicar la tercera fila por αλ y sumarle la segunda. con lo que multiplicando por A−1 por la derecha en ambos t´rminos se obtiene e que Ep Ep−1 . .Sistemas lineales 43 operaci´n fundamental en una matriz A se puede expresar mediante producto o de A por otra matriz. entonces existe un conjunto de matrices fundamentales Ek con k = 1. El producto de matrices     1 0 0 a11 a12 a13 0 0 α  · a21 a22 a23  0 1 αλ a31 a32 a33 Y la suma a la tercera fila de la segunda fila multiplicada por un n´mero α es: u       a11 a12 a13 1 0 0 a11 a12 a13  0 1 0 · a21 a22 a23  =  a21 a22 a23 αa21 + a31 αa22 + a32 αa23 + a33 a31 a32 a33 0 α 1 la segunda fila   a11 0 0 α 0 · a21 a31 0 1 por un n´mero α se puede expresar as´ u ı:    a12 a13 a11 a12 a13 a22 a23  = αa21 αa22 αa23  a32 a33 a31 a32 a33 . . que se llama matriz fundamental. a31 a32 a33 el intercambio de la  1 0 0 0 0 1 El producto de  1 0 0 segunda y tercera filas se puede     a11 a11 a12 a13 0 1 · a21 a22 a23  = a31 a21 a31 a32 a33 0 expresar as´ ı:  a12 a13 a32 a33  . tales que Ep Ep−1 . . . Si A ∈ Mn×n tiene inversa. p. . dada la matriz   a11 a12 a13 A = a21 a22 a23  .Sustituir la fila segunda por la tercera multiplicada por α. E1 A = Id. E1 Id = A−1 . a22 a23 representa aplicar a la segunda matriz los siguientes cambios: . . aplicando las mismas operaciones fundamentales a la matriz Id obtendremos la matriz inversa A−1 . .

El primer cambio consiste en restar a la segunda fila la primera (correspondiente al producto por una cierta matriz fundamental E1 ):     1 0 0 1 2 3 E1 · Id = −1 1 0 E1 · A = 0 1 0  0 0 1 2 4 7 El segundo cambio (multiplicar por E2 ) consiste en restar a la tercera dos veces la primera:  1 2 3 E2 · E 1 · A = 0 1 0  0 0 1   1 0 0 E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto dos veces la segunda (E3 ):   1 0 3 E3 · E2 · E1 · A = 0 1 0 0 0 1  3 −2 0 E3 · E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto tres veces la tercera (E4 ):  1 0 0 E4 ·E3 ·E2 ·E1 ·A = 0 1 0 0 0 1   9 −2 −3 0  = A−1 . E4 ·E3 ·E2 ·E1 ·Id = −1 1 −2 0 1  Esta ultima matriz es la inversa de A.44 Ejemplo: Calcula la inversa de la matriz  1 2 3 A = 1 3 3  . ´ . 2 4 7  Cap´ ıtulo 3 Partimos de A y la matriz Id.

|A| = 0. u .Sistemas lineales 45 Para toda matriz A ∈ Mn×n son equivalentes: 1. x2 ) un vector no nulo. A es producto de matrices elementales. negativa) si para todo x ∈ Rn no nulo. Para cada b ∈ Rn . 3. λ es un valor propio o autovalor de la matriz A. A−1 existe. o 3. 3.1. Se dice que A es definida positiva (equivalentemente.1. 5. Los vectores propios de A para el autovalor λ.2 Matriz definida Sea A ∈ Mn×n . 2. x2 ) · es definida positiva. Los valores propios de una matriz A son las ra´ ıces del llamado polinomio caracter´ ıstico |A − λ · Id|. La matriz A = 2 1 1 2 Sea (x1 . Los vectores columna de la matriz A son linealmente independientes. ´ o 6. entonces los autovalores e de A son todos n´meros reales y positivos. 2 1 x1 · x2 1 2 = (x1 . son los elementos de n´cleo de u la aplicaci´n lineal A − λ · Id. el sistema A · x = b tiene una unica soluci´n. (x1 .1 Valores propios y vectores propios Sea A ∈ Mn×n . se verifica que xt · A · x > 0. y x es un vector propio o autovector para el autovalor λ. Ejemplo. 1 2 1 2 Si A es una matriz definida positiva y sim´trica. Los vectores fila de la matriz A son linealmente independientes. Si existe un vector x ∈ Rn no nulo y un n´mero λ ∈ R tal u que A · x = λx. 4. entonces. x2 ) · 2x1 + x2 x1 + 2x2 = 2x2 + x1 x2 + x1 x2 + 2x2 = (x1 + x2 )2 + x2 + x2 > 0.

.46 Cap´ ıtulo 3 3. Es decir. ... Sumamos a una ecuaci´n otra ecuaci´n multiplicada por un n´mero. . o Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones. para n = 50 se necesitan 1064 operaciones. an2 ..2 Resoluci´n de sistemas de ecuaciones lineales: o m´todo de Gauss e Dado el sistema A · x = b. |A| a1n a2n ann . resulta un sistema equivalente si efectuamos alguna de las siguientes operaciones: 1. . .. o o u 3.. a1n−1 a2n−1 b1 b2 ann−1 bn |A| Los c´lculos anteriores son poco pr´cticos cuando el n´mero de ecuaciones a a u es grande. . ··· . u • Iterativos: construyen una sucesi´n de soluciones aproximadas. o existe una unica soluci´n y se puede calcular as´ ´ o ı: b1 b2 x1 = bn a12 . En un sistema de ecuaciones se pueden efectuar operaciones elementales en la matriz de los coeficientes y en la de los t´rminos independientes e y resulta un sistema equivalente. Multiplicamos una ecuaci´n por un n´mero distinto de cero. . de modo o que en cada paso se mejora la aproximaci´n anterior. . xn = a11 a21 a2n . Intercambiamos dos ecuaciones. puede no haber soluci´n. Si |A| = 0.. . a22 . si |A| = 0. o u 2.. Para evitar este problema se utilizan m´todos num´ricos de resoluci´n de ecuaciones e e o lineales que pueden ser: • Directos: proporcionan un resultado que ser´ exacto salvo errores de a redondeo tras un n´mero determinado de operaciones. . . Por ejemplo.

Ejemplo: Resuelve el siguiente sistema de ecuaciones: 6x1 − 2x2 + 2x3 + 4x4 12x1 − 8x2 + 6x3 + 10x4 3x1 − 13x2 + 9x3 + 3x4 −6x1 + 4x2 + x3 − 18x4 = 12 = 34 = 27 = −38. e Se efect´an los pasos necesarios hasta que la matriz de los coeficientes sea u triangular. Si a11 = 0. En las operaciones de sumas de filas hay que incluir los t´rminos independientes. . Si a11 = 0. se elige aii como elemento pivote. se convierten en 0 los elementos que se encuentran en la primera columna distintos del pivote. xn−1 .  3 −13 9 3  x3   27  −6 4 1 −18 x4 −38 En el sistema anterior el m´todo de Gauss podr´ aplicarse as´ e ıa ı: . Conseguido esto. Sumando a cada una de las filas que ocupan el lugar j (j > i) la fila del elemento pivote multiplicada por n´meros. .1 M´todo de Gauss e El m´todo de Gauss cl´sico es un m´todo directo que transforma mediante e a e operaciones elementales el sistema de ecuaciones que se pretende resolver en un sistema equivalente triangular de f´cil resoluci´n. En las operaciones de sumas de filas hay que incluir los t´rminos independientes.2. se intercambian las filas para que esto no suceda. u llamados multiplicadores.Sistemas lineales 47 3. se convierten en 0 los elementos que se encuentran en la columna i de la fila j (j > i). . a o El m´todo de Gauss puede resumirse en lo siguiente: e • Paso 1. se intercambian las filas de orden mayor o igual que i para que esto no suceda. x1 . se elige a11 como elemento pivote. Si aii = 0. Sumando a cada una las filas restantes la fila del elemento pivote multiplicada por ciertos n´meros. Si aii = 0. En forma matricial es sistema ser´ ıa      6 −2 2 4 x1 12  12 −8 6 10  x2   34     =  . e • Paso i (i ≥ 2). . llamados u multiplicadores. el c´lculo de la soluci´n es sencillo siguiendo el a o siguiente orden: xn .

Elegimos como elemento pivote el t´rmino 6 de la primera fila e y efectuamos las siguientes operaciones: (fila 2a ) − 2(fila 1a ) (fila 3a ) − 1/2(fila 1a ) (fila 4a ) − (−1)(fila 1a ) Paso 2. 2 −5  x3   −9  4 −13 x4 −21 que es un sistema de ecuaciones triangular superior de f´cil resoluci´n: a o  x1 = 1/6(12 − 4x4 − 2x3 + 2x2 ) = 1 6x1 − 2x2 + 2x3 + 4x4 = 12    −4x2 + 2x3 + 2x4 = 10 x2 = −1/4(10 − 2x4 − 2x3 ) = −3 ⇒ 2x3 − 5x4 = −9  x3 = 1/2(−9 + 5x4 ) = −2   x4 = 1 −3x4 = −3 .48 Cap´ ıtulo 3 1. Elegimos como elemento pivote el t´rmino −4 de la segunda fila y e efectuamos las siguientes operaciones: (fila 3a ) − 3(fila 2a ) obtenemos el sistema  6 −2 0 −4  0 0 0 0 (fila 4a ) − (−1/2)(fila 2a ) obtenemos el sistema      6 −2 2 4 x1 12 0 −4 2 2  x2   10     =  . Elegimos como elemento pivote el t´rmino 2 de la tercera fila y e efectuamos la siguiente operaci´n: o (fila 4a ) − 2(fila 3a ) obtenemos el sistema      12 x1 6 −2 2 4 0 −4 2 2  x2   10       0 0 2 −5 x3  = −9 . −3 x4 0 0 0 −3     2 4 x1 12 2 2  x2   10    =  . 0 −12 8 1  x3   21  x4 0 2 3 −14 −26 Paso 3. Paso 1.

De hecho. si consideramos el redondeo. ser´ ıan: x2 = 2− 1− 1 1 1 ⇒ x1 = (1 − x2 ) 1 0. Sin embargo las soluciones exactas ıa son x2 = 998 ≈ 1 y x1 = 1000/999 ≈ 1.001 1 1 1 x1 x2 = 1 2 el m´todo de Gauss no funcionar´ correctamente por errores de redondeo.2 M´todo de Gauss con pivoteo e En un sistema como este 0. redondeando a dos decimales.998998998999. Si = 0. En e ıa general. por lo que x1 = 0. si = 0 es peque˜o. obtendr´ ıamos que x2 = 0.2. el sistema n 1 1 1 x1 x2 = 1 2 aplicando el m´todo de Gauss se transformar´ en e ıa 1 0 1− 1 x1 x2 = 1 2− 1 con lo que las soluciones. al hacer los c´lculos con le a 999 −17 se obtiene x = 1 y x = 0.Sistemas lineales 49 Se verifica que A = L · U . programa Maxima o Mathematica. que. siendo A la matriz de los coeficientes inicial. con = 10 2 1 Esto sucede cuando el elemento pivote en alg´n paso es muy peque˜o u n comparado con el resto de los elementos a los que divide. U la matriz de los coeficientes final y L la matriz formada por los n´meros que u hemos utilizado para multiplicar las filas (multiplicadores): 1 0  2 1 L= 1/2 3 −1 −1/2  0 0 1 2  0 0  0 1 3.001. En este caso el . ser´ x2 = 0.

Este problema se puede resolver de dos formas: 1. o Ejemplo: Resuelve el siguiente sistema de ecuaciones: 2x2 + x4 2x1 + 2x2 + 3x3 + 2x4 4x1 − 3x2 + x4 6x1 + x2 − 6x3 − 5x4 = = = = 0 −2 −7 6. El pivoteo parcial ser´ este proceso: ıa Paso 1. Elegimos como elemento pivote el t´rmino 6 de la ultima fila por e ´ ser el de mayor valor absoluto de entre los elementos de la primera columna.50 Cap´ ıtulo 3 multiplicador correspondiente ser´ muy grande y la ecuaci´n que origina es a o ”casi¨n m´ltiplo de la ecuaci´n del elemento pivote: u u o 1 1 (fila 2a ) − (fila 1a ) ≈ − (fila 1a ). Pivoteo total: si estamos en el paso i. independientemente de si aii es cero o no. independientemente de si aii es cero o no. se elige como elemento pivote el elemento aki que tenga mayor valor absoluto entre los de la columna i. 2. Obtenemos la matriz   6 1 −6 −5 | 6 2 2 3 2 | −2   4 −3 0 1 | −7 0 2 0 1 | 0 La matriz de los coeficientes y  0 2 2 2  4 −3 6 1 de los t´rminos independientes ser´ e ıa  0 1 | 0 3 2 | −2  0 1 | −7 −6 −5 | 6 . y se reordenan las filas. Esta opci´n tiene un importante o inconveniente pues hay que reordenar las inc´gnitas. y se reordenan las filas y columnas. se elige como elemento pivote el elemento akj que tenga mayor valor absoluto entre los de la columna i y los de la fila i. aplicando el pivoteo parcial. con k. con k ≥ i. j ≥ i. Pivoteo parcial: si estamos en el paso i.

6667 0 −3.1818 3. Obtenemos la matriz   6 1 −6 −5 | 6 0 −3.3333 | −11 (fila 3 6 0 2 0 1 | 0 51 Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 1.1199 que se corresponde con el sistema de ecuaciones 6x1 + x2 + −6x3 − 5x4 −3.6667 4 4.6667x2 + 4x3 + 4.6667 5 3.8182 de la tercera fila y no es necesario a intercambiar filas.8182x3 + 5.6667 4 4.6667 5 3. Este sistema se resuelve f´cilmente por ser triangular despejando las inc´gnitas a o en orden inverso.6364 | −9.3333 | −11   0 1.9999 Paso 2.0001 −3.6667 0 0 2.3333 | −11   U = a ) − 2.0001 −3.6667 | −4  (fila 2a ) − 2 (fila 1a ) 6   a ) − 4 (fila 1a ) 0 −3. Se obtiene la soluci´n: o .5600 | −3.8182 5.6667 (fila 3a ) − −3.6364 | −9.6364 1.8182 5.6667 4 4.Sistemas lineales Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 0 1. Efectuamos la operaci´n indicada y obtenemos la matriz o siguiente:   6 1 −6 −5 | 6 0 −3.1818 (fila 3a ) 0 0 6.6667 | −4  0 2 0 1 | 0 Paso 3.1199.6667 (fila 2a ) 4 4.0001 (fila 4 6.3636 | −5.3333x4 6. Elegimos como elemento pivote el t´rmino −3.5600x4 = = = = 6 −11 .8182 0 0 0 1.667 de la tercera fila por e ser el de mayor valor absoluto de entre los elementos de la segunda columna. El elemento pivote ser´ 6. −9.3333 | −11    2 a) a) − 0 (fila 4 (fila 2 0 6.

Encontrar las soluciones de un sistema de ecuaciones. 3.45454 1 0 −0. o siendo L y U matrices triangulares inferior y superior. x1 = −0.52 Cap´ ıtulo 3 x4 = −1.0000. x2 = 1. Calcular el determinante de la matriz de los coeficientes. x1 = −1/2. es x3 = 0. x2 = 1. tal que P · A = A = L · U. x3 = 1/3. En todo caso se verifica que existe una matriz P . anterior es la siguiente:  0 0  0 1 y se verifica que La matriz L de los multiplicadores en el ejemplo  0 0 1 0. El m´todo de Gauss permite: e 1. |P | = (−1)p (p es el n´mero de permutaciones de filas) y U una u matriz triangular: |A| = |P −1 · A | = |P −1 · L · U | = |P −1 ||L||U | = (−1)p |U |.33325. que representa permutaciones de filas si empleamos pivoteo parcial. que es una respuesta aceptable teniendo en cuenta que la soluci´n exacta o x4 = −2.54545 0.6667 1 0 L= 0.50000. L·U = 2 2 3 2 0 2 0 1 .32  El resultado no es exactamente A porque al aplicar el pivoteo hemos permutado filas. Esto ultimo nos permite calcular el determinante de A de forma sencilla al ´ ser |L| = 1. A = A si no se utiliza el pivoteo. Descomponer la matriz de los coeficientes A en un producto de matrices P · A donde P representa una permutaci´n de filas de A y A = L · U .3333 −0. respectivamente. 2.9999.  6 1 −6 5 4 −3 0 1  := A .

ı Si A = L · U tendremos que      a11 a12 . ann 0 0 . . una condici´n necesaria y suficiente para que A admita o una descomposici´n L·U de la forma anterior es que los menores fundamentales o (todos los determinantes de las matrices formadas con las primeras k filas y columnas) sean no nulos. an1 an2 . . . 0   0 u22 .3 Factorizaci´n LU. lnn Haciendo el producto de matrices e igualando t´rmino a t´rmino se obtienen e e 2 ecuaciones lineales con n2 + n inc´gnitas. u3n  .... si aplicamos el m´todo de Gauss sin e pivoteo solo a la matriz de los coeficientes y no a los t´rminos independientes e b. .. o ´ .Sistemas lineales 53 3. Adem´s. . e o Los m´todos de factorizaci´n LU consisten en descomponer la matriz en producto de dos matrices triangulares. u2n  = .. La soluci´n x obtenida ser´ la o a soluci´n de Ax = b porque o Ax = LU x = Ly = b. 0 u11 u12 . En este caso la factorizaci´n es unica. unn ln1 ln2 . Si imponemos la condici´n n o o l11 = l22 = · · · = lnn = 1 obtendremos un sistema de ecuaciones f´cilmente resoluble. . Resolvemos el sistema U x = y. . o Paso 2. Factorizaci´n de Cholesky o o Dado el sistema de ecuaciones Ax = b.       . . ... calcular de forma sencilla el determinante de A: n n |A| = |L||U | = ( lii )( i=1 i=1 uii ). obtendremos una descomposici´n de la matriz A en dos matrices A = L · U . o siendo L triangular inferior y U triangular superior. por ejemplo. . para despu´s aplicar los pasos 1 y 2 e anteriores y as´ resolver el sistema. . . Las soluciones a dan lugar a una descomposici´n L · U que es la misma que la obtenida por el o m´todo de Gauss sin intercambio de filas. Esto permite. a1n l11 0 0 . podemos resolver el sistema de ecuaciones siguiendo estos dos pasos: a Paso 1. . u1n  a21 a22 . e Si A es no singular. Resolvemos el sistema Ly = b y obtenemos una soluci´n y. a2n   l21 l22 0 . . . . ..

     0 y1 = 0 1 0 0 y1 Ly = b ⇒  2 1 0 · y2  = 1 ⇒ y2 = 1 . Paso 2. el sistema admite la factorizaci´n L · U buscada. 0 0 u33 l31 l32 1 −3 0 −8 obtenemos u11 = 3 u12 = 1 u13 = 2 l21 u12 = 6 l21 u12 + u22 = 3 l21 u13 + u23 = 2 l31 u11 = −3 l31 u12 + l32 u22 = 0 l31 u13 + l32 u23 + u33 = −8                u11 = 3 u12 = 1 u13 = 2 l21 = 2 ⇒ u22 = 1   u23 = −2      l31 = −1     l32 = 1   u33 = −4 Paso 1. o . |A21 | = 3 1 6 3 = 0 y A33 = 3 1 2 6 3 2 −3 0 −8 = 0. Igualando t´rmino a t´rmino o e e las matrices siguientes      u11 u12 u13 1 0 0 3 1 2  6 3 2  = l21 1 0  0 u22 u23  . −3 0 −8 2 x3 Como |A11 | = 3.54 Cap´ ıtulo 3 Ejemplo: Resuelve el siguiente sistema mediante factorizaci´n L · U de o Gauss       3 1 2 x1 0  6 3 2  · x2  = 1 . 2 x3 1 0 0 −4 x3 = −1 4  que es la soluci´n del sistema. 2 y3 y3 = 1 −1 1 1      x1 = 0 0 x1 3 1 2 U x = y ⇒ 0 1 −2 · x2  = 1 ⇒ x2 = 1 .

3.3. .. 0  a32 a33 a34 0 .   ... .... 0 0 ... 0 u11 u12 0 . lnn−1 1 0 0 .. .3. . e La resoluci´n de un sistema de n = 50 ecuaciones con el m´todo de Choo e lesky requiere 503 /3 operaciones.3 Sistemas triangulares lineales en los que la matriz de los coeficientes es  a12 0 0 0 .. la matriz o u ıa admite una descomposici´n de la forma o    1 0 0 . se obtiene la descomposici´n por el m´todo de Cholesky que funciona si y solo o e si la matriz inicial A es sim´trica y definida positiva. . 0 l21 1 0 . puedo asegurar que o e dicha matriz es sim´trica y definida positiva.Sistemas lineales 55 3. unn−1 unn Son sistemas de ecuaciones de la forma:  a11 a21  A= 0   0 . . 0 . 0 . Por tanto. si consigo la e descomposici´n de una matriz por el m´todo de Cholesky.      .. . 0 a22 a23 0 0 . 0  0 u22 u23 0 0      0 l32 1  0 0  0 u32 u33 .. 0 . .. que tiene el inconveniente o e que puede producir grandes errores en la resoluci´n del sistema de ecuaciones.3. o 3. . l31 = u13 . 0 ann−1 ann Aparecen frecuentemente en la resoluci´n num´rica de ecuaciones diferenciales o e y en la aproximaci´n por splines c´bicos. En la mayor´ de los casos. . . .. l21 = u12 . . . lnn = unn .2 M´todo de Cholesky e Si en la factorizaci´n LU exigimos que U = Lt de modo que o l11 = u11 .1 M´todo de Crout e Si en la factorizaci´n LU fijamos o u11 = u22 = · · · = unn = 1 se obtiene la descomposici´n por el m´todo de Crout.. .. .. .. lij = uji .

a)     l11 0 0 60 30 20 l11 l21 l31 30 20 15 = LLt = l21 l22 0   0 l22 l32  l31 l32 l33 20 15 12 0 0 l33  por tanto 2 l11 l11 l21 l11 l31 2 2 l21 l22 l21 l31 + l22 l32 2 2 2 l31 + l32 + l33 = 60 = 30 = 20 = 20 = 15 = 12         l11 l21 l ⇒ 31  l22     l32   l33 √ = √60 = √60/2 = √60/3 = √5 = √5 = 3/3 Descomponiendo la segunda matriz de la parte derecha de la igualdad en un producto de una matriz diagonal por otra triangular superior con 1 en cada La descomposici´n que resulta es o      60 30 20 60 30 20 1 0 0 5 . A = 30 20 15 = 1/2 1 0  0 5 20 15 12 1/3 1 1 0 0 1/3 b) La factorizaci´n de Gauss se obtiene resolviendo el sistema de ecuaciones o que se deduce de      60 30 20 1 0 0 u11 u12 u13 30 20 15 = l21 1 0  0 u22 u23  .56 Ejemplo: Dada la matriz   60 30 20 30 20 15 20 15 12 Cap´ ıtulo 3 a) Obt´n la descomposici´n de Cholesky. 20 15 12 l31 l32 1 0 0 u33 . e o las descomposiciones de Crout y de Cholesky. a partir de ella. e o b) Obt´n la factorizaci´n de Gauss sin intercambio de filas y.

o √ √  √  √  0 0 60 60/2 60/3 √ √ 60 √ √  = √60/2 √5 √ 0   0 5 √ 5 60/3 5 3/3 0 0 3/3   0 1 1/2 1/3 1 = 0  0 1 0 0 1 1/3 3.4 Normas y an´lisis del error a Definici´n: Sea V un espacio vectorial. v + w ≤ v + w 3.Sistemas lineales elemento de la diagonal. w ∈ V y ∀α ∈ R se verifica que: o 1.  1 0 A = 1/2 1 1/3 1 se obtiene  0 60 0  0 1 0 que   0 0 1 1/2 1/3 5 0  0 1 1  = (∗) 0 1/3 0 0 1 57 Multiplicando las dos primeras  60 30 (∗) = 20 que es la descomposici´n de Crout. o Si en (∗) descomponemos la matriz diagonal   √  √ 60 √ 0 0 60 √ 0 1 0 0 1/2 1 0  0  0 (∗) = 5 0 5 1/3 1 1 0 0 1/3 0 0 matrices anteriores   0 0 1 1/2 1/3 5 0  0 1 1  4 1/3 0 0 1 que es la descomposici´n de Cholesky. Una norma sobre V es una aplicao ci´n · : V → R tal que ∀v. . αv = |α| v . v ≥ 0 (v = 0 ⇔ v = 0) 2.

La norma vectorial y su norma matricial subordinada son siempre compatibles. |z|) = |x| + |y| + |z| La norma de un vector mide la ”distancia”de ese vector al origen. tendr´n e a a o a que verificar las condiciones de la definici´n de norma. B ∈ Mn×n V entones dicha norma es una norma matricial. Norma eucl´ ıdea o norma 2: (x. Dada cualquier norma vectorial · V sobre Rn . u para ”medir”matrices tambi´n se utilizar´n normas que. Las normas del ejemplo son diferentes formas de ”medir”las distancias entre los vectores de R3 . y. por tanto. z) 2 = x2 + y 2 + z 2 ∞ 2. y. z) a 3. La distancia entre dos vectores se mide con la norma del vector diferencia.58 Cap´ ıtulo 3 Ejemplo: las siguientes son normas definidas sobre el espacio vectorial R3 : 1. . Si adem´s de esas condiciones se verifica que A·B ≤ A B A. es posible definir una norma matricial sobre Mn×n de la siguiente forma: A M = max{ Av V : v V = 1} Esta nueva norma se llama norma matricial inducida o subordinada a la norma vectorial correspondiente. |y|. y. z) 1 = max(|x|. Norma 1: (x. Norma del m´ximo o norma infinito: (x. Una norma matricial · M sobre Mn×n y una norma vectorial · Rn se dice que son compatibles si se verifica que Av V sobre ≤ A M v V ∀A ∈ Mn×n ∀v ∈ Rn . con las operaciones suma y producto por un n´mero real es un espacio vectorial. Puesto que el conjunto Mn×n de las matrices cuadradas de orden n.

 3 1 2 De modo que  6 3 2  = max(12. . −3 0 −8 1 2. |At A − αId| =  −3 0 1−α 0 √ 5 y 1 y como consecuencia √  2 3 0 = 0 −1 0 0 0 1   Los autovalores de At A son 7 ± A 2 = 2 7+ 5 3. 12) = 12.   2 3 0 Para calcular A 2 = 0 −1 0 debemos calcular primero los au0 0 1 2 tovalores de At · A que son las ra´ ıces de  13 − α −3 0 1−α 0  = (1 − α)(α2 − 14α + 4).Sistemas lineales Ejemplos: 1. La norma matricial inducida por la norma vectorial 1 en R3 es A   a11 a12 a13 = a21 a22 a23  a31 a32 a33 n 59 1 = max1≤j≤n 1 i=1 |aij |. La norma matricial inducida por la norma vectorial 2 en R3 es ρ(At · A). La norma matricial inducida por la norma infinito en R3 es  a11 a12 a13 = a21 a22 a23  a31 a32 a33  n A ∞ = max1≤i≤n ∞ j=1 |aij |. 4.  A 2 = ρ(At ·A) es el radio espectral de At ·A que es el m´ximo de los valores absolutos a de los autovalores de la matriz At · A.

∞ 1≤i. 11) = 11. Se verifica que b x = Ae A−1 b ≤ A e A−1 1 A A−1 r e ≤ b x Vemos que e x ≤ k(a) r b . u o Se define el n´mero de condici´n de una matriz A como El n´mero de condici´n siempre es mayor o igual que 1 y se utiliza para estimar u o si un sistema de ecuaciones Ax = b est´ bien o mal condicionado. Teorema: e r 1 r ≤ ≤ k(a) . Esto puede ser debido a que hay un peque˜o error cometido al hacer alguna medida en b o bien porque en vez de la soluci´n o exacta x hemos obtenido una soluci´n aproximada x. es decir. Se verifica que Ax ≤ A−1 r A x .j≤n |ai.1 N´ mero condici´n de una matriz u o k(A) = A A−1 . si a peque˜os cambios en los datos (A o b) pueden producir grandes cambios en la n soluci´n del sistema.60  3 1 2 De modo que  6 3 2  −3 0 −8  Cap´ ıtulo 3 = max(6. e b ≤ A−1 r . k(a) b x b r 1 k(a) b Demostraci´n. Se define la norma matricial de Fr¨benius como A = o 3.4. 11.j | 2. 4. o Supongamos que en vez de b utilizamos b de modo que la soluci´n del o n sistema es x y Ax = b. Veamos que o r Por tanto ≤ e x . Si denotamos e al error o en la soluci´n y r al error en b o error residual. se verifica que Ae = Ax − Ax = o b − b = r.

83 −0.55 A−1 =  200. Encuentra el n´mero de condici´n de la matriz A de los coeficientes con u o · ∞.53 x1 2  4. n a o     3. Acota el error relativo de las posibles soluciones en funci´n del error en o los datos.54 1.68 = 7595.05 2.67 · 1138.85 −102.27 −18.47 x3 5  1.78 Ejemplo: Dado el sistema −0.65 −255.63 · 10−5 r ≤ e ≤ 1591 r x con lo que .Sistemas lineales Por tanto 61 e ≤ A A−1 x r .33  x 2  = 3  0.02 −1. a) La matriz inversa redondeada a dos decimales es   5. el sistema puede estar mal condicionado y peque˜os cambios en los datos podr´n producir grandes cambios en la soluci´n.56 −1. b Si k(A) est´n cerca de 1 el sistema estar´ bien condicionado porque el error a a relativo en la soluci´n x ser´ similar al error relativo r en los datos. Si por o e a b el contrario k(A) es muy grande.26 −669.51 −268.88 k(a) = A A−1 = 6.66 −7. 2. b) Se verifica que e r 1 r ≤ ≤ 7595 7595 5 x 5 es decir 2.91 −76.

8 · 10−5 e4 105 84 70 60  y obtengo e = (1. 1. 0. 0.1 Mejora de soluciones Refinamiento iterativo Es un m´todo para mejorar una soluci´n aproximada ya obtenida. 3.5. −1.000215 105 84 70 60 319 2. 1. La nueva soluci´n aproximada ser´ x = x + e. o        −1.000137. −2.62 Cap´ ıtulo 3 3.000137  −7.999670.999997.0 · 10−5       140 105 84 70  e3  =  −3. −4. o 2.15 · 10−4 ) o 3.05 · 10−4 e1 420 210 140 105 210 140 105 84  e2   −7. aplica el m´todo de e refinamiento iterativo para mejorarla. Calculo r = b − Ax con doble precisi´n. Calculo r = b − Ax con doble precisi´n.5000000 · 10−5  . . 1.999670 =  −3.1 · 10−5 . o Ejemplo: Si como soluci´n aproximada del sistema o      420 210 140 105 x1 875 210 140 105 84  x2  539      140 105 84 70  x3  = 399 105 84 70 60 x4 319 se obtiene x = (0.999999.5 · 10−5  −4. Calculo e resolviendo el sistema Ae = r. 1). La nueva soluci´n es x = (0.999988 420 210 140 105 875 539 210 140 105 84  1.8000000 · 10−5 1.30 · 10−4 . 1.000215).05000000 · 10−4 0. o a Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´n. Sea x una e o soluci´n aproximada de Ax = b tal que Ax = b. Resuelvo     −1.999988.5 3. 3.4 · 10−5 . El m´todo consiste en aplicar los siguientes pasos: e 1. Se verifica que o x = A−1 b = x + x − x = x + A−1 b + A−1 b = x + A−1 (b − b) = x + A−1 r = x + e.0000000 · 10−5      r =  −  399 140 105 84 70  0.

00002x1 + x2 = 1 x1 + x 2 = 2 redondeando a 4 decimales x2 = 1 x1 + x 2 = 2 aplicando el pivoteo x1 + x 2 = 2 x2 = 1 y las soluciones son x1 = y x2 = 1.99998. Al aplicar el escalamiento o podemos cometer a su vez errores de redondeo. . Ejemplo: En el caso anterior 0.2 Escalamiento Si en un sistema de ecuaciones los coeficientes de las inc´gnitas son de muy o diferente magnitud.Sistemas lineales 63 3.00002 y x2 = 0. la soluci´n num´rica del sistema puede contener errores. o e Ejemplo: Resolvamos el siguiente sistema por eliminaci´n gaussiana: o 2x1 + 100000x2 = 100000 x1 + x 2 = 2 2 100000 100000 1 1 2 (fila 2) − 1/2 (fila 1) 2 100000 100000 0 −999991 −99998 De modo que las soluciones son x1 = x2 = 100000−100000x2 ≈0 2 −99998 −99999 ≈ 1( redondeado a 4 cifras) Sin embargo el resultado correcto es x1 = 1. pero puede ayudar en casos extremos cuando hay mucha diferencia entre los coeficientes.5. Para solucionar este problema se puede recurrir al escalamiento que consiste en multiplicar cada ecuaci´n por un n´mero para que el coeficiente m´s o u a grande de las inc´gnitas en valor absoluto sea 1.

dadas las matrices M y N .64 Cap´ ıtulo 3 3. es decir. .6 M´todos iterativos e Los m´todos directos estudiados anteriormente requieren aproximadamente e n3 /3 operaciones. De modo que. Es esencial que M sea una matriz regular y es conveniente que sea una matriz sencilla para facilitar el c´lculo. Un m´todo iterativo de resoluci´n de un sistema de n ecuaciones Ax = b e o 0 ∈ Rn genera una sucesi´n de posibles soluciones es aquel a partir de un x o aproximadas x1 . o . el l´ Todos las m´todos iterativos de resoluci´n de un sistema Ax = b se basan e o en la descomposici´n de la matriz A en diferencia de dos matrices M − N . Para ello se genera o una sucesi´n xk = G(xk−1 ) partiendo de una determinada soluci´n aproximada o o x0 . veremos que para encontrar la soluci´n del o sistema basta encontrar un vector fijo de la funci´n G(x). . en caso de converger. o consistente si. La sucesi´n converger´ a la soluci´n en determinadas condiciones. . . o siendo M una matriz regular. x2 . que suelen aparecer por ejemplo en la resoluci´n de ecuaciones o diferenciales en derivadas parciales. puesto que a xk = G(xk−1 ) = M −1 (N xk−1 ) + b) ⇒ M xk = N xk−1 + b. o a o En la pr´ctica. e Los m´todos iterativos est´n especialmente indicados para la resoluci´n e a o de sistemas con una matriz de gran dimensi´n pero dispersa. para calcular xk a partir de xk−1 se resuelve el sistema M xk = N xk−1 + b. aunque te´ricamente conducen a una soluci´n o o exacta. De modo que Ax = b ⇔ (M − N )x = b ⇔ M x = N x + b ⇔ x = M −1 (N x + b) Si definimos G(x) = M −1 (N x + b). a La condici´n que asegura la convergencia es la siguiente. con o muchos ceros. Es o ımite es la soluci´n. en la pr´ctica la soluci´n obtenida puede ser peor que la obtenida a o aproximadamente por un m´todo iterativo. Son sensibles a errores de redondeo que se acrecientan al aumentar n. El m´todo es convergente si la sucesi´n generada e o converge a la soluci´n del sistema a partir de cualquier vector inicial x0 .

. < λk x1 − x0 . o Demostraci´n. entonces la sucesi´n xk+1 = G(xk ) converge a un punto o fijo de la funci´n G(x). = M −1 N (y − y ) Si M −1 N < λ < 1 para un cierto λ ∈ R. . Dicho vector x verifica que x − G(x) = lim xk −G( lim xk ) = lim G(xk−1 ) − G( lim xk ) k→∞ k→∞ k→∞ k→∞ = G( lim (xk−1 − xk )) = G(0) = 0 ⇒ x = G(x). 1−λ = x 1 − x0 i=0 λk+i−1 = x1 − x0 De modo que la sucesi´n xk+1 = G(xk ) es una sucesi´n convergente a un o o vector x ∈ Rn si M −1 N < λ < 1 para un cierto λ ∈ R. − xk p p−1 i=0 λ xk − xk−1 < . ≤ i=1 xk+i − xk+i−1 < p−1 λk+i−1 x1 − x0 λk−1 − λk+p−1 k→∞ → 0. . . entonces G(y)−G(y ) < λ y−y . Teniendo en cuenta que o G(y) − G(y ) = M −1 (N y + b) − M −1 (N y + b) ≤ M −1 N = M −1 N y − M −1 N y y−y . k→∞ .Sistemas lineales 65 Teorema: En las condiciones anteriores. A partir de un vector x0 vamos generando la sucesi´n xk+1 = G(xk ) y se o verifica que xk+1 − xk = G(xk ) − G(x)k−1 = G(xk − xk−1 ) < Por tanto xk+p − xk < xk+p − xk+p−1 + xk+p−1 − . si existe una norma matricial tal que M −1 N < 1.

a 3. puedo calcular xk a partir de xk−1 .6. se definen:  0 ··· 0  a21 0 · · ·  0  . L =  a31 a32 0    ··· ann an1 an2 · · ·  u12 · · · u1n 0 u23 · · · u2n    ···  ··· 0 un−1n  ··· 0 0    0 0  0   0 a11 0 · · ·  0 a22 0 D=  ··· 0 ··· ··· ··· ann−1 En el m´todo de Jacobi M = D y N = −(L + U ).66 Cap´ ıtulo 3 En resumen. la sucesi´n xk converge o a la soluci´n del sistema Ax = b. Si M −1 N < 1 para alguna norma matricial. Para aplicar el m´todo se requiere que aii = 0 para todo i. Para calcula xk a partir de e xk−1 se resuelve el sistema Dxk = −(L + U )xk−1 + b. esto se e puede conseguir intercambiando filas si fuese necesario. Puesto e que  −a12 −a13 −a1n  0 ··· a11 a11 a11 −a23 −a2n   −a21 0 ··· −1 a22 a22   a22 M N =  ··· −ann−1 −an1 ··· 0 ann ann y 0  0 0  U =  0 0 . un m´todo iterativo de resoluci´n de un sistema Ax = b e o consiste en generar una sucesi´n xk = G(xk−1 ) siendo G(x) = M −1 (N x + b) o y A = M − N . El m´todo converge si M −1 N < 1 para alguna norma matricial. el m´todo iterativo es m´s a e a r´pido. Si |M | = 0. o 3.j≤n . 2. Hay que tener en cuenta lo siguiente: 1. Si |A| = 0.1 M´todo de Jacobi e Dada la matriz A = (aij )1≤i. Si el sistema M x = c se resuelve f´cilmente.

ıa .i=j |aij | a1 . e Ejemplo: Aplica una iteraci´n del m´todo de Jacobi al siguiente sistema o e      0 x1 6 5 0 0 2 1  x 2  = 1  . habr´ que resolver el sistema a   1      0 0 x1 0 −5 0 0 0 2 0 x1  =  0 0 −1 0 + 1 2 0 3 x1 −2 0 0 0 0 3 6x1 = 0 x1 = 0 1 1 1 = 1 ⇒ x1 = 1 2x2 2 2 3x1 = 0 x1 = 0 3 3 Por tanto Si elegimos como  6 0 0 El siguiente vector ser´ x1 = (0. o Por ultimo.j=i |aij | aii . ii otra condici´n suficiente es que lo anterior sea menor que 1. 67 ∞ una condici´n suficiente para que el m´todo de Jacobi converja es que la matriz o e ∀i = 1. 0). Se tiene e a o que     0 −5 0 6 0 0 0 −1 − (L + U ) =  0 D = 0 2 0 −2 0 0 0 0 3 vector inicial el x0 = (0. 0. . una tercera condici´n suficiente es que la matriz D − L − U ´ o sea sim´trica y definida positiva. n. 2. 0).Sistemas lineales M −1 N = max1≤i≤n n 1 j=1. .j=i |aij | Como M −1 N 1 = max1≤j≤n n i=1. 0 x3 2 0 3 La matriz es diagonal dominante de modo que la sucesi´n xk de vectores o generados mediante el m´todo de Jacobi converger´ a la soluci´n. es decir que |aii | > n j=1. . A sea diagonal dominante. 1/2. .

El sistema a resolver para calcular xk e a partir de xk−1 ser´ (D+L)xk = −U xk−1 +b. que At sea diagonal dominante 3. que A sea diagonal dominante 2. 0) Si partimos de x0  6 0 2   6 0 0 D + L = 0 5 0 2 0 3 = (0.6. 0). e El m´todo de Gauss-Seidel es dos veces m´s r´pido que el de Jacobi.2 M´todo de Gauss-Seidel e En este m´todo M = D + L y N = −U . Distintas condiciones suficientes a para que el m´todo funcione son: e 1. 1/5.68 Cap´ ıtulo 3 3. 3 0 x3 y se obtiene que x1 = (0. que A sea sim´trica y definida positiva. e a a Ejemplo: Aplica el m´todo e  6 2 0 5 2 0 Tendremos que de Gauss-Seidel al siguiente sistema     0 x1 0 1  x 2  = 1  . 0 0 0 resolver el sistema     −2 0 0 0  0  + 1  0 −1 0 0 0 0 . 0. habr´ que a   1  0 0 x1 0  x1  = 0 5 0 2 0 3 x1 0 3   0 2 0 U = 0 0 1 .

. . w se llama factor de relajaci´n. xk ).Sistemas lineales 69 3. . . xk . . En un m´todo de relajaci´n se considera e o M= 1 D+L w N= 1−w D−U w con lo que M − N = A. . la informaci´n obtenida en a o cada etapa se incorpora a la siguiente. xk−1 . . Los m´todos que utilizan esto ultimo se e ´ llaman ”m´todos de relajaci´n sucesiva”y se desarrollaron para la resoluci´n de e o o sistemas con matrices de dimensi´n grande pero con casi todos los elementos o nulos. para calcular e k (xk ) se utilizan las componentes xk .6. xk−1 ). para calcular cada componente de xk se utilizan todos e los valores de xk−1 . e . . o • Super-relajaci´n si w > 1 o • Gauss-Seidel si w = 1. Sin embargo. n 1 2 3 Etapa 2: calculo xk usando (xk . . Adem´s. 1 2 n−1 En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de n con el consiguiente ahorro en tiempo. n i+1 el c´lculo de las componentes de xk se divide en etapas. 2) el m´todo no converge. . xk−1 . xk . .3 M´todos de relajaci´n e o En el m´todo de Jacobi. . n 3 1 2 4 k Etapa n: calculo xn usando (xk . xk−1 ). . xk−1 ). En funci´n de su o o valor se tiene • Subrelajaci´n si 0 < w < 1. . en el m´todo de Gauss-Seidel. utilizando en cada a una de ellas un vector diferente: Etapa 1: calculo xk usando (xk−1 . Si w ∈ (0. xk la componente i-´sima de x e 1 2 i i−1 del vector xk y las componentes xk−1 . xk−1 . . Una condici´n suficiente para la convere o gencia es que A sea sim´trica y definida positiva. . n 2 1 3 Etapa 3: calculo xk usando (xk . . De este modo. . . . . xk−1 del vector xk−1 . . xk . . .

.

Dicho polinomio se llama polinomio interpolador de los puntos. .Cap´ ıtulo 4 Aproximaci´n de funciones o Dada una tabla de datos como esta x y −1 −2 0 −2 1 0 2 4 que representa unos valores y en funci´n de otros x. existe un unico polinomio Pn (x) de grado menor o igual que n de ´ modo que Pn (xi ) = yi ∀i = 0. 1. yn ) con xi = xj . . pretendemos encontrar o una funci´n y = f (x) que pase por esos puntos. n. . . . . 71 . . y1 ).1 Construcci´n del polinomio interpolador o Teorema: Dada una tabla de n + 1 puntos (x0 . y0 ). (x1 . . (xn . o 4.

tiene una unica ´ soluci´n. . . . . Dicho polinomio es P (x) = −2 + x + x2 . . el sistema es compatible determinado y tiene una unica soluci´n. es decir. El sistema que resulta es a0 + a1 (−1) + a2 (−1)2 + a3 (−1)3 a0 + a1 (0) + a2 (0)2 + a3 (0)3 a0 + a1 (1) + a2 (1)2 + a3 (1)3 a0 + a1 (2) + a2 (2)2 + a3 (2)3 = = = = −2 −2 −2 4 Que es un sistema compatible determinado y que. 1. ´ o Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de la tabla x y −1 −2 0 −2 1 0 2 4 Como son 4 puntos buscaremos un polinomio de grado menor o igual que 3 de la forma Pn (x) = a0 + a1 x + a2 x2 + a3 x3 .72 Cap´ ıtulo 4 Demostraci´n. n tendremos que n a0 + a 1 x0 + a 2 x2 + · · · + a n x0 = y 0 0 2 + · · · + a xn = y a0 + a 1 x1 + a 2 x1 n 1 1 ··· 2 n a0 + a 1 xn + a 2 xn + · · · + a n xn = y n que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´gnitas en el que o el determinante de la matriz de los coeficientes es distinto de 0 : x0 x1 ··· 1 xn 1 1 2 x0 x2 1 ··· ··· xn 0 xn 1 xn n = 0. por tanto. Consideremos un polinomio cualquiera de grado menor o o igual que n : Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn . Puesto que queremos que Pn (xi ) = yi ∀i = 0. x2 · · · n Por lo tanto. existe un unico polinomio de grado menor o igual que 3 que o ´ pasa por los puntos de la tabla.

xi+k−1 ] • de orden k [xi . . xi+1 . xi+2 ] = [xi+1 .··· . Dados los puntos (x0 . . Por ejemplo: [x0 . . . se pueden calcular las diferencias divididas y • de primer orden: [xi . (x1 . xi+1 ] = xi+1 −yii i+1 −x La tabla siguiente permite construir de forma sencilla las diferencias divididas: .1. . x1 .··· . (xi − xn ) Li (xi ) = 1 de modo que Pn (xj ) = i=0 n Se verifica que Li (xj ) = 0 ∀i = j Li (xj )yi = yj . (x − xn ) = . x2 ]. xi+k ] = i+1 xi+k −xi Las diferencias divididas son invariantes frente a permutaciones.1 M´todo de Lagrange e Dados los puntos (x0 . . . . y0 ). (xi − xi−1 )(xi − xi+1 ) . yn ).Aproximacion de funciones 73 4.xi+2 ]−[xi . . Ejemplo: En el ejemplo anterior L0 (x) = L2 (x) x(x−1)(x−2) (−1)(−2)(−3) = (x+1)x(x−2) 2·1(−1) L1 (x) = L3 (x) (x+1)(x−1)(x−2) 1(−1)(−2) (x+1)x(x−1) = 3·2·1 4. . y1 ). . y0 ). el polinomio interpolador Pn (x) se puede calcular as´ ı: n Pn (x) = i=0 Li (x)yi donde Li (x) = Πj=i (x − xj ) (x − x0 )(x − x1 ) . (xn . (x1 .2 M´todo de Newton e • de segundo orden: [xi . . xi+1 . (x − xi−1 )(x − xi+1 ) . . yn ). . Πj=i (xi − xj ) (xi − x0 )(xi − x1 ) . . x2 ] = [x1 .xi+1 ] xi+2 −xi ··· [x . (xn . . . . . . y1 ).xi+k ]−[xi . x0 .1.

x2 . . x3 ] Cap´ ıtulo 4 El polinomio interpolador se construye a partir de las diferencias divididas as´ ı: Pn (x) = y0 + [x0 .74 x0 x1 x2 x3 . .. x2 ] [x1 . x2 . . x1 ] [x1 . . Teorema: Sea f (x) una funci´n n + 1 veces diferenciable en un intero valo (a. (t − xn ). b]. x1 . xn contenidos en [a. b] existe un punto θx ∈ (a. .2 Error del polinomio interpolador Dados los puntos (x0 . x3 ] [x0 . x3 ] [x0 . Para cada x ∈ [a. x2 . . . (n + 1)! Demostraci´n. si conocemos cierta informaci´n sobre las derivadas de la o o funci´n f (x). . (x1 . . . x1 . b) tal que f (x) − Pn (x) = f n+1) (θx ) (x − x0 )(x − x1 ) . . · · · + [x0 . Para un valor fijo o x ∈ [a. (x − xn ). x1 . x2 ](x − x0 )(x − x1 ) + . . . . . xn ](x − x0 )(x − x1 ) . x2 ] [x2 . Sea w(t) = (t − x0 )(t − x1 ) . y1 ). De modo que tenemos la funci´n o Φ(t) = f (t) − Pn (t) − λw(t) . . y0 y1 y2 y3 [x0 . Ejemplo: En el ejemplo anterior la tabla ser´ la siguiente ıa −1 0 1 2 −2 −2 0 4 0 2 4 1 1 0 y el polinomio ser´ P (x) = −2 + 1(x + 1)x. . yn ) que provienen de una cierta funci´n y = f (x). . podemos estimar el error que se comete al aproximar f (x) por o su polinomio interpolador Pn (x) de grado menor o igual que n. b) y sea Pn (x) su polinomio interpolador en los nodos x0 . x1 . (x − xn−1 ). . x1 ](x − x0 ) + [x0 . y0 ). b] existe un λ ∈ R tal que f (x) − Pn (x) = λw(x).. x1 . . ıa 4. (xn .

Polinomios de Chebyshev o Si pretendemos encontrar un polinomio que interpole a una determinada funci´n y los nodos no est´n previamente fijados. Por tanto.1 Elecci´n de nodos. xn . .8 · 10−7 10! 10! 4. a Φ2) (t) se anular´ en n puntos y Φn+1) (t) se anular´ en 1 punto θx ∈ (a. Φ1) (t) se anular´ en n + 1 puntos. ¿qu´ nodos podemos elegir? o a e Elegir los nodos proporcionados por los polinomios de Chebyshev tienen alguna ventaja. x1 . 1] mediante un polinomio interpolador en 9 nodos contenidos en el intervalo [0.2. . Definici´n: Los polinomios de Chebyshev se definen as´ o ı: T0 (x) = 1 T1 (x) = x Tn+1 (x) = 2xTn (x) − Tn−1 (x) si n ≥ 1 Proposici´n: Las ra´ o ıces del polinomio de Chebyshev Tn (x) si n ≥ 1 son los valores 2j − 1 cos π ∀1 ≤ j ≤ n. b): a a Φn+1) (θx ) = f n+1) (θx ) − P n+1) (θx ) − λwn+1) (θx ) = 0 es decir f n+1) (θx ) − λ(n + 1)! = 0 ⇒ λ = Como consecuencia f (x) − Pn (x) = f n+1) (θx ) w(x). 2n .Aproximacion de funciones 75 que vale 0 en x. . . (n + 1)! f n+1) (θx ) . x0 . (n + 1)! Ejemplo: El error al aproximar la funci´n f (x) = sen(x) en un punto o x ∈ [0. 1] se puede acotar as´ ı: |f (x) − P9 (x)| ≤ |f 10) (θx )| 9 1 |Πi=0 (x − xi )| ≤ < 2.

8] necesitamos una transformaci´n af´ αx+β que lleve el intervalo o ın . 1] en o ın el intervalo [a. 1]. n. El resultado del teorema permite encontrar una cota del error del polinomio interpolador m´s peque˜a que la establecida con car´cter general. 1] y en el intervalo [2. 2n (n + 1)! t∈[a. b]. b]. . o ıces entonces 1 max |f n+1) (t)|. se hace m´ o o ınima cuando xi son las ra´ ıces del polinomio de Chebyshev correspondiente. de interpolaci´n de una o funci´n f (x) en x ∈ [−1.3827 x3 = 0. Establece una cota del error en cada caso para la funci´n f (x) = o sin(x). si aplicamos a los nodos de Chebyshev la transformaci´n af´ que lleva el intervalo [−1. . todas las ra´ de cualquier polinomio de Chebyshev ıces est´n contenidas en el intervalo [−1. con i = 0.b] Ejemplo: Calcula los cuatro nodos para la interpolaci´n de una funci´n o o en el intervalo [−1. 1] tenemos un intervalo [a. obtenemos unos nuevos nodos tales que: |f (x) − Pn (x)| ≤ b−a n+1 2 max |f n+1) (t)|. Estos ser´ los nodos en el intervalo [−1. Para calcular los nodos en el ıa intervalo [2. a n a Si en lugar del intervalo [−1. 1.9239.3827 x2 = 0. 1] son las ra´ del polinomio de Chebyshev T n+1 (x).9239 x1 = −0. a Teorema: Si los nodos (xi ). . |f (x) − Pn (x)| ≤ n 2 (n + 1)! |t|≤1 La justificaci´n del teorema se basa en que la expresi´n o o max Πn |(x − xi )| i=0 |x|≤1 que proviene de la f´rmula general del error en la interpolaci´n. Calculamos las ra´ ıces de T4 (x) = 8x4 − 8x2 + 1 : x0 = −0.76 Cap´ ıtulo 4 Como consecuencia. 8] haciendo uso de los polinomio de Chebyshev. . 1].

Aproximacion de funciones [−1. 1] → [2. si elegimos los nodos xi igualmente espaciados. Aplicamos esta transformaci´n a los nodos de o o Chebyshev y obtenemos los nuevos nodos en el intervalo [2. se puede demostrar que los polinomios no convergen a la funci´n fuera del intervalo o [−3. 8] : x0 = 2. entonces Pn (x) converge uniformemente a f (x) en todo el intervalo.7716. Por ejemplo.1) Otro ejemplo es la funci´n f (x) = |x| en [−1. 5].63.8519 x2 = 6. 1] en el intervalo [2. No obstante. 8] −1 → α(−1) + β = 2 1 → α(1) + β = 8 77 Resolviendo el sistema formado por las dos ultimas ecuaciones. 3. o Para el intervalo [−1. Sin embargo. para cualquier elecci´n o de nodos es posible encontrar una funci´n continua tal que no se produce esa o convergencia uniforme. . 0. 8] : [−1. 23 4! ¿Es cierto que si n aumenta el polinomio Pn (x) se ”parece”m´s a la funa ci´n f (x)? En general la respuesta es que no.63].1481 x3 = 7. obtenemos que ´ la transformaci´n es 3x + 5. dada funci´n o o 1 f (x) = 1+x2 en [−5. 8] : |f (x) − Pn (x)| ≤ b−a n+1 2 max f n+1) (t) 2n (n + 1)! t∈[a. en la cual la convergencia o se produce solo en los puntos −1. 1. Veamos las cotas de los errores para la funci´n f (x) = sin(x) en cada caso.b] 1 1 max |f n+1) (t)| ≤ 3 2n (n + 1)! |t|≤1 2 (4)! ≤ 34 .2284 x1 = 3. 1]. si elegimos los nodos de Chebyshev y la funci´n f (x) a ino terpolar es continua y con derivada continua. (Ver figura 4. 1] : |f (x) − P (x)| ≤ Para el intervalo [2.

o se puede obtener una aproximaci´n a la funci´n f (x) dividiendo el intervalo o o en varios intervalos m´s peque˜os (subintervalos) y utilizando polinomios de a n peque˜o grado (1.5 1 -0. b].78 2 1.5 -4 -4 -2 2 4 -0. etc.5 1 0.3.3 4.2. La siguiente gr´fica muestra la funci´n seno y una funci´n que la a o o interpola con trozos de recta en varios puntos: 1 0.1: 1 1+x2 y sus polinomios interpoladores de grado 10 y 20.) distintos para interpolar los valores de cada sun bintervalo.5 Cap´ ıtulo 4 2 4 Figura 4.1 Interpolaci´n a trozos y con condiciones sobre o la derivada Interpolaci´n a trozos o Si disponemos de ciertos valores de una funci´n f (x) en un intervalo [a. 4.5 -1 2 3 4 5 6 .5 1 0.3.5 -2 2 1.

es decir. P (1) = 1 y P (0.3.5 = 2 b+c = 2 El sistema anterior no tiene soluci´n. con lo que habr´ que buscar entre los o ıa polinomios de grado 4.5) = 2. Puesto que son tres las condiciones que tenemos. Al plantear las ecuaciones correspondientes resulta un sistema con soluci´n no unica. o ´ Ejemplo 2 (Interpolaci´n de Hermite): Encuentra un polinomio P (x) que o interpole a una funci´n y = f (x) sabiendo que o x y y −1 1 2 0 1 0 1 −1 0 Puesto que hay seis condiciones para la funci´n y sus derivadas buscamos o entre los polinomios de la forma P (x) = a0 + a1 x + · · · + a5 x5 que tienen seis .Aproximacion de funciones Ejercicio: Dada la tabla x y −1 −2 0 −2 1 0 2 4 79 encuentra una funci´n formada o a) por trozos de recta b) por trozos de par´bola a que pase por los puntos anteriores. los polinomios de a grado 3 de la forma P (x) = a + bx + cx2 : P (0) = 0 a = 0 a = 0 P (1) = 1 ⇒ b+c = 1 ⇒ b+c = 1 P (0.2 Interpolaci´n con condiciones sobre la derivada o El siguiente es un ejemplo de problema de interpolaci´n con condiciones sobre o la derivada. cabe pensar que basta buscar entre los polinomios con tres par´metros. Ejemplo 1: Encuentra un polinomio P (x) tal que P (0) = 0. 4.5) = 2 b + 2 · c · 0.

0] Q(x) si x ∈ [0.5 -1 0.5 -0.80 Cap´ ıtulo 4 coeficientes. Planteamos el sistema correspondiente seg´n las condiciones y u obtenemos lo siguiente: P (−1) = 1 P (−1) = 2 a0 = 1 P (0) = 1 P (0) = 0 ⇒ a1 = 0 a2 = −3 P (1) = 0 P (1) = 0 2 a3 = −3 1 a4 = 2 a5 = 2 3 Con lo que el polinomio buscado es P (x) = 1 − 2 x2 − 3x3 + 1 x4 + 2x5 .5 -1 -0.2: La funci´n g(x) o Buscamos una funci´n de la forma o g(x) = P (x) si x ∈ [−1.5 1 Figura 4. 1] . 2 Ejemplo 3 (Interpolaci´n de Hermite c´bica a trozos): Encuentra una o u funci´n formada por trozos de polinomios de grado 3 que verifique las siguieno tes condiciones x y y −1 1 2 0 1 0 1 −1 0 1 0.

derivable y con derivada segunda continua) que verifique las siguientes condiciones x y −1 1 0 1 1 −1 1 + 2x2 + 2x3 si x ∈ [−1. 1] 1 0.5 1 Figura 4.5 -1 -0.2) Ejemplo 5 (Splines c´bicos): Encuentra una funci´n polin´mica c´bica a u o o u trozos que sea de clase C 2 (continua.5 -0. 0] 1 − 6x2 + 4x3 si x ∈ [0. A partir de las condiciones planteamos el sistema P (−1) = 1 P (−1) = 2 Q(0) = 1 Q (0) = 0 P (0) = 1 P (0) = 0 Q(1) = −1 Q (1) = 0 con lo que g(x) = (Ver Figura 4.Aproximacion de funciones 81 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 .5 -1 0. 0] Q(x) si x ∈ [0.3: La funci´n h(x) o Buscamos una funci´n de la forma o h(x) = P (x) si x ∈ [−1. 1] .

o o Demostraci´n. yi los valores de una cierta funci´n y sus derivadas en n + 1 puntos. si el sistema formado por las condiciones o ´ P j) (xi ) = 0 tiene como soluci´n unica el polinomio 0. Veamos que esto ultimo o ´ ´ . es decir. Sea P (x) un polinomio de grado menor o igual que m. Este sistema tiene soluci´n unica si el sistema Au = 0 tiene o ´ unicamente la soluci´n 0. · · · . Las j condiciones P j (xi ) = yi dan lugar a un sistema de m + 1 ecuaciones de la forma Au = y. a˜adimos las siguientes a n P (−1) = 0 Q (1) = 0 y obtenemos un sistema compatible determinado de modo que h(x) = (Ver Figura 4. Si el n´mero de condiciones impuestas es k1 + k2 + · · · + kn = m + 1 u entonces Teorema: Existe un unico polinomio de grado menor o igual que m que ´ satisface las condiciones de interpolaci´n de Hermite anteriores. yi . Por ejemplo. 0] 3 2 1 1 − x − 2 x + 2 x3 si x ∈ [0. 1] Interpolaci´n de Hermite o Un problema de interpolaci´n de Hermite consiste en encontrar un polinomio o P (x) (Polinomio de Hermite) tal que P (x0 ) = y0 P (x1 ) = y1 P (xn ) = yn P (x0 ) = y0 P (x0 ) = y0 · · · P (x1 ) = y1 P (x1 ) = y1 · · · ··· P (xn ) = yn P (xn ) = yn · · · k) k P k0 −1) (x0 ) = y0 0 −1 k P k1 −1) (x1 ) = y1 1 −1 k P kn −1) (xn ) = ynn −1 o siendo yi .3) 3 1 1 − x − 2 x2 − 2 x3 si x ∈ [−1.82 Cap´ ıtulo 4 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 de modo que P (−1) = 1 P (0) = 1 Q(0) = 1 Q(1) = −1 P (0) = Q (0) P (0) = Q (0) Puesto que tenemos 6 ecuaciones y 8 inc´gnitas necesitamos 2 condiciones o m´s.

x1 . . Si P (x) es el polinomio de grado menor o igual que 2n + 1 tal que P (xi ) = f (xi ) y P (xi ) = f (xi ). Por ejemplo. En estas condiciones el polinomio de interpolaci´n de Hermite se calcula de forma parecida a como se calculaba o el polinomio de interpolaci´n sin condiciones sobre la derivada. Un polinomio P (x) que sea soluci´n del sistema P j) (xi ) = 0 verifica o que tiene la ra´ xi repetida ki veces. x1 . x1 . . . . x1 . x2 ] [x0 . x2 . x0 . x1 ] [x0 . x1 ] [x0 . x0 ] x1 − x 0 1 2) 1 f (x0 ) [x0 . x0 ] = f 3) (x0 ) 2! 3! Y de forma similar el resto de diferencias. x1 . x0 . x0 ] = limx→x0 [x0 . x2 ] [x0 . b] y f ∈ C 2 [a. x2 ] . x2 ] [x1 . x1 . x0 ] = [x0 . si el a a problema de Hermite incluye datos sobre la funci´n y su derivada en tres o puntos la tabla quedar´ as´ ıa ı: x x0 x0 x1 x1 x2 x2 y y0 y0 y1 y1 y2 y2 10 [x0 . x2 ] [x1 . x1 ] [x1 . x2 ] 20 30 40 50 [x0 . x2 ] [x1 . x1 ] [x1 . Para ello definimos y − y0 f (x) − f (x0 ) [x0 . x0 . o o Ejercicio: ¿Qu´ otro nombre recibe el polinomio de Hermite cuando solo e hay un nodo? Teorema. x] = limx→x0 = limx→x0 = f (x0 ) x − x0 x − x0 [x0 . b] ∃θ ∈ [a. x2 . Sean x0 . con 0 ≤ i ≤ n. x1 . x2 . x1 ] = [x0 . x1 . x1 .Aproximacion de funciones 83 es cierto. x1 ] [x0 . x0 . . x0 ] [x0 . . x2 ] [x0 . x0 . x0 . . xn nodos distintos de [a. b] tal que f (x) − P (x) = f 2n+2) (θ) n Π (x − xi )2 (2n + 2)! i=0 El polinomio de Hermite se puede calcular usando las diferencias divididas. x1 . x0 . . x1 ] − [x0 . ser´ de ız ıa grado mayor o igual que m + 1. o El c´lculo es m´s sencillo haciendo uso de una tabla. x2 ] [x2 . b]. x1 . con lo que si P (x) no es cero. entonces ∀x ∈ [a. en contradicci´n con la hip´tesis inicial.

x1 ](x − x0 )2 (x − x1 ) + 1 k) k! f (x0 ) Cap´ ıtulo 4 . x0 . x0 . x1 ](x − x0 )2 + +[x0 . . Ejemplo: Calcula el polinomio que verifica estas condiciones: x y y −1 1 2 0 1 0 1 −1 0 En este caso la tabla quedar´ as´ ıa ı x y 1 0 20 30 40 50 -1 1 2 −2 2 −3/2 2 -1 1 0 0 −1 5/2 0 1 0 −2 4 0 1 −2 2 1 -1 0 1 -1 El polinomio ser´ ıa P (x) = 1+2(x+1)−2(x+1)2 +2(x+1)2 x−3/2(x+1)2 x2 +2(x+1)2 x2 (x−1) Ejemplo: Calcula el polinomio que verifica las siguientes condiciones: x y y y 1 2 3 2 6 7 8 . x1 . +[x0 . x0 . x2 ](x − x0 )2 (x − x1 )2 +[x0 . x1 . . x0 . x2 ](x − x0 )2 (x − x1 )2 (x − x2 ). x0 ](x − x0 ) + [x0 . x0 .84 siendo [x0 . x1 . x2 . x0 ] = k veces El polinomio ser´ ıa P (x) = y0 + [x0 . x1 . x1 . . .

. tal que en cada intervalo [xi . ´ o Splines Una funci´n spline de grado k con nodos x0 ≤ x1 ≤ · · · ≤ xn es una funci´n o o S(x) definida a trozos tal que: a) S(x) es un polinomio Si (x) de grado menor o igual que k en cada intervalo [xi . xi+1 ]. . el m´todo de intero e polaci´n c´bica de Hermite a trozos consiste en encontrar una unica funci´n o u ´ o derivable definida a trozos. n − 1. xn ]. xi+1 ] (i = 0. Planteando los correspondientes sistemas de ecuaciones. . . . n−1). Interpolaci´n c´ bica de Hermite a trozos o u Dada la tabla de valores x y y x0 y1 y1 x1 y2 y2 ··· ··· ··· xn yn yn correspondientes a una cierta funci´n y sus derivadas. con i = 0. . la funci´n es un polinomio Pi (x) de grado menor o igual a 3 que verifica lo o siguiente Pi (xi ) = yi Pi (xi+1 ) = yi+1 P (xi ) = yi Pi (xi+1 ) = yi+1 . . b) S(x) admite derivada segunda continua de orden k − 1 en [x0 . 1. .Aproximacion de funciones En este caso la tabla quedar´ as´ ıa ı x 1 1 2 2 2 y 10 20 30 40 2 3 1 2 −1 2 4 3 1 6 7 8/2!=4 6 7 6 85 El polinomio ser´ ıa P (x) = 2 + 3(x − 1) + 1(x − 1)2 + 2(x − 1)2 (x − 2) − 1(x − 1)2 (x − 2)2 . se puede encontrar la unica funci´n que interpola en esas condiciones. .

. x1 . y1 ). . (x1 . 1. . . . n − 1. con i = 0. . n total num. . El n´mero de condiciones que se u han de cumplir es el siguiente: condici´n o continuidad derivada 1a continua derivada 2a continua interpolaci´n o ecuaciones Si−1 (xi ) = Si (xi ) con i = 1. . b] (n → ∞) disminuyendo simult´neamente el tama˜o m´ximo de a n a los subintervalos [xi . . . . . xi+1 ] → 0). . Adem´s. siendo S(x) el spline natural. n. yn ) el spline natural es el que tiene menor energ´ el´stica (menor tensi´n1 ). ıa a o Por otra parte. . . . si la funci´n a interpolar f (x) tiene a o derivada segunda continua en [x0 . . n − 1 Si−1 (xi ) = Si (xi ) con i = 1. con i = 0. u a a con lo que el n´mero de inc´gnitas ser´ 4n−4. los splines natural y peri´dico existen y son unicos para cualquier o ´ conjunto de nodos y de datos. ec. o Sin embargo. n − 1 Si−1 (xi ) = Si (xi ) con i = 1. 1 La tensi´n o energ´ el´stica en [a. xi+1 ] (max0≤i≤n [xi .86 Cap´ ıtulo 4 El spline c´bico (k = 3) es el m´s usado en interpolaci´n. . . • Si exigimos S (x0 ) = S (xn ) y S (x0 ) = S (xn ) obtendremos el spline peri´dico. . o Se pueden elegir otras condiciones distintas del spline natural o del peri´dico. . (xn . . n − 1 Si (xi ) = yi con i = 0. . tendr´ 4 par´metros. b) y S(xi ) = f (xi ). . . si aumentamos el n´mero de puntos a interpolar en el u intervalo [a. para poder resolver u o a el correspondiente sistema de ecuaciones hemos de a˜adir dos condiciones m´s n a y podemos hacerlo de distintas formas: • Si exigimos S (x0 ) = 0 y S (xn ) = 0 obtendremos el spline c´bico u natural. y0 ). . xn ]. . . xn } es una funci´n que cumple las propiedades o o a). Es decir. de entre todas las funciones con derivada segunda continua que pasan por ciertos puntos (x0 . b] es proporcional a o ıa a b [f a (x)]2 dx. . . entonces el spline natural y su derivada convergen uniformemente a f (x) y f (x) respectivamente. Un spline c´bico de u a o u interpolaci´n en {x0 . . n−1 n−1 n−1 n+1 4n − 2 Cada polinomio c´bico Si (x). Por lo tanto. . . entonces b a [S (x)]2 dx ≤ b a [f (x)]2 dx.

Cap´ ıtulo 5

Diferenciaci´n e integraci´n o o num´rica e
5.1 Diferenciaci´n num´rica y extrapolaci´n de Rio e o charson

o ¿Puede calcularse la derivada de una funci´n f (x) en un punto si se conocen solo los valores de la funci´n f (x0 ), f (x1 ),. . . ,f (xn ) en n + 1 puntos? Si la o funci´n es un polinomio de grado n, entonces seguro que se puede. Si de o la funci´n solo sabemos que es derivable, entonces no ser´ posible, pues hay o a muchas funciones derivables que pasan por los mismos puntos. El objetivo de esta secci´n es estimar el valor de f (x) a partir de los valores de la funci´n o o en ciertos puntos f (x0 ), f (x1 ),. . . ,f (xn ) dando una cota del error cometido. Dado que f (x + h) − f (x) f (x) = lim h→0 h una primera estimaci´n es o f (x) ≈ f (x + h) − f (x) h

que es aplicable cuando conocemos los valores de la funci´n en dos puntos: o x0 = x y x1 = x + h. La f´rmula anterior es exacta para funciones lineales (por o ejemplo, para f (x) = 3x + 2) y en otros casos de manera fortuita. Calculemos 87

88 una cota del error. Por el teorema de Taylor: f (x + h) = f (x) + f (x)h + es decir f (x) = f (θ) 2 h 2!

Cap´ ıtulo 5

f (x + h) − f (x) h − f (θ). h 2

El error al aproximar f (x) por f (x) = f (x+h)−f (x) , llamado error de truncah miento, es h o error = − f (θ) (f´rmula de orden h) 2 siendo θ un n´mero entre x y x + h. Cuanto menor sea h, mejor ser´ la u a aproximaci´n de f (x), hasta que el error de redondeo impida la mejora. o Ejemplo: Estima el valor de la derivada de cos(x) en el punto una cota del error cometido. Tomando como h = 0.01 f ( π + h) − f ( π ) cos( π + 0.01) − cos( π ) π 4 4 4 4 f ( )≈ = = −0.71063050. 4 h 0.01 La cota del error ser´ ıa |error| = | − 0.01 0.01 h f (θ)| = | cos(θ)| ≤ = 0.005. 2 2 2
π 4

y calcula

Otra estimaci´n de f (x) es o f (x) ≈ f (x + h) − f (x − h) . 2h

Veamos la estimaci´n del error. Del teorema de Taylor se deduce que o f (x + h) = f (x) + f (x)h + h f (x) + h f (θ1 ) 2 6 2 3 f (x − h) = f (x) − f (x)h + h f (x) − h f (θ2 ). 2 6
2 3

´ ´ Diferenciacion e integracion Si restamos las ecuaciones anteriores f (x + h) − f (x − h) = 2f (x)h + Despejando f (x) = f (x + h) − f (x − h) h2 − [f (θ1 ) + f (θ2 )] 2h 12 h2 [f (θ1 ) + f (θ2 )] 12 h3 [f (θ1 ) + f (θ2 )]. 6

89

con lo que el error de truncamiento ser´ ıa −

siendo θ1 un n´mero entre x y x + h y θ2 un n´mero entre x y x − h. Si f (x) u u existe y es continua en [x−h, x+h], entonces existe un n´mero θ ∈ [x−h, x+h] u f (θ1 )+f (θ2 ) , con lo que error de truncamiento quedar´ ıa tal que f (θ) = 2 error = − h2 f (θ) 6 (f´rmula de orden h2 ). o

Para estimar el valor de una derivada segunda podemos usar la f´rmula o f (x) = f (x + h) − 2f (x) + f (x − h) . h2

Veamos la estimaci´n del error. Por el teorema de Taylor o f (x + h) = f (x) + f (x)h + f (x − h) = f (x) − f (x)h +
h2 2 f h2 2 f

.

(x) + (x) −

h3 6 f h3 6 f

(x) + (x) +

h4 4) 24 f (θ1 ) h4 4) 24 f (θ2 )

Si sumamos las ecuaciones anteriores y despejamos f (x) = f (x + h) − 2f (x) + f (x − h) h2 4) − [f (θ1 ) + f 4) (θ2 )]. h2 24

Siendo θ1 y θ2 n´meros que est´n entre x y x + h y entre x y x − h. Si f 4) (x) u a existe y es continua, entonces existe un n´mero θ ∈ [x − h, x + h] tal que u error = h2 4) f (θ) 12 (f´rmula de orden h2 ) o

Si derivamos i=0 n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w (x) (n + 1)! + 1 d w(x) (f n+1) (θx )) (n + 1)! dx Si x = xk n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )w (xk ) . . . .j=k (xk − xj ) (n + 1)! que es una forma de calcular un valor aproximado de f (xk ) a partir de los valores x0 .j=k (xk − xj ) nos queda n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )Πn j=0. . . . se tiene que : o n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w(x) (n + 1)! donde w(x) = Πn (x − xi ).1. .1 Diferenciaci´n mediante interpolaci´n o o Dada una funci´n f (x) y recordando c´mo se calcula el polinomio de interpoo o laci´n en los puntos x0 .xn .90 Cap´ ıtulo 5 5. (n + 1)! Y como n w (x) = i=0 n Πn j=0. . . x1 .xn . x1 .j=i (x − xj ) ⇒ w (xk ) = Πj=0.

Siendo x0 = x1 − h y x2 = x1 + h se obtiene la f´rmula ya o conocida f (x1 ) ≈ f (x1 − h) 2x1 − (x1 − h) − (x1 + h) −h + f (x1 ) (−h)(−2h) (h)(−h) h f (x1 + h) − f (x1 − h) + f (x1 + h) . 3! Apartado b). o b) Calcula lo anterior con x1 − x0 = x2 − x1 = h Apartado a). Puesto que L x0 = (x − x1 )(x − x2 ) (x0 − x1 )(x0 − x2 ) L x1 = (x − x0 )(x − x2 ) (x1 − x0 )(x1 − x2 ) (x − x0 )(x − x1 ) L x2 = (x2 − x0 )(x2 − x1 ) se tiene que L x0 = 2x − x1 − x2 2x − x0 − x2 L x1 = (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) 2x − x0 − x1 L x2 = . 3! 3! .´ ´ Diferenciacion e integracion 91 Ejemplo: a) Aplica la f´rmula anterior para calcular f (x1 ) con n = 2. (x2 − x0 )(x2 − x1 ) 2x1 − x0 − x2 x1 − x 2 + f (x1 ) (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) x1 − x 0 + f (x2 ) (x2 − x0 )(x2 − x1 ) 1 3) f (θx1 )(x1 − x0 )(x1 − x2 ). (2h)(h) 2h Por tanto f (x1 ) ≈ f (x0 ) siendo el error de esta aproximaci´n o siendo el error de esta aproximaci´n o 1 3) 1 f (θx1 )(h)(−h) = − f 3) (θx1 )h2 .

. n Por el teorema de Taylor sabemos que ∞ f (x + h) = k=0 1 k k) h f (x) k! ∞ y f (x + h) = k=0 1 (−1)k hk f k) (x). 3! 5! Si definimos Φ(h) = f (x+h)−f (x−h) y denotamos ai al coeficiente de hi en la 2h f´rmula anterior. (5.1) .2) con error = h2 a2 + a4 h2 + a6 h4 + . . . . . . .. . que es la f´rmula ya conocida de aproximaci´n de f (x) o o f (x) ≈ Φ(h) Si sustituimos h por h/2 h a2 a4 a6 f (x) = Φ( ) + 2 h2 + 4 h4 + 6 h6 + .2 Extrapolaci´n de Richarson o La extrapolaci´n de Richarson sirve para generar resultados de gran exactitud o cuando se usan f´rmulas de bajo orden. 2 2 2 2 y multiplicando por 4 h a4 a6 4f (x) = 4Φ( ) + a2 h2 + h4 + 4 h6 + . . tenemos o f (x) = Φ(h) + a2 h2 + a4 h4 + a6 h6 + . . 2h 3! 5! 7! 2 3 3) 2 h f (x) + f 5) (x) + . k! Restando las f´rmulas anteriores o f (x + h) − f (x − h) = 2hf (x) + y despejando f (x) f (x) = f 3) (x) 2 f 5) (x) 4 f 7) (x) 6 f (x + h) − f (x − h) − h + h + h + . 2 4 2 (5.1.92 Cap´ ıtulo 5 5. .. La extrapolaci´n puede aplicarse o o siempre a cualquier m´todo de aproximaci´n en el que sepamos el t´rmino de e o e error de una forma previsible y se basa en un par´metro que generalmente es a el tama˜o de paso h.

1) es h 3a4 4 15a6 6 3f (x) = 4Φ( ) − Φ(h) − h − h 2 4 16 que.2)-(5.1) = = 0..3333333136 3 y .1. da origen a la f´rmula de aproximaci´n o o 4 h 1 f (x) ≈ Φ( ) − Φ(h) 3 2 3 que tambi´n puede expresarse e Φ( h ) − Φ(h) h 2 f (x) ≈ Φ( ) + 2 3 con error = h4 − a4 5a6 2 − h − .. 4 16 con error = h4 − a4 5a6 2 − h − . o Tomamos h = 0.. f (x) ≈ Φ(h) = f (x + h) − f (x − h) 2h √ √ f ( 2 + 0.3334876594 Usando la extrapolaci´n o f (x) ≈ Φ(h/2) + (El valor exacto es 1/3).1 f (x) ≈ Φ(h/2) = 0.´ ´ Diferenciacion e integracion con lo que (5.1) − f ( 2 − 0. Φ(h/2) − Φ(h) = 0.3339506968 2 · 0.. despejando f (x). calcula f ( 2) haciendo uso de la extrapolaci´n de Richarson. 4 16 93 √ Ejemplo: Siendo f (x) = arctan(x).

.. . . (5. 4 h 2 4 (5. . .. Sustituyendo h por h/2 f (x) = Ψ(h/2) + b4 y multiplicando por 24 16f (x) = 16Ψ(h/2) + b4 h4 + b6 Restando (5. .. .. 4 h6 + .4) que tambi´n puede expresarse e f (x) ≈ Ψ(h/2) + Ψ(h/2) − Ψ(h) 15 con error =h6 −b6 1 + ...1... f (x) = Ψ(h) + b4 h4 + b6 h6 + ..3) + b6 h 2 6 + . .94 Si en la f´rmula (5. . 15 15 20 h6 + . 20 16 1 h6 Ψ(h/2) − Ψ(h) − b6 + . 20 El proceso puede continuar de forma similar tomando ahora otra funci´n o 1 16 Ω(h) = 15 Ψ(h/2) − 15 Ψ(h). b4 = 3 −a4 4 .4)-(5. Se puede demostrar el siguiente resultado: Teorema: El algoritmo de Richarson genera aproximaciones a f (x) cada vez de un orden superior.2) denotamos Ψ(h) = o b6 = −5a6 .3) nos queda 15f (x) = 16Ψ(h/2) − Ψ(h) − 3b6 y al despejar f (x) f (x) = da origen a la f´rmula o f (x) ≈ 1 16 Ψ(h/2) − Ψ(h) 15 15 con error =h6 −b6 1 + . obtenemos la expresi´n o 16 h 4 3 Φ( 2 ) Cap´ ıtulo 5 − 1 Φ(h).

1) − arctan( 2 − 0. h) = R(0. 42 − 1 Etapa 2.33395069677432 2 · 0.05) − Ψ(0.1. h/2) − R(0.33333333328933.33333333206104 3 y a partir de estos dos valores obtenemos la aproximaci´n Ω(h) o Ω(0. h) = R(1. h/2) calculo las aproximaciones R(1.33333331363671 3 Calculando Φ(h/4) (Φ(0. el proceso de extrapolaci´n de Richarson puede resumirse as´ o ı: Etapa 0.025) − Φ(0. A partir de R(1.33337191390106) podremos tambi´n calcue lar Ψ(h/2) Ψ(0.1) = = 0.05 A partir de esos dos valores y aplicando la f´rmula (5. h) .1) = 0.05) Φ(0.1)) = 0.33348765942111 2 · 0. A partir de R(0.2) con h y h/2 para obtener las dos primeras o aproximaciones de orden 2 √ √ arctan( 2 + 0.1.1) = Φ(0.1 √ √ arctan( 2 + 0.05) − Φ(0. Calculo distintas aproximaciones R(0. h) en funci´n de un par´metro o a f (x+h)−f (x−h) h (en nuestro caso R(0. h) = Φ(h) = ). h/2) + R(0. 2h Etapa 1.05) + Φ(0.1) = Ψ(0. h/2) calculo las aproximaciones R(2. Aplicamos la f´rmula (5.´ ´ Diferenciacion e integracion 95 Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular √ f ( 2) siendo f (x) = arctan(x) y tomando h = 0. h/2) + . h/2) − R(1. 41 − 1 R(1.025) = 0.2) calculamos la aproo ximaci´n Ψ(h) que es de orden 4 o Ψ(0. 15 En general.05) = = 0. h) .05) − arctan( 2 − 0. h) y de R(1.05) = Φ(0.05) = 0. h) y de R(0.1) Φ(0.025) + Φ(0.05) + Ψ(0.1.

obtenemos una f´rmula como esta o b a n f (x)dx ≈ b Ai f (xi ). e o . La idea es sustituir a f (x)dx por a p(x)dx. Si utilizamos el m´todo de Lagrange e para calcular el polinomio interpolador n n p(x) = i=0 f (xi )lxi (x) con lxi (x) = j=0 x − xj . h/4) . R(2. h) = R(n − 1.. h/4) R(0. por ejemplo un polinomio interpolador en unos o nodos x0 . Si en el ejemplo utilizado los nodos est´n igualmente e a espaciados. b].. R(3. h/2) + . A partir de R(n − 1.. .. h/2) R(0.5) se denomina f´rmula de cuadratura y los puntos xi son los nodos de cuadratura. 5. h/2) calculo las aproximaciones R(n − 1. . h) R(1...96 Cap´ ıtulo 5 Etapa n. .5) o En el ejemplo anterior Ai = a lxi (x)dx.. h/8) . 4n − 1 Etapa 0 R(0. h) y de R(n − 1. . . h/2) . x1 . xi − x j tendr´ ıamos que b a b n b f (x)dx ≈ p(x)dx = a i=0 f (xi ) a lxi (x) es decir.. h/2) − R(n − 1.2 Integraci´n num´rica mediante interpolaci´n o e o b El objetivo es obtener un valor aproximado de a f (x)dx sin calcular la prib b mitiva de f (x).. h) R(2. h/2) R(1. h) .. i=0 (5. Etapa 1 R(1... Etapa 2 Etapa 3 . h) R(0. estaremos hablando del ”m´todo de Newton-Cˆtes”. h) R(n. siendo p(x) una funci´n que se parezca a f (x). Una expresi´n como (5. Las o f´rmulas as´ construidas son exactas para los polinomios de grado menor o o ı igual que n (¿por qu´?). xn del intervalo [a.

. A0 = e b−a = 1 (b − a) y A0 = 2 ra queda as´ ı b a n b a lx0 (x)dx b a lx1 (x)dx 1 o = 2 (b − a). a a g(x)dx.1: f´rmulas de cuadratura gr´ficamente o a 5.4 0. lx1 (x) = x−a . Puesto que lx0 (x) = a−x . Si g(x) no cambia de signo en todo x ∈ [a. b].6 0. de modo que b a b b b f (x)dx − p(x)dx = a a f (x) − p(x)dx = a f (ξx ) (x − a)(x − b)dx 2 Puesto que (x − a)(x − b) no cambia de signo en todo [a.1 Regla del trapecio El caso particular del m´todo de Newton-Cˆtes con n = 1 se conoce coe o b−x mo el m´todo del trapecio. b].8 1 0. aplicando la generalizaci´n del o o teorema de valor medio del c´lculo integral 1 obtenemos que el error es a f (ξ) 2 1 b a (x − a)(x − b)dx = f (ξ) (a − b)3 2 6 Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a.2.5 1 2 -1 Figura 5. b] y suponiendo que f (x)/2 es una funci´n continua en [a. la f´rmula de cuadratu- f (x)dx ≈ Ai f (xi ) = i=0 b−a [f (a) + f (b)] 2 La expresi´n del error del polinomio de interpolaci´n p(x) para n = 1 es o o f (ξx ) f (x) − p(x) = 2 (x − a)(x − b). b]. b] y h(x) es continua en [a. b] tal que: b b h(x)g(x)dx = h(ξ) .2 -1 1 2 -3 -2 -1 -0.5 0.´ ´ Diferenciacion e integracion 97 1 0. entonces existe un punto ξ ∈ [a.

248151272255559. ya que el t´rmino del error e contiene el factor f 4) (ξ).248151272255559 0. 12 2 2 2 2 5.2 +4·0.2 | = 2.2. .2e0. b]. 0.2 − 0 0 [e + e0.2 ] = 0.23 | = 0.20408107741924 2 Sabiendo que si x ∈ [0.2)| = |2e0. se conoce como la regla de Simpson 2 1/3: b a f (x)dx ≈ h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 con error − f 4) (ξ) h5 90 para un cierto ξ ∈ [a. b).2 0 2 0. Por ser una f´rmula de Newton-Cˆtes con tres puntos o o es exacta para polinomios de grado menor o igual que 2.00149876751484.98 Cap´ ıtulo 5 para un cierto valor ξ ∈ (a. o o El caso n = 2. En resumen. b].2] entonces |f (x)| = |2ex +4x2 ex | ≤ |f (0. si h = b − a.2 x2 0 e dx con la f´rmula de Newton-Cˆtes con n = 1 o o ex dx ≈ 0. una cota del error ser´ a | − 2.2 Regla de Simpson La f´rmula de Newton-Cˆtes para n = 2 o n = 3 se llama Regla de Simpson. Ejemplo: Calcula (regla del trapecio). h = b−a y xi = x0 + ih. 0.6) para un cierto ξ ∈ [a. pero adem´s es exacta a para los polinomios de grado menor o igual que 3. la Regla del Trapecio quedar´ as´ ıa ı: b a f (x)dx ≈ h [f (a) + f (b)] 2 con error= − f (ξ) h3 12 (5.

(0. la regla del trapecio compuesta consiste en fijar unos puntos a = x0 < x1 < · · · < xn−1 < xn = b y aplicar la regla del trapecio a cada intervalo [xi−1 .2027 3 2 Sabiendo que si x ∈ [0.2 + 48e0.2] entonces |f 4) (x)| = |12ex + 48ex x2 + 16ex x4 | ≤ |f 4) (0. Es equivalente a sustituir f (x) por una funci´n que interpole a f (x) y que o est´ formada por trozos de l´ e ınea.2 ] = 0.3 Reglas compuestas Este m´todo consiste en dividir el intervalo [a.2) 2 2 2 = |12e0. se conoce como la regla de 3h5 80 f (x)dx ≈ 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 con error − f 4) (ξ) para un cierto ξ ∈ [a.24 | = 14.2 x2 e dx con la f´rmula de Newton-Cˆtes con n = 2 o o ex dx ≈ 2 0. En general es preferible usar una regla con n par (n´mero impar de puntos) que con n u impar.2 0.2 0 2 0.2 0.22 + 16e0. Si los puntos est´n igualmente espaciados a . 0.´ ´ Diferenciacion e integracion El caso n = 3. b]. Ejemplo: Calcula 0 (regla de Simpson 1/3). Por ejemplo.6 ∗ 10−6 90 2 una cota del error ser´ a | − 14.2/2)5 | = 1.5147 5.1 + e0. Es mejor usar la regla de Simpson 1/3 que la de 3/8. h = Simpson 3/8: b a b−a 3 99 y xi = x0 + ih. b] en subintervalos y aplicar e en cada uno de ellos una regla simple. puesto que ambas son de orden 5 y | − 1/90| < | − 3/80|.2/2 0 2 2 [e + e0.2. 0. xi ]: b n xi xi−1 f (x)dx = a i=1 f (x)dx ≈ 1 2 n i=1 (xi − xi−1 ) [f (xi−1 ) + f (xi )] .5147.

b].1 y x2 = 0.2 = 0.100 Cap´ ıtulo 5 (h = xi − xi−1 = b−a .2 0. . 2.2: Regla del trapecio compuesta con 3 y 4 puntos Ejemplo: Calcula un valor aproximado de 0 ex dx mediante la regla del trapecio compuesta.2 0 0. 1 0. xi = a + ih con i = 1.2 − 0)(ex (2 + 4ex )) ≤ − 0.6 0.2 -1 1 2 1 0.2 · f (0.8 0.8 0.2 2 ex dx ≈ 2 0.00187346 12 12 .4 0.6 0.4 0. . .2 -1 1 2 Figura 5. La f´rmula es exacta para polinomios de grado o menor o igual que 1.2) = 0. la regla del trapecio n compuesta nos queda b a f (x)dx ≈ h [f (x0 ) + 2f (x1 ) + · · · +2f (xn−1 ) + f (xn )] 2 h2 con error − (b − a)f (ξ) 12 para un cierto ξ ∈ [a.12 2 2 (0.201085 2 Una cota del error ser´ ıa − 0. . n).1 0 2 2 e + 2e0. x1 = 0. Si tomamos tres puntos x0 = 0.12 0.1 + e0.

b] es par podemos u aplicar de forma sencilla la regla de Simpson compuesta con h = b−a . 5.´ ´ Diferenciacion e integracion 101 Si el n´mero n de intervalos en los que dividimos [a. x1 . A1 . b]. . .4 M´todo de los coeficientes indeterminados e Las reglas de Newton-Cˆtes con n + 1 puntos son exactas para los polinomios o b de grado n. . El objetivo de esta secci´n es. . 3 + 4f (xn−1 ) + f (xn )] o lo que es lo mismo b a n 2 f (x)dx ≈ f (x0 ) + [2f (x2i )+4f (x2i−1 )] + f (xn ) i=1 con error − b − a 4 4) h f (ξ) 180 con ξ ∈ [a. . . el problema se puede resolver de forma similar al siguiente ejemplo. En cada caso. . . An que aseguren que la b f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) es exacta para los polinoo i=0 mios de grado n. . es decir. el resultado que obtenemos al calcular con esa regla la integral de un polinomio de grado n es el valor exacto. si en la f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) o i=0 b tomamos los coeficientes Ai = a lxi (x)dx. o xn . xi = n a + ih (0 ≤ i ≤ n). . encontrar el valor de los coeficientes A0 . . dados un conjunto de n + 1 puntos x0 .2. aplicando a cada dos subintervalos la regla de Simpson 1/3 b x2 x4 xn f (x)dx = a x0 f (x)dx + x2 f (x)dx + · · · + f (x)dx xn−2 con lo que obtenemos la f´rmula o b a f (x) ≈ h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + .

102 Cap´ ıtulo 5 Ejemplo: Encuentra los valores A0 . es la misma f´rmula que se obtendr´ con el a o ıa m´todo de Simpson. En particular la f´rmula tendr´ que ser exacta para los polinomios 1. x y x2 que forma una o a base del conjunto de los polinomios de grado menor o igual que 2: 1 = 1 2 = 1 3 = 1 0 1dx 1 0 xdx 1 2 0 x dx = A0 + 1A1 + A2 = 0A0 + 1 A1 + A2 2 = 0A0 + 1 A1 + A2 4 2 y obtenemos que A0 = 1 .3 Cuadratura gaussiana 1 Supongamos que queremos obtener una f´rmula de cuadratura o f (x)dx = A1 f (t1 ) + A2 f (t2 ) −1 pero no fijamos previamente los valores de t1 . t2 . Para calcular estos valores y puesto que tenemos 4 inc´gnitas. e 5. le imponemos 4 condiciones: que o . A1 = 3 y A2 = 1 . Adem´s. la f´rmula ser´ o ıa tambi´n exacta porque e 1 1 1 1 P (x)dx = a 0 0 1dx + b 0 xdx + c 0 x2 dx = 1 1 = a(A0 + 1A1 + A2 ) + b( A1 + A2 ) + c( A1 + A2 ) = 2 4 1 1 2 = A0 (a) + A1 (a + b + ( ) c) + A2 (a + 1b + 12 c) = 2 2 1 = A0 P (0) + A1 P ( ) + A2 P (1) 2 que ser´ el resultado obtenido al aplicar la f´rmula de cuadratura con los ıa o coeficientes calculados. Adem´s. A1 y A2 . si P (x) = a + bx + cx2 a 6 6 es cualquier otro polinomio de grado menor o igual que 2. A1 y A2 para que la f´rmula o 1 0 1 f (x)dx ≈ A0 f (0) + A1 f ( ) + A2 f (1) 2 sea exacta para los polinomios de grado menor o igual que 2.

´ ´ Diferenciacion e integracion 103 la f´rmula sea exacta para los polinomios de grado menor o igual que 3. n+1 0 π 2 Ejemplo: Calcula un valor aproximado de tura gaussiana de dos t´rminos. podr´ e ıamos averiguar primero los nodos . Por tanto la f´rmula o 1 f (x)dx = f (− −1 1 ) + f( 3 1 ) 3 es exacta para integrar cualquier polinomio de grado menor o igual que 3 en el intervalo [−1. Ya hemos deducido cuales son los nodos ti y los coeficientes Ai 4 (i = 1. e sen(x)dx mediante cuadra- Como el intervalo de integraci´n es [0. . b] se utiliza una transformaci´n af´ o ın que lleve un intervalo en el otro. Si no supi´ramos cuales son. t2 = −t1 . 1] en [0. . Para integrarlos en [a. π ]. x2 y x3 : 1 3 3 3 −1 x dx = 0 = A1 t1 + A2 t2 1 2 2 2 2 −1 x dx = 3 = A1 t1 + A2 t2 1 −1 xdx = 0 = A1 t1 + A2 t2 1 −1 1dx = 2 = A1 + A2 Restando a la ecuaci´n primera la tercera multiplicada por t2 obtenemos o 1 0 = A2 (t3 − t2 t2 ) = A2 t2 (t2 − t1 )(t2 + t1 ) 2 1 con lo que se obtiene alguno de los siguientes valores: A2 = 0. . 2. Los polinomios de Legendre se construyen as´ ı: L0 (x) = 1 L1 (x) = x Ln+1 = (2n + 1)xLn (x) − nLn−1 (x) . x. π ]. es o decir. 1]. t2 = 0. Los nodos ti (i = 1. . 2). t2 = t1 . Dicho cambio es x = π t + π con lo ın 2 4 4 que dx = π dt. Sustituyendo en el resto de las ecuaciones podemos comprobar que solo es aceptable t2 = −t1 y que en ese caso los par´metros son A1 = A2 = 1 a y t2 = −t1 = 1 3. hemos de hacer un cambio de o 2 variable af´ que lleve [−1. n) en la cuadratura gaussiana coinciden con las ra´ ıces del polinomio de Legendre de grado n. para 1.

0) = b a f (x)dx R(M.2) R(3.7) La ultima f´rmula se obtiene aplicando la extrapolaci´n de Richarson que ´ o o es un proceso que ya hemos utilizado en otra ocasi´n. El factor 4m1−1 depende o .4 Integraci´n de Romberg o Para aplicar el m´todo de integraci´n de Romberg construimos una tabla como e o esta R(0.3) .99847.. . m − 1) − R(n − 1. Posıces teriormente calcular´ ıamos los coeficientes Ai planteando un sistema de ecuaciones. 1) R(2. 0) = f (a + (2i − 1) b−a ) 2n (Regla del trapecio para 2n intervalos) 1 R(n. R(M. 0) R(3. 3) . M ) 1 (b − a) [f (a) + f (b)] 2 (Regla del trapecio para 20 intervalos) 1 b−a R(n − 1.. m) = R(n. m − 1)] 4 −1 (Extrapolaci´n de Richarson) o (5. 0) R(1. 2) R(M. En todo caso se obtendr´ ıa π 2 1 sen(x)dx = −1 sen π sen 4 0 π π t+ 4 4 π (− 4 π dt = 4 1 π )+ 3 4 + sen π ( 4 1 π )+ 3 4 ≈ 0.2) R(3. = 5. 1) R(M. 0) R(1. 0) + n 2 2 2n−1 i=1 R(n. 1) R(2. donde. 0) R(M.104 Cap´ ıtulo 5 2 calculando las ra´ del polinomio de Legendre de grado 2 (L2 = 3x 2−x ). 1) R(3. m − 1) + m [R(n. si queremos aproximar R(0. 0) R(2. .

ıa n=0 n=1 n=2 n=3 n=4 m=0 55.4529 .1572 17.5981 2 R(1.5174 2 R(2.5 + e2 = 20.´ ´ Diferenciacion e integracion 105 del orden de convergencia del m´todo empleado.5174 20. m − 1). b] entonces la sucesi´n que o o b se obtiene en cada columna del m´todo de Romberg converge a a f (x)dx.4756 16.5981 30.4535 16.4529.0334 16. A partir o de la aproximaci´n R(n. 0) es la regla del trapecio compuesta con 22 intervalos: R(2.3537 17. El resto de e t´rminos se calculan seg´n la f´rmula 5. 0 R(0.4588 16. e de Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 x2 e dx. 0) es la regla del trapecio compuesta con 21 intervalos: R(1. 0) = 2−0 0 2 (e + e2 ) ≈ 55. m − 1) que se considera que mejora a la anterior o R(n − 1. 0) = 2/4 0 e + 2e0.5 + 2e1 + 2e1. 0) = 1 0 e + 2e1 + e2 = 30.4843 16.4530 16. j) se considera una aproximaci´n a a f (x)dx.5386 16.6446 17. 0) de la primera columna.7 La mejor aproximaci´n obtenida e u o o 2 x2 ser´ 0 e dx ≈ 16. m) = (+exacta) + 4m 1 [(+exacta) − (-exacta)] .6446 2 y de modo similar los t´rminos R(n. en este caso la regla del e trapecio. −1 Teorema: Si f (x) es una funci´n continua en [a.7354 m=1 m=2 m=3 m=4 22. m): o R(n. 0) es la regla del trapecio con 20 = 1 intervalo: R(0. b Cada valor R(i. se construye otra mejor aproximaci´n R(n.5651 16.

65898 0.65882 0.6719 2.65882 0.65859 0.65882 0.6667 n = 2 2.6667 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 0.6667 2.65882 0.66211 0.6667 n = 3 2. .6667 n = 4 2. Obtenemos la tabla siguiente n=0 n=1 n=2 n=3 n=4 m=0 0.5 −x2 de 0.65181 0.65947 0. 0 de Obtenemos la tabla siguiente en donde a mejor aproximaci´n obtenida o 2 ser´ 0 x2 dx ≈ 2.6667 2.2 e La mejor aproximaci´n obtenida ser´ o ıa ≈ 0.65886 m=1 m=2 m=3 m=4 0.6667.69302 0.106 Cap´ ıtulo 5 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 2 x dx.6667 2.65882.65904 0.65882 0.6875 2.6667 2.6667 m=2 m=3 m=4 2.65883 0.2 e dx.75 2.5 −x2 dx 0.6667 2.65883 0. ıa m=0 m=1 n=0 4 n=1 3 2.

4 ⇒ S1 [0. calcula la regla de Simpson. xi+1 ] con las siguientes condiciones: • Se fija un par´metro llamado tolerancia T.2 ⇒ S2 [0.94814815. 1].5 Cuadratura adaptativa A grandes rasgos. En o caso contrario se divide el intervalo en dos subintervalos disjuntos. 2 Paso 2.2. 1 1 0.6 − 0.2. 2 1 − 0.2.2 = 0. h2 = 2 .51851852.2 = 0. xi+1 ]: T[ xi .6] y en [0.6.2 ⇒ S2 [0. en concreto en [0. a • Se obtienen dos estimaciones de cuadratura. 1] = 4. Aplicamos la regla de Simpson para calcular la integral: h1 = 1 − 0. el m´todo consiste en calcular un valor aproximado de una e b integral a f (x)dx dividiendo el intervalo [a.xi+1 ] se estima definitivamente xii+1 f (x)dx por extrapolaci´n. b] en intervalos disjuntos [xi . 1] = 0. 0.6 = 0.2.´ ´ Diferenciacion e integracion 107 5.6] = 3.02. xi+1 ] = T (xi+1 − xi ).66851852. Aplicamos la regla de Simpson compuesta en dos subintervalos de [0. • Se estima b a f (x)dx: b n xi+1 f (x)dx = a i=0 xi f (x)dx Ejemplo: Fijado un valor de tolerancia T = 0.6. xi+1 xi f (x)dx mediante una f´rmula de o • Se fija la tolerancia en el intervalo [xi . 0.2 x2 dx usando Paso 1. 1]: h2 = 0. (b − a) x • Si la diferencia entre las dos estimaciones de xii+1 f (x)dx es menor que x T[xi .

1]. 0.52314815)y en [0.6 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] 2 x 15 1 0. ıa Si la diferencia hubiera sido menor que T.2 x2 dx. 0.6.4] + S3 [0.2.4] = 2. Con estas condiciones la tolerancia ser´ 0.6.6]). 1] = 0.01.161111 > T[0.4. 1] (S3 [0. 0. Calculo la diferencia entre ambas estimaciones: S1 [0. 0. 0.6]) = 0. 0.6 x2 dx : o 1 0.6] donde la tolerancia tambi´n es 0.6.01 en [0. el proceso contin´a fijando la tolerancia de u forma proporcional al tama˜o de cada subintervalo y de modo que sume la n tolerancia total T = 0. 0.2.8.66681049 − 0.6] de la integral e o en el intervalo y aplicamos la regla de Simpson en [0.6.01.4] (S3 [0.6] (S3 [0. 0.2. Puesto o que la diferencia es mayor que T.6. 0. Actuamos ahora sobre el intervalo [0.6. Hasta ahora tenemos dos aproximaciones a 0. 1] y S2 [0.6] = 0. 0.8] = 0.6] y 0.2. a saber: S1 [0.66851852−0.2.8] (S3 [0. 0.66681049 = 0. Contamos con una estimaci´n S2 [0.001708 < T [0.2. 1]) = 0.6] = 0.6. 1]−(S3 [0.4.2.108 1 Cap´ ıtulo 5 1 Paso 3. 1]. 1]) = 0.6] + S2 [0.6 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.6.4.02. 0.6] − (S3 [0. 1] o 1 1 de 0. 0. Comparamos ambas estimaciones: S2 [0.6] + S2 [0. 0.8. 0.2.01 en a [0. . Comparamos ambas estimaciones: S2 [0.2.1] = 0.2.6.6.4] + S3 [0.8] + S3 [0. 1] − (S2 [0. 0.66851852) = 0.02. 0.25002572).01 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 1 1 estimaci´n definitiva de 0.7611111 > T = 0.4.0.66669662 15 Paso 5.6.2.66681049 + (0. el proceso finalizar´ efectuando una extrapolaci´n del tipo: o (+exacta) + 1 [(+exacta) − (-exacta)] 15 entendiendo que la primera estimaci´n es menos exacta que la segunda. Paso 4.83435926) para obtener una nueva (S3 [0. Estudiamos el intervalo [0. Tenemos la estimaci´n S2 [0. 1].41678477) y en [0.2.2.

0002220 < T[0. Comparamos ambas estimaciones: S3 [0. 0. 0.3] = 0.4] o 0.3.3. 0. 0.0. 0.4] = 0. 0. 0. .4].4] − (S5 [0. 0.4. 0.4.5.4. Paso 8.005.33334864).3. 0. Paso 6.0.2.5.4] en los intervalos [0.2. 0.2. Estudiamos el intervalo [0.4].2.4 1 de 0. 0.4.2.4] = 0.2. Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0.2.2.6] − (S4 [0.6] (S4 [0.4] = 0.4 1 de 0.3.4].3. 0.0. 0. 0.4.50005144) y en [0. 0.6] = 0.6] o 0.005.3. 0.3. 0.4 1 1 [(+exacta) − (-exacta)] = 0. 0.35.3] y [0.2.0. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0. Tenemos la estimaci´n S3 [0.4] (T[0.6] = 0.6 1 estimaci´n definitiva de 0. 0.0.6].4]. Tenemos la estimaci´n S3 [0. 0.4] = 0.6] = 0.4.005 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0. 0. 0.4 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.0.2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.4]) > T[0.4] = 0.5.0025.5] + S4 [0. 0.3] + S4 [0.005 y T[0.2.6 0. dx ≈ (+exacta) + 2 x 15 Paso 7.6] en los intervalos [0.6 1 de 0.0. Con estas condiciones T[0.4] y [0.0025.2.6] (T[0.3. Estudiamos el intervalo [0.0.005). Con estas condiciones T[0.3.6]) = 0.3] y [0.4.4. 0.2.2.2.4] o 0.35] + S5 [0.000859 < T[0.2.3 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.0.0.4] − (S4 [0.0.8333428.2. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0. Estudiamos el intervalo [0.35.4]. 0. Comparamos ambas estimaciones: S3 [0.´ ´ Diferenciacion e integracion 109 Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0.5.6] (S4 [0. Tenemos la estimaci´n S4 [0.6].3.35] y [0.0025 y T[0.4]) = 0.01). 0.6] = 0. 0. Comparamos ambas estimaciones: S4 [0.5] = 0.4 x2 dx : o 0. 0.

666686 + 0.4 x 0.4 1 estimaci´n definitiva de 0.8333428 + 0. 0.3 x 0.3 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 0.83333492.6 1 1 1 1 1 1 dx = dx + dx + dx + dx 2 2 2 2 2 x 0.00005957.3 1 estimaci´n definitiva de 0.0025.66669662 = 4.3] o 0.2. Tenemos la estimaci´n S4 [0.3 0.4 0.3 x2 dx : o 0.3]) < T[0.2.3].2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.2 x 0. 0.25] y [0. Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.4 0.2 x2 dx Por lo tanto. 0. 2 x 15 Paso 9.3 1 de 0. Comparamos ambas estimaciones: S4 [0.666686. Estudiamos el intervalo [0. 0. la estimaci´n mediante este m´todo de o e 1 0.2 ser´ ıa: 0.6 x = 1.3] = 0.25.110 Cap´ ıtulo 5 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0. 0.25.3]. 0.25] + S5 [0. 2 x 15 1 1 0. 0.2.0.2 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 1.2.2 x2 dx : o 0. .83333492 + 0.2.3] − (S5 [0.3 0.2.

h)] 4n −1 Integraci´n o b n i=0 ( a li (x)dx)f (xi ) h [f (x0 ) + f (x1 )] 2 h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 h [f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )] 2 h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + · · · + 4f (xn−1 ) + f (xn )] 3 1 − 12 h3 f (ξ) 1 − 90 h5 f 4) (ξ) 3 − 80 h5 f 4) (ξ) − (b−a) h2 f (ξ) 12 − (b−a) h4 f 4) (ξ) 180 1 1 f (− 3 ) + f ( 3 ) R(n. m − 1)] 1 Si+1 [a. h/2) − R(n − 1. b] + 15 Si+1 [a.j=k (xk (n+1)! − xj ) R(0. m − 1) + 4m1−1 [R(n. b] − Si [a. h) = f (x+h)−f (x−h) 2h R(n. m − 1) − R(n − 1. m) = R(n. h) = R(n − 1.Tabla diferenciaci´n e integraci´n num´rica o o e Derivaci´n o f (x) = f (x+h)−f (x) h f (x) = f (x+h)−f (x−h) 2h f (x) = f (x+h)−2f (x)+f (x−h) h2 n f (xk ) = i=0 f (xi )Li (xk ) − h f (ξ) 2 2 − h f (ξ) 6 2 − h f 4) (ξ) 12 1 n f n+1) (ξxk )Πj=0. b] 1 . h/2) + 1 [R(n − 1.

.

) = 0. . ). es decir. la soluci´n general de una EDO de orden k es una familia o de funciones que depende de una par´metro k. otra depeno diente de la primera y(x) y derivadas de distinto orden de la segunda respecto de la primera (y (x).1 Existencia y unicidad de soluciones F (x. . y (x). .Cap´ ıtulo 6 Resoluci´n num´rica de o e ecuaciones diferenciales 6. y (x). una ecuaci´n que contiene una variable independiente x. a 113 . y (x). El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´n. o El grado de una EDO es el mayor exponente de la derivada de mayor orden que aparece en la ecuaci´n. y(x). o Ejemplo: ecuaci´n o y = y tan(x + 3) (y )2 = y tan(x + 3) y = y tan(x + 3) orden 1 1 2 grado 1 2 1 Una ecuaci´n diferencial ordinaria (EDO) es una expresi´n de la forma o o La soluci´n general de una EDO es una familia de funciones que verifican o la EDO. . En general. . .

entonces existe una unica soluci´n de la ecuaci´n y = R ´ o o 0 0 f (x. Una soluci´n particular es y = ( 3 x) o o es y = 0. Una soluci´n particular de una EDO es un elemento particular de la soluo ci´n general. a o x 2 − {x = 0}. Sea f (x. y) tal que y(x0 ) = y0 . o En general.1. 3 Ejemplo: Encuentra d´nde tiene soluci´n unica la ecuaci´n y = o o ´ o −y x . y) y ∂f ∂y son continuas en un rect´ngulo D del plano a 2 y (x . entonces el problema y = f (x. Una soluci´n singular es una funci´n que verifica la EDO pero o o o que no est´ recogida en la soluci´n general. Por ejemplo.y) Teorema: Si f (x. y0 ) ∈ D. La gr´fica de dicha funci´n aparece en la figura 6. La soluci´n general de y = −y es y = a sen(x) + b cos(x). si la condici´n inicial o o es y(0) = 2 el problema no tiene soluci´n. ∂f (x. y (x)) = 0 se puede expresar de la forma y = f (x. con a ∈ R y o b ∈ R. R Por el teorema anterior. Sin embargo. 1) est´n dentro de un rect´ngulo que a su vez est´n contenido ´ a a a 2 en R2 − {x = 0}. Dicha soluci´n es y = x . la b´squeda de soluciones exactas de una ecuaci´n diferencial u o es un problema dif´ ıcil. y(x). Por ello se usan m´todos num´ricos para encontrar e e soluciones aproximadas. y) = −y . tiene soluci´n o ´ o x unica porque (2. el problema y = −y con y(2) = 1.114 Cap´ ıtulo 6 Ejemplo: La soluci´n general de y = sen(x) es y = − cos(x) + k con o k ∈ R. Si una EDO de primer orden F (x.y) = −1 es continua tambi´n en e f (x. y) es continua en R ∂y x 2 − {x = 0}. El planteamiento t´ ıpico de una ecuaci´n diferencial o ordinaria de grado 1 con valor inicial es . a o Ejemplo: La ecuaci´n y = y 1/3 tiene como soluci´n general y = ( 2 x) 2 +C o o 3 3 2 2 + 4 y una soluci´n singular con C ∈ R. y ) ∈ D. si existe un rect´ngulo D ⊂ R2 − {x = 0} y a (x0 . y(x)) entonces (x. y) tal que y(x0 ) = y0 tiene soluci´n unica.

es decir.5 0 -2.2 M´todo de la serie de Taylor e Para resolver el problema (6. los m´todos o o e de interpolaci´n. el m´todo de Taylor de orden k propone e sustituir la funci´n desconocida y(x) por su polinomio de Taylor de orden k o . Usando esa tabla podemos o construir una aproximaci´n de la funci´n mediante. En lo que sigue. con lo que xi = x0 + ih. y(x)) Por ejemplo y = −2x − y y(x0 ) = y0 (6. y(xi ) denotar´ el valor exacto de la funci´n y(x) a o en el punto xi . trabajaremos con puntos xi igualmente o espaciados. por ejemplo.Ecuaciones diferenciales 115 5 2.1) y(0) = −1.1). La soluci´n num´rica de una EDO ser´ una tabla de valores aproximados o e a de la funci´n y(x) en un conjunto de puntos xi . yi ser´ un valor aproximado de y(xi ).1: La funci´n f (x. separados cada uno del siguiente por un tama˜o de paso n h.5 -5 -10 -5 0 5 10 -10 Figura 6. a 6. y) = o y x 10 5 0 -5 y = f (x.

por lo que hay que sustituirlos por aproximaciones: y(xi ) y (xi ) y (xi ) y k) (xi ) ≈ yi f (xi . y) + fy (x. De modo que. y)y (x. es decir y(xi+1 ) = y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) Cap´ ıtulo 6 h2 hk + · · · + y k) (xi ) + 2 k! Los valores de la funci´n y(x) y de sus derivadas en xi son desconocidos en o general. y0 ) h2 dk-1 f (x0 . yi ) hk d f (xi . y) + fy (x.116 en un entorno de cada punto xi . y) respecto x e y.. dx Elegido. y0 )h + d f (x0 . y1 ) h2 dk-1 f (x1 . y) = fx (x. yi ) d f (xi . y) respecto de x hay que tener en cuenta que es una funci´n de dos variables y que y es funci´n de x. y)f (x. y). denotando o o fx y fy a las derivadas parciales de f (x. y) = fx (x. el m´todo de Taylor paso a paso ser´ el n e ıa siguiente: Paso 1. Partimos del punto x0 . yi ) dx dk-1 f (xi . Partimos de x1 = x0 + h y calculamos una aproximaci´n y(x2 ): o y2 = y1 + f (x1 . y0 ) hk + ··· + dx 2 d xk−1 k! Paso 2. ≈ De este modo obtenemos la expresi´n del m´todo: o e yi+1 = yi + f (xi . tendr´ ıamos.. yi )h + dk-1 f (xi . yi ) d xk−1 ≈ ≈ . yi ) h2 + ··· + dx 2 d xk−1 k! A la hora de derivar f (x. el tama˜o del paso h. y1 )h + d f (x1 . por ejemplo que d f (x. obtenemos una aproximaci´n de y(x1 ) o y1 = y0 + f (x0 . y1 ) hk + ··· + dx 2 d xk−1 k! .

yi ) 4 h + h + h 2 3! 4! Paso 1.125 · 0. −0.1. yi ) 3 −2 − f (xi . y) y (x) = [y (x)] = [−2x − y(x)] = −2 − y (x) = −2 − f (x. Partimos de xi = xi−1 + h y calculamos una aproximaci´n de o y(xi+1 ): yi+1 = yi + f (xi . obtenemos el valor aproximado yi+1 = yi + f (xi . y) y 4) (x) = [y (x)] = [−y (x)] = −y (x) = −2 − y (x) = −2 − f (x. obtenemos el valor aproximado y2 = −0.Ecuaciones diferenciales 117 Paso i+1.5 · 0. y) definimos el m´todo e −2 − f (xi . Paso 2. obtenemos el valor aproximado y3 = −0.4561927.14 = −0.8561927 y f (x2 .8561927. y1 ) = f (0.9145125) = 0. −1) = 1.12 + 0. y) y (x) = [y (x)] = −y (x) = 2 + y (x) = 2 + f (x. y0 ) = f (0.5 · 0.1 − 1. yi ) h2 + ··· + dx 2 d xk−1 k! Ejemplo: Proporciona tres valores aproximados de la funci´n y(x). soluo ci´n de y = −2x − y con y(0) = −1 mediante el m´todo de Taylor con k = 4 o e y tama˜o de paso h = 0.13 − 0. Como y1 = −0. −0.8561927) = 0. yi )h + dk-1 f (xi .2. yi ) 2 2 + f (xi . y2 ) = f (0.9645125. yi )h + y1 = −1 + 0.1. n Calculamos el desarrollo de Taylor hasta grado 4 de la funci´n y(x) en un o punto cualquiera xi : y (xi ) 2 y (xi ) 3 y 4) (xi ) 4 h + h + h 2 3! 4! Denotando yi al valor aproximado de y(xi ) y dado que y(xi + h) ≈ y(xi ) + y (xi )h + y (x) = f (x.8224553 . Como y0 = −1 y f (x0 . Paso 3. yi ) hk d f (xi .9145125 y f (x1 . Como y2 = −0.7145125.

se deduce que y2 = y1 + f (x1 . error de truncamiento global 3.787 Puesto que f (x3 .9 Puesto que f (x1 . y2 ) = 0.9 + 0.43. yi )h Ejemplo. y0 ) = 1 con lo que y1 = y0 + f (x0 .187 · 0. y0 )h = −1 + 1 · 0. y3 ) = 0.83 + 0. Resuelve la ecuaci´n y = −2x − y con y(0) = −1 mediante el o m´todo de Euler.1 = −0.7.118 Cap´ ıtulo 6 6.7683 6.1 = −0. error de redondeo global 5.83 Puesto que f (x2 . se deduce que y3 = y2 + f (x2 .1 M´todo de Euler e Es el m´todo anterior usando el polinomio de Taylor de orden 1 e yi+1 = yi + f (xi . y1 ) = 0. se deduce que y4 = y3 + f (x3 .2. error de redondeo local 4.2. error de truncamiento local 2.43 · 0. y3 )h = −0.187.2 Errores Al resolver num´ricamente una ecuaci´n diferencial aparecen varios tipos de e o errores: 1. y2 )h = −0. y0 = −1. f (x0 .1 = −0.1 = −0. y1 )h = −0. e Con estos datos se tiene que x0 = 0. error total .787 + 0.7 · 0.

Ecuaciones diferenciales

119

El error de truncamiento local es el que aparece en un paso cuando reemplazamos un proceso infinito por uno finito. Por ejemplo, en el m´todo de e Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de infinitos t´rminos) por los primeros k-t´rminos. En este caso, para un cierto e e ci ∈ R, se tiene que y(xi + h) = y(xi ) + y (xi )h + y k) (xi ) k y k+1) (ci ) k+1 y (xi ) 2 h + ··· + h + h 2! k! (k + 1)!

y dado que en el algoritmo usamos la aproximaci´n o y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) 2 y k) (xi ) k h + ··· + h 2! k!

se deduce que el error local en el paso i-´simo es proporcional a hk+1 , digamos e Ci hk+1 . Un error de esa magnitud se dice que es O(hk+1 ). La acumulaci´n de todos los errores de truncamiento local genera el error o de truncamiento global. Si al aplicar un m´todo el error de truncamiento e k+1 ), el tama˜ o de paso es h, el punto inicial es x y el punto final local es O(h n 0 es xn , entonces el n´mero de pasos ser´ n = xn −x0 y puesto que u a h C1 hk+1 + C2 hk+1 + · · · + Cn hk+1 = hk+1 (C1 + C2 + · · · + Cn ) ≤

≤ hk+1 n max{C1 , C2 , . . . , Cn } = Chk

siendo C = (xn − x0 ) max{C1 + C2 + · · · + Cn }, el error de truncamiento global ser´ O(hk ). Si un m´todo tiene error de truncamiento global O(hk ) decimos a e que el procedimiento num´rico es de orden k. El m´todo de Taylor usando e e el desarrollo hasta grado k es un m´todo de orden k. e El error de redondeo local es el que en cada paso es provocado por la limitada precisi´n de nuestras m´quinas de c´mputo, como ya se coment´ el o a o o tema inicial del curso. El error de redondeo global es la acumulaci´n de los o errores de redondeo local en los pasos anteriores. El error total es la suma de los errores de truncamiento global y redondeo global.

6.3

M´todos de Runge-Kutta e

Los m´todos de Taylor tienen el inconveniente de la dificultad de c´lculo de e a las sucesivas derivadas de la funci´n y(x). En los m´todos de Runge-Kutta se o e

120

Cap´ ıtulo 6

elimina esa dificultad. Las ideas que dan origen a este conjunto de m´todos e se resumen en los siguientes pasos: Paso 1. Consideramos la igualdad
xi+1 xi+1

y(xi+1 ) − y(xi ) = y despejamos y(xi+1 )

y (x)dx =
xi xi

f (x, y(x))dx.

xi+1

xi+1

y(xi+1 ) = y(xi ) +
xi

y (x)dx =
xi

f (x, y(x))dx.

Paso 2. Realizamos el cambio de variable x = xi + θh en la integral anterior y obtenemos
1

y(xi+1 ) = y(xi ) + h
0

f (xi + θh, y(xi + θh))dθ.

(6.2)

Paso 3. Consideramos el conjunto de puntos 0 = θ0 ≤ θ1 ≤ . . . θm ≤ 1 del intervalo de integraci´n [0, 1] y estimamos la integral anterior mediante una o o f´rmula de cuadratura del siguiente tipo
1 0

F (θ)dθ ≈ A0 F (θ0 ) + A1 F (θ1 ) + · · · + Am F (θm )

o con lo que, denotando xiθj = xi + θj h, en la ecuaci´n (6.2) obtenemos y(xi+1 ) ≈ y(xi ) + h A0 f xiθ0 , y(xiθ0 ) + A1 f xiθ1 , y(xiθ1 )

+ · · · + Am f xiθm , y(xiθm ) . (6.3)

La f´rmula de cuadratura elegida puede variar, pero se le ha de exigir que o al menos sea exacta para las funciones constantes, lo que se traduce en que los coeficientes han de cumplir la condici´n o A0 + A 1 + · · · + A m = 1 El m´todo de Runge-Kutta ser´ la f´rmula que resulta de sustituir en la ecuae a o ci´n (6.3) los valores y(xi ), y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ) por sus valores aproxio mados. Si bien dispondremos en cada paso del valor yi que aproxima a y(xi ), no ocurre lo mismo con las aproximaciones de y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ).

Ecuaciones diferenciales

121

Paso 4. En esta etapa conseguiremos obtener un algoritmo para las aproximaciones aludidas en el apartado anterior. De forma similar a como se obtuvo la ecuaci´n (6.2), llegamos a la igualdad o
θj

y(xiθj ) = y(xi ) + h

f (xi + θh, y(xi + θh))dθ
xi

y aplicando una f´rmula de cuadratura para cada j o
θj xi j j j F (θ)dθ ≈ B0 F (θ0 ) + B1 F (θ1 ) + · · · + Bj−1 F (θj−1 )

(6.4)

a la integral anterior, se obtienen las aproximaciones buscadas
j−1

y(xiθj ) ≈ y(xi ) + h

j Bk f (xiθk , y(xiθk )). k=0

Las f´rmulas de cuadraturas usadas en (6.4) han de ser exactas al menos para o las funciones constantes, por lo tanto los coeficientes deben verificar
j j j B0 + B1 + · · · + Bj−1 = θj

j = 1, . . . , m.

e o Paso 5. Si denotamos yiθj a una estimaci´n de y(xiθj ), un m´todo de RungeKutta quedar´ as´ ıan ı: yi+1 = yi + h[A0 f (xiθ0 , yiθ0 ) + A1 f (xiθ1 , yiθ1 ) + · · · + Am f (xiθm , yiθm ) (6.5) siendo yiθ0 = yi 1 yiθ1 = yi + h B0 f (xiθ0 , yiθ0 ) 2 2 yiθ2 = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) ... m m yiθm = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) + . . . m · · · + Bm−1 f (xiθm−1 , yiθm−1 ) Previamente deben fijarse los valores 0 = θ 0 ≤ θ1 ≤ θ2 ≤ . . . θm ≤ 1

Un m´todo como el anterior se conoce con el nombre de m´todo de Rungee e Kutta de m+1 etapas. el m´todo de Runge-Kutta que resulta e es el m´todo de Euler. entre otras posibilidades. podemos obtener. yi0 ) + f (xi1 . θ1 = 1/2 . . o Ejemplo: Para m = 0 (una etapa). y). yi ) con lo que yi+1 = yi + h 1 1 f (xi . yi1 ) 2 2 siendo yi0 = yi yi1 = yi + hf (xi . .. Am m B0 m B1 .5) requiere m+1 evaluaciones o de la funci´n f (x...6) El llamado m´todo de Euler modificado sale con la elecci´n e o θ0 = 0. yi )) 2 2 (6. debido a que la f´rmula (6. el m´todo de Heun: e θ0 = 0. yi + hf (xi . m Bm−1 m−1 m k=0 Bk = θm m r=0 Ar =1 1 2 2 B0 = θ 1 B0 + B 1 = θ 2 .. e Para m = 1 (dos etapas).122 Cap´ ıtulo 6 as´ como los siguientes par´metros que han de cumplir con las condiciones de ı a las sumas correspondientes que aparecen en el cuadro A0 A1 1 B0 A2 2 B0 2 B1 . yi ) + f (xi+1 . θ1 = 1 A0 = 1/2 A1 = 1/2 A 0 + A1 = 1 1 =1 B0 1 B0 = θ 1 = 1 1 1 yi+1 = yi + h[ f (xi0 ... .

yi ) + f (xi + h. yiθ1 ) 4 4 siendo yiθ0 = yi yiθ1 = yi + h con lo que el m´todo queda as´ e ı 2 3 f (xiθ0 . yi ) 2 con lo que el m´todo queda e yi+1 = yi + hf xi + h h . yiθ1 )] siendo yi0 = yi yi1/2 = yi + h 1 f (xi . yiθ0 ) 1 3 2 2 yi+1 = yi + h[ f (xi .7) Otra elecci´n posible es o θ0 = 0. yiθ0 ) + f (xiθ1 . yi ) 4 4 3 3 El m´todo cl´sico de Runge-Kutta es de m = 3 (cuatro etapas) definido e a por los par´metros a 0 = θ0 θ1 = 1/2 θ2 = 1/2 θ3 = 1 . θ1 = 2/3 A0 = 1/4 A1 = 3/4 A 0 + A1 = 1 1 = 2/3 B0 1 B0 = θ1 = 2/3 1 3 yi+1 = yi + h[ f (xiθ0 . yi + f (xi . yi + h f (xi .Ecuaciones diferenciales A0 = 0 A1 = 1 A 0 + A1 = 1 1 = 1/2 B0 1 B0 = θ1 = 1/2 123 yi+1 = yi + h[f (xiθ1 . yi ) 2 2 (6.

Partimos de x0 = 1.82316. y0 + hK3 ) = −1. Paso 1.8) Ejercicio: Aplica tres pasos del m´todo cl´sico de Runge-Kutta de orden e a 4 con h = 1/128 para resolver la ecuaci´n o y = yx − y 2 x2 y(1) = 2. . y1 + h K2 ) = −1. y0 + h K1 ) = −1.86570 2 2 K4 = f (x1 + h.95355 2 2 K3 = f (x0 + h . y1 ) = −1. Calculamos K1 = f (x1 . 6 1 128 . Partimos de x1 = 1 + y1 = 1.98473. Para aplicar la ecuaci´n (6. 2) = −2 K2 = f (x0 + h . yi + hK3 ) K3 = f (xi + 2 .90899 K2 = f (x1 + h . y0 ) = f (1.8) o previamente calculamos K1 = f (x0 . yi ) K2 = f (xi + h . y0 = 2.124 A0 = 1/6 A1 = 1/3 1 B0 = 1/2 A2 = 1/3 2 B0 = 0 2 = 1/2 B1 A3 = 1/6 3 B0 = 0 3 =0 B1 3 B2 = 1 2 3 k=0 Bk = 1 Cap´ ıtulo 6 3 r=0 Ar =1 1 2 2 B0 = 1/2 B0 + B1 = 1/2 que da lugar a yi+1 = yi + donde K1 = f (xi . y1 + hK3 ) = −1. y1 + h K1 ) = −1. Paso 2. yi + h K1 ) 2 2 h h K4 = f (xi + h. Con estos datos obtenemos y1 = y 0 + h (K1 + 2K2 + 2K3 + K4 ) = 1.86520 2 2 K3 = f (x1 + h . y0 + h K2 ) = −1. yi + 2 K2 ) h (K1 + 2K2 + 2K3 + K4 ) 6 (6.95409 2 2 K4 = f (x0 + h.98473.90898.

78186 2 2 h K3 = f (x2 + 2 .97016. Con estos datos obtenemos y3 = y 2 + h (K1 + 2K2 + 2K3 + K4 ) = 1. 6 6. xi−k . e e es decir. Partimos de x2 = 1 + y2 = 1. 125 Paso 3.96088. yi . y2 + h K2 ) = −1. Partimos siempre de la ecuaci´n o y = f (x.3. xi . Calculamos K1 = f (x2 . los m´todos de Runge-Kutta de 1.78231 2 K4 = f (x2 + h.4 M´todos multipaso e Tanto los m´todos de Taylor como los de Runge-Kutta son m´todos de un e e paso. en general para k ≥ 7 se necesitan un n´mero de etapas mayor o u igual que k + 2. Sabemos que y (x) ≈ y(x + h) − y(x − h) 2h .2. Los m´todos multipaso se caracterizan e por obtener yi+1 a partir de los valores h. 3. adem´s de xi a y de h. 6.4.3. yi−k . .74215.3. . Para conseguir orden k = 5 es necesario 6 etapas. .Ecuaciones diferenciales Con estos datos obtenemos y2 = y 1 + h (K1 + 2K2 + 2K3 + K4 ) = 1.97016. y2 + hK3 ) = −1. y2 ) = −1.2. 7 etapas. su orden. Se da la igualdad para k = 1. . porque para calcular el valor aproximado yi+1 solo se usa. y) y(x0 ) = y0 . 6 2 128 . xi−1 . yi−1 . Existen m´todos de Runge-Kutta de orden k con k menor e o igual que el n´mero de etapas m + 1. para k = 6. 2.4 etapas tienen orden 1. 4. el valor aproximado anterior yi . y2 + h K1 ) = −1.82311 K2 = f (x2 + h . e respectivamente. Ejemplo: Un primer ejemplo sencillo de un m´todo multipaso se puede e obtener de la siguiente forma. u Es decir.1 Errores Los m´todos de Runge-Kutta tienen tambi´n su error de truncamiento global.

126 con lo que y(xi ) ≈ y se deduce que y(xi+1 ) ≈ y(xi−1 ) + 2 h y (xi ). y(x))dx. . Para empezar a aplicarlo tenemos que e disponer de y0 e y1 . y aplicamos el cambio de variable x = xi + θh 1 y(xi+1 ) − y(xi ) = h f (xi + θh. e Partimos de la relaci´n o xi+1 xi+1 y(xi+1 ) − y(xi ) = y (x)dx = xi xi f (x. lo que sugiere el m´todo e yi+1 = yi−1 + 2 h f (xi .9) y nos queda y(xi+1 ) − y(xi ) ≈ h A0 f (xi + θ0 h. Este ultimo puede calcularse con un m´todo de un paso. y(xi+1 ) − y(xi−1 ) 2h Cap´ ıtulo 6 Para poder obtener el punto yi+1 son necesarios los dos valores anteriores yi . ´ e El que sigue es un proceso para obtener un conjunto de m´todos multipasos.10) lo cual sugiere un m´todo que resultar´ de sustituir los valores de la funci´n e a o por valores aproximados. y(xi + θk h)) (6. yi ). yi−1 . y(xi + θh))+ + A1 f (xi + θ1 h. Es un m´todo de dos pasos. 0 Aproximamos la integral anterior por una f´rmula de cuadratura o 1 0 F (θ)dθ = A0 F (θ0 ) + A1 F (θ1 ) + · · · + Ak F (θk ) (6. y(xi + θh))+ + · · · + Ak f (xi + θk h. y(xi + θh))dθ.

obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A1 = − 2 1 3 y la soluci´n del sistema anterior es A0 = 2 y A1 = − 2 .Ecuaciones diferenciales Ejemplo: Deduzcamos el m´todo de orden 2 e 127 yi+1 = yi + h 1 3 f (xi . que es un m´todo de Runge-Kutta o e de orden 2: y1 = y0 + hf x0 + h h . yi ) − f (xi−1 . y0 ) = 1.11) Si en la f´rmula de cuadratura (6. Usamos el m´todo e e de Euler modificado (ver ecuaci´n (6. Sustituyendo en o (6. yi−1 ) 2 2 (6.98474.11) necesitamos dos puntos iniciales y0 .10) nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 3 f (xi .9) tomamos los puntos o θ0 = 0 θ1 = −1 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. y solo o disponemos del valor y0 = 2. yi ) − f (xi−1 .7)). y1 . Es habitual calcular los puntos necesarios para empezar mediante un m´todo de un paso del mismo orden. yi−1 . 2 2 . 2 2 1 3 f (xi . y(xi )) − f (xi−1 . y(xi−1 ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 Para aplicar la f´rmula (6. y0 + f (x0 .

debido a que la definici´n de yi+1 es expl´ o ıcita en funci´n de los valores anteriores.10) deseo que aparezca la funci´n f (x. y2 ) − f (x1 . y0 = 1. yi−1 )+ 720 + 2616f (xi−2 . yi−1 ) + · · · + Ak−1 f (xi−k+1 . Dado que en dicho proceso se utiliza el cambio de variable x = xi + θ h.128 Cap´ ıtulo 6 Ya disponemos de y0 e y1 y podemos calcular y2 aplicando (6. yi ) − 2774f (xi−1 . yi ) − 59f (xi−1 . yi−3 ) + 251f (xn−4 . yi ) + A1 f (xi−1 . 2 2 Con y1 e y2 podemos calcular y3 y2 = y 1 + h y3 = y 2 + h Y as´ sucesivamente. yi−3 ) h 1901f (xi . yi−1 ) 2 3. yi ) − 1 f (xi−1 . yi−2 ) − 1274f (xi−3 . de orden 4: yi+1 = yi + h 55f (xi . yn−4 ) 3 2 f (xi .11) 3 1 f (x1 .95627. y1 ) − f (x0 . yi−1 )+ 24 + 37f (xi−2 .1 F´rmulas de Adams-Bashforth o Un m´todo multipaso de la forma e yi+1 = yi + A0 f (xi . a diferencia o de los m´todos impl´ e ıcitos que veremos en es siguiente apartado. de orden 5: yi+1 = yi + Todas ellas se pueden obtener siguiendo el proceso descrito en la p´gina a 126. ı 1 3 f (x2 . yi−2 ) − 9f (xi−3 .97018. y1 = 1. y) valorada en o o los puntos . 2 2 6.4. Estos m´todos o e se encuadran dentro de los m´todos multipaso expl´ e ıcitos. Estos son algunos ejemplos de f´rmulas de Adams-Bashforth: o 1. yi−k+1 ) es una f´rmula de Adams-Bashforth de k pasos y orden k. de orden 2: yi+1 = yi + h 2. si en la f´rmula final (6.

.. xi .... yi−1 .2 F´rmulas de Adams-Moulton o Un m´todo multipaso de la forma e yi+1 = yi + Bf (xi+1 .. yi ) + A1 f (xi−1 .12) es una f´rmula de Adams-Moulton de k pasos y orden k + 1. 6..4. xi−1 .. yi+1 ) + A0 f (xi . yi−k+1 ) (6. . xi−1 . . y1 . Supongamos que disponemos de los valores yi . si en la f´rmula final o (6.. yk−1 . . θ0 = 0.. y) valorada en los puntos o xi+1 .. ..10) deseo que aparezca la funci´n f (x.9).. . .12)? Se puede hacer de dos formas: o .Ecuaciones diferenciales xi . · · · + Ak−1 f (xi−k+1 . xi−k+1 .. ... debido a que en la f´rmula aparece el valor yi+1 definido de forma impl´ o ıcita. θ1 = −1. yk−1 . ¿C´mo o calcular yi+1 mediante la f´rmula (6. xi−k+1 . y1 . que podr´n obtenerse mediante un m´todo de a e un paso del mismo orden. ..9).. yi−1 ) + . o Para aplicar una f´rmula de Adams-Bashforth de k pasos necesitaremos o los valores iniciales y0 . o Para aplicar una f´rmula de Adams-Moulton de k pasos necesitaremos los o valores iniciales y0 . Al igual que las f´rmulas de Adams-Bashforth. θk = −k + 1 al construir la f´rmula de cuadratura (6. Estos m´todos o e se encuadran dentro de los m´todos multipaso impl´ e ıcitos.. θk−1 = −k + 1 129 al construir la f´rmula de cuadratura (6. tendr´ que elegir los valores e θ0 = 0.. las f´rmulas de Adams-Moulton se pueden o o obtener siguiendo el proceso descrito en la p´gina 126. . que podr´n obtenerse mediante un m´todo a e de un paso del mismo orden. θ1 = −1.. yi−k+1 . tendr´ que elegir los valores e θ = 1. Dado que en dicho a proceso se utiliza el cambio de variable x = xi + θ h.

9) tomamos los puntos θ0 = 1 θ1 = 0 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. yi+1 ) + f (xi . es suficiente dos o tres a iteraciones para conseguir un valor aceptable de yi+1 . . En la f´rmula (6. . yi−k+1 ). yi ) + A1 f (xi−1 . .130 Cap´ ıtulo 6 ∗ 1. · · · + Ak−1 f (xi−k+1 . obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A0 = 2 . Se estima un primer valor predictor y i+1 e mediante una f´rmula de Adams-Bashforth del mismo orden y despu´s se o e calcula el valor corrector yi+1 aplicando ∗ yi+1 = yi + Bf (xi+1 . tn = Φ(tn−1 ) n≥1 ∗ siendo yi+1 un valor inicial que se recomienda obtener mediante la f´rmula o de Adams-Bashforth del mismo orden. M´todo predictor-corrector. M´todo iterativo de punto fijo. yi ) + A1 f (xi−1 . yi−k+1 ). yi−1 ) + . Ejemplo: Deduzcamos la f´rmula de Adams-Moulton de orden dos o yi+1 = yi + h 1 1 f (xi+1 .13) Aplicaremos el proceso descrito en la p´gina 126. yi+1 es un punto fijo de la funci´n o Φ(t) = yi + Bf (xi+1 . yi+1 lo podemos obtener como l´ ımite de la sucesi´n o ∗ t0 = yi+1 . yi ) 2 2 (6. · · · + Ak−1 f (xi−k+1 . En consecuencia. 2. En la pr´ctica. En este sentido. yi+1 ) + A0 f (xi . yi−1 ) + . t) + A0 f (xi . Si en la f´rmula de a o cuadratura (6. .12) todos los t´rminos e o e de la parte derecha de la igualdad son datos excepto yi+1 .

y(xi ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 El m´todo a aplicar es de orden 2 y 1 paso.11) necesitamos los dos puntos iniciales y0 e y1 . y(xi+1 )) + f (xi . yi+1 ) + f (xi . y0 )) = 1. y0 + hf (x0 .Ecuaciones diferenciales y la soluci´n del sistema anterior es A0 = o nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 1 f (xi+1 .11) que es de orden dos.98474 2 2 Con este valor. 2 2 1 2 131 1 y A1 = 2 . y1 ) − f (x0 . Sin embargo.6): ∗ y1 = y 0 + h 1 1 f (x0 . e e ∗ 1. e debe calcularse con una f´rmula de Adams-Bashforth del mismo orden. Si es posible. M´todo predictor. en o este caso la f´rmula (6. para aplicar o (6. con lo que en este primer ∗ paso no podemos hacer uso de ella. yi .11)) o ∗ y2 = y 1 + h 3 1 f (x1 . y0 ) = 1.98473. y0 ) + f (x1 . primero calculo el valor predictor y2 con Adams-Bashforth de orden 2 (f´rmula (6. calculamos el valor corrector con Adams-Moulton y1 = y 0 + h 1 1 ∗ f (x1 . por e ejemplo. y0 = 1. Calculamos un valor predictor y1 .97017 2 2 .10) 1 1 f (xi+1 . Para estimar el resto de valores podemos optar por el m´todo predictor-corrector o por el m´todo iterativo de punto fijo. Sustituyendo en (6. por lo que solo necesitamos el e valor y0 para empezar. por Runge-Kutta de orden 2 (ver 6. Calculamos y1 mediante otro m´todo. y1 ) + f (x0 . 2 2 ∗ Para calcular y2 .

98474) = 1. y1 ) 2 2 . y2 ) − f (x1 . t) + f (x0 . 2 2 El proceso anterior se repite para calcular el resto de valores. t) + f (x1 . y2 = 1.98473 1 1 f (x1 . y2 ) + f (x1 .97015. ∗ Para localizarlo generamos una sucesi´n iterativa comenzando por un valor y 1 o obtenido.132 y despu´s calculo el corrector con Adams-Moulton e y2 = y 1 + h 1 1 ∗ f (x2 . y1 ) = 1.98473 t2 = Φ1 (1.98474) y generamos la sucesi´n iterativa: o ∗ t0 = y1 = 1. Dada la funci´n e o Φ1 (t) = y0 + h el valor y1 que buscamos verifica Φ1 (y1 ) = y1 . y1 = 1. y0 ) 2 2 De forma que tomamos y1 = 1. 2 2 Cap´ ıtulo 6 ∗ En el siguiente paso calculo el predictor y3 con Adams-Bashforth ∗ y3 = y 2 + h 3 1 f (x2 . si es posible. por Adams-Bashforth del mismo orden. Es.95622. un punto fijo de la ecuaci´n o Φ1 (t) = t. y3 ) + f (x2 . M´todo iterativo de punto fijo. 2.98473.98474 t1 = Φ1 (1. Calculamos y1 ∗ (y1 = 1.95624 2 2 y despu´s calculo el corrector con Adams-Moulton e y3 = y 2 + h 1 1 ∗ f (x3 . y2 es un punto fijo de Φ2 (t) = y1 + h 1 1 f (x2 .98473) = 1. por tanto. En este caso no es posible aplicar Adams-Bashforth puesto que se necesitar´ dos puntos ıa ∗ mediante Runge-Kutta de orden 2 iniciales que no tenemos.

yi−2 ) y(1) = 2 Ejercicio: Usa la identidad xi+2 y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del sio o guiente m´todo multipaso e yi+2 = yi + h f (xi . y(i + 1)) + 19f (xi . yi+2 ) . yi−1 ) + f (xi−2 . Ejercicio: 1. que a su vez es obtenido por Adams-Bashforth de orden 2 ∗ t0 = y2 = 1. yi−3 ) yx − x2 x2 y usala para resolver la ecuaci´n ´ o y = con h = 1/128 2.97015. yi−2 ) − 9f (xi−3 . yi )− 24 − 5f (xi−1 .97017 t1 = Φ2 (1.97015) = 1. Y repetimos el proceso para el resto de valores. yi+1 ) + f (xi+2 .97017) = 1.97015 t2 = Φ2 (1.97015 Tomamos y2 = 1.97017. yi ) − 59f (xi−1 . yi ) + 4f (xi+1 . 3 . Repite el apartado anterior para la f´rmula de Adams-Moulton de orden o 4: yi+1 = yi + h 9f (xi+1 . yi−1 )+ 24 + 37f (xi−2 . Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi .Ecuaciones diferenciales 133 que localizamos mediante la sucesi´n iterativa similar a la anterior que coo ∗ mienza en y2 = 1.

.

3. ¿Cu´ntos pasos deben darse. o ız (b) Encuentra un intervalo en el cual la iteraci´n o xn = 1 + sen(xn−1 ) x∈N converja. Determina un intervalo y una funci´n para aplicar el m´todo del punto o e fijo a las siguientes ecuaciones: (a) x3 − x − 1 = 0 (b) 4 − x − tg(x) = 0 Realiza 4 iteraciones del m´todo y determina en cada caso una cota del e el error cometido. e 2. ız o a a partir de x0 = π/2. al menos. o (a) Prueba que dicha ecuaci´n tiene. e o (b) Con 4 iteraciones del m´todo de Newton-Raphson. una ra´ positiva. Dada la ecuaci´n o √ xsen(x) − x3 + 2 = 0 encuentra una aproximaci´n de una ra´ o ız (a) Con el m´todo de la bisecci´n con un error menor que 1/30. para obtener una aproximaci´n de la ra´ con o ız un error inferior a una mil´sima? e 135 .Problemas Ecuaciones no lineales 1. a una ra´ positiva de la ecuaci´n anterior. para cualquier valor inicial x0 de dicho intervalo. Se considera la ecuaci´n x2 − 1 − sen(x) = 0.

Calcula una cota o e del error cometido. repitan las primeros cuatro decimales. Dada la funci´n f (x) = ex − 3x2 . Determina un intervalo y una funci´n para poder aplicar el m´todo del o e punto fijo a las siguientes ecuaciones: (a) x − L(1 + x) − 0. aplicando el m´todo del punto fijo con cuatro iteracioe nes. aplica el m´todo de la bisecci´n para o e o encontrar una soluci´n con un error menor que 1/10. (a) Demuestra que F (x) < 0 si x ≥ 0. Demuestra que la ecuaci´n o ex L(x) + x3 − 2 = 0 Problemas tiene una unica ra´ positiva. 5. π/4] . ı e de la sucesi´n definida mediante dicho m´todo. Enuno cia el resultado te´rico que utilices. o 9. Calcula una aproximaci´n a la soluci´n con un error inferior a 10−5 .5. Se considera la funci´n o F (x) = e−x − sen(x) − 2. Calcula tres iteraciones del m´todo de la secante para encontrar una ra´ e ız o de la ecuaci´n cos(x) − x = 0 en el intervalo [0. Aplica el m´todo de Newton-Raphson para ´ ız e encontrar una aproximaci´n a la ra´ Realiza iteraciones hasta que se o ız. o (a) Localiza un intervalo que contenga una soluci´n de f (x) = 0. o (b) Encuentra. (b) Prueba que la ecuaci´n F (x) = 0 tiene una unica ra´ negativa. Dada la ecuaci´n x = arctg(x + 1). o ´ ız (c) Determina un intervalo donde se pueda aplicar el m´todo de Newtone Raphson para aproximar dicha ra´ as´ como los 4 primeros t´rminos ız. 7. una aproximaci´n de un valor donde se anule la derivada de o f (x) y una cota del error cometido. (b) x = −L(x). 8.2 = 0. o o 6.136 4.

1]. 0]. Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = cos(x) − x.5. Dado el polinomio P (x) = x4 − 4x3 + 7x2 − 5x − 2 (a) Utiliza la sucesi´n de Sturm para separar las ra´ o ıces del polinomio. Cuesti´n de examen de febrero de 2004: o Dada la ecuaci´n x2 − e2x = −1/2.Problemas 10. (b) Utiliza el m´todo de Newton-Raphson para encontrar una aproxie maci´n de la ra´ real de P (x) de menor valor absoluto. . 14.5. π/4]. o (a) Demuestra que tiene una unica soluci´n en el intervalo [−2. (b) Para k = 3. prueba que posee una unica ra´ simple en el intervalo ´ ız [0. y utiliza el m´todo de Newton para encontrar una e aproximaci´n con error menor que 10−6 o (b) Utiliza la sucesi´n de Sturm para separar las distintas ra´ o ıces del polinomio. Encuentra de Sturm para separar sus ra´ aproximaciones de las ra´ ıces con un error menor que 10−3 . 3]. 11. o (a) Calcula el n´mero de pasos necesarios para encontrar una ra´ de u ız −2 con el m´todo de la bisecci´n f (x) con un error menor que 10 e o e u en el intervalo [0. 1] y calc´lala con el m´todo de Newton con un error menor que u e 10−3 . o 13. Dado la ecuaci´n x4 − 7x3 + 18x2 − 20x + 8 = 0: (a) Demuestra con el teorema de Bolzano que tiene una soluci´n en el o intervalo [1. Aplica el m´todo con el n´mero de pasos calculado. ´ o (b) Encuentra una aproximaci´n a la soluci´n mediante tres iteraciones o o del m´todo del punto fijo partiendo del punto x0 = −1.5 e 15. o 137 (a) Determina el valor de k para que la ecuaci´n tenga una unica ra´ o ´ ız triple en el intervalo [0. Dado el polinomio P (x) = 8x3 − 20x2 − 2x + 5. Dada la ecuaci´n 2cos(2x) + 4x − k = 0. o ız 12. utiliza su sucesi´n o ıces en intervalos disjuntos.

Cuesti´n de examen de septiembre de 2004: o Dado el polinomio P (x) = −x3 + x2 − 2x + 5. ız 16. . (b) Empezando con x = 6 aplica un paso del m´todo de Newton hae ciendo uso del algoritmo de Horner.5.138 Problemas (b) Aplica tres iteraciones del m´todo de la secante para encontrar una e ra´ de f (x) en el intervalo [0. π/4]. (a) Utiliza el m´todo de Sturm para separar las ra´ e ıces en intervalos disjuntos.

o 20. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´n o gaussiana con pivoteo parcial empleando d´ ıgitos con dos decimales. 7x1 − 3x2 + 8x3 = −49 x1 − 2x2 − 5x3 = 5 4x1 − 6x2 + 10x3 = −84 a) Calcula la inversa de la matriz de los coeficientes haciendo uso de las operaciones fundamentales. y si no son exactos. b) Encuentra las matrices P . o . c) Comprueba los resultados. 19.72 a) Resu´lvelo por Gauss. triangular superior U y de permutaciones P tal que P A = LU . si es necesario. d) Calcula el n´mero de condici´n de la matriz del sistema u o con la norma infinito. b) Sustituye a11 por 0.5x1 − x2 0. c) Calcula el n´mero de condici´n de la matriz u o con las distintas normas que conozcas. Dado el sistema de ecuaciones = −9. e e c) Interpreta los resultados anteriores en t´rminos del condicionamiento e del sistema. siendo A la matriz de los coeficientes.5x2 = −4. b) Encuentra las matrices triangular inferior L. b) Utiliza la inversa para obtener las soluciones del sistema. emplea el refinamiento iterativo para mejorar la soluci´n.28x1 − 0. c) Sustituye los resultados en las ecuaciones y. Para el conjunto de ecuaciones. L y U tal que P A = LU como en el ejercicio anterior.5 0. utiliza el m´todo del refinamiento iterativo para mejorar e la soluci´n.55 y resu´lvelo de nuevo. Dado el sistema −12x1 + x2 − 7x3 = −80 x1 − 6x2 + 4x3 = 13 −2x1 − x2 + 10x3 = 92 a) Resu´lvelo por eliminaci´n gaussiana simple usando d´ e o ıgitos con dos cifras decimales.Problemas 139 Sistemas de ecuaciones lineales 17. 18.

140 4x1 + 5x2 − 6x3 = 28 2x1 − 7x3 = 29 1). o Utiliza 3 decimales en los c´lculos. 2x1 − 6x2 + x3 = 44 4x1 + 8x3 = 4 e o resu´lvelo mediante descomposici´n LU de Gauss: a) sin escalamiento y b) con escalamiento previo de filas. Dados      14 −7 4 −3 0 2 2  b = −2 b =  9  3 A= −8 6 6 1 −6  resuelve Ax = b y Ax = b mediante una descomposici´n LU de Gauss. −5x1 − 8x2 = −64 21. ¿Es la matriz de los coeficientes o definida positiva? . a 23. Dado el sistema     105 3 2 100 x1 −1 3 100 x2  = 102 2 x3 1 2 −1  Problemas 3x2 − 13x3 = −50 2). Resuelve el sistema siguiente mediante descomposici´n LU : o −4x1 + 2x2 x1 − 4x2 x2 − 4x3 + x4 x3 − 4x4 + x5 2x4 − 4x5 24. 22. Resuelve el sistema  = 0 = −4 = −11 = 5 = 6     −4 x1 4 −1 −1 0  x 2   0  −1 4 0 −1      = −1 0 4 −1 x3   4  −4 x4 0 −1 −1 4 mediante la descomposici´n de Cholesky.

Problemas 25. Cuesti´n de examen de febrero de 2004: o e o Aplica el m´todo de Jacobi a la resoluci´n del sistema: 7x − y + 4z = 8 3x − 8y + 2z = −4 4x + y − 6z = 3     2 0 −1 x1 1 −2 −10 0  x2  = −12 −1 −1 4 2 x3 empleando 3 iteraciones y partiendo del punto (0. utilizando la eliminaci´n gaussiana simple y encontrando la factorizaci´n A = LU . Despu´s. 0). Repite el ejercicio anterior para el sistema x1 − 2x2 = −1 3x1 + x2 = 4 Intenta resolver el sistema con los m´todos de Jacobi y Gauss-Seidel e haciendo alg´n peque˜o cambio en las ecuaciones. Dado el sistema 141  comprueba si se cumple alguna de las condiciones suficientes para que funcionen los m´todos de Jacobi y Gauss-Seidel. 0. Cuesti´n de examen de septiembre de 2004: o Resuelve el siguiente sistema dos veces. realiza e dos iteraciones para cada m´todo tomando como valor inicial (0. o o e utilizando la eliminaci´n gaussiana con pivoteo y encontrando la factoo rizaci´n P A = LU. Primero. e 26. 0. Cuesti´n de examen de junio de 2004: o Resuelve por el m´todo de Cholesky el sistema de ecuaciones: e x1 + 2x2 + 3x3 = 7 2x1 + 5x2 + 4x3 = 9 3x1 + 4x2 + 14x3 = 33 29. o −x1 + x2 − 4x3 = 0 = 1 2x1 + 2x2 1 3x1 + 3x2 + 2x3 = 2 . ¿Es convergente el m´todo? e 28. Si se cumplen. u n 27. 0).

142 Problemas Aproximaci´n de funciones. 4. (b) Repite el apartado anterior con los nodos de Chebyshev en el intervalo [0. 0 y −π. (b) Encuentra una funci´n formada por trozos de recta que pase por o esos puntos. 2. 2 medidos en segundos. (d) Encuentra un polinomio que interpole a f (x) y a sus derivadas en los puntos dados. De la funci´n f (x. 0. 1. o 33. 54 megabites por segundo. ¿Cu´l es el polinomio interpolador de f (x) = x3 − 2x − 5 en los puntos a −0. obteni´ndose o e lo siguientes datos: . calcula un polinomio que cumpla todas las condiciones. respectivamente. 31. 34. Interpolaci´n o o 30. t) que representa una onda que se desplaza sobre el o plano se conocen cinco posiciones en un determinado instante: (−1. Se ha estudiado el proceso de recepci´n de informaci´n de un ordenador o o y se ha observado que en los instantes 0. 1. (1. −1). (0. 0). 104 megabites y se recib´ o ıa a una velocidad de 0. (c) Sabiendo que las derivadas de f (x) en el mismo instante en los puntos −1. o (a) Encuentra su polinomio de interpolaci´n en los puntos y estima el o error cometido. La funci´n f (x) = L(x) se ha evaluado en varios puntos.5. 0. 51. 0. 1. (e) Calcula el spline natural en los puntos dados. (−0. Encuentra una funci´n que se aproxime a la que representa el proceso. 52. 2]. (a) Encuentra un polinomio que pase por esos puntos.5 y 1 son −π. 2. (0. (d) Calcula el spline natural para ese conjunto de datos.5.. 0). Dada la funci´n f (x) = ex y los puntos 0. la cantidad de informaci´n recibida era 0. π.5. −0.? 32. 0). 1). (c) Encuentra una funci´n lineal a trozos que se aproxime a f (x) en o los puntos dados.

1]. Calculando los valores de la funci´n f (x) = o √ x en 1. T1 (x) = x. 1] x ∈ [1. Cuesti´n de examen de septiembre de 2004: o Determina si la funci´n o  1 + x − x3  1 − 2(x − 1) − 3(x − 1)2 + 4(x − 1)3 f (x) =  4(x − 2) + 9(x − 2)2 − 3(x − 2)3 x y 0 1 1 1 2 0 3 10 si si si x ∈ [0.9]. (b) Agregando un cuarto punto x3 = 5. Tn+1 (x) = 2xTn (x) − Tn−1 (x).3863 f (x2 ) = 1.4 y 9. (a) Halla el polinomio interpolador de grado menor o igual que 2 por el m´todo de Newton que pase por esos puntos. (d) Calcula el spline natural. f (x3 ) = 1. e (c) Aplica el m´todo de Hermite en los puntos iniciales y en sus derivadas. determina los cuatro nodos de Chebyshev en o [0. Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = ex . a Polinomios de Chebysev: T0 (x) = 1.7918 143 (a) Util´ ıcense los datos anteriores para calcular el polinomio de interpolaci´n y el spline natural. 2] x ∈ [2.5 mediante dicho polinomio. Est´ o ımese el valor de L(2). 36. Realiza los c´lculos con 4 decimales. el polinomio interpolador en dichos nodos y un valor aproximado de e0. 3] es el spline c´bico natural que interpola a los puntos de la tabla: u . a 35. 37.6094. e (b) Halla el polinomio interpolador en los nodos de Chebyshev en [1. h´ganse de a nuevo los c´lculos y estimaciones.Problemas x0 = 1 x1 = 4 x2 = 6 f (x0 ) = 0 f (x1 ) = 1.

00000 0. (b) Calcula los errores reales y las cotas de error por medio de las f´rmulas de error para las estimaciones anteriores.5 2.25 Calcula un valor aproximado de (a) Trapecios. o o (d) Sabiendo que f (−0.74140 0.2) haciendo uso de la interpoo laci´n de la funci´n en los cuatro puntos.5 3.25 0.9021 (a) Utilizando la f´rmula m´s adecuada de entre las siguientes: o a f (x) = f (x+h)−f (x) f (x) = f (x+h)−f (x−h) f (x) = f (x+h)−2f (x)+f (x−h) . Determina el n´mero de subintervalos que deben tomarse para aproximar u √ 1 el valor de la integral 0. (f) Romberg. o 39.5 cos( x)dx con un error menor que 1 10−2 2 (a) con el m´todo de los trapecios compuesto.5 6 2 5. De la funci´n f (x) = ex − 2x2 + 3x − 1 se obtienen los siguientes datos: o x f (x) 0.0 2. De una funci´n f (x) se tienen los siguientes datos: o x f (x) 0. (e) Simpson compuesto.4 1.3718 0.861267. e .0 0.2).2 0.5 6 3 7.2) = −0.6 1. (c) Simpson 3/8. (d) Trapecios compuestos. aplica la interpolaci´n de Rio chardson para calcular una aproximaci´n de f (0. (b) Simpson 1/3. 3 0 f (x)dx utilizando los siguientes m´todos: e 40. o (c) Encuentra una aproximaci´n de f (0.75 1 5 1.144 Problemas Diferenciaci´n e integraci´n num´rica o o e 38. h 2h h2 calcula valores aproximados de la primera y segunda derivadas de los puntos.

Eval´a la integral de x3 sen(x) entre x = 0 y x = 2 usando un valor de u tolerancia inferior a 0. 2 45. Calcula la integral e sabiendo que los nodos (ti ) en este caso son las ra´ del polinomio ıces 5x3 −3x . Determina los valores de A. Repite el ejercicio anterior con 44. . e 2 1/x dx. (d) con el m´todo de cuadratura adaptativa con nivel de tolerancia e −3 .1% de la respuesta verdadera (3.Problemas (b) con el m´todo de Simpson compuesto. 4). Aplica alg´n m´todo de integraci´n num´rica para resolver las siguientes u e o e integrales: (a) 1 sen(x) x dx 0 (b) 1 cos(x)−ex −1 sen(x) dx (c) ∞ x −1 1 (xe ) dx. 10 43. (c) con el algoritmo de Romberg hasta R(4. Calcula 2 1 Ln(x)dx 145 (b) 3 ex 2 x dx 1 2 0 sen(x )dx: (a) con un error menor que 10−2 con el m´todo de los trapecios come puestos e (b) con un error menor que 10−2 con el m´todo de Simpson compuesto. Repite el ejercicio anterior para (a) 42. 46.791197). B y C que hagan que la f´rmula o 2 0 xf (x) ≈ Af (0) + Bf (1) + Cf (2) sea exacta para todos los polinomios de grado tan alto como sea posible. ¿Cu´l es el grado m´ximo? a a 47. 1 e 1 2 0 sen(x )dx mediante cuadratura gaussiana de 1 (b) Plantea c´mo resolver el problema de calcular la 0 sen(x2 )dx meo diante cuadratura gaussiana de tres t´rminos. (a) Calcula la integral dos t´rminos. e 41.

Cuesti´n de examen de junio de 2004: o Encuentra los coeficientes A0 . A2 y A3 para que la f´rmula o 3 f (x)dx = A0 f (−1) + A1 f (0) + A2 f (1) + A3 f (2) −1 sea exacta para los polinomios de grado menor o igual que 3 y calcula 3 o un valor aproximado de −1 (x3 + x)dx haciendo uso de dicha f´rmula. Cuesti´n de examen de febrero de 2004: o 3 e Dada la funci´n f (x) = L(x) calcula 2 L(x)dx empleando el m´todo de o cuadratura de Gauss con tres t´rminos y sabiendo que los polinomios de e Legendre se calculan as´ ı: L0 (x) = 1.146 Problemas 48. Cuesti´n de examen de septiembre de 2004: o Encuentra los coeficientes A1 y A2 para que la f´rmula o 2π f (x)dx = A1 f (0) + A2 f (π) 0 sea exacta para cualquier funci´n que tenga la forma a + b cos(x). Ln+1 (x) = (2n+1)xLn (x)−nLn−1 (x) n+1 ∀ n ≥ 1. 50. L1 (x) = x. A1 . 49. o Calcula 2π 0 2 + 3 cos(x)dx haciendo uso de dicha f´rmula. o .

y(i + 1)) + 19f (xi .2). sabiendo que y + 2y = x2 + 2x 52. o mediante el m´todo de Taylor de grado 2 con 5 pasos.Problemas 147 Resoluci´n num´rica de ecuaciones diferenciales o e ordinarias 51. siendo 0 ≤ t ≤ 1. Cuesti´n de examen de junio de 2004: o Aplicando el m´todo de Taylor de grado 2 con dos pasos. yi+1 ) + f (xi+2 . yi−1 ) + f (xi−2 . yi ) + 4f (xi+1 . yi+2 ) . Cuesti´n de examen de febrero de 2005: o Resuelve la ecuaci´n y = y 2 − t2 + 1.5. yi )− 24 − 5f (xi−1 . yi−1 )+ 24 + 37f (xi−2 . (a) Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi . yi−3 ) yx − x2 x2 y(0) = 1 y usala para resolver la ecuaci´n ´ o y = y(1) = 2 con h = 1/128 (b) Repite el apartado anterior para la f´rmula de Adams-Moulton de o orden 4: yi+1 = yi + h 9f (xi+1 . calcula valores e aproximados de y(0. yi−2 ) − 9f (xi−3 . yi−2 ) xi+2 54. yi ) − 59f (xi−1 .2. Usa la identidad y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del o o siguiente m´todo multipaso e yi+2 = yi + h f (xi .1) y y(0. e 53. 3 . y(0) = 0.

A partir de la identidad xi+1 y(0) = 1 y(xi+1 ) − y(xi ) = y (x)dx xi e deduce el m´todo de Runge-Kutta de orden 2 yi+1 = yi + h 1 1 f (xi .148 Problemas 55. 1] o o y + 2y = x2 + 2x 56. yi )) 2 2 . Aplica el m´todo cl´sico de Runge-Kutta para estimar 10 valores aproe a ximados de la soluci´n de la ecuaci´n siguiente en el intervalo [0. yi + hf (xi . yi ) + f (xi+1 .

Sign up to vote on this title
UsefulNot useful