P. 1
Teoría entera

Teoría entera

|Views: 1.190|Likes:

More info:

Published by: Antonio Gamonales Contreras on Apr 26, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

01/11/2013

pdf

text

original

Sections

  • Introducci´on
  • 1.1 Cifras significativas. Exactitud y precisi´on. Erro-
  • 1.2 C´alculos estables e inestables. Condicionamien-
  • 1.2.1 Inestabilidad
  • 1.2.2 Condicionamiento
  • 1.3 Aritm´etica de la computadora
  • 1.3.1 Aritm´etica de punto flotante
  • 1.3.3 Epsilon de la m´aquina
  • 2.1 M´etodo de la bisecci´on
  • 2.1.1 Descripci´on del m´etodo
  • 2.1.2 Convergencia del m´etodo
  • 2.1.4 Variaciones del m´etodo: Regula Falsi
  • 2.2 M´etodo de Newton-Raphson
  • 2.2.1 Descripci´on del m´etodo
  • 2.2.2 Convergencia del m´etodo
  • 2.2.3 Aproximaci´on y error
  • 2.2.4 Variaciones del m´etodo: M´etodo de la secante
  • 2.3 M´etodo iterativo de punto fijo
  • 2.3.1 Descripci´on del m´etodo
  • pasos de un m´etodo iterativo de punto fijo
  • 2.3.2 Convergencia del m´etodo
  • 2.3.3 Aproximaci´on y error
  • 2.4 Ra´ıces de polinomios
  • 2.4.1 Separaci´on de ra´ıces. Sucesi´on de Sturm
  • 2.4.2 Acotaci´on de ra´ıces
  • 2.4.3 Ra´ıces de polinomios con el algoritmo de Horner
  • 2.4.4 Ra´ıces m´ultiples
  • Sistemas Lineales
  • 3.1 ´Algebra de matrices
  • 3.1.1 Valores propios y vectores propios
  • 3.1.2 Matriz definida
  • 3.2.1 M´etodo de Gauss
  • 3.2.2 M´etodo de Gauss con pivoteo
  • 3.3 Factorizaci´on LU. Factorizaci´on de Cholesky
  • 3.3.1 M´etodo de Crout
  • 3.3.2 M´etodo de Cholesky
  • 3.3.3 Sistemas triangulares
  • 3.4 Normas y an´alisis del error
  • 3.4.1 N´umero condici´on de una matriz
  • 3.5 Mejora de soluciones
  • 3.5.1 Refinamiento iterativo
  • 3.5.2 Escalamiento
  • 3.6 M´etodos iterativos
  • 3.6.1 M´etodo de Jacobi
  • 3.6.2 M´etodo de Gauss-Seidel
  • 3.6.3 M´etodos de relajaci´on
  • Aproximaci´on de funciones
  • 4.1 Construcci´on del polinomio interpolador
  • 4.1.1 M´etodo de Lagrange
  • 4.1.2 M´etodo de Newton
  • 4.2 Error del polinomio interpolador
  • 4.2.1 Elecci´on de nodos. Polinomios de Chebyshev
  • 4.3 Interpolaci´on a trozos y con condiciones sobre
  • 4.3.1 Interpolaci´on a trozos
  • 4.3.2 Interpolaci´on con condiciones sobre la derivada
  • 5.1 Diferenciaci´on num´erica y extrapolaci´on de Ri-
  • 5.1.1 Diferenciaci´on mediante interpolaci´on
  • 5.1.2 Extrapolaci´on de Richarson
  • 5.2 Integraci´on num´erica mediante interpolaci´on
  • 5.2.1 Regla del trapecio
  • 5.2.2 Regla de Simpson
  • 5.2.3 Reglas compuestas
  • 5.2.4 M´etodo de los coeficientes indeterminados
  • 5.3 Cuadratura gaussiana
  • 5.4 Integraci´on de Romberg
  • 5.5 Cuadratura adaptativa
  • 6.1 Existencia y unicidad de soluciones
  • 6.2 M´etodo de la serie de Taylor
  • 6.2.1 M´etodo de Euler
  • 6.2.2 Errores
  • 6.3 M´etodos de Runge-Kutta
  • 6.3.1 Errores
  • 6.4 M´etodos multipaso
  • 6.4.1 F´ormulas de Adams-Bashforth
  • 6.4.2 F´ormulas de Adams-Moulton
  • Problemas

DEPARTAMENTO DE MATEMÁTICAS

UNIVERSIDAD DE EXTREMADURA
06071-BADAJOZ (Spain)
Universidad de Extremadura
Departamento de Matem´aticas
Apuntes de C
´
alculo Num
´
erico
Pedro Mart
´
ın Jim
´
enez
http://cum.unex.es/profes/profes/pjimenez/
Badajoz, septiembre 2005
´
Indice
Introducci´ on 7
1 Errores, redondeo, estabilidad, condicionamiento. 9
1.1 Cifras significativas. Exactitud y precisi´on. Errores. . . . . . . 9
1.2 C´alculos estables e inestables. Condicionamiento. . . . . . . . . 12
1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Condicionamiento . . . . . . . . . . . . . . . . . . . . . 12
1.3 Aritm´etica de la computadora . . . . . . . . . . . . . . . . . . . 13
1.3.1 Aritm´etica de punto flotante. . . . . . . . . . . . . . . . 13
1.3.2 Operaciones con computadoras . . . . . . . . . . . . . . 15
1.3.3 Epsilon de la m´aquina . . . . . . . . . . . . . . . . . . . 16
2 Resoluci´ on de ecuaciones no lineales 17
2.1 M´etodo de la bisecci´on . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 19
2.1.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 19
2.1.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 20
2.1.4 Variaciones del m´etodo: Regula Falsi . . . . . . . . . . . 21
2.2 M´etodo de Newton-Raphson . . . . . . . . . . . . . . . . . . . . 22
2.2.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 22
2.2.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 23
2.2.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 24
2.2.4 Variaciones del m´etodo: M´etodo de la secante . . . . . . 27
2.3 M´etodo iterativo de punto fijo . . . . . . . . . . . . . . . . . . . 28
2.3.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 28
2.3.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 29
2.3.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 30
2.4 Ra´ıces de polinomios . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Separaci´on de ra´ıces. Sucesi´on de Sturm. . . . . . . . . 34
3
4
´
INDICE
2.4.2 Acotaci´on de ra´ıces . . . . . . . . . . . . . . . . . . . . . 37
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner . . . . 38
2.4.4 Ra´ıces m´ ultiples . . . . . . . . . . . . . . . . . . . . . . 39
3 Sistemas Lineales 41
3.1
´
Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.1 Valores propios y vectores propios . . . . . . . . . . . . 45
3.1.2 Matriz definida . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Resoluci´on de sistemas de ecuaciones lineales: m´etodo de Gauss 46
3.2.1 M´etodo de Gauss . . . . . . . . . . . . . . . . . . . . . . 47
3.2.2 M´etodo de Gauss con pivoteo . . . . . . . . . . . . . . . 49
3.3 Factorizaci´on LU. Factorizaci´on de Cholesky . . . . . . . . . . . 53
3.3.1 M´etodo de Crout . . . . . . . . . . . . . . . . . . . . . . 55
3.3.2 M´etodo de Cholesky . . . . . . . . . . . . . . . . . . . . 55
3.3.3 Sistemas triangulares . . . . . . . . . . . . . . . . . . . . 55
3.4 Normas y an´alisis del error . . . . . . . . . . . . . . . . . . . . 57
3.4.1 N´ umero condici´on de una matriz . . . . . . . . . . . . . 60
3.5 Mejora de soluciones . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.1 Refinamiento iterativo . . . . . . . . . . . . . . . . . . . 62
3.5.2 Escalamiento . . . . . . . . . . . . . . . . . . . . . . . . 63
3.6 M´etodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.6.1 M´etodo de Jacobi . . . . . . . . . . . . . . . . . . . . . 66
3.6.2 M´etodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . 68
3.6.3 M´etodos de relajaci´on . . . . . . . . . . . . . . . . . . . 69
4 Aproximaci´ on de funciones 71
4.1 Construcci´on del polinomio interpolador . . . . . . . . . . . . . 71
4.1.1 M´etodo de Lagrange . . . . . . . . . . . . . . . . . . . . 73
4.1.2 M´etodo de Newton . . . . . . . . . . . . . . . . . . . . . 73
4.2 Error del polinomio interpolador . . . . . . . . . . . . . . . . . 74
4.2.1 Elecci´on de nodos. Polinomios de Chebyshev . . . . . . 75
4.3 Interpolaci´on a trozos y con condiciones sobre la derivada . . . 78
4.3.1 Interpolaci´on a trozos . . . . . . . . . . . . . . . . . . . 78
4.3.2 Interpolaci´on con condiciones sobre la derivada . . . . . 79
5 Diferenciaci´ on e integraci´ on num´erica 87
5.1 Diferenciaci´on num´erica y extrapolaci´on de Richarson . . . . . 87
5.1.1 Diferenciaci´on mediante interpolaci´on . . . . . . . . . . 90
´
INDICE 5
5.1.2 Extrapolaci´on de Richarson . . . . . . . . . . . . . . . . 92
5.2 Integraci´on num´erica mediante interpolaci´on . . . . . . . . . . . 96
5.2.1 Regla del trapecio . . . . . . . . . . . . . . . . . . . . . 97
5.2.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . 98
5.2.3 Reglas compuestas . . . . . . . . . . . . . . . . . . . . . 99
5.2.4 M´etodo de los coeficientes indeterminados . . . . . . . . 101
5.3 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . 102
5.4 Integraci´on de Romberg . . . . . . . . . . . . . . . . . . . . . . 104
5.5 Cuadratura adaptativa . . . . . . . . . . . . . . . . . . . . . . . 107
6 Resoluci´ on num´erica de ecuaciones diferenciales 113
6.1 Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . 113
6.2 M´etodo de la serie de Taylor . . . . . . . . . . . . . . . . . . . 115
6.2.1 M´etodo de Euler . . . . . . . . . . . . . . . . . . . . . . 118
6.2.2 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3 M´etodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . 119
6.3.1 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4 M´etodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4.1 F´ormulas de Adams-Bashforth . . . . . . . . . . . . . . 128
6.4.2 F´ormulas de Adams-Moulton . . . . . . . . . . . . . . . 129
Problemas 135
Introducci´ on
El texto que sigue no es definitivo ni exhaustivo. Se ir´a reformando a medida
que se detecten fallos o se modifique el contenido para mejorarlo. Debeis
emplearlo como una ayuda para preparar la asignatura An´alisis Matem´atico I
y como complemento de las notas que tomeis en clase.
Espero que os sirva.
Pedro Mart´ın.
7
Cap´ıtulo 1
Errores, redondeo,
estabilidad, condicionamiento.
1.1 Cifras significativas. Exactitud y precisi´ on. Erro-
res.
Cualquier n´ umero real x puede representarse en forma decimal con un n´ umero
finito o infinito de d´ıgitos:
x = α
m
α
m−1
. . . α
1
α
0
. β
1
β
2
. . . β
n
. . . con α
i
, β
j
∈ 0, 1, 2, . . . , 9
Con la expresi´on anterior queremos representar que
x = α
m
10
m

m−1
10
m−1
+ +α
1
10+α
0
10
0

1
10
−1

2
10
−2
+ +β
n
10
−n
+. . .
El C´alculo Num´erico consiste en desarrollar m´etodos para encontrar soluciones
lo m´as aproximadas posibles a la verdadera soluci´on de un cierto problema.
Se trabaja, por tanto, con n´ umeros aproximados en lugar de n´ umeros exactos,
por lo que se utilizan aproximaciones con un n´ umero finito de decimales.
Toda expresi´on aproximada tiene un n´ umero determinado de cifras sig-
nificativas. El concepto de cifra significativa intenta trasmitir la idea de
cuando una cifra que aparece en la expresi´on decimal trasmite informaci´on
”esencial”y ”de fiar”sobre el n´ umero que se intenta aproximar. La significa-
ci´on de una cifra depende del contexto y no solo de la expresi´on decimal en la
que aparece.
9
10 Cap´ıtulo 1
Ejemplo: Cuando decimos ”circulamos a 48.5 Km/hora”porque vemos
que la aguja del veloc´ımetro del coche est´an entre 48 y 49, en nuestra aproxi-
maci´on (48.5) al valor verdadero de la velocidad, estamos manejando solo dos
cifras significativas, las que permiten situar la velocidad entre 48 y 49. La ter-
cera cifra (.5) es una estimaci´on que podr´ıamos evitar, pues no es ”de fiar”. No
es significativa. El veloc´ımetro (para velocidades menores de 100) solo permite
aproximaciones con dos cifras significativas. Si hacemos observaciones con una
cifra decimal, esta podr´ıa variar si es otro el observador.

Los ceros que se a˜ naden a la izquierda de una expresi´on decimal para situar
la primera cifra distinta de cero no son significativos:
Ejemplo: Los n´ umeros
0.00001845 0.0001845 0.001845
tienen todos cuatro cifras significativas.

Los ceros que se a˜ naden al final pueden ser o no significativos:
Ejemplo: En la expresi´on ”se manifestaron 45000 personas”, los tres
´ ultimos ceros parecen ser no significativos. Sin embargo en la expresi´on ”me
cost´o 45000 euros exactos”s´ı son significativos.

Para evitar equ´ıvocos acerca del n´ umero de cifras significativas, se emplea
la notaci´ on cient´ıfica (en el ejemplo anterior, 4.5 10
4
, 4.5000 10
4
).
Cualquier m´etodo del C´alculo Num´erico que se emplee en la resoluci´on de
un problema, debe ser suficientemente exacto, es decir, los valores aproxi-
mados que se obtengan en diferentes intentos de soluci´on deben estar cerca
del valor verdadero. Cuanto mayor sea el n´ umero de cifras significativas de la
aproximaci´on, mayor ser´a la exactitud. Tambi´en deben ser preciso, es decir
los diferentes valores obtenidos para la resoluci´on de un problema deben estar
cercanos entre s´ı.
Con el uso de aproximaciones para representar operaciones y cantidades
matem´aticas se generan errores num´ericos. Se denomina error E a la can-
tidad:
E = valor verdadero −valor aproximado
A menudo se trabaja con el error absoluto ([E[). El error relativo es
e =
E
valor verdadero
.
Errores, redondeo, estabilidad, condicionamiento 11
Este ´ ultimo compara la magnitud del error cometido con la magnitud del valor
que se pretende estimar y puede interpretarse en t´erminos de %.
Las causas de los errores pueden ser:
• Truncamiento: surgen al sustituir un procedimiento matem´atico exacto
por uno aproximado. Ejemplo: utilizar un polinomio de Taylor para encontrar
el valor de una funci´on en un punto.
• Redondeo: surgen al sustituir un n´ umero exacto por uno aproximado.
Ejemplo: sustituir 1/3 por 0.33333333. Para minimizar este tipo de error se
recurre a las reglas de redondeo:
1. En los c´alculos, se conservan las cifras significativas y el resto se descar-
tan. El ´ ultimo d´ıgito que se conserva se aumenta en uno si el primer
d´ıgito descartado es mayor que 5. Si es 5 o es 5 seguido de ceros, enton-
ces el ´ ultimo d´ıgito retenido se incrementa en uno solo si este ´ ultimo es
impar:
n´ umero 6 cifras significativas 8 cifras significativas
5.6170431500 5.61704 5.6170432
5.6170462500 5.61705 5.6170462
2. En la suma y en la resta, el redondeo se lleva a cabo de forma tal que el
´ ultimo d´ıgito retenido en la respuesta corresponda al ´ ultimo d´ıgito M
´
AS
significativo de los n´ umeros que se est´an sumando o restando. N´otese
que un d´ıgito en la columna de las cent´esimas es m´as significativo que
una en la columna de las mil´esimas.
2.2 −1.768 = 0.432 −→0.4
4.68 10
−7
+ 8.3 10
−4
−228 10
−6
= 6.02468 10
−4
−→6.0 10
−4
3. En la multiplicaci´on y divisi´on se conserva el n´ umero m´ınimo de cifras
significativas que tenga los n´ umeros que intervienen:
0.0642 4.8 = 0.30816 −→0.31
945/0.3185 = 2967.032967 −→297 10
4. Para combinaciones de las operaciones aritm´eticas, existen dos casos
generales.
(multiplicaci´on o divisi´on ) ±(multiplicaci´on o divisi´on)
(suma o resta )
×
÷ (suma o resta)
12 Cap´ıtulo 1
En ambos casos, se ejecutan primero las operaciones entre par´entesis y
se redondea el resultado antes de proceder con otra operaci´on.
• Otras causas de error: equivocaci´on de usuario, mala formulaci´on del
modelo, incertidumbre en los datos f´ısicos recogidos, etc.
1.2 C´alculos estables e inestables. Condicionamien-
to.
1.2.1 Inestabilidad
Decimos que un proceso num´erico es inestable cuando los peque˜ nos errores
que se producen en alguna de sus etapas se agrandan en etapas posteriores y
degradan seriamente la exactitud del c´alculo en su conjunto.
Ejemplo: Consideremos la sucesi´on
x
0
= 1, x
1
=
1
3
, x
n+1
=
13
3
x
n

4
3
x
n−1
∀n ≥ 1
La sucesi´on anterior verifica que x
n
= (
1
3
)
n
. Si calculamos el t´ermino x
11
con
el programa Maxima, obtenemos −1.08616217029341310
−6
con la definici´on
inductiva y 2.867971990792441 10
−10
con la otra definici´on. El c´alculo de
los valores de la sucesi´on por el m´etodo inductivo es inestable, pues cualquier
error que se presente en x
n
se multiplica por 13/3 al calcular x
n+1
.
1.2.2 Condicionamiento
Un problema est´a mal condicionado si peque˜ nos cambios en los datos pueden
dar lugar a grandes cambios en las respuestas. En ciertos problemas se puede
calcular un n´ umero de condici´on. Si este es grande significa que el problema
est´a mal condicionado.
Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax =
b, se puede calcular el n´ umero de condici´on as´ı:
k(A) = |A| |A
−1
|,
donde |A| = max
i,j
[a
ij
[. Dado el sistema
x + 1.01y = 1
0.99x +y = 1
Errores, redondeo, estabilidad, condicionamiento 13
el n´ umero de condici´on de la matriz del sistema ser´ıa k(A) = |A| |A
−1
| =
(1.01)(10100) = 10201. Esto significa que peque˜ nos cambios en b producir´an
grandes cambios en la soluci´on. De hecho:
x + 1.01y = 1
0.99x +y = 1

⇒[x = −100, y = 100]
y
x + 1.01y = 1.01
0.99x +y = 1

⇒[x = 0, y = 1]
1.3 Aritm´etica de la computadora
1.3.1 Aritm´etica de punto flotante.
Las computadoras utilizan la llamada aritm´etica del punto flotante, es decir,
almacenan cada n´ umero desplazando sus d´ıgitos de modo que aparezca de la
forma
0.β
1
β
2
...β
n
10
e
.
Por ejemplo:
13.524 →0.13524 10
2
−0.0442 →−0.442 10
−1
C´omo todos los n´ umeros se traducen seg´ un la aritm´etica del punto flotante,
todos empezar´an con 0. y terminar´an con 10
e
. El ordenador, para almace-
narlos ahorrando memoria, prescinde de lo que es com´ un a todos los n´ umeros,
y as´ı el 13.524 se almacena como 13524E2 y el −0.0442 como −442E −1.
Por otra parte, la mayor parte de las computadoras trabajan con n´ umeros
reales en sistema binario, en contraste con el sistema decimal que normalmente
se utiliza. As´ı, el n´ umero 9.90625 en sistema decimal, se convierte en binario
en:
9 = 2 ∗ (2 ∗ (2 ∗ 1 +0) +0) +1 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
= (1001)
2
0.90625 ∗ 2 = 1.81250 1 ∗ 2
−1
0.81250 ∗ 2 = 1.625 1 ∗ 2
−2
0.625 ∗ 2 = 1.25 1 ∗ 2
−3
.25 ∗ 2 = 0.5 1 ∗ 2
−4
.5 ∗ 2 = 1 1 ∗ 2
−5


14 Cap´ıtulo 1
0.90625 = 1 ∗ 2
−1
+ 1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (0.11101)
2
Con lo que
1.90625 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
+ 1 ∗ 2
−1
+
+1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (1001.11101)
2
En general, la representaci´on de un n´ umero en una computadora ser´a de
la forma:
±

d
1
d
2
...d
p
B
e
y se almacenar´a de la forma
±d
1
d
2
...d
p
Ee
donde B es la base, d
i
∈ ¦0, 1, 2, ..., B − 1¦, d
1
> 0, p es el n´ umero m´aximo
de bits significativos y e es el exponente de la potencia de B. El 0 es un caso
especial que se almacena como 00...0E0. La parte d
1
d
2
...d
p
se llama parte sig-
nificativa o mantisa. p es el n´ umero m´aximo de bits que puede tener esa parte
significativa del n´ umero que se almacena y es, por tanto, finita. Cuanto m´as
grande sea p, mayor ser´a la precisi´on de la m´aquina. Como consecuencia de
todo lo anterior, en cualquier m´aquina solo se pueden almacenar una cantidad
finita de n´ umeros, llamados n´ umeros m´ aquina. En los ordenadores de base 2,
d
1
siempre es 1, con lo que se puede suprimir, aumentando la precisi´on. Se
gana con ello un bit que se denomina bit escondido.
Ejemplo: Si en una computadora se tiene que B = 2, p = 2 y −3 ≤ e ≤ 3,
entonces solo se podr´an almacenar n´ umeros de la forma
±.10
2
2
e
±.11
2
2
e
con −3 ≤ e ≤ 3.
Como
.10
2
= 1 2
−1
+ 0 2
−2
= 1/2
los n´ umeros ±.10
2
2
e
son
±4, ±2, ±1, ±1/2, ±1/4, ±1/8,
y como
.11
2
= 1 2
−1
+ 1 2
−2
= 1/2 + 1/4 = 3/4
los n´ umeros ±.11
2
2
e
son
±6, ±3, ±3/2, ±3/4, ±3/8, ±3/16.
Errores, redondeo, estabilidad, condicionamiento 15
En este sistema el n´ umero 2

9 se almacenar´ıa, seg´ un est´e dise˜ nada la com-
putadora, bien como 2 si se hace por truncamiento, o bien como 3 si se hace
por redondeo. Tambi´en se almacenar´ıan como 2 los n´ umeros 2

3 o 2

4.

Los par´ametros B, p y e de una m´aquina real pueden ser los siguientes:
B = 2, p = 23 bits, e = 8 bits, con lo cual el n´ umero m´aximo que se podr´ıa
almacenar ser´ıa 1

701E38. Todo n´ umero mayor que el anterior estar´ıa en el
desbordamiento positivo de la m´aquina. El n´ umero m´ınimo en valor absoluto
ser´ıa 1

755E−38. Todo n´ umero positivo menor estar´ıa en el subdesbordamiento
positivo de la m´aquina. De forma similar se definen desbordamiento negativo
y subdesbordamiento negativo.
1.3.2 Operaciones con computadoras
Supongamos una computadora cuyos par´ametros sean B = 10, p = 3 y −9 ≤
e ≤ 9. Veamos como trabajan y como se pueden generar errores al manejar
las operaciones b´asicas y el redondeo:
1. Para la suma, el de menor exponente se desplaza para alinear la coma
decimal
1.37 + 0.0269 = 0.137 10
1
+ 0.269 10
−1
=
= 0.137 10
1
+ 0.00269 10
1
= 0.13969 10
1
que se almacenar´ıa como 0.13910
1
por truncamiento y 0.14010
1
por
redondeo.
2. En la resta:
4850 −4820 = 0.485 10
4
−0.482 10
4
= 0.003 10
4
= 0.300 10
2
que se almacenar´ıa como 0.30010
2
tanto por redondeo como por trun-
camiento.
3. En el producto, se multiplican las cifras significativas y se suman los
exponentes:
403000 0.0197 = 0.403 10
6
0.197 10
−1
= 0.079391 10
5
que se almacena como 0.793 10
4
por truncamiento y 0.794 10
4
por
redondeo.
16 Cap´ıtulo 1
4. En la divisi´on, se dividen las cifras significativas y se restan los exponen-
tes:
0.0356/1560 = 0.356 10
−1
/0.156 10
4
= 2.28205 10
−5
que se almacena como 0.228 10
−4
.
Otra fuente de error puede ser el paso de sistema decimal a sistema binario.
As´ı el n´ umero 1/10 en sistema binario es (0.0001100110011001...)
2
.
1.3.3 Epsilon de la m´aquina
La diferencia m´as peque˜ na entre dos n´ umeros que puede detectar una m´aquina
se denomina epsilon de la m´ aquina. Tambi´en se puede definir como el menor
n´ umero ε > 0 tal que
1.0 +ε = 1.0
y se puede calcular programando este algoritmo:
input s ←1.0
for k = 1, 2, . . . , 100 do
s ←0.5s
t ←s + 1.0
if t ≤ 1.0 then
s ←2.0s
output k-1,s
stop
end if
end
Cap´ıtulo 2
Resoluci´ on de ecuaciones no
lineales
-10 -8 -6 -4 -2
-1
-0.5
0.5
1
1.5
f(x) = e
x
−sen(x)
Dada una funci´on f : R → R, trataremos
de encontrar m´etodos que permitan loca-
lizar valores aproximados de las soluciones
de f(x) = 0.
Ejemplo: Dada la ecuaci´ on e
x

sen(x) = 0, encuentra la soluci´ on m´ as cer-
cana a 0.

Para resolver ejercicios como el anterior es conveniente recordar los siguien-
tes resultados:
Teorema [Bolzano]: Sea f : R → R una funci´ on continua en [a, b] tal
que f(a)f(b) < 0. Entonces existe c ∈ (a, b) tal que f(c) = 0.
El teorema de Bolzano se utiliza en este contexto para localizar intervalos
que contengan una soluci´on de f(x) = 0 cuando la funci´on f(x) sea continua.
Ejercicio: Dada la ecuaci´ on e
x
− sen(x) = 0, localiza un intervalo donde
exista una soluci´ on.
17
18 Cap´ıtulo 2
Teorema [Rolle]: Sea f : R →R una funci´ on continua en [a, b], derivable
en (a, b) y tal que f(a) = f(b). Entonces existe c ∈ (a, b) tal que f

(c) = 0.
Del teorema de Rolle se deduce que, si f(x) cumple las hip´otesis, entre
cada dos soluciones de la ecuaci´on f(x) = 0 debe existir al menos una soluci´on
de f

(x) = 0. De este modo, el n´ umero m´aximo de soluciones de f(x) = 0 ser´a
el n´ umero de soluciones de f

(x) = 0 m´as uno. Por tanto, el teorema de Rolle
se utilizar´a para determinar el n´ umero m´aximo de soluciones que puede tener
una ecuaci´on f(x) = 0.
Ejercicio: Determina el n´ umero de soluciones de la ecuaci´ on e
x
−x = 0.
Teorema [Taylor]: Sea f : R →R una funci´ on n veces derivable en [a, b]
y n + 1 veces derivable en (a, b). Entonces, para cada x
0
∈ [a, b] existe un
polinomio de grado menor o igual que n que tiene un punto de contacto con
f(x) de grado n en x
0
. Dicho polinomio es
P
n,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
) + +
f
n)
(x
0
)
n!
(x −x
0
)
n
.
Adem´ as, para cada x ∈ [a, b] existe un punto θ
x
entre x y x
0
tal que
f(x) −P
n,x
0
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)
n+1
.
Teorema [de valor medio]: Sea f : R → R una funci´ on continua en
[a, b] y derivable en (a, b). Entonces existe c ∈ (a, b) tal que
f(b) −f(a)
b −a
= f

(c).
Resoluci´ on de ecuaciones no lineales 19
2.1 M´etodo de la bisecci´ on
2.1.1 Descripci´ on del m´etodo
Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos
cada vez m´as peque˜ nos. Supongamos que f(a) < 0 y f(b) > 0 (de forma
similar se razonar´ıa si f(a) > 0 y f(b) < 0).
Paso 0. Partimos del intervalo [a, b] y calculamos c
0
=
a+b
2
.
Paso 1. Si f(c
0
) < 0, definimos a
1
= c
0
y b
1
= b. Si f(c
0
) > 0, definimos
a
1
= a y b
1
= c
0
. En ambos casos, estudiamos el intervalo [a
1
, b
1
] y calculamos
c
1
=
a
1
+b
1
2
.
Paso 2. Si f(c
1
) < 0, definimos a
2
= c
1
y b
2
= b
1
. Si f(c
1
) > 0, definimos
a
2
= a
1
y b
2
= c
1
. En ambos casos, estudiamos el intervalo [a
2
, b
2
] y calculamos
c
2
=
a
2
+b
2
2
.
Paso n. Si f(c
n−1
) < 0, definimos a
n
= c
n−1
y b
n
= b
n−1
. Si f(c
n−1
) > 0,
definimos a
n
= a
n−1
y b
n
= c
n−1
. En ambos casos, estudiamos el intervalo
[a
n
, b
n
] y calculamos c
n
=
a
n
+b
n
2
.
2.1.2 Convergencia del m´etodo
Teorema: Si [a, b], [a
1
, b
1
], . . . , [a
n
, b
n
], . . . denotan los intervalos utilizados en
el m´etodo de la bisecci´ on, entonces
lim
n→∞
a
n
= lim
n→∞
b
n
= lim
n→∞
c
n
= r
y adem´ as f(r) = 0.
Demostraci´on. Por la construcci´on de las sucesiones se tiene que
a ≤ a
1
≤ a
2
≤ ≤ b
2
≤ b
1
≤ b
y
(b
n
−a
n
) =
1
2
(b
n−1
−a
n−1
) = =
1
2
n
(b −a).
Por tanto, la sucesi´on (a
n
)
n∈N
converge por ser creciente y acotada superior-
mente y la sucesi´on (b
n
)
n∈N
converge por ser decreciente y acotada inferior-
mente. Veamos que sus l´ımites son iguales
lim
n→∞
b
n
− lim
n→∞
a
n
= lim(b
n
−a
n
) = lim
n→∞
1
2
n
(b −a) = 0.
20 Cap´ıtulo 2
Dado lo anterior y puesto que a
n
≤ c
n
≤ b
n
se concluye que
lim
n→∞
a
n
= lim
n→∞
c
n
= lim
n→∞
b
n
.
Llamemos a ese l´ımite r. Veamos ahora que r es la soluci´on de f(x) = 0
utilizando las hip´otesis de continuidad de f(x) y la condici´on f(a
n
)f(b
n
) ≤ 0 :
0 ≥ f(r)f(r) = f( lim
n→∞
a
n
)f( lim
n→∞
b
n
) =
lim
n→∞
f(a
n
) lim
n→∞
f(b
n
) = lim
n→∞
f(a
n
)f(b
n
) ≤ 0.
Por tanto f(r) = 0 que era lo que se ten´ıa que probar.

2.1.3 Aproximaci´ on y error
Una aproximaci´on a la soluci´on de la ecuaci´on f(x) = 0 en el paso n es c
n
.
Una cota del error cometido ser´a:
[r −c
n
[ ≤
1
2
[b
n
−a
n
[ =
1
2
2
[b
n−1
−a
n−1
[ =
1
2
n+1
[b −a[.
Ejemplo: Encuentra una aproximaci´ on de la soluci´ on de e
x
= sen(x) con
un error menor que 10
−2
.
Aplicaremos el m´etodo de la bisecci´on a la funci´on f(x) = e
x
−sen(x). Por
el teorema de Bolzano sabemos que hay una soluci´on de f(x) = 0 en el intervalo
[−4, −3], puesto que f(−4) < 0 y f(−3) > 0. Si c
n
es la aproximaci´on y r es la
soluci´on exacta, como queremos que el error sea menor que 10
−2
, tendremos
que:
[r −c
n
[ ≤
1
2
n+1
[b −a[ =
1
2
n+1
[ −3 −(−4)[ =
1
2
n+1
< 10
−2
por lo que n ≥ 6, es decir, tendremos que calcular c
6
.
Los c´alculos ser´ıan los siguientes:
a
0
= −4 b
0
= −3 c
0
= −3.5 f(c
0
) = −0.3206
a
1
= −3.5 b
1
= −3 c
1
= −3.25 f(c
1
) = −0.0694
a
2
= −3.25 b
2
= −3 c
2
= −3.125 f(c
2
) = 0.0554
a
3
= −3.25 b
3
= −3.125 c
3
= −3.1875 f(c
3
) = −0.0046
a
4
= −3.1875 b
4
= −3.125 c
4
= −3.15625 f(c
4
) = 0.0277
a
5
= −3.1875 b
5
= −3.15625 c
5
= −3.175 f(c
5
) = 0.0084
a
6
= −3.1875 b
6
= −3.175 c
6
= −3.18125
La soluci´on aproximada propuesta ser´ıa −3.18125.
Resoluci´ on de ecuaciones no lineales 21
2.1.4 Variaciones del m´etodo: Regula Falsi
El m´etodo de la Regula-falsi difiere respecto de la bisecci´on en el c´alculo del
punto c
n
. Con este m´etodo se calcula as´ı:
c
n
= b
n
−f(b
n
)
b
n
−a
n
f(b
n
) −f(a
n
)
.
El paso siguiente es elegir el intervalo formado por los puntos a
n
y c
n
o bien
el formado por c
n
y b
n
asegurando que la funci´on en los extremos sea de signo
contrario.
Ejemplo: Aplicar el m´etodo de la regula falsi para encontrar una soluci´ on
de f(x) = 3x + sen(x) −e
x
= 0 a partir del intervalo [0, 1].
a
0
= 0 b
0
= 1 c
0
= 0.470990 f(c
0
) = 0.265160
a
1
= 0 b
1
= 0.470990 c
1
= 0.372277 f(c
1
) = 0.029533
a
2
= 0 b
2
= 0.372277 c
2
= 0.361598 f(c
2
) = 2.94 ∗ 10

3
a
3
= 0 b
3
= 0.361598 c
3
= 0.360538 f(c
3
) = 2.94 ∗ 10

4
a
4
= 0 b
4
= 0.360538 c
4
= 0.360433 f(c
4
) = 2.94 ∗ 10

5
0.2 0.4 0.6 0.8 1
-1
-0.5
0.5
1
regula falsi para f(x) = 3x + sen(x) −e
x

22 Cap´ıtulo 2
2.2 M´etodo de Newton-Raphson
2.2.1 Descripci´ on del m´etodo
Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´on
f(x).
Paso 1. Partimos de un punto inicial x
0
. Calculamos el polinomio de Taylor
de f(x) de grado 1 en x
0
P
1,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
).
Paso 2. Utilizamos P
1,x
0
(x) como aproximaci´on de f(x) y, en vez de resolver
f(x) = 0, resolvemos P
1,x
0
= 0, es decir
f(x
0
) +f

(x
0
)(x −x
0
) = 0 ⇒x = x
0

f(x
0
)
f

(x
0
)
.
Paso 3. Definimos
x
1
= x
0

f(x
0
)
f

(x
0
)
y repetimos los pasos 1, 2 y 3 sustituyendo el punto x
n−1
por el punto x
n
, es
decir construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
.
Cuando la sucesi´on x
0
, x
1
, x
2
, . . . es convergente y la funci´on f(x) tiene cierta
regularidad, su l´ımite r es la soluci´on puesto que
r = lim
n→
x
n
= lim
n→
¸
x
n−1

f(x
n−1
)
f

(x
n−1
)

= r −
f(r)
f

(r)

f(r)
f

(r)
= 0 ⇒f(r) = 0.
Ejemplo Aplica el m´etodo de Newton-Raphson para encontrar una apro-
ximaci´ on de

2.
Puesto que queremos una aproximaci´on de

2, bastar´a encontrar una apro-
ximaci´on de x
2
−2 = 0. Utilizamos el m´etodo de Newton-Raphson aplicado a
la funci´on f(x) = x
2
−2, es decir, construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−2
2x
n−1
.
Resoluci´ on de ecuaciones no lineales 23
Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´on. Comenzamos
por el punto x
0
= 1.5 :
x
0
= 1.5, x
1
= 1.4167, x
2
= 1.4142, x
3
= 1.4142, . . .
La aproximaci´on ser´ıa 1.4142.

2.2.2 Convergencia del m´etodo
Teorema: Si en un cierto intervalo se verifica que f ∈ C
2
(R), estrictamente
creciente, f

(x) ≥ 0 y f tiene un cero, entonces el cero es ´ unico y la iteraci´ on
de Newton-Raphson converger´ a a partir de cualquier punto inicial.
-1 1 2 3 4
-2
2
4
6
8
Newton Raphson converge
-2 -1 1 2
0.1
0.2
0.3
0.4
0.5
Newton Raphson no converge
Demostraci´on. Sea x
0
, x
1
, . . . , x
n
la sucesi´on construida por el m´etodo de
Newton-Raphson, r la soluci´on de la ecuaci´on f(x) = 0 y e
n
= x
n
−r el error
en el paso n. Por el teorema de Taylor sabemos que:
0 = f(r) = f(x
n
) +f

(x
n
)(−e
n
) +
f


n
)
2
(−e
n
)
2
.
Por tanto
e
n
f

(x
n
) −f(x
n
) =
f


n
)
2
e
2
n
.
De modo que
24 Cap´ıtulo 2
e
n+1
= x
n+1
−r = x
n

f(x
n
)
f

(x
n
)
−r = e
n

f(x
n
)
f

(x
n
)
=
e
n
f

(x
n
) −f(x
n
)
f

(x
n
)
=
f


n
)e
2
n
2f

(x
n
)
≥ 0
Por lo tanto
x
n+1
≥ r ⇒f(x
n
) ≥ f(r) = 0 ⇒e
n+1
= e
n

f(x
n
)
f

(x
n
)
≤ e
n
.
Puesto que x
n+1
≥ r y el error va decreciendo, se concluye que la sucesi´on
(x
n
)
n∈N
es decreciente y acotada inferiormente por r, por lo tanto tiene l´ımite.
As´ı mismo, la sucesi´on (e
n
)
n∈N
es decreciente y acotada inferiormente por 0,
por lo tanto tambi´en tiene l´ımite. Se deduce que
lim
n→∞
e
n+1
= lim
n→∞

e
n

f(x
n
)
f

(x
n
)

=
lim
n→∞
e
n

f(lim
n→∞
x
n
)
f

(lim
n→∞
x
n
)
⇒f( lim
n→∞
x
n
) = 0 (2.1)
y puesto que f(x) es estrictamente creciente se obtiene que lim
n→∞
x
n
= r
(en caso contrario f(lim
n→∞
x
n
) > f(r) = 0), es decir, la sucesi´on de Newton-
Raphson converge a la soluci´on.

2.2.3 Aproximaci´ on y error
La aproximaci´on a la soluci´on en el paso n del m´etodo de Newton-Raphson es
x
n
. Por el razonamiento anterior sabemos que
e
n+1
=
f

(x
n
)
2f

(x
n
)
e
2
n
.
Si encontramos una constante C tal que
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
siendo I un intervalo que contenga a la sucesi´on (x
n
)
n∈N
y a la soluci´on r,
tendremos que
[e
n+1
[ ≤ Ce
2
n
Resoluci´ on de ecuaciones no lineales 25
lo que significa que la convergencia de la sucesi´on de errores es cuadr´atica. En
estas condiciones
C[e
n+1
[ ≤ C
2
e
2
n
≤ C
2
(Ce
2
n−1
)
2
≤ ≤ (Ce
0
)
2
n+1
es decir
C[e
n
[ ≤ (Ce
0
)
2
n
⇒[e
n
[ ≤
1
C
(Ce
0
)
2
n
que es una cota del error que se puede obtener previamente a aplicar el m´etodo.
Si [Ce
0
[ < 1, o lo que es lo mismo [e
0
[ <
1
C
, siendo e
0
= x
0
−r, tendremos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
→0
con lo que tenemos otro criterio de convergencia del m´etodo.
Ejemplo: Calcula el n´ umero de pasos necesarios para encontrar la ra´ız
cuadrada de 3 con un error menor que 10
−6
1. Con el m´etodo de Newton-Raphson
2. Con el m´etodo de la bisecci´ on.
Puesto que la ra´ız cuadrada de 3 es soluci´on de x
2
− 3 = 0, aplicaremos
los m´etodos a la funci´on f(x) = x
2
−3. Puesto que f(x) es continua en [1, 2]
y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano
se sabe que en [1, 2] hay una soluci´on de f(x) = 0.
Apartado 1). Aplicamos el primer criterio para saber si el m´etodo de
Newton-Raphson converger´a en el intervalo [1, 2]. f(x) es un polinomio y por
tanto es de clase C
2
. Como f

(x) = 2x > 0 en [1, 2], la funci´on es estrictamente
creciente en [1, 2]. Adem´as f

(x) = 2 > 0 en [1, 2]. Por todo ello, podemos
asegurar que el m´etodo de Newton-Raphson converger´a a partir de cualquier
punto de [1, 2].
Veamos el n´ umero de iteraciones necesarias para que el error sea menor
que 10
−6
. Sabemos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
siendo
C ≥
max
x∈[1,2]|f

(x)|
2 min
x∈[1,2]
[f

(x)[
=
2
2 min
x∈[1,2]
[2x[
=
2
2 2
=
1
2
.
26 Cap´ıtulo 2
Por tanto
[e
n
[ ≤
1
1/2

1
2
e
0

2
n
= 2

1
2
e
0

2
n
Si n = 4, entonces [e
4
[ ≤ 3.051 ∗ 10
−5
Si n = 5, entonces [e
5
[ ≤ 4.66 ∗ 10
−10
. Luego basta con 5 iteraciones.
Aplicamos el m´etodo empezando en el punto x
0
= 1
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−3
2x
n−1
=
x
2
n−1
+ 3
2x
n−1
.
x
0
= 1 x
1
= 2 x
2
= 1.75 x
3
= 1.73414 x
4
= 1.73205 x
5
= 1.73205
Apartado 2). Sabemos que
[e
n
[ ≤
1
2
n+1
(b −a) =
1
2
n+1
< 10
−6
y si n = 19, entonces [e
19
[ ≤ 9.54 ∗ 10
−7
, es decir, necesitamos 19 iteraciones.

Ejemplo: Dada la ecuaci´ on e
−x
−x = 0,
1. Aplica el m´etodo de Newton-Raphson con 4 iteraciones para encontrar
la soluci´ on.
2. Calcula una cota del error cometido.
Sea f(x) = e
−x
−x. Aplicando el teorema de Bolzano al intervalo [0, 1] se
puede asegurar que en dicho intervalo hay una soluci´on de la ecuaci´on f(x) = 0.
Como f

(x) = e
−x
−1 < 0 en [0, 1] no podemos aplicar el criterio para asegurar
que el m´etodo funcione empezando en cualquier punto del intervalo [0, 1]. No
obstante, lo aplicamos empezando en el punto x
0
= 0
x
n+1
= x
n

e
−x
n
−x
n
−e
−x
n
−1
x
0
= 0 x
1
= 0.5 x
2
= 0.566311 x
3
= 0.567143 x
4
= 0.567143
Resoluci´ on de ecuaciones no lineales 27
Calculemos una cota del error
C[e
4
[ ≤ (Ce
0
)
2
n
siendo
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
=
max
x∈[0,1]
[e
−x
[
2 min
x∈[1,2]
[ −e
−x
−1[
=
1
2(1/e + 1)
=
e
2(e + 1)
≈ 0.365529.
Por tanto
[e
4
[ ≤ C
2
n
−1
e
2
n
0
≤ 0.37
15
1
16
≈ 0.33 ∗ 10
−7

2.2.4 Variaciones del m´etodo: M´etodo de la secante
Teniendo en cuenta quef

(x
n
) = lim
h→0
f(x
n
+h)−f(x
n
)
h
este m´etodo se diferen-
cia del de Newton-Raphson en que se sustituye f

(x
n
) por el valor aproximado
f(x
n−1
)−f(x
n−2
)
x
n−1
−x
n−2
de modo que la sucesi´on que queda es
x
n
= x
n−1
−f(x
n−1
)
x
n−1
−x
n−2
f(x
n−1
) −f(x
n−2
)
.
Por tanto hay que utilizar dos puntos iniciales en lugar de uno. Es un m´etodo
m´as r´apido que el de la bisecci´on pero m´as lento que el de Newton-Raphson.
Ejemplo: Calcula una aproximaci´ on de

2, con 4 iteraciones del m´etodo
de la secante.
Aplicamos el m´etodo a la soluci´on de la ecuaci´on f(x) = x
2
−2 = 0 en el
intervalo [1, 2].
x
n
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−2 −[x
2
n−2
−2]
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−x
2
n−2
y tomando tomando x
0
= 1 y x
1
= 2 nos queda
x
0
= 1 x
1
= 2 x
2
= 1.3333 x
3
= 1.4 x
4
= 1.4146

28 Cap´ıtulo 2
0.5 1.5 2 2.5
-1
1
2
3
4
M´etodo de la secante para f(x) = x
2
−2
2.3 M´etodo iterativo de punto fijo
2.3.1 Descripci´ on del m´etodo
Ciertos problemas de aproximaci´on se pueden resolver encontrando una solu-
ci´on de F(x) = x. Una soluci´on r de F(x) = x se denomina un punto fijo de
la funci´on F(x), debido a que F(r) = r. A menudo, para resolver la ecuaci´on
F(x) = x se construye la sucesi´on
x
n
= F(x
n−1
).
Cuando la sucesi´on x
n
es convergente y F(x) es continua, si r = lim
n→∞
x
n
,
entonces
F(r) = F( lim
n→∞
x
n
) = lim
n→∞
F(x
n
) = lim
n→∞
x
n+1
= r,
es decir, el l´ımite de x
n
es un punto fijo de F(x). La b´ usqueda de soluciones
de F(x) = x empleando sucesiones de la forma x
n
= F(x
n−1
), se denomina
m´etodo iterativo de punto fijo.
Ejemplo: Encuentra una soluci´ on real de x
3
− x − 1 = 0 usando cinco
pasos de un m´etodo iterativo de punto fijo.
Como pretendemos resolver la ecuaci´on f(x) = x
3
− x − 1 = 0, por el
teorema de Bolzano sabemos que hay una soluci´on en el intervalo [1, 2].
Resolver f(x) = x
3
− x − 1 = 0 es equivalente a resolver una de estas
ecuaciones
x
3
−1 = x o bien
3

1 +x = x,
Resoluci´ on de ecuaciones no lineales 29
con lo que podemos aplicar el m´etodo iterativo de punto fijo para resolver la
ecuaci´on F(x) = x siendo F(x) = x
3
−1 o bien F(x) =
3

1 +x. Construyamos
la sucesi´on x
n
= F(x
n−1
) para ambas funciones, comenzando por un punto
del intervalo [1, 2], por ejemplo por x
0
= 1 resulta lo siguiente:
x
n
= F(x
n−1
) x
0
x
1
x
2
x
3
x
4
x
5
F(x) = x
3
−1 1 0 −1 −2 −9 −730
F(x) =
3

1 +x 1 1.2600 1.3123 1.3224 1.3243 1.3246
Es claro que para la funci´on F(x) = x
3
−1, la sucesi´on no resulta conver-
gente. Sin embargo, para la funci´on F(x) =
3

1 +x la sucesi´on que sale s´ı es
convergente a un n´ umero r. Dicho n´ umero, puesto que F(x) es continua, veri-
ficar´a que F(r) = r, es decir, f(r) = 0. La mejor aproximaci´on de r obtenida
ser´ıa 1.3246.

2.3.2 Convergencia del m´etodo
Definici´ on: Sea F : R →R una funci´on. Se dice que F es contractiva en un
conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que
[F(x) −F(y)[ ≤ λ[x −y[ ∀x, y ∈ C.
Ejemplo: Comprueba que la funci´ on F(x) =
3

1 +x es contractiva en
[0, 1].
Por el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ =

1
3
3

(1 +θ)
2
(y −x)


1
3
3

1
(y −x)

=
1
3
[y −x[
para todo x, y ∈ [0, 1]. Por tanto la funci´on es contractiva con λ = 1/3.

Teorema: Si F es una funci´ on contractiva que va de un cerrado C ⊂ R
en C (F(C) ⊂ C), entonces F tiene un ´ unico punto fijo r ∈ C. Adem´ as
r es el l´ımite de cualquier sucesi´ on que se obtenga a partir de la expresi´ on
x
n+1
= F(x
n
) siendo x
0
∈ C.
30 Cap´ıtulo 2
Demostraci´on. Sea x
0
, x
1
, x
2
, . . . , x
n
, . . . la sucesi´on generada mediante la
expresi´on x
n+1
= F(x
n
). Veamos que (x
n
)
n∈N
converge. Por ser contractiva
se tiene que
[x
n
−x
n−1
[ = [F(x
n−1
) −F(x
n−2
)[ ≤ λ[x
n−1
−x
n−2
[ ≤
λ
2
[x
n−2
−x
n−3
[ ≤ ≤ λ
n−1
[x
1
−x
0
[.
Por otra parte
x
n
= x
0
+x
1
−x
0
+x
2
−x
1
+ +x
n
−x
n−1
= x
0
+
n
¸
k=1
(x
k
−x
k−1
)
por lo que
lim
n→∞
x
n
= x
0
+ lim
n→∞
n
¸
k=1
(x
k
−x
k−1
) = x
0
+

¸
k=1
(x
k
−x
k−1
)
La serie
¸

k=1
(x
k
−x
k−1
) es convergente porque


¸
k=1
(x
k
−x
k−1
)



¸
k=1
[x
k
−x
k−1
[ ≤

¸
k=1
λ
k−1
(x
1
−x
0
) = [x
1
−x
0
[
1
1 −λ
Como la serie es convergente, la sucesi´on (x
n
)
n∈N
tambi´en lo es. Sea r =
lim
n→∞
x
n
. Por la construcci´on de la sucesi´on, se tiene que F(r) = r, es decir,
hay un punto fijo. r ∈ C por ser C un conjunto cerrado y x
n
∈ C. Falta ver
que es ´ unico. Supongamos que hubiese dos puntos fijos r
1
y r
2
. Entonces
[r
1
−r
2
[ = [F(r
1
) −F(r
2
)[ ≤ λ[r
1
−r
2
[ < [r
1
−r
2
[
llegando a contradicci´on.
2.3.3 Aproximaci´ on y error
Si r es soluci´on de f(x) = 0 obtenida por iteraci´on de una funci´on F(x),
entonces si f(x) es continua y derivable, existe θ
n
∈ R entre r y x
n
tal que
f(r) −f(x
n
)
r −x
n
= f


n
).
Resoluci´ on de ecuaciones no lineales 31
Suponiendo que x
n
≤ r y puesto que f(r) = 0 y −e
n
= r −x
n
, se deduce que
f(x
n
)
e
n
= f


n
) ⇒e
n
=
f(x
n
)
f


n
)
⇒[e
n
[ ≤
[f(x
n
)[
min
θ∈[x
n
,r]
[f

(θ)[
.
La f´ormula anterior nos proporciona un m´etodo para encontrar una cota de
error a posteriori y se puede aplicar a cualquier m´etodo iterativo de punto fijo.
Si F(x) es contractiva de constante λ entonces
[x
n+p
−x
n
[ = [x
n+p
−x
n+p−1
[ +[x
n+p−1
−x
n+p−2
[ + +[x
n+1
−x
n
[ ≤
≤ λ
n+p−1
[x
1
−x
0
[ +λ
n+p−2
[x
1
−x
0
[ + +λ
n
[x
1
−x
0
[ =
= (λ
n+p−1

n+p−2
+ +λ
n
)[x
1
−x
0
[ =
= λ
n

p−1

p−2
+ + 1)[x
1
−x
0
[
de modo que cuando p tiende a infinito
[e
n
[ = [r −x
n
[ ≤ λ
n

¸
k=0
λ
k
= λ
n

1
1 −λ

[x
1
−x
0
[
que es una f´ormula que permite calcular una cota de error a priori.
Ejemplo: Encuentra una soluci´ on de la ecuaci´ on 4 +
1
3
sin(2x) − x = 0
con un m´etodo iterativo de punto fijo estimando una cota del error a priori y
otra a posteriori.
Sea f(x) = 4 +
1
3
sin(2x) −x y F(x) = 4 +
1
3
sin(2x). Aplicando el teorema
de Bolzano a la funci´on f(x) en el intervalo [−3.5, 4.5] se deduce que hay
una soluci´on de f(x) = 0 en dicho intervalo. Veamos si F(x) es contractiva
aplicando el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ = [
2
3
cos(2x)(y −x)[ ≤
2
3
[y −x[.
Se deduce que F(x) es contractiva con constante λ =
2
3
.
Por otra parte, puesto que −3.5 ≤ 4 +
1
3
sin(2x) ≤ 4.5, se deduce que
F([−3.5, 4.5]) ⊂ [−3.5, 4.5].
Por tanto, la sucesi´on x
n+1
= F(x
n
) converger´a a un punto fijo a partir de
cualquier valor inicial x
0
. Calculamos cinco iteraciones empezando en x
0
= 0 :
32 Cap´ıtulo 2
x
0
x
1
x
2
x
3
x
4
x
5
0 4 4.329786082 4.230895147 4.273633799 4.256383406
Una cota del error para x
5
a priori ser´ıa
[e
5
[ ≤

2
3

5

1
1 −
2
3

[4 −0[ ≈ 1.5802
que no es una cota muy buena.
Una cota del error para x
5
a posteriori ser´ıa
[e
5
[ ≤
[f(x
5
)[
min
θ∈[−3.5,4.5]
[
2
3
cos(2θ) −1[

0.00719542
1/3
= 0.00239847.

2.4 Ra´ıces de polinomios
No existe ninguna f´ormula algebraica para la resoluci´on de ra´ıces de polinomios
de grado mayor que 4, por tanto, hay que aplicar m´etodos num´ericos para el
c´alculo de dichas ra´ıces.
Definici´ on: Una soluci´on r de una ecuaci´on f(x) = 0 se dice que tiene
multiplicidad n si
f(r) = f

(r) = = f
n−1)
(r) = 0 f
n)
(r) = 0.
Ejemplo: r = 1 es una soluci´on de multiplicidad 2 para la ecuaci´on
x
2
−2x + 1 = 0.

Para la localizaci´on de ra´ıces de polinomios con multiplicidad par (como
en el ejemplo anterior) no podemos emplear el teorema de Bolzano. Sin em-
bargo podemos intentar calcular las ra´ıces de otro polinomio con las mismas
soluciones que el nuestro pero todas con multiplicidad 1.
Resoluci´ on de ecuaciones no lineales 33
0.5 1 1.5 2
0.2
0.4
0.6
0.8
1
f(x) = x
2
−2x + 1
Teorema [Teorema fundamental del ´algebra]: Un polinomio de grado n
con coeficientes reales tiene exactamente n ceros o ra´ıces entre los n´ umeros
complejos C, contando cada cero tantas veces como indique su multiplicidad.
De modo que dado un polinomio P
n
(x), podemos descomponerlo as´ı:
P
n
(x) = a
n
(x −r
k
)
m
k
(x −r
k−1
)
m
k−1
. . . (x −r
1
)
m
1
siendo m
i
la multiplicidad de la ra´ız i-´esima. Si derivamos, obtenemos que
P

n
(x) = a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
M(x)
siendo M(x) un polinomio tal que M(r
i
) = 0. El m´aximo com´ un divisor de
P
n
(x) y de P

n
(x) es
D(x) = M.C.D(P
n
(x), P

n
(x)) =
a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
por lo que el polinomio
Q(x) =
P(x)
M.C.D(P
n
(x), P

n
(x))
= a
n
(x −r
k
)(x −r
k−1
) . . . (x −r
1
)
tiene las mismas ra´ıces que P(x) pero todas con multiplicidad 1. Bastar´ıa
aplicar los m´etodos a Q(x) para localizar las ra´ıces de P
n
(x). El problema es
el c´alculo de Q(x) y de M.C.D(P
n
(x), P

n
(x)).
34 Cap´ıtulo 2
2.4.1 Separaci´ on de ra´ıces. Sucesi´ on de Sturm.
La sucesi´on de Sturm nos permite calcular el n´ umero de ra´ıces de un polinomio
en un intervalo [a, b]. Sea P
n
(x) un polinomio de grado n y P

n
(x) su deriva-
da. Para construir la sucesi´on de Sturm aplicamos la divisi´on de polinomios
repetidas veces a P
n
(x), P

n
(x) y a los restos obtenidos cambiados de signo:
P
n
(x) = c
1
(x)P

n
(x) +r
1
(x)
P

n
(x) = c
2
(x)(−r
1
(x)) +r
2
(x)
−r
1
(x) = c
3
(x)(−r
2
(x)) +r
3
(x)
. . .
−r
k−2
(x) = c
k
(x)(−r
k−1
(x)) +r
k
(x)
Puede ocurrir lo siguiente:
1. Hay un resto r
k
(x) = 0. En este caso r
k−1
(x) es el m´aximo com´ un
divisor de P
n
(x) y de P

n
(x). Construimos entonces la sucesi´on de Sturm co-
rrespondiente al polinomio
Q(x) =
P
n
(x)
r
k−1
(x)
que es un polinomio que tiene las mismas ra´ıces que P
n
(x) pero todas simples.
2. Llegamos a un resto r
k
(x) constante distinto de 0. En este caso la
sucesi´on de Sturm es
P
n
(x), P
n−1
(x), −r
1
(x), . . . , −r
k
(x).
La diferencia entre el n´ umero de cambios de signos de las sucesiones siguientes
P
n
(a), P
n−1
(a), −r
1
(a), . . . , −r
k
(a) P
n
(b), P
n−1
(b), −r
1
(b), . . . , −r
k
(b)
es el n´ umero de ra´ıces de P
n
(x) en el intervalo [a, b].
Resoluci´ on de ecuaciones no lineales 35
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = 36x
4

12x
3
−11x
2
+ 2x + 1.
La derivada de P(x) es P

(x) = 144x
3
−36x
2
−22x+2. Podemos multiplicar
los polinomios implicados por numeros positivos para facilitar los c´alculos sin
que ello afecte al objetivo perseguido. Comenzamos los c´alculos:
1. Multiplicamos P
n
(x) por 4 y efectuamos la primera divisi´on:
144x
4
−48x
3
−44x+8x+4 = (x−1)(144x
3
−36x
2
−22x+2)+(−300x
2
+50x+50).
2. El tercer miembro de la sucesi´on de Sturm es 300x
2
− 50x − 50. Efec-
tuamos la siguiente divisi´on:
144x
3
−36x
2
−22x + 2 = 2/50(12x −1)(300x
2
−50x −50) + 0
3. Como hay un resto que es 0 el m´aximo com´ un divisor de P(x) y P

(x) es
300x
2
−50x−50 o bien dividiendo por 50 6x
2
−x−1. calculamos el polinomio
Q(x) =
P(x)
6x
2
−x −1
= 6x
2
−x −1.
4. Construimos la sucesi´on de Sturm para Q(x).
6x
2
−x −1 = (−
1
24
+
x
2
)(12x −1) +
−25
24
Con la sucesi´on es
6x
2
−x −1, 12x −1,
25
24
Estudiamos algunos cambios de signo:
−∞ -2 0 2 ∞
6x
2
−x −1 + + - + +
12x −1 - - - + +
25
24
+ + + + +
cambios de signo 2 2 1 0 0
En el intervalo (∞, −2) y en (0, 2) no hay ninguna ra´ız porque en los extremos
de los intervalos la sucesi´on de Sturm tiene los mismos cambios de signo.
En el intervalo (−2, 0) hay una ra´ız y hay otra en el intervalo (0, 2) porque
la diferencia de cambios de signo en los extremos en ambos casos es 1.

36 Cap´ıtulo 2
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = x
4
+2x
3

3x
2
−4x −1.
La derivada es P

(x) = 4x
3
+ 6x
2
−6x −4 = 2(2x
3
+ 3x
2
−3x −2). Para
facilitar el c´alculo multiplicamos P(x) por 2 y calculamos es tercer miembro
de la sucesi´on de Sturm:
2x
4
+ 4x
3
−6x
2
−8x −1 = (x +
1
2
)(2x
3
+ 3x
2
−3x −2) + (−
9
2
x
2

9
2
x −1).
Podemos multiplicar por 2 el resto con lo que −r
1
(x) = 9x
2
− 9x + 2. Pa-
ra facilitar los c´alculos multiplicamos P

(x) por 9 y calculamos el siguiente
miembro de la sucesi´on:
18x
3
+ 27x
2
−27x −18 = (2x + 1)(9x
2
+ 9x + 2) + (−40x −20).
Dividiendo por 20 podemos suponer que −r
2
(x) = 2x + 1. Multiplicamos
−r
1
(x) por 2 y calculamos −r
3
(x):
18x
2
+ 18x + 4 = (9x +
9
2
)(2x + 1) +
−1
2
.
Con lo que la sucesi´on queda as´ı:
x
4
+ 2x
3
−3x
2
−4x −1, 2x
3
+ 3x
2
−3x −2, 9x
2
+ 9x + 2, 2x + 1,
1
2
.
Separamos las ra´ıces en intervalos disjuntos:
−∞ -3 -2 -1 -1/2 0 1 2 ∞
x
4
+ 2x
3
−3x
2
−4x −1 + + - - - - - + +
2x
3
+ 3x
2
−3x −2 - - 0 + - - 0 + +
9x
2
+ 9x + 2 + + + + + + + + +
2x + 1 - - - - 0 + + + +
1
2
+ + + + + + + + +
cambios de signo 4 4 3 3 2 1 1 0 0
En el intervalo (∞, −3), (−2, −1), (0, 1) y en (2, ∞) no hay ninguna ra´ız
porque en los extremos de los intervalos la sucesi´on de Sturm tiene los mismos
cambios de signo.
En cada uno de los intervalos (−3, −2), (−1, −1/2), −1/2, 0 y (1, 2) hay
una ra´ız porque la diferencia de cambios de signo en los extremos en ambos
casos es 1.

Resoluci´ on de ecuaciones no lineales 37
2.4.2 Acotaci´ on de ra´ıces
Proposici´ on: Sea P(x) = a
n
x
n
+ a
n−1
x
n−1
+ + a
0
. Si r es una ra´ız de
P(x), entonces
[r[ < 1 +
A
[a
n
[
siendo A = max
0≤i≤n−1
[a
i
[.
Demostraci´on. Supongamos que [r[ > 1.
0 = [P(r)[ = [a
n
r
n
+a
n−1
r
n−1
+ +a
0
[ ≥
≥ [a
n
r
n
[ −[a
n−1
r
n−1
+ +a
0
[
≥ [a
n
r
n
[ −

[a
n−1
[[r
n−1
[ + +[a
0
[


≥ [a
n
r
n
[ −A

[r[
n−1
+ +[r[ + 1

=
[a
n
r
n
[ −A
[r[
n
−1
[r[ −1
> [a
n
[[r[
n
−A
[r[
n
[r[ −1
> [r[
n

[a
n
[ −
A
[r[ −1

es decir,
0 > [a
n
[ −
A
[r[ −1
⇒[a
n
[ <
A
[r[ −1
⇒[r[ −1 <
A
[a
n
[
con lo que concluimos que
[r[ < 1 +
A
[a
n
[
.
Si [r[ ≤ 1, es trivial que [r[ < 1 +
A
|a
n
|
.

Ejemplo: Acota las ra´ıces del polinomio P(x) = x
4
+2x
3
−3x
2
−4x −1.
Com A = max
1≤i≤n−1
[a
i
[ = 4, usando la proposici´on anterior obtenemos
que cualquier ra´ız r del polinomio verifica lo siguiente
[r[ < 1 +
A
[a
n
[
= 1 +
4
1
= 5 ⇒−5 < r < 5.

38 Cap´ıtulo 2
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner
Si usamos el m´etodo de Newton-Raphson para encontrar las ra´ıces de un
polinomio P(x) hemos de calcular P(x
n
) y P

(x
n
). El algoritmo de Horner
hace estos ´ ultimos c´alculos de forma sencilla para polinomios.
Sea x
0
∈ R y P(x) = a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
. Sea
P(x) = Q(x)(x −x
0
) +R
(R ser´a constante) el resultado de dividir P(x) entre (x − x
0
). Supongamos
que
Q(x) = b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
.
Entonces P(x
0
) = R y P(x) = Q(x)(x −x
0
) +P(x
0
), con lo que
P(x) −P(x
0
) = Q(x)(x −x
0
)
es decir
a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
−P(x
0
) =
= (b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
)(x −x
0
)
Desarrollando e igualando los coeficientes de ambos t´erminos se deduce
que
b
n−1
= a
n
, b
n−2
= a
n−1
+b
n−1
x
0
, . . . , b
0
= a
1
+b
1
x
0
P(x
0
) = a
0
+b
0
x
0
.
La obtenci´on de los coeficientes b
i
se pueden representar gr´aficamente as´ı
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
que tambi´en es una forma sencilla de calcular P(x
0
). Adem´as,
P(x) = Q(x)(x−x
0
) +R ⇒P

(x) = Q

(x)(x−x
0
) +Q(x) ⇒P

(x
0
) = Q(x
0
).
De modo que para calcular P

(x
0
) podemos aplicar el algoritmo gr´afico anterior
a Q(x) :
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
x
0
c
n−2
x
0
c
n−3
x
0
. . . c
0
x
0
c
n−2
c
n−3
c
n−4
. . . P

(x
0
)
Resoluci´ on de ecuaciones no lineales 39
Ejemplo: Siendo P(x) = x
4
+2x
3
−3x
2
−4x−1, calcula con el algoritmo
de Horner P(2) y P

(2).
2 1 −3 4 −5
2 4 10 14 36
2 5 7 18 31
2 4 18 50
2 9 25 68
Se concluye que P(2) = 31 y P

(2) = 68.

2.4.4 Ra´ıces m´ ultiples
Si una ecuaci´on f(x) = 0 tiene soluciones m´ ultiples, el c´alculo puede ser
problem´atico. Si f(x) es un polinomio, podemos intentar calcular las ra´ıces
de
Q(x) =
P(x)
MCD(P(x), P

(x))
que ser´a un polinomio con las mismas ra´ıces que f(x) pero todas con multi-
plicidad 1.
Sea o no f(x) un polinomio, se puede intentar aplicar el m´etodo de Newton-
Raphson. Si la sucesi´on generada converge muy lentamente, la causa puede
encontrarse en esa multiplicidad de las ra´ıces. Para detectar de qu´e multi-
plicidad es la ra´ız en cuesti´on, para cada termino de la sucesi´on x
n
generada
calculamos f

(x
n
), f

(x
n
), f

(x
n
), . . . , f
k)
(x
n
). Si las derivadas hasta orden
k −1 son casi 0 en los valores x
n
y f
k)
(x
n
) no es cercano a 0, entonces puede
ocurrir que la soluci´on r verifique que
f
n)
(r) = 0 ∀ 0 ≤ n < k y f
k)
(r) = 0,
es decir que r sea una soluci´on de f(x) = 0 de multiplicidad k. En este caso,
se puede acelerar la convergencia de la sucesi´on calcul´andola as´ı
x
n+1
= x
n
−k
f(x
n
)
f

(x
n
)
.
40 Cap´ıtulo 2
El error se obtendr´ıa as´ı
[e
n
[ <
[f(x
n
)[
min
θ∈[a,b]
[f

(θ)[
Ejercicio: Sea f(x) = (x − 1)
3
. Aplica Newton-Raphson para encontrar
una soluci´on de f(x) = 0 empezando en x
0
= 0.
Cap´ıtulo 3
Sistemas Lineales
El objetivo de este tema es el desarrollo de t´ecnicas de b´ usqueda de soluciones
de sistemas de ecuaciones lineales como el siguiente:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2

a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
= b
n
Denotando A = (a
ij
)
1≤i,j≤n
, b = (b
i
)
1≤i≤n
y x = (x
i
)
1≤i≤n
, el sistema anterior
se puede expresar
A x = b
3.1
´
Algebra de matrices
Sea A una matriz.
Aes de orden mn si tiene tiene mfilas y n columnas (A = (a
ij
)
1≤i≤m,1≤j≤n

´
m×n
). Por ejemplo

3 5 2
2 1 3

tiene orden 2 3.
La matriz traspuesta de A es la matriz A
t
que resulta de intercambiar las
filas de A por las columnas de A.
41
42 Cap´ıtulo 3
A es sim´etrica si A
t
= A.
Si α ∈ R y B es una matriz, podemos realizar las siguientes operaciones:
- Multiplicar una matriz por un n´ umero:
α A = (αa
ij
)
1≤i≤m,1≤j≤n
.
- Sumar dos matrices A y B si A, B ∈ ´
m×n
:
A+B = (a
i,j
+b
ij
)
1≤i,j≤m
.
- Multiplicar dos matrices A ∈ ´
m×p
y B ∈ ´
p×n
:
A B = (
p
¸
k=1
a
ik
b
kj
)
1≤i≤m,1≤j≤n
∈ ´
m×n
.
La matriz identidad de orden n n es
Id =

¸
¸
¸
1 0 0 . . . 0
0 1 0 . . . 0
. . .
0 0 . . . 0 1
¸

Se verifica que A Id = Id A = A, ∀A ∈ ´
n×n
.
B es una matriz inversa de A por la derecha si B A = Id
B es una matriz inversa de A por la izquierda si A B = Id.
Si A ∈ ´
n×n
, entonces la inversa por la izquierda es tambi´en inversa por
la derecha. En este caso la inversa es ´ unica y se denota A
−1
A
−1
A = A A
−1
= Id.
Si A ∈ ´
n×n
tiene inversa, entonces A es regular, invertible o no singular.
La matriz inversa es
A
−1
=
1
[A[
(A
i,j
)
t
,
siendo A
i,j
el adjunto del elemento a
ij
.
En este caso el sistema A x = b tiene como soluci´on x = A
−1
b.
Se llaman operaciones elementales de una matriz al intercambio de dos
filas o columnas, al producto de una fila o columna por un n´ umero distinto
de 0, a la suma de una fila o columna otra fila o columna multiplicada por un
n´ umero, o cualquier combinaci´on finita de las operaciones anteriores. Cada
Sistemas lineales 43
operaci´on fundamental en una matriz A se puede expresar mediante producto
de A por otra matriz, que se llama matriz fundamental. Por ejemplo, dada la
matriz
A =

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

,
el intercambio de la segunda y tercera filas se puede expresar as´ı:

¸
1 0 0
0 0 1
0 1 0
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
31
a
32
a
33
a
21
a
22
a
23
¸

.
El producto de la segunda fila por un n´ umero α se puede expresar as´ı:

¸
1 0 0
0 α 0
0 0 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
αa
21
αa
22
αa
23
a
31
a
32
a
33
¸

Y la suma a la tercera fila de la segunda fila multiplicada por un n´ umero α es:

¸
1 0 0
0 1 0
0 α 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
αa
21
+a
31
αa
22
+a
32
αa
23
+a
33
¸

El producto de matrices

¸
1 0 0
0 0 α
0 1 αλ
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

representa aplicar a la segunda matriz los siguientes cambios:
- Sustituir la fila segunda por la tercera multiplicada por α.
- Multiplicar la tercera fila por αλ y sumarle la segunda.
Si A ∈ ´
n×n
tiene inversa, entonces existe un conjunto de matrices fun-
damentales E
k
con k = 1, . . . , p, tales que
E
p
E
p−1
. . . E
1
A = Id,
con lo que multiplicando por A
−1
por la derecha en ambos t´erminos se obtiene
que
E
p
E
p−1
. . . E
1
Id = A
−1
,
es decir, aplicando las mismas operaciones fundamentales a la matriz Id ob-
tendremos la matriz inversa A
−1
.
44 Cap´ıtulo 3
Ejemplo: Calcula la inversa de la matriz
A =

¸
1 2 3
1 3 3
2 4 7
¸

.
Partimos de A y la matriz Id. El primer cambio consiste en restar a la segunda
fila la primera (correspondiente al producto por una cierta matriz fundamental
E
1
):
E
1
A =

¸
1 2 3
0 1 0
2 4 7
¸

E
1
Id =

¸
1 0 0
−1 1 0
0 0 1
¸

El segundo cambio (multiplicar por E
2
) consiste en restar a la tercera dos
veces la primera:
E
2
E
1
A =

¸
1 2 3
0 1 0
0 0 1
¸

E
2
E
1
Id =

¸
1 0 0
−1 1 0
−2 0 1
¸

A la primera le resto dos veces la segunda (E
3
):
E
3
E
2
E
1
A =

¸
1 0 3
0 1 0
0 0 1
¸

E
3
E
2
E
1
Id =

¸
3 −2 0
−1 1 0
−2 0 1
¸

A la primera le resto tres veces la tercera (E
4
):
E
4
E
3
E
2
E
1
A =

¸
1 0 0
0 1 0
0 0 1
¸

E
4
E
3
E
2
E
1
Id =

¸
9 −2 −3
−1 1 0
−2 0 1
¸

= A
−1
.
Esta ´ ultima matriz es la inversa de A.

Sistemas lineales 45
Para toda matriz A ∈ ´
n×n
son equivalentes:
1. A
−1
existe.
2. [A[ = 0.
3. Los vectores fila de la matriz A son linealmente independientes.
4. Los vectores columna de la matriz A son linealmente independientes.
5. Para cada b ∈ R
n
, el sistema A x = b tiene una ´ unica soluci´on.
6. A es producto de matrices elementales.
3.1.1 Valores propios y vectores propios
Sea A ∈ ´
n×n
. Si existe un vector x ∈ R
n
no nulo y un n´ umero λ ∈ R tal
que A x = λx, entonces, λ es un valor propio o autovalor de la matriz A, y
x es un vector propio o autovector para el autovalor λ. Los valores propios de
una matriz A son las ra´ıces del llamado polinomio caracter´ıstico [A − λ Id[.
Los vectores propios de A para el autovalor λ, son los elementos de n´ ucleo de
la aplicaci´on lineal A−λ Id.
3.1.2 Matriz definida
Sea A ∈ ´
n×n
. Se dice que A es definida positiva (equivalentemente, negati-
va) si para todo x ∈ R
n
no nulo, se verifica que
x
t
A x > 0.
Ejemplo. La matriz A =

2 1
1 2

es definida positiva.
Sea (x
1
, x
2
) un vector no nulo.
(x
1
, x
2
)

2 1
1 2

x
1
x
2

= (x
1
, x
2
)

2x
1
+x
2
x
1
+ 2x
2

=
2x
2
1
+x
1
x
2
+x
1
x
2
+ 2x
2
2
= (x
1
+x
2
)
2
+x
2
1
+x
2
2
> 0.

Si A es una matriz definida positiva y sim´etrica, entonces los autovalores
de A son todos n´ umeros reales y positivos.
46 Cap´ıtulo 3
3.2 Resoluci´ on de sistemas de ecuaciones lineales:
m´etodo de Gauss
Dado el sistema A x = b, si [A[ = 0, puede no haber soluci´on. Si [A[ = 0,
existe una ´ unica soluci´on y se puede calcular as´ı:
x
1
=

b
1
a
12
. . . a
1n
b
2
a
22
. . . a
2n
. . .
b
n
a
n2
. . . a
nn

[A[
, , x
n
=

a
11
. . . a
1n−1
b
1
a
21
a
2n−1
b
2
. . .
a
2n
. . . a
nn−1
b
n

[A[
Los c´alculos anteriores son poco pr´acticos cuando el n´ umero de ecuaciones
es grande. Por ejemplo, para n = 50 se necesitan 10
64
operaciones. Para
evitar este problema se utilizan m´etodos num´ericos de resoluci´on de ecuaciones
lineales que pueden ser:
• Directos: proporcionan un resultado que ser´a exacto salvo errores de
redondeo tras un n´ umero determinado de operaciones.
• Iterativos: construyen una sucesi´on de soluciones aproximadas, de modo
que en cada paso se mejora la aproximaci´on anterior.
Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas
soluciones. En un sistema de ecuaciones se pueden efectuar operaciones ele-
mentales en la matriz de los coeficientes y en la de los t´erminos independientes
y resulta un sistema equivalente. Es decir, resulta un sistema equivalente si
efectuamos alguna de las siguientes operaciones:
1. Multiplicamos una ecuaci´on por un n´ umero distinto de cero.
2. Sumamos a una ecuaci´on otra ecuaci´on multiplicada por un n´ umero.
3. Intercambiamos dos ecuaciones.
Sistemas lineales 47
3.2.1 M´etodo de Gauss
El m´etodo de Gauss cl´asico es un m´etodo directo que transforma mediante
operaciones elementales el sistema de ecuaciones que se pretende resolver en
un sistema equivalente triangular de f´acil resoluci´on.
El m´etodo de Gauss puede resumirse en lo siguiente:
• Paso 1. Si a
11
= 0, se elige a
11
como elemento pivote. Si a
11
= 0, se inter-
cambian las filas para que esto no suceda. Sumando a cada una las filas
restantes la fila del elemento pivote multiplicada por ciertos n´ umeros,
llamados multiplicadores, se convierten en 0 los elementos que se en-
cuentran en la primera columna distintos del pivote. En las operaciones
de sumas de filas hay que incluir los t´erminos independientes.
• Paso i (i ≥ 2). Si a
ii
= 0, se elige a
ii
como elemento pivote. Si a
ii
= 0,
se intercambian las filas de orden mayor o igual que i para que esto
no suceda. Sumando a cada una de las filas que ocupan el lugar j
(j > i) la fila del elemento pivote multiplicada por n´ umeros, llamados
multiplicadores, se convierten en 0 los elementos que se encuentran en
la columna i de la fila j (j > i). En las operaciones de sumas de filas
hay que incluir los t´erminos independientes.
Se efect´ uan los pasos necesarios hasta que la matriz de los coeficientes sea
triangular. Conseguido esto, el c´alculo de la soluci´on es sencillo siguiendo el
siguiente orden: x
n
, x
n−1
, . . . , x
1
.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
12x
1
−8x
2
+ 6x
3
+ 10x
4
= 34
3x
1
−13x
2
+ 9x
3
+ 3x
4
= 27
−6x
1
+ 4x
2
+x
3
−18x
4
= −38.
En forma matricial es sistema ser´ıa

¸
¸
¸
6 −2 2 4
12 −8 6 10
3 −13 9 3
−6 4 1 −18
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
34
27
−38
¸

.
En el sistema anterior el m´etodo de Gauss podr´ıa aplicarse as´ı:
48 Cap´ıtulo 3
1. Paso 1. Elegimos como elemento pivote el t´ermino 6 de la primera fila
y efectuamos las siguientes operaciones:
(fila 2
a
) −2(fila 1
a
) (fila 3
a
) −1/2(fila 1
a
) (fila 4
a
) −(−1)(fila 1
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 −12 8 1
0 2 3 −14
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
21
−26
¸

.
Paso 2. Elegimos como elemento pivote el t´ermino −4 de la segunda fila y
efectuamos las siguientes operaciones:
(fila 3
a
) −3(fila 2
a
) (fila 4
a
) −(−1/2)(fila 2
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 4 −13
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−21
¸

.
Paso 3. Elegimos como elemento pivote el t´ermino 2 de la tercera fila y
efectuamos la siguiente operaci´on:
(fila 4
a
) −2(fila 3
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 0 −3
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−3
¸

.
que es un sistema de ecuaciones triangular superior de f´acil resoluci´on:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
−4x
2
+ 2x
3
+ 2x
4
= 10
2x
3
−5x
4
= −9
−3x
4
= −3


x
1
= 1/6(12 −4x
4
−2x
3
+ 2x
2
) = 1
x
2
= −1/4(10 −2x
4
−2x
3
) = −3
x
3
= 1/2(−9 + 5x
4
) = −2
x
4
= 1
Sistemas lineales 49
Se verifica que A = L U, siendo A la matriz de los coeficientes inicial, U
la matriz de los coeficientes final y L la matriz formada por los n´ umeros que
hemos utilizado para multiplicar las filas (multiplicadores):
L =

¸
¸
¸
1 0 0 0
2 1 0 0
1/2 3 1 0
−1 −1/2 2 1
¸

3.2.2 M´etodo de Gauss con pivoteo
En un sistema como este

0.001 1
1 1

x
1
x
2

=

1
2

el m´etodo de Gauss no funcionar´ıa correctamente por errores de redondeo. En
general, si = 0 es peque˜ no, el sistema

1
1 1

x
1
x
2

=

1
2

aplicando el m´etodo de Gauss se transformar´ıa en

1
0 1 −
1

x
1
x
2

=

1
2 −
1

con lo que las soluciones, si consideramos el redondeo, ser´ıan:
x
2
=
2 −
1

1 −
1

· 1 ⇒ x
1
= (1 −x
2
)
1

· 0.
Si = 0.001, obtendr´ıamos que x
2
= 0.998998998999, que, redondeando a dos
decimales, ser´ıa x
2
= 0, por lo que x
1
= 0. Sin embargo las soluciones exactas
son x
2
=
998
999
≈ 1 y x
1
= 1000/999 ≈ 1. De hecho, al hacer los c´alculos con le
programa Maxima o Mathematica, con = 10
−17
se obtiene x
2
= 1 y x
1
= 0.
Esto sucede cuando el elemento pivote en alg´ un paso es muy peque˜ no
comparado con el resto de los elementos a los que divide. En este caso el
50 Cap´ıtulo 3
multiplicador correspondiente ser´a muy grande y la ecuaci´on que origina es
”casi¨ un m´ ultiplo de la ecuaci´on del elemento pivote:
(fila 2
a
) −
1

(fila 1
a
) ≈ −
1

(fila 1
a
).
Este problema se puede resolver de dos formas:
1. Pivoteo parcial: si estamos en el paso i, se elige como elemento pivote
el elemento a
ki
que tenga mayor valor absoluto entre los de la columna
i, con k ≥ i, independientemente de si a
ii
es cero o no, y se reordenan
las filas.
2. Pivoteo total: si estamos en el paso i, se elige como elemento pivote el
elemento a
kj
que tenga mayor valor absoluto entre los de la columna i
y los de la fila i, con k, j ≥ i, independientemente de si a
ii
es cero o no,
y se reordenan las filas y columnas. Esta opci´on tiene un importante
inconveniente pues hay que reordenar las inc´ognitas.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
2x
2
+x
4
= 0
2x
1
+ 2x
2
+ 3x
3
+ 2x
4
= −2
4x
1
−3x
2
+x
4
= −7
6x
1
+x
2
−6x
3
−5x
4
= 6.
aplicando el pivoteo parcial.
La matriz de los coeficientes y de los t´erminos independientes ser´ıa

¸
¸
¸
0 2 0 1 [ 0
2 2 3 2 [ −2
4 −3 0 1 [ −7
6 1 −6 −5 [ 6
¸

El pivoteo parcial ser´ıa este proceso:
Paso 1. Elegimos como elemento pivote el t´ermino 6 de la ´ ultima fila por
ser el de mayor valor absoluto de entre los elementos de la primera columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
2 2 3 2 [ −2
4 −3 0 1 [ −7
0 2 0 1 [ 0
¸

Sistemas lineales 51
Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 2
a
) −
2
6
(fila 1
a
)
(fila 3
a
) −
4
6
(fila 1
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 1.6667 5 3.6667 [ −4
0 −3.6667 4 4.3333 [ −11
0 2 0 1 [ 0
¸

Paso 2. Elegimos como elemento pivote el t´ermino −3.667 de la tercera fila por
ser el de mayor valor absoluto de entre los elementos de la segunda columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 1.6667 5 3.6667 [ −4
0 2 0 1 [ 0
¸

Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 3
a
) −
1.6667
−3.6667
(fila 2
a
)
(fila 4
a
) −
2
−3.6667
(fila 2
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 2.1818 3.3636 [ −5.9999
¸

Paso 3. El elemento pivote ser´a 6.8182 de la tercera fila y no es necesario
intercambiar filas. Efectuamos la operaci´on indicada y obtenemos la matriz
siguiente:
(fila 4
a
) −
2.1818
6.8182
(fila 3
a
)
U =

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 0 1.5600 [ −3.1199
¸

que se corresponde con el sistema de ecuaciones
6x
1
+x
2
+−6x
3
−5x
4
= 6
−3.6667x
2
+ 4x
3
+ 4.3333x
4
= −11
6.8182x
3
+ 5.6364 = −9.0001
1.5600x
4
= −3.1199.
.
Este sistema se resuelve f´acilmente por ser triangular despejando las inc´ognitas
en orden inverso. Se obtiene la soluci´on:
52 Cap´ıtulo 3
x
4
= −1.9999, x
3
= 0.33325, x
2
= 1.0000, x
1
= −0.50000,
que es una respuesta aceptable teniendo en cuenta que la soluci´on exacta
es
x
4
= −2, x
3
= 1/3, x
2
= 1, x
1
= −1/2.

La matriz L de los multiplicadores en el ejemplo anterior es la siguiente:
L =

¸
¸
¸
1 0 0 0
0.6667 1 0 0
0.3333 −0.45454 1 0
0 −0.54545 0.32 1
¸

y se verifica que
L U =

¸
¸
¸
6 1 −6 5
4 −3 0 1
2 2 3 2
0 2 0 1
¸

:= A

.
El resultado no es exactamente A porque al aplicar el pivoteo hemos permu-
tado filas. En todo caso se verifica que existe una matriz P, que representa
permutaciones de filas si empleamos pivoteo parcial, tal que
P A = A

= L U.
Esto ´ ultimo nos permite calcular el determinante de A de forma sencilla al
ser [L[ = 1, [P[ = (−1)
p
(p es el n´ umero de permutaciones de filas) y U una
matriz triangular:
[A[ = [P
−1
A

[ = [P
−1
L U[ = [P
−1
[[L[[U[ = (−1)
p
[U[.
El m´etodo de Gauss permite:
1. Encontrar las soluciones de un sistema de ecuaciones.
2. Calcular el determinante de la matriz de los coeficientes.
3. Descomponer la matriz de los coeficientes A en un producto de matrices
P A

donde P representa una permutaci´on de filas de A y A

= L U,
siendo L y U matrices triangulares inferior y superior, respectivamente.
A = A

si no se utiliza el pivoteo.
Sistemas lineales 53
3.3 Factorizaci´ on LU. Factorizaci´ on de Cholesky
Dado el sistema de ecuaciones Ax = b, si aplicamos el m´etodo de Gauss sin
pivoteo solo a la matriz de los coeficientes y no a los t´erminos independientes
b, obtendremos una descomposici´on de la matriz A en dos matrices A = L U,
siendo L triangular inferior y U triangular superior. Esto permite, por ejemplo,
calcular de forma sencilla el determinante de A:
[A[ = [L[[U[ = (
n
¸
i=1
l
ii
)(
n
¸
i=1
u
ii
).
Adem´as, podemos resolver el sistema de ecuaciones siguiendo estos dos pasos:
Paso 1. Resolvemos el sistema Ly = b y obtenemos una soluci´on y.
Paso 2. Resolvemos el sistema Ux = y. La soluci´on x obtenida ser´a la
soluci´on de Ax = b porque
Ax = LUx = Ly = b.
Los m´etodos de factorizaci´on LU consisten en descomponer la matriz en
producto de dos matrices triangulares, para despu´es aplicar los pasos 1 y 2
anteriores y as´ı resolver el sistema.
Si A = L U tendremos que

¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
n1
a
n2
. . . a
nn
¸

=

¸
¸
¸
l
11
0 0 . . . 0
l
21
l
22
0 . . . 0
. . .
l
n1
l
n2
. . . l
nn
¸

¸
¸
¸
u
11
u
12
. . . u
1n
0 u
22
. . . u
2n
. . . u
3n
0 0 . . . u
nn
¸

.
Haciendo el producto de matrices e igualando t´ermino a t´ermino se obtienen
n
2
ecuaciones lineales con n
2
+n inc´ognitas. Si imponemos la condici´on
l
11
= l
22
= = l
nn
= 1
obtendremos un sistema de ecuaciones f´acilmente resoluble. Las soluciones
dan lugar a una descomposici´on L U que es la misma que la obtenida por el
m´etodo de Gauss sin intercambio de filas.
Si A es no singular, una condici´on necesaria y suficiente para que A admita
una descomposici´on LU de la forma anterior es que los menores fundamentales
(todos los determinantes de las matrices formadas con las primeras k filas y
columnas) sean no nulos. En este caso la factorizaci´on es ´ unica.
54 Cap´ıtulo 3
Ejemplo: Resuelve el siguiente sistema mediante factorizaci´ on L U de
Gauss

¸
3 1 2
6 3 2
−3 0 −8
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
2
¸

.
Como [A
11
[ = 3, [A
21
[ =

3 1
6 3

= 0 y A
33
=

3 1 2
6 3 2
−3 0 −8

= 0, el
sistema admite la factorizaci´on L U buscada. Igualando t´ermino a t´ermino
las matrices siguientes

¸
3 1 2
6 3 2
−3 0 −8
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
obtenemos
u
11
= 3
u
12
= 1
u
13
= 2
l
21
u
12
= 6
l
21
u
12
+u
22
= 3
l
21
u
13
+u
23
= 2
l
31
u
11
= −3
l
31
u
12
+l
32
u
22
= 0
l
31
u
13
+l
32
u
23
+u
33
= −8


u
11
= 3
u
12
= 1
u
13
= 2
l
21
= 2
u
22
= 1
u
23
= −2
l
31
= −1
l
32
= 1
u
33
= −4
Paso 1.
Ly = b ⇒

¸
1 0 0
2 1 0
−1 1 1
¸

¸
y
1
y
2
y
3
¸

=

¸
0
1
2
¸


y
1
= 0
y
2
= 1
y
3
= 1
.
Paso 2.
Ux = y ⇒

¸
3 1 2
0 1 −2
0 0 −4
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
1
¸


x
1
= 0
x
2
=
1
2
x
3
=
−1
4
,
que es la soluci´on del sistema.

Sistemas lineales 55
3.3.1 M´etodo de Crout
Si en la factorizaci´on LU fijamos
u
11
= u
22
= = u
nn
= 1
se obtiene la descomposici´on por el m´etodo de Crout, que tiene el inconveniente
que puede producir grandes errores en la resoluci´on del sistema de ecuaciones.
3.3.2 M´etodo de Cholesky
Si en la factorizaci´on LU exigimos que U = L
t
de modo que
l
11
= u
11
, l
21
= u
12
, l
31
= u
13
, . . . , l
ij
= u
ji
, . . . , l
nn
= u
nn
,
se obtiene la descomposici´on por el m´etodo de Cholesky que funciona si y solo
si la matriz inicial A es sim´etrica y definida positiva. Por tanto, si consigo la
descomposici´on de una matriz por el m´etodo de Cholesky, puedo asegurar que
dicha matriz es sim´etrica y definida positiva.
La resoluci´on de un sistema de n = 50 ecuaciones con el m´etodo de Cho-
lesky requiere 50
3
/3 operaciones.
3.3.3 Sistemas triangulares
Son sistemas de ecuaciones lineales en los que la matriz de los coeficientes es
de la forma:
A =

¸
¸
¸
¸
¸
a
11
a
12
0 0 0 . . . 0
a
21
a
22
a
23
0 0 . . . 0
0 a
32
a
33
a
34
0 . . . 0
. . .
0 0 . . . 0 a
nn−1
a
nn
¸

.
Aparecen frecuentemente en la resoluci´on num´erica de ecuaciones diferenciales
y en la aproximaci´on por splines c´ ubicos. En la mayor´ıa de los casos, la matriz
admite una descomposici´on de la forma

¸
¸
¸
¸
¸
1 0 0 . . . 0
l
21
1 0 . . . 0
0 l
32
1 0
. . .
0 0 . . . l
nn−1
1
¸

¸
¸
¸
¸
¸
u
11
u
12
0 . . . 0
0 u
22
u
23
0 0
0 0 u
32
u
33
. . . 0
. . .
0 0 . . . u
nn−1
u
nn
¸

.
56 Cap´ıtulo 3
Ejemplo: Dada la matriz

¸
60 30 20
30 20 15
20 15 12
¸

a) Obt´en la descomposici´ on de Cholesky.
b) Obt´en la factorizaci´ on de Gauss sin intercambio de filas y, a partir de ella,
las descomposiciones de Crout y de Cholesky.
a)

¸
60 30 20
30 20 15
20 15 12
¸

= LL
t
=

¸
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
¸

¸
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
¸

por tanto
l
2
11
= 60
l
11
l
21
= 30
l
11
l
31
= 20
l
2
21
l
2
22
= 20
l
21
l
31
+l
22
l
32
= 15
l
2
31
+l
2
32
+l
2
33
= 12


l
11
=

60
l
21
=

60/2
l
31
=

60/3
l
22
=

5
l
32
=

5
l
33
=

3/3
b) La factorizaci´on de Gauss se obtiene resolviendo el sistema de ecuaciones
que se deduce de

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
La descomposici´on que resulta es
A =

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 30 20
0 5 5
0 0 1/3
¸

.
Descomponiendo la segunda matriz de la parte derecha de la igualdad en un
producto de una matriz diagonal por otra triangular superior con 1 en cada
Sistemas lineales 57
elemento de la diagonal, se obtiene que
A =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 0 0
0 5 0
0 0 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

= (∗)
Multiplicando las dos primeras matrices anteriores
(∗) =

¸
60 0 0
30 5 0
20 4 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

que es la descomposici´on de Crout.
Si en (∗) descomponemos la matriz diagonal
(∗) =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

=
=

¸

60 0 0

60/2

5 0

60/3

5

3/3
¸

¸

60

60/2

60/3
0

5

5
0 0

3/3
¸

que es la descomposici´on de Cholesky.

3.4 Normas y an´alisis del error
Definici´ on: Sea V un espacio vectorial. Una norma sobre V es una aplica-
ci´ on | | : V →R tal que ∀v, w ∈ V y ∀α ∈ R se verifica que:
1. |v| ≥ 0 (v = 0 ⇔|v| = 0)
2. |v +w| ≤ |v| +|w|
3. |αv| = [α[|v|.
58 Cap´ıtulo 3
Ejemplo: las siguientes son normas definidas sobre el espacio vectorial
R
3
:
1. Norma eucl´ıdea o norma 2: |(x, y, z)|
2
=

x
2
+y
2
+z
2
2. Norma del m´ aximo o norma infinito: |(x, y, z)|

= max([x[, [y[, [z[)
3. Norma 1: |(x, y, z)|
1
= [x[ +[y[ +[z[

La norma de un vector mide la ”distancia”de ese vector al origen. La
distancia entre dos vectores se mide con la norma del vector diferencia. Las
normas del ejemplo son diferentes formas de ”medir”las distancias entre los
vectores de R
3
.
Puesto que el conjunto ´
n×n
de las matrices cuadradas de orden n, con
las operaciones suma y producto por un n´ umero real es un espacio vectorial,
para ”medir”matrices tambi´en se utilizar´an normas que, por tanto, tendr´an
que verificar las condiciones de la definici´on de norma. Si adem´as de esas
condiciones se verifica que
|A B| ≤ |A||B| A, B ∈ ´
n×n
entones dicha norma es una norma matricial.
Una norma matricial | |
M
sobre M
n×n
y una norma vectorial | |
V
sobre
R
n
se dice que son compatibles si se verifica que
|Av|
V
≤ |A|
M
|v|
V
∀A ∈ ´
n×n
∀v ∈ R
n
.
Dada cualquier norma vectorial | |
V
sobre R
n
, es posible definir una norma
matricial sobre ´
n×n
de la siguiente forma:
|A|
M
= max¦|Av|
V
: |v|
V
= 1¦
Esta nueva norma se llama norma matricial inducida o subordinada a
la norma vectorial correspondiente. La norma vectorial y su norma matricial
subordinada son siempre compatibles.
Sistemas lineales 59
Ejemplos:
1. La norma matricial inducida por la norma vectorial 1 en R
3
es
|A|
1
=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

1
= max
1≤j≤n
n
¸
i=1
[a
ij
[.
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸

1
= max(12, 4, 12) = 12.
2. La norma matricial inducida por la norma vectorial 2 en R
3
es
|A|
2
=

ρ(A
t
A).
ρ(A
t
A) es el radio espectral de A
t
A que es el m´aximo de los valores absolutos
de los autovalores de la matriz A
t
A.
Para calcular |A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
debemos calcular primero los au-
tovalores de |A
t
A| que son las ra´ıces de
[A
t
A−αId[ =

¸
13 −α −3 0
−3 1 −α 0
0 0 1 −α
¸

= (1 −α)(α
2
−14α + 4).
Los autovalores de A
t
A son 7 ±

5 y 1 y como consecuencia
|A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
=

7 +

5
3. La norma matricial inducida por la norma infinito en R
3
es
|A|

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸


= max
1≤i≤n
n
¸
j=1
[a
ij
[.
60 Cap´ıtulo 3
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸


= max(6, 11, 11) = 11.
4. Se define la norma matricial de Fr¨ obenius como |A| =

¸
1≤i,j≤n
[a
i,j
[
2
.

3.4.1 N´ umero condici´ on de una matriz
Se define el n´ umero de condici´ on de una matriz A como
k(A) = |A||A
−1
|.
El n´ umero de condici´on siempre es mayor o igual que 1 y se utiliza para estimar
si un sistema de ecuaciones Ax = b est´a bien o mal condicionado, es decir, si
peque˜ nos cambios en los datos (A o b) pueden producir grandes cambios en la
soluci´on del sistema.
Supongamos que en vez de b utilizamos
¯
b de modo que la soluci´on del
sistema es ¯ x y A¯ x =
¯
b. Esto puede ser debido a que hay un peque˜ no error
cometido al hacer alguna medida en b o bien porque en vez de la soluci´on
exacta x hemos obtenido una soluci´on aproximada ¯ x. Si denotamos e al error
en la soluci´on y r al error en b o error residual, se verifica que Ae = Ax−A¯ x =
b −
¯
b = r.
Teorema:
1
k(a)
|r|
|b|

|e|
|x|
≤ k(a)
|r|
|b|
.
Demostraci´ on. Veamos que
1
k(a)
r
b

e
x
. Se verifica que
|r||x| = |Ae||A
−1
b| ≤ |A||e||A
−1
||b|
Por tanto
1
|A||A
−1
|
|r|
|b|

|e|
|x|
Vemos que
e
x
≤ k(a)
r
b
. Se verifica que
|e||b| ≤ |A
−1
r||Ax| ≤ |A
−1
||r||A||x|.
Sistemas lineales 61
Por tanto
|e|
|x|
≤ |A||A
−1
|
|r|
|b|
.

Si k(A) est´an cerca de 1 el sistema estar´a bien condicionado porque el error
relativo en la soluci´on
e
x
ser´a similar al error relativo
r
b
en los datos. Si por
el contrario k(A) es muy grande, el sistema puede estar mal condicionado y
peque˜ nos cambios en los datos podr´an producir grandes cambios en la soluci´on.
Ejemplo: Dado el sistema

¸
3.02 −1.05 2.53
4.33 0.56 −1.78
−0.83 −0.54 1.47
¸

¸
x
1
x
2
x
3
¸

=

¸
2
3
5
¸

1. Encuentra el n´ umero de condici´ on de la matriz A de los coeficientes con
| |

.
2. Acota el error relativo de las posibles soluciones en funci´ on del error en
los datos.
a) La matriz inversa redondeada a dos decimales es
A
−1
=

¸
5.66 −7.27 −18.55
200.51 −268.26 −669.91
−76.85 −102.65 −255.88
¸

con lo que
k(a) = |A||A
−1
| = 6.67 1138.68 = 7595.
b) Se verifica que
1
7595
|r|
5

|e|
|x|
≤ 7595
|r|
5
es decir
2.63 10
−5
|r| ≤
|e|
|x|
≤ 1591|r|

62 Cap´ıtulo 3
3.5 Mejora de soluciones
3.5.1 Refinamiento iterativo
Es un m´etodo para mejorar una soluci´on aproximada ya obtenida. Sea ¯ x una
soluci´on aproximada de Ax = b tal que A¯ x =
¯
b. Se verifica que
x = A
−1
b = ¯ x+x−¯ x = ¯ x+A
−1
b+A
−1
¯
b = ¯ x+A
−1
(b−
¯
b) = ¯ x+A
−1
r = ¯ x+e.
El m´etodo consiste en aplicar los siguientes pasos:
1. Calculo r = b −A¯ x con doble precisi´on.
2. Calculo e resolviendo el sistema Ae = r.
3. La nueva soluci´on aproximada ser´a
¯
¯ x = ¯ x +e.
Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´on.
Ejemplo: Si como soluci´ on aproximada del sistema

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
875
539
399
319
¸

se obtiene ¯ x = (0.999988, 1.000137, 0.999670, 1.000215), aplica el m´etodo de
refinamiento iterativo para mejorarla.
1. Calculo r = b −A¯ x con doble precisi´on.
r =

¸
¸
¸
875
539
399
319
¸

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
0.999988
1.000137
0.999670
1.000215
¸

=

¸
¸
¸
−1.05000000 10
−4
−7.0000000 10
−5
−3.5000000 10
−5
−4.8000000 10
−5
¸

.
2. Resuelvo

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
e
1
e
2
e
3
e
4
¸

=

¸
¸
¸
−1.05 10
−4
−7.0 10
−5
−3.5 10
−5
−4.8 10
−5
¸

y obtengo e = (1.1 10
−5
, −1.4 10
−5
, 3.30 10
−4
, −2.15 10
−4
)
3. La nueva soluci´on es
¯
¯ x = (0.999999, 0.999997, 1, 1).

Sistemas lineales 63
3.5.2 Escalamiento
Si en un sistema de ecuaciones los coeficientes de las inc´ognitas son de muy
diferente magnitud, la soluci´on num´erica del sistema puede contener errores.
Ejemplo: Resolvamos el siguiente sistema por eliminaci´on gaussiana:
2x
1
+ 100000x
2
= 100000
x
1
+x
2
= 2

2 100000 100000
1 1 2

(fila 2) −1/2 (fila 1)

2 100000 100000
0 −999991 −99998

De modo que las soluciones son
x
1
=
100000−100000x
2
2
≈ 0
x
2
=
−99998
−99999
≈ 1( redondeado a 4 cifras)
Sin embargo el resultado correcto es x
1
= 1.00002 y x
2
= 0.99998.

Para solucionar este problema se puede recurrir al escalamiento que con-
siste en multiplicar cada ecuaci´on por un n´ umero para que el coeficiente m´as
grande de las inc´ognitas en valor absoluto sea 1. Al aplicar el escalamiento
podemos cometer a su vez errores de redondeo, pero puede ayudar en casos
extremos cuando hay mucha diferencia entre los coeficientes.
Ejemplo: En el caso anterior
0.00002x
1
+x
2
= 1
x
1
+x
2
= 2
redondeando a 4 decimales
x
2
= 1
x
1
+x
2
= 2
aplicando el pivoteo
x
1
+x
2
= 2
x
2
= 1
y las soluciones son x
1
= y x
2
= 1.

64 Cap´ıtulo 3
3.6 M´etodos iterativos
Los m´etodos directos estudiados anteriormente requieren aproximadamente
n
3
/3 operaciones. Son sensibles a errores de redondeo que se acrecientan al
aumentar n. De modo que, aunque te´oricamente conducen a una soluci´on
exacta, en la pr´actica la soluci´on obtenida puede ser peor que la obtenida
aproximadamente por un m´etodo iterativo.
Los m´etodos iterativos est´an especialmente indicados para la resoluci´on
de sistemas con una matriz de gran dimensi´on pero dispersa, es decir, con
muchos ceros, que suelen aparecer por ejemplo en la resoluci´on de ecuaciones
diferenciales en derivadas parciales.
Un m´etodo iterativo de resoluci´on de un sistema de n ecuaciones Ax = b
es aquel a partir de un x
0
∈ R
n
genera una sucesi´on de posibles soluciones
aproximadas x
1
, x
2
, . . . . El m´etodo es convergente si la sucesi´on generada
converge a la soluci´on del sistema a partir de cualquier vector inicial x
0
. Es
consistente si, en caso de converger, el l´ımite es la soluci´on.
Todos las m´etodos iterativos de resoluci´on de un sistema Ax = b se basan
en la descomposici´on de la matriz A en diferencia de dos matrices M − N,
siendo M una matriz regular. De modo que
Ax = b ⇔(M −N)x = b ⇔Mx = Nx +b ⇔x = M
−1
(Nx +b)
Si definimos G(x) = M
−1
(Nx+b), veremos que para encontrar la soluci´on del
sistema basta encontrar un vector fijo de la funci´on G(x). Para ello se genera
una sucesi´on x
k
= G(x
k−1
) partiendo de una determinada soluci´on aproximada
x
0
. La sucesi´on converger´a a la soluci´on en determinadas condiciones.
En la pr´actica, dadas las matrices M y N, puesto que
x
k
= G(x
k−1
) = M
−1
(Nx
k−1
) +b) ⇒Mx
k
= Nx
k−1
+b,
para calcular x
k
a partir de x
k−1
se resuelve el sistema
Mx
k
= Nx
k−1
+b.
Es esencial que M sea una matriz regular y es conveniente que sea una matriz
sencilla para facilitar el c´alculo.
La condici´on que asegura la convergencia es la siguiente.
Sistemas lineales 65
Teorema: En las condiciones anteriores, si existe una norma matricial
tal que |M
−1
N| < 1, entonces la sucesi´ on x
k+1
= G(x
k
) converge a un punto
fijo de la funci´ on G(x).
Demostraci´on. Teniendo en cuenta que
|G(y) −G(y

)| = |M
−1
(Ny +b) −M
−1
(Ny

+b)|
= |M
−1
Ny −M
−1
Ny

| = |M
−1
N(y −y

)|
≤ |M
−1
N||y −y

|.
Si |M
−1
N| < λ < 1 para un cierto λ ∈ R, entonces |G(y)−G(y

)| < λ|y−y

|.
A partir de un vector x
0
vamos generando la sucesi´on x
k+1
= G(x
k
) y se
verifica que
|x
k+1
−x
k
| = |G(x
k
) −G(x)
k−1
| =|G(x
k
−x
k−1
)| <
λ|x
k
−x
k−1
| < . . . < λ
k
|x
1
−x
0
|.
Por tanto
|x
k+p
−x
k
| < |x
k+p
−x
k+p−1
+x
k+p−1
−. . . −x
k
|

p
¸
i=1
|x
k+i
−x
k+i−1
| <
p−1
¸
i=0
λ
k+i−1
|x
1
−x
0
|
= |x
1
−x
0
|
p−1
¸
i=0
λ
k+i−1
= |x
1
−x
0
|
λ
k−1
−λ
k+p−1
1 −λ
k→∞
→ 0.
De modo que la sucesi´on x
k+1
= G(x
k
) es una sucesi´on convergente a un
vector x ∈ R
n
si |M
−1
N| < λ < 1 para un cierto λ ∈ R. Dicho vector x
verifica que
x −G(x) = lim
k→∞
x
k
−G( lim
k→∞
x
k
) = lim
k→∞
G(x
k−1
) −G( lim
k→∞
x
k
)
= G( lim
k→∞
(x
k−1
−x
k
)) = G(0) = 0 ⇒x = G(x).

66 Cap´ıtulo 3
En resumen, un m´etodo iterativo de resoluci´on de un sistema Ax = b
consiste en generar una sucesi´on x
k
= G(x
k−1
) siendo G(x) = M
−1
(Nx + b)
y A = M −N. Hay que tener en cuenta lo siguiente:
1. Si [M[ = 0, puedo calcular x
k
a partir de x
k−1
.
2. Si el sistema Mx = c se resuelve f´acilmente, el m´etodo iterativo es m´as
r´apido.
3. Si |M
−1
N| < 1 para alguna norma matricial, la sucesi´on x
k
converge
a la soluci´on del sistema Ax = b.
3.6.1 M´etodo de Jacobi
Dada la matriz A = (a
ij
)
1≤i,j≤n
, se definen:
D =

¸
¸
¸
a
11
0 0
0 a
22
0 0

0 0 a
nn
¸

, L =

¸
¸
¸
¸
¸
0 0
a
21
0 0
a
31
a
32
0 0

a
n1
a
n2
a
nn−1
0
¸

U =

¸
¸
¸
¸
¸
0 u
12
u
1n
0 0 u
23
u
2n

0 0 u
n−1n
0 0 0
¸

En el m´etodo de Jacobi M = D y N = −(L+U). Para calcula x
k
a partir de
x
k−1
se resuelve el sistema
Dx
k
= −(L +U)x
k−1
+b.
Para aplicar el m´etodo se requiere que a
ii
= 0 para todo i. Si [A[ = 0, esto se
puede conseguir intercambiando filas si fuese necesario.
El m´etodo converge si |M
−1
N| < 1 para alguna norma matricial. Puesto
que
M
−1
N =

¸
¸
¸
0
−a
12
a
11
−a
13
a
11

−a
1n
a
11
−a
21
a
22
0
−a
23
a
22

−a
2n
a
22

−a
n1
a
nn

−a
nn−1
a
nn
0
¸

y
Sistemas lineales 67
|M
−1
N|

= max
1≤i≤n
¸
n
j=1,j=i
[a
ij
[

1
a
ii
,
una condici´on suficiente para que el m´etodo de Jacobi converja es que la matriz
A sea diagonal dominante, es decir que [a
ii
[ >
¸
n
j=1,j=i
[a
ij
[ ∀i = 1, 2, . . . , n.
Como
|M
−1
N|
1
= max
1≤j≤n
¸
n
i=1,i=j

[a
ij
[
1
a
ii

,
otra condici´on suficiente es que lo anterior sea menor que 1.
Por ´ ultimo, una tercera condici´on suficiente es que la matriz D − L − U
sea sim´etrica y definida positiva.
Ejemplo: Aplica una iteraci´ on del m´etodo de Jacobi al siguiente sistema

¸
6 5 0
0 2 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
La matriz es diagonal dominante de modo que la sucesi´on x
k
de vectores
generados mediante el m´etodo de Jacobi converger´a a la soluci´on. Se tiene
que
D =

¸
6 0 0
0 2 0
0 0 3
¸

−(L +U) =

¸
0 −5 0
0 0 −1
−2 0 0
¸

Si elegimos como vector inicial el x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 2 0
0 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −5 0
0 0 −1
−2 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

Por tanto
6x
1
1
= 0
2x
1
2
= 1
3x
1
3
= 0

x
1
1
= 0
x
1
2
=
1
2
x
1
3
= 0
El siguiente vector ser´ıa x
1
= (0, 1/2, 0).

68 Cap´ıtulo 3
3.6.2 M´etodo de Gauss-Seidel
En este m´etodo M = D+L y N = −U. El sistema a resolver para calcular x
k
a partir de x
k−1
ser´a (D+L)x
k
= −Ux
k−1
+b. Distintas condiciones suficientes
para que el m´etodo funcione son:
1. que A sea diagonal dominante
2. que A
t
sea diagonal dominante
3. que A sea sim´etrica y definida positiva.
El m´etodo de Gauss-Seidel es dos veces m´as r´apido que el de Jacobi.
Ejemplo: Aplica el m´etodo de Gauss-Seidel al siguiente sistema

¸
6 2 0
0 5 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
Tendremos que
D +L =

¸
6 0 0
0 5 0
2 0 3
¸

U =

¸
0 2 0
0 0 1
0 0 0
¸

.
Si partimos de x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 5 0
2 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −2 0
0 0 −1
0 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

y se obtiene que x
1
= (0, 1/5, 0)

Sistemas lineales 69
3.6.3 M´etodos de relajaci´ on
En el m´etodo de Jacobi, para calcular cada componente de x
k
se utilizan todos
los valores de x
k−1
. Sin embargo, en el m´etodo de Gauss-Seidel, para calcular
la componente i-´esima de x
k
(x
k
i
) se utilizan las componentes x
k
1
, x
k
2
, . . . , x
k
i−1
del vector x
k
y las componentes x
k−1
i+1
, . . . , x
k−1
n
del vector x
k−1
. De este modo,
el c´alculo de las componentes de x
k
se divide en etapas, utilizando en cada
una de ellas un vector diferente:
Etapa 1: calculo x
k
1
usando (x
k−1
2
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 2: calculo x
k
2
usando (x
k
1
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 3: calculo x
k
3
usando (x
k
1
, x
k
2
, x
k−1
4
, . . . , x
k−1
n
).
Etapa n: calculo x
k
n
usando (x
k
1
, x
k
2
, . . . , x
k
n−1
).
En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de
n con el consiguiente ahorro en tiempo. Adem´as, la informaci´on obtenida en
cada etapa se incorpora a la siguiente. Los m´etodos que utilizan esto ´ ultimo se
llaman ”m´etodos de relajaci´on sucesiva”y se desarrollaron para la resoluci´on de
sistemas con matrices de dimensi´on grande pero con casi todos los elementos
nulos.
En un m´etodo de relajaci´on se considera
M =
1
w
D +L N =
1 −w
w
D −U
con lo que M − N = A. w se llama factor de relajaci´on. En funci´on de su
valor se tiene
• Subrelajaci´on si 0 < w < 1.
• Super-relajaci´on si w > 1
• Gauss-Seidel si w = 1.
Si w ∈ (0, 2) el m´etodo no converge. Una condici´on suficiente para la conver-
gencia es que A sea sim´etrica y definida positiva.
Cap´ıtulo 4
Aproximaci´ on de funciones
Dada una tabla de datos como esta
x −1 0 1 2
y −2 −2 0 4
que representa unos valores y en funci´on de otros x, pretendemos encontrar
una funci´on y = f(x) que pase por esos puntos.
4.1 Construcci´ on del polinomio interpolador
Teorema: Dada una tabla de n+1 puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) con
x
i
= x
j
, existe un ´ unico polinomio P
n
(x) de grado menor o igual que n de
modo que
P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n.
Dicho polinomio se llama polinomio interpolador de los puntos.
71
72 Cap´ıtulo 4
Demostraci´on. Consideremos un polinomio cualquiera de grado menor o
igual que n :
P
n
(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Puesto que queremos que P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n tendremos que
a
0
+a
1
x
0
+a
2
x
2
0
+ +a
n
x
n
0
= y
0
a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n
x
n
1
= y
1

a
0
+a
1
x
n
+a
2
x
2
n
+ +a
n
x
n
n
= y
n
que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´ognitas en el que
el determinante de la matriz de los coeficientes es distinto de 0 :

1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1

1 x
n
x
2
n
x
n
n

= 0.
Por lo tanto, el sistema es compatible determinado y tiene una ´ unica soluci´on.

Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de
la tabla
x −1 0 1 2
y −2 −2 0 4
Como son 4 puntos buscaremos un polinomio de grado menor o igual que
3 de la forma P
n
(x) = a
0
+a
1
x +a
2
x
2
+a
3
x
3
. El sistema que resulta es
a
0
+a
1
(−1) +a
2
(−1)
2
+a
3
(−1)
3
= −2
a
0
+a
1
(0) +a
2
(0)
2
+a
3
(0)
3
= −2
a
0
+a
1
(1) +a
2
(1)
2
+a
3
(1)
3
= −2
a
0
+a
1
(2) +a
2
(2)
2
+a
3
(2)
3
= 4
Que es un sistema compatible determinado y que, por tanto, tiene una ´ unica
soluci´on, es decir, existe un ´ unico polinomio de grado menor o igual que 3 que
pasa por los puntos de la tabla. Dicho polinomio es P(x) = −2 +x +x
2
.

Aproximacion de funciones 73
4.1.1 M´etodo de Lagrange
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), el polinomio interpolador
P
n
(x) se puede calcular as´ı:
P
n
(x) =
n
¸
i=0
L
i
(x)y
i
donde
L
i
(x) =
Π
j=i
(x −x
j
)
Π
j=i
(x
i
−x
j
)
=
(x −x
0
)(x −x
1
) . . . (x −x
i−1
)(x −x
i+1
) . . . (x −x
n
)
(x
i
−x
0
)(x
i
−x
1
) . . . (x
i
−x
i−1
)(x
i
−x
i+1
) . . . (x
i
−x
n
)
.
Se verifica que
L
i
(x
i
) = 1 L
i
(x
j
) = 0 ∀i = j
de modo que
P
n
(x
j
) =
n
¸
i=0
L
i
(x
j
)y
i
= y
j
.
Ejemplo: En el ejemplo anterior
L
0
(x) =
x(x−1)(x−2)
(−1)(−2)(−3)
L
1
(x) =
(x+1)(x−1)(x−2)
1(−1)(−2)
L
2
(x) =
(x+1)x(x−2)
2·1(−1)
L
3
(x) =
(x+1)x(x−1)
3·2·1

4.1.2 M´etodo de Newton
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), se pueden calcular las dife-
rencias divididas
• de primer orden: [x
i
, x
i+1
] =
y
i+1
−y
i
x
i+1
−x
i
• de segundo orden: [x
i
, x
i+1
, x
i+2
] =
[x
i+1
,x
i+2
]−[x
i
,x
i+1
]
x
i+2
−x
i

• de orden k [x
i
, x
i+1
, . . . , x
i+k
] =
[x
i+1
,··· ,x
i+k
]−[x
i
,··· ,x
i+k−1
]
x
i+k
−x
i
Las diferencias divididas son invariantes frente a permutaciones. Por ejemplo:
[x
0
, x
1
, x
2
] = [x
1
, x
0
, x
2
].
La tabla siguiente permite construir de forma sencilla las diferencias divididas:
74 Cap´ıtulo 4
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
2
] [x
0
, x
1
, x
2
, x
3
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
3
]
x
2
y
2
[x
2
, x
3
]
x
3
y
3
. . .
El polinomio interpolador se construye a partir de las diferencias divididas as´ı:
P
n
(x) = y
0
+ [x
0
, x
1
](x −x
0
) + [x
0
, x
1
, x
2
](x −x
0
)(x −x
1
) +. . .
+ [x
0
, x
1
, x
2
, . . . , x
n
](x −x
0
)(x −x
1
) . . . (x −x
n−1
).
Ejemplo: En el ejemplo anterior la tabla ser´ıa la siguiente
−1 −2 0 1 0
0 −2 2 1
1 0 4
2 4
y el polinomio ser´ıa P(x) = −2 + 1(x + 1)x.

4.2 Error del polinomio interpolador
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) que provienen de una cierta
funci´on y = f(x), si conocemos cierta informaci´on sobre las derivadas de la
funci´on f(x), podemos estimar el error que se comete al aproximar f(x) por
su polinomio interpolador P
n
(x) de grado menor o igual que n.
Teorema: Sea f(x) una funci´ on n + 1 veces diferenciable en un inter-
valo (a, b) y sea P
n
(x) su polinomio interpolador en los nodos x
0
, x
1
, . . . , x
n
contenidos en [a, b]. Para cada x ∈ [a, b] existe un punto θ
x
∈ (a, b) tal que
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)(x −x
1
) . . . (x −x
n
).
Demostraci´on. Sea w(t) = (t − x
0
)(t − x
1
) . . . (t − x
n
). Para un valor fijo
x ∈ [a, b] existe un λ ∈ R tal que f(x)−P
n
(x) = λw(x). De modo que tenemos
la funci´on
Φ(t) = f(t) −P
n
(t) −λw(t)
Aproximacion de funciones 75
que vale 0 en x, x
0
, x
1
, . . . , x
n
. Por tanto, Φ
1)
(t) se anular´a en n + 1 puntos,
Φ
2)
(t) se anular´a en n puntos y Φ
n+1)
(t) se anular´a en 1 punto θ
x
∈ (a, b):
Φ
n+1)

x
) = f
n+1)

x
) −P
n+1)

x
) −λw
n+1)

x
) = 0
es decir
f
n+1)

x
) −λ(n + 1)! = 0 ⇒λ =
f
n+1)

x
)
(n + 1)!
.
Como consecuencia
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
w(x).

Ejemplo: El error al aproximar la funci´on f(x) = sen(x) en un punto
x ∈ [0, 1] mediante un polinomio interpolador en 9 nodos contenidos en el
intervalo [0, 1] se puede acotar as´ı:
[f(x) −P
9
(x)[ ≤
[f
10)

x
)[
10!

9
i=0
(x −x
i
)[ ≤
1
10!
< 2.8 10
−7

4.2.1 Elecci´ on de nodos. Polinomios de Chebyshev
Si pretendemos encontrar un polinomio que interpole a una determinada fun-
ci´on y los nodos no est´an previamente fijados, ¿qu´e nodos podemos elegir?
Elegir los nodos proporcionados por los polinomios de Chebyshev tienen algu-
na ventaja.
Definici´ on: Los polinomios de Chebyshev se definen as´ı:
T
0
(x) = 1 T
1
(x) = x T
n+1
(x) = 2xT
n
(x) −T
n−1
(x) si n ≥ 1
Proposici´ on: Las ra´ıces del polinomio de Chebyshev T
n
(x) si n ≥ 1 son
los valores
cos

2j −1
2n
π

∀1 ≤ j ≤ n.
76 Cap´ıtulo 4
Como consecuencia, todas las ra´ıces de cualquier polinomio de Chebyshev
est´an contenidas en el intervalo [−1, 1].
Teorema: Si los nodos (x
i
), con i = 0, 1, . . . , n, de interpolaci´ on de una
funci´ on f(x) en x ∈ [−1, 1] son las ra´ıces del polinomio de Chebyshev T
n+1
(x),
entonces
[f(x) −P
n
(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[.
La justificaci´on del teorema se basa en que la expresi´on
max
|x|≤1
Π
n
i=0
[(x −x
i
)[
que proviene de la f´ormula general del error en la interpolaci´on, se hace m´ınima
cuando x
i
son las ra´ıces del polinomio de Chebyshev correspondiente. El re-
sultado del teorema permite encontrar una cota del error del polinomio inter-
polador m´as peque˜ na que la establecida con car´acter general.
Si en lugar del intervalo [−1, 1] tenemos un intervalo [a, b], si aplicamos a
los nodos de Chebyshev la transformaci´on af´ın que lleva el intervalo [−1, 1] en
el intervalo [a, b], obtenemos unos nuevos nodos tales que:
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
[f
n+1)
(t)[.
Ejemplo: Calcula los cuatro nodos para la interpolaci´ on de una funci´ on
en el intervalo [−1, 1] y en el intervalo [2, 8] haciendo uso de los polinomio de
Chebyshev. Establece una cota del error en cada caso para la funci´ on f(x) =
sin(x).
Calculamos las ra´ıces de T
4
(x) = 8x
4
−8x
2
+ 1 :
x
0
= −0.9239 x
1
= −0.3827 x
2
= 0.3827 x
3
= 0.9239.
Estos ser´ıa los nodos en el intervalo [−1, 1]. Para calcular los nodos en el
intervalo [2, 8] necesitamos una transformaci´on af´ın αx+β que lleve el intervalo
Aproximacion de funciones 77
[−1, 1] en el intervalo [2, 8] :
[−1, 1] → [2, 8]
−1 → α(−1) +β = 2
1 → α(1) +β = 8
Resolviendo el sistema formado por las dos ´ ultimas ecuaciones, obtenemos que
la transformaci´on es 3x + 5. Aplicamos esta transformaci´on a los nodos de
Chebyshev y obtenemos los nuevos nodos en el intervalo [2, 8] :
x

0
= 2.2284 x

1
= 3.8519 x

2
= 6.1481 x

3
= 7.7716.
Veamos las cotas de los errores para la funci´on f(x) = sin(x) en cada caso.
Para el intervalo [−1, 1] :
[f(x) −P(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[ ≤
1
2
3
(4)!
Para el intervalo [2, 8] :
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
f
n+1)
(t) ≤
3
4
2
3
4!
.

¿Es cierto que si n aumenta el polinomio P
n
(x) se ”parece”m´as a la fun-
ci´on f(x)? En general la respuesta es que no. Por ejemplo, dada funci´on
f(x) =
1
1+x
2
en [−5, 5], si elegimos los nodos x
i
igualmente espaciados, se pue-
de demostrar que los polinomios no convergen a la funci´on fuera del intervalo
[−3.63, 3.63]. (Ver figura 4.1)
Otro ejemplo es la funci´on f(x) = [x[ en [−1, 1], en la cual la convergencia
se produce solo en los puntos −1, 0, 1.
Sin embargo, si elegimos los nodos de Chebyshev y la funci´on f(x) a in-
terpolar es continua y con derivada continua, entonces P
n
(x) converge uni-
formemente a f(x) en todo el intervalo. No obstante, para cualquier elecci´on
de nodos es posible encontrar una funci´on continua tal que no se produce esa
convergencia uniforme.
78 Cap´ıtulo 4
-4 -2 2 4
0.5
1
1.5
2
-4 -2 2 4
-0.5
0.5
1
1.5
2
Figura 4.1:
1
1+x
2
y sus polinomios interpoladores de grado 10 y 20.
4.3 Interpolaci´ on a trozos y con condiciones sobre
la derivada
4.3.1 Interpolaci´ on a trozos
Si disponemos de ciertos valores de una funci´on f(x) en un intervalo [a, b],
se puede obtener una aproximaci´on a la funci´on f(x) dividiendo el intervalo
en varios intervalos m´as peque˜ nos (subintervalos) y utilizando polinomios de
peque˜ no grado (1,2,3, etc.) distintos para interpolar los valores de cada su-
bintervalo. La siguiente gr´afica muestra la funci´on seno y una funci´on que la
interpola con trozos de recta en varios puntos:
1 2 3 4 5 6
-1
-0.5
0.5
1
Aproximacion de funciones 79
Ejercicio: Dada la tabla
x −1 0 1 2
y −2 −2 0 4
encuentra una funci´ on formada
a) por trozos de recta
b) por trozos de par´ abola
que pase por los puntos anteriores.
4.3.2 Interpolaci´ on con condiciones sobre la derivada
El siguiente es un ejemplo de problema de interpolaci´on con condiciones sobre
la derivada.
Ejemplo 1: Encuentra un polinomio P(x) tal que P(0) = 0, P(1) = 1 y
P

(0.5) = 2.
Puesto que son tres las condiciones que tenemos, cabe pensar que basta
buscar entre los polinomios con tres par´ametros, es decir, los polinomios de
grado 3 de la forma P(x) = a +bx +cx
2
:
P(0) = 0
P(1) = 1
P

(0.5) = 2

a = 0
b +c = 1
b + 2 c 0.5 = 2

a = 0
b +c = 1
b +c = 2
El sistema anterior no tiene soluci´on, con lo que habr´ıa que buscar entre los
polinomios de grado 4. Al plantear las ecuaciones correspondientes resulta un
sistema con soluci´on no ´ unica.

Ejemplo 2 (Interpolaci´on de Hermite): Encuentra un polinomio P(x) que
interpole a una funci´on y = f(x) sabiendo que
x −1 0 1
y 1 1 −1
y

2 0 0
Puesto que hay seis condiciones para la funci´on y sus derivadas buscamos
entre los polinomios de la forma P(x) = a
0
+a
1
x + +a
5
x
5
que tienen seis
80 Cap´ıtulo 4
coeficientes. Planteamos el sistema correspondiente seg´ un las condiciones y
obtenemos lo siguiente:
P(−1) = 1 P

(−1) = 2
P(0) = 1 P

(0) = 0
P(1) = 0 P

(1) = 0

a
0
= 1 a
3
= −3
a
1
= 0 a
4
=
1
2
a
2
=
−3
2
a
5
= 2
Con lo que el polinomio buscado es P(x) = 1 −
3
2
x
2
−3x
3
+
1
2
x
4
+ 2x
5
.

Ejemplo 3 (Interpolaci´on de Hermite c´ ubica a trozos): Encuentra una
funci´ on formada por trozos de polinomios de grado 3 que verifique las siguien-
tes condiciones
x −1 0 1
y 1 1 −1
y

2 0 0
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.2: La funci´on g(x)
Buscamos una funci´on de la forma
g(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
Aproximacion de funciones 81
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
. A partir de
las condiciones planteamos el sistema
P(−1) = 1 P

(−1) = 2 Q(0) = 1 Q

(0) = 0
P(0) = 1 P

(0) = 0 Q(1) = −1 Q

(1) = 0
con lo que
g(x) =

1 + 2x
2
+ 2x
3
si x ∈ [−1, 0]
1 −6x
2
+ 4x
3
si x ∈ [0, 1]
(Ver Figura 4.2)

Ejemplo 5 (Splines c´ ubicos): Encuentra una funci´ on polin´ omica c´ ubica a
trozos que sea de clase (
2
(continua, derivable y con derivada segunda conti-
nua) que verifique las siguientes condiciones
x −1 0 1
y 1 1 −1
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.3: La funci´on h(x)
Buscamos una funci´on de la forma
h(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
82 Cap´ıtulo 4
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
de modo que
P(−1) = 1 P(0) = 1 Q(0) = 1 Q(1) = −1 P

(0) = Q

(0) P

(0) = Q

(0)
Puesto que tenemos 6 ecuaciones y 8 inc´ognitas necesitamos 2 condiciones
m´as. Por ejemplo, a˜ nadimos las siguientes
P

(−1) = 0 Q

(1) = 0
y obtenemos un sistema compatible determinado de modo que
h(x) =

1 −x −
3
2
x
2

1
2
x
3
si x ∈ [−1, 0]
1 −x −
3
2
x
2
+
1
2
x
3
si x ∈ [0, 1]
(Ver Figura 4.3)

Interpolaci´ on de Hermite
Un problema de interpolaci´on de Hermite consiste en encontrar un polinomio
P(x) (Polinomio de Hermite) tal que
P(x
0
) = y
0
P

(x
0
) = y

0
P

(x
0
) = y

0
P
k
0
−1)
(x
0
) = y
k
0
−1
0
P(x
1
) = y
1
P

(x
1
) = y

1
P

(x
1
) = y

1
P
k
1
−1)
(x
1
) = y
k
1
−1
1

P(x
n
) = y
n
P

(x
n
) = y

n
P

(x
n
) = y

n
P
k
n
−1)
(x
n
) = y
k
n
−1
n
siendo y
i
, y

i
, , y
k)
i
los valores de una cierta funci´on y sus derivadas en n+1
puntos. Si el n´ umero de condiciones impuestas es k
1
+k
2
+ +k
n
= m+ 1
entonces
Teorema: Existe un ´ unico polinomio de grado menor o igual que m que
satisface las condiciones de interpolaci´ on de Hermite anteriores.
Demostraci´on. Sea P(x) un polinomio de grado menor o igual que m. Las
condiciones P
j
(x
i
) = y
j
i
dan lugar a un sistema de m + 1 ecuaciones de la
forma Au = y. Este sistema tiene soluci´on ´ unica si el sistema Au = 0 tiene
´ unicamente la soluci´on 0, es decir, si el sistema formado por las condiciones
P
j)
(x
i
) = 0 tiene como soluci´on ´ unica el polinomio 0. Veamos que esto ´ ultimo
Aproximacion de funciones 83
es cierto. Un polinomio P(x) que sea soluci´on del sistema P
j)
(x
i
) = 0 verifica
que tiene la ra´ız x
i
repetida k
i
veces, con lo que si P(x) no es cero, ser´ıa de
grado mayor o igual que m+ 1, en contradicci´on con la hip´otesis inicial.

Ejercicio: ¿Qu´e otro nombre recibe el polinomio de Hermite cuando solo
hay un nodo?

Teorema. Sean x
0
, x
1
, . . . , x
n
nodos distintos de [a, b] y f ∈ (
2
[a, b]. Si
P(x) es el polinomio de grado menor o igual que 2n+1 tal que P(x
i
) = f(x
i
)
y P

(x
i
) = f

(x
i
), con 0 ≤ i ≤ n, entonces ∀x ∈ [a, b] ∃θ ∈ [a, b] tal que
f(x) −P(x) =
f
2n+2)
(θ)
(2n + 2)!
Π
n
i=0
(x −x
i
)
2

El polinomio de Hermite se puede calcular usando las diferencias divididas.
Para ello definimos
[x
0
, x
0
] = lim
x→x
0
[x
0
, x] = lim
x→x
0
y −y
0
x −x
0
= lim
x→x
0
f(x) −f(x
0
)
x −x
0
= f

(x
0
)
[x
0
, x
0
, x
1
] =
[x
0
, x
1
] −[x
0
, x
0
]
x
1
−x
0
[x
0
, x
0
, x
0
] =
1
2!
f
2)
(x
0
) [x
0
, x
0
, x
0
, x
0
] =
1
3!
f
3)
(x
0
)
Y de forma similar el resto de diferencias. En estas condiciones el polinomio
de interpolaci´on de Hermite se calcula de forma parecida a como se calculaba
el polinomio de interpolaci´on sin condiciones sobre la derivada.
El c´alculo es m´as sencillo haciendo uso de una tabla. Por ejemplo, si el
problema de Hermite incluye datos sobre la funci´on y su derivada en tres
puntos la tabla quedar´ıa as´ı:
x y 1
0
2
0
3
0
4
0
5
0
x
0
y
0
[x
0
, x
0
] [x
0
, x
0
, x
1
] [x
0
, x
0
, x
1
, x
1
] [x
0
, x
0
, x
1
, x
1
, x
2
] [x
0
, . . . , x
2
]
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
1
] [x
0
, x
1
, x
1
, x
2
] [x
0
, x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
1
] [x
1
, x
1
, x
2
] [x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
2
]
x
2
y
2
[x
2
, x
2
]
x
2
y
2
84 Cap´ıtulo 4
siendo
[x
0
, x
0
, . . . , x
0
] =
1
k!
f
k)
(x
0
)
k veces
.
El polinomio ser´ıa
P(x) = y
0
+ [x
0
, x
0
](x −x
0
) + [x
0
, x
0
, x
1
](x −x
0
)
2
+
+[x
0
, x
0
, x
1
, x
1
](x −x
0
)
2
(x −x
1
) +
+[x
0
, x
0
, x
1
, x
1
, x
2
](x −x
0
)
2
(x −x
1
)
2
+[x
0
, x
0
, x
1
, x
1
, x
2
, x
2
](x −x
0
)
2
(x −x
1
)
2
(x −x
2
).
Ejemplo: Calcula el polinomio que verifica estas condiciones:
x −1 0 1
y 1 1 −1
y

2 0 0
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
5
0
-1 1 2 −2 2 −3/2 2
-1 1 0 0 −1 5/2
0 1 0 −2 4
0 1 −2 2
1 -1 0
1 -1
El polinomio ser´ıa
P(x) = 1+2(x+1)−2(x+1)
2
+2(x+1)
2
x−3/2(x+1)
2
x
2
+2(x+1)
2
x
2
(x−1)

Ejemplo: Calcula el polinomio que verifica las siguientes condiciones:
x 1 2
y 2 6
y

3 7
y

8
Aproximacion de funciones 85
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
1 2 3 1 2 −1
1 2 4 3 1
2 6 7 8/2!=4
2 6 7
2 6
El polinomio ser´ıa
P(x) = 2 + 3(x −1) + 1(x −1)
2
+ 2(x −1)
2
(x −2) −1(x −1)
2
(x −2)
2
.

Interpolaci´ on c´ ubica de Hermite a trozos
Dada la tabla de valores
x x
0
x
1
x
n
y y
1
y
2
y
n
y

y

1
y

2
y

n
correspondientes a una cierta funci´on y sus derivadas, el m´etodo de inter-
polaci´on c´ ubica de Hermite a trozos consiste en encontrar una ´ unica funci´on
derivable definida a trozos, tal que en cada intervalo [x
i
, x
i+1
] (i = 0, . . . , n−1),
la funci´on es un polinomio P
i
(x) de grado menor o igual a 3 que verifica lo
siguiente
P
i
(x
i
) = y
i
P
i
(x
i+1
) = y
i+1
P

(x
i
) = y

i
P

i
(x
i+1
) = y

i+1
.
Planteando los correspondientes sistemas de ecuaciones, se puede encontrar la
´ unica funci´on que interpola en esas condiciones.
Splines
Una funci´on spline de grado k con nodos x
0
≤ x
1
≤ ≤ x
n
es una funci´on
S(x) definida a trozos tal que:
a) S(x) es un polinomio S
i
(x) de grado menor o igual que k en cada inter-
valo [x
i
, x
i+1
], con i = 0, 1, . . . , n −1.
b) S(x) admite derivada segunda continua de orden k −1 en [x
0
, x
n
].
86 Cap´ıtulo 4
El spline c´ ubico (k = 3) es el m´as usado en interpolaci´on. Un spline c´ ubico de
interpolaci´on en ¦x
0
, x
1
, . . . , x
n
¦ es una funci´on que cumple las propiedades
a), b) y S(x
i
) = f(x
i
), con i = 0, 1, . . . , n. El n´ umero de condiciones que se
han de cumplir es el siguiente:
condici´on ecuaciones num. ec.
continuidad S
i−1
(x
i
) = S
i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 1
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 2
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
interpolaci´on S
i
(x
i
) = y
i
con i = 0, . . . , n n + 1
total 4n −2
Cada polinomio c´ ubico S
i
(x), con i = 0, . . . , n − 1, tendr´a 4 par´ametros,
con lo que el n´ umero de inc´ognitas ser´a 4n−4. Por lo tanto, para poder resolver
el correspondiente sistema de ecuaciones hemos de a˜ nadir dos condiciones m´as
y podemos hacerlo de distintas formas:
• Si exigimos S

(x
0
) = 0 y S

(x
n
) = 0 obtendremos el spline c´ ubico
natural.
• Si exigimos S

(x
0
) = S

(x
n
) y S

(x
0
) = S

(x
n
) obtendremos el spline
peri´odico.
Se pueden elegir otras condiciones distintas del spline natural o del peri´odico.
Sin embargo, los splines natural y peri´odico existen y son ´ unicos para cualquier
conjunto de nodos y de datos. Adem´as, si la funci´on a interpolar f(x) tiene
derivada segunda continua en [x
0
, x
n
], entonces

b
a
[S

(x)]
2
dx ≤

b
a
[f

(x)]
2
dx,
siendo S(x) el spline natural. Es decir, de entre todas las funciones con deriva-
da segunda continua que pasan por ciertos puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
)
el spline natural es el que tiene menor energ´ıa el´astica (menor tensi´on
1
).
Por otra parte, si aumentamos el n´ umero de puntos a interpolar en el
intervalo [a, b] (n →∞) disminuyendo simult´aneamente el tama˜ no m´aximo de
los subintervalos [x
i
, x
i+1
] (max
0≤i≤n
[x
i
, x
i+1
] →0), entonces el spline natural
y su derivada convergen uniformemente a f(x) y f

(x) respectivamente.
1
La tensi´ on o energ´ıa el´ astica en [a, b] es proporcional a

b
a
[f

(x)]
2
dx.
Cap´ıtulo 5
Diferenciaci´ on e integraci´ on
num´erica
5.1 Diferenciaci´ on num´erica y extrapolaci´ on de Ri-
charson
¿Puede calcularse la derivada de una funci´on f(x) en un punto si se conocen
solo los valores de la funci´on f(x
0
), f(x
1
),. . . ,f(x
n
) en n + 1 puntos? Si la
funci´on es un polinomio de grado n, entonces seguro que se puede. Si de
la funci´on solo sabemos que es derivable, entonces no ser´a posible, pues hay
muchas funciones derivables que pasan por los mismos puntos. El objetivo de
esta secci´on es estimar el valor de f

(x) a partir de los valores de la funci´on
en ciertos puntos f(x
0
), f(x
1
),. . . ,f(x
n
) dando una cota del error cometido.
Dado que
f

(x) = lim
h→0
f(x +h) −f(x)
h
una primera estimaci´on es
f

(x) ≈
f(x +h) −f(x)
h
que es aplicable cuando conocemos los valores de la funci´on en dos puntos:
x
0
= x y x
1
= x+h. La f´ormula anterior es exacta para funciones lineales (por
ejemplo, para f(x) = 3x+2) y en otros casos de manera fortuita. Calculemos
87
88 Cap´ıtulo 5
una cota del error. Por el teorema de Taylor:
f(x +h) = f(x) +f

(x)h +
f

(θ)
2!
h
2
es decir
f

(x) =
f(x +h) −f(x)
h

h
2
f

(θ).
El error al aproximar f

(x) por f

(x) =
f(x+h)−f(x)
h
, llamado error de trunca-
miento, es
error = −
h
2
f

(θ) (f´ormula de orden h)
siendo θ un n´ umero entre x y x + h. Cuanto menor sea h, mejor ser´a la
aproximaci´on de f

(x), hasta que el error de redondeo impida la mejora.
Ejemplo: Estima el valor de la derivada de cos(x) en el punto
π
4
y calcula
una cota del error cometido.
Tomando como h = 0.01
f

(
π
4
) ≈
f(
π
4
+h) −f(
π
4
)
h
=
cos(
π
4
+ 0.01) −cos(
π
4
)
0.01
= −0.71063050.
La cota del error ser´ıa
[error[ = [ −
h
2
f

(θ)[ = [
0.01
2
cos(θ)[ ≤
0.01
2
= 0.005.

Otra estimaci´on de f

(x) es
f

(x) ≈
f(x +h) −f(x −h)
2h
.
Veamos la estimaci´on del error. Del teorema de Taylor se deduce que
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f


1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f


2
).
Diferenciaci´ on e integraci´ on 89
Si restamos las ecuaciones anteriores
f(x +h) −f(x −h) = 2f

(x)h +
h
3
6
[f


1
) +f


2
)].
Despejando
f

(x) =
f(x +h) −f(x −h)
2h

h
2
12
[f


1
) +f


2
)]
con lo que el error de truncamiento ser´ıa

h
2
12
[f


1
) +f


2
)]
siendo θ
1
un n´ umero entre x y x+h y θ
2
un n´ umero entre x y x−h. Si f

(x)
existe y es continua en [x−h, x+h], entonces existe un n´ umero θ ∈ [x−h, x+h]
tal que f

(θ) =
f


1
)+f


2
)
2
, con lo que error de truncamiento quedar´ıa
error = −
h
2
6
f

(θ) (f´ormula de orden h
2
).
Para estimar el valor de una derivada segunda podemos usar la f´ormula
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2
.
Veamos la estimaci´on del error. Por el teorema de Taylor
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f

(x) +
h
4
24
f
4)

1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f

(x) +
h
4
24
f
4)

2
)
.
Si sumamos las ecuaciones anteriores y despejamos
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2

h
2
24
[f
4)

1
) +f
4)

2
)].
Siendo θ
1
y θ
2
n´ umeros que est´an entre x y x +h y entre x y x −h. Si f
4)
(x)
existe y es continua, entonces existe un n´ umero θ ∈ [x −h, x +h] tal que
error =
h
2
12
f
4)
(θ) (f´ormula de orden h
2
)
90 Cap´ıtulo 5
5.1.1 Diferenciaci´ on mediante interpolaci´ on
Dada una funci´on f(x) y recordando c´omo se calcula el polinomio de interpo-
laci´on en los puntos x
0
, x
1
, . . . ,x
n
, se tiene que :
f(x) =
n
¸
i=0
f(x
i
)L
x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w(x)
donde w(x) = Π
n
i=0
(x −x
i
). Si derivamos
f

(x) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w

(x)
+
1
(n + 1)!
w(x)
d
dx
(f
n+1)

x
))

Si x = x
k
f

(x
k
) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x
k
) +
1
(n + 1)!
f
n+1)

x
k
)w

(x
k
)

.
Y como
w

(x) =
n
¸
i=0
Π
n
j=0,j=i
(x −x
j
) ⇒w

(x
k
) = Π
n
j=0,j=k
(x
k
−x
j
)
nos queda
f

(x
k
) =
n
¸
i=0

f(x
i
)L

x
i
(x
k
)

+
1
(n + 1)!
f
n+1)

x
k

n
j=0,j=k
(x
k
−x
j
)
que es una forma de calcular un valor aproximado de f

(x
k
) a partir de los
valores x
0
, x
1
, . . . ,x
n
.
Diferenciaci´ on e integraci´ on 91
Ejemplo: a) Aplica la f´ ormula anterior para calcular f

(x
1
) con n = 2.
b) Calcula lo anterior con x
1
−x
0
= x
2
−x
1
= h
Apartado a). Puesto que
L
x
0
=
(x −x
1
)(x −x
2
)
(x
0
−x
1
)(x
0
−x
2
)
L
x
1
=
(x −x
0
)(x −x
2
)
(x
1
−x
0
)(x
1
−x
2
)
L
x
2
=
(x −x
0
)(x −x
1
)
(x
2
−x
0
)(x
2
−x
1
)
se tiene que
L

x
0
=
2x −x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
L

x
1
=
2x −x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
L

x
2
=
2x −x
0
−x
1
(x
2
−x
0
)(x
2
−x
1
)
.
Por tanto
f

(x
1
) ≈ f(x
0
)
x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
+f(x
1
)
2x
1
−x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
+f(x
2
)
x
1
−x
0
(x
2
−x
0
)(x
2
−x
1
)
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(x
1
−x
0
)(x
1
−x
2
).
Apartado b). Siendo x
0
= x
1
− h y x
2
= x
1
+ h se obtiene la f´ormula ya
conocida
f

(x
1
) ≈ f(x
1
−h)
−h
(−h)(−2h)
+f(x
1
)
2x
1
−(x
1
−h) −(x
1
+h)
(h)(−h)
+f(x
1
+h)
h
(2h)(h)
f(x
1
+h) −f(x
1
−h)
2h
,
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(h)(−h) = −
1
3!
f
3)

x
1
)h
2
.

92 Cap´ıtulo 5
5.1.2 Extrapolaci´ on de Richarson
La extrapolaci´on de Richarson sirve para generar resultados de gran exactitud
cuando se usan f´ormulas de bajo orden. La extrapolaci´on puede aplicarse
siempre a cualquier m´etodo de aproximaci´on en el que sepamos el t´ermino de
error de una forma previsible y se basa en un par´ametro que generalmente es
el tama˜ no de paso h.
Por el teorema de Taylor sabemos que
f(x +h) =

¸
k=0
1
k!
h
k
f
k)
(x) y f(x +h) =

¸
k=0
1
k!
(−1)
k
h
k
f
k)
(x).
Restando las f´ormulas anteriores
f(x +h) −f(x −h) = 2hf

(x) +
2
3!
h
3
f
3)
(x) +
2
5!
f
5)
(x) +. . .
y despejando f

(x)
f

(x) =
f(x +h) −f(x −h)
2h

¸
f
3)
(x)
3!
h
2
+
f
5)
(x)
5!
h
4
+
f
7)
(x)
7!
h
6
+. . .
¸
.
Si definimos Φ(h) =
f(x+h)−f(x−h)
2h
y denotamos a
i
al coeficiente de h
i
en la
f´ormula anterior, tenemos
f

(x) = Φ(h) +a
2
h
2
+a
4
h
4
+a
6
h
6
+. . . (5.1)
que es la f´ormula ya conocida de aproximaci´on de f

(x)
f

(x) ≈ Φ(h) con error = h
2

a
2
+a
4
h
2
+a
6
h
4
+. . .

Si sustituimos h por h/2
f

(x) = Φ(
h
2
) +
a
2
2
2
h
2
+
a
4
2
4
h
4
+
a
6
2
6
h
6
+. . .
y multiplicando por 4
4f

(x) = 4Φ(
h
2
) +a
2
h
2
+
a
4
4
h
4
+
a
6
2
4
h
6
+. . . (5.2)
Diferenciaci´ on e integraci´ on 93
con lo que (5.2)-(5.1) es
3f

(x) = 4Φ(
h
2
) −Φ(h) −
3a
4
4
h
4

15a
6
16
h
6
que, despejando f

(x), da origen a la f´ormula de aproximaci´on
f

(x) ≈
4
3
Φ(
h
2
) −
1
3
Φ(h) con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

que tambi´en puede expresarse
f

(x) ≈ Φ(
h
2
) +
Φ(
h
2
) −Φ(h)
3
con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

Ejemplo: Siendo f(x) = arctan(x), calcula f

(

2) haciendo uso de la
extrapolaci´on de Richarson.
Tomamos h = 0.1.
f

(x) ≈ Φ(h) =
f(x +h) −f(x −h)
2h
=
f(

2 + 0.1) −f(

2 −0.1)
2 0.1
= 0.3339506968
y
f

(x) ≈ Φ(h/2) = 0.3334876594
Usando la extrapolaci´on
f

(x) ≈ Φ(h/2) +
Φ(h/2) −Φ(h)
3
= 0.3333333136
(El valor exacto es 1/3).

94 Cap´ıtulo 5
Si en la f´ormula (5.1.2) denotamos Ψ(h) =
4
3
Φ(
h
2
) −
1
3
Φ(h), b
4
=
−a
4
4
,
b
6
=
−5a
6
16
, . . . obtenemos la expresi´on
f

(x) = Ψ(h) +b
4
h
4
+b
6
h
6
+. . . (5.3)
Sustituyendo h por h/2
f

(x) = Ψ(h/2) +b
4

h
2

4
+b
6

h
2

6
+. . .
y multiplicando por 2
4
16f

(x) = 16Ψ(h/2) +b
4
h
4
+b
6
h
6
4
+. . . (5.4)
Restando (5.4)-(5.3) nos queda
15f

(x) = 16Ψ(h/2) −Ψ(h) −3b
6
h
6
4
+. . .
y al despejar f

(x)
f

(x) =
16
15
Ψ(h/2) −
1
15
Ψ(h) −b
6
h
6
20
+. . .
da origen a la f´ormula
f

(x) ≈
16
15
Ψ(h/2) −
1
15
Ψ(h) con error =h
6
¸
−b
6
1
20
+. . .

que tambi´en puede expresarse
f

(x) ≈ Ψ(h/2) +
Ψ(h/2) −Ψ(h)
15
con error =h
6
¸
−b
6
1
20
+. . .

El proceso puede continuar de forma similar tomando ahora otra funci´on
Ω(h) =
16
15
Ψ(h/2) −
1
15
Ψ(h). Se puede demostrar el siguiente resultado:
Teorema: El algoritmo de Richarson genera aproximaciones a f

(x) cada
vez de un orden superior.
Diferenciaci´ on e integraci´ on 95
Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular
f

(

2) siendo f(x) = arctan(x) y tomando h = 0.1.
Aplicamos la f´ormula (5.1.2) con h y h/2 para obtener las dos primeras
aproximaciones de orden 2
Φ(0.1) =
arctan(

2 + 0.1) −arctan(

2 −0.1)
2 0.1
= 0.33395069677432
Φ(0.05) =
arctan(

2 + 0.05) −arctan(

2 −0.05)
2 0.05
= 0.33348765942111
A partir de esos dos valores y aplicando la f´ormula (5.1.2) calculamos la apro-
ximaci´on Ψ(h) que es de orden 4
Ψ(0.1) = Φ(0.05) +
Φ(0.05) −Φ(0.1))
3
= 0.33333331363671
Calculando Φ(h/4) (Φ(0.025) = 0.33337191390106) podremos tambi´en calcu-
lar Ψ(h/2)
Ψ(0.05) = Φ(0.025) +
Φ(0.025) −Φ(0.05)
3
= 0.33333333206104
y a partir de estos dos valores obtenemos la aproximaci´on Ω(h)
Ω(0.1) = Ψ(0.05) +
Ψ(0.05) −Ψ(0.1)
15
= 0.33333333328933.

En general, el proceso de extrapolaci´on de Richarson puede resumirse as´ı:
Etapa 0. Calculo distintas aproximaciones R(0, h) en funci´on de un par´ametro
h (en nuestro caso R(0, h) = Φ(h) =
f(x+h)−f(x−h)
2h
).
Etapa 1. A partir de R(0, h) y de R(0, h/2) calculo las aproximaciones
R(1, h) = R(0, h/2) +
R(0, h/2) −R(0, h)
4
1
−1
.
Etapa 2. A partir de R(1, h) y de R(1, h/2) calculo las aproximaciones
R(2, h) = R(1, h/2) +
R(1, h/2) −R(1, h)
4
2
−1
.
96 Cap´ıtulo 5
Etapa n. A partir de R(n −1, h) y de R(n −1, h/2) calculo las aproxima-
ciones
R(n, h) = R(n −1, h/2) +
R(n −1, h/2) −R(n −1, h)
4
n
−1
.
Etapa 0 Etapa 1 Etapa 2 Etapa 3 . . .
R(0, h)
R(0, h/2) R(1, h)
R(0, h/4) R(1, h/2) R(2, h)
R(0, h/8) R(1, h/4) R(2, h/2) R(3, h)
. . . . . . . . . . . . . . .
5.2 Integraci´ on num´erica mediante interpolaci´ on
El objetivo es obtener un valor aproximado de

b
a
f(x)dx sin calcular la pri-
mitiva de f(x). La idea es sustituir

b
a
f(x)dx por

b
a
p(x)dx, siendo p(x) una
funci´on que se parezca a f(x), por ejemplo un polinomio interpolador en unos
nodos x
0
, x
1
, . . . , x
n
del intervalo [a, b]. Si utilizamos el m´etodo de Lagrange
para calcular el polinomio interpolador
p(x) =
n
¸
i=0
f(x
i
)l
x
i
(x) con l
x
i
(x) =
n
¸
j=0
x −x
j
x
i
−x
j
,
tendr´ıamos que

b
a
f(x)dx ≈

b
a
p(x)dx =
n
¸
i=0
f(x
i
)

b
a
l
x
i
(x)
es decir, obtenemos una f´ormula como esta

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
). (5.5)
En el ejemplo anterior A
i
=

b
a
l
x
i
(x)dx. Una expresi´on como (5.5) se denomina
f´ormula de cuadratura y los puntos x
i
son los nodos de cuadratura. Las
f´ormulas as´ı construidas son exactas para los polinomios de grado menor o
igual que n (¿por qu´e?). Si en el ejemplo utilizado los nodos est´an igualmente
espaciados, estaremos hablando del ”m´etodo de Newton-Cˆ otes”.
Diferenciaci´ on e integraci´ on 97
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-3 -2 -1 1 2
-1
-0.5
0.5
1
Figura 5.1: f´ormulas de cuadratura gr´aficamente
5.2.1 Regla del trapecio
El caso particular del m´etodo de Newton-Cˆ otes con n = 1 se conoce co-
mo el m´etodo del trapecio. Puesto que l
x
0
(x) =
b−x
a−x
, l
x
1
(x) =
x−a
b−a
, A
0
=

b
a
l
x
0
(x)dx =
1
2
(b −a) y A
0
=

b
a
l
x
1
(x)dx =
1
2
(b −a), la f´ormula de cuadratu-
ra queda as´ı

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
) =
b −a
2
[f(a) +f(b)]
La expresi´on del error del polinomio de interpolaci´on p(x) para n = 1 es
f(x) −p(x) =
f


x
)
2
(x −a)(x −b), de modo que

b
a
f(x)dx −

b
a
p(x)dx =

b
a
f(x) −p(x)dx =

b
a
f


x
)
2
(x −a)(x −b)dx
Puesto que (x − a)(x − b) no cambia de signo en todo [a, b] y suponiendo
que f

(x)/2 es una funci´on continua en [a, b], aplicando la generalizaci´on del
teorema de valor medio del c´alculo integral
1
obtenemos que el error es
f

(ξ)
2

b
a
(x −a)(x −b)dx =
f

(ξ)
2
(a −b)
3
6
1
Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a, b]. Si
g(x) no cambia de signo en todo x ∈ [a, b] y h(x) es continua en [a, b], entonces existe un
punto ξ ∈ [a, b] tal que:

b
a
h(x)g(x)dx = h(ξ)

b
a
g(x)dx,
.
98 Cap´ıtulo 5
para un cierto valor ξ ∈ (a, b). En resumen, si h = b − a, la Regla del
Trapecio quedar´ıa as´ı:

b
a
f(x)dx ≈
h
2
[f(a) +f(b)] con error=−f

(ξ)
h
3
12
(5.6)
para un cierto ξ ∈ [a, b].
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 1
(regla del trapecio).

0.2
0
e
x
2
dx ≈
0.2 −0
2
[e
0
+e
0.2
] = 0.20408107741924
Sabiendo que si x ∈ [0, 0.2] entonces
[f

(x)[ = [2e
x
2
+4x
2
e
x
2
[ ≤ [f

(0.2)[ = [2e
0.2
2
+40.2e
0.2
2
[ = 2.248151272255559,
una cota del error ser´a
[ −2.248151272255559
0.2
3
12
[ = 0.00149876751484.

5.2.2 Regla de Simpson
La f´ormula de Newton-Cˆ otes para n = 2 o n = 3 se llama Regla de Simpson.
El caso n = 2, h =
b−a
2
y x
i
= x
0
+ih, se conoce como la regla de Simpson
1/3:

b
a
f(x)dx ≈
h
3
[f(x
0
) + 4f(x
1
) +f(x
2
)] con error −f
4)
(ξ)
h
5
90
para un cierto ξ ∈ [a, b]. Por ser una f´ormula de Newton-Cˆ otes con tres puntos
es exacta para polinomios de grado menor o igual que 2; pero adem´as es exacta
para los polinomios de grado menor o igual que 3, ya que el t´ermino del error
contiene el factor f
4)
(ξ).
Diferenciaci´ on e integraci´ on 99
El caso n = 3, h =
b−a
3
y x
i
= x
0
+ ih, se conoce como la regla de
Simpson 3/8:

b
a
f(x)dx ≈
3h
8
[f(x
0
) + 3f(x
1
) + 3f(x
2
) +f(x
3
)] con error −f
4)
(ξ)
3h
5
80
para un cierto ξ ∈ [a, b]. Es mejor usar la regla de Simpson 1/3 que la de
3/8, puesto que ambas son de orden 5 y [ − 1/90[ < [ − 3/80[. En general
es preferible usar una regla con n par (n´ umero impar de puntos) que con n
impar.
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 2
(regla de Simpson 1/3).

0.2
0
e
x
2
dx ≈
0.2/2
3
[e
0
+e
0.1
2
+e
0.2
2
] = 0.2027
Sabiendo que si x ∈ [0, 0.2] entonces
[f
4)
(x)[ = [12e
x
2
+ 48e
x
2
x
2
+ 16e
x
2
x
4
[ ≤ [f
4)
(0.2)
= [12e
0.2
2
+ 48e
0.2
2
0.2
2
+ 16e
0.2
2
0.2
4
[ = 14.5147,
una cota del error ser´a
[ −14.5147
(0.2/2)
5
90
[ = 1.6 ∗ 10
−6

5.2.3 Reglas compuestas
Este m´etodo consiste en dividir el intervalo [a, b] en subintervalos y aplicar
en cada uno de ellos una regla simple. Por ejemplo, la regla del trapecio
compuesta consiste en fijar unos puntos a = x
0
< x
1
< < x
n−1
< x
n
= b y
aplicar la regla del trapecio a cada intervalo [x
i−1
, x
i
]:

b
a
f(x)dx =
n
¸
i=1

x
i
x
i−1
f(x)dx ≈
1
2
n
¸
i=1
(x
i
−x
i−1
) [f(x
i−1
) +f(x
i
)] .
Es equivalente a sustituir f(x) por una funci´on que interpole a f(x) y que
est´e formada por trozos de l´ınea. Si los puntos est´an igualmente espaciados
100 Cap´ıtulo 5
(h = x
i
−x
i−1
=
b−a
n
, x
i
= a +ih con i = 1, 2, . . . , n), la regla del trapecio
compuesta nos queda

b
a
f(x)dx ≈
h
2
[f(x
0
) + 2f(x
1
) + +2f(x
n−1
) +f(x
n
)]
con error −
h
2
12
(b −a)f

(ξ)
para un cierto ξ ∈ [a, b]. La f´ormula es exacta para polinomios de grado
menor o igual que 1.
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
Figura 5.2: Regla del trapecio compuesta con 3 y 4 puntos
Ejemplo: Calcula un valor aproximado de

0.2
0
e
x
2
dx mediante la regla
del trapecio compuesta.
Si tomamos tres puntos x
0
= 0, x
1
= 0.1 y x
2
= 0.2

0.2
0
e
x
2
dx ≈
0.1
2

e
0
+ 2e
0.1
2
+e
0.2
2

= 0.201085
Una cota del error ser´ıa


0.1
2
12
(0.2 −0)(e
x
2
(2 + 4e
x
2
))


0.1
2
12
0.2 f

(0.2)

= 0.00187346

Diferenciaci´ on e integraci´ on 101
Si el n´ umero n de intervalos en los que dividimos [a, b] es par podemos
aplicar de forma sencilla la regla de Simpson compuesta con h =
b−a
n
, x
i
=
a+ih (0 ≤ i ≤ n), aplicando a cada dos subintervalos la regla de Simpson 1/3

b
a
f(x)dx =

x
2
x
0
f(x)dx +

x
4
x
2
f(x)dx + +

x
n
x
n−2
f(x)dx
con lo que obtenemos la f´ormula

b
a
f(x) ≈
h
3
[f(x
0
) + 4f(x
1
) + 2f(x
2
) + 4f(x
3
) + 2f(x
4
) +. . .
+ 4f(x
n−1
) +f(x
n
)]
o lo que es lo mismo

b
a
f(x)dx ≈ f(x
0
) +
n
2
¸
i=1
[2f(x
2i
)+4f(x
2i−1
)] +f(x
n
)
con error −
b −a
180
h
4
f
4)
(ξ)
con ξ ∈ [a, b].
5.2.4 M´etodo de los coeficientes indeterminados
Las reglas de Newton-Cˆ otes con n +1 puntos son exactas para los polinomios
de grado n, es decir, si en la f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
)
tomamos los coeficientes A
i
=

b
a
l
x
i
(x)dx, el resultado que obtenemos al calcu-
lar con esa regla la integral de un polinomio de grado n es el valor exacto. El
objetivo de esta secci´on es, dados un conjunto de n + 1 puntos x
0
, x
1
, . . . ,
x
n
, encontrar el valor de los coeficientes A
0
, A
1
, . . . , A
n
que aseguren que la
f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
) es exacta para los polino-
mios de grado n. En cada caso, el problema se puede resolver de forma similar
al siguiente ejemplo.
102 Cap´ıtulo 5
Ejemplo: Encuentra los valores A
0
, A
1
y A
2
para que la f´ormula

1
0
f(x)dx ≈ A
0
f(0) +A
1
f(
1
2
) +A
2
f(1)
sea exacta para los polinomios de grado menor o igual que 2. En particular
la f´ormula tendr´a que ser exacta para los polinomios 1, x y x
2
que forma una
base del conjunto de los polinomios de grado menor o igual que 2:
1 =

1
0
1dx = A
0
+ 1A
1
+A
2
1
2
=

1
0
xdx = 0A
0
+
1
2
A
1
+A
2
1
3
=

1
0
x
2
dx = 0A
0
+
1
4
A
1
+A
2
y obtenemos que A
0
=
1
6
, A
1
=
2
3
y A
2
=
1
6
. Adem´as, si P(x) = a + bx + cx
2
es cualquier otro polinomio de grado menor o igual que 2, la f´ormula ser´ıa
tambi´en exacta porque

1
0
P(x)dx = a

1
0
1dx +b

1
0
xdx +c

1
0
x
2
dx =
= a(A
0
+ 1A
1
+A
2
) +b(
1
2
A
1
+A
2
) +c(
1
4
A
1
+A
2
) =
= A
0
(a) +A
1
(a +
1
2
b + (
1
2
)
2
c) +A
2
(a + 1b + 1
2
c) =
= A
0
P(0) +A
1
P(
1
2
) +A
2
P(1)
que ser´ıa el resultado obtenido al aplicar la f´ormula de cuadratura con los
coeficientes calculados. Adem´as, es la misma f´ormula que se obtendr´ıa con el
m´etodo de Simpson.

5.3 Cuadratura gaussiana
Supongamos que queremos obtener una f´ormula de cuadratura

1
−1
f(x)dx = A
1
f(t
1
) +A
2
f(t
2
)
pero no fijamos previamente los valores de t
1
, t
2
, A
1
y A
2
. Para calcular estos
valores y puesto que tenemos 4 inc´ognitas, le imponemos 4 condiciones: que
Diferenciaci´ on e integraci´ on 103
la f´ormula sea exacta para los polinomios de grado menor o igual que 3, es
decir, para 1, x, x
2
y x
3
:

1
−1
x
3
dx = 0 = A
1
t
3
1
+A
2
t
3
2

1
−1
x
2
dx =
2
3
= A
1
t
2
1
+A
2
t
2
2

1
−1
xdx = 0 = A
1
t
1
+A
2
t
2

1
−1
1dx = 2 = A
1
+A
2
Restando a la ecuaci´on primera la tercera multiplicada por t
2
1
obtenemos
0 = A
2
(t
3
2
−t
2
1
t
2
) = A
2
t
2
(t
2
−t
1
)(t
2
+t
1
)
con lo que se obtiene alguno de los siguientes valores: A
2
= 0, t
2
= 0, t
2
= t
1
,
t
2
= −t
1
. Sustituyendo en el resto de las ecuaciones podemos comprobar que
solo es aceptable t
2
= −t
1
y que en ese caso los par´ametros son A
1
= A
2
= 1
y t
2
= −t
1
=

1
3
. Por tanto la f´ormula

1
−1
f(x)dx = f(−

1
3
) +f(

1
3
)
es exacta para integrar cualquier polinomio de grado menor o igual que 3 en
el intervalo [−1, 1]. Para integrarlos en [a, b] se utiliza una transformaci´on af´ın
que lleve un intervalo en el otro.
Los nodos t
i
(i = 1, 2, . . . , n) en la cuadratura gaussiana coinciden con las
ra´ıces del polinomio de Legendre de grado n. Los polinomios de Legendre se
construyen as´ı:
L
0
(x) = 1 L
1
(x) = x L
n+1
=
(2n + 1)xL
n
(x) −nL
n−1
(x)
n + 1
.
Ejemplo: Calcula un valor aproximado de

π
2
0
sen(x)dx mediante cuadra-
tura gaussiana de dos t´erminos.
Como el intervalo de integraci´on es [0,
π
2
], hemos de hacer un cambio de
variable af´ın que lleve [−1, 1] en [0,
π
2
]. Dicho cambio es x =
π
4
t +
π
4
con lo
que dx =
π
4
dt. Ya hemos deducido cuales son los nodos t
i
y los coeficientes A
i
(i = 1, 2). Si no supi´eramos cuales son, podr´ıamos averiguar primero los nodos
104 Cap´ıtulo 5
calculando las ra´ıces del polinomio de Legendre de grado 2 (L
2
=
3x
2
−x
2
). Pos-
teriormente calcular´ıamos los coeficientes A
i
planteando un sistema de ecua-
ciones. En todo caso se obtendr´ıa
π
2
0
sen(x)dx =

1
−1
sen

π
4
t +
π
4

π
4
dt =
=
π
4
¸
sen

π
4
(−

1
3
) +
π
4

+ sen

π
4
(

1
3
) +
π
4
¸
≈ 0.99847.

5.4 Integraci´ on de Romberg
Para aplicar el m´etodo de integraci´on de Romberg construimos una tabla como
esta
R(0, 0)
R(1, 0) R(1, 1)
R(2, 0) R(2, 1) R(2,2)
R(3, 0) R(3, 1) R(3,2) R(3,3)
. . .
R(M, 0) R(M, 1) R(M, 2) R(M, 3) . . . R(M, M)
donde, si queremos aproximar

b
a
f(x)dx
R(0, 0) =
1
2
(b −a) [f(a) +f(b)]
(Regla del trapecio para 2
0
intervalos)
R(n, 0) =
1
2
R(n −1, 0) +
b −a
2
n
2
n−1
¸
i=1
f(a + (2i −1)
b −a
2
n
)
(Regla del trapecio para 2
n
intervalos)
R(n, m) = R(n, m−1) +
1
4
m
−1
[R(n, m−1) −R(n −1, m−1)]
(Extrapolaci´on de Richarson)
(5.7)
La ´ ultima f´ormula se obtiene aplicando la extrapolaci´on de Richarson que
es un proceso que ya hemos utilizado en otra ocasi´on. El factor
1
4
m
−1
depende
Diferenciaci´ on e integraci´ on 105
del orden de convergencia del m´etodo empleado, en este caso la regla del
trapecio.
Cada valor R(i, j) se considera una aproximaci´on a

b
a
f(x)dx. A partir
de la aproximaci´on R(n, m − 1) que se considera que mejora a la anterior
R(n −1, m−1), se construye otra mejor aproximaci´on R(n, m):
R(n, m) = (+exacta) +
1
4
m
−1
[(+exacta) −(-exacta)] .
Teorema: Si f(x) es una funci´on continua en [a, b] entonces la sucesi´on que
se obtiene en cada columna del m´etodo de Romberg converge a

b
a
f(x)dx.
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
e
x
2
dx.
R(0, 0) es la regla del trapecio con 2
0
= 1 intervalo:
R(0, 0) =
2 −0
2
(e
0
+e
2
2
) ≈ 55.5981
R(1, 0) es la regla del trapecio compuesta con 2
1
intervalos:
R(1, 0) =
1
2

e
0
+ 2e
1
+e
2

= 30.5174
R(2, 0) es la regla del trapecio compuesta con 2
2
intervalos:
R(2, 0) =
2/4
2

e
0
+ 2e
0.5
+ 2e
1
+ 2e
1.5
+e
2

= 20.6446
y de modo similar los t´erminos R(n, 0) de la primera columna. El resto de
t´erminos se calculan seg´ un la f´ormula 5.7 La mejor aproximaci´on obtenida
ser´ıa

2
0
e
x
2
dx ≈ 16.4529.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 55.5981
n = 1 30.5174 22.1572
n = 2 20.6446 17.3537 17.0334
n = 3 17.5651 16.5386 16.4843 16.4756
n = 4 16.7354 16.4588 16.4535 16.4530 16.4529

106 Cap´ıtulo 5
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
x
2
dx.
Obtenemos la tabla siguiente en donde a mejor aproximaci´on obtenida
ser´ıa

2
0
x
2
dx ≈ 2.6667.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 4
n = 1 3 2.6667
n = 2 2.75 2.6667 2.6667
n = 3 2.6875 2.6667 2.6667 2.6667
n = 4 2.6719 2.6667 2.6667 2.6667 2.6667

Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

0.5
0.2
e
−x
2
dx.
Obtenemos la tabla siguiente
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 0.69302
n = 1 0.66211 0.65181
n = 2 0.65947 0.65859 0.65904
n = 3 0.65898 0.65882 0.65883 0.65883
n = 4 0.65886 0.65882 0.65882 0.65882 0.65882
La mejor aproximaci´on obtenida ser´ıa

0.5
0.2
e
−x
2
dx ≈ 0.65882.

Diferenciaci´ on e integraci´ on 107
5.5 Cuadratura adaptativa
A grandes rasgos, el m´etodo consiste en calcular un valor aproximado de una
integral

b
a
f(x)dx dividiendo el intervalo [a, b] en intervalos disjuntos [x
i
, x
i+1
]
con las siguientes condiciones:
• Se fija un par´ametro llamado tolerancia T.
• Se obtienen dos estimaciones de

x
i+1
x
i
f(x)dx mediante una f´ormula de
cuadratura.
• Se fija la tolerancia en el intervalo [x
i
, x
i+1
]:
T
[
x
i
, x
i+1
] =
T
(b −a)
(x
i+1
−x
i
).
• Si la diferencia entre las dos estimaciones de

x
i+1
x
i
f(x)dx es menor que
T
[x
i
,x
i+1
]
se estima definitivamente

x
i+1
x
i
f(x)dx por extrapolaci´on. En
caso contrario se divide el intervalo en dos subintervalos disjuntos.
• Se estima

b
a
f(x)dx:

b
a
f(x)dx =
n
¸
i=0

x
i+1
x
i
f(x)dx
Ejemplo: Fijado un valor de tolerancia T = 0.02, calcula

1
0.2
1
x
2
dx usando
la regla de Simpson.
Paso 1. Aplicamos la regla de Simpson para calcular la integral:
h
1
=
1 −0.2
2
= 0.4 ⇒S
1
[0.2, 1] = 4.94814815.
Paso 2. Aplicamos la regla de Simpson compuesta en dos subintervalos
de [0.2, 1], en concreto en [0.2, 0.6] y en [0.6, 1]:
h
2
=
0.6 −0.2
2
= 0.2 ⇒ S
2
[0.2, 0.6] = 3.51851852.
h
2
=
1 −0.6
2
= 0.2 ⇒ S
2
[0.6, 1] = 0.66851852.
108 Cap´ıtulo 5
Paso 3. Hasta ahora tenemos dos aproximaciones a

1
0.2
1
x
2
dx, a saber:
S
1
[0.2, 1] y S
2
[0.2, 0.6] + S
2
[0.6, 1]. Calculo la diferencia entre ambas estima-
ciones:
S
1
[0.2, 1] −(S
2
[0.2, 0.6] +S
2
[0.6, 1]) = 0.7611111 > T = 0.02.
Si la diferencia hubiera sido menor que T, el proceso finalizar´ıa efectuando
una extrapolaci´on del tipo:
(+exacta) +
1
15
[(+exacta) −(-exacta)]
entendiendo que la primera estimaci´on es menos exacta que la segunda. Puesto
que la diferencia es mayor que T, el proceso contin´ ua fijando la tolerancia de
forma proporcional al tama˜ no de cada subintervalo y de modo que sume la
tolerancia total T = 0.02. Con estas condiciones la tolerancia ser´a 0.01 en
[0.2, 0.6] y 0.01 en [0.6, 1].
Paso 4. Estudiamos el intervalo [0.6, 1]. Tenemos la estimaci´on S
2
[0.6, 1]
de

1
0.6
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.6, 0.8] (S
3
[0.6, 0.8] = 0.41678477) y en
[0.8, 1] (S
3
[0.6, 1] = 0.25002572). Comparamos ambas estimaciones:
S
2
[0.6, 1]−(S
3
[0.6, 0.8] +S
3
[0.8, 1]) = 0.66851852−0.66681049 = 0.001708 < T
[0.6,1]
= 0.01
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

1
0.6
1
x
2
dx :

1
0.6
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)]
0.66681049 +
1
15
(0.66681049 −0.66851852) = 0.66669662
Paso 5. Actuamos ahora sobre el intervalo [0.2, 0.6] donde la toleran-
cia tambi´en es 0.01. Contamos con una estimaci´on S
2
[0.2, 0.6] de la integral
en el intervalo y aplicamos la regla de Simpson en [0.2, 0.4] (S
3
[0.2, 0.4] =
2.52314815)y en [0.4, 0.6] (S
3
[0.4, 0.6] = 0.83435926) para obtener una nueva
(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]). Comparamos ambas estimaciones:
S
2
[0.2, 0.6] −(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]) = 0.161111 > T
[0.2,0.6]
= 0.01.
Diferenciaci´ on e integraci´ on 109
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y
dividimos el intervalo [0.2, 0.6] en los intervalos [0.2, 0.4] y [0.4, 0.6]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo
[0.2,0.6] (T
[0.2,0.6]
= 0.01). Con estas condiciones T
[0.2,0.4]
= 0.005 y T
[0.4,0.6]
=
0.005.
Paso 6. Estudiamos el intervalo [0.4, 0.6]. Tenemos la estimaci´on S
3
[0.4, 0.6]
de

0.6
0.4
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.5, 0.6] (S
4
[0.4, 0.5] = 0.50005144) y en
[0.5, 0.6] (S
4
[0.5, 0.6] = 0.33334864). Comparamos ambas estimaciones:
S
3
[0.4, 0.6] −(S
4
[0.4, 0.5] +S
4
[0.5, 0.6]) = 0.000859 < T
[0.4,0.6]
= 0.005
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.6
0.4
1
x
2
dx :

0.6
0.4
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.8333428.
Paso 7. Estudiamos el intervalo [0.2, 0.4]. Tenemos la estimaci´on S
3
[0.2, 0.4]
de

0.4
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.3] y [0.3, 0.4]. Comparamos ambas
estimaciones:
S
3
[0.2, 0.4] −(S
4
[0.2, 0.3] +S
4
[0.3, 0.4]) > T
[0.2,0.4]
= 0.005.
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y di-
vidimos el intervalo [0.2, 0.4] en los intervalos [0.2, 0.3] y [0.3, 0.4]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el inter-
valo [0.2,0.4] (T
[0.2,0.4]
= 0.005). Con estas condiciones T
[0.2,0.3]
= 0.0025 y
T
[0.3,0.4]
= 0.0025.
Paso 8. Estudiamos el intervalo [0.3, 0.4]. Tenemos la estimaci´on S
4
[0.3, 0.4]
de

0.4
0.3
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.3, 0.35] y [0.35, 0.4]. Comparamos ambas
estimaciones:
S
4
[0.3, 0.4] −(S
5
[0.3, 0.35] +S
5
[0.35, 0.4]) = 0.0002220 < T
[0.3,0.4]
= 0.0025.
110 Cap´ıtulo 5
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.4
0.3
1
x
2
dx :

0.4
0.3
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.83333492.
Paso 9. Estudiamos el intervalo [0.2, 0.3]. Tenemos la estimaci´on S
4
[0.2, 0.3]
de

0.3
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.25] y [0.25, 0.3]. Comparamos ambas
estimaciones:
S
4
[0.2, 0.3] −(S
5
[0.2, 0.25] +S
5
[0.25, 0.3]) < T
[0.2,0.3]
= 0.0025.
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.3
0.2
1
x
2
dx :

0.3
0.2
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 1.666686.
Por lo tanto, la estimaci´on mediante este m´etodo de

1
0.2
1
x
2
dx ser´ıa:

1
0.2
1
x
2
dx =

0.3
0.2
1
x
2
dx +

0.4
0.3
1
x
2
dx +

0.6
0.4
1
x
2
dx +

1
0.6
1
x
2
dx
= 1.666686 + 0.83333492 + 0.8333428 + 0.66669662 = 4.00005957.

T
a
b
l
a
d
i
f
e
r
e
n
c
i
a
c
i
´o
n
e
i
n
t
e
g
r
a
c
i
´o
n
n
u
m
´e
r
i
c
a
D
e
r
i
v
a
c
i
´o
n
f

(
x
)
=
f
(
x
+
h
)

f
(
x
)
h

h 2
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h

h
2
6
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

2
f
(
x
)
+
f
(
x

h
)
h
2

h
2
1
2
f
4
)
(
ξ
)
f

(
x
k
)
=

n i
=
0
f
(
x
i
)
L
i
(
x
k
)
1
(
n
+
1
)
!
f
n
+
1
)
(
ξ
x
k
)
Π
n j
=
0
,
j
=
k
(
x
k

x
j
)
R
(
0
,
h
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h
R
(
n
,
h
)
=
R
(
n

1
,
h
/
2
)
+
1
4
n

1
[
R
(
n

1
,
h
/
2
)

R
(
n

1
,
h
)
]
I
n
t
e
g
r
a
c
i
´o
n

n i
=
0
(

b
a
l
i
(
x
)
d
x
)
f
(
x
i
)
h 2
[
f
(
x
0
)
+
f
(
x
1
)
]

1
1
2
h
3
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
f
(
x
2
)
]

1
9
0
h
5
f
4
)
(
ξ
)
3
h
8
[
f
(
x
0
)
+
3
f
(
x
1
)
+
3
f
(
x
2
)
+
f
(
x
3
)
]

3
8
0
h
5
f
4
)
(
ξ
)
h 2
[
f
(
x
0
)
+
2
f
(
x
1
)
+
2
f
(
x
2
)
+
·
·
·
+
2
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
2
h
2
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
2
f
(
x
2
)
+
4
f
(
x
3
)
+
·
·
·
+
4
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
8
0
h
4
f
4
)
(
ξ
)
f
(

1 3
)
+
f
(

1 3
)
R
(
n
,
m
)
=
R
(
n
,
m

1
)
+
1
4
m

1
[
R
(
n
,
m

1
)

R
(
n

1
,
m

1
)
]
S
i
+
1
[
a
,
b
]
+
1
1
5

S
i
+
1
[
a
,
b
]

S
i
[
a
,
b
]

1
Cap´ıtulo 6
Resoluci´ on num´erica de
ecuaciones diferenciales
6.1 Existencia y unicidad de soluciones
Una ecuaci´on diferencial ordinaria (EDO) es una expresi´on de la forma
F(x, y(x), y

(x), y

(x), . . . ) = 0,
es decir, una ecuaci´on que contiene una variable independiente x, otra depen-
diente de la primera y(x) y derivadas de distinto orden de la segunda respecto
de la primera (y

(x), y

(x), . . . ).
El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´on.
El grado de una EDO es el mayor exponente de la derivada de mayor orden
que aparece en la ecuaci´on.
Ejemplo:
ecuaci´on orden grado
y

= y tan(x + 3) 1 1
(y

)
2
= y tan(x + 3) 1 2
y

= y tan(x + 3) 2 1

La soluci´on general de una EDO es una familia de funciones que verifican
la EDO. En general, la soluci´on general de una EDO de orden k es una familia
de funciones que depende de una par´ametro k.
113
114 Cap´ıtulo 6
Ejemplo: La soluci´on general de y

= sen(x) es y = −cos(x) + k con
k ∈ R. La soluci´on general de y

= −y es y = a sen(x) +b cos(x), con a ∈ R y
b ∈ R.

Una soluci´on particular de una EDO es un elemento particular de la solu-
ci´on general. Una soluci´on singular es una funci´on que verifica la EDO pero
que no est´a recogida en la soluci´on general.
Ejemplo: La ecuaci´on y

= y
1/3
tiene como soluci´on general y = (
2
3
x)
3
2
+C
con C ∈ R. Una soluci´on particular es y = (
2
3
x)
3
2
+ 4 y una soluci´on singular
es y = 0.

Si una EDO de primer orden F(x, y(x), y

(x)) = 0 se puede expresar de la
forma y

= f(x, y(x)) entonces
Teorema: Si f(x, y) y
∂f(x,y)
∂y
son continuas en un rect´angulo D del plano
R
2
y (x
0
, y
0
) ∈ D, entonces existe una ´ unica soluci´on de la ecuaci´on y

=
f(x, y) tal que y(x
0
) = y
0
.
Ejemplo: Encuentra d´onde tiene soluci´on ´ unica la ecuaci´on y

=
−y
x
.
Sea f(x, y) =
−y
x
. La gr´afica de dicha funci´on aparece en la figura 6.1.
f(x, y) es continua en R
2
− ¦x = 0¦.
∂f(x,y)
∂y
=
−1
x
es continua tambi´en en
R
2
−¦x = 0¦.
Por el teorema anterior, si existe un rect´angulo D ⊂ R
2
− ¦x = 0¦ y
(x
0
, y
0
) ∈ D, entonces el problema y

= f(x, y) tal que y(x
0
) = y
0
tiene
soluci´on ´ unica. Por ejemplo, el problema y

=
−y
x
con y(2) = 1, tiene soluci´on
´ unica porque (2, 1) est´an dentro de un rect´angulo que a su vez est´an contenido
en R
2
−¦x = 0¦. Dicha soluci´on es y =
2
x
. Sin embargo, si la condici´on inicial
es y(0) = 2 el problema no tiene soluci´on.

En general, la b´ usqueda de soluciones exactas de una ecuaci´on diferencial
es un problema dif´ıcil. Por ello se usan m´etodos num´ericos para encontrar
soluciones aproximadas. El planteamiento t´ıpico de una ecuaci´on diferencial
ordinaria de grado 1 con valor inicial es
Ecuaciones diferenciales 115
-10
-5
0
5
10
-10
-5
0
5
10
-5
-2.5
0
2.5
5
-10
-5
0
5
10
Figura 6.1: La funci´on f(x, y) =
y
x
y

= f(x, y(x)) y(x
0
) = y
0
(6.1)
Por ejemplo
y

= −2x −y y(0) = −1.
La soluci´on num´erica de una EDO ser´a una tabla de valores aproximados
de la funci´on y(x) en un conjunto de puntos x
i
. Usando esa tabla podemos
construir una aproximaci´on de la funci´on mediante, por ejemplo, los m´etodos
de interpolaci´on. En lo que sigue, trabajaremos con puntos x
i
igualmente
espaciados, es decir, separados cada uno del siguiente por un tama˜ no de paso
h, con lo que x
i
= x
0
+ ih. y(x
i
) denotar´a el valor exacto de la funci´on y(x)
en el punto x
i
; y
i
ser´a un valor aproximado de y(x
i
).
6.2 M´etodo de la serie de Taylor
Para resolver el problema (6.1), el m´etodo de Taylor de orden k propone
sustituir la funci´on desconocida y(x) por su polinomio de Taylor de orden k
116 Cap´ıtulo 6
en un entorno de cada punto x
i
, es decir
y(x
i+1
) = y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +y

(x
i
)
h
2
2
+ +y
k)
(x
i
) +
h
k
k!
Los valores de la funci´on y(x) y de sus derivadas en x
i
son desconocidos en
general, por lo que hay que sustituirlos por aproximaciones:
y(x
i
) ≈ y
i
y

(x
i
) ≈ f(x
i
, y
i
)
y

(x
i
) ≈
d f(x
i
, y
i
)
d x
. . .
y
k)
(x
i
) ≈
d
k-1
f(x
i
, y
i
)
d x
k−1
De este modo obtenemos la expresi´on del m´etodo:
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
A la hora de derivar f(x, y) respecto de x hay que tener en cuenta que es una
funci´on de dos variables y que y es funci´on de x. De modo que, denotando
f
x
y f
y
a las derivadas parciales de f(x, y) respecto x e y, tendr´ıamos, por
ejemplo que
d f(x, y)
d x
= f
x
(x, y) +f
y
(x, y)y

(x, y) = f
x
(x, y) +f
y
(x, y)f(x, y).
Elegido, el tama˜ no del paso h, el m´etodo de Taylor paso a paso ser´ıa el
siguiente:
Paso 1. Partimos del punto x
0
, obtenemos una aproximaci´on de y(x
1
)
y
1
= y
0
+f(x
0
, y
0
)h +
d f(x
0
, y
0
)
d x
h
2
2
+ +
d
k-1
f(x
0
, y
0
)
d x
k−1
h
k
k!
Paso 2. Partimos de x
1
= x
0
+h y calculamos una aproximaci´on y(x
2
):
y
2
= y
1
+f(x
1
, y
1
)h +
d f(x
1
, y
1
)
d x
h
2
2
+ +
d
k-1
f(x
1
, y
1
)
d x
k−1
h
k
k!
Ecuaciones diferenciales 117
Paso i+1. Partimos de x
i
= x
i−1
+h y calculamos una aproximaci´on de
y(x
i+1
):
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
Ejemplo: Proporciona tres valores aproximados de la funci´on y(x), solu-
ci´on de y

= −2x −y con y(0) = −1 mediante el m´etodo de Taylor con k = 4
y tama˜ no de paso h = 0.1.
Calculamos el desarrollo de Taylor hasta grado 4 de la funci´on y(x) en un
punto cualquiera x
i
:
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2
h
2
+
y

(x
i
)
3!
h
3
+
y
4)
(x
i
)
4!
h
4
Denotando y
i
al valor aproximado de y(x
i
) y dado que
y

(x) = f(x, y)
y

(x) = [y

(x)]

= [−2x −y(x)]

= −2 −y

(x) = −2 −f(x, y)
y

(x) = [y

(x)]

= −y

(x) = 2 +y

(x) = 2 +f(x, y)
y
4)
(x) = [y

(x)]

= [−y

(x)]

= −y

(x) = −2 −y

(x) = −2 −f(x, y)
definimos el m´etodo
y
i+1
= y
i
+f(x
i
, y
i
)h +
−2 −f(x
i
, y
i
)
2
h
2
+
2 +f(x
i
, y
i
)
3!
h
3
+
−2 −f(x
i
, y
i
)
4!
h
4
Paso 1. Como y
0
= −1 y f(x
0
, y
0
) = f(0, −1) = 1, obtenemos el valor
aproximado
y
1
= −1 + 0.1 −1.5 0.1
2
+ 0.5 0.1
3
−0.125 0.1
4
= −0.9645125.
Paso 2. Como y
1
= −0.9145125 y f(x
1
, y
1
) = f(0.1, −0.9145125) = 0.7145125,
obtenemos el valor aproximado
y
2
= −0.8561927.
Paso 3. Como y
2
= −0.8561927 y f(x
2
, y
2
) = f(0.2, −0.8561927) = 0.4561927,
obtenemos el valor aproximado
y
3
= −0.8224553

118 Cap´ıtulo 6
6.2.1 M´etodo de Euler
Es el m´etodo anterior usando el polinomio de Taylor de orden 1
y
i+1
= y
i
+f(x
i
, y
i
)h
Ejemplo. Resuelve la ecuaci´on y

= −2x − y con y(0) = −1 mediante el
m´etodo de Euler.
Con estos datos se tiene que x
0
= 0, y
0
= −1, f(x
0
, y
0
) = 1 con lo que
y
1
= y
0
+f(x
0
, y
0
)h = −1 + 1 0.1 = −0.9
Puesto que f(x
1
, y
1
) = 0.7, se deduce que
y
2
= y
1
+f(x
1
, y
1
)h = −0.9 + 0.7 0.1 = −0.83
Puesto que f(x
2
, y
2
) = 0.43, se deduce que
y
3
= y
2
+f(x
2
, y
2
)h = −0.83 + 0.43 0.1 = −0.787
Puesto que f(x
3
, y
3
) = 0.187, se deduce que
y
4
= y
3
+f(x
3
, y
3
)h = −0.787 + 0.187 0.1 = −0.7683

6.2.2 Errores
Al resolver num´ericamente una ecuaci´on diferencial aparecen varios tipos de
errores:
1. error de truncamiento local
2. error de truncamiento global
3. error de redondeo local
4. error de redondeo global
5. error total
Ecuaciones diferenciales 119
El error de truncamiento local es el que aparece en un paso cuando reem-
plazamos un proceso infinito por uno finito. Por ejemplo, en el m´etodo de
Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de
infinitos t´erminos) por los primeros k-t´erminos. En este caso, para un cierto
c
i
∈ R, se tiene que
y(x
i
+h) = y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
+
y
k+1)
(c
i
)
(k + 1)!
h
k+1
y dado que en el algoritmo usamos la aproximaci´on
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
se deduce que el error local en el paso i-´esimo es proporcional a h
k+1
, digamos
C
i
h
k+1
. Un error de esa magnitud se dice que es O(h
k+1
).
La acumulaci´on de todos los errores de truncamiento local genera el error
de truncamiento global. Si al aplicar un m´etodo el error de truncamiento
local es O(h
k+1
), el tama˜ no de paso es h, el punto inicial es x
0
y el punto final
es x
n
, entonces el n´ umero de pasos ser´a n =
x
n
−x
0
h
y puesto que
C
1
h
k+1
+C
2
h
k+1
+ +C
n
h
k+1
= h
k+1
(C
1
+C
2
+ +C
n
) ≤
≤ h
k+1
nmax¦C
1
, C
2
, . . . , C
n
¦ = Ch
k
siendo C = (x
n
−x
0
) max¦C
1
+C
2
+ +C
n
¦, el error de truncamiento global
ser´a O(h
k
). Si un m´etodo tiene error de truncamiento global O(h
k
) decimos
que el procedimiento num´erico es de orden k. El m´etodo de Taylor usando
el desarrollo hasta grado k es un m´etodo de orden k.
El error de redondeo local es el que en cada paso es provocado por la
limitada precisi´on de nuestras m´aquinas de c´omputo, como ya se coment´o el
tema inicial del curso. El error de redondeo global es la acumulaci´on de los
errores de redondeo local en los pasos anteriores. El error total es la suma
de los errores de truncamiento global y redondeo global.
6.3 M´etodos de Runge-Kutta
Los m´etodos de Taylor tienen el inconveniente de la dificultad de c´alculo de
las sucesivas derivadas de la funci´on y(x). En los m´etodos de Runge-Kutta se
120 Cap´ıtulo 6
elimina esa dificultad. Las ideas que dan origen a este conjunto de m´etodos
se resumen en los siguientes pasos:
Paso 1. Consideramos la igualdad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
y despejamos y(x
i+1
)
y(x
i+1
) = y(x
i
) +

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
Paso 2. Realizamos el cambio de variable x = x
i
+ θh en la integral
anterior y obtenemos
y(x
i+1
) = y(x
i
) +h

1
0
f(x
i
+θh, y(x
i
+θh))dθ. (6.2)
Paso 3. Consideramos el conjunto de puntos 0 = θ
0
≤ θ
1
≤ . . . θ
m
≤ 1 del
intervalo de integraci´on [0, 1] y estimamos la integral anterior mediante una
f´ormula de cuadratura del siguiente tipo

1
0
F(θ)dθ ≈ A
0
F(θ
0
) +A
1
F(θ
1
) + +A
m
F(θ
m
)
con lo que, denotando x

j
= x
i

j
h, en la ecuaci´on (6.2) obtenemos
y(x
i+1
) ≈ y(x
i
) + h

A
0
f

x

0
, y(x

0
)

+
A
1
f

x

1
, y(x

1
)

+ + A
m
f

x

m
, y(x

m
)

. (6.3)
La f´ormula de cuadratura elegida puede variar, pero se le ha de exigir que
al menos sea exacta para las funciones constantes, lo que se traduce en que
los coeficientes han de cumplir la condici´on
A
0
+A
1
+ +A
m
= 1
El m´etodo de Runge-Kutta ser´a la f´ormula que resulta de sustituir en la ecua-
ci´on (6.3) los valores y(x
i
), y(x

0
), y(x

1
), . . . , y(x

m
) por sus valores aproxi-
mados. Si bien dispondremos en cada paso del valor y
i
que aproxima a y(x
i
),
no ocurre lo mismo con las aproximaciones de y(x

0
), y(x

1
), . . . , y(x

m
).
Ecuaciones diferenciales 121
Paso 4. En esta etapa conseguiremos obtener un algoritmo para las apro-
ximaciones aludidas en el apartado anterior. De forma similar a como se
obtuvo la ecuaci´on (6.2), llegamos a la igualdad
y(x

j
) = y(x
i
) +h

θ
j
x
i
f(x
i
+θh, y(x
i
+θh))dθ
y aplicando una f´ormula de cuadratura para cada j

θ
j
x
i
F(θ)dθ ≈ B
j
0
F(θ
0
) +B
j
1
F(θ
1
) + +B
j
j−1
F(θ
j−1
) (6.4)
a la integral anterior, se obtienen las aproximaciones buscadas
y(x

j
) ≈ y(x
i
) +h
j−1
¸
k=0
B
j
k
f(x

k
, y(x

k
)).
Las f´ormulas de cuadraturas usadas en (6.4) han de ser exactas al menos para
las funciones constantes, por lo tanto los coeficientes deben verificar
B
j
0
+B
j
1
+ +B
j
j−1
= θ
j
j = 1, . . . , m.
Paso 5. Si denotamos y

j
a una estimaci´on de y(x

j
), un m´etodo de Runge-
Kutta quedar´ıan as´ı:
y
i+1
= y
i
+h[A
0
f(x

0
, y

0
) +A
1
f(x

1
, y

1
) + +A
m
f(x

m
, y

m
)

(6.5)
siendo
y

0
= y
i
y

1
= y
i
+h

B
1
0
f(x

0
, y

0
)

y

2
= y
i
+h

B
2
0
f(x

0
, y

0
) +B
2
1
f(x

1
, y

1
)

. . .
y

m
= y
i
+h

B
m
0
f(x

0
, y

0
) +B
m
1
f(x

1
, y

1
) +. . .
+B
m
m−1
f(x

m−1
, y

m−1
)

Previamente deben fijarse los valores
0 = θ
0
≤ θ
1
≤ θ
2
≤ . . . θ
m
≤ 1
122 Cap´ıtulo 6
as´ı como los siguientes par´ametros que han de cumplir con las condiciones de
las sumas correspondientes que aparecen en el cuadro
A
0
A
1
A
2
. . . A
m
¸
m
r=0
A
r
= 1
B
1
0
B
2
0
B
m
0
B
2
1
. . . B
m
1
. . .
B
m
m−1
B
1
0
= θ
1
B
2
0
+B
2
1
= θ
2
. . .
¸
m−1
k=0
B
m
k
= θ
m
Un m´etodo como el anterior se conoce con el nombre de m´etodo de Runge-
Kutta de m+1 etapas, debido a que la f´ormula (6.5) requiere m+1 evaluaciones
de la funci´on f(x, y).
Ejemplo: Para m = 0 (una etapa), el m´etodo de Runge-Kutta que resulta
es el m´etodo de Euler.
Para m = 1 (dos etapas), podemos obtener, entre otras posibilidades, el
m´etodo de Heun:
θ
0
= 0, θ
1
= 1
A
0
= 1/2 A
1
= 1/2 A
0
+A
1
= 1
B
1
0
= 1
B
1
0
= θ
1
= 1
y
i+1
= y
i
+h[
1
2
f(x
i0
, y
i0
) +
1
2
f(x
i1
, y
i1
)

siendo
y
i0
= y
i
y
i1
= y
i
+hf(x
i
, y
i
)
con lo que
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

(6.6)
El llamado m´etodo de Euler modificado sale con la elecci´on
θ
0
= 0, θ
1
= 1/2
Ecuaciones diferenciales 123
A
0
= 0 A
1
= 1 A
0
+A
1
= 1
B
1
0
= 1/2
B
1
0
= θ
1
= 1/2
y
i+1
= y
i
+h[f(x
iθ1
, y
iθ1
)]
siendo
y
i0
= y
i
y
i1/2
= y
i
+h
1
2
f(x
i
, y
i
)
con lo que el m´etodo queda
y
i+1
= y
i
+hf

x
i
+
h
2
, y
i
+
h
2
f(x
i
, y
i
)

(6.7)
Otra elecci´on posible es
θ
0
= 0, θ
1
= 2/3
A
0
= 1/4 A
1
= 3/4 A
0
+A
1
= 1
B
1
0
= 2/3
B
1
0
= θ
1
= 2/3
y
i+1
= y
i
+h[
1
4
f(x

0
, y

0
) +
3
4
f(x

1
, y

1
)

siendo
y

0
= y
i
y

1
= y
i
+h

2
3
f(x

0
, y

0
)

con lo que el m´etodo queda as´ı
y
i+1
= y
i
+h[
1
4
f(x
i
, y
i
) +
3
4
f(x
i
+
2
3
h, y
i
+h
2
3
f(x
i
, y
i
)

El m´etodo cl´asico de Runge-Kutta es de m = 3 (cuatro etapas) definido
por los par´ametros
0 = θ
0
θ
1
= 1/2 θ
2
= 1/2 θ
3
= 1
124 Cap´ıtulo 6
A
0
= 1/6 A
1
= 1/3 A
2
= 1/3 A
3
= 1/6
¸
3
r=0
A
r
= 1
B
1
0
= 1/2 B
2
0
= 0 B
3
0
= 0
B
2
1
= 1/2 B
3
1
= 0
B
3
2
= 1
B
1
0
= 1/2 B
2
0
+B
2
1
= 1/2
¸
2
k=0
B
3
k
= 1
que da lugar a
y
i+1
= y
i
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) (6.8)
donde
K
1
= f(x
i
, y
i
) K
2
= f(x
i
+
h
2
, y
i
+
h
2
K
1
)
K
3
= f(x
i
+
h
2
, y
i
+
h
2
K
2
) K
4
= f(x
i
+h, y
i
+hK
3
)

Ejercicio: Aplica tres pasos del m´etodo cl´asico de Runge-Kutta de orden
4 con h = 1/128 para resolver la ecuaci´on
y

=
yx −y
2
x
2
y(1) = 2.
Paso 1. Partimos de x
0
= 1, y
0
= 2. Para aplicar la ecuaci´on (6.8)
previamente calculamos
K
1
= f(x
0
, y
0
) = f(1, 2) = −2 K
2
= f(x
0
+
h
2
, y
0
+
h
2
K
1
) = −1.95355
K
3
= f(x
0
+
h
2
, y
0
+
h
2
K
2
) = −1.95409
K
4
= f(x
0
+h, y
0
+hK
3
) = −1.90898.
Con estos datos obtenemos
y
1
= y
0
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.98473,
Paso 2. Partimos de x
1
= 1 +
1
128
, y
1
= 1.98473. Calculamos
K
1
= f(x
1
, y
1
) = −1.90899 K
2
= f(x
1
+
h
2
, y
1
+
h
2
K
1
) = −1.86520
K
3
= f(x
1
+
h
2
, y
1
+
h
2
K
2
) = −1.86570
K
4
= f(x
1
+h, y
1
+hK
3
) = −1.82316.
Ecuaciones diferenciales 125
Con estos datos obtenemos
y
2
= y
1
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.97016.
Paso 3. Partimos de x
2
= 1 +
2
128
, y
2
= 1.97016. Calculamos
K
1
= f(x
2
, y
2
) = −1.82311 K
2
= f(x
2
+
h
2
, y
2
+
h
2
K
1
) = −1.78186
K
3
= f(x
2
+
h
2
, y
2
+
h
2
K
2
) = −1.78231
K
4
= f(x
2
+h, y
2
+hK
3
) = −1.74215.
Con estos datos obtenemos
y
3
= y
2
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.96088.

6.3.1 Errores
Los m´etodos de Runge-Kutta tienen tambi´en su error de truncamiento global,
es decir, su orden. Existen m´etodos de Runge-Kutta de orden k con k menor
o igual que el n´ umero de etapas m + 1. Se da la igualdad para k = 1, 2, 3, 4.
Es decir, los m´etodos de Runge-Kutta de 1,2,3,4 etapas tienen orden 1,2,3,4,
respectivamente. Para conseguir orden k = 5 es necesario 6 etapas; para k = 6,
7 etapas; en general para k ≥ 7 se necesitan un n´ umero de etapas mayor o
igual que k + 2.
6.4 M´etodos multipaso
Tanto los m´etodos de Taylor como los de Runge-Kutta son m´etodos de un
paso, porque para calcular el valor aproximado y
i+1
solo se usa, adem´as de x
i
y de h, el valor aproximado anterior y
i
. Los m´etodos multipaso se caracterizan
por obtener y
i+1
a partir de los valores h, x
i
, y
i
, x
i−1
, y
i−1
, . . . , x
i−k
, y
i−k
.
Partimos siempre de la ecuaci´on
y

= f(x, y) y(x
0
) = y
0
.
Ejemplo: Un primer ejemplo sencillo de un m´etodo multipaso se puede
obtener de la siguiente forma. Sabemos que
y

(x) ≈
y(x +h) −y(x −h)
2h
126 Cap´ıtulo 6
con lo que
y(x
i
) ≈
y(x
i+1
) −y(x
i−1
)
2h
y se deduce que
y(x
i+1
) ≈ y(x
i−1
) + 2 h y

(x
i
),
lo que sugiere el m´etodo
y
i+1
= y
i−1
+ 2 h f(x
i
, y
i
).
Para poder obtener el punto y
i+1
son necesarios los dos valores anteriores y
i
,
y
i−1
. Es un m´etodo de dos pasos. Para empezar a aplicarlo tenemos que
disponer de y
0
e y
1
. Este ´ ultimo puede calcularse con un m´etodo de un paso.

El que sigue es un proceso para obtener un conjunto de m´etodos multipasos.
Partimos de la relaci´on
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx,
y aplicamos el cambio de variable x = x
i
+θh
y(x
i+1
) −y(x
i
) = h

1
0
f(x
i
+θh, y(x
i
+θh))dθ.
Aproximamos la integral anterior por una f´ormula de cuadratura

1
0
F(θ)dθ = A
0
F(θ
0
) +A
1
F(θ
1
) + +A
k
F(θ
k
) (6.9)
y nos queda
y(x
i+1
) −y(x
i
) ≈ h

A
0
f(x
i

0
h, y(x
i
+θh))+
+A
1
f(x
i

1
h, y(x
i
+θh))+
+ +A
k
f(x
i

k
h, y(x
i

k
h))

(6.10)
lo cual sugiere un m´etodo que resultar´a de sustituir los valores de la funci´on
por valores aproximados.
Ecuaciones diferenciales 127
Ejemplo: Deduzcamos el m´etodo de orden 2
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

(6.11)
Si en la f´ormula de cuadratura (6.9) tomamos los puntos
θ
0
= 0 θ
1
= −1
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
1
= −
1
2
y la soluci´on del sistema anterior es A
0
=
3
2
y A
1
= −
1
2
. Sustituyendo en
(6.10) nos queda
y(x
i+1
) −y(x
i
) ≈ h

3
2
f(x
i
, y(x
i
)) −
1
2
f(x
i−1
, y(x
i−1
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
Para aplicar la f´ormula (6.11) necesitamos dos puntos iniciales y
0
, y
1
, y solo
disponemos del valor y
0
= 2. Es habitual calcular los puntos necesarios para
empezar mediante un m´etodo de un paso del mismo orden. Usamos el m´etodo
de Euler modificado (ver ecuaci´on (6.7)), que es un m´etodo de Runge-Kutta
de orden 2:
y
1
= y
0
+hf

x
0
+
h
2
, y
0
+
h
2
f(x
0
, y
0
)

= 1.98474.
128 Cap´ıtulo 6
Ya disponemos de y
0
e y
1
y podemos calcular y
2
aplicando (6.11)
y
2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0

= 1.97018.
Con y
1
e y
2
podemos calcular y
3
y
3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1

= 1.95627.
Y as´ı sucesivamente.

6.4.1 F´ ormulas de Adams-Bashforth
Un m´etodo multipaso de la forma
y
i+1
= y
i
+A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) + +A
k−1
f(x
i−k+1
, y
i−k+1
)
es una f´ormula de Adams-Bashforth de k pasos y orden k. Estos m´etodos
se encuadran dentro de los m´etodos multipaso expl´ıcitos, debido a que la
definici´on de y
i+1
es expl´ıcita en funci´on de los valores anteriores, a diferencia
de los m´etodos impl´ıcitos que veremos en es siguiente apartado. Estos son
algunos ejemplos de f´ormulas de Adams-Bashforth:
1. de orden 2:
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

2. de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

3. de orden 5:
y
i+1
= y
i
+
h
720

1901f(x
i
, y
i
) −2774f(x
i−1
, y
i−1
)+
+ 2616f(x
i−2
, y
i−2
) −1274f(x
i−3
, y
i−3
) + 251f(x
n−4
, y
n−4
)

Todas ellas se pueden obtener siguiendo el proceso descrito en la p´agina
126. Dado que en dicho proceso se utiliza el cambio de variable x = x
i
+θ h,
si en la f´ormula final (6.10) deseo que aparezca la funci´on f(x, y) valorada en
los puntos
Ecuaciones diferenciales 129
x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ
0
= 0, θ
1
= −1, ..., θ
k−1
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Bashforth de k pasos necesitaremos
los valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo
de un paso del mismo orden.
6.4.2 F´ ormulas de Adams-Moulton
Un m´etodo multipaso de la forma
y
i+1
= y
i
+Bf(x
i+1
, y
i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
)
(6.12)
es una f´ormula de Adams-Moulton de k pasos y orden k + 1. Estos m´etodos
se encuadran dentro de los m´etodos multipaso impl´ıcitos, debido a que en
la f´ormula aparece el valor y
i+1
definido de forma impl´ıcita. Al igual que
las f´ormulas de Adams-Bashforth, las f´ormulas de Adams-Moulton se pueden
obtener siguiendo el proceso descrito en la p´agina 126. Dado que en dicho
proceso se utiliza el cambio de variable x = x
i
+ θ h, si en la f´ormula final
(6.10) deseo que aparezca la funci´on f(x, y) valorada en los puntos
x
i+1
, x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ = 1, θ
0
= 0, θ
1
= −1, ..., θ
k
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Moulton de k pasos necesitaremos los
valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo de
un paso del mismo orden.
Supongamos que disponemos de los valores y
i
, y
i−1
, ..., y
i−k+1
. ¿C´omo
calcular y
i+1
mediante la f´ormula (6.12)? Se puede hacer de dos formas:
130 Cap´ıtulo 6
1. M´etodo predictor-corrector. Se estima un primer valor predictor y

i+1
mediante una f´ormula de Adams-Bashforth del mismo orden y despu´es se
calcula el valor corrector y
i+1
aplicando
y
i+1
= y
i
+Bf(x
i+1
, y

i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
2. M´etodo iterativo de punto fijo. En la f´ormula (6.12) todos los t´erminos
de la parte derecha de la igualdad son datos excepto y
i+1
. En este sentido,
y
i+1
es un punto fijo de la funci´on
Φ(t) = y
i
+Bf(x
i+1
, t) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
En consecuencia, y
i+1
lo podemos obtener como l´ımite de la sucesi´on
t
0
= y

i+1
, t
n
= Φ(t
n−1
) n ≥ 1
siendo y

i+1
un valor inicial que se recomienda obtener mediante la f´ormula
de Adams-Bashforth del mismo orden. En la pr´actica, es suficiente dos o tres
iteraciones para conseguir un valor aceptable de y
i+1
.
Ejemplo: Deduzcamos la f´ormula de Adams-Moulton de orden dos
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i
)

(6.13)
Aplicaremos el proceso descrito en la p´agina 126. Si en la f´ormula de
cuadratura (6.9) tomamos los puntos
θ
0
= 1 θ
1
= 0
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
0
=
1
2
Ecuaciones diferenciales 131
y la soluci´on del sistema anterior es A
0
=
1
2
y A
1
=
1
2
. Sustituyendo en (6.10)
nos queda
y(x
i+1
) −y(x
i
) ≈ h

1
2
f(x
i+1
, y(x
i+1
)) +
1
2
f(x
i
, y(x
i
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
El m´etodo a aplicar es de orden 2 y 1 paso, por lo que solo necesitamos el
valor y
0
para empezar. Para estimar el resto de valores podemos optar por el
m´etodo predictor-corrector o por el m´etodo iterativo de punto fijo.
1. M´etodo predictor. Calculamos un valor predictor y

1
. Si es posible,
debe calcularse con una f´ormula de Adams-Bashforth del mismo orden, en
este caso la f´ormula (6.11) que es de orden dos. Sin embargo, para aplicar
(6.11) necesitamos los dos puntos iniciales y
0
e y
1
, con lo que en este primer
paso no podemos hacer uso de ella. Calculamos y

1
mediante otro m´etodo, por
ejemplo, por Runge-Kutta de orden 2 (ver 6.6):
y

1
= y
0
+h

1
2
f(x
0
, y
0
) +
1
2
f(x
1
, y
0
+hf(x
0
, y
0
))

= 1.98474
Con este valor, calculamos el valor corrector con Adams-Moulton
y
1
= y
0
+h

1
2
f(x
1
, y

1
) +
1
2
f(x
0
, y
0

= 1.98473.
Para calcular y
2
, primero calculo el valor predictor y

2
con Adams-Bashforth
de orden 2 (f´ormula (6.11))
y

2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0
)

= 1.97017
132 Cap´ıtulo 6
y despu´es calculo el corrector con Adams-Moulton
y
2
= y
1
+h

1
2
f(x
2
, y

2
) +
1
2
f(x
1
, y
1

= 1.97015.
En el siguiente paso calculo el predictor y

3
con Adams-Bashforth
y

3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1
)

= 1.95624
y despu´es calculo el corrector con Adams-Moulton
y
3
= y
2
+h

1
2
f(x
3
, y

3
) +
1
2
f(x
2
, y
2

= 1.95622.
El proceso anterior se repite para calcular el resto de valores.
2. M´etodo iterativo de punto fijo. Dada la funci´on
Φ
1
(t) = y
0
+h

1
2
f(x
1
, t) +
1
2
f(x
0
, y
0
)

el valor y
1
que buscamos verifica
Φ
1
(y
1
) = y
1
.
Es, por tanto, un punto fijo de la ecuaci´on
Φ
1
(t) = t.
Para localizarlo generamos una sucesi´on iterativa comenzando por un valor y

1
obtenido, si es posible, por Adams-Bashforth del mismo orden. En este caso
no es posible aplicar Adams-Bashforth puesto que se necesitar´ıa dos puntos
iniciales que no tenemos. Calculamos y

1
mediante Runge-Kutta de orden 2
(y

1
= 1.98474) y generamos la sucesi´on iterativa:
t
0
= y

1
= 1.98474
t
1
= Φ
1
(1.98474) = 1.98473
t
2
= Φ
1
(1.98473) = 1.98473
De forma que tomamos y
1
= 1.98473.
y
2
es un punto fijo de
Φ
2
(t) = y
1
+h

1
2
f(x
2
, t) +
1
2
f(x
1
, y
1
)

Ecuaciones diferenciales 133
que localizamos mediante la sucesi´on iterativa similar a la anterior que co-
mienza en y

2
= 1.97017, que a su vez es obtenido por Adams-Bashforth de
orden 2
t
0
= y

2
= 1.97017
t
1
= Φ
2
(1.97017) = 1.97015
t
2
= Φ
2
(1.97015) = 1.97015
Tomamos y
2
= 1.97015. Y repetimos el proceso para el resto de valores.

Ejercicio:
1. Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
2. Repite el apartado anterior para la f´ormula de Adams-Moulton de orden
4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

Ejercicio: Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del si-
guiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.

Problemas
Ecuaciones no lineales
1. Dada la ecuaci´on

xsen(x) −x
3
+ 2 = 0
encuentra una aproximaci´on de una ra´ız
(a) Con el m´etodo de la bisecci´on con un error menor que 1/30.
(b) Con 4 iteraciones del m´etodo de Newton-Raphson.
2. Determina un intervalo y una funci´on para aplicar el m´etodo del punto
fijo a las siguientes ecuaciones:
(a) x
3
−x −1 = 0
(b) 4 −x −tg(x) = 0
Realiza 4 iteraciones del m´etodo y determina en cada caso una cota del
el error cometido.
3. Se considera la ecuaci´on x
2
−1 −sen(x) = 0.
(a) Prueba que dicha ecuaci´on tiene, al menos, una ra´ız positiva.
(b) Encuentra un intervalo en el cual la iteraci´on
x
n
=

1 +sen(x
n−1
) x ∈ N
converja, para cualquier valor inicial x
0
de dicho intervalo, a una
ra´ız positiva de la ecuaci´on anterior. ¿Cu´antos pasos deben darse,
a partir de x
0
= π/2, para obtener una aproximaci´on de la ra´ız con
un error inferior a una mil´esima?
135
136 Problemas
4. Demuestra que la ecuaci´on
e
x
L(x) +x
3
−2 = 0
tiene una ´ unica ra´ız positiva. Aplica el m´etodo de Newton-Raphson para
encontrar una aproximaci´on a la ra´ız. Realiza iteraciones hasta que se
repitan las primeros cuatro decimales.
5. Determina un intervalo y una funci´on para poder aplicar el m´etodo del
punto fijo a las siguientes ecuaciones:
(a) x −L(1 +x) −0.2 = 0.
(b) x = −L(x).
Calcula una aproximaci´on a la soluci´on con un error inferior a 10
−5
.
6. Se considera la funci´on
F(x) = e
−x
−sen(x) −2.
(a) Demuestra que F(x) < 0 si x ≥ 0.
(b) Prueba que la ecuaci´on F(x) = 0 tiene una ´ unica ra´ız negativa.
(c) Determina un intervalo donde se pueda aplicar el m´etodo de Newton-
Raphson para aproximar dicha ra´ız, as´ı como los 4 primeros t´erminos
de la sucesi´on definida mediante dicho m´etodo. Calcula una cota
del error cometido.
7. Dada la funci´on f(x) = e
x
−3x
2
,
(a) Localiza un intervalo que contenga una soluci´on de f(x) = 0. Enun-
cia el resultado te´orico que utilices.
(b) Encuentra, aplicando el m´etodo del punto fijo con cuatro iteracio-
nes, una aproximaci´on de un valor donde se anule la derivada de
f(x) y una cota del error cometido.
8. Dada la ecuaci´on x = arctg(x+1), aplica el m´etodo de la bisecci´on para
encontrar una soluci´on con un error menor que 1/10.
9. Calcula tres iteraciones del m´etodo de la secante para encontrar una ra´ız
de la ecuaci´on
cos(x) −x = 0
en el intervalo [0.5, π/4]
Problemas 137
10. Dada la ecuaci´on 2cos(2x) + 4x −k = 0,
(a) Determina el valor de k para que la ecuaci´on tenga una ´ unica ra´ız
triple en el intervalo [0, 1].
(b) Para k = 3, prueba que posee una ´ unica ra´ız simple en el intervalo
[0, 1] y calc´ ulala con el m´etodo de Newton con un error menor que
10
−3
.
11. Dado el polinomio P(x) = x
4
−4x
3
+ 7x
2
−5x −2
(a) Utiliza la sucesi´on de Sturm para separar las ra´ıces del polinomio.
(b) Utiliza el m´etodo de Newton-Raphson para encontrar una aproxi-
maci´on de la ra´ız real de P(x) de menor valor absoluto.
12. Dado el polinomio P(x) = 8x
3
− 20x
2
− 2x + 5, utiliza su sucesi´on
de Sturm para separar sus ra´ıces en intervalos disjuntos. Encuentra
aproximaciones de las ra´ıces con un error menor que 10
−3
.
13. Dado la ecuaci´on x
4
−7x
3
+ 18x
2
−20x + 8 = 0:
(a) Demuestra con el teorema de Bolzano que tiene una soluci´on en el
intervalo [1.5, 3]. y utiliza el m´etodo de Newton para encontrar una
aproximaci´on con error menor que 10
−6
(b) Utiliza la sucesi´on de Sturm para separar las distintas ra´ıces del
polinomio.
14. Cuesti´on de examen de febrero de 2004:
Dada la ecuaci´on x
2
−e
2x
= −1/2,
(a) Demuestra que tiene una ´ unica soluci´on en el intervalo [−2, 0].
(b) Encuentra una aproximaci´on a la soluci´on mediante tres iteraciones
del m´etodo del punto fijo partiendo del punto x
0
= −1.5
15. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = cos(x) −x,
(a) Calcula el n´ umero de pasos necesarios para encontrar una ra´ız de
f(x) con un error menor que 10
−2
con el m´etodo de la bisecci´on
en el intervalo [0.5, π/4]. Aplica el m´etodo con el n´ umero de pasos
calculado.
138 Problemas
(b) Aplica tres iteraciones del m´etodo de la secante para encontrar una
ra´ız de f(x) en el intervalo [0.5, π/4].
16. Cuesti´on de examen de septiembre de 2004:
Dado el polinomio P(x) = −x
3
+x
2
−2x + 5,
(a) Utiliza el m´etodo de Sturm para separar las ra´ıces en intervalos
disjuntos.
(b) Empezando con x = 6 aplica un paso del m´etodo de Newton ha-
ciendo uso del algoritmo de Horner.
Problemas 139
Sistemas de ecuaciones lineales
17. Para el conjunto de ecuaciones.
7x
1
−3x
2
+ 8x
3
= −49
x
1
−2x
2
−5x
3
= 5
4x
1
−6x
2
+ 10x
3
= −84
a) Calcula la inversa de la matriz de los coeficientes haciendo uso de
las operaciones fundamentales. b) Utiliza la inversa para obtener las
soluciones del sistema. c) Calcula el n´ umero de condici´on de la matriz
con las distintas normas que conozcas.
18. Dado el sistema de ecuaciones
0.5x
1
−x
2
= −9.5
0.28x
1
−0.5x
2
= −4.72
a) Resu´elvelo por Gauss. b) Sustituye a
11
por 0.55 y resu´elvelo de nuevo.
c) Interpreta los resultados anteriores en t´erminos del condicionamiento
del sistema. d) Calcula el n´ umero de condici´on de la matriz del sistema
con la norma infinito.
19. Dado el sistema
−12x
1
+x
2
−7x
3
= −80
x
1
−6x
2
+ 4x
3
= 13
−2x
1
−x
2
+ 10x
3
= 92
a) Resu´elvelo por eliminaci´on gaussiana simple usando d´ıgitos con dos
cifras decimales. b) Encuentra las matrices triangular inferior L, trian-
gular superior U y de permutaciones P tal que PA = LU, siendo A la
matriz de los coeficientes. c) Sustituye los resultados en las ecuaciones y,
si es necesario, utiliza el m´etodo del refinamiento iterativo para mejorar
la soluci´on.
20. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´on
gaussiana con pivoteo parcial empleando d´ıgitos con dos decimales. b)
Encuentra las matrices P, L y U tal que PA = LU como en el ejercicio
anterior. c) Comprueba los resultados, y si no son exactos, emplea el
refinamiento iterativo para mejorar la soluci´on.
140 Problemas
1).
4x
1
+ 5x
2
−6x
3
= 28
2x
1
−7x
3
= 29
−5x
1
−8x
2
= −64
2).
3x
2
−13x
3
= −50
2x
1
−6x
2
+x
3
= 44
4x
1
+ 8x
3
= 4
21. Dado el sistema

¸
3 2 100
−1 3 100
1 2 −1
¸

¸
x
1
x
2
x
3
¸

=

¸
105
102
2
¸

resu´elvelo mediante descomposici´on LU de Gauss: a) sin escalamiento y
b) con escalamiento previo de filas.
22. Dados
A =

¸
4 −3 0
2 2 3
6 1 −6
¸

b =

¸
−7
−2
6
¸

b

=

¸
14
9
−8
¸

resuelve Ax = b y Ax = b

mediante una descomposici´on LU de Gauss.
Utiliza 3 decimales en los c´alculos.
23. Resuelve el sistema siguiente mediante descomposici´on LU:
−4x
1
+ 2x
2
= 0
x
1
−4x
2
= −4
x
2
−4x
3
+x
4
= −11
x
3
−4x
4
+x
5
= 5
2x
4
−4x
5
= 6
24. Resuelve el sistema

¸
¸
¸
4 −1 −1 0
−1 4 0 −1
−1 0 4 −1
0 −1 −1 4
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
−4
0
4
−4
¸

mediante la descomposici´on de Cholesky. ¿Es la matriz de los coeficientes
definida positiva?
Problemas 141
25. Dado el sistema

¸
2 0 −1
−2 −10 0
−1 −1 4
¸

¸
x
1
x
2
x
3
¸

=

¸
1
−12
2
¸

comprueba si se cumple alguna de las condiciones suficientes para que
funcionen los m´etodos de Jacobi y Gauss-Seidel. Si se cumplen, realiza
dos iteraciones para cada m´etodo tomando como valor inicial (0, 0, 0).
26. Repite el ejercicio anterior para el sistema
x
1
−2x
2
= −1
3x
1
+x
2
= 4
Intenta resolver el sistema con los m´etodos de Jacobi y Gauss-Seidel
haciendo alg´ un peque˜ no cambio en las ecuaciones.
27. Cuesti´on de examen de febrero de 2004:
Aplica el m´etodo de Jacobi a la resoluci´on del sistema:
7x −y + 4z = 8
3x −8y + 2z = −4
4x +y −6z = 3
empleando 3 iteraciones y partiendo del punto (0, 0, 0). ¿Es convergente
el m´etodo?
28. Cuesti´on de examen de junio de 2004:
Resuelve por el m´etodo de Cholesky el sistema de ecuaciones:
x
1
+ 2x
2
+ 3x
3
= 7
2x
1
+ 5x
2
+ 4x
3
= 9
3x
1
+ 4x
2
+ 14x
3
= 33
29. Cuesti´on de examen de septiembre de 2004:
Resuelve el siguiente sistema dos veces. Primero, utilizando la elimina-
ci´on gaussiana simple y encontrando la factorizaci´on A = LU. Despu´es,
utilizando la eliminaci´on gaussiana con pivoteo y encontrando la facto-
rizaci´on PA = LU.
−x
1
+x
2
−4x
3
= 0
2x
1
+ 2x
2
= 1
3x
1
+ 3x
2
+ 2x
3
=
1
2
142 Problemas
Aproximaci´ on de funciones. Interpolaci´ on
30. De la funci´on f(x, t) que representa una onda que se desplaza sobre el
plano se conocen cinco posiciones en un determinado instante:
(−1, 0), (−0.5, −1), (0, 0), (0.5, 1), (1, 0).
(a) Encuentra un polinomio que pase por esos puntos.
(b) Encuentra una funci´on formada por trozos de recta que pase por
esos puntos.
(c) Sabiendo que las derivadas de f(x) en el mismo instante en los
puntos −1, −0.5, 0, 0.5 y 1 son −π, 0, π, 0 y −π, calcula un polinomio
que cumpla todas las condiciones.
(d) Calcula el spline natural para ese conjunto de datos.
31. ¿Cu´al es el polinomio interpolador de f(x) = x
3
−2x −5 en los puntos
−0, 1, 2, 4.?
32. Se ha estudiado el proceso de recepci´on de informaci´on de un ordenador
y se ha observado que en los instantes 0, 1, 2 medidos en segundos, la
cantidad de informaci´on recibida era 0, 51, 104 megabites y se recib´ıa
a una velocidad de 0, 52, 54 megabites por segundo, respectivamente.
Encuentra una funci´on que se aproxime a la que representa el proceso.
33. Dada la funci´on f(x) = e
x
y los puntos 0, 1, 2.,
(a) Encuentra su polinomio de interpolaci´on en los puntos y estima el
error cometido.
(b) Repite el apartado anterior con los nodos de Chebyshev en el inter-
valo [0, 2].
(c) Encuentra una funci´on lineal a trozos que se aproxime a f(x) en
los puntos dados.
(d) Encuentra un polinomio que interpole a f(x) y a sus derivadas en
los puntos dados.
(e) Calcula el spline natural en los puntos dados.
34. La funci´on f(x) = L(x) se ha evaluado en varios puntos, obteni´endose
lo siguientes datos:
Problemas 143
x
0
= 1 f(x
0
) = 0
x
1
= 4 f(x
1
) = 1.3863
x
2
= 6 f(x
2
) = 1.7918
(a) Util´ıcense los datos anteriores para calcular el polinomio de inter-
polaci´on y el spline natural. Est´ımese el valor de L(2).
(b) Agregando un cuarto punto x
3
= 5, f(x
3
) = 1.6094, h´aganse de
nuevo los c´alculos y estimaciones.
35. Calculando los valores de la funci´on f(x) =

x en 1,4 y 9,
(a) Halla el polinomio interpolador de grado menor o igual que 2 por
el m´etodo de Newton que pase por esos puntos.
(b) Halla el polinomio interpolador en los nodos de Chebyshev en [1,9].
(c) Aplica el m´etodo de Hermite en los puntos iniciales y en sus deri-
vadas.
(d) Calcula el spline natural.
36. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = e
x
, determina los cuatro nodos de Chebyshev en
[0, 1], el polinomio interpolador en dichos nodos y un valor aproximado
de e
0.5
mediante dicho polinomio. Realiza los c´alculos con 4 decimales.
Polinomios de Chebysev: T
0
(x) = 1, T
1
(x) = x, T
n+1
(x) = 2xT
n
(x) −
T
n−1
(x).
37. Cuesti´on de examen de septiembre de 2004:
Determina si la funci´on
f(x) =

1 +x −x
3
si x ∈ [0, 1]
1 −2(x −1) −3(x −1)
2
+ 4(x −1)
3
si x ∈ [1, 2]
4(x −2) + 9(x −2)
2
−3(x −2)
3
si x ∈ [2, 3]
es el spline c´ ubico natural que interpola a los puntos de la tabla:
x 0 1 2 3
y 1 1 0 10
144 Problemas
Diferenciaci´ on e integraci´ on num´erica
38. De la funci´on f(x) = e
x
−2x
2
+ 3x −1 se obtienen los siguientes datos:
x 0.0 0.2 0.4 0.6
f(x) 0.00000 0.74140 1.3718 1.9021
(a) Utilizando la f´ormula m´as adecuada de entre las siguientes:
f

(x) =
f(x+h)−f(x)
h
f

(x) =
f(x+h)−f(x−h)
2h
f

(x) =
f(x+h)−2f(x)+f(x−h)
h
2
,
calcula valores aproximados de la primera y segunda derivadas de
los puntos.
(b) Calcula los errores reales y las cotas de error por medio de las
f´ormulas de error para las estimaciones anteriores.
(c) Encuentra una aproximaci´on de f

(0.2) haciendo uso de la interpo-
laci´on de la funci´on en los cuatro puntos.
(d) Sabiendo que f(−0.2) = −0.861267, aplica la interpolaci´on de Ri-
chardson para calcular una aproximaci´on de f

(0.2).
39. De una funci´on f(x) se tienen los siguientes datos:
x 0.0 0.5 1 1.5 2 2.5 3
f(x) 2.25 3.75 5 6 5.5 6 7.25
Calcula un valor aproximado de

3
0
f(x)dx utilizando los siguientes m´etodos:
(a) Trapecios.
(b) Simpson 1/3.
(c) Simpson 3/8.
(d) Trapecios compuestos.
(e) Simpson compuesto.
(f) Romberg.
40. Determina el n´ umero de subintervalos que deben tomarse para aproximar
el valor de la integral

1
0.5
cos(

x)dx con un error menor que
1
2
10
−2
(a) con el m´etodo de los trapecios compuesto,
Problemas 145
(b) con el m´etodo de Simpson compuesto.
41. Repite el ejercicio anterior para
(a)

2
1
Ln(x)dx (b)

3
2
e
x
x
dx
42. Calcula

1
0
sen(x
2
)dx:
(a) con un error menor que 10
−2
con el m´etodo de los trapecios com-
puestos
(b) con un error menor que 10
−2
con el m´etodo de Simpson compuesto,
(c) con el algoritmo de Romberg hasta R(4, 4),
(d) con el m´etodo de cuadratura adaptativa con nivel de tolerancia
10
−3
.
43. Repite el ejercicio anterior con

2
1
e
1/x
dx.
44. (a) Calcula la integral

1
0
sen(x
2
)dx mediante cuadratura gaussiana de
dos t´erminos.
(b) Plantea c´omo resolver el problema de calcular la

1
0
sen(x
2
)dx me-
diante cuadratura gaussiana de tres t´erminos. Calcula la integral
sabiendo que los nodos (t
i
) en este caso son las ra´ıces del polinomio
5x
3
−3x
2
.
45. Aplica alg´ un m´etodo de integraci´on num´erica para resolver las siguientes
integrales:
(a)

1
0
sen(x)
x
dx (b)

1
−1
cos(x)−e
x
sen(x)
dx (c)


1
(xe
x
)
−1
dx.
46. Determina los valores de A, B y C que hagan que la f´ormula

2
0
xf(x) ≈ Af(0) +Bf(1) +Cf(2)
sea exacta para todos los polinomios de grado tan alto como sea posible.
¿Cu´al es el grado m´aximo?
47. Eval´ ua la integral de x
3
sen(x) entre x = 0 y x = 2 usando un valor de
tolerancia inferior a 0.1% de la respuesta verdadera (3.791197).
146 Problemas
48. Cuesti´on de examen de febrero de 2004:
Dada la funci´on f(x) = L(x) calcula

3
2
L(x)dx empleando el m´etodo de
cuadratura de Gauss con tres t´erminos y sabiendo que los polinomios de
Legendre se calculan as´ı:
L
0
(x) = 1, L
1
(x) = x,
L
n+1
(x) =
(2n+1)xL
n
(x)−nL
n−1
(x)
n+1
∀ n ≥ 1.
49. Cuesti´on de examen de junio de 2004:
Encuentra los coeficientes A
0
, A
1
, A
2
y A
3
para que la f´ormula

3
−1
f(x)dx = A
0
f(−1) +A
1
f(0) +A
2
f(1) +A
3
f(2)
sea exacta para los polinomios de grado menor o igual que 3 y calcula
un valor aproximado de

3
−1
(x
3
+x)dx haciendo uso de dicha f´ormula.
50. Cuesti´on de examen de septiembre de 2004:
Encuentra los coeficientes A
1
y A
2
para que la f´ormula


0
f(x)dx = A
1
f(0) +A
2
f(π)
sea exacta para cualquier funci´on que tenga la forma a +b cos(x).
Calcula


0
2 + 3 cos(x)dx haciendo uso de dicha f´ormula.
Problemas 147
Resoluci´ on num´erica de ecuaciones diferenciales
ordinarias
51. Cuesti´on de examen de junio de 2004:
Aplicando el m´etodo de Taylor de grado 2 con dos pasos, calcula valores
aproximados de y(0.1) y y(0.2), sabiendo que
y

+ 2y = x
2
+ 2x y(0) = 1
52. Cuesti´on de examen de febrero de 2005:
Resuelve la ecuaci´on y

= y
2
− t
2
+ 1, y(0) = 0.5, siendo 0 ≤ t ≤ 1.2,
mediante el m´etodo de Taylor de grado 2 con 5 pasos.
53. (a) Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
(b) Repite el apartado anterior para la f´ormula de Adams-Moulton de
orden 4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

54. Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del
siguiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.
148 Problemas
55. Aplica el m´etodo cl´asico de Runge-Kutta para estimar 10 valores apro-
ximados de la soluci´on de la ecuaci´on siguiente en el intervalo [0, 1]
y

+ 2y = x
2
+ 2x y(0) = 1
56. A partir de la identidad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx
deduce el m´etodo de Runge-Kutta de orden 2
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

´ Indice
Introducci´n o 1 Errores, redondeo, estabilidad, condicionamiento. o 1.1 Cifras significativas. Exactitud y precisi´n. Errores. 1.2 C´lculos estables e inestables. Condicionamiento. . . a 1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . 1.2.2 Condicionamiento . . . . . . . . . . . . . . . 1.3 Aritm´tica de la computadora . . . . . . . . . . . . . e 1.3.1 Aritm´tica de punto flotante. . . . . . . . . . e 1.3.2 Operaciones con computadoras . . . . . . . . 1.3.3 Epsilon de la m´quina . . . . . . . . . . . . . a 2 Resoluci´n de ecuaciones no lineales o 2.1 M´todo de la bisecci´n . . . . . . . . . . . . . . . . . e o 2.1.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.1.2 Convergencia del m´todo . . . . . . . . . . . e 2.1.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.1.4 Variaciones del m´todo: Regula Falsi . . . . . e 2.2 M´todo de Newton-Raphson . . . . . . . . . . . . . . e 2.2.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.2.2 Convergencia del m´todo . . . . . . . . . . . e 2.2.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.2.4 Variaciones del m´todo: M´todo de la secante e e 2.3 M´todo iterativo de punto fijo . . . . . . . . . . . . . e 2.3.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.3.2 Convergencia del m´todo . . . . . . . . . . . e 2.3.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.4 Ra´ ıces de polinomios . . . . . . . . . . . . . . . . . . 2.4.1 Separaci´n de ra´ o ıces. Sucesi´n de Sturm. . . o 3 7 9 9 12 12 12 13 13 15 16 17 19 19 19 20 21 22 22 23 24 27 28 28 29 30 32 34

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . .4. .4. . . . . . . . . . . . . . . . . 55 . . .4. . . o . . . . .4 2. . . . . . . . . . . . .2 Error del polinomio interpolador . . . . . .2 M´todo de Gauss-Seidel . . . 45 . . 68 . . . o 4. .3 Sistemas triangulares . . . Ra´ ıces m´ltiples . . .6 M´todos iterativos .1. . . . . e 4. . . . . . . . . 53 . . . a u o 3. . . . . 69 71 71 73 73 74 75 78 78 79 4 Aproximaci´n de funciones o 4. . 66 . . . . . . . . 55 . . 47 . . . . . . . . . . . . . .1 M´todo de Crout .1 Diferenciaci´n num´rica y extrapolaci´n de Richarson . . . . . . . . . .3. 3. . . . . . 3. . e 3. . 62 . o o 3. . . . . . . . . . . . . . . . . . . . . .5. Polinomios de Chebyshev . . . . . . . . . e 4. . . . 57 . . . . . . . . . . . . . . . . . . . . .1 N´mero condici´n de una matriz . . . . .2 M´todo de Gauss con pivoteo . e 3. . .3. 87 o e o 5. . . .2. . . . . . . .2 M´todo de Newton . 3. .1 Construcci´n del polinomio interpolador . . . . . . . . .1 Interpolaci´n a trozos . . 55 . . . . . . . . . .1 M´todo de Gauss . . .3. . . . . . . . . . . 63 . . . . . . . . .3 Interpolaci´n a trozos y con condiciones sobre la derivada o 4. . . . . . .6. . . . .1 Diferenciaci´n mediante interpolaci´n . . .2. . . . . e 3. . .3.3 Factorizaci´n LU. . . . . . .2 Escalamiento .2 Resoluci´n de sistemas de ecuaciones lineales: o 3.6.1 Valores propios y vectores propios . . . . . . 49 . . . . . . . . . . . . . . 3.1 Elecci´n de nodos. . . . o 4. . .1. . . . . . . .1 M´todo de Jacobi . . . . . . . . . . . . . . . . . . . .1 Refinamiento iterativo . . . . . .2 Matriz definida . . . . . . . . . . . . . . . . . . .5 Mejora de soluciones . . . . .1. . . . . . . . . . . . . . . 3. . 90 o o .1 Algebra de matrices . . 60 .3 2. . . . 45 m´todo de Gauss 46 e . . . 62 . 64 . 3. . . .1.3 M´todos de relajaci´n . . e 3. . . . . . . . . . . . e 3. . . . . e 3. . . . . . e 3. . . . . .6. . . . .3. . .5. . . . . . 4. . . . . . e o 41 . . . . . .4 Normas y an´lisis del error . . . Factorizaci´n de Cholesky .4. .2. . . . . 3. .1. . . . . . . . . . . . 5 Diferenciaci´n e integraci´n num´rica o o e 87 5. .2 2. . 3. . . . . . . o ıces Ra´ ıces de polinomios con el algoritmo de Horner . . . . 41 . . .2 M´todo de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . .1 M´todo de Lagrange . . . . . . . . .4 ´ INDICE Acotaci´n de ra´ . . .2 Interpolaci´n con condiciones sobre la derivada . . . o 4. . u 37 38 39 3 Sistemas Lineales ´ 3. . . . . . . .

. . .2. . . . . . . .3. . . . . . . . . . . . . . . . . . 5.4. . . . . . . . . .´ INDICE 5 5. . . . . . . . . . . . .2. o e o 5. e 6. . . . . . . . . . . . . . . . . . . . . .2 Regla de Simpson . . . . . . . .1 Existencia y unicidad de soluciones . . . . . . . .1 Errores . . . . . . . . . . . . . . .2 M´todo de la serie de Taylor .4. . . 5. . . . . . . . . . . . . . o Integraci´n num´rica mediante interpolaci´n . . . .3 Reglas compuestas . . . . . . . . . . . . . o Cuadratura adaptativa . . 6. . . 6. . . . . . . o Problemas . . . . . . . . . . . .2. . . . . .4 M´todo de los coeficientes indeterminados e Cuadratura gaussiana . . . .1 F´rmulas de Adams-Bashforth . . . . . e 6. .3 M´todos de Runge-Kutta . . . . . . 6. . . e 6. .2. . . . . .5 6 Resoluci´n num´rica de ecuaciones diferenciales o e 6. . . . . e 6. . .4 5. . 92 96 97 98 99 101 102 104 107 113 113 115 118 118 119 125 125 128 129 135 5. . . . . . . . . . . . . .2 F´rmulas de Adams-Moulton . . . . . . . . . . . . . . . . . . . . . . .2. . . Integraci´n de Romberg . . . . . o 6. 5. . . . . . . . .2 Extrapolaci´n de Richarson . . . . . . .1 Regla del trapecio . . . .4 M´todos multipaso . .3 5. . . . . . . . . . . . .1 M´todo de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Errores . . .2. . .2 5. . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.

Se ir´ reformando a medida a que se detecten fallos o se modifique el contenido para mejorarlo. Pedro Mart´ ın. Espero que os sirva. 7 .Introducci´n o El texto que sigue no es definitivo ni exhaustivo. Debeis emplearlo como una ayuda para preparar la asignatura An´lisis Matem´tico I a a y como complemento de las notas que tomeis en clase.

.

a o Se trabaja. βj ∈ 0. . . con αi . 2. . . por tanto. 1. u u Cualquier n´mero real x puede representarse en forma decimal con un n´mero finito o infinito de d´ ıgitos: x = αm αm−1 . α1 α0 . El C´lculo Num´rico consiste en desarrollar m´todos para encontrar soluciones a e e lo m´s aproximadas posibles a la verdadera soluci´n de un cierto problema. 9 . . . condicionamiento. .1 Cifras significativas. . . Exactitud y precisi´n.Cap´ ıtulo 1 Errores. . estabilidad. con n´meros aproximados en lugar de n´meros exactos. . 1. La significau o o ci´n de una cifra depende del contexto y no solo de la expresi´n decimal en la que aparece. u u por lo que se utilizan aproximaciones con un n´mero finito de decimales. 9 Con la expresi´n anterior queremos representar que o x = αm 10m +αm−1 10m−1 +· · ·+α1 10+α0 100 +β1 10−1 +β2 10−2 +· · ·+βn 10−n +. βn . redondeo. β1 β2 . El concepto de cifra significativa intenta trasmitir la idea de cuando una cifra que aparece en la expresi´n decimal trasmite informaci´n o o ”esencial”y ”de fiar”sobre el n´mero que se intenta aproximar. u Toda expresi´n aproximada tiene un n´mero determinado de cifras sigo u nificativas. Erroo res. .

estamos manejando solo dos o cifras significativas.001845 tienen todos cuatro cifras significativas. valor verdadero . Con el uso de aproximaciones para representar operaciones y cantidades matem´ticas se generan errores num´ricos. esta podr´ variar si es otro el observador. Sin embargo en la expresi´n ”me ´ o cost´ 45000 euros exactos”s´ son significativos. El error relativo es e= E . El veloc´ ımetro (para velocidades menores de 100) solo permite aproximaciones con dos cifras significativas. Los ceros que se a˜aden al final pueden ser o no significativos: n Ejemplo: En la expresi´n ”se manifestaron 45000 personas”. debe ser suficientemente exacto. Tambi´n deben ser preciso. es decir. ıa Los ceros que se a˜aden a la izquierda de una expresi´n decimal para situar n o la primera cifra distinta de cero no son significativos: Ejemplo: Los n´meros u 0. los tres o ultimos ceros parecen ser no significativos. pues no es ”de fiar”.5 Km/hora”porque vemos que la aguja del veloc´ ımetro del coche est´n entre 48 y 49. Si hacemos observaciones con una cifra decimal.5000 × 104 ). Cualquier m´todo del C´lculo Num´rico que se emplee en la resoluci´n de e a e o un problema. o ı Para evitar equ´ ıvocos acerca del n´mero de cifras significativas.00001845 0. Se denomina error E a la cana e tidad: E = valor verdadero − valor aproximado A menudo se trabaja con el error absoluto (|E|). No es significativa.10 Cap´ ıtulo 1 Ejemplo: Cuando decimos ”circulamos a 48. las que permiten situar la velocidad entre 48 y 49.5 × 104 .5) al valor verdadero de la velocidad. los valores aproximados que se obtengan en diferentes intentos de soluci´n deben estar cerca o del valor verdadero. es decir o a e los diferentes valores obtenidos para la resoluci´n de un problema deben estar o cercanos entre s´ ı. La tercera cifra (. 4. en nuestra aproxia maci´n (48. Cuanto mayor sea el n´mero de cifras significativas de la u aproximaci´n. 4. mayor ser´ la exactitud.5) es una estimaci´n que podr´ o ıamos evitar.0001845 0. se emplea u la notaci´n cient´ o ıfica (en el ejemplo anterior.

Ejemplo: utilizar un polinomio de Taylor para encontrar el valor de una funci´n en un punto. En la suma y en la resta. condicionamiento 11 Este ultimo compara la magnitud del error cometido con la magnitud del valor ´ que se pretende estimar y puede interpretarse en t´rminos de %. entonces el ultimo d´ ´ ıgito retenido se incrementa en uno solo si este ultimo es ´ impar: n´mero u 5.61704 5.3185 = 2967.0 × 10−4 3. Para minimizar este tipo de error se recurre a las reglas de redondeo: 1. (multiplicaci´n o divisi´n ) ± (multiplicaci´n o divisi´n) o o o o (suma o resta ) ÷ (suma o resta) × 2. e Las causas de los errores pueden ser: • Truncamiento: surgen al sustituir un procedimiento matem´tico exacto a por uno aproximado.0642 × 4.30816 −→ 0. Para combinaciones de las operaciones aritm´ticas. estabilidad. se conservan las cifras significativas y el resto se descara tan.6170432 5.6170462 2.3 × 10−4 − 228 × 10−6 = 6.31 945/0.768 = 0.68 × 10−7 + 8. existen dos casos e generales. N´tese u a o que un d´ ıgito en la columna de las cent´simas es m´s significativo que e a una en la columna de las mil´simas. el redondeo se lleva a cabo de forma tal que el ´ ultimo d´ ´ ıgito retenido en la respuesta corresponda al ultimo d´ ´ ıgito M AS significativo de los n´meros que se est´n sumando o restando.33333333. u Ejemplo: sustituir 1/3 por 0.4 . o • Redondeo: surgen al sustituir un n´mero exacto por uno aproximado.432 −→ 0. En los c´lculos.Errores. En la multiplicaci´n y divisi´n se conserva el n´mero m´ o o u ınimo de cifras significativas que tenga los n´meros que intervienen: u 0.6170431500 5.8 = 0.6170462500 6 cifras significativas 5. Si es 5 o es 5 seguido de ceros.02468 × 10−4 −→ 6. redondeo.2 − 1. El ultimo d´ ´ ıgito que se conserva se aumenta en uno si el primer d´ ıgito descartado es mayor que 5.61705 8 cifras significativas 5. e 4.032967 −→ 297 × 10 4.

2 1. etc. se puede calcular el n´mero de condici´n as´ u o ı: k(A) = A · A−1 .2. 3 xn+1 = 13 4 xn − xn−1 3 3 ∀n ≥ 1 1 La sucesi´n anterior verifica que xn = ( 3 )n . se ejecutan primero las operaciones entre par´ntesis y e se redondea el resultado antes de proceder con otra operaci´n. incertidumbre en los datos f´ ısicos recogidos. 1.2 Condicionamiento Un problema est´ mal condicionado si peque˜os cambios en los datos pueden a n dar lugar a grandes cambios en las respuestas.867971990792441 × 10−10 con la otra definici´n. pues cualquier o e error que se presente en xn se multiplica por 13/3 al calcular xn+1 .12 Cap´ ıtulo 1 En ambos casos. El c´lculo de o a los valores de la sucesi´n por el m´todo inductivo es inestable. Si este es grande significa que el problema u o a est´ mal condicionado.2. obtenemos −1. Si calculamos el t´rmino x11 con o e el programa Maxima. Inestabilidad Decimos que un proceso num´rico es inestable cuando los peque˜os errores e n que se producen en alguna de sus etapas se agrandan en etapas posteriores y degradan seriamente la exactitud del c´lculo en su conjunto.99x + y = 1 . mala formulaci´n del o o modelo. Dado el sistema x + 1.01y = 1 0.1 C´lculos estables e inestables. Condicionamiena to. En ciertos problemas se puede calcular un n´mero de condici´n. o • Otras causas de error: equivocaci´n de usuario. Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax = b.j |aij |. a Ejemplo: Consideremos la sucesi´n o x0 = 1. donde A = maxi.086162170293413 × 10 −6 con la definici´n o inductiva y 2. 1. 1 x1 = .

5 ∗ 2 = 1 1 ∗ 2−5 13. la mayor parte de las computadoras trabajan con n´meros u reales en sistema binario.25 ∗ 2 = 0. Por ejemplo: −0. El ordenador.99x + y = 1 ⇒ [x = 0. en contraste con el sistema decimal que normalmente se utiliza. prescinde de lo que es com´n a todos los n´meros.99x + y = 1 y x + 1.01y = 1. redondeo.81250 ∗ 2 = 1...625 ∗ 2 = 1.81250 1 ∗ 2−1    0.βn × 10e .3 1.90625 ∗ 2 = 1. ı Por otra parte.1 Aritm´tica de la computadora e Aritm´tica de punto flotante. o u u e e .0442 → −0. As´ el n´mero 9. De hecho: o x + 1.01 0.01)(10100) = 10201. e e Las computadoras utilizan la llamada aritm´tica del punto flotante.β1 β2 . y = 1] ⇒ [x = −100.90625 en sistema decimal.3.25 1 ∗ 2−3 ⇒ −4   . y = 100] 1.442 × 10−1 C´mo todos los n´meros se traducen seg´n la aritm´tica del punto flotante.13524 × 102 . condicionamiento 13 el n´mero de condici´n de la matriz del sistema ser´ k(A) = A · A −1 = u o ıa (1. u u y as´ el 13.625 1 ∗ 2−2   0.5 1∗2    . u en: 9 = 2 ∗ (2 ∗ (2 ∗ 1 + 0) + 0) + 1 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 = (1001)2  0. Esto significa que peque˜os cambios en b producir´n n a grandes cambios en la soluci´n.524 → 0. se convierte en binario ı.01y = 1 0.0442 como −442E − 1.524 se almacena como 13524E2 y el −0. es decir.Errores. para almacetodos empezar´n con 0. · · · y terminar´n con 10 a a narlos ahorrando memoria. almacenan cada n´mero desplazando sus d´ u ıgitos de modo que aparezca de la forma 0. estabilidad.

Como consecuencia de todo lo anterior. u u a d1 siempre es 1. aumentando la precisi´n... con lo que se puede suprimir. por tanto.. . ± .112 × 2e con − 3 ≤ e ≤ 3. En los ordenadores de base 2.102 × 2e Como los n´meros ±. di ∈ {0. Se o gana con ello un bit que se denomina bit escondido. ±3/2.. ±3. ±1/4... Ejemplo: Si en una computadora se tiene que B = 2.14 Cap´ ıtulo 1 0. mayor ser´ la precisi´n de la m´quina. ±3/8. ..dp × B e y se almacenar´ de la forma a ±d1 d2 . ±1/8. ±1/2. ±1.90625 = 1 ∗ 2−1 + 1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (0.11101)2 En general. B − 1}. en cualquier m´quina solo se pueden almacenar una cantidad a finita de n´meros. La parte d1 d2 . 1. ±3/16. . la representaci´n de un n´mero en una computadora ser´ de o u a la forma: ± d1 d2 .112 × 2e son u .dp Ee donde B es la base... finita.102 = 1 × 2−1 + 0 × 2−2 = 1/2 ±4.90625 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 + 1 ∗ 2−1 + +1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (1001. ±3/4... ±2.102 × 2e son u y como los n´meros ±. llamados n´meros m´quina. Cuanto m´s u a a o a grande sea p.11101)2 Con lo que 1. p = 2 y −3 ≤ e ≤ 3.112 = 1 × 2−1 + 1 × 2−2 = 1/2 + 1/4 = 3/4 ±6. p es el n´mero m´ximo de bits que puede tener esa parte u a significativa del n´mero que se almacena y es.0E0. p es el n´mero m´ximo u a de bits significativos y e es el exponente de la potencia de B. entonces solo se podr´n almacenar n´meros de la forma a u ±.dp se llama parte significativa o mantisa. d1 > 0. 2. El 0 es un caso especial que se almacena como 00.

condicionamiento 15 En este sistema el n´mero 2 9 se almacenar´ seg´n est´ dise˜ada la comu ıa. .137 × 101 + 0.00269 × 101 = 0. u e n putadora.485 × 104 − 0. 1. Tambi´n se almacenar´ como 2 los n´meros 2 3 o 2 4. p y e de una m´quina real pueden ser los siguientes: a a B = 2.3.079391 × 105 que se almacena como 0.2 Operaciones con computadoras Supongamos una computadora cuyos par´metros sean B = 10. Para la suma. el de menor exponente se desplaza para alinear la coma decimal 1.197 × 10−1 = 0. 3.793 × 104 por truncamiento y 0.37 + 0. redondeo. p = 3 y −9 ≤ a e ≤ 9. se multiplican las cifras significativas y se suman los exponentes: 403000 · 0. En el producto. p = 23 bits. En la resta: 4850 − 4820 = 0.Errores. estabilidad.0269 = 0.794 × 104 por redondeo.482 × 104 = 0. con lo cual el n´mero m´ximo que se podr´ u a ıa almacenar ser´ 1 701E38. El n´mero m´ a u ınimo en valor absoluto ser´ 1 755E −38.003 × 104 = 0.140 × 101 por ıa redondeo.0197 = 0. De forma similar se definen desbordamiento negativo a y subdesbordamiento negativo. Todo n´mero positivo menor estar´ en el subdesbordamiento ıa u ıa positivo de la m´quina.13969 × 101 que se almacenar´ como 0.300 × 102 que se almacenar´ como 0. Todo n´mero mayor que el anterior estar´ en el ıa u ıa desbordamiento positivo de la m´quina.137 × 101 + 0.269 × 10−1 = = 0. bien como 2 si se hace por truncamiento. e ıan u Los par´metros B. Veamos como trabajan y como se pueden generar errores al manejar las operaciones b´sicas y el redondeo: a 1.300 × 102 tanto por redondeo como por trunıa camiento. 2.403 × 106 · 0. o bien como 3 si se hace por redondeo. e = 8 bits.139 × 101 por truncamiento y 0.

5s t ← s + 1. Tambi´n se puede definir como el menor a e n´mero ε > 0 tal que u 1.28205 × 10−5 que se almacena como 0.156 × 104 = 2.s stop end if end .356 × 10−1 /0.228 × 10−4 . .0 then s ← 2.0 if t ≤ 1. se dividen las cifras significativas y se restan los exponeno tes: 0. ı u 1. 100 do s ← 0.0s output k-1.) 2 ..3 Epsilon de la m´quina a a n u a La diferencia m´s peque˜a entre dos n´meros que puede detectar una m´quina se denomina epsilon de la m´quina.0 for k = 1. En la divisi´n. As´ el n´mero 1/10 en sistema binario es (0. 2. Otra fuente de error puede ser el paso de sistema decimal a sistema binario.0 + ε = 1.0 y se puede calcular programando este algoritmo: input s ← 1.0356/1560 = 0. .3.16 Cap´ ıtulo 1 4.0001100110011001. .. .

El teorema de Bolzano se utiliza en este contexto para localizar intervalos que contengan una soluci´n de f (x) = 0 cuando la funci´n f (x) sea continua. Ejemplo: Dada la ecuaci´n ex − o sen(x) = 0.5 -10 -8 -6 -4 -2 -0. encuentra la soluci´n m´s cero a cana a 0. b) tal que f (c) = 0. b] tal o que f (a)f (b) < 0.Cap´ ıtulo 2 Resoluci´n de ecuaciones no o lineales 1.5 -1 f (x) = ex − sen(x) Para resolver ejercicios como el anterior es conveniente recordar los siguientes resultados: Teorema [Bolzano]: Sea f : R → R una funci´n continua en [a.5 Dada una funci´n f : R → R. trataremos o de encontrar m´todos que permitan locae lizar valores aproximados de las soluciones de f (x) = 0. Entonces existe c ∈ (a. o o Ejercicio: Dada la ecuaci´n ex − sen(x) = 0. localiza un intervalo donde o exista una soluci´n. o 17 . 1 0.

Entonces existe c ∈ (a.18 Cap´ ıtulo 2 Teorema [Rolle]: Sea f : R → R una funci´n continua en [a. b−a . el teorema de Rolle u a se utilizar´ para determinar el n´mero m´ximo de soluciones que puede tener a u a una ecuaci´n f (x) = 0. b) tal que f (c) = 0. b] y derivable en (a. De este modo. derivable o en (a. Del teorema de Rolle se deduce que.x0 (x) = f (x0 ) + f (x0 )(x − x0 ) + · · · + f n) (x0 ) (x − x0 )n . b). para cada x0 ∈ [a. si f (x) cumple las hip´tesis. b] o y n + 1 veces derivable en (a. b]. Por tanto. Entonces. b) y tal que f (a) = f (b). b) tal que f (b) − f (a) = f (c). (n + 1)! Teorema [de valor medio]: Sea f : R → R una funci´n continua en o [a. entre o cada dos soluciones de la ecuaci´n f (x) = 0 debe existir al menos una soluci´n o o de f (x) = 0. Entonces existe c ∈ (a. el n´mero m´ximo de soluciones de f (x) = 0 ser´ u a a el n´mero de soluciones de f (x) = 0 m´s uno. o Ejercicio: Determina el n´mero de soluciones de la ecuaci´n ex − x = 0.x0 (x) = f n+1) (θx ) (x − x0 )n+1 . b). Dicho polinomio es Pn. n! Adem´s. u o Teorema [Taylor]: Sea f : R → R una funci´n n veces derivable en [a. para cada x ∈ [a. b] existe un punto θx entre x y x0 tal que a f (x) − Pn. b] existe un polinomio de grado menor o igual que n que tiene un punto de contacto con f (x) de grado n en x0 .

bn ].1. la sucesi´n (an )n∈N converge por ser creciente y acotada superioro mente y la sucesi´n (bn )n∈N converge por ser decreciente y acotada inferioro mente. . Partimos del intervalo [a. [an . En ambos casos. 2 Paso 2. Por la construcci´n de las sucesiones se tiene que o o a ≤ a 1 ≤ a 2 ≤ · · · ≤ b 2 ≤ b1 ≤ b 1 1 (bn − an ) = (bn−1 − an−1 ) = · · · = n (b − a). Si f (c0 ) > 0. definimos a2 = c1 y b2 = b1 .1. b] y calculamos c0 = a+b . [a1 . 2 Paso n. estudiamos el intervalo [a2 . Si f (c0 ) < 0. definimos a1 = a y b1 = c0 . estudiamos el intervalo [a1 . . b1 ]. . b]. a Demostraci´n. Si f (cn−1 ) > 0. denotan los intervalos utilizados en el m´todo de la bisecci´n. Veamos que sus l´ ımites son iguales n→∞ y lim bn − lim an = lim(bn − an ) = lim n→∞ 1 (b − a) = 0. 2 Paso 1. Supongamos que f (a) < 0 y f (b) > 0 (de forma a n similar se razonar´ si f (a) > 0 y f (b) < 0). ıa Paso 0. Si f (c1 ) < 0. definimos a1 = c0 y b1 = b. En ambos casos.´ Resolucion de ecuaciones no lineales 19 2.2 Convergencia del m´todo e Teorema: Si [a. definimos an = an−1 y bn = cn−1 . entonces e o n→∞ lim an = lim bn = lim cn = r n→∞ n→∞ y adem´s f (r) = 0. b2 ] y calculamos c2 = a2 +b2 . . Si f (cn−1 ) < 0. 2 2. Si f (c1 ) > 0. En ambos casos. definimos a2 = a1 y b2 = c1 . . estudiamos el intervalo [an . . n→∞ 2n .1 2. bn ] y calculamos cn = an +bn . 2 2 Por tanto. definimos an = cn−1 y bn = bn−1 . .1 M´todo de la bisecci´n e o Descripci´n del m´todo o e Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos cada vez m´s peque˜os. b1 ] y calculamos c1 = a1 +b1 .

25 a3 = −3.1. Si cn es la aproximaci´n y r es la o −2 .15625 c5 = −3. n→∞ n→∞ Llamemos a ese l´ ımite r.0694 f (c2 ) = 0. −3].25 a4 = −3. ıa 2.125 b5 = −3. tendremos que calcular c6 . Por e o o el teorema de Bolzano sabemos que hay una soluci´n de f (x) = 0 en el intervalo o [−4. tendremos soluci´n exacta.25 c2 = −3.20 Dado lo anterior y puesto que an ≤ cn ≤ bn se concluye que n→∞ Cap´ ıtulo 2 lim an = lim cn = lim bn .0046 f (c4 ) = 0.18125 f (c0 ) = −0.3 Aproximaci´n y error o o o o Una aproximaci´n a la soluci´n de la ecuaci´n f (x) = 0 en el paso n es cn .0084 La soluci´n aproximada propuesta ser´ −3. Los c´lculos ser´ los siguientes: a ıan a0 = −4 a1 = −3. Aplicaremos el m´todo de la bisecci´n a la funci´n f (x) = ex − sen(x).125 c3 = −3.175 c6 = −3. n→∞ n→∞ Por tanto f (r) = 0 que era lo que se ten´ que probar.1875 c4 = −3.18125.1875 a6 = −3. 2 2 2 Ejemplo: Encuentra una aproximaci´n de la soluci´n de ex = sen(x) con o o un error menor que 10−2 . Una cota del error cometido ser´: a 1 1 1 |r − cn | ≤ |bn − an | = 2 |bn−1 − an−1 | = n+1 |b − a|. Veamos ahora que r es la soluci´n de f (x) = 0 o utilizando las hip´tesis de continuidad de f (x) y la condici´n f (an )f (bn ) ≤ 0 : o o 0 ≥ f (r)f (r) = f ( lim an )f ( lim bn ) = n→∞ n→∞ n→∞ lim f (an ) lim f (bn ) = lim f (an )f (bn ) ≤ 0. puesto que f (−4) < 0 y f (−3) > 0.1875 a5 = −3.125 b4 = −3. es decir.5 a2 = −3.175 c0 = −3.0277 f (c5 ) = 0.1875 b0 = −3 b1 = −3 b2 = −3 b3 = −3. como queremos que el error sea menor que 10 o que: 1 1 1 |r − cn | ≤ n+1 |b − a| = n+1 | − 3 − (−4)| = n+1 < 10−2 2 2 2 por lo que n ≥ 6.15625 b6 = −3.0554 f (c3 ) = −0. o ıa .3206 f (c1 ) = −0.5 c1 = −3.

5 -1 0.361598 = 0.8 1 regula falsi para f (x) = 3x + sen(x) − ex .372277 = 0.361598 = 0.94 ∗ 10− 3 f (c3 ) = 2.2 -0. Ejemplo: Aplicar el m´todo de la regula falsi para encontrar una soluci´n e o x = 0 a partir del intervalo [0.470990 = 0.360433 f (c0 ) = 0.372277 = 0.360538 c0 c1 c2 c3 c4 = 0.´ Resolucion de ecuaciones no lineales 21 2. 1].470990 = 0. f (bn ) − f (an ) El paso siguiente es elegir el intervalo formado por los puntos an y cn o bien el formado por cn y bn asegurando que la funci´n en los extremos sea de signo o contrario.360538 = 0.265160 f (c1 ) = 0.5 0.94 ∗ 10− 5 1 0.94 ∗ 10− 4 f (c4 ) = 2. Con este m´todo se calcula as´ e ı: cn = bn − f (bn ) bn − an . de f (x) = 3x + sen(x) − e a0 a1 a2 a3 a4 =0 =0 =0 =0 =0 b1 b2 b3 b4 b0 = 1 = 0.4 0.4 Variaciones del m´todo: Regula Falsi e El m´todo de la Regula-falsi difiere respecto de la bisecci´n en el c´lculo del e o a punto cn .1.029533 f (c2 ) = 2.6 0.

Partimos de un punto inicial x0 .1 M´todo de Newton-Raphson e Descripci´n del m´todo o e Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´n o f (x). bastar´ encontrar una aproo a 2 − 2 = 0.x0 (x) = f (x0 ) + f (x0 )(x − x0 ). 2 y 3 sustituyendo el punto xn−1 por el punto xn . en vez de resolver o f (x) = 0. o √ Puesto que queremos una aproximaci´n de 2. es decir. . construimos la sucesi´n o o xn = xn−1 − x2 − 2 f (xn−1 ) = xn−1 − n−1 . Calculamos el polinomio de Taylor de f (x) de grado 1 en x0 P1. x2 . Paso 1. su l´ r = lim xn = lim xn−1 − n→ n→ f (xn−1 ) f (r) f (r) =r− ⇒ = 0 ⇒ f (r) = 0. f (xn−1 ) f (r) f (r) Ejemplo√ Aplica el m´todo de Newton-Raphson para encontrar una aproe ximaci´n de 2. Paso 2. Definimos x1 = x 0 − f (x0 ) f (x0 ) f (x0 ) . f (xn−1 ) Cuando la sucesi´n x0 . x1 . Utilizamos el m´todo de Newton-Raphson aplicado a ximaci´n de x o e la funci´n f (x) = x2 − 2. es decir construimos la sucesi´n o xn = xn−1 − f (xn−1 ) .x0 (x) como aproximaci´n de f (x) y. Utilizamos P1. es convergente y la funci´n f (x) tiene cierta o o ımite r es la soluci´n puesto que o regularidad.x0 = 0.2 2. f (xn−1 ) 2xn−1 . . resolvemos P1. f (x0 ) y repetimos los pasos 1.2. .22 Cap´ ıtulo 2 2. es decir f (x0 ) + f (x0 )(x − x0 ) = 0 ⇒ x = x0 − Paso 3.

´ Resolucion de ecuaciones no lineales

23

Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´n. Comenzamos o por el punto x0 = 1.5 : x0 = 1.5, x1 = 1.4167, x2 = 1.4142, x3 = 1.4142, ...

La aproximaci´n ser´ 1.4142. o ıa

2.2.2

Convergencia del m´todo e

Teorema: Si en un cierto intervalo se verifica que f ∈ C 2 (R), estrictamente creciente, f (x) ≥ 0 y f tiene un cero, entonces el cero es unico y la iteraci´n ´ o de Newton-Raphson converger´ a partir de cualquier punto inicial. a

0.5 8 0.4 6 0.3 4 0.2 2 0.1 -1 -2 1 2 3 4 -2 -1 1 2

Newton Raphson converge

Newton Raphson no converge

Demostraci´n. Sea x0 , x1 , . . . , xn la sucesi´n construida por el m´todo de o o e Newton-Raphson, r la soluci´n de la ecuaci´n f (x) = 0 y en = xn − r el error o o en el paso n. Por el teorema de Taylor sabemos que: 0 = f (r) = f (xn ) + f (xn )(−en ) + Por tanto en f (xn ) − f (xn ) = De modo que f (θn ) (−en )2 . 2

f (θn ) 2 en . 2

24

Cap´ ıtulo 2

en+1 = xn+1 − r = xn −

f (xn ) f (xn ) − r = en − = f (xn ) f (xn ) en f (xn ) − f (xn ) f (θn )e2 n = ≥0 f (xn ) 2f (xn ) f (xn ) ≤ en . f (xn )

Por lo tanto xn+1 ≥ r ⇒ f (xn ) ≥ f (r) = 0 ⇒ en+1 = en −

Puesto que xn+1 ≥ r y el error va decreciendo, se concluye que la sucesi´n o (xn )n∈N es decreciente y acotada inferiormente por r, por lo tanto tiene l´ ımite. As´ mismo, la sucesi´n (en )n∈N es decreciente y acotada inferiormente por 0, ı o por lo tanto tambi´n tiene l´ e ımite. Se deduce que
n→∞

lim en+1 =

f (xn ) = n→∞ f (xn ) f (limn→∞ xn ) ⇒ f ( lim xn ) = 0 lim en − n→∞ n→∞ f (limn→∞ xn ) lim en −

(2.1)

y puesto que f (x) es estrictamente creciente se obtiene que limn→∞ xn = r (en caso contrario f (limn→∞ xn ) > f (r) = 0), es decir, la sucesi´n de Newtono Raphson converge a la soluci´n. o

2.2.3

Aproximaci´n y error o

La aproximaci´n a la soluci´n en el paso n del m´todo de Newton-Raphson es o o e xn . Por el razonamiento anterior sabemos que en+1 = f (xn ) 2 e . 2f (xn ) n

Si encontramos una constante C tal que C≥ maxx∈I |f (x)| 2 minx∈I |f (x)|

siendo I un intervalo que contenga a la sucesi´n (xn )n∈N y a la soluci´n r, o o tendremos que |en+1 | ≤ Ce2 n

´ Resolucion de ecuaciones no lineales

25

lo que significa que la convergencia de la sucesi´n de errores es cuadr´tica. En o a estas condiciones C|en+1 | ≤ C 2 e2 ≤ C 2 (Ce2 )2 ≤ · · · ≤ (Ce0 )2 n n−1 es decir C|en | ≤ (Ce0 )2 ⇒ |en | ≤
n n+1

1 n (Ce0 )2 C que es una cota del error que se puede obtener previamente a aplicar el m´todo. e 1 Si |Ce0 | < 1, o lo que es lo mismo |e0 | < C , siendo e0 = x0 − r, tendremos que |en | ≤ 1 n (Ce0 )2 → 0 C

con lo que tenemos otro criterio de convergencia del m´todo. e Ejemplo: Calcula el n´mero de pasos necesarios para encontrar la ra´ u ız −6 cuadrada de 3 con un error menor que 10 1. Con el m´todo de Newton-Raphson e 2. Con el m´todo de la bisecci´n. e o Puesto que la ra´ cuadrada de 3 es soluci´n de x2 − 3 = 0, aplicaremos ız o 2 − 3. Puesto que f (x) es continua en [1, 2] los m´todos a la funci´n f (x) = x e o y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano se sabe que en [1, 2] hay una soluci´n de f (x) = 0. o Apartado 1). Aplicamos el primer criterio para saber si el m´todo de e Newton-Raphson converger´ en el intervalo [1, 2]. f (x) es un polinomio y por a tanto es de clase C 2 . Como f (x) = 2x > 0 en [1, 2], la funci´n es estrictamente o creciente en [1, 2]. Adem´s f (x) = 2 > 0 en [1, 2]. Por todo ello, podemos a asegurar que el m´todo de Newton-Raphson converger´ a partir de cualquier e a punto de [1, 2]. Veamos el n´mero de iteraciones necesarias para que el error sea menor u −6 . Sabemos que que 10 1 n |en | ≤ (Ce0 )2 C siendo maxx∈[1,2]|f (x)| 2 2 1 C≥ = = = . 2 minx∈[1,2] |f (x)| 2 minx∈[1,2] |2x| 2·2 2

Ejemplo: Dada la ecuaci´n e−x − x = 0. Aplica el m´todo de Newton-Raphson con 4 iteraciones para encontrar e la soluci´n. o 1. o 2. Calcula una cota del error cometido.73414 x4 = 1.73205 x2 = 1.5 x2 = 0.54 ∗ 10−7 .75 Apartado 2). lo aplicamos empezando en el punto x0 = 0 xn+1 = xn − e−xn − xn −e−xn − 1 x3 = 0. Sea f (x) = e−x − x. Luego basta con 5 iteraciones. entonces |e19 | ≤ 9. 1] no podemos aplicar el criterio para asegurar que el m´todo funcione empezando en cualquier punto del intervalo [0. No e obstante. f (xn−1 ) 2xn−1 2xn−1 x3 = 1. entonces |e5 | ≤ 4.051 ∗ 10−5 Si n = 5.566311 . entonces |e4 | ≤ 3.66 ∗ 10−10 . es decir.567143 x4 = 0. o o Como f (x) = e−x −1 < 0 en [0. 1]. 1] se puede asegurar que en dicho intervalo hay una soluci´n de la ecuaci´n f (x) = 0.73205 x5 = 1.26 Por tanto 1 |en | ≤ 1/2 1 e0 2 Cap´ ıtulo 2 2n =2 1 e0 2 2n Si n = 4. necesitamos 19 iteraciones.567143 x0 = 0 x1 = 0. Aplicamos el m´todo empezando en el punto x0 = 1 e xn = xn−1 − x0 = 1 x1 = 2 x2 − 3 x2 + 3 f (xn−1 ) = xn−1 − n−1 = n−1 . Sabemos que |en | ≤ 1 1 (b − a) = n+1 < 10−6 2n+1 2 y si n = 19. Aplicando el teorema de Bolzano al intervalo [0.

1] |e−x | maxx∈I |f (x)| = = 2 minx∈I |f (x)| 2 minx∈[1. xn = xn−1 − (x2 − 2) n−1 x2 n−1 xn−1 − xn−2 xn−1 − xn−2 = xn−1 − (x2 − 2) 2 n−1 2 − 2 − [xn−2 − 2] xn−1 − x2 n−2 y tomando tomando x0 = 1 y x1 = 2 nos queda x0 = 1 x1 = 2 x2 = 1.4146 .3333 x3 = 1. con 4 iteraciones del m´todo o e de la secante. 2]. Aplicamos el m´todo a la soluci´n de la ecuaci´n f (x) = x2 − 2 = 0 en el e o o intervalo [1.33 ∗ 10−7 0 n 2. a a o a √ Ejemplo: Calcula una aproximaci´n de 2.365529.3715 116 ≈ 0. f (xn−1 ) − f (xn−2 ) Por tanto hay que utilizar dos puntos iniciales en lugar de uno.2. 2(1/e + 1) 2(e + 1) n −1 n 27 Por tanto |e4 | ≤ C 2 e2 ≤ 0.4 x4 = 1.´ Resolucion de ecuaciones no lineales Calculemos una cota del error C|e4 | ≤ (Ce0 )2 siendo C ≥ maxx∈[0.4 Variaciones del m´todo: M´todo de la secante e e e Teniendo en cuenta quef (xn ) = limh→0 f (xn +h)−f (xn ) este m´todo se diferenh cia del de Newton-Raphson en que se sustituye f (xn ) por el valor aproximado f (xn−1 )−f (xn−2 ) de modo que la sucesi´n que queda es o xn−1 −xn−2 xn = xn−1 − f (xn−1 ) xn−1 − xn−2 .2] | − e−x − 1| e 1 = ≈ 0. Es un m´todo e m´s r´pido que el de la bisecci´n pero m´s lento que el de Newton-Raphson.

n→∞ n→∞ n→∞ es decir. si r = lim xn . para resolver la ecuaci´n o o F (x) = x se construye la sucesi´n o xn = F (xn−1 ). Cuando la sucesi´n xn es convergente y F (x) es continua.28 4 3 2 1 0. o 3 − x − 1 = 0 es equivalente a resolver una de estas Resolver f (x) = x ecuaciones √ 3 x3 − 1 = x o bien 1 + x = x. se denomina e m´todo iterativo de punto fijo. e Como pretendemos resolver la ecuaci´n f (x) = x3 − x − 1 = 0. por el o teorema de Bolzano sabemos que hay una soluci´n en el intervalo [1. La b´squeda de soluciones u de F (x) = x empleando sucesiones de la forma xn = F (xn−1 ).5 Cap´ ıtulo 2 M´todo de la secante para f (x) = x2 − 2 e 2.3 2.5 -1 1. A menudo. o n→∞ entonces F (r) = F ( lim xn ) = lim F (xn ) = lim xn+1 = r. 2]. debido a que F (r) = r. . Una soluci´n r de F (x) = x se denomina un punto fijo de o o la funci´n F (x).1 M´todo iterativo de punto fijo e Descripci´n del m´todo o e Ciertos problemas de aproximaci´n se pueden resolver encontrando una soluo ci´n de F (x) = x.5 2 2. el l´ ımite de xn es un punto fijo de F (x).3. Ejemplo: Encuentra una soluci´n real de x3 − x − 1 = 0 usando cinco o pasos de un m´todo iterativo de punto fijo.

por ejemplo por x0 = 1 resulta lo siguiente: xn = F (xn−1 ) F (x) = √3 − 1 x F (x) = 3 1 + x x0 1 1 x1 0 1. veriu u ficar´ que F (r) = r. Por el teorema del valor medio |F (y) − F (x)| = |F (θ)(y − x)| = 1 3 3 |F (x) − F (y)| ≤ λ|x − y| (1 + θ)2 (y − x) ≤ 1 1 √ (y − x) = |y − x| 3 3 3 1 ≤ para todo x. puesto que F (x) es continua. f (r) = 0. o 3 gente. La mejor aproximaci´n de r obtenida a o ser´ 1. y ∈ [0.3. Construyamos o la sucesi´n xn = F (xn−1 ) para ambas funciones. √ Ejemplo: Comprueba que la funci´n F (x) = 3 1 + x es contractiva en o [0.3243 x5 −730 1. es decir.2600 x2 −1 1. para la funci´n F (x) = 1 + x la sucesi´n que sale s´ es o o ı convergente a un n´mero r.3246 Es claro que para la funci´n F (x) = x3 −√ la sucesi´n no resulta convero 1. comenzando por un punto o del intervalo [1.2 Convergencia del m´todo e Definici´n: Sea F : R → R una funci´n. entonces F tiene un unico punto fijo r ∈ C.´ Resolucion de ecuaciones no lineales 29 con lo que podemos aplicar el m´todo iterativo de punto fijo para resolver la e √ ecuaci´n F (x) = x siendo F (x) = x3 −1 o bien F (x) = 3 1 + x. y ∈ C. Dicho n´mero. . Por tanto la funci´n es contractiva con λ = 1/3. Adem´s ´ a r es el l´ ımite de cualquier sucesi´n que se obtenga a partir de la expresi´n o o xn+1 = F (xn ) siendo x0 ∈ C. 1]. o Teorema: Si F es una funci´n contractiva que va de un cerrado C ⊂ R o en C (F (C) ⊂ C). 1]. ıa 2.3224 x4 −9 1. Sin embargo. 2]. Se dice que F es contractiva en un o o conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que ∀x.3123 x3 −2 1.3246.

x2 . Falta ver que es unico. Por la construcci´n de la sucesi´n. .3 Aproximaci´n y error o Si r es soluci´n de f (x) = 0 obtenida por iteraci´n de una funci´n F (x). . o 2.3. x1 . Supongamos que hubiese dos puntos fijos r1 y r2 . r ∈ C por ser C un conjunto cerrado y xn ∈ C. . xn = x0 + x1 − x0 + x2 − x1 + · · · + xn − xn−1 = x0 + por lo que n n→∞ ∞ k=1 (xk − xk−1 ) lim xn = x0 + lim ∞ k=1 (xk n→∞ k=1 (xk − xk−1 ) = x0 + k=1 (xk − xk−1 ) La serie ∞ k=1 − xk−1 ) es convergente porque ∞ ∞ (xk − xk−1 ) ≤ k=1 |xk − xk−1 | ≤ k=1 λk−1 (x1 − x0 ) = |x1 − x0 | 1 1−λ Como la serie es convergente. la sucesi´n generada mediante la o o expresi´n xn+1 = F (xn ). . . xn . Entonces ´ |r1 − r2 | = |F (r1 ) − F (r2 )| ≤ λ|r1 − r2 | < |r1 − r2 | llegando a contradicci´n. se tiene que F (r) = r. existe θn ∈ R entre r y xn tal que f (r) − f (xn ) = f (θn ). Veamos que (xn )n∈N converge. r − xn . . . Sea x0 . es decir.30 Cap´ ıtulo 2 Demostraci´n. o o o entonces si f (x) es continua y derivable. o o hay un punto fijo. la sucesi´n (xn )n∈N tambi´n lo es. Sea r = o e limn→∞ xn . Por ser contractiva o se tiene que |xn − xn−1 | = |F (xn−1 ) − F (xn−2 )| ≤ λ|xn−1 − xn−2 | ≤ Por otra parte n λ2 |xn−2 − xn−3 | ≤ · · · ≤ λn−1 |x1 − x0 |.

= f (θn ) ⇒ en = en f (θn ) minθ∈[xn . Sea f (x) = 4 + 1 sin(2x) − x y F (x) = 4 + 1 sin(2x). 3 3 2 Se deduce que F (x) es contractiva con constante λ = 3 .5 ≤ 4 + 3 sin(2x) ≤ 4.5. Veamos si F (x) es contractiva o aplicando el teorema del valor medio 2 2 |F (y) − F (x)| = |F (θ)(y − x)| = | cos(2x)(y − x)| ≤ |y − x|.r] |f (θ)| La f´rmula anterior nos proporciona un m´todo para encontrar una cota de o e error a posteriori y se puede aplicar a cualquier m´todo iterativo de punto fijo. Aplicando el teorema 3 3 de Bolzano a la funci´n f (x) en el intervalo [−3.5.5. se deduce que f (xn ) |f (xn )| f (xn ) ⇒ |en | ≤ . Calculamos cinco iteraciones empezando en x0 = 0 : .5. 4. puesto que −3. se deduce que F ([−3.5] se deduce que hay o una soluci´n de f (x) = 0 en dicho intervalo. 1 Por otra parte.5]) ⊂ [−3. 4. la sucesi´n xn+1 = F (xn ) converger´ a un punto fijo a partir de o a cualquier valor inicial x0 . 4. Por tanto.´ Resolucion de ecuaciones no lineales 31 Suponiendo que xn ≤ r y puesto que f (r) = 0 y −en = r − xn . o Ejemplo: Encuentra una soluci´n de la ecuaci´n 4 + 1 sin(2x) − x = 0 o o 3 con un m´todo iterativo de punto fijo estimando una cota del error a priori y e otra a posteriori. e Si F (x) es contractiva de constante λ entonces |xn+p − xn | = |xn+p − xn+p−1 | + |xn+p−1 − xn+p−2 | + · · · + |xn+1 − xn | ≤ ≤ λn+p−1 |x1 − x0 | + λn+p−2 |x1 − x0 | + · · · + λn |x1 − x0 | = = (λn+p−1 + λn+p−2 + · · · + λn )|x1 − x0 | = = λn (λp−1 + λp−2 + · · · + 1)|x1 − x0 | 1 1−λ de modo que cuando p tiende a infinito ∞ |en | = |r − xn | ≤ λ n k=0 λk = λ n |x1 − x0 | que es una f´rmula que permite calcular una cota de error a priori.5].

Para la localizaci´n de ra´ o ıces de polinomios con multiplicidad par (como en el ejemplo anterior) no podemos emplear el teorema de Bolzano.32 x0 0 x1 4 x2 4.256383406 Una cota del error para x5 a priori ser´ ıa |e5 | ≤ 2 3 5 1 1− 2 3 |4 − 0| ≈ 1. ≤ 2 1/3 minθ∈[−3.00719542 = 0.230895147 x4 4. .329786082 x3 4.5. Definici´n: Una soluci´n r de una ecuaci´n f (x) = 0 se dice que tiene o o o multiplicidad n si f (r) = f (r) = · · · = f n−1) (r) = 0 f n) (r) = 0.5] | 3 cos(2θ) − 1| 2.273633799 Cap´ ıtulo 2 x5 4.5802 que no es una cota muy buena.00239847. Una cota del error para x5 a posteriori ser´ ıa |e5 | ≤ |f (x5 )| 0. Sin embargo podemos intentar calcular las ra´ ıces de otro polinomio con las mismas soluciones que el nuestro pero todas con multiplicidad 1. Ejemplo: r = 1 es una soluci´n de multiplicidad 2 para la ecuaci´n o o x2 − 2x + 1 = 0.4. por tanto.4 Ra´ ıces de polinomios No existe ninguna f´rmula algebraica para la resoluci´n de ra´ de polinomios o o ıces de grado mayor que 4. hay que aplicar m´todos num´ricos para el e e c´lculo de dichas ra´ a ıces.

6 0.5 1 1. De modo que dado un polinomio Pn (x). (x − r1 ) M.C. contando cada cero tantas veces como indique su multiplicidad. . . podemos descomponerlo as´ ı: Pn (x) = an (x − rk )mk (x − rk−1 )mk−1 .5 2 33 f (x) = x2 − 2x + 1 Teorema [Teorema fundamental del ´lgebra]: Un polinomio de grado n a con coeficientes reales tiene exactamente n ceros o ra´ ıces entre los n´meros u complejos C. El m´ximo com´n divisor de a u Pn (x) y de Pn (x) es D(x) = M. .C. (x − r1 )m1 −1 M (x) siendo M (x) un polinomio tal que M (ri ) = 0.´ Resolucion de ecuaciones no lineales 1 0. Pn (x)). .C. . .D(Pn (x). (x − r1 )m1 −1 por lo que el polinomio Q(x) = P (x) = an (x − rk )(x − rk−1 ) . El problema es el c´lculo de Q(x) y de M.2 0. obtenemos que ız e Pn (x) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 .8 0. (x − r1 )m1 siendo mi la multiplicidad de la ra´ i-´sima. Bastar´ ıa aplicar los m´todos a Q(x) para localizar las ra´ e ıces de Pn (x).D(Pn (x). a .D(Pn (x). Si derivamos. Pn (x)) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 .4 0. . Pn (x)) tiene las mismas ra´ ıces que P (x) pero todas con multiplicidad 1. .

Llegamos a un resto rk (x) constante distinto de 0. .4. b].1 Separaci´n de ra´ o ıces. Pn−1 (x). .. .. En este caso rk−1 (x) es el m´ximo com´n a u divisor de Pn (x) y de Pn (x). −rk (x). −rk−2 (x) = c1 (x)Pn (x) + r1 (x) = c2 (x)(−r1 (x)) + r2 (x) = c3 (x)(−r2 (x)) + r3 (x) = ck (x)(−rk−1 (x)) + rk (x) Puede ocurrir lo siguiente: 1. . . . . . . La diferencia entre el n´mero de cambios de signos de las sucesiones siguientes u Pn (a).34 Cap´ ıtulo 2 2. −r1 (x). Pn (x) y a los restos obtenidos cambiados de signo: Pn (x) Pn (x) −r1 (x) . Construimos entonces la sucesi´n de Sturm coo rrespondiente al polinomio Q(x) = Pn (x) rk−1 (x) que es un polinomio que tiene las mismas ra´ que Pn (x) pero todas simples. Pn−1 (b). . Para construir la sucesi´n de Sturm aplicamos la divisi´n de polinomios o o repetidas veces a Pn (x). −r1 (a). −r1 (b). ıces 2. . −rk (a) Pn (b). Sea Pn (x) un polinomio de grado n y Pn (x) su derivada. Hay un resto rk (x) = 0. b]. En este caso la sucesi´n de Sturm es o Pn (x). Sucesi´n de Sturm. −rk (b) es el n´mero de ra´ u ıces de Pn (x) en el intervalo [a. Pn−1 (a). o La sucesi´n de Sturm nos permite calcular el n´mero de ra´ de un polinomio o u ıces en un intervalo [a. . .

o 6x2 − x − 1 = (− Con la sucesi´n es o 6x2 − x − 1. Efeco tuamos la siguiente divisi´n: o 144x3 − 36x2 − 22x + 2 = 2/50(12x − 1)(300x2 − 50x − 50) + 0 3. 12x − 1. Construimos la sucesi´n de Sturm para Q(x). 0) hay una ra´ y hay otra en el intervalo (0. . Estudiamos algunos cambios de signo: 6x2 − x − 1 12x − 1 25 24 cambios de signo −∞ + + 2 -2 + + 2 En el intervalo (∞. −2) y en (0. −x−1 x −25 1 + )(12x − 1) + 24 2 24 25 24 0 + 1 2 + + + 0 ∞ + + + 0 4. 2. Como hay un resto que es 0 el m´ximo com´n divisor de P (x) y P (x) es a u 300x2 − 50x − 50 o bien dividiendo por 50 6x2 − x − 1.´ Resolucion de ecuaciones no lineales 35 Ejemplo: Localiza en intervalos disjuntos las ra´ ıces del P (x) = 36x 4 − 3 − 11x2 + 2x + 1. o En el intervalo (−2. Podemos multiplicar los polinomios implicados por numeros positivos para facilitar los c´lculos sin a que ello afecte al objetivo perseguido. calculamos el polinomio Q(x) = 6x2 P (x) = 6x2 − x − 1. El tercer miembro de la sucesi´n de Sturm es 300x2 − 50x − 50. Comenzamos los c´lculos: a 1. Multiplicamos Pn (x) por 4 y efectuamos la primera divisi´n: o 144x4 −48x3 −44x+8x+4 = (x−1)(144x3 −36x2 −22x+2)+(−300x2 +50x+50). 12x La derivada de P (x) es P (x) = 144x3 −36x2 −22x+2. 2) no hay ninguna ra´ porque en los extremos ız de los intervalos la sucesi´n de Sturm tiene los mismos cambios de signo. 2) porque ız la diferencia de cambios de signo en los extremos en ambos casos es 1.

0 y (1. Para facilitar el c´lculo multiplicamos P (x) por 2 y calculamos es tercer miembro a de la sucesi´n de Sturm: o 9 9 1 2x4 + 4x3 − 6x2 − 8x − 1 = (x + )(2x3 + 3x2 − 3x − 2) + (− x2 − x − 1). ∞) no hay ninguna ra´ ız porque en los extremos de los intervalos la sucesi´n de Sturm tiene los mismos o cambios de signo. 2 Separamos las ra´ ıces en intervalos disjuntos: x4 + 2x3 − 3x2 − 4x − 1 2x3 + 3x2 − 3x − 2 9x2 + 9x + 2 2x + 1 1 2 cambios de signo -1/2 + 0 + 2 0 + + + 1 1 0 + + + 1 2 + + + + + 0 ∞ + + + + + 0 En el intervalo (∞. 2x + 1. Dividiendo por 20 podemos suponer que −r2 (x) = 2x + 1. 9x2 + 9x + 2. −1). Multiplicamos −r1 (x) por 2 y calculamos −r3 (x): 9 −1 18x2 + 18x + 4 = (9x + )(2x + 1) + . −1/2. (−2. 1 . −1/2). 2) hay una ra´ porque la diferencia de cambios de signo en los extremos en ambos ız casos es 1. 2 2 2 Podemos multiplicar por 2 el resto con lo que −r1 (x) = 9x2 − 9x + 2. (−1. −2).36 Cap´ ıtulo 2 Ejemplo: Localiza en intervalos disjuntos las ra´ del P (x) = x4 +2x3 − ıces − 4x − 1. −∞ + + + 4 -3 + + + 4 -2 0 + + 3 -1 + + + 3 x4 + 2x3 − 3x2 − 4x − 1. . 1) y en (2. −3). 3x2 La derivada es P (x) = 4x3 + 6x2 − 6x − 4 = 2(2x3 + 3x2 − 3x − 2). 2 2 Con lo que la sucesi´n queda as´ o ı: 2x3 + 3x2 − 3x − 2. (0. Para facilitar los c´lculos multiplicamos P (x) por 9 y calculamos el siguiente a miembro de la sucesi´n: o 18x3 + 27x2 − 27x − 18 = (2x + 1)(9x2 + 9x + 2) + (−40x − 20). En cada uno de los intervalos (−3.

2 Acotaci´n de ra´ o ıces siendo A = max0≤i≤n−1 |ai |. Proposici´n: Sea P (x) = an xn + an−1 xn−1 + · · · + a0 . Com A = max1≤i≤n−1 |ai | = 4. o 0 = |P (r)| = |an rn + an−1 rn−1 + · · · + a0 | ≥ ≥ |an rn | − |an−1 rn−1 + · · · + a0 | ≥ |an rn | − A |r|n−1 + · · · + |r| + 1 = |r|n − 1 |r|n |an rn | − A > |an ||r|n − A |r| − 1 |r| − 1 ≥ |an rn | − |an−1 ||rn−1 | + · · · + |a0 | ≥ > |r|n |an | − es decir. |an | A |r| − 1 con lo que concluimos que A |an | . Supongamos que |r| > 1. entonces A |r| < 1 + |an | Demostraci´n.4.´ Resolucion de ecuaciones no lineales 37 2. Ejemplo: Acota las ra´ ıces del polinomio P (x) = x4 + 2x3 − 3x2 − 4x − 1. es trivial que |r| < 1 + A . usando la proposici´n anterior obtenemos o que cualquier ra´ r del polinomio verifica lo siguiente ız |r| < 1 + A 4 = 1 + = 5 ⇒ −5 < r < 5. Si r es una ra´ de o ız P (x). |an | 1 . 0 > |an | − A A A ⇒ |an | < ⇒ |r| − 1 < |r| − 1 |r| − 1 |an | |r| < 1 + Si |r| ≤ 1.

. El algoritmo de Horner hace estos ultimos c´lculos de forma sencilla para polinomios. b0 P (x0 ) x0 cn−2 x0 cn−3 x0 . . . a1 a0 b1 x0 b0 x0 b0 P (x0 ) que tambi´n es una forma sencilla de calcular P (x0 ). Entonces P (x0 ) = R y P (x) = Q(x)(x − x0 ) + P (x0 ). ´ a Sea x0 ∈ R y P (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 .38 Cap´ ıtulo 2 2. Supongamos a que Q(x) = bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 . . an x0 bn−1 . .. .. Sea P (x) = Q(x)(x − x0 ) + R (R ser´ constante) el resultado de dividir P (x) entre (x − x0 ). De modo que para calcular P (x0 ) podemos aplicar el algoritmo gr´fico anterior a a Q(x) : an an−1 an−2 . bn−1 x0 bn−2 x0 . . . . . . . . bn−2 bn−3 . P (x) − P (x0 ) = Q(x)(x − x0 ) es decir an xn + an−1 xn−1 + · · · + a1 x + a0 − P (x0 ) = = (bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 )(x − x0 ) Desarrollando e igualando los coeficientes de ambos t´rminos se deduce e que bn−1 = an . c0 x 0 cn−2 cn−3 cn−4 .3 Ra´ ıces de polinomios con el algoritmo de Horner Si usamos el m´todo de Newton-Raphson para encontrar las ra´ e ıces de un polinomio P (x) hemos de calcular P (xn ) y P (xn ). P (x0 ) . b0 = a1 +b1 x0 P (x0 ) = a0 +b0 x0 . . e a P (x) = Q(x)(x − x0 ) + R ⇒ P (x) = Q (x)(x − x0 ) + Q(x) ⇒ P (x0 ) = Q(x0 ). b1 x 0 b0 x0 bn−1 bn−2 bn−3 . . .4. a1 a0 x0 bn−1 x0 bn−2 x0 . bn−2 = an−1 +bn−1 x0 . con lo que La obtenci´n de los coeficientes bi se pueden representar gr´ficamente as´ o a ı an−1 an−2 . . Adem´s.

Sea o no f (x) un polinomio. f (xn ). es decir que r sea una soluci´n de f (x) = 0 de multiplicidad k. 2 1 −3 4 −5 4 10 14 36 2 5 7 18 31 2 4 18 50 2 9 25 68 2 Se concluye que P (2) = 31 y P (2) = 68. el c´lculo puede ser o u a problem´tico. f (xn ). . Si f (x) es un polinomio. P (x)) que ser´ un polinomio con las mismas ra´ a ıces que f (x) pero todas con multiplicidad 1. . calcula con el algoritmo de Horner P (2) y P (2). Si las derivadas hasta orden k − 1 son casi 0 en los valores xn y f k) (xn ) no es cercano a 0. o se puede acelerar la convergencia de la sucesi´n calcul´ndola as´ o a ı xn+1 = xn − k f (xn ) . f k) (xn ).4.4 Ra´ ıces m´ ltiples u Si una ecuaci´n f (x) = 0 tiene soluciones m´ltiples. f (xn ) . entonces puede ocurrir que la soluci´n r verifique que o f n) (r) = 0 ∀ 0 ≤ n < k y f k) (r) = 0. . Para detectar de qu´ multie plicidad es la ra´ en cuesti´n. la causa puede o encontrarse en esa multiplicidad de las ra´ ıces. En este caso. para cada termino de la sucesi´n xn generada ız o o calculamos f (xn ). Si la sucesi´n generada converge muy lentamente. .´ Resolucion de ecuaciones no lineales 39 Ejemplo: Siendo P (x) = x4 + 2x3 − 3x2 − 4x − 1. podemos intentar calcular las ra´ a ıces de P (x) Q(x) = M CD(P (x). 2. se puede intentar aplicar el m´todo de Newtone Raphson.

b] |f (θ)| Cap´ ıtulo 2 Ejercicio: Sea f (x) = (x − 1)3 . Aplica Newton-Raphson para encontrar una soluci´n de f (x) = 0 empezando en x0 = 0.40 El error se obtendr´ as´ ıa ı |en | < |f (xn )| minθ∈[a. o .

j≤n .Cap´ ıtulo 3 Sistemas Lineales El objetivo de este tema es el desarrollo de t´cnicas de b´squeda de soluciones e u de sistemas de ecuaciones lineales como el siguiente: a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn an1 x1 + an2 x2 + · · · + ann xn = = ··· = b1 b2 bn Denotando A = (aij )1≤i. 41 . La matriz traspuesta de A es la matriz At que resulta de intercambiar las filas de A por las columnas de A. b = (bi )1≤i≤n y x = (xi )1≤i≤n .1≤j≤n ∈ Mm×n ). Por ejemplo 3 5 2 2 1 3 tiene orden 2 × 3.1 ´ Algebra de matrices Sea A una matriz. el sistema anterior se puede expresar A·x=b 3. A es de orden m×n si tiene tiene m filas y n columnas (A = (aij )1≤i≤m.

e Si α ∈ R y B es una matriz.j≤m . .. . B es una matriz inversa de A por la derecha si B · A = Id B es una matriz inversa de A por la izquierda si A · B = Id. o Se llaman operaciones elementales de una matriz al intercambio de dos filas o columnas.. Si A ∈ Mn×n tiene inversa.. La matriz inversa es 1 (Ai.. entonces A es regular. al producto de una fila o columna por un n´mero distinto u de 0. 0 siendo Ai.1≤j≤n ∈ Mm×n . . B ∈ Mm×n : A + B = (ai. Si A ∈ Mn×n . A−1 = |A| La matriz identidad de orden n × n es  1 0 0 0 1 0 Id =   .1≤j≤n . invertible o no singular. ∀A ∈ Mn×n .j + bij )1≤i.... entonces la inversa por la izquierda es tambi´n inversa por e −1 la derecha. 0 0 .  0 0   1 Se verifica que A · Id = Id · A = A..Multiplicar dos matrices A ∈ Mm×p y B ∈ Mp×n : p A·B =( k=1 aik bkj )1≤i≤m.Multiplicar una matriz por un n´mero: u α · A = (αaij )1≤i≤m.j el adjunto del elemento aij . Cada u o . o cualquier combinaci´n finita de las operaciones anteriores. podemos realizar las siguientes operaciones: . En este caso la inversa es unica y se denota A ´ A−1 · A = A · A−1 = Id. a la suma de una fila o columna otra fila o columna multiplicada por un n´mero.j )t . En este caso el sistema A · x = b tiene como soluci´n x = A−1 · b. .42 Cap´ ıtulo 3 A es sim´trica si At = A.Sumar dos matrices A y B si A.

Sistemas lineales 43 operaci´n fundamental en una matriz A se puede expresar mediante producto o de A por otra matriz. entonces existe un conjunto de matrices fundamentales Ek con k = 1. tales que Ep Ep−1 . a31 a32 a33 el intercambio de la  1 0 0 0 0 1 El producto de  1 0 0 segunda y tercera filas se puede     a11 a11 a12 a13 0 1 · a21 a22 a23  = a31 a21 a31 a32 a33 0 expresar as´ ı:  a12 a13 a32 a33  . dada la matriz   a11 a12 a13 A = a21 a22 a23  . p. es decir. . . .Multiplicar la tercera fila por αλ y sumarle la segunda. que se llama matriz fundamental. . . .Sustituir la fila segunda por la tercera multiplicada por α. . Por ejemplo. . E1 A = Id. con lo que multiplicando por A−1 por la derecha en ambos t´rminos se obtiene e que Ep Ep−1 . a22 a23 representa aplicar a la segunda matriz los siguientes cambios: . E1 Id = A−1 . Si A ∈ Mn×n tiene inversa. El producto de matrices     1 0 0 a11 a12 a13 0 0 α  · a21 a22 a23  0 1 αλ a31 a32 a33 Y la suma a la tercera fila de la segunda fila multiplicada por un n´mero α es: u       a11 a12 a13 1 0 0 a11 a12 a13  0 1 0 · a21 a22 a23  =  a21 a22 a23 αa21 + a31 αa22 + a32 αa23 + a33 a31 a32 a33 0 α 1 la segunda fila   a11 0 0 α 0 · a21 a31 0 1 por un n´mero α se puede expresar as´ u ı:    a12 a13 a11 a12 a13 a22 a23  = αa21 αa22 αa23  a32 a33 a31 a32 a33 . . aplicando las mismas operaciones fundamentales a la matriz Id obtendremos la matriz inversa A−1 .

´ . El primer cambio consiste en restar a la segunda fila la primera (correspondiente al producto por una cierta matriz fundamental E1 ):     1 0 0 1 2 3 E1 · Id = −1 1 0 E1 · A = 0 1 0  0 0 1 2 4 7 El segundo cambio (multiplicar por E2 ) consiste en restar a la tercera dos veces la primera:  1 2 3 E2 · E 1 · A = 0 1 0  0 0 1   1 0 0 E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto dos veces la segunda (E3 ):   1 0 3 E3 · E2 · E1 · A = 0 1 0 0 0 1  3 −2 0 E3 · E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto tres veces la tercera (E4 ):  1 0 0 E4 ·E3 ·E2 ·E1 ·A = 0 1 0 0 0 1   9 −2 −3 0  = A−1 .44 Ejemplo: Calcula la inversa de la matriz  1 2 3 A = 1 3 3  . 2 4 7  Cap´ ıtulo 3 Partimos de A y la matriz Id. E4 ·E3 ·E2 ·E1 ·Id = −1 1 −2 0 1  Esta ultima matriz es la inversa de A.

1. La matriz A = 2 1 1 2 Sea (x1 . Los vectores columna de la matriz A son linealmente independientes. λ es un valor propio o autovalor de la matriz A. 3. o 3. 1 2 1 2 Si A es una matriz definida positiva y sim´trica. ´ o 6. y x es un vector propio o autovector para el autovalor λ. Ejemplo. Los vectores fila de la matriz A son linealmente independientes.Sistemas lineales 45 Para toda matriz A ∈ Mn×n son equivalentes: 1. A es producto de matrices elementales. Se dice que A es definida positiva (equivalentemente. 3. el sistema A · x = b tiene una unica soluci´n.2 Matriz definida Sea A ∈ Mn×n . x2 ) · 2x1 + x2 x1 + 2x2 = 2x2 + x1 x2 + x1 x2 + 2x2 = (x1 + x2 )2 + x2 + x2 > 0. se verifica que xt · A · x > 0. entonces.1 Valores propios y vectores propios Sea A ∈ Mn×n . |A| = 0. 2 1 x1 · x2 1 2 = (x1 . son los elementos de n´cleo de u la aplicaci´n lineal A − λ · Id. negativa) si para todo x ∈ Rn no nulo. 5. entonces los autovalores e de A son todos n´meros reales y positivos. Para cada b ∈ Rn . Los vectores propios de A para el autovalor λ. u . 4. x2 ) · es definida positiva. Si existe un vector x ∈ Rn no nulo y un n´mero λ ∈ R tal u que A · x = λx. A−1 existe. (x1 . 2. Los valores propios de una matriz A son las ra´ ıces del llamado polinomio caracter´ ıstico |A − λ · Id|.1. x2 ) un vector no nulo.

. . .. a1n−1 a2n−1 b1 b2 ann−1 bn |A| Los c´lculos anteriores son poco pr´cticos cuando el n´mero de ecuaciones a a u es grande. ... a22 . si |A| = 0. En un sistema de ecuaciones se pueden efectuar operaciones elementales en la matriz de los coeficientes y en la de los t´rminos independientes e y resulta un sistema equivalente. o o u 3.. o Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones. o existe una unica soluci´n y se puede calcular as´ ´ o ı: b1 b2 x1 = bn a12 .. Sumamos a una ecuaci´n otra ecuaci´n multiplicada por un n´mero. . . ..2 Resoluci´n de sistemas de ecuaciones lineales: o m´todo de Gauss e Dado el sistema A · x = b. . .46 Cap´ ıtulo 3 3. Por ejemplo. |A| a1n a2n ann . ··· .. Si |A| = 0. Es decir. o u 2. resulta un sistema equivalente si efectuamos alguna de las siguientes operaciones: 1. para n = 50 se necesitan 1064 operaciones. . xn = a11 a21 a2n . de modo o que en cada paso se mejora la aproximaci´n anterior. puede no haber soluci´n. Intercambiamos dos ecuaciones. an2 .. u • Iterativos: construyen una sucesi´n de soluciones aproximadas. Para evitar este problema se utilizan m´todos num´ricos de resoluci´n de ecuaciones e e o lineales que pueden ser: • Directos: proporcionan un resultado que ser´ exacto salvo errores de a redondeo tras un n´mero determinado de operaciones. Multiplicamos una ecuaci´n por un n´mero distinto de cero.

Si aii = 0. se convierten en 0 los elementos que se encuentran en la columna i de la fila j (j > i).Sistemas lineales 47 3. u llamados multiplicadores. Si a11 = 0.1 M´todo de Gauss e El m´todo de Gauss cl´sico es un m´todo directo que transforma mediante e a e operaciones elementales el sistema de ecuaciones que se pretende resolver en un sistema equivalente triangular de f´cil resoluci´n. se convierten en 0 los elementos que se encuentran en la primera columna distintos del pivote. . se elige aii como elemento pivote. e • Paso i (i ≥ 2). llamados u multiplicadores. . . xn−1 . Conseguido esto. Si aii = 0. . se intercambian las filas para que esto no suceda. Si a11 = 0.2. En las operaciones de sumas de filas hay que incluir los t´rminos independientes. En forma matricial es sistema ser´ ıa      6 −2 2 4 x1 12  12 −8 6 10  x2   34     =  . el c´lculo de la soluci´n es sencillo siguiendo el a o siguiente orden: xn . Sumando a cada una de las filas que ocupan el lugar j (j > i) la fila del elemento pivote multiplicada por n´meros. e Se efect´an los pasos necesarios hasta que la matriz de los coeficientes sea u triangular. se intercambian las filas de orden mayor o igual que i para que esto no suceda. Ejemplo: Resuelve el siguiente sistema de ecuaciones: 6x1 − 2x2 + 2x3 + 4x4 12x1 − 8x2 + 6x3 + 10x4 3x1 − 13x2 + 9x3 + 3x4 −6x1 + 4x2 + x3 − 18x4 = 12 = 34 = 27 = −38. x1 .  3 −13 9 3  x3   27  −6 4 1 −18 x4 −38 En el sistema anterior el m´todo de Gauss podr´ aplicarse as´ e ıa ı: . se elige a11 como elemento pivote. a o El m´todo de Gauss puede resumirse en lo siguiente: e • Paso 1. Sumando a cada una las filas restantes la fila del elemento pivote multiplicada por ciertos n´meros. En las operaciones de sumas de filas hay que incluir los t´rminos independientes.

Elegimos como elemento pivote el t´rmino 6 de la primera fila e y efectuamos las siguientes operaciones: (fila 2a ) − 2(fila 1a ) (fila 3a ) − 1/2(fila 1a ) (fila 4a ) − (−1)(fila 1a ) Paso 2. Paso 1. Elegimos como elemento pivote el t´rmino −4 de la segunda fila y e efectuamos las siguientes operaciones: (fila 3a ) − 3(fila 2a ) obtenemos el sistema  6 −2 0 −4  0 0 0 0 (fila 4a ) − (−1/2)(fila 2a ) obtenemos el sistema      6 −2 2 4 x1 12 0 −4 2 2  x2   10     =  . Elegimos como elemento pivote el t´rmino 2 de la tercera fila y e efectuamos la siguiente operaci´n: o (fila 4a ) − 2(fila 3a ) obtenemos el sistema      12 x1 6 −2 2 4 0 −4 2 2  x2   10       0 0 2 −5 x3  = −9 . 2 −5  x3   −9  4 −13 x4 −21 que es un sistema de ecuaciones triangular superior de f´cil resoluci´n: a o  x1 = 1/6(12 − 4x4 − 2x3 + 2x2 ) = 1 6x1 − 2x2 + 2x3 + 4x4 = 12    −4x2 + 2x3 + 2x4 = 10 x2 = −1/4(10 − 2x4 − 2x3 ) = −3 ⇒ 2x3 − 5x4 = −9  x3 = 1/2(−9 + 5x4 ) = −2   x4 = 1 −3x4 = −3 .48 Cap´ ıtulo 3 1. −3 x4 0 0 0 −3     2 4 x1 12 2 2  x2   10    =  . 0 −12 8 1  x3   21  x4 0 2 3 −14 −26 Paso 3.

De hecho. obtendr´ ıamos que x2 = 0. programa Maxima o Mathematica. el sistema n 1 1 1 x1 x2 = 1 2 aplicando el m´todo de Gauss se transformar´ en e ıa 1 0 1− 1 x1 x2 = 1 2− 1 con lo que las soluciones. por lo que x1 = 0.998998998999. redondeando a dos decimales. En este caso el . U la matriz de los coeficientes final y L la matriz formada por los n´meros que u hemos utilizado para multiplicar las filas (multiplicadores): 1 0  2 1 L= 1/2 3 −1 −1/2  0 0 1 2  0 0  0 1 3. al hacer los c´lculos con le a 999 −17 se obtiene x = 1 y x = 0. con = 10 2 1 Esto sucede cuando el elemento pivote en alg´n paso es muy peque˜o u n comparado con el resto de los elementos a los que divide.2 M´todo de Gauss con pivoteo e En un sistema como este 0.001. ser´ ıan: x2 = 2− 1− 1 1 1 ⇒ x1 = (1 − x2 ) 1 0.2. ser´ x2 = 0.001 1 1 1 x1 x2 = 1 2 el m´todo de Gauss no funcionar´ correctamente por errores de redondeo. Si = 0. Sin embargo las soluciones exactas ıa son x2 = 998 ≈ 1 y x1 = 1000/999 ≈ 1. si consideramos el redondeo. siendo A la matriz de los coeficientes inicial. si = 0 es peque˜o. En e ıa general. que.Sistemas lineales 49 Se verifica que A = L · U .

con k. o Ejemplo: Resuelve el siguiente sistema de ecuaciones: 2x2 + x4 2x1 + 2x2 + 3x3 + 2x4 4x1 − 3x2 + x4 6x1 + x2 − 6x3 − 5x4 = = = = 0 −2 −7 6. con k ≥ i.50 Cap´ ıtulo 3 multiplicador correspondiente ser´ muy grande y la ecuaci´n que origina es a o ”casi¨n m´ltiplo de la ecuaci´n del elemento pivote: u u o 1 1 (fila 2a ) − (fila 1a ) ≈ − (fila 1a ). j ≥ i. Obtenemos la matriz   6 1 −6 −5 | 6 2 2 3 2 | −2   4 −3 0 1 | −7 0 2 0 1 | 0 La matriz de los coeficientes y  0 2 2 2  4 −3 6 1 de los t´rminos independientes ser´ e ıa  0 1 | 0 3 2 | −2  0 1 | −7 −6 −5 | 6 . Este problema se puede resolver de dos formas: 1. independientemente de si aii es cero o no. y se reordenan las filas y columnas. aplicando el pivoteo parcial. Pivoteo parcial: si estamos en el paso i. Elegimos como elemento pivote el t´rmino 6 de la ultima fila por e ´ ser el de mayor valor absoluto de entre los elementos de la primera columna. El pivoteo parcial ser´ este proceso: ıa Paso 1. Esta opci´n tiene un importante o inconveniente pues hay que reordenar las inc´gnitas. Pivoteo total: si estamos en el paso i. se elige como elemento pivote el elemento aki que tenga mayor valor absoluto entre los de la columna i. y se reordenan las filas. 2. independientemente de si aii es cero o no. se elige como elemento pivote el elemento akj que tenga mayor valor absoluto entre los de la columna i y los de la fila i.

9999 Paso 2.Sistemas lineales Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 0 1.6667 4 4.6667 4 4.0001 −3.3333 | −11   U = a ) − 2.0001 (fila 4 6.8182 de la tercera fila y no es necesario a intercambiar filas.1199 que se corresponde con el sistema de ecuaciones 6x1 + x2 + −6x3 − 5x4 −3.8182 5.6667x2 + 4x3 + 4.6667 (fila 3a ) − −3. Este sistema se resuelve f´cilmente por ser triangular despejando las inc´gnitas a o en orden inverso.8182 5.6667 4 4.6667 5 3.0001 −3. Se obtiene la soluci´n: o .6667 | −4  0 2 0 1 | 0 Paso 3.1199.1818 (fila 3a ) 0 0 6.6667 | −4  (fila 2a ) − 2 (fila 1a ) 6   a ) − 4 (fila 1a ) 0 −3.8182 0 0 0 1.5600x4 = = = = 6 −11 . El elemento pivote ser´ 6.6364 | −9. Obtenemos la matriz   6 1 −6 −5 | 6 0 −3.6667 5 3.6667 (fila 2a ) 4 4.3333 | −11    2 a) a) − 0 (fila 4 (fila 2 0 6.6667 0 0 2.667 de la tercera fila por e ser el de mayor valor absoluto de entre los elementos de la segunda columna.3333 | −11 (fila 3 6 0 2 0 1 | 0 51 Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 1. Elegimos como elemento pivote el t´rmino −3. Efectuamos la operaci´n indicada y obtenemos la matriz o siguiente:   6 1 −6 −5 | 6 0 −3.3636 | −5.3333x4 6.8182x3 + 5.5600 | −3.3333 | −11   0 1.1818 3.6364 1.6364 | −9. −9.6667 0 −3.

x2 = 1.52 Cap´ ıtulo 3 x4 = −1.3333 −0. anterior es la siguiente:  0 0  0 1 y se verifica que La matriz L de los multiplicadores en el ejemplo  0 0 1 0. Descomponer la matriz de los coeficientes A en un producto de matrices P · A donde P representa una permutaci´n de filas de A y A = L · U .45454 1 0 −0.9999. El m´todo de Gauss permite: e 1. |P | = (−1)p (p es el n´mero de permutaciones de filas) y U una u matriz triangular: |A| = |P −1 · A | = |P −1 · L · U | = |P −1 ||L||U | = (−1)p |U |. L·U = 2 2 3 2 0 2 0 1 .  6 1 −6 5 4 −3 0 1  := A . En todo caso se verifica que existe una matriz P . x2 = 1.54545 0. x1 = −1/2.33325.6667 1 0 L= 0. x1 = −0. 3. respectivamente. o siendo L y U matrices triangulares inferior y superior. 2. que representa permutaciones de filas si empleamos pivoteo parcial. que es una respuesta aceptable teniendo en cuenta que la soluci´n exacta o x4 = −2. Esto ultimo nos permite calcular el determinante de A de forma sencilla al ´ ser |L| = 1. tal que P · A = A = L · U. es x3 = 0. A = A si no se utiliza el pivoteo.32  El resultado no es exactamente A porque al aplicar el pivoteo hemos permutado filas.0000.50000. Encontrar las soluciones de un sistema de ecuaciones. Calcular el determinante de la matriz de los coeficientes. x3 = 1/3.

Factorizaci´n de Cholesky o o Dado el sistema de ecuaciones Ax = b. . ı Si A = L · U tendremos que      a11 a12 .3 Factorizaci´n LU. .. . . . podemos resolver el sistema de ecuaciones siguiendo estos dos pasos: a Paso 1. 0   0 u22 . e o Los m´todos de factorizaci´n LU consisten en descomponer la matriz en producto de dos matrices triangulares. .. u3n  . .. Resolvemos el sistema Ly = b y obtenemos una soluci´n y. . an1 an2 . e Si A es no singular. . o siendo L triangular inferior y U triangular superior. para despu´s aplicar los pasos 1 y 2 e anteriores y as´ resolver el sistema. . obtendremos una descomposici´n de la matriz A en dos matrices A = L · U . a1n l11 0 0 . o ´ . Adem´s.. ... En este caso la factorizaci´n es unica.       . . calcular de forma sencilla el determinante de A: n n |A| = |L||U | = ( lii )( i=1 i=1 uii ). por ejemplo. ann 0 0 . La soluci´n x obtenida ser´ la o a soluci´n de Ax = b porque o Ax = LU x = Ly = b. una condici´n necesaria y suficiente para que A admita o una descomposici´n L·U de la forma anterior es que los menores fundamentales o (todos los determinantes de las matrices formadas con las primeras k filas y columnas) sean no nulos. Las soluciones a dan lugar a una descomposici´n L · U que es la misma que la obtenida por el o m´todo de Gauss sin intercambio de filas. Si imponemos la condici´n n o o l11 = l22 = · · · = lnn = 1 obtendremos un sistema de ecuaciones f´cilmente resoluble. . u1n  a21 a22 . .. a2n   l21 l22 0 .. . . si aplicamos el m´todo de Gauss sin e pivoteo solo a la matriz de los coeficientes y no a los t´rminos independientes e b. u2n  = . unn ln1 ln2 . Esto permite. Resolvemos el sistema U x = y. 0 u11 u12 .Sistemas lineales 53 3. o Paso 2. . lnn Haciendo el producto de matrices e igualando t´rmino a t´rmino se obtienen e e 2 ecuaciones lineales con n2 + n inc´gnitas.

|A21 | = 3 1 6 3 = 0 y A33 = 3 1 2 6 3 2 −3 0 −8 = 0. Paso 2. Igualando t´rmino a t´rmino o e e las matrices siguientes      u11 u12 u13 1 0 0 3 1 2  6 3 2  = l21 1 0  0 u22 u23  . o . 0 0 u33 l31 l32 1 −3 0 −8 obtenemos u11 = 3 u12 = 1 u13 = 2 l21 u12 = 6 l21 u12 + u22 = 3 l21 u13 + u23 = 2 l31 u11 = −3 l31 u12 + l32 u22 = 0 l31 u13 + l32 u23 + u33 = −8                u11 = 3 u12 = 1 u13 = 2 l21 = 2 ⇒ u22 = 1   u23 = −2      l31 = −1     l32 = 1   u33 = −4 Paso 1. el sistema admite la factorizaci´n L · U buscada.      0 y1 = 0 1 0 0 y1 Ly = b ⇒  2 1 0 · y2  = 1 ⇒ y2 = 1 . 2 x3 1 0 0 −4 x3 = −1 4  que es la soluci´n del sistema. 2 y3 y3 = 1 −1 1 1      x1 = 0 0 x1 3 1 2 U x = y ⇒ 0 1 −2 · x2  = 1 ⇒ x2 = 1 .54 Cap´ ıtulo 3 Ejemplo: Resuelve el siguiente sistema mediante factorizaci´n L · U de o Gauss       3 1 2 x1 0  6 3 2  · x2  = 1 . −3 0 −8 2 x3 Como |A11 | = 3.

. se obtiene la descomposici´n por el m´todo de Cholesky que funciona si y solo o e si la matriz inicial A es sim´trica y definida positiva..1 M´todo de Crout e Si en la factorizaci´n LU fijamos o u11 = u22 = · · · = unn = 1 se obtiene la descomposici´n por el m´todo de Crout. . En la mayor´ de los casos. o 3.3 Sistemas triangulares lineales en los que la matriz de los coeficientes es  a12 0 0 0 ... lnn−1 1 0 0 .. unn−1 unn Son sistemas de ecuaciones de la forma:  a11 a21  A= 0   0 .3.. la matriz o u ıa admite una descomposici´n de la forma o    1 0 0 .. l31 = u13 . 3.. .      .. .. lnn = unn . lij = uji . que tiene el inconveniente o e que puede producir grandes errores en la resoluci´n del sistema de ecuaciones. . si consigo la e descomposici´n de una matriz por el m´todo de Cholesky.3.. . . 0 . 0  a32 a33 a34 0 . 0 . . . . . . puedo asegurar que o e dicha matriz es sim´trica y definida positiva.3..   . .. . 0 ann−1 ann Aparecen frecuentemente en la resoluci´n num´rica de ecuaciones diferenciales o e y en la aproximaci´n por splines c´bicos. 0 .. ... 0  0 u22 u23 0 0      0 l32 1  0 0  0 u32 u33 . l21 = u12 ..Sistemas lineales 55 3... Por tanto. . 0 u11 u12 0 . 0 a22 a23 0 0 . 0 l21 1 0 . e La resoluci´n de un sistema de n = 50 ecuaciones con el m´todo de Choo e lesky requiere 503 /3 operaciones.2 M´todo de Cholesky e Si en la factorizaci´n LU exigimos que U = Lt de modo que o l11 = u11 . . 0 0 .

a)     l11 0 0 60 30 20 l11 l21 l31 30 20 15 = LLt = l21 l22 0   0 l22 l32  l31 l32 l33 20 15 12 0 0 l33  por tanto 2 l11 l11 l21 l11 l31 2 2 l21 l22 l21 l31 + l22 l32 2 2 2 l31 + l32 + l33 = 60 = 30 = 20 = 20 = 15 = 12         l11 l21 l ⇒ 31  l22     l32   l33 √ = √60 = √60/2 = √60/3 = √5 = √5 = 3/3 Descomponiendo la segunda matriz de la parte derecha de la igualdad en un producto de una matriz diagonal por otra triangular superior con 1 en cada La descomposici´n que resulta es o      60 30 20 60 30 20 1 0 0 5 . 20 15 12 l31 l32 1 0 0 u33 .56 Ejemplo: Dada la matriz   60 30 20 30 20 15 20 15 12 Cap´ ıtulo 3 a) Obt´n la descomposici´n de Cholesky. A = 30 20 15 = 1/2 1 0  0 5 20 15 12 1/3 1 1 0 0 1/3 b) La factorizaci´n de Gauss se obtiene resolviendo el sistema de ecuaciones o que se deduce de      60 30 20 1 0 0 u11 u12 u13 30 20 15 = l21 1 0  0 u22 u23  . a partir de ella. e o las descomposiciones de Crout y de Cholesky. e o b) Obt´n la factorizaci´n de Gauss sin intercambio de filas y.

4 Normas y an´lisis del error a Definici´n: Sea V un espacio vectorial. αv = |α| v .  1 0 A = 1/2 1 1/3 1 se obtiene  0 60 0  0 1 0 que   0 0 1 1/2 1/3 5 0  0 1 1  = (∗) 0 1/3 0 0 1 57 Multiplicando las dos primeras  60 30 (∗) = 20 que es la descomposici´n de Crout. Una norma sobre V es una aplicao ci´n · : V → R tal que ∀v. w ∈ V y ∀α ∈ R se verifica que: o 1. o √ √  √  √  0 0 60 60/2 60/3 √ √ 60 √ √  = √60/2 √5 √ 0   0 5 √ 5 60/3 5 3/3 0 0 3/3   0 1 1/2 1/3 1 = 0  0 1 0 0 1 1/3 3.Sistemas lineales elemento de la diagonal. v ≥ 0 (v = 0 ⇔ v = 0) 2. o Si en (∗) descomponemos la matriz diagonal   √  √ 60 √ 0 0 60 √ 0 1 0 0 1/2 1 0  0  0 (∗) = 5 0 5 1/3 1 1 0 0 1/3 0 0 matrices anteriores   0 0 1 1/2 1/3 5 0  0 1 1  4 1/3 0 0 1 que es la descomposici´n de Cholesky. v + w ≤ v + w 3. .

con las operaciones suma y producto por un n´mero real es un espacio vectorial. . Norma del m´ximo o norma infinito: (x.58 Cap´ ıtulo 3 Ejemplo: las siguientes son normas definidas sobre el espacio vectorial R3 : 1. B ∈ Mn×n V entones dicha norma es una norma matricial. La distancia entre dos vectores se mide con la norma del vector diferencia. z) 1 = max(|x|. Si adem´s de esas condiciones se verifica que A·B ≤ A B A. Puesto que el conjunto Mn×n de las matrices cuadradas de orden n. La norma vectorial y su norma matricial subordinada son siempre compatibles. y. Las normas del ejemplo son diferentes formas de ”medir”las distancias entre los vectores de R3 . z) a 3. y. |y|. Norma 1: (x. Una norma matricial · M sobre Mn×n y una norma vectorial · Rn se dice que son compatibles si se verifica que Av V sobre ≤ A M v V ∀A ∈ Mn×n ∀v ∈ Rn . z) 2 = x2 + y 2 + z 2 ∞ 2. Norma eucl´ ıdea o norma 2: (x. u para ”medir”matrices tambi´n se utilizar´n normas que. por tanto. es posible definir una norma matricial sobre Mn×n de la siguiente forma: A M = max{ Av V : v V = 1} Esta nueva norma se llama norma matricial inducida o subordinada a la norma vectorial correspondiente. Dada cualquier norma vectorial · V sobre Rn . |z|) = |x| + |y| + |z| La norma de un vector mide la ”distancia”de ese vector al origen. y. tendr´n e a a o a que verificar las condiciones de la definici´n de norma.

4.  3 1 2 De modo que  6 3 2  = max(12. −3 0 −8 1 2.   2 3 0 Para calcular A 2 = 0 −1 0 debemos calcular primero los au0 0 1 2 tovalores de At · A que son las ra´ ıces de  13 − α −3 0 1−α 0  = (1 − α)(α2 − 14α + 4). |At A − αId| =  −3 0 1−α 0 √ 5 y 1 y como consecuencia √  2 3 0 = 0 −1 0 0 0 1   Los autovalores de At A son 7 ± A 2 = 2 7+ 5 3. La norma matricial inducida por la norma vectorial 1 en R3 es A   a11 a12 a13 = a21 a22 a23  a31 a32 a33 n 59 1 = max1≤j≤n 1 i=1 |aij |. .  A 2 = ρ(At ·A) es el radio espectral de At ·A que es el m´ximo de los valores absolutos a de los autovalores de la matriz At · A.Sistemas lineales Ejemplos: 1. La norma matricial inducida por la norma vectorial 2 en R3 es ρ(At · A). La norma matricial inducida por la norma infinito en R3 es  a11 a12 a13 = a21 a22 a23  a31 a32 a33  n A ∞ = max1≤i≤n ∞ j=1 |aij |. 12) = 12.

11. ∞ 1≤i. o Supongamos que en vez de b utilizamos b de modo que la soluci´n del o n sistema es x y Ax = b.1 N´ mero condici´n de una matriz u o k(A) = A A−1 . k(a) b x b r 1 k(a) b Demostraci´n. Teorema: e r 1 r ≤ ≤ k(a) . 11) = 11. se verifica que Ae = Ax − Ax = o b − b = r. Se verifica que Ax ≤ A−1 r A x .60  3 1 2 De modo que  6 3 2  −3 0 −8  Cap´ ıtulo 3 = max(6. Se verifica que b x = Ae A−1 b ≤ A e A−1 1 A A−1 r e ≤ b x Vemos que e x ≤ k(a) r b . 4. Se define la norma matricial de Fr¨benius como A = o 3. e b ≤ A−1 r .4. Esto puede ser debido a que hay un peque˜o error cometido al hacer alguna medida en b o bien porque en vez de la soluci´n o exacta x hemos obtenido una soluci´n aproximada x. Veamos que o r Por tanto ≤ e x . si a peque˜os cambios en los datos (A o b) pueden producir grandes cambios en la n soluci´n del sistema. u o Se define el n´mero de condici´n de una matriz A como El n´mero de condici´n siempre es mayor o igual que 1 y se utiliza para estimar u o si un sistema de ecuaciones Ax = b est´ bien o mal condicionado.j | 2. es decir. Si denotamos e al error o en la soluci´n y r al error en b o error residual.j≤n |ai.

Acota el error relativo de las posibles soluciones en funci´n del error en o los datos. el sistema puede estar mal condicionado y peque˜os cambios en los datos podr´n producir grandes cambios en la soluci´n.53 x1 2  4.27 −18. n a o     3.33  x 2  = 3  0.83 −0. Si por o e a b el contrario k(A) es muy grande.47 x3 5  1. b Si k(A) est´n cerca de 1 el sistema estar´ bien condicionado porque el error a a relativo en la soluci´n x ser´ similar al error relativo r en los datos.88 k(a) = A A−1 = 6.85 −102.65 −255.05 2.91 −76.66 −7.55 A−1 =  200. a) La matriz inversa redondeada a dos decimales es   5.67 · 1138.Sistemas lineales Por tanto 61 e ≤ A A−1 x r .54 1.68 = 7595. 2. Encuentra el n´mero de condici´n de la matriz A de los coeficientes con u o · ∞.56 −1.02 −1.63 · 10−5 r ≤ e ≤ 1591 r x con lo que .26 −669. b) Se verifica que e r 1 r ≤ ≤ 7595 7595 5 x 5 es decir 2.78 Ejemplo: Dado el sistema −0.51 −268.

1 Mejora de soluciones Refinamiento iterativo Es un m´todo para mejorar una soluci´n aproximada ya obtenida. .05 · 10−4 e1 420 210 140 105 210 140 105 84  e2   −7.000215 105 84 70 60 319 2. El m´todo consiste en aplicar los siguientes pasos: e 1. 1.0000000 · 10−5      r =  −  399 140 105 84 70  0.999670 =  −3. −1. 1.4 · 10−5 . o a Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´n.000137  −7. 1).5000000 · 10−5  . La nueva soluci´n aproximada ser´ x = x + e.999988.000215). o        −1.1 · 10−5 .999670. aplica el m´todo de e refinamiento iterativo para mejorarla.5. −2.5 · 10−5  −4. o Ejemplo: Si como soluci´n aproximada del sistema o      420 210 140 105 x1 875 210 140 105 84  x2  539      140 105 84 70  x3  = 399 105 84 70 60 x4 319 se obtiene x = (0. La nueva soluci´n es x = (0. Calculo r = b − Ax con doble precisi´n. 0.15 · 10−4 ) o 3. 1.0 · 10−5       140 105 84 70  e3  =  −3. Calculo r = b − Ax con doble precisi´n. 1. Sea x una e o soluci´n aproximada de Ax = b tal que Ax = b. −4.999999.999988 420 210 140 105 875 539 210 140 105 84  1. o 2. Se verifica que o x = A−1 b = x + x − x = x + A−1 b + A−1 b = x + A−1 (b − b) = x + A−1 r = x + e. 3.62 Cap´ ıtulo 3 3.05000000 · 10−4 0. Calculo e resolviendo el sistema Ae = r. 0.5 3.8 · 10−5 e4 105 84 70 60  y obtengo e = (1.8000000 · 10−5 1.999997.000137. Resuelvo     −1.30 · 10−4 . 3.

la soluci´n num´rica del sistema puede contener errores.2 Escalamiento Si en un sistema de ecuaciones los coeficientes de las inc´gnitas son de muy o diferente magnitud. o e Ejemplo: Resolvamos el siguiente sistema por eliminaci´n gaussiana: o 2x1 + 100000x2 = 100000 x1 + x 2 = 2 2 100000 100000 1 1 2 (fila 2) − 1/2 (fila 1) 2 100000 100000 0 −999991 −99998 De modo que las soluciones son x1 = x2 = 100000−100000x2 ≈0 2 −99998 −99999 ≈ 1( redondeado a 4 cifras) Sin embargo el resultado correcto es x1 = 1.5. Al aplicar el escalamiento o podemos cometer a su vez errores de redondeo.00002 y x2 = 0.99998. pero puede ayudar en casos extremos cuando hay mucha diferencia entre los coeficientes.00002x1 + x2 = 1 x1 + x 2 = 2 redondeando a 4 decimales x2 = 1 x1 + x 2 = 2 aplicando el pivoteo x1 + x 2 = 2 x2 = 1 y las soluciones son x1 = y x2 = 1. Para solucionar este problema se puede recurrir al escalamiento que consiste en multiplicar cada ecuaci´n por un n´mero para que el coeficiente m´s o u a grande de las inc´gnitas en valor absoluto sea 1. Ejemplo: En el caso anterior 0. .Sistemas lineales 63 3.

o a o En la pr´ctica. que suelen aparecer por ejemplo en la resoluci´n de ecuaciones o diferenciales en derivadas parciales. Son sensibles a errores de redondeo que se acrecientan al aumentar n. Es esencial que M sea una matriz regular y es conveniente que sea una matriz sencilla para facilitar el c´lculo. . . El m´todo es convergente si la sucesi´n generada e o converge a la soluci´n del sistema a partir de cualquier vector inicial x0 . veremos que para encontrar la soluci´n del o sistema basta encontrar un vector fijo de la funci´n G(x). es decir. De modo que Ax = b ⇔ (M − N )x = b ⇔ M x = N x + b ⇔ x = M −1 (N x + b) Si definimos G(x) = M −1 (N x + b). el l´ Todos las m´todos iterativos de resoluci´n de un sistema Ax = b se basan e o en la descomposici´n de la matriz A en diferencia de dos matrices M − N .64 Cap´ ıtulo 3 3. a La condici´n que asegura la convergencia es la siguiente. con o muchos ceros. Para ello se genera o una sucesi´n xk = G(xk−1 ) partiendo de una determinada soluci´n aproximada o o x0 . De modo que. dadas las matrices M y N . . aunque te´ricamente conducen a una soluci´n o o exacta. x2 . La sucesi´n converger´ a la soluci´n en determinadas condiciones. . Es o ımite es la soluci´n. Un m´todo iterativo de resoluci´n de un sistema de n ecuaciones Ax = b e o 0 ∈ Rn genera una sucesi´n de posibles soluciones es aquel a partir de un x o aproximadas x1 . en la pr´ctica la soluci´n obtenida puede ser peor que la obtenida a o aproximadamente por un m´todo iterativo.6 M´todos iterativos e Los m´todos directos estudiados anteriormente requieren aproximadamente e n3 /3 operaciones. o . en caso de converger. e Los m´todos iterativos est´n especialmente indicados para la resoluci´n e a o de sistemas con una matriz de gran dimensi´n pero dispersa. puesto que a xk = G(xk−1 ) = M −1 (N xk−1 ) + b) ⇒ M xk = N xk−1 + b. para calcular xk a partir de xk−1 se resuelve el sistema M xk = N xk−1 + b. o consistente si. o siendo M una matriz regular.

≤ i=1 xk+i − xk+i−1 < p−1 λk+i−1 x1 − x0 λk−1 − λk+p−1 k→∞ → 0. .Sistemas lineales 65 Teorema: En las condiciones anteriores. entonces la sucesi´n xk+1 = G(xk ) converge a un punto o fijo de la funci´n G(x). si existe una norma matricial tal que M −1 N < 1. − xk p p−1 i=0 λ xk − xk−1 < . = M −1 N (y − y ) Si M −1 N < λ < 1 para un cierto λ ∈ R. A partir de un vector x0 vamos generando la sucesi´n xk+1 = G(xk ) y se o verifica que xk+1 − xk = G(xk ) − G(x)k−1 = G(xk − xk−1 ) < Por tanto xk+p − xk < xk+p − xk+p−1 + xk+p−1 − . entonces G(y)−G(y ) < λ y−y . o Demostraci´n. Dicho vector x verifica que x − G(x) = lim xk −G( lim xk ) = lim G(xk−1 ) − G( lim xk ) k→∞ k→∞ k→∞ k→∞ = G( lim (xk−1 − xk )) = G(0) = 0 ⇒ x = G(x). k→∞ . . . . 1−λ = x 1 − x0 i=0 λk+i−1 = x1 − x0 De modo que la sucesi´n xk+1 = G(xk ) es una sucesi´n convergente a un o o vector x ∈ Rn si M −1 N < λ < 1 para un cierto λ ∈ R. Teniendo en cuenta que o G(y) − G(y ) = M −1 (N y + b) − M −1 (N y + b) ≤ M −1 N = M −1 N y − M −1 N y y−y . < λk x1 − x0 .

Hay que tener en cuenta lo siguiente: 1. Si M −1 N < 1 para alguna norma matricial. El m´todo converge si M −1 N < 1 para alguna norma matricial. L =  a31 a32 0    ··· ann an1 an2 · · ·  u12 · · · u1n 0 u23 · · · u2n    ···  ··· 0 un−1n  ··· 0 0    0 0  0   0 a11 0 · · ·  0 a22 0 D=  ··· 0 ··· ··· ··· ann−1 En el m´todo de Jacobi M = D y N = −(L + U ).1 M´todo de Jacobi e Dada la matriz A = (aij )1≤i. puedo calcular xk a partir de xk−1 .j≤n .6. Si |M | = 0.66 Cap´ ıtulo 3 En resumen. Para calcula xk a partir de e xk−1 se resuelve el sistema Dxk = −(L + U )xk−1 + b. Para aplicar el m´todo se requiere que aii = 0 para todo i. la sucesi´n xk converge o a la soluci´n del sistema Ax = b. Puesto e que  −a12 −a13 −a1n  0 ··· a11 a11 a11 −a23 −a2n   −a21 0 ··· −1 a22 a22   a22 M N =  ··· −ann−1 −an1 ··· 0 ann ann y 0  0 0  U =  0 0 . Si |A| = 0. Si el sistema M x = c se resuelve f´cilmente. o 3. 2. un m´todo iterativo de resoluci´n de un sistema Ax = b e o consiste en generar una sucesi´n xk = G(xk−1 ) siendo G(x) = M −1 (N x + b) o y A = M − N . se definen:  0 ··· 0  a21 0 · · ·  0  . a 3. esto se e puede conseguir intercambiando filas si fuese necesario. el m´todo iterativo es m´s a e a r´pido.

.Sistemas lineales M −1 N = max1≤i≤n n 1 j=1. 2. 1/2. .j=i |aij | aii . e Ejemplo: Aplica una iteraci´n del m´todo de Jacobi al siguiente sistema o e      0 x1 6 5 0 0 2 1  x 2  = 1  . . ii otra condici´n suficiente es que lo anterior sea menor que 1. n.j=i |aij | Como M −1 N 1 = max1≤j≤n n i=1. 0. 0). 67 ∞ una condici´n suficiente para que el m´todo de Jacobi converja es que la matriz o e ∀i = 1. habr´ que resolver el sistema a   1      0 0 x1 0 −5 0 0 0 2 0 x1  =  0 0 −1 0 + 1 2 0 3 x1 −2 0 0 0 0 3 6x1 = 0 x1 = 0 1 1 1 = 1 ⇒ x1 = 1 2x2 2 2 3x1 = 0 x1 = 0 3 3 Por tanto Si elegimos como  6 0 0 El siguiente vector ser´ x1 = (0. A sea diagonal dominante. es decir que |aii | > n j=1. una tercera condici´n suficiente es que la matriz D − L − U ´ o sea sim´trica y definida positiva. 0 x3 2 0 3 La matriz es diagonal dominante de modo que la sucesi´n xk de vectores o generados mediante el m´todo de Jacobi converger´ a la soluci´n. .i=j |aij | a1 . o Por ultimo. Se tiene e a o que     0 −5 0 6 0 0 0 −1 − (L + U ) =  0 D = 0 2 0 −2 0 0 0 0 3 vector inicial el x0 = (0. ıa . 0).

0 0 0 resolver el sistema     −2 0 0 0  0  + 1  0 −1 0 0 0 0 . El sistema a resolver para calcular xk e a partir de xk−1 ser´ (D+L)xk = −U xk−1 +b. 3 0 x3 y se obtiene que x1 = (0. Distintas condiciones suficientes a para que el m´todo funcione son: e 1. e a a Ejemplo: Aplica el m´todo e  6 2 0 5 2 0 Tendremos que de Gauss-Seidel al siguiente sistema     0 x1 0 1  x 2  = 1  . 0) Si partimos de x0  6 0 2   6 0 0 D + L = 0 5 0 2 0 3 = (0. que A sea sim´trica y definida positiva. habr´ que a   1  0 0 x1 0  x1  = 0 5 0 2 0 3 x1 0 3   0 2 0 U = 0 0 1 . e El m´todo de Gauss-Seidel es dos veces m´s r´pido que el de Jacobi. 0). que At sea diagonal dominante 3.2 M´todo de Gauss-Seidel e En este m´todo M = D + L y N = −U .68 Cap´ ıtulo 3 3. 1/5. 0. que A sea diagonal dominante 2.6.

n i+1 el c´lculo de las componentes de xk se divide en etapas. 1 2 n−1 En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de n con el consiguiente ahorro en tiempo. n 1 2 3 Etapa 2: calculo xk usando (xk . o • Super-relajaci´n si w > 1 o • Gauss-Seidel si w = 1. Si w ∈ (0. xk . n 2 1 3 Etapa 3: calculo xk usando (xk . . xk−1 . . xk−1 ). . xk . . . . Una condici´n suficiente para la convere o gencia es que A sea sim´trica y definida positiva. . xk ). .6. para calcular e k (xk ) se utilizan las componentes xk . xk−1 .3 M´todos de relajaci´n e o En el m´todo de Jacobi. . . Adem´s. . 2) el m´todo no converge. . xk−1 ). xk−1 . De este modo. e . . . xk la componente i-´sima de x e 1 2 i i−1 del vector xk y las componentes xk−1 . . En funci´n de su o o valor se tiene • Subrelajaci´n si 0 < w < 1. xk . . . En un m´todo de relajaci´n se considera e o M= 1 D+L w N= 1−w D−U w con lo que M − N = A. . la informaci´n obtenida en a o cada etapa se incorpora a la siguiente. . Los m´todos que utilizan esto ultimo se e ´ llaman ”m´todos de relajaci´n sucesiva”y se desarrollaron para la resoluci´n de e o o sistemas con matrices de dimensi´n grande pero con casi todos los elementos o nulos. utilizando en cada a una de ellas un vector diferente: Etapa 1: calculo xk usando (xk−1 . para calcular cada componente de xk se utilizan todos e los valores de xk−1 . . . Sin embargo. xk−1 del vector xk−1 . . .Sistemas lineales 69 3. xk−1 ). . w se llama factor de relajaci´n. en el m´todo de Gauss-Seidel. n 3 1 2 4 k Etapa n: calculo xn usando (xk .

.

(x1 . 1. yn ) con xi = xj . . .Cap´ ıtulo 4 Aproximaci´n de funciones o Dada una tabla de datos como esta x y −1 −2 0 −2 1 0 2 4 que representa unos valores y en funci´n de otros x.1 Construcci´n del polinomio interpolador o Teorema: Dada una tabla de n + 1 puntos (x0 . existe un unico polinomio Pn (x) de grado menor o igual que n de ´ modo que Pn (xi ) = yi ∀i = 0. n. . . . Dicho polinomio se llama polinomio interpolador de los puntos. y1 ). . pretendemos encontrar o una funci´n y = f (x) que pase por esos puntos. y0 ). . o 4. 71 . . (xn .

es decir. . . existe un unico polinomio de grado menor o igual que 3 que o ´ pasa por los puntos de la tabla. . Dicho polinomio es P (x) = −2 + x + x2 . Consideremos un polinomio cualquiera de grado menor o o igual que n : Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn .72 Cap´ ıtulo 4 Demostraci´n. 1. el sistema es compatible determinado y tiene una unica soluci´n. x2 · · · n Por lo tanto. tiene una unica ´ soluci´n. . ´ o Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de la tabla x y −1 −2 0 −2 1 0 2 4 Como son 4 puntos buscaremos un polinomio de grado menor o igual que 3 de la forma Pn (x) = a0 + a1 x + a2 x2 + a3 x3 . Puesto que queremos que Pn (xi ) = yi ∀i = 0. . El sistema que resulta es a0 + a1 (−1) + a2 (−1)2 + a3 (−1)3 a0 + a1 (0) + a2 (0)2 + a3 (0)3 a0 + a1 (1) + a2 (1)2 + a3 (1)3 a0 + a1 (2) + a2 (2)2 + a3 (2)3 = = = = −2 −2 −2 4 Que es un sistema compatible determinado y que. por tanto. n tendremos que n a0 + a 1 x0 + a 2 x2 + · · · + a n x0 = y 0 0 2 + · · · + a xn = y a0 + a 1 x1 + a 2 x1 n 1 1 ··· 2 n a0 + a 1 xn + a 2 xn + · · · + a n xn = y n que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´gnitas en el que o el determinante de la matriz de los coeficientes es distinto de 0 : x0 x1 ··· 1 xn 1 1 2 x0 x2 1 ··· ··· xn 0 xn 1 xn n = 0.

(x − xi−1 )(x − xi+1 ) .xi+2 ]−[xi . xi+k ] = i+1 xi+k −xi Las diferencias divididas son invariantes frente a permutaciones.··· . y0 ). y0 ). Πj=i (xi − xj ) (xi − x0 )(xi − x1 ) . . xi+2 ] = [xi+1 . .xi+k ]−[xi . . . x2 ] = [x1 . yn ). xi+1 . . . Dados los puntos (x0 .xi+k−1 ] • de orden k [xi . Ejemplo: En el ejemplo anterior L0 (x) = L2 (x) x(x−1)(x−2) (−1)(−2)(−3) = (x+1)x(x−2) 2·1(−1) L1 (x) = L3 (x) (x+1)(x−1)(x−2) 1(−1)(−2) (x+1)x(x−1) = 3·2·1 4. (xi − xi−1 )(xi − xi+1 ) . .xi+1 ] xi+2 −xi ··· [x . y1 ).··· . . . yn ). . .2 M´todo de Newton e • de segundo orden: [xi . . xi+1 . (xn . xi+1 ] = xi+1 −yii i+1 −x La tabla siguiente permite construir de forma sencilla las diferencias divididas: .Aproximacion de funciones 73 4. x0 . (x1 . . .1 M´todo de Lagrange e Dados los puntos (x0 . . (x1 . se pueden calcular las diferencias divididas y • de primer orden: [xi . . el polinomio interpolador Pn (x) se puede calcular as´ ı: n Pn (x) = i=0 Li (x)yi donde Li (x) = Πj=i (x − xj ) (x − x0 )(x − x1 ) . . y1 ).1. x2 ]. (xn . . (xi − xn ) Li (xi ) = 1 de modo que Pn (xj ) = i=0 n Se verifica que Li (xj ) = 0 ∀i = j Li (xj )yi = yj . . .1. Por ejemplo: [x0 . (x − xn ) = . x1 .

. x1 .74 x0 x1 x2 x3 . De modo que tenemos la funci´n o Φ(t) = f (t) − Pn (t) − λw(t) . xn ](x − x0 )(x − x1 ) . b] existe un punto θx ∈ (a. x1 . x1 . x2 ](x − x0 )(x − x1 ) + . b] existe un λ ∈ R tal que f (x) − Pn (x) = λw(x). . (xn . (t − xn ). Sea w(t) = (t − x0 )(t − x1 ) . . . x2 . x2 ... . (x − xn ). (x1 . . . (n + 1)! Demostraci´n. y0 ). . x2 ] [x1 . x2 ] [x2 . x3 ] [x0 . b) y sea Pn (x) su polinomio interpolador en los nodos x0 . xn contenidos en [a. x3 ] Cap´ ıtulo 4 El polinomio interpolador se construye a partir de las diferencias divididas as´ ı: Pn (x) = y0 + [x0 . x1 ] [x1 . x1 ](x − x0 ) + [x0 . (x − xn−1 ). Ejemplo: En el ejemplo anterior la tabla ser´ la siguiente ıa −1 0 1 2 −2 −2 0 4 0 2 4 1 1 0 y el polinomio ser´ P (x) = −2 + 1(x + 1)x. x1 . Para un valor fijo o x ∈ [a. . . . podemos estimar el error que se comete al aproximar f (x) por o su polinomio interpolador Pn (x) de grado menor o igual que n. . si conocemos cierta informaci´n sobre las derivadas de la o o funci´n f (x). . Para cada x ∈ [a. x3 ] [x0 . . yn ) que provienen de una cierta funci´n y = f (x). . Teorema: Sea f (x) una funci´n n + 1 veces diferenciable en un intero valo (a. ıa 4. y0 y1 y2 y3 [x0 . b) tal que f (x) − Pn (x) = f n+1) (θx ) (x − x0 )(x − x1 ) . . . y1 ). . · · · + [x0 . x2 . x1 .2 Error del polinomio interpolador Dados los puntos (x0 . b]. . .

x0 . . (n + 1)! Ejemplo: El error al aproximar la funci´n f (x) = sen(x) en un punto o x ∈ [0. x1 . 1] mediante un polinomio interpolador en 9 nodos contenidos en el intervalo [0.Aproximacion de funciones 75 que vale 0 en x. Φ1) (t) se anular´ en n + 1 puntos. ¿qu´ nodos podemos elegir? o a e Elegir los nodos proporcionados por los polinomios de Chebyshev tienen alguna ventaja. (n + 1)! f n+1) (θx ) . 1] se puede acotar as´ ı: |f (x) − P9 (x)| ≤ |f 10) (θx )| 9 1 |Πi=0 (x − xi )| ≤ < 2. .1 Elecci´n de nodos. b): a a Φn+1) (θx ) = f n+1) (θx ) − P n+1) (θx ) − λwn+1) (θx ) = 0 es decir f n+1) (θx ) − λ(n + 1)! = 0 ⇒ λ = Como consecuencia f (x) − Pn (x) = f n+1) (θx ) w(x). . a Φ2) (t) se anular´ en n puntos y Φn+1) (t) se anular´ en 1 punto θx ∈ (a. 2n . Definici´n: Los polinomios de Chebyshev se definen as´ o ı: T0 (x) = 1 T1 (x) = x Tn+1 (x) = 2xTn (x) − Tn−1 (x) si n ≥ 1 Proposici´n: Las ra´ o ıces del polinomio de Chebyshev Tn (x) si n ≥ 1 son los valores 2j − 1 cos π ∀1 ≤ j ≤ n.2.8 · 10−7 10! 10! 4. xn . . Polinomios de Chebyshev o Si pretendemos encontrar un polinomio que interpole a una determinada funci´n y los nodos no est´n previamente fijados. Por tanto.

1] en o ın el intervalo [a. Estos ser´ los nodos en el intervalo [−1. .b] Ejemplo: Calcula los cuatro nodos para la interpolaci´n de una funci´n o o en el intervalo [−1. obtenemos unos nuevos nodos tales que: |f (x) − Pn (x)| ≤ b−a n+1 2 max |f n+1) (t)|. a Teorema: Si los nodos (xi ). de interpolaci´n de una o funci´n f (x) en x ∈ [−1. a n a Si en lugar del intervalo [−1. 1].9239 x1 = −0. . si aplicamos a los nodos de Chebyshev la transformaci´n af´ que lleva el intervalo [−1. se hace m´ o o ınima cuando xi son las ra´ ıces del polinomio de Chebyshev correspondiente. . todas las ra´ de cualquier polinomio de Chebyshev ıces est´n contenidas en el intervalo [−1. 2n (n + 1)! t∈[a. El resultado del teorema permite encontrar una cota del error del polinomio interpolador m´s peque˜a que la establecida con car´cter general. b]. Establece una cota del error en cada caso para la funci´n f (x) = o sin(x). |f (x) − Pn (x)| ≤ n 2 (n + 1)! |t|≤1 La justificaci´n del teorema se basa en que la expresi´n o o max Πn |(x − xi )| i=0 |x|≤1 que proviene de la f´rmula general del error en la interpolaci´n. b].76 Cap´ ıtulo 4 Como consecuencia. 8] haciendo uso de los polinomio de Chebyshev. 1] y en el intervalo [2. con i = 0. . 1] son las ra´ del polinomio de Chebyshev T n+1 (x). 8] necesitamos una transformaci´n af´ αx+β que lleve el intervalo o ın . Calculamos las ra´ ıces de T4 (x) = 8x4 − 8x2 + 1 : x0 = −0.9239. o ıces entonces 1 max |f n+1) (t)|. Para calcular los nodos en el ıa intervalo [2. 1. 1].3827 x2 = 0. 1] tenemos un intervalo [a.3827 x3 = 0. n.

. 8] : |f (x) − Pn (x)| ≤ b−a n+1 2 max f n+1) (t) 2n (n + 1)! t∈[a. Sin embargo. dada funci´n o o 1 f (x) = 1+x2 en [−5.63].1481 x3 = 7.b] 1 1 max |f n+1) (t)| ≤ 3 2n (n + 1)! |t|≤1 2 (4)! ≤ 34 . 1]. si elegimos los nodos xi igualmente espaciados.8519 x2 = 6. 23 4! ¿Es cierto que si n aumenta el polinomio Pn (x) se ”parece”m´s a la funa ci´n f (x)? En general la respuesta es que no. en la cual la convergencia o se produce solo en los puntos −1. 3. 1.7716. 8] : [−1. Por ejemplo. para cualquier elecci´n o de nodos es posible encontrar una funci´n continua tal que no se produce esa o convergencia uniforme.1) Otro ejemplo es la funci´n f (x) = |x| en [−1. 5]. 1] en el intervalo [2. se puede demostrar que los polinomios no convergen a la funci´n fuera del intervalo o [−3. No obstante. (Ver figura 4. 8] −1 → α(−1) + β = 2 1 → α(1) + β = 8 77 Resolviendo el sistema formado por las dos ultimas ecuaciones. Veamos las cotas de los errores para la funci´n f (x) = sin(x) en cada caso.2284 x1 = 3. entonces Pn (x) converge uniformemente a f (x) en todo el intervalo. 1] : |f (x) − P (x)| ≤ Para el intervalo [2. 8] : x0 = 2.Aproximacion de funciones [−1.63. Aplicamos esta transformaci´n a los nodos de o o Chebyshev y obtenemos los nuevos nodos en el intervalo [2. 0. o Para el intervalo [−1. si elegimos los nodos de Chebyshev y la funci´n f (x) a ino terpolar es continua y con derivada continua. obtenemos que ´ la transformaci´n es 3x + 5. 1] → [2.

3. 4.1: 1 1+x2 y sus polinomios interpoladores de grado 10 y 20.5 1 0.5 1 0. o se puede obtener una aproximaci´n a la funci´n f (x) dividiendo el intervalo o o en varios intervalos m´s peque˜os (subintervalos) y utilizando polinomios de a n peque˜o grado (1.5 -1 2 3 4 5 6 .78 2 1.5 1 -0.5 -2 2 1.3 4.) distintos para interpolar los valores de cada sun bintervalo.2. La siguiente gr´fica muestra la funci´n seno y una funci´n que la a o o interpola con trozos de recta en varios puntos: 1 0. b].5 -4 -4 -2 2 4 -0.5 Cap´ ıtulo 4 2 4 Figura 4.1 Interpolaci´n a trozos y con condiciones sobre o la derivada Interpolaci´n a trozos o Si disponemos de ciertos valores de una funci´n f (x) en un intervalo [a.3. etc.

Puesto que son tres las condiciones que tenemos. Ejemplo 1: Encuentra un polinomio P (x) tal que P (0) = 0.5 = 2 b+c = 2 El sistema anterior no tiene soluci´n. con lo que habr´ que buscar entre los o ıa polinomios de grado 4.5) = 2 b + 2 · c · 0. 4.2 Interpolaci´n con condiciones sobre la derivada o El siguiente es un ejemplo de problema de interpolaci´n con condiciones sobre o la derivada.5) = 2. o ´ Ejemplo 2 (Interpolaci´n de Hermite): Encuentra un polinomio P (x) que o interpole a una funci´n y = f (x) sabiendo que o x y y −1 1 2 0 1 0 1 −1 0 Puesto que hay seis condiciones para la funci´n y sus derivadas buscamos o entre los polinomios de la forma P (x) = a0 + a1 x + · · · + a5 x5 que tienen seis .Aproximacion de funciones Ejercicio: Dada la tabla x y −1 −2 0 −2 1 0 2 4 79 encuentra una funci´n formada o a) por trozos de recta b) por trozos de par´bola a que pase por los puntos anteriores. es decir. cabe pensar que basta buscar entre los polinomios con tres par´metros.3. Al plantear las ecuaciones correspondientes resulta un sistema con soluci´n no unica. P (1) = 1 y P (0. los polinomios de a grado 3 de la forma P (x) = a + bx + cx2 : P (0) = 0 a = 0 a = 0 P (1) = 1 ⇒ b+c = 1 ⇒ b+c = 1 P (0.

5 -1 -0. Planteamos el sistema correspondiente seg´n las condiciones y u obtenemos lo siguiente: P (−1) = 1 P (−1) = 2 a0 = 1 P (0) = 1 P (0) = 0 ⇒ a1 = 0 a2 = −3 P (1) = 0 P (1) = 0 2 a3 = −3 1 a4 = 2 a5 = 2 3 Con lo que el polinomio buscado es P (x) = 1 − 2 x2 − 3x3 + 1 x4 + 2x5 .2: La funci´n g(x) o Buscamos una funci´n de la forma o g(x) = P (x) si x ∈ [−1. 2 Ejemplo 3 (Interpolaci´n de Hermite c´bica a trozos): Encuentra una o u funci´n formada por trozos de polinomios de grado 3 que verifique las siguieno tes condiciones x y y −1 1 2 0 1 0 1 −1 0 1 0. 0] Q(x) si x ∈ [0.5 -0.5 -1 0.5 1 Figura 4. 1] .80 Cap´ ıtulo 4 coeficientes.

5 -0.Aproximacion de funciones 81 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 .3: La funci´n h(x) o Buscamos una funci´n de la forma o h(x) = P (x) si x ∈ [−1.5 -1 -0. 1] 1 0. 1] . A partir de las condiciones planteamos el sistema P (−1) = 1 P (−1) = 2 Q(0) = 1 Q (0) = 0 P (0) = 1 P (0) = 0 Q(1) = −1 Q (1) = 0 con lo que g(x) = (Ver Figura 4. 0] 1 − 6x2 + 4x3 si x ∈ [0. 0] Q(x) si x ∈ [0.2) Ejemplo 5 (Splines c´bicos): Encuentra una funci´n polin´mica c´bica a u o o u trozos que sea de clase C 2 (continua. derivable y con derivada segunda continua) que verifique las siguientes condiciones x y −1 1 0 1 1 −1 1 + 2x2 + 2x3 si x ∈ [−1.5 -1 0.5 1 Figura 4.

Este sistema tiene soluci´n unica si el sistema Au = 0 tiene o ´ unicamente la soluci´n 0. o o Demostraci´n. Por ejemplo. Veamos que esto ultimo o ´ ´ .3) 3 1 1 − x − 2 x2 − 2 x3 si x ∈ [−1. · · · . 0] 3 2 1 1 − x − 2 x + 2 x3 si x ∈ [0. yi . Si el n´mero de condiciones impuestas es k1 + k2 + · · · + kn = m + 1 u entonces Teorema: Existe un unico polinomio de grado menor o igual que m que ´ satisface las condiciones de interpolaci´n de Hermite anteriores. yi los valores de una cierta funci´n y sus derivadas en n + 1 puntos. Las j condiciones P j (xi ) = yi dan lugar a un sistema de m + 1 ecuaciones de la forma Au = y. a˜adimos las siguientes a n P (−1) = 0 Q (1) = 0 y obtenemos un sistema compatible determinado de modo que h(x) = (Ver Figura 4. si el sistema formado por las condiciones o ´ P j) (xi ) = 0 tiene como soluci´n unica el polinomio 0. Sea P (x) un polinomio de grado menor o igual que m. es decir.82 Cap´ ıtulo 4 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 de modo que P (−1) = 1 P (0) = 1 Q(0) = 1 Q(1) = −1 P (0) = Q (0) P (0) = Q (0) Puesto que tenemos 6 ecuaciones y 8 inc´gnitas necesitamos 2 condiciones o m´s. 1] Interpolaci´n de Hermite o Un problema de interpolaci´n de Hermite consiste en encontrar un polinomio o P (x) (Polinomio de Hermite) tal que P (x0 ) = y0 P (x1 ) = y1 P (xn ) = yn P (x0 ) = y0 P (x0 ) = y0 · · · P (x1 ) = y1 P (x1 ) = y1 · · · ··· P (xn ) = yn P (xn ) = yn · · · k) k P k0 −1) (x0 ) = y0 0 −1 k P k1 −1) (x1 ) = y1 1 −1 k P kn −1) (xn ) = ynn −1 o siendo yi .

Para ello definimos y − y0 f (x) − f (x0 ) [x0 . o El c´lculo es m´s sencillo haciendo uso de una tabla. x2 ] [x0 . x1 . x0 ] [x0 . si el a a problema de Hermite incluye datos sobre la funci´n y su derivada en tres o puntos la tabla quedar´ as´ ıa ı: x x0 x0 x1 x1 x2 x2 y y0 y0 y1 y1 y2 y2 10 [x0 . b]. . x0 . x0 ] = limx→x0 [x0 . x0 . x0 . x1 . x0 . x1 . x1 ] [x0 . x2 ] [x1 . x2 ] [x1 . x2 ] 20 30 40 50 [x0 . x2 . b] y f ∈ C 2 [a. x0 ] = f 3) (x0 ) 2! 3! Y de forma similar el resto de diferencias. b] ∃θ ∈ [a.Aproximacion de funciones 83 es cierto. x2 ] . . x2 . x1 ] [x1 . con 0 ≤ i ≤ n. en contradicci´n con la hip´tesis inicial. xn nodos distintos de [a. x2 . x1 . x2 ] [x0 . x2 ] [x0 . x1 ] [x0 . x0 ] x1 − x 0 1 2) 1 f (x0 ) [x0 . x1 . . x2 ] [x2 . . x1 ] [x0 . . x0 . x1 ] [x1 . con lo que si P (x) no es cero. b] tal que f (x) − P (x) = f 2n+2) (θ) n Π (x − xi )2 (2n + 2)! i=0 El polinomio de Hermite se puede calcular usando las diferencias divididas. Por ejemplo. entonces ∀x ∈ [a. x1 ] − [x0 . Un polinomio P (x) que sea soluci´n del sistema P j) (xi ) = 0 verifica o que tiene la ra´ xi repetida ki veces. En estas condiciones el polinomio de interpolaci´n de Hermite se calcula de forma parecida a como se calculaba o el polinomio de interpolaci´n sin condiciones sobre la derivada. . Sean x0 . o o Ejercicio: ¿Qu´ otro nombre recibe el polinomio de Hermite cuando solo e hay un nodo? Teorema. x0 . x1 ] = [x0 . Si P (x) es el polinomio de grado menor o igual que 2n + 1 tal que P (xi ) = f (xi ) y P (xi ) = f (xi ). . x0 ] = [x0 . x2 ] [x1 . x0 . x1 . x1 . x] = limx→x0 = limx→x0 = f (x0 ) x − x0 x − x0 [x0 . x1 . x1 . ser´ de ız ıa grado mayor o igual que m + 1. . x1 . x1 .

x1 ](x − x0 )2 (x − x1 ) + 1 k) k! f (x0 ) Cap´ ıtulo 4 .84 siendo [x0 . Ejemplo: Calcula el polinomio que verifica estas condiciones: x y y −1 1 2 0 1 0 1 −1 0 En este caso la tabla quedar´ as´ ıa ı x y 1 0 20 30 40 50 -1 1 2 −2 2 −3/2 2 -1 1 0 0 −1 5/2 0 1 0 −2 4 0 1 −2 2 1 -1 0 1 -1 El polinomio ser´ ıa P (x) = 1+2(x+1)−2(x+1)2 +2(x+1)2 x−3/2(x+1)2 x2 +2(x+1)2 x2 (x−1) Ejemplo: Calcula el polinomio que verifica las siguientes condiciones: x y y y 1 2 3 2 6 7 8 . x0 ] = k veces El polinomio ser´ ıa P (x) = y0 + [x0 . x1 . x0 . . x0 . x2 ](x − x0 )2 (x − x1 )2 +[x0 . x1 . x0 ](x − x0 ) + [x0 . x0 . . x0 . x2 . x2 ](x − x0 )2 (x − x1 )2 (x − x2 ). x1 . x1 ](x − x0 )2 + +[x0 . x0 . . x1 . +[x0 . . x1 .

con i = 0. ´ o Splines Una funci´n spline de grado k con nodos x0 ≤ x1 ≤ · · · ≤ xn es una funci´n o o S(x) definida a trozos tal que: a) S(x) es un polinomio Si (x) de grado menor o igual que k en cada intervalo [xi . . xi+1 ] (i = 0.Aproximacion de funciones En este caso la tabla quedar´ as´ ıa ı x 1 1 2 2 2 y 10 20 30 40 2 3 1 2 −1 2 4 3 1 6 7 8/2!=4 6 7 6 85 El polinomio ser´ ıa P (x) = 2 + 3(x − 1) + 1(x − 1)2 + 2(x − 1)2 (x − 2) − 1(x − 1)2 (x − 2)2 . . Planteando los correspondientes sistemas de ecuaciones. . la funci´n es un polinomio Pi (x) de grado menor o igual a 3 que verifica lo o siguiente Pi (xi ) = yi Pi (xi+1 ) = yi+1 P (xi ) = yi Pi (xi+1 ) = yi+1 . tal que en cada intervalo [xi . xi+1 ]. Interpolaci´n c´ bica de Hermite a trozos o u Dada la tabla de valores x y y x0 y1 y1 x1 y2 y2 ··· ··· ··· xn yn yn correspondientes a una cierta funci´n y sus derivadas. . . . se puede encontrar la unica funci´n que interpola en esas condiciones. 1. b) S(x) admite derivada segunda continua de orden k − 1 en [x0 . . n − 1. n−1). . el m´todo de intero e polaci´n c´bica de Hermite a trozos consiste en encontrar una unica funci´n o u ´ o derivable definida a trozos. . xn ].

n total num. . . . . Por lo tanto. n. los splines natural y peri´dico existen y son unicos para cualquier o ´ conjunto de nodos y de datos. yn ) el spline natural es el que tiene menor energ´ el´stica (menor tensi´n1 ). . n−1 n−1 n−1 n+1 4n − 2 Cada polinomio c´bico Si (x). b] (n → ∞) disminuyendo simult´neamente el tama˜o m´ximo de a n a los subintervalos [xi . . . .86 Cap´ ıtulo 4 El spline c´bico (k = 3) es el m´s usado en interpolaci´n. . . Un spline c´bico de u a o u interpolaci´n en {x0 . . • Si exigimos S (x0 ) = S (xn ) y S (x0 ) = S (xn ) obtendremos el spline peri´dico. o Se pueden elegir otras condiciones distintas del spline natural o del peri´dico. . n − 1 Si−1 (xi ) = Si (xi ) con i = 1. (x1 . . . y0 ). . . . n − 1. . con i = 0. ec. ıa a o Por otra parte. entonces el spline natural y su derivada convergen uniformemente a f (x) y f (x) respectivamente. . xi+1 ] (max0≤i≤n [xi . . 1 La tensi´n o energ´ el´stica en [a. tendr´ 4 par´metros. x1 . de entre todas las funciones con derivada segunda continua que pasan por ciertos puntos (x0 . . . siendo S(x) el spline natural. xn } es una funci´n que cumple las propiedades o o a). . b] es proporcional a o ıa a b [f a (x)]2 dx. u a a con lo que el n´mero de inc´gnitas ser´ 4n−4. entonces b a [S (x)]2 dx ≤ b a [f (x)]2 dx. El n´mero de condiciones que se u han de cumplir es el siguiente: condici´n o continuidad derivada 1a continua derivada 2a continua interpolaci´n o ecuaciones Si−1 (xi ) = Si (xi ) con i = 1. si aumentamos el n´mero de puntos a interpolar en el u intervalo [a. . xn ]. (xn . . . y1 ). . con i = 0. . . si la funci´n a interpolar f (x) tiene a o derivada segunda continua en [x0 . Adem´s. 1. . n − 1 Si−1 (xi ) = Si (xi ) con i = 1. n − 1 Si (xi ) = yi con i = 0. para poder resolver u o a el correspondiente sistema de ecuaciones hemos de a˜adir dos condiciones m´s n a y podemos hacerlo de distintas formas: • Si exigimos S (x0 ) = 0 y S (xn ) = 0 obtendremos el spline c´bico u natural. xi+1 ] → 0). . o Sin embargo. Es decir. . . b) y S(xi ) = f (xi ).

Cap´ ıtulo 5

Diferenciaci´n e integraci´n o o num´rica e
5.1 Diferenciaci´n num´rica y extrapolaci´n de Rio e o charson

o ¿Puede calcularse la derivada de una funci´n f (x) en un punto si se conocen solo los valores de la funci´n f (x0 ), f (x1 ),. . . ,f (xn ) en n + 1 puntos? Si la o funci´n es un polinomio de grado n, entonces seguro que se puede. Si de o la funci´n solo sabemos que es derivable, entonces no ser´ posible, pues hay o a muchas funciones derivables que pasan por los mismos puntos. El objetivo de esta secci´n es estimar el valor de f (x) a partir de los valores de la funci´n o o en ciertos puntos f (x0 ), f (x1 ),. . . ,f (xn ) dando una cota del error cometido. Dado que f (x + h) − f (x) f (x) = lim h→0 h una primera estimaci´n es o f (x) ≈ f (x + h) − f (x) h

que es aplicable cuando conocemos los valores de la funci´n en dos puntos: o x0 = x y x1 = x + h. La f´rmula anterior es exacta para funciones lineales (por o ejemplo, para f (x) = 3x + 2) y en otros casos de manera fortuita. Calculemos 87

88 una cota del error. Por el teorema de Taylor: f (x + h) = f (x) + f (x)h + es decir f (x) = f (θ) 2 h 2!

Cap´ ıtulo 5

f (x + h) − f (x) h − f (θ). h 2

El error al aproximar f (x) por f (x) = f (x+h)−f (x) , llamado error de truncah miento, es h o error = − f (θ) (f´rmula de orden h) 2 siendo θ un n´mero entre x y x + h. Cuanto menor sea h, mejor ser´ la u a aproximaci´n de f (x), hasta que el error de redondeo impida la mejora. o Ejemplo: Estima el valor de la derivada de cos(x) en el punto una cota del error cometido. Tomando como h = 0.01 f ( π + h) − f ( π ) cos( π + 0.01) − cos( π ) π 4 4 4 4 f ( )≈ = = −0.71063050. 4 h 0.01 La cota del error ser´ ıa |error| = | − 0.01 0.01 h f (θ)| = | cos(θ)| ≤ = 0.005. 2 2 2
π 4

y calcula

Otra estimaci´n de f (x) es o f (x) ≈ f (x + h) − f (x − h) . 2h

Veamos la estimaci´n del error. Del teorema de Taylor se deduce que o f (x + h) = f (x) + f (x)h + h f (x) + h f (θ1 ) 2 6 2 3 f (x − h) = f (x) − f (x)h + h f (x) − h f (θ2 ). 2 6
2 3

´ ´ Diferenciacion e integracion Si restamos las ecuaciones anteriores f (x + h) − f (x − h) = 2f (x)h + Despejando f (x) = f (x + h) − f (x − h) h2 − [f (θ1 ) + f (θ2 )] 2h 12 h2 [f (θ1 ) + f (θ2 )] 12 h3 [f (θ1 ) + f (θ2 )]. 6

89

con lo que el error de truncamiento ser´ ıa −

siendo θ1 un n´mero entre x y x + h y θ2 un n´mero entre x y x − h. Si f (x) u u existe y es continua en [x−h, x+h], entonces existe un n´mero θ ∈ [x−h, x+h] u f (θ1 )+f (θ2 ) , con lo que error de truncamiento quedar´ ıa tal que f (θ) = 2 error = − h2 f (θ) 6 (f´rmula de orden h2 ). o

Para estimar el valor de una derivada segunda podemos usar la f´rmula o f (x) = f (x + h) − 2f (x) + f (x − h) . h2

Veamos la estimaci´n del error. Por el teorema de Taylor o f (x + h) = f (x) + f (x)h + f (x − h) = f (x) − f (x)h +
h2 2 f h2 2 f

.

(x) + (x) −

h3 6 f h3 6 f

(x) + (x) +

h4 4) 24 f (θ1 ) h4 4) 24 f (θ2 )

Si sumamos las ecuaciones anteriores y despejamos f (x) = f (x + h) − 2f (x) + f (x − h) h2 4) − [f (θ1 ) + f 4) (θ2 )]. h2 24

Siendo θ1 y θ2 n´meros que est´n entre x y x + h y entre x y x − h. Si f 4) (x) u a existe y es continua, entonces existe un n´mero θ ∈ [x − h, x + h] tal que u error = h2 4) f (θ) 12 (f´rmula de orden h2 ) o

j=k (xk − xj ) nos queda n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )Πn j=0. x1 .1.1 Diferenciaci´n mediante interpolaci´n o o Dada una funci´n f (x) y recordando c´mo se calcula el polinomio de interpoo o laci´n en los puntos x0 . . . . x1 . (n + 1)! Y como n w (x) = i=0 n Πn j=0.j=k (xk − xj ) (n + 1)! que es una forma de calcular un valor aproximado de f (xk ) a partir de los valores x0 .j=i (x − xj ) ⇒ w (xk ) = Πj=0.90 Cap´ ıtulo 5 5. .xn . . . Si derivamos i=0 n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w (x) (n + 1)! + 1 d w(x) (f n+1) (θx )) (n + 1)! dx Si x = xk n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )w (xk ) . . .xn . se tiene que : o n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w(x) (n + 1)! donde w(x) = Πn (x − xi ). .

(x2 − x0 )(x2 − x1 ) 2x1 − x0 − x2 x1 − x 2 + f (x1 ) (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) x1 − x 0 + f (x2 ) (x2 − x0 )(x2 − x1 ) 1 3) f (θx1 )(x1 − x0 )(x1 − x2 ). (2h)(h) 2h Por tanto f (x1 ) ≈ f (x0 ) siendo el error de esta aproximaci´n o siendo el error de esta aproximaci´n o 1 3) 1 f (θx1 )(h)(−h) = − f 3) (θx1 )h2 . o b) Calcula lo anterior con x1 − x0 = x2 − x1 = h Apartado a).´ ´ Diferenciacion e integracion 91 Ejemplo: a) Aplica la f´rmula anterior para calcular f (x1 ) con n = 2. Puesto que L x0 = (x − x1 )(x − x2 ) (x0 − x1 )(x0 − x2 ) L x1 = (x − x0 )(x − x2 ) (x1 − x0 )(x1 − x2 ) (x − x0 )(x − x1 ) L x2 = (x2 − x0 )(x2 − x1 ) se tiene que L x0 = 2x − x1 − x2 2x − x0 − x2 L x1 = (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) 2x − x0 − x1 L x2 = . 3! Apartado b). 3! 3! . Siendo x0 = x1 − h y x2 = x1 + h se obtiene la f´rmula ya o conocida f (x1 ) ≈ f (x1 − h) 2x1 − (x1 − h) − (x1 + h) −h + f (x1 ) (−h)(−2h) (h)(−h) h f (x1 + h) − f (x1 − h) + f (x1 + h) .

. . . . tenemos o f (x) = Φ(h) + a2 h2 + a4 h4 + a6 h6 + .92 Cap´ ıtulo 5 5. La extrapolaci´n puede aplicarse o o siempre a cualquier m´todo de aproximaci´n en el que sepamos el t´rmino de e o e error de una forma previsible y se basa en un par´metro que generalmente es a el tama˜o de paso h.. k! Restando las f´rmulas anteriores o f (x + h) − f (x − h) = 2hf (x) + y despejando f (x) f (x) = f 3) (x) 2 f 5) (x) 4 f 7) (x) 6 f (x + h) − f (x − h) − h + h + h + . .2 Extrapolaci´n de Richarson o La extrapolaci´n de Richarson sirve para generar resultados de gran exactitud o cuando se usan f´rmulas de bajo orden. 2 2 2 2 y multiplicando por 4 h a4 a6 4f (x) = 4Φ( ) + a2 h2 + h4 + 4 h6 + . .2) con error = h2 a2 + a4 h2 + a6 h4 + . . .1) . n Por el teorema de Taylor sabemos que ∞ f (x + h) = k=0 1 k k) h f (x) k! ∞ y f (x + h) = k=0 1 (−1)k hk f k) (x). 2h 3! 5! 7! 2 3 3) 2 h f (x) + f 5) (x) + .1. 2 4 2 (5. que es la f´rmula ya conocida de aproximaci´n de f (x) o o f (x) ≈ Φ(h) Si sustituimos h por h/2 h a2 a4 a6 f (x) = Φ( ) + 2 h2 + 4 h4 + 6 h6 + .. . 3! 5! Si definimos Φ(h) = f (x+h)−f (x−h) y denotamos ai al coeficiente de hi en la 2h f´rmula anterior. . (5. .

.3339506968 2 · 0..2)-(5. o Tomamos h = 0. Φ(h/2) − Φ(h) = 0.1 f (x) ≈ Φ(h/2) = 0.1.3333333136 3 y . 4 16 con error = h4 − a4 5a6 2 − h − . da origen a la f´rmula de aproximaci´n o o 4 h 1 f (x) ≈ Φ( ) − Φ(h) 3 2 3 que tambi´n puede expresarse e Φ( h ) − Φ(h) h 2 f (x) ≈ Φ( ) + 2 3 con error = h4 − a4 5a6 2 − h − .1) es h 3a4 4 15a6 6 3f (x) = 4Φ( ) − Φ(h) − h − h 2 4 16 que. f (x) ≈ Φ(h) = f (x + h) − f (x − h) 2h √ √ f ( 2 + 0.. 4 16 93 √ Ejemplo: Siendo f (x) = arctan(x).3334876594 Usando la extrapolaci´n o f (x) ≈ Φ(h/2) + (El valor exacto es 1/3). despejando f (x).1) − f ( 2 − 0. calcula f ( 2) haciendo uso de la extrapolaci´n de Richarson.´ ´ Diferenciacion e integracion con lo que (5..1) = = 0.

obtenemos la expresi´n o 16 h 4 3 Φ( 2 ) Cap´ ıtulo 5 − 1 Φ(h). .. 20 16 1 h6 Ψ(h/2) − Ψ(h) − b6 + .4)-(5. . .. 4 h 2 4 (5.3) nos queda 15f (x) = 16Ψ(h/2) − Ψ(h) − 3b6 y al despejar f (x) f (x) = da origen a la f´rmula o f (x) ≈ 1 16 Ψ(h/2) − Ψ(h) 15 15 con error =h6 −b6 1 + ..3) + b6 h 2 6 + .94 Si en la f´rmula (5.2) denotamos Ψ(h) = o b6 = −5a6 . 4 h6 + . f (x) = Ψ(h) + b4 h4 + b6 h6 + . . . . (5. . 15 15 20 h6 + .. Se puede demostrar el siguiente resultado: Teorema: El algoritmo de Richarson genera aproximaciones a f (x) cada vez de un orden superior.4) que tambi´n puede expresarse e f (x) ≈ Ψ(h/2) + Ψ(h/2) − Ψ(h) 15 con error =h6 −b6 1 + .... 20 El proceso puede continuar de forma similar tomando ahora otra funci´n o 1 16 Ω(h) = 15 Ψ(h/2) − 15 Ψ(h). Sustituyendo h por h/2 f (x) = Ψ(h/2) + b4 y multiplicando por 24 16f (x) = 16Ψ(h/2) + b4 h4 + b6 Restando (5.. b4 = 3 −a4 4 . ..1..

h) y de R(1.33348765942111 2 · 0.05) = = 0.2) calculamos la aproo ximaci´n Ψ(h) que es de orden 4 o Ψ(0.1) = Φ(0. h) en funci´n de un par´metro o a f (x+h)−f (x−h) h (en nuestro caso R(0.33333331363671 3 Calculando Φ(h/4) (Φ(0. h/2) + .1) = Ψ(0.05) Φ(0.1) = 0.33337191390106) podremos tambi´n calcue lar Ψ(h/2) Ψ(0. 42 − 1 Etapa 2.1) − arctan( 2 − 0. 15 En general. Calculo distintas aproximaciones R(0. h) = R(0.025) − Φ(0.1.1) = = 0. A partir de R(1.05) − arctan( 2 − 0. h) = R(1.05) = Φ(0.33333333206104 3 y a partir de estos dos valores obtenemos la aproximaci´n Ω(h) o Ω(0. Aplicamos la f´rmula (5.33395069677432 2 · 0.1) Φ(0.2) con h y h/2 para obtener las dos primeras o aproximaciones de orden 2 √ √ arctan( 2 + 0.´ ´ Diferenciacion e integracion 95 Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular √ f ( 2) siendo f (x) = arctan(x) y tomando h = 0.1 √ √ arctan( 2 + 0. A partir de R(0. h/2) calculo las aproximaciones R(1.1. h/2) − R(0. h) . h/2) calculo las aproximaciones R(2.05) − Ψ(0.05) − Φ(0.025) = 0.33333333328933. h) = Φ(h) = ). h) y de R(0. h/2) − R(1.1. 41 − 1 R(1.1)) = 0. el proceso de extrapolaci´n de Richarson puede resumirse as´ o ı: Etapa 0.025) + Φ(0. h) .05) = 0. 2h Etapa 1.05) + Φ(0. h/2) + R(0.05) + Ψ(0.05 A partir de esos dos valores y aplicando la f´rmula (5.

2 Integraci´n num´rica mediante interpolaci´n o e o b El objetivo es obtener un valor aproximado de a f (x)dx sin calcular la prib b mitiva de f (x). h/2) R(0.. h) = R(n − 1. h/2) + . siendo p(x) una funci´n que se parezca a f (x). h/4) R(0. e o . h) y de R(n − 1. 5. Etapa 2 Etapa 3 ... . Si en el ejemplo utilizado los nodos est´n igualmente e a espaciados. por ejemplo un polinomio interpolador en unos o nodos x0 .... Las o f´rmulas as´ construidas son exactas para los polinomios de grado menor o o ı igual que n (¿por qu´?). . h/8) .. x1 . h/2) R(1.. . R(3.5) se denomina f´rmula de cuadratura y los puntos xi son los nodos de cuadratura.. b]. h) R(2.5) o En el ejemplo anterior Ai = a lxi (x)dx..96 Cap´ ıtulo 5 Etapa n. h) . A partir de R(n − 1. 4n − 1 Etapa 0 R(0. h/2) calculo las aproximaciones R(n − 1. Etapa 1 R(1. i=0 (5. Si utilizamos el m´todo de Lagrange e para calcular el polinomio interpolador n n p(x) = i=0 f (xi )lxi (x) con lxi (x) = j=0 x − xj . Una expresi´n como (5.. . obtenemos una f´rmula como esta o b a n f (x)dx ≈ b Ai f (xi ). h) R(1.. h) R(n. xi − x j tendr´ ıamos que b a b n b f (x)dx ≈ p(x)dx = a i=0 f (xi ) a lxi (x) es decir. xn del intervalo [a. R(2. h) R(0. h/4) . estaremos hablando del ”m´todo de Newton-Cˆtes”. La idea es sustituir a f (x)dx por a p(x)dx. h/2) − R(n − 1. h/2) . .

de modo que b a b b b f (x)dx − p(x)dx = a a f (x) − p(x)dx = a f (ξx ) (x − a)(x − b)dx 2 Puesto que (x − a)(x − b) no cambia de signo en todo [a. entonces existe un punto ξ ∈ [a.2. b]. Puesto que lx0 (x) = a−x .´ ´ Diferenciacion e integracion 97 1 0. aplicando la generalizaci´n del o o teorema de valor medio del c´lculo integral 1 obtenemos que el error es a f (ξ) 2 1 b a (x − a)(x − b)dx = f (ξ) (a − b)3 2 6 Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a.4 0.6 0.2 -1 1 2 -3 -2 -1 -0. b] y suponiendo que f (x)/2 es una funci´n continua en [a. Si g(x) no cambia de signo en todo x ∈ [a. . la f´rmula de cuadratu- f (x)dx ≈ Ai f (xi ) = i=0 b−a [f (a) + f (b)] 2 La expresi´n del error del polinomio de interpolaci´n p(x) para n = 1 es o o f (ξx ) f (x) − p(x) = 2 (x − a)(x − b).1 Regla del trapecio El caso particular del m´todo de Newton-Cˆtes con n = 1 se conoce coe o b−x mo el m´todo del trapecio. b] y h(x) es continua en [a. A0 = e b−a = 1 (b − a) y A0 = 2 ra queda as´ ı b a n b a lx0 (x)dx b a lx1 (x)dx 1 o = 2 (b − a). b]. a a g(x)dx.5 0. lx1 (x) = x−a .1: f´rmulas de cuadratura gr´ficamente o a 5. b].8 1 0.5 1 2 -1 Figura 5. b] tal que: b b h(x)g(x)dx = h(ξ) .

0.2 0 2 0. En resumen.2 x2 0 e dx con la f´rmula de Newton-Cˆtes con n = 1 o o ex dx ≈ 0.20408107741924 2 Sabiendo que si x ∈ [0.2 +4·0. b).2 Regla de Simpson La f´rmula de Newton-Cˆtes para n = 2 o n = 3 se llama Regla de Simpson.2e0. h = b−a y xi = x0 + ih.2. ya que el t´rmino del error e contiene el factor f 4) (ξ). 12 2 2 2 2 5.248151272255559 0.2)| = |2e0. la Regla del Trapecio quedar´ as´ ıa ı: b a f (x)dx ≈ h [f (a) + f (b)] 2 con error= − f (ξ) h3 12 (5.2 − 0 0 [e + e0. si h = b − a. una cota del error ser´ a | − 2.248151272255559. pero adem´s es exacta a para los polinomios de grado menor o igual que 3. 0. Ejemplo: Calcula (regla del trapecio). Por ser una f´rmula de Newton-Cˆtes con tres puntos o o es exacta para polinomios de grado menor o igual que 2. o o El caso n = 2.2 | = 2. .2 ] = 0. se conoce como la regla de Simpson 2 1/3: b a f (x)dx ≈ h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 con error − f 4) (ξ) h5 90 para un cierto ξ ∈ [a.2] entonces |f (x)| = |2ex +4x2 ex | ≤ |f (0.00149876751484.6) para un cierto ξ ∈ [a.98 Cap´ ıtulo 5 para un cierto valor ξ ∈ (a. b].23 | = 0. b].

b] en subintervalos y aplicar e en cada uno de ellos una regla simple.2. se conoce como la regla de 3h5 80 f (x)dx ≈ 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 con error − f 4) (ξ) para un cierto ξ ∈ [a.2] entonces |f 4) (x)| = |12ex + 48ex x2 + 16ex x4 | ≤ |f 4) (0.2 ] = 0.24 | = 14. xi ]: b n xi xi−1 f (x)dx = a i=1 f (x)dx ≈ 1 2 n i=1 (xi − xi−1 ) [f (xi−1 ) + f (xi )] .22 + 16e0. Es equivalente a sustituir f (x) por una funci´n que interpole a f (x) y que o est´ formada por trozos de l´ e ınea. Ejemplo: Calcula 0 (regla de Simpson 1/3).1 + e0. h = Simpson 3/8: b a b−a 3 99 y xi = x0 + ih. Si los puntos est´n igualmente espaciados a .´ ´ Diferenciacion e integracion El caso n = 3.5147. 0. Es mejor usar la regla de Simpson 1/3 que la de 3/8.2 0 2 0.2 0. 0.2) 2 2 2 = |12e0.2027 3 2 Sabiendo que si x ∈ [0.2/2 0 2 2 [e + e0. la regla del trapecio compuesta consiste en fijar unos puntos a = x0 < x1 < · · · < xn−1 < xn = b y aplicar la regla del trapecio a cada intervalo [xi−1 . En general es preferible usar una regla con n par (n´mero impar de puntos) que con n u impar. Por ejemplo. puesto que ambas son de orden 5 y | − 1/90| < | − 3/80|.2 x2 e dx con la f´rmula de Newton-Cˆtes con n = 2 o o ex dx ≈ 2 0.2 + 48e0. (0. b].6 ∗ 10−6 90 2 una cota del error ser´ a | − 14.2/2)5 | = 1.2 0.3 Reglas compuestas Este m´todo consiste en dividir el intervalo [a.5147 5.

6 0.1 + e0. .12 2 2 (0.2 -1 1 2 1 0. Si tomamos tres puntos x0 = 0.8 0. xi = a + ih con i = 1.8 0.4 0.2 -1 1 2 Figura 5.12 0.2 − 0)(ex (2 + 4ex )) ≤ − 0.2 0.201085 2 Una cota del error ser´ ıa − 0.2) = 0.1 0 2 2 e + 2e0.100 Cap´ ıtulo 5 (h = xi − xi−1 = b−a .2 0 0. La f´rmula es exacta para polinomios de grado o menor o igual que 1. . la regla del trapecio n compuesta nos queda b a f (x)dx ≈ h [f (x0 ) + 2f (x1 ) + · · · +2f (xn−1 ) + f (xn )] 2 h2 con error − (b − a)f (ξ) 12 para un cierto ξ ∈ [a.2: Regla del trapecio compuesta con 3 y 4 puntos Ejemplo: Calcula un valor aproximado de 0 ex dx mediante la regla del trapecio compuesta. .2 · f (0.1 y x2 = 0.6 0. 1 0. x1 = 0.2 2 ex dx ≈ 2 0.2 = 0.00187346 12 12 . 2. n). b]. .4 0.

4 M´todo de los coeficientes indeterminados e Las reglas de Newton-Cˆtes con n + 1 puntos son exactas para los polinomios o b de grado n. .´ ´ Diferenciacion e integracion 101 Si el n´mero n de intervalos en los que dividimos [a. xi = n a + ih (0 ≤ i ≤ n). El objetivo de esta secci´n es. o xn . 5. . An que aseguren que la b f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) es exacta para los polinoo i=0 mios de grado n. es decir. .2. . A1 . encontrar el valor de los coeficientes A0 . dados un conjunto de n + 1 puntos x0 . x1 . el resultado que obtenemos al calcular con esa regla la integral de un polinomio de grado n es el valor exacto. aplicando a cada dos subintervalos la regla de Simpson 1/3 b x2 x4 xn f (x)dx = a x0 f (x)dx + x2 f (x)dx + · · · + f (x)dx xn−2 con lo que obtenemos la f´rmula o b a f (x) ≈ h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + . b] es par podemos u aplicar de forma sencilla la regla de Simpson compuesta con h = b−a . si en la f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) o i=0 b tomamos los coeficientes Ai = a lxi (x)dx. el problema se puede resolver de forma similar al siguiente ejemplo. . . . . . . . En cada caso. 3 + 4f (xn−1 ) + f (xn )] o lo que es lo mismo b a n 2 f (x)dx ≈ f (x0 ) + [2f (x2i )+4f (x2i−1 )] + f (xn ) i=1 con error − b − a 4 4) h f (ξ) 180 con ξ ∈ [a. b].

102 Cap´ ıtulo 5 Ejemplo: Encuentra los valores A0 . t2 . A1 y A2 para que la f´rmula o 1 0 1 f (x)dx ≈ A0 f (0) + A1 f ( ) + A2 f (1) 2 sea exacta para los polinomios de grado menor o igual que 2. si P (x) = a + bx + cx2 a 6 6 es cualquier otro polinomio de grado menor o igual que 2.3 Cuadratura gaussiana 1 Supongamos que queremos obtener una f´rmula de cuadratura o f (x)dx = A1 f (t1 ) + A2 f (t2 ) −1 pero no fijamos previamente los valores de t1 . es la misma f´rmula que se obtendr´ con el a o ıa m´todo de Simpson. A1 = 3 y A2 = 1 . le imponemos 4 condiciones: que o . Para calcular estos valores y puesto que tenemos 4 inc´gnitas. A1 y A2 . e 5. la f´rmula ser´ o ıa tambi´n exacta porque e 1 1 1 1 P (x)dx = a 0 0 1dx + b 0 xdx + c 0 x2 dx = 1 1 = a(A0 + 1A1 + A2 ) + b( A1 + A2 ) + c( A1 + A2 ) = 2 4 1 1 2 = A0 (a) + A1 (a + b + ( ) c) + A2 (a + 1b + 12 c) = 2 2 1 = A0 P (0) + A1 P ( ) + A2 P (1) 2 que ser´ el resultado obtenido al aplicar la f´rmula de cuadratura con los ıa o coeficientes calculados. Adem´s. Adem´s. x y x2 que forma una o a base del conjunto de los polinomios de grado menor o igual que 2: 1 = 1 2 = 1 3 = 1 0 1dx 1 0 xdx 1 2 0 x dx = A0 + 1A1 + A2 = 0A0 + 1 A1 + A2 2 = 0A0 + 1 A1 + A2 4 2 y obtenemos que A0 = 1 . En particular la f´rmula tendr´ que ser exacta para los polinomios 1.

. t2 = t1 . 2. para 1. Ya hemos deducido cuales son los nodos ti y los coeficientes Ai 4 (i = 1. Por tanto la f´rmula o 1 f (x)dx = f (− −1 1 ) + f( 3 1 ) 3 es exacta para integrar cualquier polinomio de grado menor o igual que 3 en el intervalo [−1. x2 y x3 : 1 3 3 3 −1 x dx = 0 = A1 t1 + A2 t2 1 2 2 2 2 −1 x dx = 3 = A1 t1 + A2 t2 1 −1 xdx = 0 = A1 t1 + A2 t2 1 −1 1dx = 2 = A1 + A2 Restando a la ecuaci´n primera la tercera multiplicada por t2 obtenemos o 1 0 = A2 (t3 − t2 t2 ) = A2 t2 (t2 − t1 )(t2 + t1 ) 2 1 con lo que se obtiene alguno de los siguientes valores: A2 = 0. t2 = 0. hemos de hacer un cambio de o 2 variable af´ que lleve [−1. Sustituyendo en el resto de las ecuaciones podemos comprobar que solo es aceptable t2 = −t1 y que en ese caso los par´metros son A1 = A2 = 1 a y t2 = −t1 = 1 3. b] se utiliza una transformaci´n af´ o ın que lleve un intervalo en el otro. .´ ´ Diferenciacion e integracion 103 la f´rmula sea exacta para los polinomios de grado menor o igual que 3. 1] en [0. 2). . Los nodos ti (i = 1. t2 = −t1 . . π ]. Dicho cambio es x = π t + π con lo ın 2 4 4 que dx = π dt. n) en la cuadratura gaussiana coinciden con las ra´ ıces del polinomio de Legendre de grado n. n+1 0 π 2 Ejemplo: Calcula un valor aproximado de tura gaussiana de dos t´rminos. 1]. x. podr´ e ıamos averiguar primero los nodos . π ]. Si no supi´ramos cuales son. es o decir. e sen(x)dx mediante cuadra- Como el intervalo de integraci´n es [0. Los polinomios de Legendre se construyen as´ ı: L0 (x) = 1 L1 (x) = x Ln+1 = (2n + 1)xLn (x) − nLn−1 (x) . Para integrarlos en [a.

2) R(M.4 Integraci´n de Romberg o Para aplicar el m´todo de integraci´n de Romberg construimos una tabla como e o esta R(0.. m − 1)] 4 −1 (Extrapolaci´n de Richarson) o (5. 3) . 1) R(2. El factor 4m1−1 depende o . 0) + n 2 2 2n−1 i=1 R(n. 0) = b a f (x)dx R(M. 0) R(M.104 Cap´ ıtulo 5 2 calculando las ra´ del polinomio de Legendre de grado 2 (L2 = 3x 2−x ).2) R(3.99847. m − 1) + m [R(n.2) R(3. Posıces teriormente calcular´ ıamos los coeficientes Ai planteando un sistema de ecuaciones. . donde. 0) R(1. 1) R(2. . si queremos aproximar R(0. En todo caso se obtendr´ ıa π 2 1 sen(x)dx = −1 sen π sen 4 0 π π t+ 4 4 π (− 4 π dt = 4 1 π )+ 3 4 + sen π ( 4 1 π )+ 3 4 ≈ 0.3) . m) = R(n. 0) R(1. 0) R(2. 1) R(M. m − 1) − R(n − 1. R(M. 0) = f (a + (2i − 1) b−a ) 2n (Regla del trapecio para 2n intervalos) 1 R(n.. M ) 1 (b − a) [f (a) + f (b)] 2 (Regla del trapecio para 20 intervalos) 1 b−a R(n − 1.7) La ultima f´rmula se obtiene aplicando la extrapolaci´n de Richarson que ´ o o es un proceso que ya hemos utilizado en otra ocasi´n. = 5. 0) R(3. 1) R(3.

b] entonces la sucesi´n que o o b se obtiene en cada columna del m´todo de Romberg converge a a f (x)dx.4529.5981 2 R(1. m) = (+exacta) + 4m 1 [(+exacta) − (-exacta)] . ıa n=0 n=1 n=2 n=3 n=4 m=0 55. 0) es la regla del trapecio compuesta con 21 intervalos: R(1. 0) = 2/4 0 e + 2e0.5 + e2 = 20. en este caso la regla del e trapecio.4843 16. El resto de e t´rminos se calculan seg´n la f´rmula 5. e de Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 x2 e dx. 0) es la regla del trapecio compuesta con 22 intervalos: R(2. 0) = 2−0 0 2 (e + e2 ) ≈ 55.5651 16. j) se considera una aproximaci´n a a f (x)dx.5981 30. 0) de la primera columna. 0) es la regla del trapecio con 20 = 1 intervalo: R(0.4529 .1572 17.5 + 2e1 + 2e1. 0) = 1 0 e + 2e1 + e2 = 30.7354 m=1 m=2 m=3 m=4 22. se construye otra mejor aproximaci´n R(n.´ ´ Diferenciacion e integracion 105 del orden de convergencia del m´todo empleado. A partir o de la aproximaci´n R(n.4588 16. −1 Teorema: Si f (x) es una funci´n continua en [a. b Cada valor R(i.4530 16.5174 2 R(2.5174 20.0334 16.6446 17.5386 16.6446 2 y de modo similar los t´rminos R(n.4535 16.3537 17.4756 16. 0 R(0. m − 1). m − 1) que se considera que mejora a la anterior o R(n − 1.7 La mejor aproximaci´n obtenida e u o o 2 x2 ser´ 0 e dx ≈ 16. m): o R(n.

65883 0.6667 m=2 m=3 m=4 2.6667.75 2.6667 2.65882 0.6667 n = 4 2. 0 de Obtenemos la tabla siguiente en donde a mejor aproximaci´n obtenida o 2 ser´ 0 x2 dx ≈ 2.65859 0.65181 0.65886 m=1 m=2 m=3 m=4 0.6667 2.5 −x2 de 0.65947 0.65882 0.65883 0.2 e dx.2 e La mejor aproximaci´n obtenida ser´ o ıa ≈ 0.6875 2.6667 2.106 Cap´ ıtulo 5 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 2 x dx.65882 0. ıa m=0 m=1 n=0 4 n=1 3 2.6667 2.65904 0.65882 0.6667 2.6667 n = 2 2.65882.6719 2.6667 n = 3 2. . Obtenemos la tabla siguiente n=0 n=1 n=2 n=3 n=4 m=0 0.65882 0.5 −x2 dx 0.65898 0.6667 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 0.66211 0.69302 0.

2 x2 dx usando Paso 1. 1]: h2 = 0. Aplicamos la regla de Simpson compuesta en dos subintervalos de [0. Aplicamos la regla de Simpson para calcular la integral: h1 = 1 − 0.2 = 0. h2 = 2 .6 − 0.2.02. 1].6. xi+1 ]: T[ xi . 2 1 − 0.2 = 0.51851852. xi+1 xi f (x)dx mediante una f´rmula de o • Se fija la tolerancia en el intervalo [xi . En o caso contrario se divide el intervalo en dos subintervalos disjuntos. 1 1 0.6] = 3. (b − a) x • Si la diferencia entre las dos estimaciones de xii+1 f (x)dx es menor que x T[xi . b] en intervalos disjuntos [xi .4 ⇒ S1 [0.6] y en [0. en concreto en [0. el m´todo consiste en calcular un valor aproximado de una e b integral a f (x)dx dividiendo el intervalo [a.2. 1] = 0. • Se estima b a f (x)dx: b n xi+1 f (x)dx = a i=0 xi f (x)dx Ejemplo: Fijado un valor de tolerancia T = 0.66851852. a • Se obtienen dos estimaciones de cuadratura. calcula la regla de Simpson.´ ´ Diferenciacion e integracion 107 5.6.2 ⇒ S2 [0.6 = 0. xi+1 ] con las siguientes condiciones: • Se fija un par´metro llamado tolerancia T.94814815. 0. xi+1 ] = T (xi+1 − xi ).5 Cuadratura adaptativa A grandes rasgos. 2 Paso 2.2 ⇒ S2 [0.xi+1 ] se estima definitivamente xii+1 f (x)dx por extrapolaci´n. 1] = 4. 0.2.2.

161111 > T[0. 1]−(S3 [0. 1]) = 0. 0.2.6. 0. 1] (S3 [0. el proceso contin´a fijando la tolerancia de u forma proporcional al tama˜o de cada subintervalo y de modo que sume la n tolerancia total T = 0.6] donde la tolerancia tambi´n es 0.2.4.2.6.6] = 0. 1] y S2 [0.6. . 1].01 en [0.6.4] = 2.8] (S3 [0. 0.66681049 + (0.2.8] + S3 [0.6 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0. el proceso finalizar´ efectuando una extrapolaci´n del tipo: o (+exacta) + 1 [(+exacta) − (-exacta)] 15 entendiendo que la primera estimaci´n es menos exacta que la segunda.6] de la integral e o en el intervalo y aplicamos la regla de Simpson en [0.4] (S3 [0. Tenemos la estimaci´n S2 [0.6 x2 dx : o 1 0. 1]) = 0.6] (S3 [0. 0. 0.6.41678477) y en [0.01. 0.6] − (S3 [0. 1] − (S2 [0.8] = 0.6.66669662 15 Paso 5. 0.2. 1] o 1 1 de 0.6.4] + S3 [0.4.0.2.4. Estudiamos el intervalo [0.6 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] 2 x 15 1 0.83435926) para obtener una nueva (S3 [0. 0.66851852−0.6.6] y 0.7611111 > T = 0. Con estas condiciones la tolerancia ser´ 0.8.2. 0. Puesto o que la diferencia es mayor que T.01.52314815)y en [0.66681049 = 0.6] = 0.2.6] + S2 [0.4] + S3 [0.6.66681049 − 0.1] = 0. 0. Actuamos ahora sobre el intervalo [0.25002572).6] + S2 [0.6]). 0.02.6.6]) = 0. Paso 4.4.001708 < T [0. ıa Si la diferencia hubiera sido menor que T. 0.6.02.2 x2 dx.2.2.2.66851852) = 0.01 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 1 1 estimaci´n definitiva de 0. 1]. Calculo la diferencia entre ambas estimaciones: S1 [0. 0. Comparamos ambas estimaciones: S2 [0. 0.2.108 1 Cap´ ıtulo 5 1 Paso 3. Comparamos ambas estimaciones: S2 [0.2. Contamos con una estimaci´n S2 [0.8.01 en a [0. 0. a saber: S1 [0. 1]. 0. 0. Hasta ahora tenemos dos aproximaciones a 0. 1] = 0.

4] y [0. 0. 0.0.2.5. 0. 0.01).4 x2 dx : o 0.2.5. 0.3.0002220 < T[0.4] − (S4 [0.3.35.4] en los intervalos [0.2.4. Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0. Comparamos ambas estimaciones: S3 [0.4]) > T[0.4 1 1 [(+exacta) − (-exacta)] = 0.4.4].0.4]. Con estas condiciones T[0.2.2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0. Tenemos la estimaci´n S4 [0.2.5.6 1 de 0.2.3 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0. 0.4.35.4 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.8333428.4].3.4.0.6] (S4 [0.6] = 0.3.0025 y T[0. 0. 0.6]. Paso 6.4. . 0.4].005.0.0025. 0. 0.6] = 0.0.005 y T[0.5] + S4 [0. Tenemos la estimaci´n S3 [0.4] = 0.6]) = 0.3.6] (T[0.3.000859 < T[0. 0.4. Estudiamos el intervalo [0. 0.4 1 de 0. 0. dx ≈ (+exacta) + 2 x 15 Paso 7.3] + S4 [0.2. 0.3.3.2.33334864).005.6 1 estimaci´n definitiva de 0.50005144) y en [0.5] = 0. Paso 8.6] − (S4 [0. 0. Tenemos la estimaci´n S3 [0. 0.2. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0. 0.4.0.4] (T[0.6] en los intervalos [0.6] (S4 [0. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0. 0.2.6].3] y [0.2.0025.4] o 0.6] o 0.4] − (S5 [0.2.´ ´ Diferenciacion e integracion 109 Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0.2.3.6] = 0.0.005 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.6 0. 0.3] y [0. Comparamos ambas estimaciones: S4 [0.4] = 0.4] o 0. 0. 0.2.005).0.0. Estudiamos el intervalo [0.3] = 0.4.2.35] y [0.4] = 0. Estudiamos el intervalo [0.2.5.6] = 0. 0.3. Con estas condiciones T[0.0.4] = 0.4] = 0. 0.4 1 de 0. Comparamos ambas estimaciones: S3 [0. 0.4].35] + S5 [0. 0.0. 0. 0.4]) = 0. 0.

0. 0.83333492.2. 0.3 1 de 0.3].25.110 Cap´ ıtulo 5 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.83333492 + 0. Estudiamos el intervalo [0.3] − (S5 [0. 0.66669662 = 4.2.3] o 0.2. Tenemos la estimaci´n S4 [0. 2 x 15 Paso 9.25] y [0.25] + S5 [0. 2 x 15 1 1 0.00005957. 0.2 x 0.0025.2 ser´ ıa: 0.3] = 0.3 1 estimaci´n definitiva de 0.4 0. Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.2 x2 dx Por lo tanto.0.2 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 1.8333428 + 0.2 x2 dx : o 0. Comparamos ambas estimaciones: S4 [0. . 0. la estimaci´n mediante este m´todo de o e 1 0.4 0.3]) < T[0.2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.4 1 estimaci´n definitiva de 0.25.2.666686 + 0.2.6 1 1 1 1 1 1 dx = dx + dx + dx + dx 2 2 2 2 2 x 0.666686.6 x = 1. 0.3 x 0.3].3 x2 dx : o 0.3 0.2.3 0.3 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 0.4 x 0.

b] − Si [a. m − 1)] 1 Si+1 [a. h/2) − R(n − 1. m) = R(n. b] 1 . h)] 4n −1 Integraci´n o b n i=0 ( a li (x)dx)f (xi ) h [f (x0 ) + f (x1 )] 2 h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 h [f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )] 2 h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + · · · + 4f (xn−1 ) + f (xn )] 3 1 − 12 h3 f (ξ) 1 − 90 h5 f 4) (ξ) 3 − 80 h5 f 4) (ξ) − (b−a) h2 f (ξ) 12 − (b−a) h4 f 4) (ξ) 180 1 1 f (− 3 ) + f ( 3 ) R(n. h) = f (x+h)−f (x−h) 2h R(n.j=k (xk (n+1)! − xj ) R(0. m − 1) − R(n − 1. h) = R(n − 1.Tabla diferenciaci´n e integraci´n num´rica o o e Derivaci´n o f (x) = f (x+h)−f (x) h f (x) = f (x+h)−f (x−h) 2h f (x) = f (x+h)−2f (x)+f (x−h) h2 n f (xk ) = i=0 f (xi )Li (xk ) − h f (ξ) 2 2 − h f (ξ) 6 2 − h f 4) (ξ) 12 1 n f n+1) (ξxk )Πj=0. m − 1) + 4m1−1 [R(n. h/2) + 1 [R(n − 1. b] + 15 Si+1 [a.

.

En general. . ). o El grado de una EDO es el mayor exponente de la derivada de mayor orden que aparece en la ecuaci´n. otra depeno diente de la primera y(x) y derivadas de distinto orden de la segunda respecto de la primera (y (x). . la soluci´n general de una EDO de orden k es una familia o de funciones que depende de una par´metro k. una ecuaci´n que contiene una variable independiente x. El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´n. y (x). . . y (x). ) = 0. y (x). y(x). . o Ejemplo: ecuaci´n o y = y tan(x + 3) (y )2 = y tan(x + 3) y = y tan(x + 3) orden 1 1 2 grado 1 2 1 Una ecuaci´n diferencial ordinaria (EDO) es una expresi´n de la forma o o La soluci´n general de una EDO es una familia de funciones que verifican o la EDO. .1 Existencia y unicidad de soluciones F (x. a 113 .Cap´ ıtulo 6 Resoluci´n num´rica de o e ecuaciones diferenciales 6. es decir.

y(x)) entonces (x. Por ello se usan m´todos num´ricos para encontrar e e soluciones aproximadas. El planteamiento t´ ıpico de una ecuaci´n diferencial o ordinaria de grado 1 con valor inicial es . la b´squeda de soluciones exactas de una ecuaci´n diferencial u o es un problema dif´ ıcil. y) tal que y(x0 ) = y0 tiene soluci´n unica. o En general.y) Teorema: Si f (x. si existe un rect´ngulo D ⊂ R2 − {x = 0} y a (x0 . y(x). 3 Ejemplo: Encuentra d´nde tiene soluci´n unica la ecuaci´n y = o o ´ o −y x . La soluci´n general de y = −y es y = a sen(x) + b cos(x). Sin embargo. y ) ∈ D. Por ejemplo. y) tal que y(x0 ) = y0 . y) es continua en R ∂y x 2 − {x = 0}. Dicha soluci´n es y = x . La gr´fica de dicha funci´n aparece en la figura 6. y) y ∂f ∂y son continuas en un rect´ngulo D del plano a 2 y (x . y (x)) = 0 se puede expresar de la forma y = f (x. Si una EDO de primer orden F (x.114 Cap´ ıtulo 6 Ejemplo: La soluci´n general de y = sen(x) es y = − cos(x) + k con o k ∈ R. y) = −y . con a ∈ R y o b ∈ R. el problema y = −y con y(2) = 1. a o x 2 − {x = 0}. si la condici´n inicial o o es y(0) = 2 el problema no tiene soluci´n. Sea f (x.y) = −1 es continua tambi´n en e f (x. Una soluci´n singular es una funci´n que verifica la EDO pero o o o que no est´ recogida en la soluci´n general. tiene soluci´n o ´ o x unica porque (2. 1) est´n dentro de un rect´ngulo que a su vez est´n contenido ´ a a a 2 en R2 − {x = 0}. ∂f (x. Una soluci´n particular de una EDO es un elemento particular de la soluo ci´n general. entonces el problema y = f (x. y0 ) ∈ D. Una soluci´n particular es y = ( 3 x) o o es y = 0. entonces existe una unica soluci´n de la ecuaci´n y = R ´ o o 0 0 f (x.1. R Por el teorema anterior. a o Ejemplo: La ecuaci´n y = y 1/3 tiene como soluci´n general y = ( 2 x) 2 +C o o 3 3 2 2 + 4 y una soluci´n singular con C ∈ R.

5 -5 -10 -5 0 5 10 -10 Figura 6.1). el m´todo de Taylor de orden k propone e sustituir la funci´n desconocida y(x) por su polinomio de Taylor de orden k o . con lo que xi = x0 + ih. a 6. y(x)) Por ejemplo y = −2x − y y(x0 ) = y0 (6.Ecuaciones diferenciales 115 5 2. yi ser´ un valor aproximado de y(xi ). y) = o y x 10 5 0 -5 y = f (x. y(xi ) denotar´ el valor exacto de la funci´n y(x) a o en el punto xi . es decir. trabajaremos con puntos xi igualmente o espaciados.1) y(0) = −1.1: La funci´n f (x. por ejemplo. Usando esa tabla podemos o construir una aproximaci´n de la funci´n mediante. los m´todos o o e de interpolaci´n.2 M´todo de la serie de Taylor e Para resolver el problema (6. separados cada uno del siguiente por un tama˜o de paso n h. En lo que sigue.5 0 -2. La soluci´n num´rica de una EDO ser´ una tabla de valores aproximados o e a de la funci´n y(x) en un conjunto de puntos xi .

es decir y(xi+1 ) = y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) Cap´ ıtulo 6 h2 hk + · · · + y k) (xi ) + 2 k! Los valores de la funci´n y(x) y de sus derivadas en xi son desconocidos en o general. tendr´ ıamos. por ejemplo que d f (x. yi ) dx dk-1 f (xi . el m´todo de Taylor paso a paso ser´ el n e ıa siguiente: Paso 1. y) + fy (x. y) respecto x e y. obtenemos una aproximaci´n de y(x1 ) o y1 = y0 + f (x0 . y) = fx (x. yi ) d xk−1 ≈ ≈ . y0 ) hk + ··· + dx 2 d xk−1 k! Paso 2. y0 )h + d f (x0 . denotando o o fx y fy a las derivadas parciales de f (x. Partimos de x1 = x0 + h y calculamos una aproximaci´n y(x2 ): o y2 = y1 + f (x1 . y1 ) h2 dk-1 f (x1 . yi ) hk d f (xi . yi ) h2 + ··· + dx 2 d xk−1 k! A la hora de derivar f (x. y)f (x. por lo que hay que sustituirlos por aproximaciones: y(xi ) y (xi ) y (xi ) y k) (xi ) ≈ yi f (xi . y) = fx (x. yi )h + dk-1 f (xi .. y1 )h + d f (x1 . y) + fy (x. Partimos del punto x0 . De modo que. el tama˜o del paso h. y1 ) hk + ··· + dx 2 d xk−1 k! . y)y (x. y) respecto de x hay que tener en cuenta que es una funci´n de dos variables y que y es funci´n de x. dx Elegido. y0 ) h2 dk-1 f (x0 .. yi ) d f (xi . ≈ De este modo obtenemos la expresi´n del m´todo: o e yi+1 = yi + f (xi . y).116 en un entorno de cada punto xi .

y) y 4) (x) = [y (x)] = [−y (x)] = −y (x) = −2 − y (x) = −2 − f (x.1 − 1. Como y1 = −0. obtenemos el valor aproximado y2 = −0.5 · 0. −0. yi ) h2 + ··· + dx 2 d xk−1 k! Ejemplo: Proporciona tres valores aproximados de la funci´n y(x). obtenemos el valor aproximado y3 = −0. yi )h + dk-1 f (xi . yi )h + y1 = −1 + 0.9145125) = 0.9145125 y f (x1 .5 · 0. y0 ) = f (0. −0. y) y (x) = [y (x)] = −y (x) = 2 + y (x) = 2 + f (x. y) definimos el m´todo e −2 − f (xi . y) y (x) = [y (x)] = [−2x − y(x)] = −2 − y (x) = −2 − f (x. n Calculamos el desarrollo de Taylor hasta grado 4 de la funci´n y(x) en un o punto cualquiera xi : y (xi ) 2 y (xi ) 3 y 4) (xi ) 4 h + h + h 2 3! 4! Denotando yi al valor aproximado de y(xi ) y dado que y(xi + h) ≈ y(xi ) + y (xi )h + y (x) = f (x. yi ) hk d f (xi .7145125. yi ) 3 −2 − f (xi .Ecuaciones diferenciales 117 Paso i+1.13 − 0. y2 ) = f (0. Paso 2.8224553 .1. y1 ) = f (0.4561927. soluo ci´n de y = −2x − y con y(0) = −1 mediante el m´todo de Taylor con k = 4 o e y tama˜o de paso h = 0. Como y0 = −1 y f (x0 . Paso 3.1.8561927) = 0. obtenemos el valor aproximado yi+1 = yi + f (xi .125 · 0.12 + 0.9645125.14 = −0.8561927 y f (x2 .2. −1) = 1. yi ) 2 2 + f (xi .8561927. Partimos de xi = xi−1 + h y calculamos una aproximaci´n de o y(xi+1 ): yi+1 = yi + f (xi . yi ) 4 h + h + h 2 3! 4! Paso 1. Como y2 = −0.

y3 ) = 0.118 Cap´ ıtulo 6 6. error de redondeo global 5. y0 ) = 1 con lo que y1 = y0 + f (x0 . y2 ) = 0.1 M´todo de Euler e Es el m´todo anterior usando el polinomio de Taylor de orden 1 e yi+1 = yi + f (xi .7683 6.1 = −0.787 + 0.2.7 · 0. error de redondeo local 4.7. e Con estos datos se tiene que x0 = 0.1 = −0. y1 ) = 0.43. y0 )h = −1 + 1 · 0. se deduce que y2 = y1 + f (x1 .1 = −0.2. se deduce que y4 = y3 + f (x3 .787 Puesto que f (x3 . Resuelve la ecuaci´n y = −2x − y con y(0) = −1 mediante el o m´todo de Euler. f (x0 .83 + 0.187 · 0.1 = −0.43 · 0. error total .2 Errores Al resolver num´ricamente una ecuaci´n diferencial aparecen varios tipos de e o errores: 1. y0 = −1. y1 )h = −0.187.83 Puesto que f (x2 . y2 )h = −0.9 + 0. error de truncamiento local 2. error de truncamiento global 3. yi )h Ejemplo. y3 )h = −0. se deduce que y3 = y2 + f (x2 .9 Puesto que f (x1 .

Ecuaciones diferenciales

119

El error de truncamiento local es el que aparece en un paso cuando reemplazamos un proceso infinito por uno finito. Por ejemplo, en el m´todo de e Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de infinitos t´rminos) por los primeros k-t´rminos. En este caso, para un cierto e e ci ∈ R, se tiene que y(xi + h) = y(xi ) + y (xi )h + y k) (xi ) k y k+1) (ci ) k+1 y (xi ) 2 h + ··· + h + h 2! k! (k + 1)!

y dado que en el algoritmo usamos la aproximaci´n o y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) 2 y k) (xi ) k h + ··· + h 2! k!

se deduce que el error local en el paso i-´simo es proporcional a hk+1 , digamos e Ci hk+1 . Un error de esa magnitud se dice que es O(hk+1 ). La acumulaci´n de todos los errores de truncamiento local genera el error o de truncamiento global. Si al aplicar un m´todo el error de truncamiento e k+1 ), el tama˜ o de paso es h, el punto inicial es x y el punto final local es O(h n 0 es xn , entonces el n´mero de pasos ser´ n = xn −x0 y puesto que u a h C1 hk+1 + C2 hk+1 + · · · + Cn hk+1 = hk+1 (C1 + C2 + · · · + Cn ) ≤

≤ hk+1 n max{C1 , C2 , . . . , Cn } = Chk

siendo C = (xn − x0 ) max{C1 + C2 + · · · + Cn }, el error de truncamiento global ser´ O(hk ). Si un m´todo tiene error de truncamiento global O(hk ) decimos a e que el procedimiento num´rico es de orden k. El m´todo de Taylor usando e e el desarrollo hasta grado k es un m´todo de orden k. e El error de redondeo local es el que en cada paso es provocado por la limitada precisi´n de nuestras m´quinas de c´mputo, como ya se coment´ el o a o o tema inicial del curso. El error de redondeo global es la acumulaci´n de los o errores de redondeo local en los pasos anteriores. El error total es la suma de los errores de truncamiento global y redondeo global.

6.3

M´todos de Runge-Kutta e

Los m´todos de Taylor tienen el inconveniente de la dificultad de c´lculo de e a las sucesivas derivadas de la funci´n y(x). En los m´todos de Runge-Kutta se o e

120

Cap´ ıtulo 6

elimina esa dificultad. Las ideas que dan origen a este conjunto de m´todos e se resumen en los siguientes pasos: Paso 1. Consideramos la igualdad
xi+1 xi+1

y(xi+1 ) − y(xi ) = y despejamos y(xi+1 )

y (x)dx =
xi xi

f (x, y(x))dx.

xi+1

xi+1

y(xi+1 ) = y(xi ) +
xi

y (x)dx =
xi

f (x, y(x))dx.

Paso 2. Realizamos el cambio de variable x = xi + θh en la integral anterior y obtenemos
1

y(xi+1 ) = y(xi ) + h
0

f (xi + θh, y(xi + θh))dθ.

(6.2)

Paso 3. Consideramos el conjunto de puntos 0 = θ0 ≤ θ1 ≤ . . . θm ≤ 1 del intervalo de integraci´n [0, 1] y estimamos la integral anterior mediante una o o f´rmula de cuadratura del siguiente tipo
1 0

F (θ)dθ ≈ A0 F (θ0 ) + A1 F (θ1 ) + · · · + Am F (θm )

o con lo que, denotando xiθj = xi + θj h, en la ecuaci´n (6.2) obtenemos y(xi+1 ) ≈ y(xi ) + h A0 f xiθ0 , y(xiθ0 ) + A1 f xiθ1 , y(xiθ1 )

+ · · · + Am f xiθm , y(xiθm ) . (6.3)

La f´rmula de cuadratura elegida puede variar, pero se le ha de exigir que o al menos sea exacta para las funciones constantes, lo que se traduce en que los coeficientes han de cumplir la condici´n o A0 + A 1 + · · · + A m = 1 El m´todo de Runge-Kutta ser´ la f´rmula que resulta de sustituir en la ecuae a o ci´n (6.3) los valores y(xi ), y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ) por sus valores aproxio mados. Si bien dispondremos en cada paso del valor yi que aproxima a y(xi ), no ocurre lo mismo con las aproximaciones de y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ).

Ecuaciones diferenciales

121

Paso 4. En esta etapa conseguiremos obtener un algoritmo para las aproximaciones aludidas en el apartado anterior. De forma similar a como se obtuvo la ecuaci´n (6.2), llegamos a la igualdad o
θj

y(xiθj ) = y(xi ) + h

f (xi + θh, y(xi + θh))dθ
xi

y aplicando una f´rmula de cuadratura para cada j o
θj xi j j j F (θ)dθ ≈ B0 F (θ0 ) + B1 F (θ1 ) + · · · + Bj−1 F (θj−1 )

(6.4)

a la integral anterior, se obtienen las aproximaciones buscadas
j−1

y(xiθj ) ≈ y(xi ) + h

j Bk f (xiθk , y(xiθk )). k=0

Las f´rmulas de cuadraturas usadas en (6.4) han de ser exactas al menos para o las funciones constantes, por lo tanto los coeficientes deben verificar
j j j B0 + B1 + · · · + Bj−1 = θj

j = 1, . . . , m.

e o Paso 5. Si denotamos yiθj a una estimaci´n de y(xiθj ), un m´todo de RungeKutta quedar´ as´ ıan ı: yi+1 = yi + h[A0 f (xiθ0 , yiθ0 ) + A1 f (xiθ1 , yiθ1 ) + · · · + Am f (xiθm , yiθm ) (6.5) siendo yiθ0 = yi 1 yiθ1 = yi + h B0 f (xiθ0 , yiθ0 ) 2 2 yiθ2 = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) ... m m yiθm = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) + . . . m · · · + Bm−1 f (xiθm−1 , yiθm−1 ) Previamente deben fijarse los valores 0 = θ 0 ≤ θ1 ≤ θ2 ≤ . . . θm ≤ 1

yi ) con lo que yi+1 = yi + h 1 1 f (xi . podemos obtener... .. .. debido a que la f´rmula (6.5) requiere m+1 evaluaciones o de la funci´n f (x. . el m´todo de Heun: e θ0 = 0. m Bm−1 m−1 m k=0 Bk = θm m r=0 Ar =1 1 2 2 B0 = θ 1 B0 + B 1 = θ 2 . yi ) + f (xi+1 . yi0 ) + f (xi1 .6) El llamado m´todo de Euler modificado sale con la elecci´n e o θ0 = 0. entre otras posibilidades. Un m´todo como el anterior se conoce con el nombre de m´todo de Rungee e Kutta de m+1 etapas. Am m B0 m B1 . y). o Ejemplo: Para m = 0 (una etapa)... yi )) 2 2 (6. yi + hf (xi .122 Cap´ ıtulo 6 as´ como los siguientes par´metros que han de cumplir con las condiciones de ı a las sumas correspondientes que aparecen en el cuadro A0 A1 1 B0 A2 2 B0 2 B1 . θ1 = 1 A0 = 1/2 A1 = 1/2 A 0 + A1 = 1 1 =1 B0 1 B0 = θ 1 = 1 1 1 yi+1 = yi + h[ f (xi0 . el m´todo de Runge-Kutta que resulta e es el m´todo de Euler. θ1 = 1/2 . e Para m = 1 (dos etapas). yi1 ) 2 2 siendo yi0 = yi yi1 = yi + hf (xi .

yiθ1 )] siendo yi0 = yi yi1/2 = yi + h 1 f (xi . yiθ1 ) 4 4 siendo yiθ0 = yi yiθ1 = yi + h con lo que el m´todo queda as´ e ı 2 3 f (xiθ0 . yi + f (xi . yi ) 2 con lo que el m´todo queda e yi+1 = yi + hf xi + h h . yiθ0 ) 1 3 2 2 yi+1 = yi + h[ f (xi .Ecuaciones diferenciales A0 = 0 A1 = 1 A 0 + A1 = 1 1 = 1/2 B0 1 B0 = θ1 = 1/2 123 yi+1 = yi + h[f (xiθ1 . yiθ0 ) + f (xiθ1 . yi ) 2 2 (6. yi + h f (xi . yi ) 4 4 3 3 El m´todo cl´sico de Runge-Kutta es de m = 3 (cuatro etapas) definido e a por los par´metros a 0 = θ0 θ1 = 1/2 θ2 = 1/2 θ3 = 1 . yi ) + f (xi + h. θ1 = 2/3 A0 = 1/4 A1 = 3/4 A 0 + A1 = 1 1 = 2/3 B0 1 B0 = θ1 = 2/3 1 3 yi+1 = yi + h[ f (xiθ0 .7) Otra elecci´n posible es o θ0 = 0.

y0 + h K2 ) = −1.8) Ejercicio: Aplica tres pasos del m´todo cl´sico de Runge-Kutta de orden e a 4 con h = 1/128 para resolver la ecuaci´n o y = yx − y 2 x2 y(1) = 2.82316.98473. Partimos de x1 = 1 + y1 = 1. y0 + hK3 ) = −1.8) o previamente calculamos K1 = f (x0 . yi ) K2 = f (xi + h . y1 + hK3 ) = −1. yi + hK3 ) K3 = f (xi + 2 . 6 1 128 . Paso 1. y0 = 2.95409 2 2 K4 = f (x0 + h. y1 + h K2 ) = −1. 2) = −2 K2 = f (x0 + h .90899 K2 = f (x1 + h .98473. Partimos de x0 = 1. Paso 2. y0 + h K1 ) = −1. . y1 ) = −1. yi + 2 K2 ) h (K1 + 2K2 + 2K3 + K4 ) 6 (6.86570 2 2 K4 = f (x1 + h.95355 2 2 K3 = f (x0 + h . yi + h K1 ) 2 2 h h K4 = f (xi + h.90898. Calculamos K1 = f (x1 .124 A0 = 1/6 A1 = 1/3 1 B0 = 1/2 A2 = 1/3 2 B0 = 0 2 = 1/2 B1 A3 = 1/6 3 B0 = 0 3 =0 B1 3 B2 = 1 2 3 k=0 Bk = 1 Cap´ ıtulo 6 3 r=0 Ar =1 1 2 2 B0 = 1/2 B0 + B1 = 1/2 que da lugar a yi+1 = yi + donde K1 = f (xi . y0 ) = f (1. Para aplicar la ecuaci´n (6. y1 + h K1 ) = −1. Con estos datos obtenemos y1 = y 0 + h (K1 + 2K2 + 2K3 + K4 ) = 1.86520 2 2 K3 = f (x1 + h .

4 M´todos multipaso e Tanto los m´todos de Taylor como los de Runge-Kutta son m´todos de un e e paso. porque para calcular el valor aproximado yi+1 solo se usa. Se da la igualdad para k = 1.4 etapas tienen orden 1. para k = 6.97016.97016. 125 Paso 3.96088. xi−k . 6 6.74215. 4. en general para k ≥ 7 se necesitan un n´mero de etapas mayor o u igual que k + 2. el valor aproximado anterior yi . y) y(x0 ) = y0 . adem´s de xi a y de h. 6. u Es decir. los m´todos de Runge-Kutta de 1. y2 + hK3 ) = −1. xi . xi−1 .3. y2 ) = −1. Sabemos que y (x) ≈ y(x + h) − y(x − h) 2h . Para conseguir orden k = 5 es necesario 6 etapas. su orden.Ecuaciones diferenciales Con estos datos obtenemos y2 = y 1 + h (K1 + 2K2 + 2K3 + K4 ) = 1.78186 2 2 h K3 = f (x2 + 2 . Existen m´todos de Runge-Kutta de orden k con k menor e o igual que el n´mero de etapas m + 1. .2. . Partimos siempre de la ecuaci´n o y = f (x.4. 6 2 128 . 3. Con estos datos obtenemos y3 = y 2 + h (K1 + 2K2 + 2K3 + K4 ) = 1.1 Errores Los m´todos de Runge-Kutta tienen tambi´n su error de truncamiento global. e e es decir.78231 2 K4 = f (x2 + h. y2 + h K1 ) = −1. Los m´todos multipaso se caracterizan e por obtener yi+1 a partir de los valores h. 7 etapas.2. yi−k . . y2 + h K2 ) = −1. 2.82311 K2 = f (x2 + h . yi−1 . . yi . Partimos de x2 = 1 + y2 = 1. e respectivamente. Ejemplo: Un primer ejemplo sencillo de un m´todo multipaso se puede e obtener de la siguiente forma.3.3. Calculamos K1 = f (x2 .

Este ultimo puede calcularse con un m´todo de un paso. e Partimos de la relaci´n o xi+1 xi+1 y(xi+1 ) − y(xi ) = y (x)dx = xi xi f (x. y(xi + θh))+ + · · · + Ak f (xi + θk h. yi−1 . y(xi + θk h)) (6. y(x))dx. y(xi+1 ) − y(xi−1 ) 2h Cap´ ıtulo 6 Para poder obtener el punto yi+1 son necesarios los dos valores anteriores yi . ´ e El que sigue es un proceso para obtener un conjunto de m´todos multipasos. y aplicamos el cambio de variable x = xi + θh 1 y(xi+1 ) − y(xi ) = h f (xi + θh. Para empezar a aplicarlo tenemos que e disponer de y0 e y1 .9) y nos queda y(xi+1 ) − y(xi ) ≈ h A0 f (xi + θ0 h. 0 Aproximamos la integral anterior por una f´rmula de cuadratura o 1 0 F (θ)dθ = A0 F (θ0 ) + A1 F (θ1 ) + · · · + Ak F (θk ) (6. yi ). Es un m´todo de dos pasos.126 con lo que y(xi ) ≈ y se deduce que y(xi+1 ) ≈ y(xi−1 ) + 2 h y (xi ).10) lo cual sugiere un m´todo que resultar´ de sustituir los valores de la funci´n e a o por valores aproximados. y(xi + θh))+ + A1 f (xi + θ1 h. y(xi + θh))dθ. . lo que sugiere el m´todo e yi+1 = yi−1 + 2 h f (xi .

yi ) − f (xi−1 .9) tomamos los puntos o θ0 = 0 θ1 = −1 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. yi ) − f (xi−1 . 2 2 1 3 f (xi . Sustituyendo en o (6. obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A1 = − 2 1 3 y la soluci´n del sistema anterior es A0 = 2 y A1 = − 2 . y(xi )) − f (xi−1 . yi−1 ) 2 2 (6.Ecuaciones diferenciales Ejemplo: Deduzcamos el m´todo de orden 2 e 127 yi+1 = yi + h 1 3 f (xi . que es un m´todo de Runge-Kutta o e de orden 2: y1 = y0 + hf x0 + h h . y1 . y solo o disponemos del valor y0 = 2. Es habitual calcular los puntos necesarios para empezar mediante un m´todo de un paso del mismo orden. 2 2 .10) nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 3 f (xi . y0 ) = 1. y(xi−1 ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 Para aplicar la f´rmula (6.11) Si en la f´rmula de cuadratura (6.98474.11) necesitamos dos puntos iniciales y0 . Usamos el m´todo e e de Euler modificado (ver ecuaci´n (6. yi−1 . y0 + f (x0 .7)).

11) 3 1 f (x1 . yi ) − 1 f (xi−1 . Estos m´todos o e se encuadran dentro de los m´todos multipaso expl´ e ıcitos. yi−2 ) − 1274f (xi−3 . de orden 4: yi+1 = yi + h 55f (xi . de orden 2: yi+1 = yi + h 2. y) valorada en o o los puntos . Estos son algunos ejemplos de f´rmulas de Adams-Bashforth: o 1. yi ) + A1 f (xi−1 .95627. yi−2 ) − 9f (xi−3 .10) deseo que aparezca la funci´n f (x. yi−1 )+ 720 + 2616f (xi−2 .128 Cap´ ıtulo 6 Ya disponemos de y0 e y1 y podemos calcular y2 aplicando (6. yi−3 ) + 251f (xn−4 . yi−k+1 ) es una f´rmula de Adams-Bashforth de k pasos y orden k.4. a diferencia o de los m´todos impl´ e ıcitos que veremos en es siguiente apartado. yi−3 ) h 1901f (xi . yi ) − 2774f (xi−1 . y1 = 1. debido a que la definici´n de yi+1 es expl´ o ıcita en funci´n de los valores anteriores. 2 2 6. yi ) − 59f (xi−1 . de orden 5: yi+1 = yi + Todas ellas se pueden obtener siguiendo el proceso descrito en la p´gina a 126. y2 ) − f (x1 . Dado que en dicho proceso se utiliza el cambio de variable x = xi + θ h. 2 2 Con y1 e y2 podemos calcular y3 y2 = y 1 + h y3 = y 2 + h Y as´ sucesivamente. y1 ) − f (x0 . si en la f´rmula final (6. yi−1 )+ 24 + 37f (xi−2 . y0 = 1. ı 1 3 f (x2 . yi−1 ) 2 3. yn−4 ) 3 2 f (xi .1 F´rmulas de Adams-Bashforth o Un m´todo multipaso de la forma e yi+1 = yi + A0 f (xi . yi−1 ) + · · · + Ak−1 f (xi−k+1 .97018.

....... xi−k+1 . Estos m´todos o e se encuadran dentro de los m´todos multipaso impl´ e ıcitos. tendr´ que elegir los valores e θ = 1. ¿C´mo o calcular yi+1 mediante la f´rmula (6. θ1 = −1. yk−1 .4.10) deseo que aparezca la funci´n f (x.. xi−k+1 .9)... . . que podr´n obtenerse mediante un m´todo de a e un paso del mismo orden. Al igual que las f´rmulas de Adams-Bashforth. θ0 = 0. xi .... θk−1 = −k + 1 129 al construir la f´rmula de cuadratura (6. si en la f´rmula final o (6. debido a que en la f´rmula aparece el valor yi+1 definido de forma impl´ o ıcita. yi−k+1 .Ecuaciones diferenciales xi . y) valorada en los puntos o xi+1 . · · · + Ak−1 f (xi−k+1 . que podr´n obtenerse mediante un m´todo a e de un paso del mismo orden.. yi+1 ) + A0 f (xi . Dado que en dicho a proceso se utiliza el cambio de variable x = xi + θ h. tendr´ que elegir los valores e θ0 = 0... o Para aplicar una f´rmula de Adams-Moulton de k pasos necesitaremos los o valores iniciales y0 . xi−1 . las f´rmulas de Adams-Moulton se pueden o o obtener siguiendo el proceso descrito en la p´gina 126. . yi−1 . y1 . yi−k+1 ) (6. yk−1 .9). .. yi−1 ) + . y1 . ... Supongamos que disponemos de los valores yi . o Para aplicar una f´rmula de Adams-Bashforth de k pasos necesitaremos o los valores iniciales y0 .12) es una f´rmula de Adams-Moulton de k pasos y orden k + 1.. .2 F´rmulas de Adams-Moulton o Un m´todo multipaso de la forma e yi+1 = yi + Bf (xi+1 . . θ1 = −1.. yi ) + A1 f (xi−1 . . θk = −k + 1 al construir la f´rmula de cuadratura (6.. xi−1 . 6.12)? Se puede hacer de dos formas: o .

yi+1 ) + f (xi . . 2. yi ) + A1 f (xi−1 . yi−k+1 ). yi+1 lo podemos obtener como l´ ımite de la sucesi´n o ∗ t0 = yi+1 . M´todo iterativo de punto fijo. En este sentido. es suficiente dos o tres a iteraciones para conseguir un valor aceptable de yi+1 . Ejemplo: Deduzcamos la f´rmula de Adams-Moulton de orden dos o yi+1 = yi + h 1 1 f (xi+1 . tn = Φ(tn−1 ) n≥1 ∗ siendo yi+1 un valor inicial que se recomienda obtener mediante la f´rmula o de Adams-Bashforth del mismo orden. Se estima un primer valor predictor y i+1 e mediante una f´rmula de Adams-Bashforth del mismo orden y despu´s se o e calcula el valor corrector yi+1 aplicando ∗ yi+1 = yi + Bf (xi+1 .9) tomamos los puntos θ0 = 1 θ1 = 0 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. t) + A0 f (xi .13) Aplicaremos el proceso descrito en la p´gina 126. · · · + Ak−1 f (xi−k+1 . yi−k+1 ). . En consecuencia.12) todos los t´rminos e o e de la parte derecha de la igualdad son datos excepto yi+1 . yi ) 2 2 (6. En la f´rmula (6. yi−1 ) + . · · · + Ak−1 f (xi−k+1 . M´todo predictor-corrector.130 Cap´ ıtulo 6 ∗ 1. En la pr´ctica. yi+1 es un punto fijo de la funci´n o Φ(t) = yi + Bf (xi+1 . yi ) + A1 f (xi−1 . yi+1 ) + A0 f (xi . Si en la f´rmula de a o cuadratura (6. yi−1 ) + . . . obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A0 = 2 .

11) necesitamos los dos puntos iniciales y0 e y1 . y(xi+1 )) + f (xi . por e ejemplo. para aplicar o (6. y1 ) + f (x0 . Sustituyendo en (6.98473. calculamos el valor corrector con Adams-Moulton y1 = y 0 + h 1 1 ∗ f (x1 . por Runge-Kutta de orden 2 (ver 6.11)) o ∗ y2 = y 1 + h 3 1 f (x1 . e debe calcularse con una f´rmula de Adams-Bashforth del mismo orden. y0 + hf (x0 . 2 2 ∗ Para calcular y2 . y0 ) + f (x1 . M´todo predictor. Calculamos un valor predictor y1 . y0 = 1.97017 2 2 . e e ∗ 1. yi .Ecuaciones diferenciales y la soluci´n del sistema anterior es A0 = o nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 1 f (xi+1 . primero calculo el valor predictor y2 con Adams-Bashforth de orden 2 (f´rmula (6. por lo que solo necesitamos el e valor y0 para empezar. Para estimar el resto de valores podemos optar por el m´todo predictor-corrector o por el m´todo iterativo de punto fijo. Sin embargo. y0 )) = 1. en o este caso la f´rmula (6. y(xi ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 El m´todo a aplicar es de orden 2 y 1 paso. y0 ) = 1.10) 1 1 f (xi+1 . Si es posible. yi+1 ) + f (xi .98474 2 2 Con este valor. 2 2 1 2 131 1 y A1 = 2 .6): ∗ y1 = y 0 + h 1 1 f (x0 .11) que es de orden dos. y1 ) − f (x0 . con lo que en este primer ∗ paso no podemos hacer uso de ella. Calculamos y1 mediante otro m´todo.

98473. En este caso no es posible aplicar Adams-Bashforth puesto que se necesitar´ dos puntos ıa ∗ mediante Runge-Kutta de orden 2 iniciales que no tenemos. M´todo iterativo de punto fijo. ∗ Para localizarlo generamos una sucesi´n iterativa comenzando por un valor y 1 o obtenido. si es posible. y2 ) − f (x1 .98473 t2 = Φ1 (1. por tanto.95622. y2 = 1. Calculamos y1 ∗ (y1 = 1. 2 2 Cap´ ıtulo 6 ∗ En el siguiente paso calculo el predictor y3 con Adams-Bashforth ∗ y3 = y 2 + h 3 1 f (x2 .98473) = 1. y3 ) + f (x2 . t) + f (x1 . 2 2 El proceso anterior se repite para calcular el resto de valores. t) + f (x0 . Dada la funci´n e o Φ1 (t) = y0 + h el valor y1 que buscamos verifica Φ1 (y1 ) = y1 .98474) y generamos la sucesi´n iterativa: o ∗ t0 = y1 = 1.98474 t1 = Φ1 (1. y1 = 1.132 y despu´s calculo el corrector con Adams-Moulton e y2 = y 1 + h 1 1 ∗ f (x2 .98473 1 1 f (x1 .95624 2 2 y despu´s calculo el corrector con Adams-Moulton e y3 = y 2 + h 1 1 ∗ f (x3 .98474) = 1.97015. y1 ) = 1. y2 ) + f (x1 . y2 es un punto fijo de Φ2 (t) = y1 + h 1 1 f (x2 . y1 ) 2 2 . 2. por Adams-Bashforth del mismo orden. y0 ) 2 2 De forma que tomamos y1 = 1. un punto fijo de la ecuaci´n o Φ1 (t) = t. Es.

yi−2 ) y(1) = 2 Ejercicio: Usa la identidad xi+2 y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del sio o guiente m´todo multipaso e yi+2 = yi + h f (xi .97015 Tomamos y2 = 1.97015. yi−2 ) − 9f (xi−3 . que a su vez es obtenido por Adams-Bashforth de orden 2 ∗ t0 = y2 = 1. yi )− 24 − 5f (xi−1 . Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi .97017. yi+2 ) . Ejercicio: 1. Y repetimos el proceso para el resto de valores. yi−1 )+ 24 + 37f (xi−2 . yi ) + 4f (xi+1 . yi−1 ) + f (xi−2 . yi ) − 59f (xi−1 .Ecuaciones diferenciales 133 que localizamos mediante la sucesi´n iterativa similar a la anterior que coo ∗ mienza en y2 = 1. yi+1 ) + f (xi+2 .97017 t1 = Φ2 (1. y(i + 1)) + 19f (xi .97017) = 1.97015) = 1. Repite el apartado anterior para la f´rmula de Adams-Moulton de orden o 4: yi+1 = yi + h 9f (xi+1 . 3 . yi−3 ) yx − x2 x2 y usala para resolver la ecuaci´n ´ o y = con h = 1/128 2.97015 t2 = Φ2 (1.

.

3. e 2. para obtener una aproximaci´n de la ra´ con o ız un error inferior a una mil´sima? e 135 . Dada la ecuaci´n o √ xsen(x) − x3 + 2 = 0 encuentra una aproximaci´n de una ra´ o ız (a) Con el m´todo de la bisecci´n con un error menor que 1/30. e o (b) Con 4 iteraciones del m´todo de Newton-Raphson. Se considera la ecuaci´n x2 − 1 − sen(x) = 0. al menos. ız o a a partir de x0 = π/2. o ız (b) Encuentra un intervalo en el cual la iteraci´n o xn = 1 + sen(xn−1 ) x∈N converja. una ra´ positiva. para cualquier valor inicial x0 de dicho intervalo. ¿Cu´ntos pasos deben darse. o (a) Prueba que dicha ecuaci´n tiene.Problemas Ecuaciones no lineales 1. a una ra´ positiva de la ecuaci´n anterior. Determina un intervalo y una funci´n para aplicar el m´todo del punto o e fijo a las siguientes ecuaciones: (a) x3 − x − 1 = 0 (b) 4 − x − tg(x) = 0 Realiza 4 iteraciones del m´todo y determina en cada caso una cota del e el error cometido.

2 = 0. Demuestra que la ecuaci´n o ex L(x) + x3 − 2 = 0 Problemas tiene una unica ra´ positiva. o o 6. (b) Prueba que la ecuaci´n F (x) = 0 tiene una unica ra´ negativa.136 4. o (a) Localiza un intervalo que contenga una soluci´n de f (x) = 0. (a) Demuestra que F (x) < 0 si x ≥ 0. aplica el m´todo de la bisecci´n para o e o encontrar una soluci´n con un error menor que 1/10. una aproximaci´n de un valor donde se anule la derivada de o f (x) y una cota del error cometido. ı e de la sucesi´n definida mediante dicho m´todo. Se considera la funci´n o F (x) = e−x − sen(x) − 2. repitan las primeros cuatro decimales. o 9. Calcula tres iteraciones del m´todo de la secante para encontrar una ra´ e ız o de la ecuaci´n cos(x) − x = 0 en el intervalo [0. Calcula una cota o e del error cometido. 7. Determina un intervalo y una funci´n para poder aplicar el m´todo del o e punto fijo a las siguientes ecuaciones: (a) x − L(1 + x) − 0.5. Aplica el m´todo de Newton-Raphson para ´ ız e encontrar una aproximaci´n a la ra´ Realiza iteraciones hasta que se o ız. Dada la funci´n f (x) = ex − 3x2 . π/4] . o ´ ız (c) Determina un intervalo donde se pueda aplicar el m´todo de Newtone Raphson para aproximar dicha ra´ as´ como los 4 primeros t´rminos ız. Dada la ecuaci´n x = arctg(x + 1). 5. Calcula una aproximaci´n a la soluci´n con un error inferior a 10−5 . (b) x = −L(x). 8. Enuno cia el resultado te´rico que utilices. aplicando el m´todo del punto fijo con cuatro iteracioe nes. o (b) Encuentra.

o 137 (a) Determina el valor de k para que la ecuaci´n tenga una unica ra´ o ´ ız triple en el intervalo [0. . Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = cos(x) − x. y utiliza el m´todo de Newton para encontrar una e aproximaci´n con error menor que 10−6 o (b) Utiliza la sucesi´n de Sturm para separar las distintas ra´ o ıces del polinomio. utiliza su sucesi´n o ıces en intervalos disjuntos. Dado el polinomio P (x) = x4 − 4x3 + 7x2 − 5x − 2 (a) Utiliza la sucesi´n de Sturm para separar las ra´ o ıces del polinomio. o 13. ´ o (b) Encuentra una aproximaci´n a la soluci´n mediante tres iteraciones o o del m´todo del punto fijo partiendo del punto x0 = −1. π/4]. 1] y calc´lala con el m´todo de Newton con un error menor que u e 10−3 . 3]. prueba que posee una unica ra´ simple en el intervalo ´ ız [0.5. (b) Para k = 3. Encuentra de Sturm para separar sus ra´ aproximaciones de las ra´ ıces con un error menor que 10−3 . 14. Dada la ecuaci´n 2cos(2x) + 4x − k = 0. 11.Problemas 10.5. 1]. 0]. o ız 12. o (a) Calcula el n´mero de pasos necesarios para encontrar una ra´ de u ız −2 con el m´todo de la bisecci´n f (x) con un error menor que 10 e o e u en el intervalo [0. Dado la ecuaci´n x4 − 7x3 + 18x2 − 20x + 8 = 0: (a) Demuestra con el teorema de Bolzano que tiene una soluci´n en el o intervalo [1. (b) Utiliza el m´todo de Newton-Raphson para encontrar una aproxie maci´n de la ra´ real de P (x) de menor valor absoluto. Cuesti´n de examen de febrero de 2004: o Dada la ecuaci´n x2 − e2x = −1/2.5 e 15. Dado el polinomio P (x) = 8x3 − 20x2 − 2x + 5. Aplica el m´todo con el n´mero de pasos calculado. o (a) Demuestra que tiene una unica soluci´n en el intervalo [−2.

138 Problemas (b) Aplica tres iteraciones del m´todo de la secante para encontrar una e ra´ de f (x) en el intervalo [0. (b) Empezando con x = 6 aplica un paso del m´todo de Newton hae ciendo uso del algoritmo de Horner.5. Cuesti´n de examen de septiembre de 2004: o Dado el polinomio P (x) = −x3 + x2 − 2x + 5. . π/4]. (a) Utiliza el m´todo de Sturm para separar las ra´ e ıces en intervalos disjuntos. ız 16.

28x1 − 0.72 a) Resu´lvelo por Gauss. 7x1 − 3x2 + 8x3 = −49 x1 − 2x2 − 5x3 = 5 4x1 − 6x2 + 10x3 = −84 a) Calcula la inversa de la matriz de los coeficientes haciendo uso de las operaciones fundamentales. b) Sustituye a11 por 0. L y U tal que P A = LU como en el ejercicio anterior. 19. Dado el sistema −12x1 + x2 − 7x3 = −80 x1 − 6x2 + 4x3 = 13 −2x1 − x2 + 10x3 = 92 a) Resu´lvelo por eliminaci´n gaussiana simple usando d´ e o ıgitos con dos cifras decimales.55 y resu´lvelo de nuevo. Dado el sistema de ecuaciones = −9. c) Calcula el n´mero de condici´n de la matriz u o con las distintas normas que conozcas. b) Encuentra las matrices P . emplea el refinamiento iterativo para mejorar la soluci´n.5x2 = −4. b) Utiliza la inversa para obtener las soluciones del sistema. c) Comprueba los resultados. o . e e c) Interpreta los resultados anteriores en t´rminos del condicionamiento e del sistema.5x1 − x2 0. siendo A la matriz de los coeficientes. Para el conjunto de ecuaciones. y si no son exactos. c) Sustituye los resultados en las ecuaciones y.5 0. o 20.Problemas 139 Sistemas de ecuaciones lineales 17. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´n o gaussiana con pivoteo parcial empleando d´ ıgitos con dos decimales. d) Calcula el n´mero de condici´n de la matriz del sistema u o con la norma infinito. utiliza el m´todo del refinamiento iterativo para mejorar e la soluci´n. si es necesario. 18. b) Encuentra las matrices triangular inferior L. triangular superior U y de permutaciones P tal que P A = LU .

−5x1 − 8x2 = −64 21. Dados      14 −7 4 −3 0 2 2  b = −2 b =  9  3 A= −8 6 6 1 −6  resuelve Ax = b y Ax = b mediante una descomposici´n LU de Gauss. Dado el sistema     105 3 2 100 x1 −1 3 100 x2  = 102 2 x3 1 2 −1  Problemas 3x2 − 13x3 = −50 2). 22.140 4x1 + 5x2 − 6x3 = 28 2x1 − 7x3 = 29 1). Resuelve el sistema  = 0 = −4 = −11 = 5 = 6     −4 x1 4 −1 −1 0  x 2   0  −1 4 0 −1      = −1 0 4 −1 x3   4  −4 x4 0 −1 −1 4 mediante la descomposici´n de Cholesky. Resuelve el sistema siguiente mediante descomposici´n LU : o −4x1 + 2x2 x1 − 4x2 x2 − 4x3 + x4 x3 − 4x4 + x5 2x4 − 4x5 24. o Utiliza 3 decimales en los c´lculos. 2x1 − 6x2 + x3 = 44 4x1 + 8x3 = 4 e o resu´lvelo mediante descomposici´n LU de Gauss: a) sin escalamiento y b) con escalamiento previo de filas. ¿Es la matriz de los coeficientes o definida positiva? . a 23.

0. Si se cumplen. Repite el ejercicio anterior para el sistema x1 − 2x2 = −1 3x1 + x2 = 4 Intenta resolver el sistema con los m´todos de Jacobi y Gauss-Seidel e haciendo alg´n peque˜o cambio en las ecuaciones. realiza e dos iteraciones para cada m´todo tomando como valor inicial (0. ¿Es convergente el m´todo? e 28. o −x1 + x2 − 4x3 = 0 = 1 2x1 + 2x2 1 3x1 + 3x2 + 2x3 = 2 . u n 27. Primero. Cuesti´n de examen de junio de 2004: o Resuelve por el m´todo de Cholesky el sistema de ecuaciones: e x1 + 2x2 + 3x3 = 7 2x1 + 5x2 + 4x3 = 9 3x1 + 4x2 + 14x3 = 33 29. 0). Cuesti´n de examen de septiembre de 2004: o Resuelve el siguiente sistema dos veces.Problemas 25. 0). Despu´s. e 26. o o e utilizando la eliminaci´n gaussiana con pivoteo y encontrando la factoo rizaci´n P A = LU. utilizando la eliminaci´n gaussiana simple y encontrando la factorizaci´n A = LU . Dado el sistema 141  comprueba si se cumple alguna de las condiciones suficientes para que funcionen los m´todos de Jacobi y Gauss-Seidel. Cuesti´n de examen de febrero de 2004: o e o Aplica el m´todo de Jacobi a la resoluci´n del sistema: 7x − y + 4z = 8 3x − 8y + 2z = −4 4x + y − 6z = 3     2 0 −1 x1 1 −2 −10 0  x2  = −12 −1 −1 4 2 x3 empleando 3 iteraciones y partiendo del punto (0. 0.

0. −0.5.5 y 1 son −π. respectivamente. (0. 0.? 32. 1). 2. (a) Encuentra un polinomio que pase por esos puntos. (c) Sabiendo que las derivadas de f (x) en el mismo instante en los puntos −1. −1). la cantidad de informaci´n recibida era 0. 0). 52. (−0. La funci´n f (x) = L(x) se ha evaluado en varios puntos. Se ha estudiado el proceso de recepci´n de informaci´n de un ordenador o o y se ha observado que en los instantes 0. 0. (c) Encuentra una funci´n lineal a trozos que se aproxime a f (x) en o los puntos dados. 51. De la funci´n f (x. (1. Dada la funci´n f (x) = ex y los puntos 0. 1.142 Problemas Aproximaci´n de funciones. o 33. (b) Repite el apartado anterior con los nodos de Chebyshev en el intervalo [0.. 2]. π. 104 megabites y se recib´ o ıa a una velocidad de 0. 2 medidos en segundos.5. (d) Encuentra un polinomio que interpole a f (x) y a sus derivadas en los puntos dados. 2. 54 megabites por segundo. 34. 0 y −π. Interpolaci´n o o 30. 1. 0). (d) Calcula el spline natural para ese conjunto de datos. obteni´ndose o e lo siguientes datos: . t) que representa una onda que se desplaza sobre el o plano se conocen cinco posiciones en un determinado instante: (−1. 1. o (a) Encuentra su polinomio de interpolaci´n en los puntos y estima el o error cometido. (b) Encuentra una funci´n formada por trozos de recta que pase por o esos puntos.5. calcula un polinomio que cumpla todas las condiciones. (e) Calcula el spline natural en los puntos dados. 31. Encuentra una funci´n que se aproxime a la que representa el proceso. (0. 0). 4. ¿Cu´l es el polinomio interpolador de f (x) = x3 − 2x − 5 en los puntos a −0.

h´ganse de a nuevo los c´lculos y estimaciones. 1]. (a) Halla el polinomio interpolador de grado menor o igual que 2 por el m´todo de Newton que pase por esos puntos. 37.9]. (b) Agregando un cuarto punto x3 = 5.7918 143 (a) Util´ ıcense los datos anteriores para calcular el polinomio de interpolaci´n y el spline natural. Cuesti´n de examen de septiembre de 2004: o Determina si la funci´n o  1 + x − x3  1 − 2(x − 1) − 3(x − 1)2 + 4(x − 1)3 f (x) =  4(x − 2) + 9(x − 2)2 − 3(x − 2)3 x y 0 1 1 1 2 0 3 10 si si si x ∈ [0.Problemas x0 = 1 x1 = 4 x2 = 6 f (x0 ) = 0 f (x1 ) = 1.5 mediante dicho polinomio. 2] x ∈ [2. f (x3 ) = 1. e (b) Halla el polinomio interpolador en los nodos de Chebyshev en [1.4 y 9. el polinomio interpolador en dichos nodos y un valor aproximado de e0. determina los cuatro nodos de Chebyshev en o [0. Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = ex . 36. Est´ o ımese el valor de L(2). Calculando los valores de la funci´n f (x) = o √ x en 1. a Polinomios de Chebysev: T0 (x) = 1. Realiza los c´lculos con 4 decimales. Tn+1 (x) = 2xTn (x) − Tn−1 (x). 3] es el spline c´bico natural que interpola a los puntos de la tabla: u . (d) Calcula el spline natural. a 35.3863 f (x2 ) = 1. T1 (x) = x. e (c) Aplica el m´todo de Hermite en los puntos iniciales y en sus derivadas. 1] x ∈ [1.6094.

2) haciendo uso de la interpoo laci´n de la funci´n en los cuatro puntos. aplica la interpolaci´n de Rio chardson para calcular una aproximaci´n de f (0. (f) Romberg. Determina el n´mero de subintervalos que deben tomarse para aproximar u √ 1 el valor de la integral 0. e .2) = −0. o o (d) Sabiendo que f (−0. h 2h h2 calcula valores aproximados de la primera y segunda derivadas de los puntos.25 0. o (c) Encuentra una aproximaci´n de f (0.5 2.5 3.861267. 3 0 f (x)dx utilizando los siguientes m´todos: e 40.2 0. De la funci´n f (x) = ex − 2x2 + 3x − 1 se obtienen los siguientes datos: o x f (x) 0.3718 0.9021 (a) Utilizando la f´rmula m´s adecuada de entre las siguientes: o a f (x) = f (x+h)−f (x) f (x) = f (x+h)−f (x−h) f (x) = f (x+h)−2f (x)+f (x−h) .00000 0. (e) Simpson compuesto.144 Problemas Diferenciaci´n e integraci´n num´rica o o e 38.5 6 3 7.5 6 2 5.4 1. o 39.74140 0.5 cos( x)dx con un error menor que 1 10−2 2 (a) con el m´todo de los trapecios compuesto. De una funci´n f (x) se tienen los siguientes datos: o x f (x) 0.6 1.25 Calcula un valor aproximado de (a) Trapecios.2).0 2.0 0. (c) Simpson 3/8. (d) Trapecios compuestos. (b) Calcula los errores reales y las cotas de error por medio de las f´rmulas de error para las estimaciones anteriores. (b) Simpson 1/3.75 1 5 1.

Eval´a la integral de x3 sen(x) entre x = 0 y x = 2 usando un valor de u tolerancia inferior a 0. 1 e 1 2 0 sen(x )dx mediante cuadratura gaussiana de 1 (b) Plantea c´mo resolver el problema de calcular la 0 sen(x2 )dx meo diante cuadratura gaussiana de tres t´rminos. e 2 1/x dx. 46. 2 45. Determina los valores de A.Problemas (b) con el m´todo de Simpson compuesto. (c) con el algoritmo de Romberg hasta R(4. 4). Calcula la integral e sabiendo que los nodos (ti ) en este caso son las ra´ del polinomio ıces 5x3 −3x .1% de la respuesta verdadera (3. Calcula 2 1 Ln(x)dx 145 (b) 3 ex 2 x dx 1 2 0 sen(x )dx: (a) con un error menor que 10−2 con el m´todo de los trapecios come puestos e (b) con un error menor que 10−2 con el m´todo de Simpson compuesto. 10 43. e 41. B y C que hagan que la f´rmula o 2 0 xf (x) ≈ Af (0) + Bf (1) + Cf (2) sea exacta para todos los polinomios de grado tan alto como sea posible. . Repite el ejercicio anterior para (a) 42. (d) con el m´todo de cuadratura adaptativa con nivel de tolerancia e −3 . Aplica alg´n m´todo de integraci´n num´rica para resolver las siguientes u e o e integrales: (a) 1 sen(x) x dx 0 (b) 1 cos(x)−ex −1 sen(x) dx (c) ∞ x −1 1 (xe ) dx. Repite el ejercicio anterior con 44. ¿Cu´l es el grado m´ximo? a a 47. (a) Calcula la integral dos t´rminos.791197).

A2 y A3 para que la f´rmula o 3 f (x)dx = A0 f (−1) + A1 f (0) + A2 f (1) + A3 f (2) −1 sea exacta para los polinomios de grado menor o igual que 3 y calcula 3 o un valor aproximado de −1 (x3 + x)dx haciendo uso de dicha f´rmula. 50. o . Ln+1 (x) = (2n+1)xLn (x)−nLn−1 (x) n+1 ∀ n ≥ 1.146 Problemas 48. Cuesti´n de examen de febrero de 2004: o 3 e Dada la funci´n f (x) = L(x) calcula 2 L(x)dx empleando el m´todo de o cuadratura de Gauss con tres t´rminos y sabiendo que los polinomios de e Legendre se calculan as´ ı: L0 (x) = 1. Cuesti´n de examen de junio de 2004: o Encuentra los coeficientes A0 . Cuesti´n de examen de septiembre de 2004: o Encuentra los coeficientes A1 y A2 para que la f´rmula o 2π f (x)dx = A1 f (0) + A2 f (π) 0 sea exacta para cualquier funci´n que tenga la forma a + b cos(x). o Calcula 2π 0 2 + 3 cos(x)dx haciendo uso de dicha f´rmula. L1 (x) = x. A1 . 49.

yi ) − 59f (xi−1 . yi−2 ) − 9f (xi−3 . o mediante el m´todo de Taylor de grado 2 con 5 pasos.2. sabiendo que y + 2y = x2 + 2x 52. Cuesti´n de examen de junio de 2004: o Aplicando el m´todo de Taylor de grado 2 con dos pasos. Cuesti´n de examen de febrero de 2005: o Resuelve la ecuaci´n y = y 2 − t2 + 1. yi−1 )+ 24 + 37f (xi−2 . Usa la identidad y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del o o siguiente m´todo multipaso e yi+2 = yi + h f (xi .1) y y(0. 3 . yi+1 ) + f (xi+2 . yi−1 ) + f (xi−2 .Problemas 147 Resoluci´n num´rica de ecuaciones diferenciales o e ordinarias 51.2).5. y(0) = 0. yi ) + 4f (xi+1 . e 53. yi+2 ) . siendo 0 ≤ t ≤ 1. yi )− 24 − 5f (xi−1 . (a) Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi . yi−3 ) yx − x2 x2 y(0) = 1 y usala para resolver la ecuaci´n ´ o y = y(1) = 2 con h = 1/128 (b) Repite el apartado anterior para la f´rmula de Adams-Moulton de o orden 4: yi+1 = yi + h 9f (xi+1 . yi−2 ) xi+2 54. y(i + 1)) + 19f (xi . calcula valores e aproximados de y(0.

yi )) 2 2 . 1] o o y + 2y = x2 + 2x 56. Aplica el m´todo cl´sico de Runge-Kutta para estimar 10 valores aproe a ximados de la soluci´n de la ecuaci´n siguiente en el intervalo [0. yi ) + f (xi+1 . A partir de la identidad xi+1 y(0) = 1 y(xi+1 ) − y(xi ) = y (x)dx xi e deduce el m´todo de Runge-Kutta de orden 2 yi+1 = yi + h 1 1 f (xi .148 Problemas 55. yi + hf (xi .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->