P. 1
Teoría entera

Teoría entera

|Views: 1.190|Likes:

More info:

Published by: Antonio Gamonales Contreras on Apr 26, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

01/11/2013

pdf

text

original

Sections

  • Introducci´on
  • 1.1 Cifras significativas. Exactitud y precisi´on. Erro-
  • 1.2 C´alculos estables e inestables. Condicionamien-
  • 1.2.1 Inestabilidad
  • 1.2.2 Condicionamiento
  • 1.3 Aritm´etica de la computadora
  • 1.3.1 Aritm´etica de punto flotante
  • 1.3.3 Epsilon de la m´aquina
  • 2.1 M´etodo de la bisecci´on
  • 2.1.1 Descripci´on del m´etodo
  • 2.1.2 Convergencia del m´etodo
  • 2.1.4 Variaciones del m´etodo: Regula Falsi
  • 2.2 M´etodo de Newton-Raphson
  • 2.2.1 Descripci´on del m´etodo
  • 2.2.2 Convergencia del m´etodo
  • 2.2.3 Aproximaci´on y error
  • 2.2.4 Variaciones del m´etodo: M´etodo de la secante
  • 2.3 M´etodo iterativo de punto fijo
  • 2.3.1 Descripci´on del m´etodo
  • pasos de un m´etodo iterativo de punto fijo
  • 2.3.2 Convergencia del m´etodo
  • 2.3.3 Aproximaci´on y error
  • 2.4 Ra´ıces de polinomios
  • 2.4.1 Separaci´on de ra´ıces. Sucesi´on de Sturm
  • 2.4.2 Acotaci´on de ra´ıces
  • 2.4.3 Ra´ıces de polinomios con el algoritmo de Horner
  • 2.4.4 Ra´ıces m´ultiples
  • Sistemas Lineales
  • 3.1 ´Algebra de matrices
  • 3.1.1 Valores propios y vectores propios
  • 3.1.2 Matriz definida
  • 3.2.1 M´etodo de Gauss
  • 3.2.2 M´etodo de Gauss con pivoteo
  • 3.3 Factorizaci´on LU. Factorizaci´on de Cholesky
  • 3.3.1 M´etodo de Crout
  • 3.3.2 M´etodo de Cholesky
  • 3.3.3 Sistemas triangulares
  • 3.4 Normas y an´alisis del error
  • 3.4.1 N´umero condici´on de una matriz
  • 3.5 Mejora de soluciones
  • 3.5.1 Refinamiento iterativo
  • 3.5.2 Escalamiento
  • 3.6 M´etodos iterativos
  • 3.6.1 M´etodo de Jacobi
  • 3.6.2 M´etodo de Gauss-Seidel
  • 3.6.3 M´etodos de relajaci´on
  • Aproximaci´on de funciones
  • 4.1 Construcci´on del polinomio interpolador
  • 4.1.1 M´etodo de Lagrange
  • 4.1.2 M´etodo de Newton
  • 4.2 Error del polinomio interpolador
  • 4.2.1 Elecci´on de nodos. Polinomios de Chebyshev
  • 4.3 Interpolaci´on a trozos y con condiciones sobre
  • 4.3.1 Interpolaci´on a trozos
  • 4.3.2 Interpolaci´on con condiciones sobre la derivada
  • 5.1 Diferenciaci´on num´erica y extrapolaci´on de Ri-
  • 5.1.1 Diferenciaci´on mediante interpolaci´on
  • 5.1.2 Extrapolaci´on de Richarson
  • 5.2 Integraci´on num´erica mediante interpolaci´on
  • 5.2.1 Regla del trapecio
  • 5.2.2 Regla de Simpson
  • 5.2.3 Reglas compuestas
  • 5.2.4 M´etodo de los coeficientes indeterminados
  • 5.3 Cuadratura gaussiana
  • 5.4 Integraci´on de Romberg
  • 5.5 Cuadratura adaptativa
  • 6.1 Existencia y unicidad de soluciones
  • 6.2 M´etodo de la serie de Taylor
  • 6.2.1 M´etodo de Euler
  • 6.2.2 Errores
  • 6.3 M´etodos de Runge-Kutta
  • 6.3.1 Errores
  • 6.4 M´etodos multipaso
  • 6.4.1 F´ormulas de Adams-Bashforth
  • 6.4.2 F´ormulas de Adams-Moulton
  • Problemas

DEPARTAMENTO DE MATEMÁTICAS

UNIVERSIDAD DE EXTREMADURA
06071-BADAJOZ (Spain)
Universidad de Extremadura
Departamento de Matem´aticas
Apuntes de C
´
alculo Num
´
erico
Pedro Mart
´
ın Jim
´
enez
http://cum.unex.es/profes/profes/pjimenez/
Badajoz, septiembre 2005
´
Indice
Introducci´ on 7
1 Errores, redondeo, estabilidad, condicionamiento. 9
1.1 Cifras significativas. Exactitud y precisi´on. Errores. . . . . . . 9
1.2 C´alculos estables e inestables. Condicionamiento. . . . . . . . . 12
1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Condicionamiento . . . . . . . . . . . . . . . . . . . . . 12
1.3 Aritm´etica de la computadora . . . . . . . . . . . . . . . . . . . 13
1.3.1 Aritm´etica de punto flotante. . . . . . . . . . . . . . . . 13
1.3.2 Operaciones con computadoras . . . . . . . . . . . . . . 15
1.3.3 Epsilon de la m´aquina . . . . . . . . . . . . . . . . . . . 16
2 Resoluci´ on de ecuaciones no lineales 17
2.1 M´etodo de la bisecci´on . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 19
2.1.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 19
2.1.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 20
2.1.4 Variaciones del m´etodo: Regula Falsi . . . . . . . . . . . 21
2.2 M´etodo de Newton-Raphson . . . . . . . . . . . . . . . . . . . . 22
2.2.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 22
2.2.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 23
2.2.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 24
2.2.4 Variaciones del m´etodo: M´etodo de la secante . . . . . . 27
2.3 M´etodo iterativo de punto fijo . . . . . . . . . . . . . . . . . . . 28
2.3.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 28
2.3.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 29
2.3.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 30
2.4 Ra´ıces de polinomios . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Separaci´on de ra´ıces. Sucesi´on de Sturm. . . . . . . . . 34
3
4
´
INDICE
2.4.2 Acotaci´on de ra´ıces . . . . . . . . . . . . . . . . . . . . . 37
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner . . . . 38
2.4.4 Ra´ıces m´ ultiples . . . . . . . . . . . . . . . . . . . . . . 39
3 Sistemas Lineales 41
3.1
´
Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.1 Valores propios y vectores propios . . . . . . . . . . . . 45
3.1.2 Matriz definida . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Resoluci´on de sistemas de ecuaciones lineales: m´etodo de Gauss 46
3.2.1 M´etodo de Gauss . . . . . . . . . . . . . . . . . . . . . . 47
3.2.2 M´etodo de Gauss con pivoteo . . . . . . . . . . . . . . . 49
3.3 Factorizaci´on LU. Factorizaci´on de Cholesky . . . . . . . . . . . 53
3.3.1 M´etodo de Crout . . . . . . . . . . . . . . . . . . . . . . 55
3.3.2 M´etodo de Cholesky . . . . . . . . . . . . . . . . . . . . 55
3.3.3 Sistemas triangulares . . . . . . . . . . . . . . . . . . . . 55
3.4 Normas y an´alisis del error . . . . . . . . . . . . . . . . . . . . 57
3.4.1 N´ umero condici´on de una matriz . . . . . . . . . . . . . 60
3.5 Mejora de soluciones . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.1 Refinamiento iterativo . . . . . . . . . . . . . . . . . . . 62
3.5.2 Escalamiento . . . . . . . . . . . . . . . . . . . . . . . . 63
3.6 M´etodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.6.1 M´etodo de Jacobi . . . . . . . . . . . . . . . . . . . . . 66
3.6.2 M´etodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . 68
3.6.3 M´etodos de relajaci´on . . . . . . . . . . . . . . . . . . . 69
4 Aproximaci´ on de funciones 71
4.1 Construcci´on del polinomio interpolador . . . . . . . . . . . . . 71
4.1.1 M´etodo de Lagrange . . . . . . . . . . . . . . . . . . . . 73
4.1.2 M´etodo de Newton . . . . . . . . . . . . . . . . . . . . . 73
4.2 Error del polinomio interpolador . . . . . . . . . . . . . . . . . 74
4.2.1 Elecci´on de nodos. Polinomios de Chebyshev . . . . . . 75
4.3 Interpolaci´on a trozos y con condiciones sobre la derivada . . . 78
4.3.1 Interpolaci´on a trozos . . . . . . . . . . . . . . . . . . . 78
4.3.2 Interpolaci´on con condiciones sobre la derivada . . . . . 79
5 Diferenciaci´ on e integraci´ on num´erica 87
5.1 Diferenciaci´on num´erica y extrapolaci´on de Richarson . . . . . 87
5.1.1 Diferenciaci´on mediante interpolaci´on . . . . . . . . . . 90
´
INDICE 5
5.1.2 Extrapolaci´on de Richarson . . . . . . . . . . . . . . . . 92
5.2 Integraci´on num´erica mediante interpolaci´on . . . . . . . . . . . 96
5.2.1 Regla del trapecio . . . . . . . . . . . . . . . . . . . . . 97
5.2.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . 98
5.2.3 Reglas compuestas . . . . . . . . . . . . . . . . . . . . . 99
5.2.4 M´etodo de los coeficientes indeterminados . . . . . . . . 101
5.3 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . 102
5.4 Integraci´on de Romberg . . . . . . . . . . . . . . . . . . . . . . 104
5.5 Cuadratura adaptativa . . . . . . . . . . . . . . . . . . . . . . . 107
6 Resoluci´ on num´erica de ecuaciones diferenciales 113
6.1 Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . 113
6.2 M´etodo de la serie de Taylor . . . . . . . . . . . . . . . . . . . 115
6.2.1 M´etodo de Euler . . . . . . . . . . . . . . . . . . . . . . 118
6.2.2 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3 M´etodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . 119
6.3.1 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4 M´etodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4.1 F´ormulas de Adams-Bashforth . . . . . . . . . . . . . . 128
6.4.2 F´ormulas de Adams-Moulton . . . . . . . . . . . . . . . 129
Problemas 135
Introducci´ on
El texto que sigue no es definitivo ni exhaustivo. Se ir´a reformando a medida
que se detecten fallos o se modifique el contenido para mejorarlo. Debeis
emplearlo como una ayuda para preparar la asignatura An´alisis Matem´atico I
y como complemento de las notas que tomeis en clase.
Espero que os sirva.
Pedro Mart´ın.
7
Cap´ıtulo 1
Errores, redondeo,
estabilidad, condicionamiento.
1.1 Cifras significativas. Exactitud y precisi´ on. Erro-
res.
Cualquier n´ umero real x puede representarse en forma decimal con un n´ umero
finito o infinito de d´ıgitos:
x = α
m
α
m−1
. . . α
1
α
0
. β
1
β
2
. . . β
n
. . . con α
i
, β
j
∈ 0, 1, 2, . . . , 9
Con la expresi´on anterior queremos representar que
x = α
m
10
m

m−1
10
m−1
+ +α
1
10+α
0
10
0

1
10
−1

2
10
−2
+ +β
n
10
−n
+. . .
El C´alculo Num´erico consiste en desarrollar m´etodos para encontrar soluciones
lo m´as aproximadas posibles a la verdadera soluci´on de un cierto problema.
Se trabaja, por tanto, con n´ umeros aproximados en lugar de n´ umeros exactos,
por lo que se utilizan aproximaciones con un n´ umero finito de decimales.
Toda expresi´on aproximada tiene un n´ umero determinado de cifras sig-
nificativas. El concepto de cifra significativa intenta trasmitir la idea de
cuando una cifra que aparece en la expresi´on decimal trasmite informaci´on
”esencial”y ”de fiar”sobre el n´ umero que se intenta aproximar. La significa-
ci´on de una cifra depende del contexto y no solo de la expresi´on decimal en la
que aparece.
9
10 Cap´ıtulo 1
Ejemplo: Cuando decimos ”circulamos a 48.5 Km/hora”porque vemos
que la aguja del veloc´ımetro del coche est´an entre 48 y 49, en nuestra aproxi-
maci´on (48.5) al valor verdadero de la velocidad, estamos manejando solo dos
cifras significativas, las que permiten situar la velocidad entre 48 y 49. La ter-
cera cifra (.5) es una estimaci´on que podr´ıamos evitar, pues no es ”de fiar”. No
es significativa. El veloc´ımetro (para velocidades menores de 100) solo permite
aproximaciones con dos cifras significativas. Si hacemos observaciones con una
cifra decimal, esta podr´ıa variar si es otro el observador.

Los ceros que se a˜ naden a la izquierda de una expresi´on decimal para situar
la primera cifra distinta de cero no son significativos:
Ejemplo: Los n´ umeros
0.00001845 0.0001845 0.001845
tienen todos cuatro cifras significativas.

Los ceros que se a˜ naden al final pueden ser o no significativos:
Ejemplo: En la expresi´on ”se manifestaron 45000 personas”, los tres
´ ultimos ceros parecen ser no significativos. Sin embargo en la expresi´on ”me
cost´o 45000 euros exactos”s´ı son significativos.

Para evitar equ´ıvocos acerca del n´ umero de cifras significativas, se emplea
la notaci´ on cient´ıfica (en el ejemplo anterior, 4.5 10
4
, 4.5000 10
4
).
Cualquier m´etodo del C´alculo Num´erico que se emplee en la resoluci´on de
un problema, debe ser suficientemente exacto, es decir, los valores aproxi-
mados que se obtengan en diferentes intentos de soluci´on deben estar cerca
del valor verdadero. Cuanto mayor sea el n´ umero de cifras significativas de la
aproximaci´on, mayor ser´a la exactitud. Tambi´en deben ser preciso, es decir
los diferentes valores obtenidos para la resoluci´on de un problema deben estar
cercanos entre s´ı.
Con el uso de aproximaciones para representar operaciones y cantidades
matem´aticas se generan errores num´ericos. Se denomina error E a la can-
tidad:
E = valor verdadero −valor aproximado
A menudo se trabaja con el error absoluto ([E[). El error relativo es
e =
E
valor verdadero
.
Errores, redondeo, estabilidad, condicionamiento 11
Este ´ ultimo compara la magnitud del error cometido con la magnitud del valor
que se pretende estimar y puede interpretarse en t´erminos de %.
Las causas de los errores pueden ser:
• Truncamiento: surgen al sustituir un procedimiento matem´atico exacto
por uno aproximado. Ejemplo: utilizar un polinomio de Taylor para encontrar
el valor de una funci´on en un punto.
• Redondeo: surgen al sustituir un n´ umero exacto por uno aproximado.
Ejemplo: sustituir 1/3 por 0.33333333. Para minimizar este tipo de error se
recurre a las reglas de redondeo:
1. En los c´alculos, se conservan las cifras significativas y el resto se descar-
tan. El ´ ultimo d´ıgito que se conserva se aumenta en uno si el primer
d´ıgito descartado es mayor que 5. Si es 5 o es 5 seguido de ceros, enton-
ces el ´ ultimo d´ıgito retenido se incrementa en uno solo si este ´ ultimo es
impar:
n´ umero 6 cifras significativas 8 cifras significativas
5.6170431500 5.61704 5.6170432
5.6170462500 5.61705 5.6170462
2. En la suma y en la resta, el redondeo se lleva a cabo de forma tal que el
´ ultimo d´ıgito retenido en la respuesta corresponda al ´ ultimo d´ıgito M
´
AS
significativo de los n´ umeros que se est´an sumando o restando. N´otese
que un d´ıgito en la columna de las cent´esimas es m´as significativo que
una en la columna de las mil´esimas.
2.2 −1.768 = 0.432 −→0.4
4.68 10
−7
+ 8.3 10
−4
−228 10
−6
= 6.02468 10
−4
−→6.0 10
−4
3. En la multiplicaci´on y divisi´on se conserva el n´ umero m´ınimo de cifras
significativas que tenga los n´ umeros que intervienen:
0.0642 4.8 = 0.30816 −→0.31
945/0.3185 = 2967.032967 −→297 10
4. Para combinaciones de las operaciones aritm´eticas, existen dos casos
generales.
(multiplicaci´on o divisi´on ) ±(multiplicaci´on o divisi´on)
(suma o resta )
×
÷ (suma o resta)
12 Cap´ıtulo 1
En ambos casos, se ejecutan primero las operaciones entre par´entesis y
se redondea el resultado antes de proceder con otra operaci´on.
• Otras causas de error: equivocaci´on de usuario, mala formulaci´on del
modelo, incertidumbre en los datos f´ısicos recogidos, etc.
1.2 C´alculos estables e inestables. Condicionamien-
to.
1.2.1 Inestabilidad
Decimos que un proceso num´erico es inestable cuando los peque˜ nos errores
que se producen en alguna de sus etapas se agrandan en etapas posteriores y
degradan seriamente la exactitud del c´alculo en su conjunto.
Ejemplo: Consideremos la sucesi´on
x
0
= 1, x
1
=
1
3
, x
n+1
=
13
3
x
n

4
3
x
n−1
∀n ≥ 1
La sucesi´on anterior verifica que x
n
= (
1
3
)
n
. Si calculamos el t´ermino x
11
con
el programa Maxima, obtenemos −1.08616217029341310
−6
con la definici´on
inductiva y 2.867971990792441 10
−10
con la otra definici´on. El c´alculo de
los valores de la sucesi´on por el m´etodo inductivo es inestable, pues cualquier
error que se presente en x
n
se multiplica por 13/3 al calcular x
n+1
.
1.2.2 Condicionamiento
Un problema est´a mal condicionado si peque˜ nos cambios en los datos pueden
dar lugar a grandes cambios en las respuestas. En ciertos problemas se puede
calcular un n´ umero de condici´on. Si este es grande significa que el problema
est´a mal condicionado.
Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax =
b, se puede calcular el n´ umero de condici´on as´ı:
k(A) = |A| |A
−1
|,
donde |A| = max
i,j
[a
ij
[. Dado el sistema
x + 1.01y = 1
0.99x +y = 1
Errores, redondeo, estabilidad, condicionamiento 13
el n´ umero de condici´on de la matriz del sistema ser´ıa k(A) = |A| |A
−1
| =
(1.01)(10100) = 10201. Esto significa que peque˜ nos cambios en b producir´an
grandes cambios en la soluci´on. De hecho:
x + 1.01y = 1
0.99x +y = 1

⇒[x = −100, y = 100]
y
x + 1.01y = 1.01
0.99x +y = 1

⇒[x = 0, y = 1]
1.3 Aritm´etica de la computadora
1.3.1 Aritm´etica de punto flotante.
Las computadoras utilizan la llamada aritm´etica del punto flotante, es decir,
almacenan cada n´ umero desplazando sus d´ıgitos de modo que aparezca de la
forma
0.β
1
β
2
...β
n
10
e
.
Por ejemplo:
13.524 →0.13524 10
2
−0.0442 →−0.442 10
−1
C´omo todos los n´ umeros se traducen seg´ un la aritm´etica del punto flotante,
todos empezar´an con 0. y terminar´an con 10
e
. El ordenador, para almace-
narlos ahorrando memoria, prescinde de lo que es com´ un a todos los n´ umeros,
y as´ı el 13.524 se almacena como 13524E2 y el −0.0442 como −442E −1.
Por otra parte, la mayor parte de las computadoras trabajan con n´ umeros
reales en sistema binario, en contraste con el sistema decimal que normalmente
se utiliza. As´ı, el n´ umero 9.90625 en sistema decimal, se convierte en binario
en:
9 = 2 ∗ (2 ∗ (2 ∗ 1 +0) +0) +1 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
= (1001)
2
0.90625 ∗ 2 = 1.81250 1 ∗ 2
−1
0.81250 ∗ 2 = 1.625 1 ∗ 2
−2
0.625 ∗ 2 = 1.25 1 ∗ 2
−3
.25 ∗ 2 = 0.5 1 ∗ 2
−4
.5 ∗ 2 = 1 1 ∗ 2
−5


14 Cap´ıtulo 1
0.90625 = 1 ∗ 2
−1
+ 1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (0.11101)
2
Con lo que
1.90625 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
+ 1 ∗ 2
−1
+
+1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (1001.11101)
2
En general, la representaci´on de un n´ umero en una computadora ser´a de
la forma:
±

d
1
d
2
...d
p
B
e
y se almacenar´a de la forma
±d
1
d
2
...d
p
Ee
donde B es la base, d
i
∈ ¦0, 1, 2, ..., B − 1¦, d
1
> 0, p es el n´ umero m´aximo
de bits significativos y e es el exponente de la potencia de B. El 0 es un caso
especial que se almacena como 00...0E0. La parte d
1
d
2
...d
p
se llama parte sig-
nificativa o mantisa. p es el n´ umero m´aximo de bits que puede tener esa parte
significativa del n´ umero que se almacena y es, por tanto, finita. Cuanto m´as
grande sea p, mayor ser´a la precisi´on de la m´aquina. Como consecuencia de
todo lo anterior, en cualquier m´aquina solo se pueden almacenar una cantidad
finita de n´ umeros, llamados n´ umeros m´ aquina. En los ordenadores de base 2,
d
1
siempre es 1, con lo que se puede suprimir, aumentando la precisi´on. Se
gana con ello un bit que se denomina bit escondido.
Ejemplo: Si en una computadora se tiene que B = 2, p = 2 y −3 ≤ e ≤ 3,
entonces solo se podr´an almacenar n´ umeros de la forma
±.10
2
2
e
±.11
2
2
e
con −3 ≤ e ≤ 3.
Como
.10
2
= 1 2
−1
+ 0 2
−2
= 1/2
los n´ umeros ±.10
2
2
e
son
±4, ±2, ±1, ±1/2, ±1/4, ±1/8,
y como
.11
2
= 1 2
−1
+ 1 2
−2
= 1/2 + 1/4 = 3/4
los n´ umeros ±.11
2
2
e
son
±6, ±3, ±3/2, ±3/4, ±3/8, ±3/16.
Errores, redondeo, estabilidad, condicionamiento 15
En este sistema el n´ umero 2

9 se almacenar´ıa, seg´ un est´e dise˜ nada la com-
putadora, bien como 2 si se hace por truncamiento, o bien como 3 si se hace
por redondeo. Tambi´en se almacenar´ıan como 2 los n´ umeros 2

3 o 2

4.

Los par´ametros B, p y e de una m´aquina real pueden ser los siguientes:
B = 2, p = 23 bits, e = 8 bits, con lo cual el n´ umero m´aximo que se podr´ıa
almacenar ser´ıa 1

701E38. Todo n´ umero mayor que el anterior estar´ıa en el
desbordamiento positivo de la m´aquina. El n´ umero m´ınimo en valor absoluto
ser´ıa 1

755E−38. Todo n´ umero positivo menor estar´ıa en el subdesbordamiento
positivo de la m´aquina. De forma similar se definen desbordamiento negativo
y subdesbordamiento negativo.
1.3.2 Operaciones con computadoras
Supongamos una computadora cuyos par´ametros sean B = 10, p = 3 y −9 ≤
e ≤ 9. Veamos como trabajan y como se pueden generar errores al manejar
las operaciones b´asicas y el redondeo:
1. Para la suma, el de menor exponente se desplaza para alinear la coma
decimal
1.37 + 0.0269 = 0.137 10
1
+ 0.269 10
−1
=
= 0.137 10
1
+ 0.00269 10
1
= 0.13969 10
1
que se almacenar´ıa como 0.13910
1
por truncamiento y 0.14010
1
por
redondeo.
2. En la resta:
4850 −4820 = 0.485 10
4
−0.482 10
4
= 0.003 10
4
= 0.300 10
2
que se almacenar´ıa como 0.30010
2
tanto por redondeo como por trun-
camiento.
3. En el producto, se multiplican las cifras significativas y se suman los
exponentes:
403000 0.0197 = 0.403 10
6
0.197 10
−1
= 0.079391 10
5
que se almacena como 0.793 10
4
por truncamiento y 0.794 10
4
por
redondeo.
16 Cap´ıtulo 1
4. En la divisi´on, se dividen las cifras significativas y se restan los exponen-
tes:
0.0356/1560 = 0.356 10
−1
/0.156 10
4
= 2.28205 10
−5
que se almacena como 0.228 10
−4
.
Otra fuente de error puede ser el paso de sistema decimal a sistema binario.
As´ı el n´ umero 1/10 en sistema binario es (0.0001100110011001...)
2
.
1.3.3 Epsilon de la m´aquina
La diferencia m´as peque˜ na entre dos n´ umeros que puede detectar una m´aquina
se denomina epsilon de la m´ aquina. Tambi´en se puede definir como el menor
n´ umero ε > 0 tal que
1.0 +ε = 1.0
y se puede calcular programando este algoritmo:
input s ←1.0
for k = 1, 2, . . . , 100 do
s ←0.5s
t ←s + 1.0
if t ≤ 1.0 then
s ←2.0s
output k-1,s
stop
end if
end
Cap´ıtulo 2
Resoluci´ on de ecuaciones no
lineales
-10 -8 -6 -4 -2
-1
-0.5
0.5
1
1.5
f(x) = e
x
−sen(x)
Dada una funci´on f : R → R, trataremos
de encontrar m´etodos que permitan loca-
lizar valores aproximados de las soluciones
de f(x) = 0.
Ejemplo: Dada la ecuaci´ on e
x

sen(x) = 0, encuentra la soluci´ on m´ as cer-
cana a 0.

Para resolver ejercicios como el anterior es conveniente recordar los siguien-
tes resultados:
Teorema [Bolzano]: Sea f : R → R una funci´ on continua en [a, b] tal
que f(a)f(b) < 0. Entonces existe c ∈ (a, b) tal que f(c) = 0.
El teorema de Bolzano se utiliza en este contexto para localizar intervalos
que contengan una soluci´on de f(x) = 0 cuando la funci´on f(x) sea continua.
Ejercicio: Dada la ecuaci´ on e
x
− sen(x) = 0, localiza un intervalo donde
exista una soluci´ on.
17
18 Cap´ıtulo 2
Teorema [Rolle]: Sea f : R →R una funci´ on continua en [a, b], derivable
en (a, b) y tal que f(a) = f(b). Entonces existe c ∈ (a, b) tal que f

(c) = 0.
Del teorema de Rolle se deduce que, si f(x) cumple las hip´otesis, entre
cada dos soluciones de la ecuaci´on f(x) = 0 debe existir al menos una soluci´on
de f

(x) = 0. De este modo, el n´ umero m´aximo de soluciones de f(x) = 0 ser´a
el n´ umero de soluciones de f

(x) = 0 m´as uno. Por tanto, el teorema de Rolle
se utilizar´a para determinar el n´ umero m´aximo de soluciones que puede tener
una ecuaci´on f(x) = 0.
Ejercicio: Determina el n´ umero de soluciones de la ecuaci´ on e
x
−x = 0.
Teorema [Taylor]: Sea f : R →R una funci´ on n veces derivable en [a, b]
y n + 1 veces derivable en (a, b). Entonces, para cada x
0
∈ [a, b] existe un
polinomio de grado menor o igual que n que tiene un punto de contacto con
f(x) de grado n en x
0
. Dicho polinomio es
P
n,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
) + +
f
n)
(x
0
)
n!
(x −x
0
)
n
.
Adem´ as, para cada x ∈ [a, b] existe un punto θ
x
entre x y x
0
tal que
f(x) −P
n,x
0
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)
n+1
.
Teorema [de valor medio]: Sea f : R → R una funci´ on continua en
[a, b] y derivable en (a, b). Entonces existe c ∈ (a, b) tal que
f(b) −f(a)
b −a
= f

(c).
Resoluci´ on de ecuaciones no lineales 19
2.1 M´etodo de la bisecci´ on
2.1.1 Descripci´ on del m´etodo
Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos
cada vez m´as peque˜ nos. Supongamos que f(a) < 0 y f(b) > 0 (de forma
similar se razonar´ıa si f(a) > 0 y f(b) < 0).
Paso 0. Partimos del intervalo [a, b] y calculamos c
0
=
a+b
2
.
Paso 1. Si f(c
0
) < 0, definimos a
1
= c
0
y b
1
= b. Si f(c
0
) > 0, definimos
a
1
= a y b
1
= c
0
. En ambos casos, estudiamos el intervalo [a
1
, b
1
] y calculamos
c
1
=
a
1
+b
1
2
.
Paso 2. Si f(c
1
) < 0, definimos a
2
= c
1
y b
2
= b
1
. Si f(c
1
) > 0, definimos
a
2
= a
1
y b
2
= c
1
. En ambos casos, estudiamos el intervalo [a
2
, b
2
] y calculamos
c
2
=
a
2
+b
2
2
.
Paso n. Si f(c
n−1
) < 0, definimos a
n
= c
n−1
y b
n
= b
n−1
. Si f(c
n−1
) > 0,
definimos a
n
= a
n−1
y b
n
= c
n−1
. En ambos casos, estudiamos el intervalo
[a
n
, b
n
] y calculamos c
n
=
a
n
+b
n
2
.
2.1.2 Convergencia del m´etodo
Teorema: Si [a, b], [a
1
, b
1
], . . . , [a
n
, b
n
], . . . denotan los intervalos utilizados en
el m´etodo de la bisecci´ on, entonces
lim
n→∞
a
n
= lim
n→∞
b
n
= lim
n→∞
c
n
= r
y adem´ as f(r) = 0.
Demostraci´on. Por la construcci´on de las sucesiones se tiene que
a ≤ a
1
≤ a
2
≤ ≤ b
2
≤ b
1
≤ b
y
(b
n
−a
n
) =
1
2
(b
n−1
−a
n−1
) = =
1
2
n
(b −a).
Por tanto, la sucesi´on (a
n
)
n∈N
converge por ser creciente y acotada superior-
mente y la sucesi´on (b
n
)
n∈N
converge por ser decreciente y acotada inferior-
mente. Veamos que sus l´ımites son iguales
lim
n→∞
b
n
− lim
n→∞
a
n
= lim(b
n
−a
n
) = lim
n→∞
1
2
n
(b −a) = 0.
20 Cap´ıtulo 2
Dado lo anterior y puesto que a
n
≤ c
n
≤ b
n
se concluye que
lim
n→∞
a
n
= lim
n→∞
c
n
= lim
n→∞
b
n
.
Llamemos a ese l´ımite r. Veamos ahora que r es la soluci´on de f(x) = 0
utilizando las hip´otesis de continuidad de f(x) y la condici´on f(a
n
)f(b
n
) ≤ 0 :
0 ≥ f(r)f(r) = f( lim
n→∞
a
n
)f( lim
n→∞
b
n
) =
lim
n→∞
f(a
n
) lim
n→∞
f(b
n
) = lim
n→∞
f(a
n
)f(b
n
) ≤ 0.
Por tanto f(r) = 0 que era lo que se ten´ıa que probar.

2.1.3 Aproximaci´ on y error
Una aproximaci´on a la soluci´on de la ecuaci´on f(x) = 0 en el paso n es c
n
.
Una cota del error cometido ser´a:
[r −c
n
[ ≤
1
2
[b
n
−a
n
[ =
1
2
2
[b
n−1
−a
n−1
[ =
1
2
n+1
[b −a[.
Ejemplo: Encuentra una aproximaci´ on de la soluci´ on de e
x
= sen(x) con
un error menor que 10
−2
.
Aplicaremos el m´etodo de la bisecci´on a la funci´on f(x) = e
x
−sen(x). Por
el teorema de Bolzano sabemos que hay una soluci´on de f(x) = 0 en el intervalo
[−4, −3], puesto que f(−4) < 0 y f(−3) > 0. Si c
n
es la aproximaci´on y r es la
soluci´on exacta, como queremos que el error sea menor que 10
−2
, tendremos
que:
[r −c
n
[ ≤
1
2
n+1
[b −a[ =
1
2
n+1
[ −3 −(−4)[ =
1
2
n+1
< 10
−2
por lo que n ≥ 6, es decir, tendremos que calcular c
6
.
Los c´alculos ser´ıan los siguientes:
a
0
= −4 b
0
= −3 c
0
= −3.5 f(c
0
) = −0.3206
a
1
= −3.5 b
1
= −3 c
1
= −3.25 f(c
1
) = −0.0694
a
2
= −3.25 b
2
= −3 c
2
= −3.125 f(c
2
) = 0.0554
a
3
= −3.25 b
3
= −3.125 c
3
= −3.1875 f(c
3
) = −0.0046
a
4
= −3.1875 b
4
= −3.125 c
4
= −3.15625 f(c
4
) = 0.0277
a
5
= −3.1875 b
5
= −3.15625 c
5
= −3.175 f(c
5
) = 0.0084
a
6
= −3.1875 b
6
= −3.175 c
6
= −3.18125
La soluci´on aproximada propuesta ser´ıa −3.18125.
Resoluci´ on de ecuaciones no lineales 21
2.1.4 Variaciones del m´etodo: Regula Falsi
El m´etodo de la Regula-falsi difiere respecto de la bisecci´on en el c´alculo del
punto c
n
. Con este m´etodo se calcula as´ı:
c
n
= b
n
−f(b
n
)
b
n
−a
n
f(b
n
) −f(a
n
)
.
El paso siguiente es elegir el intervalo formado por los puntos a
n
y c
n
o bien
el formado por c
n
y b
n
asegurando que la funci´on en los extremos sea de signo
contrario.
Ejemplo: Aplicar el m´etodo de la regula falsi para encontrar una soluci´ on
de f(x) = 3x + sen(x) −e
x
= 0 a partir del intervalo [0, 1].
a
0
= 0 b
0
= 1 c
0
= 0.470990 f(c
0
) = 0.265160
a
1
= 0 b
1
= 0.470990 c
1
= 0.372277 f(c
1
) = 0.029533
a
2
= 0 b
2
= 0.372277 c
2
= 0.361598 f(c
2
) = 2.94 ∗ 10

3
a
3
= 0 b
3
= 0.361598 c
3
= 0.360538 f(c
3
) = 2.94 ∗ 10

4
a
4
= 0 b
4
= 0.360538 c
4
= 0.360433 f(c
4
) = 2.94 ∗ 10

5
0.2 0.4 0.6 0.8 1
-1
-0.5
0.5
1
regula falsi para f(x) = 3x + sen(x) −e
x

22 Cap´ıtulo 2
2.2 M´etodo de Newton-Raphson
2.2.1 Descripci´ on del m´etodo
Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´on
f(x).
Paso 1. Partimos de un punto inicial x
0
. Calculamos el polinomio de Taylor
de f(x) de grado 1 en x
0
P
1,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
).
Paso 2. Utilizamos P
1,x
0
(x) como aproximaci´on de f(x) y, en vez de resolver
f(x) = 0, resolvemos P
1,x
0
= 0, es decir
f(x
0
) +f

(x
0
)(x −x
0
) = 0 ⇒x = x
0

f(x
0
)
f

(x
0
)
.
Paso 3. Definimos
x
1
= x
0

f(x
0
)
f

(x
0
)
y repetimos los pasos 1, 2 y 3 sustituyendo el punto x
n−1
por el punto x
n
, es
decir construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
.
Cuando la sucesi´on x
0
, x
1
, x
2
, . . . es convergente y la funci´on f(x) tiene cierta
regularidad, su l´ımite r es la soluci´on puesto que
r = lim
n→
x
n
= lim
n→
¸
x
n−1

f(x
n−1
)
f

(x
n−1
)

= r −
f(r)
f

(r)

f(r)
f

(r)
= 0 ⇒f(r) = 0.
Ejemplo Aplica el m´etodo de Newton-Raphson para encontrar una apro-
ximaci´ on de

2.
Puesto que queremos una aproximaci´on de

2, bastar´a encontrar una apro-
ximaci´on de x
2
−2 = 0. Utilizamos el m´etodo de Newton-Raphson aplicado a
la funci´on f(x) = x
2
−2, es decir, construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−2
2x
n−1
.
Resoluci´ on de ecuaciones no lineales 23
Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´on. Comenzamos
por el punto x
0
= 1.5 :
x
0
= 1.5, x
1
= 1.4167, x
2
= 1.4142, x
3
= 1.4142, . . .
La aproximaci´on ser´ıa 1.4142.

2.2.2 Convergencia del m´etodo
Teorema: Si en un cierto intervalo se verifica que f ∈ C
2
(R), estrictamente
creciente, f

(x) ≥ 0 y f tiene un cero, entonces el cero es ´ unico y la iteraci´ on
de Newton-Raphson converger´ a a partir de cualquier punto inicial.
-1 1 2 3 4
-2
2
4
6
8
Newton Raphson converge
-2 -1 1 2
0.1
0.2
0.3
0.4
0.5
Newton Raphson no converge
Demostraci´on. Sea x
0
, x
1
, . . . , x
n
la sucesi´on construida por el m´etodo de
Newton-Raphson, r la soluci´on de la ecuaci´on f(x) = 0 y e
n
= x
n
−r el error
en el paso n. Por el teorema de Taylor sabemos que:
0 = f(r) = f(x
n
) +f

(x
n
)(−e
n
) +
f


n
)
2
(−e
n
)
2
.
Por tanto
e
n
f

(x
n
) −f(x
n
) =
f


n
)
2
e
2
n
.
De modo que
24 Cap´ıtulo 2
e
n+1
= x
n+1
−r = x
n

f(x
n
)
f

(x
n
)
−r = e
n

f(x
n
)
f

(x
n
)
=
e
n
f

(x
n
) −f(x
n
)
f

(x
n
)
=
f


n
)e
2
n
2f

(x
n
)
≥ 0
Por lo tanto
x
n+1
≥ r ⇒f(x
n
) ≥ f(r) = 0 ⇒e
n+1
= e
n

f(x
n
)
f

(x
n
)
≤ e
n
.
Puesto que x
n+1
≥ r y el error va decreciendo, se concluye que la sucesi´on
(x
n
)
n∈N
es decreciente y acotada inferiormente por r, por lo tanto tiene l´ımite.
As´ı mismo, la sucesi´on (e
n
)
n∈N
es decreciente y acotada inferiormente por 0,
por lo tanto tambi´en tiene l´ımite. Se deduce que
lim
n→∞
e
n+1
= lim
n→∞

e
n

f(x
n
)
f

(x
n
)

=
lim
n→∞
e
n

f(lim
n→∞
x
n
)
f

(lim
n→∞
x
n
)
⇒f( lim
n→∞
x
n
) = 0 (2.1)
y puesto que f(x) es estrictamente creciente se obtiene que lim
n→∞
x
n
= r
(en caso contrario f(lim
n→∞
x
n
) > f(r) = 0), es decir, la sucesi´on de Newton-
Raphson converge a la soluci´on.

2.2.3 Aproximaci´ on y error
La aproximaci´on a la soluci´on en el paso n del m´etodo de Newton-Raphson es
x
n
. Por el razonamiento anterior sabemos que
e
n+1
=
f

(x
n
)
2f

(x
n
)
e
2
n
.
Si encontramos una constante C tal que
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
siendo I un intervalo que contenga a la sucesi´on (x
n
)
n∈N
y a la soluci´on r,
tendremos que
[e
n+1
[ ≤ Ce
2
n
Resoluci´ on de ecuaciones no lineales 25
lo que significa que la convergencia de la sucesi´on de errores es cuadr´atica. En
estas condiciones
C[e
n+1
[ ≤ C
2
e
2
n
≤ C
2
(Ce
2
n−1
)
2
≤ ≤ (Ce
0
)
2
n+1
es decir
C[e
n
[ ≤ (Ce
0
)
2
n
⇒[e
n
[ ≤
1
C
(Ce
0
)
2
n
que es una cota del error que se puede obtener previamente a aplicar el m´etodo.
Si [Ce
0
[ < 1, o lo que es lo mismo [e
0
[ <
1
C
, siendo e
0
= x
0
−r, tendremos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
→0
con lo que tenemos otro criterio de convergencia del m´etodo.
Ejemplo: Calcula el n´ umero de pasos necesarios para encontrar la ra´ız
cuadrada de 3 con un error menor que 10
−6
1. Con el m´etodo de Newton-Raphson
2. Con el m´etodo de la bisecci´ on.
Puesto que la ra´ız cuadrada de 3 es soluci´on de x
2
− 3 = 0, aplicaremos
los m´etodos a la funci´on f(x) = x
2
−3. Puesto que f(x) es continua en [1, 2]
y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano
se sabe que en [1, 2] hay una soluci´on de f(x) = 0.
Apartado 1). Aplicamos el primer criterio para saber si el m´etodo de
Newton-Raphson converger´a en el intervalo [1, 2]. f(x) es un polinomio y por
tanto es de clase C
2
. Como f

(x) = 2x > 0 en [1, 2], la funci´on es estrictamente
creciente en [1, 2]. Adem´as f

(x) = 2 > 0 en [1, 2]. Por todo ello, podemos
asegurar que el m´etodo de Newton-Raphson converger´a a partir de cualquier
punto de [1, 2].
Veamos el n´ umero de iteraciones necesarias para que el error sea menor
que 10
−6
. Sabemos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
siendo
C ≥
max
x∈[1,2]|f

(x)|
2 min
x∈[1,2]
[f

(x)[
=
2
2 min
x∈[1,2]
[2x[
=
2
2 2
=
1
2
.
26 Cap´ıtulo 2
Por tanto
[e
n
[ ≤
1
1/2

1
2
e
0

2
n
= 2

1
2
e
0

2
n
Si n = 4, entonces [e
4
[ ≤ 3.051 ∗ 10
−5
Si n = 5, entonces [e
5
[ ≤ 4.66 ∗ 10
−10
. Luego basta con 5 iteraciones.
Aplicamos el m´etodo empezando en el punto x
0
= 1
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−3
2x
n−1
=
x
2
n−1
+ 3
2x
n−1
.
x
0
= 1 x
1
= 2 x
2
= 1.75 x
3
= 1.73414 x
4
= 1.73205 x
5
= 1.73205
Apartado 2). Sabemos que
[e
n
[ ≤
1
2
n+1
(b −a) =
1
2
n+1
< 10
−6
y si n = 19, entonces [e
19
[ ≤ 9.54 ∗ 10
−7
, es decir, necesitamos 19 iteraciones.

Ejemplo: Dada la ecuaci´ on e
−x
−x = 0,
1. Aplica el m´etodo de Newton-Raphson con 4 iteraciones para encontrar
la soluci´ on.
2. Calcula una cota del error cometido.
Sea f(x) = e
−x
−x. Aplicando el teorema de Bolzano al intervalo [0, 1] se
puede asegurar que en dicho intervalo hay una soluci´on de la ecuaci´on f(x) = 0.
Como f

(x) = e
−x
−1 < 0 en [0, 1] no podemos aplicar el criterio para asegurar
que el m´etodo funcione empezando en cualquier punto del intervalo [0, 1]. No
obstante, lo aplicamos empezando en el punto x
0
= 0
x
n+1
= x
n

e
−x
n
−x
n
−e
−x
n
−1
x
0
= 0 x
1
= 0.5 x
2
= 0.566311 x
3
= 0.567143 x
4
= 0.567143
Resoluci´ on de ecuaciones no lineales 27
Calculemos una cota del error
C[e
4
[ ≤ (Ce
0
)
2
n
siendo
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
=
max
x∈[0,1]
[e
−x
[
2 min
x∈[1,2]
[ −e
−x
−1[
=
1
2(1/e + 1)
=
e
2(e + 1)
≈ 0.365529.
Por tanto
[e
4
[ ≤ C
2
n
−1
e
2
n
0
≤ 0.37
15
1
16
≈ 0.33 ∗ 10
−7

2.2.4 Variaciones del m´etodo: M´etodo de la secante
Teniendo en cuenta quef

(x
n
) = lim
h→0
f(x
n
+h)−f(x
n
)
h
este m´etodo se diferen-
cia del de Newton-Raphson en que se sustituye f

(x
n
) por el valor aproximado
f(x
n−1
)−f(x
n−2
)
x
n−1
−x
n−2
de modo que la sucesi´on que queda es
x
n
= x
n−1
−f(x
n−1
)
x
n−1
−x
n−2
f(x
n−1
) −f(x
n−2
)
.
Por tanto hay que utilizar dos puntos iniciales en lugar de uno. Es un m´etodo
m´as r´apido que el de la bisecci´on pero m´as lento que el de Newton-Raphson.
Ejemplo: Calcula una aproximaci´ on de

2, con 4 iteraciones del m´etodo
de la secante.
Aplicamos el m´etodo a la soluci´on de la ecuaci´on f(x) = x
2
−2 = 0 en el
intervalo [1, 2].
x
n
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−2 −[x
2
n−2
−2]
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−x
2
n−2
y tomando tomando x
0
= 1 y x
1
= 2 nos queda
x
0
= 1 x
1
= 2 x
2
= 1.3333 x
3
= 1.4 x
4
= 1.4146

28 Cap´ıtulo 2
0.5 1.5 2 2.5
-1
1
2
3
4
M´etodo de la secante para f(x) = x
2
−2
2.3 M´etodo iterativo de punto fijo
2.3.1 Descripci´ on del m´etodo
Ciertos problemas de aproximaci´on se pueden resolver encontrando una solu-
ci´on de F(x) = x. Una soluci´on r de F(x) = x se denomina un punto fijo de
la funci´on F(x), debido a que F(r) = r. A menudo, para resolver la ecuaci´on
F(x) = x se construye la sucesi´on
x
n
= F(x
n−1
).
Cuando la sucesi´on x
n
es convergente y F(x) es continua, si r = lim
n→∞
x
n
,
entonces
F(r) = F( lim
n→∞
x
n
) = lim
n→∞
F(x
n
) = lim
n→∞
x
n+1
= r,
es decir, el l´ımite de x
n
es un punto fijo de F(x). La b´ usqueda de soluciones
de F(x) = x empleando sucesiones de la forma x
n
= F(x
n−1
), se denomina
m´etodo iterativo de punto fijo.
Ejemplo: Encuentra una soluci´ on real de x
3
− x − 1 = 0 usando cinco
pasos de un m´etodo iterativo de punto fijo.
Como pretendemos resolver la ecuaci´on f(x) = x
3
− x − 1 = 0, por el
teorema de Bolzano sabemos que hay una soluci´on en el intervalo [1, 2].
Resolver f(x) = x
3
− x − 1 = 0 es equivalente a resolver una de estas
ecuaciones
x
3
−1 = x o bien
3

1 +x = x,
Resoluci´ on de ecuaciones no lineales 29
con lo que podemos aplicar el m´etodo iterativo de punto fijo para resolver la
ecuaci´on F(x) = x siendo F(x) = x
3
−1 o bien F(x) =
3

1 +x. Construyamos
la sucesi´on x
n
= F(x
n−1
) para ambas funciones, comenzando por un punto
del intervalo [1, 2], por ejemplo por x
0
= 1 resulta lo siguiente:
x
n
= F(x
n−1
) x
0
x
1
x
2
x
3
x
4
x
5
F(x) = x
3
−1 1 0 −1 −2 −9 −730
F(x) =
3

1 +x 1 1.2600 1.3123 1.3224 1.3243 1.3246
Es claro que para la funci´on F(x) = x
3
−1, la sucesi´on no resulta conver-
gente. Sin embargo, para la funci´on F(x) =
3

1 +x la sucesi´on que sale s´ı es
convergente a un n´ umero r. Dicho n´ umero, puesto que F(x) es continua, veri-
ficar´a que F(r) = r, es decir, f(r) = 0. La mejor aproximaci´on de r obtenida
ser´ıa 1.3246.

2.3.2 Convergencia del m´etodo
Definici´ on: Sea F : R →R una funci´on. Se dice que F es contractiva en un
conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que
[F(x) −F(y)[ ≤ λ[x −y[ ∀x, y ∈ C.
Ejemplo: Comprueba que la funci´ on F(x) =
3

1 +x es contractiva en
[0, 1].
Por el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ =

1
3
3

(1 +θ)
2
(y −x)


1
3
3

1
(y −x)

=
1
3
[y −x[
para todo x, y ∈ [0, 1]. Por tanto la funci´on es contractiva con λ = 1/3.

Teorema: Si F es una funci´ on contractiva que va de un cerrado C ⊂ R
en C (F(C) ⊂ C), entonces F tiene un ´ unico punto fijo r ∈ C. Adem´ as
r es el l´ımite de cualquier sucesi´ on que se obtenga a partir de la expresi´ on
x
n+1
= F(x
n
) siendo x
0
∈ C.
30 Cap´ıtulo 2
Demostraci´on. Sea x
0
, x
1
, x
2
, . . . , x
n
, . . . la sucesi´on generada mediante la
expresi´on x
n+1
= F(x
n
). Veamos que (x
n
)
n∈N
converge. Por ser contractiva
se tiene que
[x
n
−x
n−1
[ = [F(x
n−1
) −F(x
n−2
)[ ≤ λ[x
n−1
−x
n−2
[ ≤
λ
2
[x
n−2
−x
n−3
[ ≤ ≤ λ
n−1
[x
1
−x
0
[.
Por otra parte
x
n
= x
0
+x
1
−x
0
+x
2
−x
1
+ +x
n
−x
n−1
= x
0
+
n
¸
k=1
(x
k
−x
k−1
)
por lo que
lim
n→∞
x
n
= x
0
+ lim
n→∞
n
¸
k=1
(x
k
−x
k−1
) = x
0
+

¸
k=1
(x
k
−x
k−1
)
La serie
¸

k=1
(x
k
−x
k−1
) es convergente porque


¸
k=1
(x
k
−x
k−1
)



¸
k=1
[x
k
−x
k−1
[ ≤

¸
k=1
λ
k−1
(x
1
−x
0
) = [x
1
−x
0
[
1
1 −λ
Como la serie es convergente, la sucesi´on (x
n
)
n∈N
tambi´en lo es. Sea r =
lim
n→∞
x
n
. Por la construcci´on de la sucesi´on, se tiene que F(r) = r, es decir,
hay un punto fijo. r ∈ C por ser C un conjunto cerrado y x
n
∈ C. Falta ver
que es ´ unico. Supongamos que hubiese dos puntos fijos r
1
y r
2
. Entonces
[r
1
−r
2
[ = [F(r
1
) −F(r
2
)[ ≤ λ[r
1
−r
2
[ < [r
1
−r
2
[
llegando a contradicci´on.
2.3.3 Aproximaci´ on y error
Si r es soluci´on de f(x) = 0 obtenida por iteraci´on de una funci´on F(x),
entonces si f(x) es continua y derivable, existe θ
n
∈ R entre r y x
n
tal que
f(r) −f(x
n
)
r −x
n
= f


n
).
Resoluci´ on de ecuaciones no lineales 31
Suponiendo que x
n
≤ r y puesto que f(r) = 0 y −e
n
= r −x
n
, se deduce que
f(x
n
)
e
n
= f


n
) ⇒e
n
=
f(x
n
)
f


n
)
⇒[e
n
[ ≤
[f(x
n
)[
min
θ∈[x
n
,r]
[f

(θ)[
.
La f´ormula anterior nos proporciona un m´etodo para encontrar una cota de
error a posteriori y se puede aplicar a cualquier m´etodo iterativo de punto fijo.
Si F(x) es contractiva de constante λ entonces
[x
n+p
−x
n
[ = [x
n+p
−x
n+p−1
[ +[x
n+p−1
−x
n+p−2
[ + +[x
n+1
−x
n
[ ≤
≤ λ
n+p−1
[x
1
−x
0
[ +λ
n+p−2
[x
1
−x
0
[ + +λ
n
[x
1
−x
0
[ =
= (λ
n+p−1

n+p−2
+ +λ
n
)[x
1
−x
0
[ =
= λ
n

p−1

p−2
+ + 1)[x
1
−x
0
[
de modo que cuando p tiende a infinito
[e
n
[ = [r −x
n
[ ≤ λ
n

¸
k=0
λ
k
= λ
n

1
1 −λ

[x
1
−x
0
[
que es una f´ormula que permite calcular una cota de error a priori.
Ejemplo: Encuentra una soluci´ on de la ecuaci´ on 4 +
1
3
sin(2x) − x = 0
con un m´etodo iterativo de punto fijo estimando una cota del error a priori y
otra a posteriori.
Sea f(x) = 4 +
1
3
sin(2x) −x y F(x) = 4 +
1
3
sin(2x). Aplicando el teorema
de Bolzano a la funci´on f(x) en el intervalo [−3.5, 4.5] se deduce que hay
una soluci´on de f(x) = 0 en dicho intervalo. Veamos si F(x) es contractiva
aplicando el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ = [
2
3
cos(2x)(y −x)[ ≤
2
3
[y −x[.
Se deduce que F(x) es contractiva con constante λ =
2
3
.
Por otra parte, puesto que −3.5 ≤ 4 +
1
3
sin(2x) ≤ 4.5, se deduce que
F([−3.5, 4.5]) ⊂ [−3.5, 4.5].
Por tanto, la sucesi´on x
n+1
= F(x
n
) converger´a a un punto fijo a partir de
cualquier valor inicial x
0
. Calculamos cinco iteraciones empezando en x
0
= 0 :
32 Cap´ıtulo 2
x
0
x
1
x
2
x
3
x
4
x
5
0 4 4.329786082 4.230895147 4.273633799 4.256383406
Una cota del error para x
5
a priori ser´ıa
[e
5
[ ≤

2
3

5

1
1 −
2
3

[4 −0[ ≈ 1.5802
que no es una cota muy buena.
Una cota del error para x
5
a posteriori ser´ıa
[e
5
[ ≤
[f(x
5
)[
min
θ∈[−3.5,4.5]
[
2
3
cos(2θ) −1[

0.00719542
1/3
= 0.00239847.

2.4 Ra´ıces de polinomios
No existe ninguna f´ormula algebraica para la resoluci´on de ra´ıces de polinomios
de grado mayor que 4, por tanto, hay que aplicar m´etodos num´ericos para el
c´alculo de dichas ra´ıces.
Definici´ on: Una soluci´on r de una ecuaci´on f(x) = 0 se dice que tiene
multiplicidad n si
f(r) = f

(r) = = f
n−1)
(r) = 0 f
n)
(r) = 0.
Ejemplo: r = 1 es una soluci´on de multiplicidad 2 para la ecuaci´on
x
2
−2x + 1 = 0.

Para la localizaci´on de ra´ıces de polinomios con multiplicidad par (como
en el ejemplo anterior) no podemos emplear el teorema de Bolzano. Sin em-
bargo podemos intentar calcular las ra´ıces de otro polinomio con las mismas
soluciones que el nuestro pero todas con multiplicidad 1.
Resoluci´ on de ecuaciones no lineales 33
0.5 1 1.5 2
0.2
0.4
0.6
0.8
1
f(x) = x
2
−2x + 1
Teorema [Teorema fundamental del ´algebra]: Un polinomio de grado n
con coeficientes reales tiene exactamente n ceros o ra´ıces entre los n´ umeros
complejos C, contando cada cero tantas veces como indique su multiplicidad.
De modo que dado un polinomio P
n
(x), podemos descomponerlo as´ı:
P
n
(x) = a
n
(x −r
k
)
m
k
(x −r
k−1
)
m
k−1
. . . (x −r
1
)
m
1
siendo m
i
la multiplicidad de la ra´ız i-´esima. Si derivamos, obtenemos que
P

n
(x) = a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
M(x)
siendo M(x) un polinomio tal que M(r
i
) = 0. El m´aximo com´ un divisor de
P
n
(x) y de P

n
(x) es
D(x) = M.C.D(P
n
(x), P

n
(x)) =
a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
por lo que el polinomio
Q(x) =
P(x)
M.C.D(P
n
(x), P

n
(x))
= a
n
(x −r
k
)(x −r
k−1
) . . . (x −r
1
)
tiene las mismas ra´ıces que P(x) pero todas con multiplicidad 1. Bastar´ıa
aplicar los m´etodos a Q(x) para localizar las ra´ıces de P
n
(x). El problema es
el c´alculo de Q(x) y de M.C.D(P
n
(x), P

n
(x)).
34 Cap´ıtulo 2
2.4.1 Separaci´ on de ra´ıces. Sucesi´ on de Sturm.
La sucesi´on de Sturm nos permite calcular el n´ umero de ra´ıces de un polinomio
en un intervalo [a, b]. Sea P
n
(x) un polinomio de grado n y P

n
(x) su deriva-
da. Para construir la sucesi´on de Sturm aplicamos la divisi´on de polinomios
repetidas veces a P
n
(x), P

n
(x) y a los restos obtenidos cambiados de signo:
P
n
(x) = c
1
(x)P

n
(x) +r
1
(x)
P

n
(x) = c
2
(x)(−r
1
(x)) +r
2
(x)
−r
1
(x) = c
3
(x)(−r
2
(x)) +r
3
(x)
. . .
−r
k−2
(x) = c
k
(x)(−r
k−1
(x)) +r
k
(x)
Puede ocurrir lo siguiente:
1. Hay un resto r
k
(x) = 0. En este caso r
k−1
(x) es el m´aximo com´ un
divisor de P
n
(x) y de P

n
(x). Construimos entonces la sucesi´on de Sturm co-
rrespondiente al polinomio
Q(x) =
P
n
(x)
r
k−1
(x)
que es un polinomio que tiene las mismas ra´ıces que P
n
(x) pero todas simples.
2. Llegamos a un resto r
k
(x) constante distinto de 0. En este caso la
sucesi´on de Sturm es
P
n
(x), P
n−1
(x), −r
1
(x), . . . , −r
k
(x).
La diferencia entre el n´ umero de cambios de signos de las sucesiones siguientes
P
n
(a), P
n−1
(a), −r
1
(a), . . . , −r
k
(a) P
n
(b), P
n−1
(b), −r
1
(b), . . . , −r
k
(b)
es el n´ umero de ra´ıces de P
n
(x) en el intervalo [a, b].
Resoluci´ on de ecuaciones no lineales 35
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = 36x
4

12x
3
−11x
2
+ 2x + 1.
La derivada de P(x) es P

(x) = 144x
3
−36x
2
−22x+2. Podemos multiplicar
los polinomios implicados por numeros positivos para facilitar los c´alculos sin
que ello afecte al objetivo perseguido. Comenzamos los c´alculos:
1. Multiplicamos P
n
(x) por 4 y efectuamos la primera divisi´on:
144x
4
−48x
3
−44x+8x+4 = (x−1)(144x
3
−36x
2
−22x+2)+(−300x
2
+50x+50).
2. El tercer miembro de la sucesi´on de Sturm es 300x
2
− 50x − 50. Efec-
tuamos la siguiente divisi´on:
144x
3
−36x
2
−22x + 2 = 2/50(12x −1)(300x
2
−50x −50) + 0
3. Como hay un resto que es 0 el m´aximo com´ un divisor de P(x) y P

(x) es
300x
2
−50x−50 o bien dividiendo por 50 6x
2
−x−1. calculamos el polinomio
Q(x) =
P(x)
6x
2
−x −1
= 6x
2
−x −1.
4. Construimos la sucesi´on de Sturm para Q(x).
6x
2
−x −1 = (−
1
24
+
x
2
)(12x −1) +
−25
24
Con la sucesi´on es
6x
2
−x −1, 12x −1,
25
24
Estudiamos algunos cambios de signo:
−∞ -2 0 2 ∞
6x
2
−x −1 + + - + +
12x −1 - - - + +
25
24
+ + + + +
cambios de signo 2 2 1 0 0
En el intervalo (∞, −2) y en (0, 2) no hay ninguna ra´ız porque en los extremos
de los intervalos la sucesi´on de Sturm tiene los mismos cambios de signo.
En el intervalo (−2, 0) hay una ra´ız y hay otra en el intervalo (0, 2) porque
la diferencia de cambios de signo en los extremos en ambos casos es 1.

36 Cap´ıtulo 2
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = x
4
+2x
3

3x
2
−4x −1.
La derivada es P

(x) = 4x
3
+ 6x
2
−6x −4 = 2(2x
3
+ 3x
2
−3x −2). Para
facilitar el c´alculo multiplicamos P(x) por 2 y calculamos es tercer miembro
de la sucesi´on de Sturm:
2x
4
+ 4x
3
−6x
2
−8x −1 = (x +
1
2
)(2x
3
+ 3x
2
−3x −2) + (−
9
2
x
2

9
2
x −1).
Podemos multiplicar por 2 el resto con lo que −r
1
(x) = 9x
2
− 9x + 2. Pa-
ra facilitar los c´alculos multiplicamos P

(x) por 9 y calculamos el siguiente
miembro de la sucesi´on:
18x
3
+ 27x
2
−27x −18 = (2x + 1)(9x
2
+ 9x + 2) + (−40x −20).
Dividiendo por 20 podemos suponer que −r
2
(x) = 2x + 1. Multiplicamos
−r
1
(x) por 2 y calculamos −r
3
(x):
18x
2
+ 18x + 4 = (9x +
9
2
)(2x + 1) +
−1
2
.
Con lo que la sucesi´on queda as´ı:
x
4
+ 2x
3
−3x
2
−4x −1, 2x
3
+ 3x
2
−3x −2, 9x
2
+ 9x + 2, 2x + 1,
1
2
.
Separamos las ra´ıces en intervalos disjuntos:
−∞ -3 -2 -1 -1/2 0 1 2 ∞
x
4
+ 2x
3
−3x
2
−4x −1 + + - - - - - + +
2x
3
+ 3x
2
−3x −2 - - 0 + - - 0 + +
9x
2
+ 9x + 2 + + + + + + + + +
2x + 1 - - - - 0 + + + +
1
2
+ + + + + + + + +
cambios de signo 4 4 3 3 2 1 1 0 0
En el intervalo (∞, −3), (−2, −1), (0, 1) y en (2, ∞) no hay ninguna ra´ız
porque en los extremos de los intervalos la sucesi´on de Sturm tiene los mismos
cambios de signo.
En cada uno de los intervalos (−3, −2), (−1, −1/2), −1/2, 0 y (1, 2) hay
una ra´ız porque la diferencia de cambios de signo en los extremos en ambos
casos es 1.

Resoluci´ on de ecuaciones no lineales 37
2.4.2 Acotaci´ on de ra´ıces
Proposici´ on: Sea P(x) = a
n
x
n
+ a
n−1
x
n−1
+ + a
0
. Si r es una ra´ız de
P(x), entonces
[r[ < 1 +
A
[a
n
[
siendo A = max
0≤i≤n−1
[a
i
[.
Demostraci´on. Supongamos que [r[ > 1.
0 = [P(r)[ = [a
n
r
n
+a
n−1
r
n−1
+ +a
0
[ ≥
≥ [a
n
r
n
[ −[a
n−1
r
n−1
+ +a
0
[
≥ [a
n
r
n
[ −

[a
n−1
[[r
n−1
[ + +[a
0
[


≥ [a
n
r
n
[ −A

[r[
n−1
+ +[r[ + 1

=
[a
n
r
n
[ −A
[r[
n
−1
[r[ −1
> [a
n
[[r[
n
−A
[r[
n
[r[ −1
> [r[
n

[a
n
[ −
A
[r[ −1

es decir,
0 > [a
n
[ −
A
[r[ −1
⇒[a
n
[ <
A
[r[ −1
⇒[r[ −1 <
A
[a
n
[
con lo que concluimos que
[r[ < 1 +
A
[a
n
[
.
Si [r[ ≤ 1, es trivial que [r[ < 1 +
A
|a
n
|
.

Ejemplo: Acota las ra´ıces del polinomio P(x) = x
4
+2x
3
−3x
2
−4x −1.
Com A = max
1≤i≤n−1
[a
i
[ = 4, usando la proposici´on anterior obtenemos
que cualquier ra´ız r del polinomio verifica lo siguiente
[r[ < 1 +
A
[a
n
[
= 1 +
4
1
= 5 ⇒−5 < r < 5.

38 Cap´ıtulo 2
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner
Si usamos el m´etodo de Newton-Raphson para encontrar las ra´ıces de un
polinomio P(x) hemos de calcular P(x
n
) y P

(x
n
). El algoritmo de Horner
hace estos ´ ultimos c´alculos de forma sencilla para polinomios.
Sea x
0
∈ R y P(x) = a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
. Sea
P(x) = Q(x)(x −x
0
) +R
(R ser´a constante) el resultado de dividir P(x) entre (x − x
0
). Supongamos
que
Q(x) = b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
.
Entonces P(x
0
) = R y P(x) = Q(x)(x −x
0
) +P(x
0
), con lo que
P(x) −P(x
0
) = Q(x)(x −x
0
)
es decir
a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
−P(x
0
) =
= (b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
)(x −x
0
)
Desarrollando e igualando los coeficientes de ambos t´erminos se deduce
que
b
n−1
= a
n
, b
n−2
= a
n−1
+b
n−1
x
0
, . . . , b
0
= a
1
+b
1
x
0
P(x
0
) = a
0
+b
0
x
0
.
La obtenci´on de los coeficientes b
i
se pueden representar gr´aficamente as´ı
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
que tambi´en es una forma sencilla de calcular P(x
0
). Adem´as,
P(x) = Q(x)(x−x
0
) +R ⇒P

(x) = Q

(x)(x−x
0
) +Q(x) ⇒P

(x
0
) = Q(x
0
).
De modo que para calcular P

(x
0
) podemos aplicar el algoritmo gr´afico anterior
a Q(x) :
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
x
0
c
n−2
x
0
c
n−3
x
0
. . . c
0
x
0
c
n−2
c
n−3
c
n−4
. . . P

(x
0
)
Resoluci´ on de ecuaciones no lineales 39
Ejemplo: Siendo P(x) = x
4
+2x
3
−3x
2
−4x−1, calcula con el algoritmo
de Horner P(2) y P

(2).
2 1 −3 4 −5
2 4 10 14 36
2 5 7 18 31
2 4 18 50
2 9 25 68
Se concluye que P(2) = 31 y P

(2) = 68.

2.4.4 Ra´ıces m´ ultiples
Si una ecuaci´on f(x) = 0 tiene soluciones m´ ultiples, el c´alculo puede ser
problem´atico. Si f(x) es un polinomio, podemos intentar calcular las ra´ıces
de
Q(x) =
P(x)
MCD(P(x), P

(x))
que ser´a un polinomio con las mismas ra´ıces que f(x) pero todas con multi-
plicidad 1.
Sea o no f(x) un polinomio, se puede intentar aplicar el m´etodo de Newton-
Raphson. Si la sucesi´on generada converge muy lentamente, la causa puede
encontrarse en esa multiplicidad de las ra´ıces. Para detectar de qu´e multi-
plicidad es la ra´ız en cuesti´on, para cada termino de la sucesi´on x
n
generada
calculamos f

(x
n
), f

(x
n
), f

(x
n
), . . . , f
k)
(x
n
). Si las derivadas hasta orden
k −1 son casi 0 en los valores x
n
y f
k)
(x
n
) no es cercano a 0, entonces puede
ocurrir que la soluci´on r verifique que
f
n)
(r) = 0 ∀ 0 ≤ n < k y f
k)
(r) = 0,
es decir que r sea una soluci´on de f(x) = 0 de multiplicidad k. En este caso,
se puede acelerar la convergencia de la sucesi´on calcul´andola as´ı
x
n+1
= x
n
−k
f(x
n
)
f

(x
n
)
.
40 Cap´ıtulo 2
El error se obtendr´ıa as´ı
[e
n
[ <
[f(x
n
)[
min
θ∈[a,b]
[f

(θ)[
Ejercicio: Sea f(x) = (x − 1)
3
. Aplica Newton-Raphson para encontrar
una soluci´on de f(x) = 0 empezando en x
0
= 0.
Cap´ıtulo 3
Sistemas Lineales
El objetivo de este tema es el desarrollo de t´ecnicas de b´ usqueda de soluciones
de sistemas de ecuaciones lineales como el siguiente:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2

a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
= b
n
Denotando A = (a
ij
)
1≤i,j≤n
, b = (b
i
)
1≤i≤n
y x = (x
i
)
1≤i≤n
, el sistema anterior
se puede expresar
A x = b
3.1
´
Algebra de matrices
Sea A una matriz.
Aes de orden mn si tiene tiene mfilas y n columnas (A = (a
ij
)
1≤i≤m,1≤j≤n

´
m×n
). Por ejemplo

3 5 2
2 1 3

tiene orden 2 3.
La matriz traspuesta de A es la matriz A
t
que resulta de intercambiar las
filas de A por las columnas de A.
41
42 Cap´ıtulo 3
A es sim´etrica si A
t
= A.
Si α ∈ R y B es una matriz, podemos realizar las siguientes operaciones:
- Multiplicar una matriz por un n´ umero:
α A = (αa
ij
)
1≤i≤m,1≤j≤n
.
- Sumar dos matrices A y B si A, B ∈ ´
m×n
:
A+B = (a
i,j
+b
ij
)
1≤i,j≤m
.
- Multiplicar dos matrices A ∈ ´
m×p
y B ∈ ´
p×n
:
A B = (
p
¸
k=1
a
ik
b
kj
)
1≤i≤m,1≤j≤n
∈ ´
m×n
.
La matriz identidad de orden n n es
Id =

¸
¸
¸
1 0 0 . . . 0
0 1 0 . . . 0
. . .
0 0 . . . 0 1
¸

Se verifica que A Id = Id A = A, ∀A ∈ ´
n×n
.
B es una matriz inversa de A por la derecha si B A = Id
B es una matriz inversa de A por la izquierda si A B = Id.
Si A ∈ ´
n×n
, entonces la inversa por la izquierda es tambi´en inversa por
la derecha. En este caso la inversa es ´ unica y se denota A
−1
A
−1
A = A A
−1
= Id.
Si A ∈ ´
n×n
tiene inversa, entonces A es regular, invertible o no singular.
La matriz inversa es
A
−1
=
1
[A[
(A
i,j
)
t
,
siendo A
i,j
el adjunto del elemento a
ij
.
En este caso el sistema A x = b tiene como soluci´on x = A
−1
b.
Se llaman operaciones elementales de una matriz al intercambio de dos
filas o columnas, al producto de una fila o columna por un n´ umero distinto
de 0, a la suma de una fila o columna otra fila o columna multiplicada por un
n´ umero, o cualquier combinaci´on finita de las operaciones anteriores. Cada
Sistemas lineales 43
operaci´on fundamental en una matriz A se puede expresar mediante producto
de A por otra matriz, que se llama matriz fundamental. Por ejemplo, dada la
matriz
A =

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

,
el intercambio de la segunda y tercera filas se puede expresar as´ı:

¸
1 0 0
0 0 1
0 1 0
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
31
a
32
a
33
a
21
a
22
a
23
¸

.
El producto de la segunda fila por un n´ umero α se puede expresar as´ı:

¸
1 0 0
0 α 0
0 0 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
αa
21
αa
22
αa
23
a
31
a
32
a
33
¸

Y la suma a la tercera fila de la segunda fila multiplicada por un n´ umero α es:

¸
1 0 0
0 1 0
0 α 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
αa
21
+a
31
αa
22
+a
32
αa
23
+a
33
¸

El producto de matrices

¸
1 0 0
0 0 α
0 1 αλ
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

representa aplicar a la segunda matriz los siguientes cambios:
- Sustituir la fila segunda por la tercera multiplicada por α.
- Multiplicar la tercera fila por αλ y sumarle la segunda.
Si A ∈ ´
n×n
tiene inversa, entonces existe un conjunto de matrices fun-
damentales E
k
con k = 1, . . . , p, tales que
E
p
E
p−1
. . . E
1
A = Id,
con lo que multiplicando por A
−1
por la derecha en ambos t´erminos se obtiene
que
E
p
E
p−1
. . . E
1
Id = A
−1
,
es decir, aplicando las mismas operaciones fundamentales a la matriz Id ob-
tendremos la matriz inversa A
−1
.
44 Cap´ıtulo 3
Ejemplo: Calcula la inversa de la matriz
A =

¸
1 2 3
1 3 3
2 4 7
¸

.
Partimos de A y la matriz Id. El primer cambio consiste en restar a la segunda
fila la primera (correspondiente al producto por una cierta matriz fundamental
E
1
):
E
1
A =

¸
1 2 3
0 1 0
2 4 7
¸

E
1
Id =

¸
1 0 0
−1 1 0
0 0 1
¸

El segundo cambio (multiplicar por E
2
) consiste en restar a la tercera dos
veces la primera:
E
2
E
1
A =

¸
1 2 3
0 1 0
0 0 1
¸

E
2
E
1
Id =

¸
1 0 0
−1 1 0
−2 0 1
¸

A la primera le resto dos veces la segunda (E
3
):
E
3
E
2
E
1
A =

¸
1 0 3
0 1 0
0 0 1
¸

E
3
E
2
E
1
Id =

¸
3 −2 0
−1 1 0
−2 0 1
¸

A la primera le resto tres veces la tercera (E
4
):
E
4
E
3
E
2
E
1
A =

¸
1 0 0
0 1 0
0 0 1
¸

E
4
E
3
E
2
E
1
Id =

¸
9 −2 −3
−1 1 0
−2 0 1
¸

= A
−1
.
Esta ´ ultima matriz es la inversa de A.

Sistemas lineales 45
Para toda matriz A ∈ ´
n×n
son equivalentes:
1. A
−1
existe.
2. [A[ = 0.
3. Los vectores fila de la matriz A son linealmente independientes.
4. Los vectores columna de la matriz A son linealmente independientes.
5. Para cada b ∈ R
n
, el sistema A x = b tiene una ´ unica soluci´on.
6. A es producto de matrices elementales.
3.1.1 Valores propios y vectores propios
Sea A ∈ ´
n×n
. Si existe un vector x ∈ R
n
no nulo y un n´ umero λ ∈ R tal
que A x = λx, entonces, λ es un valor propio o autovalor de la matriz A, y
x es un vector propio o autovector para el autovalor λ. Los valores propios de
una matriz A son las ra´ıces del llamado polinomio caracter´ıstico [A − λ Id[.
Los vectores propios de A para el autovalor λ, son los elementos de n´ ucleo de
la aplicaci´on lineal A−λ Id.
3.1.2 Matriz definida
Sea A ∈ ´
n×n
. Se dice que A es definida positiva (equivalentemente, negati-
va) si para todo x ∈ R
n
no nulo, se verifica que
x
t
A x > 0.
Ejemplo. La matriz A =

2 1
1 2

es definida positiva.
Sea (x
1
, x
2
) un vector no nulo.
(x
1
, x
2
)

2 1
1 2

x
1
x
2

= (x
1
, x
2
)

2x
1
+x
2
x
1
+ 2x
2

=
2x
2
1
+x
1
x
2
+x
1
x
2
+ 2x
2
2
= (x
1
+x
2
)
2
+x
2
1
+x
2
2
> 0.

Si A es una matriz definida positiva y sim´etrica, entonces los autovalores
de A son todos n´ umeros reales y positivos.
46 Cap´ıtulo 3
3.2 Resoluci´ on de sistemas de ecuaciones lineales:
m´etodo de Gauss
Dado el sistema A x = b, si [A[ = 0, puede no haber soluci´on. Si [A[ = 0,
existe una ´ unica soluci´on y se puede calcular as´ı:
x
1
=

b
1
a
12
. . . a
1n
b
2
a
22
. . . a
2n
. . .
b
n
a
n2
. . . a
nn

[A[
, , x
n
=

a
11
. . . a
1n−1
b
1
a
21
a
2n−1
b
2
. . .
a
2n
. . . a
nn−1
b
n

[A[
Los c´alculos anteriores son poco pr´acticos cuando el n´ umero de ecuaciones
es grande. Por ejemplo, para n = 50 se necesitan 10
64
operaciones. Para
evitar este problema se utilizan m´etodos num´ericos de resoluci´on de ecuaciones
lineales que pueden ser:
• Directos: proporcionan un resultado que ser´a exacto salvo errores de
redondeo tras un n´ umero determinado de operaciones.
• Iterativos: construyen una sucesi´on de soluciones aproximadas, de modo
que en cada paso se mejora la aproximaci´on anterior.
Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas
soluciones. En un sistema de ecuaciones se pueden efectuar operaciones ele-
mentales en la matriz de los coeficientes y en la de los t´erminos independientes
y resulta un sistema equivalente. Es decir, resulta un sistema equivalente si
efectuamos alguna de las siguientes operaciones:
1. Multiplicamos una ecuaci´on por un n´ umero distinto de cero.
2. Sumamos a una ecuaci´on otra ecuaci´on multiplicada por un n´ umero.
3. Intercambiamos dos ecuaciones.
Sistemas lineales 47
3.2.1 M´etodo de Gauss
El m´etodo de Gauss cl´asico es un m´etodo directo que transforma mediante
operaciones elementales el sistema de ecuaciones que se pretende resolver en
un sistema equivalente triangular de f´acil resoluci´on.
El m´etodo de Gauss puede resumirse en lo siguiente:
• Paso 1. Si a
11
= 0, se elige a
11
como elemento pivote. Si a
11
= 0, se inter-
cambian las filas para que esto no suceda. Sumando a cada una las filas
restantes la fila del elemento pivote multiplicada por ciertos n´ umeros,
llamados multiplicadores, se convierten en 0 los elementos que se en-
cuentran en la primera columna distintos del pivote. En las operaciones
de sumas de filas hay que incluir los t´erminos independientes.
• Paso i (i ≥ 2). Si a
ii
= 0, se elige a
ii
como elemento pivote. Si a
ii
= 0,
se intercambian las filas de orden mayor o igual que i para que esto
no suceda. Sumando a cada una de las filas que ocupan el lugar j
(j > i) la fila del elemento pivote multiplicada por n´ umeros, llamados
multiplicadores, se convierten en 0 los elementos que se encuentran en
la columna i de la fila j (j > i). En las operaciones de sumas de filas
hay que incluir los t´erminos independientes.
Se efect´ uan los pasos necesarios hasta que la matriz de los coeficientes sea
triangular. Conseguido esto, el c´alculo de la soluci´on es sencillo siguiendo el
siguiente orden: x
n
, x
n−1
, . . . , x
1
.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
12x
1
−8x
2
+ 6x
3
+ 10x
4
= 34
3x
1
−13x
2
+ 9x
3
+ 3x
4
= 27
−6x
1
+ 4x
2
+x
3
−18x
4
= −38.
En forma matricial es sistema ser´ıa

¸
¸
¸
6 −2 2 4
12 −8 6 10
3 −13 9 3
−6 4 1 −18
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
34
27
−38
¸

.
En el sistema anterior el m´etodo de Gauss podr´ıa aplicarse as´ı:
48 Cap´ıtulo 3
1. Paso 1. Elegimos como elemento pivote el t´ermino 6 de la primera fila
y efectuamos las siguientes operaciones:
(fila 2
a
) −2(fila 1
a
) (fila 3
a
) −1/2(fila 1
a
) (fila 4
a
) −(−1)(fila 1
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 −12 8 1
0 2 3 −14
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
21
−26
¸

.
Paso 2. Elegimos como elemento pivote el t´ermino −4 de la segunda fila y
efectuamos las siguientes operaciones:
(fila 3
a
) −3(fila 2
a
) (fila 4
a
) −(−1/2)(fila 2
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 4 −13
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−21
¸

.
Paso 3. Elegimos como elemento pivote el t´ermino 2 de la tercera fila y
efectuamos la siguiente operaci´on:
(fila 4
a
) −2(fila 3
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 0 −3
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−3
¸

.
que es un sistema de ecuaciones triangular superior de f´acil resoluci´on:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
−4x
2
+ 2x
3
+ 2x
4
= 10
2x
3
−5x
4
= −9
−3x
4
= −3


x
1
= 1/6(12 −4x
4
−2x
3
+ 2x
2
) = 1
x
2
= −1/4(10 −2x
4
−2x
3
) = −3
x
3
= 1/2(−9 + 5x
4
) = −2
x
4
= 1
Sistemas lineales 49
Se verifica que A = L U, siendo A la matriz de los coeficientes inicial, U
la matriz de los coeficientes final y L la matriz formada por los n´ umeros que
hemos utilizado para multiplicar las filas (multiplicadores):
L =

¸
¸
¸
1 0 0 0
2 1 0 0
1/2 3 1 0
−1 −1/2 2 1
¸

3.2.2 M´etodo de Gauss con pivoteo
En un sistema como este

0.001 1
1 1

x
1
x
2

=

1
2

el m´etodo de Gauss no funcionar´ıa correctamente por errores de redondeo. En
general, si = 0 es peque˜ no, el sistema

1
1 1

x
1
x
2

=

1
2

aplicando el m´etodo de Gauss se transformar´ıa en

1
0 1 −
1

x
1
x
2

=

1
2 −
1

con lo que las soluciones, si consideramos el redondeo, ser´ıan:
x
2
=
2 −
1

1 −
1

· 1 ⇒ x
1
= (1 −x
2
)
1

· 0.
Si = 0.001, obtendr´ıamos que x
2
= 0.998998998999, que, redondeando a dos
decimales, ser´ıa x
2
= 0, por lo que x
1
= 0. Sin embargo las soluciones exactas
son x
2
=
998
999
≈ 1 y x
1
= 1000/999 ≈ 1. De hecho, al hacer los c´alculos con le
programa Maxima o Mathematica, con = 10
−17
se obtiene x
2
= 1 y x
1
= 0.
Esto sucede cuando el elemento pivote en alg´ un paso es muy peque˜ no
comparado con el resto de los elementos a los que divide. En este caso el
50 Cap´ıtulo 3
multiplicador correspondiente ser´a muy grande y la ecuaci´on que origina es
”casi¨ un m´ ultiplo de la ecuaci´on del elemento pivote:
(fila 2
a
) −
1

(fila 1
a
) ≈ −
1

(fila 1
a
).
Este problema se puede resolver de dos formas:
1. Pivoteo parcial: si estamos en el paso i, se elige como elemento pivote
el elemento a
ki
que tenga mayor valor absoluto entre los de la columna
i, con k ≥ i, independientemente de si a
ii
es cero o no, y se reordenan
las filas.
2. Pivoteo total: si estamos en el paso i, se elige como elemento pivote el
elemento a
kj
que tenga mayor valor absoluto entre los de la columna i
y los de la fila i, con k, j ≥ i, independientemente de si a
ii
es cero o no,
y se reordenan las filas y columnas. Esta opci´on tiene un importante
inconveniente pues hay que reordenar las inc´ognitas.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
2x
2
+x
4
= 0
2x
1
+ 2x
2
+ 3x
3
+ 2x
4
= −2
4x
1
−3x
2
+x
4
= −7
6x
1
+x
2
−6x
3
−5x
4
= 6.
aplicando el pivoteo parcial.
La matriz de los coeficientes y de los t´erminos independientes ser´ıa

¸
¸
¸
0 2 0 1 [ 0
2 2 3 2 [ −2
4 −3 0 1 [ −7
6 1 −6 −5 [ 6
¸

El pivoteo parcial ser´ıa este proceso:
Paso 1. Elegimos como elemento pivote el t´ermino 6 de la ´ ultima fila por
ser el de mayor valor absoluto de entre los elementos de la primera columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
2 2 3 2 [ −2
4 −3 0 1 [ −7
0 2 0 1 [ 0
¸

Sistemas lineales 51
Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 2
a
) −
2
6
(fila 1
a
)
(fila 3
a
) −
4
6
(fila 1
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 1.6667 5 3.6667 [ −4
0 −3.6667 4 4.3333 [ −11
0 2 0 1 [ 0
¸

Paso 2. Elegimos como elemento pivote el t´ermino −3.667 de la tercera fila por
ser el de mayor valor absoluto de entre los elementos de la segunda columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 1.6667 5 3.6667 [ −4
0 2 0 1 [ 0
¸

Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 3
a
) −
1.6667
−3.6667
(fila 2
a
)
(fila 4
a
) −
2
−3.6667
(fila 2
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 2.1818 3.3636 [ −5.9999
¸

Paso 3. El elemento pivote ser´a 6.8182 de la tercera fila y no es necesario
intercambiar filas. Efectuamos la operaci´on indicada y obtenemos la matriz
siguiente:
(fila 4
a
) −
2.1818
6.8182
(fila 3
a
)
U =

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 0 1.5600 [ −3.1199
¸

que se corresponde con el sistema de ecuaciones
6x
1
+x
2
+−6x
3
−5x
4
= 6
−3.6667x
2
+ 4x
3
+ 4.3333x
4
= −11
6.8182x
3
+ 5.6364 = −9.0001
1.5600x
4
= −3.1199.
.
Este sistema se resuelve f´acilmente por ser triangular despejando las inc´ognitas
en orden inverso. Se obtiene la soluci´on:
52 Cap´ıtulo 3
x
4
= −1.9999, x
3
= 0.33325, x
2
= 1.0000, x
1
= −0.50000,
que es una respuesta aceptable teniendo en cuenta que la soluci´on exacta
es
x
4
= −2, x
3
= 1/3, x
2
= 1, x
1
= −1/2.

La matriz L de los multiplicadores en el ejemplo anterior es la siguiente:
L =

¸
¸
¸
1 0 0 0
0.6667 1 0 0
0.3333 −0.45454 1 0
0 −0.54545 0.32 1
¸

y se verifica que
L U =

¸
¸
¸
6 1 −6 5
4 −3 0 1
2 2 3 2
0 2 0 1
¸

:= A

.
El resultado no es exactamente A porque al aplicar el pivoteo hemos permu-
tado filas. En todo caso se verifica que existe una matriz P, que representa
permutaciones de filas si empleamos pivoteo parcial, tal que
P A = A

= L U.
Esto ´ ultimo nos permite calcular el determinante de A de forma sencilla al
ser [L[ = 1, [P[ = (−1)
p
(p es el n´ umero de permutaciones de filas) y U una
matriz triangular:
[A[ = [P
−1
A

[ = [P
−1
L U[ = [P
−1
[[L[[U[ = (−1)
p
[U[.
El m´etodo de Gauss permite:
1. Encontrar las soluciones de un sistema de ecuaciones.
2. Calcular el determinante de la matriz de los coeficientes.
3. Descomponer la matriz de los coeficientes A en un producto de matrices
P A

donde P representa una permutaci´on de filas de A y A

= L U,
siendo L y U matrices triangulares inferior y superior, respectivamente.
A = A

si no se utiliza el pivoteo.
Sistemas lineales 53
3.3 Factorizaci´ on LU. Factorizaci´ on de Cholesky
Dado el sistema de ecuaciones Ax = b, si aplicamos el m´etodo de Gauss sin
pivoteo solo a la matriz de los coeficientes y no a los t´erminos independientes
b, obtendremos una descomposici´on de la matriz A en dos matrices A = L U,
siendo L triangular inferior y U triangular superior. Esto permite, por ejemplo,
calcular de forma sencilla el determinante de A:
[A[ = [L[[U[ = (
n
¸
i=1
l
ii
)(
n
¸
i=1
u
ii
).
Adem´as, podemos resolver el sistema de ecuaciones siguiendo estos dos pasos:
Paso 1. Resolvemos el sistema Ly = b y obtenemos una soluci´on y.
Paso 2. Resolvemos el sistema Ux = y. La soluci´on x obtenida ser´a la
soluci´on de Ax = b porque
Ax = LUx = Ly = b.
Los m´etodos de factorizaci´on LU consisten en descomponer la matriz en
producto de dos matrices triangulares, para despu´es aplicar los pasos 1 y 2
anteriores y as´ı resolver el sistema.
Si A = L U tendremos que

¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
n1
a
n2
. . . a
nn
¸

=

¸
¸
¸
l
11
0 0 . . . 0
l
21
l
22
0 . . . 0
. . .
l
n1
l
n2
. . . l
nn
¸

¸
¸
¸
u
11
u
12
. . . u
1n
0 u
22
. . . u
2n
. . . u
3n
0 0 . . . u
nn
¸

.
Haciendo el producto de matrices e igualando t´ermino a t´ermino se obtienen
n
2
ecuaciones lineales con n
2
+n inc´ognitas. Si imponemos la condici´on
l
11
= l
22
= = l
nn
= 1
obtendremos un sistema de ecuaciones f´acilmente resoluble. Las soluciones
dan lugar a una descomposici´on L U que es la misma que la obtenida por el
m´etodo de Gauss sin intercambio de filas.
Si A es no singular, una condici´on necesaria y suficiente para que A admita
una descomposici´on LU de la forma anterior es que los menores fundamentales
(todos los determinantes de las matrices formadas con las primeras k filas y
columnas) sean no nulos. En este caso la factorizaci´on es ´ unica.
54 Cap´ıtulo 3
Ejemplo: Resuelve el siguiente sistema mediante factorizaci´ on L U de
Gauss

¸
3 1 2
6 3 2
−3 0 −8
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
2
¸

.
Como [A
11
[ = 3, [A
21
[ =

3 1
6 3

= 0 y A
33
=

3 1 2
6 3 2
−3 0 −8

= 0, el
sistema admite la factorizaci´on L U buscada. Igualando t´ermino a t´ermino
las matrices siguientes

¸
3 1 2
6 3 2
−3 0 −8
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
obtenemos
u
11
= 3
u
12
= 1
u
13
= 2
l
21
u
12
= 6
l
21
u
12
+u
22
= 3
l
21
u
13
+u
23
= 2
l
31
u
11
= −3
l
31
u
12
+l
32
u
22
= 0
l
31
u
13
+l
32
u
23
+u
33
= −8


u
11
= 3
u
12
= 1
u
13
= 2
l
21
= 2
u
22
= 1
u
23
= −2
l
31
= −1
l
32
= 1
u
33
= −4
Paso 1.
Ly = b ⇒

¸
1 0 0
2 1 0
−1 1 1
¸

¸
y
1
y
2
y
3
¸

=

¸
0
1
2
¸


y
1
= 0
y
2
= 1
y
3
= 1
.
Paso 2.
Ux = y ⇒

¸
3 1 2
0 1 −2
0 0 −4
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
1
¸


x
1
= 0
x
2
=
1
2
x
3
=
−1
4
,
que es la soluci´on del sistema.

Sistemas lineales 55
3.3.1 M´etodo de Crout
Si en la factorizaci´on LU fijamos
u
11
= u
22
= = u
nn
= 1
se obtiene la descomposici´on por el m´etodo de Crout, que tiene el inconveniente
que puede producir grandes errores en la resoluci´on del sistema de ecuaciones.
3.3.2 M´etodo de Cholesky
Si en la factorizaci´on LU exigimos que U = L
t
de modo que
l
11
= u
11
, l
21
= u
12
, l
31
= u
13
, . . . , l
ij
= u
ji
, . . . , l
nn
= u
nn
,
se obtiene la descomposici´on por el m´etodo de Cholesky que funciona si y solo
si la matriz inicial A es sim´etrica y definida positiva. Por tanto, si consigo la
descomposici´on de una matriz por el m´etodo de Cholesky, puedo asegurar que
dicha matriz es sim´etrica y definida positiva.
La resoluci´on de un sistema de n = 50 ecuaciones con el m´etodo de Cho-
lesky requiere 50
3
/3 operaciones.
3.3.3 Sistemas triangulares
Son sistemas de ecuaciones lineales en los que la matriz de los coeficientes es
de la forma:
A =

¸
¸
¸
¸
¸
a
11
a
12
0 0 0 . . . 0
a
21
a
22
a
23
0 0 . . . 0
0 a
32
a
33
a
34
0 . . . 0
. . .
0 0 . . . 0 a
nn−1
a
nn
¸

.
Aparecen frecuentemente en la resoluci´on num´erica de ecuaciones diferenciales
y en la aproximaci´on por splines c´ ubicos. En la mayor´ıa de los casos, la matriz
admite una descomposici´on de la forma

¸
¸
¸
¸
¸
1 0 0 . . . 0
l
21
1 0 . . . 0
0 l
32
1 0
. . .
0 0 . . . l
nn−1
1
¸

¸
¸
¸
¸
¸
u
11
u
12
0 . . . 0
0 u
22
u
23
0 0
0 0 u
32
u
33
. . . 0
. . .
0 0 . . . u
nn−1
u
nn
¸

.
56 Cap´ıtulo 3
Ejemplo: Dada la matriz

¸
60 30 20
30 20 15
20 15 12
¸

a) Obt´en la descomposici´ on de Cholesky.
b) Obt´en la factorizaci´ on de Gauss sin intercambio de filas y, a partir de ella,
las descomposiciones de Crout y de Cholesky.
a)

¸
60 30 20
30 20 15
20 15 12
¸

= LL
t
=

¸
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
¸

¸
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
¸

por tanto
l
2
11
= 60
l
11
l
21
= 30
l
11
l
31
= 20
l
2
21
l
2
22
= 20
l
21
l
31
+l
22
l
32
= 15
l
2
31
+l
2
32
+l
2
33
= 12


l
11
=

60
l
21
=

60/2
l
31
=

60/3
l
22
=

5
l
32
=

5
l
33
=

3/3
b) La factorizaci´on de Gauss se obtiene resolviendo el sistema de ecuaciones
que se deduce de

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
La descomposici´on que resulta es
A =

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 30 20
0 5 5
0 0 1/3
¸

.
Descomponiendo la segunda matriz de la parte derecha de la igualdad en un
producto de una matriz diagonal por otra triangular superior con 1 en cada
Sistemas lineales 57
elemento de la diagonal, se obtiene que
A =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 0 0
0 5 0
0 0 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

= (∗)
Multiplicando las dos primeras matrices anteriores
(∗) =

¸
60 0 0
30 5 0
20 4 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

que es la descomposici´on de Crout.
Si en (∗) descomponemos la matriz diagonal
(∗) =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

=
=

¸

60 0 0

60/2

5 0

60/3

5

3/3
¸

¸

60

60/2

60/3
0

5

5
0 0

3/3
¸

que es la descomposici´on de Cholesky.

3.4 Normas y an´alisis del error
Definici´ on: Sea V un espacio vectorial. Una norma sobre V es una aplica-
ci´ on | | : V →R tal que ∀v, w ∈ V y ∀α ∈ R se verifica que:
1. |v| ≥ 0 (v = 0 ⇔|v| = 0)
2. |v +w| ≤ |v| +|w|
3. |αv| = [α[|v|.
58 Cap´ıtulo 3
Ejemplo: las siguientes son normas definidas sobre el espacio vectorial
R
3
:
1. Norma eucl´ıdea o norma 2: |(x, y, z)|
2
=

x
2
+y
2
+z
2
2. Norma del m´ aximo o norma infinito: |(x, y, z)|

= max([x[, [y[, [z[)
3. Norma 1: |(x, y, z)|
1
= [x[ +[y[ +[z[

La norma de un vector mide la ”distancia”de ese vector al origen. La
distancia entre dos vectores se mide con la norma del vector diferencia. Las
normas del ejemplo son diferentes formas de ”medir”las distancias entre los
vectores de R
3
.
Puesto que el conjunto ´
n×n
de las matrices cuadradas de orden n, con
las operaciones suma y producto por un n´ umero real es un espacio vectorial,
para ”medir”matrices tambi´en se utilizar´an normas que, por tanto, tendr´an
que verificar las condiciones de la definici´on de norma. Si adem´as de esas
condiciones se verifica que
|A B| ≤ |A||B| A, B ∈ ´
n×n
entones dicha norma es una norma matricial.
Una norma matricial | |
M
sobre M
n×n
y una norma vectorial | |
V
sobre
R
n
se dice que son compatibles si se verifica que
|Av|
V
≤ |A|
M
|v|
V
∀A ∈ ´
n×n
∀v ∈ R
n
.
Dada cualquier norma vectorial | |
V
sobre R
n
, es posible definir una norma
matricial sobre ´
n×n
de la siguiente forma:
|A|
M
= max¦|Av|
V
: |v|
V
= 1¦
Esta nueva norma se llama norma matricial inducida o subordinada a
la norma vectorial correspondiente. La norma vectorial y su norma matricial
subordinada son siempre compatibles.
Sistemas lineales 59
Ejemplos:
1. La norma matricial inducida por la norma vectorial 1 en R
3
es
|A|
1
=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

1
= max
1≤j≤n
n
¸
i=1
[a
ij
[.
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸

1
= max(12, 4, 12) = 12.
2. La norma matricial inducida por la norma vectorial 2 en R
3
es
|A|
2
=

ρ(A
t
A).
ρ(A
t
A) es el radio espectral de A
t
A que es el m´aximo de los valores absolutos
de los autovalores de la matriz A
t
A.
Para calcular |A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
debemos calcular primero los au-
tovalores de |A
t
A| que son las ra´ıces de
[A
t
A−αId[ =

¸
13 −α −3 0
−3 1 −α 0
0 0 1 −α
¸

= (1 −α)(α
2
−14α + 4).
Los autovalores de A
t
A son 7 ±

5 y 1 y como consecuencia
|A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
=

7 +

5
3. La norma matricial inducida por la norma infinito en R
3
es
|A|

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸


= max
1≤i≤n
n
¸
j=1
[a
ij
[.
60 Cap´ıtulo 3
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸


= max(6, 11, 11) = 11.
4. Se define la norma matricial de Fr¨ obenius como |A| =

¸
1≤i,j≤n
[a
i,j
[
2
.

3.4.1 N´ umero condici´ on de una matriz
Se define el n´ umero de condici´ on de una matriz A como
k(A) = |A||A
−1
|.
El n´ umero de condici´on siempre es mayor o igual que 1 y se utiliza para estimar
si un sistema de ecuaciones Ax = b est´a bien o mal condicionado, es decir, si
peque˜ nos cambios en los datos (A o b) pueden producir grandes cambios en la
soluci´on del sistema.
Supongamos que en vez de b utilizamos
¯
b de modo que la soluci´on del
sistema es ¯ x y A¯ x =
¯
b. Esto puede ser debido a que hay un peque˜ no error
cometido al hacer alguna medida en b o bien porque en vez de la soluci´on
exacta x hemos obtenido una soluci´on aproximada ¯ x. Si denotamos e al error
en la soluci´on y r al error en b o error residual, se verifica que Ae = Ax−A¯ x =
b −
¯
b = r.
Teorema:
1
k(a)
|r|
|b|

|e|
|x|
≤ k(a)
|r|
|b|
.
Demostraci´ on. Veamos que
1
k(a)
r
b

e
x
. Se verifica que
|r||x| = |Ae||A
−1
b| ≤ |A||e||A
−1
||b|
Por tanto
1
|A||A
−1
|
|r|
|b|

|e|
|x|
Vemos que
e
x
≤ k(a)
r
b
. Se verifica que
|e||b| ≤ |A
−1
r||Ax| ≤ |A
−1
||r||A||x|.
Sistemas lineales 61
Por tanto
|e|
|x|
≤ |A||A
−1
|
|r|
|b|
.

Si k(A) est´an cerca de 1 el sistema estar´a bien condicionado porque el error
relativo en la soluci´on
e
x
ser´a similar al error relativo
r
b
en los datos. Si por
el contrario k(A) es muy grande, el sistema puede estar mal condicionado y
peque˜ nos cambios en los datos podr´an producir grandes cambios en la soluci´on.
Ejemplo: Dado el sistema

¸
3.02 −1.05 2.53
4.33 0.56 −1.78
−0.83 −0.54 1.47
¸

¸
x
1
x
2
x
3
¸

=

¸
2
3
5
¸

1. Encuentra el n´ umero de condici´ on de la matriz A de los coeficientes con
| |

.
2. Acota el error relativo de las posibles soluciones en funci´ on del error en
los datos.
a) La matriz inversa redondeada a dos decimales es
A
−1
=

¸
5.66 −7.27 −18.55
200.51 −268.26 −669.91
−76.85 −102.65 −255.88
¸

con lo que
k(a) = |A||A
−1
| = 6.67 1138.68 = 7595.
b) Se verifica que
1
7595
|r|
5

|e|
|x|
≤ 7595
|r|
5
es decir
2.63 10
−5
|r| ≤
|e|
|x|
≤ 1591|r|

62 Cap´ıtulo 3
3.5 Mejora de soluciones
3.5.1 Refinamiento iterativo
Es un m´etodo para mejorar una soluci´on aproximada ya obtenida. Sea ¯ x una
soluci´on aproximada de Ax = b tal que A¯ x =
¯
b. Se verifica que
x = A
−1
b = ¯ x+x−¯ x = ¯ x+A
−1
b+A
−1
¯
b = ¯ x+A
−1
(b−
¯
b) = ¯ x+A
−1
r = ¯ x+e.
El m´etodo consiste en aplicar los siguientes pasos:
1. Calculo r = b −A¯ x con doble precisi´on.
2. Calculo e resolviendo el sistema Ae = r.
3. La nueva soluci´on aproximada ser´a
¯
¯ x = ¯ x +e.
Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´on.
Ejemplo: Si como soluci´ on aproximada del sistema

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
875
539
399
319
¸

se obtiene ¯ x = (0.999988, 1.000137, 0.999670, 1.000215), aplica el m´etodo de
refinamiento iterativo para mejorarla.
1. Calculo r = b −A¯ x con doble precisi´on.
r =

¸
¸
¸
875
539
399
319
¸

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
0.999988
1.000137
0.999670
1.000215
¸

=

¸
¸
¸
−1.05000000 10
−4
−7.0000000 10
−5
−3.5000000 10
−5
−4.8000000 10
−5
¸

.
2. Resuelvo

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
e
1
e
2
e
3
e
4
¸

=

¸
¸
¸
−1.05 10
−4
−7.0 10
−5
−3.5 10
−5
−4.8 10
−5
¸

y obtengo e = (1.1 10
−5
, −1.4 10
−5
, 3.30 10
−4
, −2.15 10
−4
)
3. La nueva soluci´on es
¯
¯ x = (0.999999, 0.999997, 1, 1).

Sistemas lineales 63
3.5.2 Escalamiento
Si en un sistema de ecuaciones los coeficientes de las inc´ognitas son de muy
diferente magnitud, la soluci´on num´erica del sistema puede contener errores.
Ejemplo: Resolvamos el siguiente sistema por eliminaci´on gaussiana:
2x
1
+ 100000x
2
= 100000
x
1
+x
2
= 2

2 100000 100000
1 1 2

(fila 2) −1/2 (fila 1)

2 100000 100000
0 −999991 −99998

De modo que las soluciones son
x
1
=
100000−100000x
2
2
≈ 0
x
2
=
−99998
−99999
≈ 1( redondeado a 4 cifras)
Sin embargo el resultado correcto es x
1
= 1.00002 y x
2
= 0.99998.

Para solucionar este problema se puede recurrir al escalamiento que con-
siste en multiplicar cada ecuaci´on por un n´ umero para que el coeficiente m´as
grande de las inc´ognitas en valor absoluto sea 1. Al aplicar el escalamiento
podemos cometer a su vez errores de redondeo, pero puede ayudar en casos
extremos cuando hay mucha diferencia entre los coeficientes.
Ejemplo: En el caso anterior
0.00002x
1
+x
2
= 1
x
1
+x
2
= 2
redondeando a 4 decimales
x
2
= 1
x
1
+x
2
= 2
aplicando el pivoteo
x
1
+x
2
= 2
x
2
= 1
y las soluciones son x
1
= y x
2
= 1.

64 Cap´ıtulo 3
3.6 M´etodos iterativos
Los m´etodos directos estudiados anteriormente requieren aproximadamente
n
3
/3 operaciones. Son sensibles a errores de redondeo que se acrecientan al
aumentar n. De modo que, aunque te´oricamente conducen a una soluci´on
exacta, en la pr´actica la soluci´on obtenida puede ser peor que la obtenida
aproximadamente por un m´etodo iterativo.
Los m´etodos iterativos est´an especialmente indicados para la resoluci´on
de sistemas con una matriz de gran dimensi´on pero dispersa, es decir, con
muchos ceros, que suelen aparecer por ejemplo en la resoluci´on de ecuaciones
diferenciales en derivadas parciales.
Un m´etodo iterativo de resoluci´on de un sistema de n ecuaciones Ax = b
es aquel a partir de un x
0
∈ R
n
genera una sucesi´on de posibles soluciones
aproximadas x
1
, x
2
, . . . . El m´etodo es convergente si la sucesi´on generada
converge a la soluci´on del sistema a partir de cualquier vector inicial x
0
. Es
consistente si, en caso de converger, el l´ımite es la soluci´on.
Todos las m´etodos iterativos de resoluci´on de un sistema Ax = b se basan
en la descomposici´on de la matriz A en diferencia de dos matrices M − N,
siendo M una matriz regular. De modo que
Ax = b ⇔(M −N)x = b ⇔Mx = Nx +b ⇔x = M
−1
(Nx +b)
Si definimos G(x) = M
−1
(Nx+b), veremos que para encontrar la soluci´on del
sistema basta encontrar un vector fijo de la funci´on G(x). Para ello se genera
una sucesi´on x
k
= G(x
k−1
) partiendo de una determinada soluci´on aproximada
x
0
. La sucesi´on converger´a a la soluci´on en determinadas condiciones.
En la pr´actica, dadas las matrices M y N, puesto que
x
k
= G(x
k−1
) = M
−1
(Nx
k−1
) +b) ⇒Mx
k
= Nx
k−1
+b,
para calcular x
k
a partir de x
k−1
se resuelve el sistema
Mx
k
= Nx
k−1
+b.
Es esencial que M sea una matriz regular y es conveniente que sea una matriz
sencilla para facilitar el c´alculo.
La condici´on que asegura la convergencia es la siguiente.
Sistemas lineales 65
Teorema: En las condiciones anteriores, si existe una norma matricial
tal que |M
−1
N| < 1, entonces la sucesi´ on x
k+1
= G(x
k
) converge a un punto
fijo de la funci´ on G(x).
Demostraci´on. Teniendo en cuenta que
|G(y) −G(y

)| = |M
−1
(Ny +b) −M
−1
(Ny

+b)|
= |M
−1
Ny −M
−1
Ny

| = |M
−1
N(y −y

)|
≤ |M
−1
N||y −y

|.
Si |M
−1
N| < λ < 1 para un cierto λ ∈ R, entonces |G(y)−G(y

)| < λ|y−y

|.
A partir de un vector x
0
vamos generando la sucesi´on x
k+1
= G(x
k
) y se
verifica que
|x
k+1
−x
k
| = |G(x
k
) −G(x)
k−1
| =|G(x
k
−x
k−1
)| <
λ|x
k
−x
k−1
| < . . . < λ
k
|x
1
−x
0
|.
Por tanto
|x
k+p
−x
k
| < |x
k+p
−x
k+p−1
+x
k+p−1
−. . . −x
k
|

p
¸
i=1
|x
k+i
−x
k+i−1
| <
p−1
¸
i=0
λ
k+i−1
|x
1
−x
0
|
= |x
1
−x
0
|
p−1
¸
i=0
λ
k+i−1
= |x
1
−x
0
|
λ
k−1
−λ
k+p−1
1 −λ
k→∞
→ 0.
De modo que la sucesi´on x
k+1
= G(x
k
) es una sucesi´on convergente a un
vector x ∈ R
n
si |M
−1
N| < λ < 1 para un cierto λ ∈ R. Dicho vector x
verifica que
x −G(x) = lim
k→∞
x
k
−G( lim
k→∞
x
k
) = lim
k→∞
G(x
k−1
) −G( lim
k→∞
x
k
)
= G( lim
k→∞
(x
k−1
−x
k
)) = G(0) = 0 ⇒x = G(x).

66 Cap´ıtulo 3
En resumen, un m´etodo iterativo de resoluci´on de un sistema Ax = b
consiste en generar una sucesi´on x
k
= G(x
k−1
) siendo G(x) = M
−1
(Nx + b)
y A = M −N. Hay que tener en cuenta lo siguiente:
1. Si [M[ = 0, puedo calcular x
k
a partir de x
k−1
.
2. Si el sistema Mx = c se resuelve f´acilmente, el m´etodo iterativo es m´as
r´apido.
3. Si |M
−1
N| < 1 para alguna norma matricial, la sucesi´on x
k
converge
a la soluci´on del sistema Ax = b.
3.6.1 M´etodo de Jacobi
Dada la matriz A = (a
ij
)
1≤i,j≤n
, se definen:
D =

¸
¸
¸
a
11
0 0
0 a
22
0 0

0 0 a
nn
¸

, L =

¸
¸
¸
¸
¸
0 0
a
21
0 0
a
31
a
32
0 0

a
n1
a
n2
a
nn−1
0
¸

U =

¸
¸
¸
¸
¸
0 u
12
u
1n
0 0 u
23
u
2n

0 0 u
n−1n
0 0 0
¸

En el m´etodo de Jacobi M = D y N = −(L+U). Para calcula x
k
a partir de
x
k−1
se resuelve el sistema
Dx
k
= −(L +U)x
k−1
+b.
Para aplicar el m´etodo se requiere que a
ii
= 0 para todo i. Si [A[ = 0, esto se
puede conseguir intercambiando filas si fuese necesario.
El m´etodo converge si |M
−1
N| < 1 para alguna norma matricial. Puesto
que
M
−1
N =

¸
¸
¸
0
−a
12
a
11
−a
13
a
11

−a
1n
a
11
−a
21
a
22
0
−a
23
a
22

−a
2n
a
22

−a
n1
a
nn

−a
nn−1
a
nn
0
¸

y
Sistemas lineales 67
|M
−1
N|

= max
1≤i≤n
¸
n
j=1,j=i
[a
ij
[

1
a
ii
,
una condici´on suficiente para que el m´etodo de Jacobi converja es que la matriz
A sea diagonal dominante, es decir que [a
ii
[ >
¸
n
j=1,j=i
[a
ij
[ ∀i = 1, 2, . . . , n.
Como
|M
−1
N|
1
= max
1≤j≤n
¸
n
i=1,i=j

[a
ij
[
1
a
ii

,
otra condici´on suficiente es que lo anterior sea menor que 1.
Por ´ ultimo, una tercera condici´on suficiente es que la matriz D − L − U
sea sim´etrica y definida positiva.
Ejemplo: Aplica una iteraci´ on del m´etodo de Jacobi al siguiente sistema

¸
6 5 0
0 2 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
La matriz es diagonal dominante de modo que la sucesi´on x
k
de vectores
generados mediante el m´etodo de Jacobi converger´a a la soluci´on. Se tiene
que
D =

¸
6 0 0
0 2 0
0 0 3
¸

−(L +U) =

¸
0 −5 0
0 0 −1
−2 0 0
¸

Si elegimos como vector inicial el x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 2 0
0 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −5 0
0 0 −1
−2 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

Por tanto
6x
1
1
= 0
2x
1
2
= 1
3x
1
3
= 0

x
1
1
= 0
x
1
2
=
1
2
x
1
3
= 0
El siguiente vector ser´ıa x
1
= (0, 1/2, 0).

68 Cap´ıtulo 3
3.6.2 M´etodo de Gauss-Seidel
En este m´etodo M = D+L y N = −U. El sistema a resolver para calcular x
k
a partir de x
k−1
ser´a (D+L)x
k
= −Ux
k−1
+b. Distintas condiciones suficientes
para que el m´etodo funcione son:
1. que A sea diagonal dominante
2. que A
t
sea diagonal dominante
3. que A sea sim´etrica y definida positiva.
El m´etodo de Gauss-Seidel es dos veces m´as r´apido que el de Jacobi.
Ejemplo: Aplica el m´etodo de Gauss-Seidel al siguiente sistema

¸
6 2 0
0 5 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
Tendremos que
D +L =

¸
6 0 0
0 5 0
2 0 3
¸

U =

¸
0 2 0
0 0 1
0 0 0
¸

.
Si partimos de x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 5 0
2 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −2 0
0 0 −1
0 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

y se obtiene que x
1
= (0, 1/5, 0)

Sistemas lineales 69
3.6.3 M´etodos de relajaci´ on
En el m´etodo de Jacobi, para calcular cada componente de x
k
se utilizan todos
los valores de x
k−1
. Sin embargo, en el m´etodo de Gauss-Seidel, para calcular
la componente i-´esima de x
k
(x
k
i
) se utilizan las componentes x
k
1
, x
k
2
, . . . , x
k
i−1
del vector x
k
y las componentes x
k−1
i+1
, . . . , x
k−1
n
del vector x
k−1
. De este modo,
el c´alculo de las componentes de x
k
se divide en etapas, utilizando en cada
una de ellas un vector diferente:
Etapa 1: calculo x
k
1
usando (x
k−1
2
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 2: calculo x
k
2
usando (x
k
1
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 3: calculo x
k
3
usando (x
k
1
, x
k
2
, x
k−1
4
, . . . , x
k−1
n
).
Etapa n: calculo x
k
n
usando (x
k
1
, x
k
2
, . . . , x
k
n−1
).
En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de
n con el consiguiente ahorro en tiempo. Adem´as, la informaci´on obtenida en
cada etapa se incorpora a la siguiente. Los m´etodos que utilizan esto ´ ultimo se
llaman ”m´etodos de relajaci´on sucesiva”y se desarrollaron para la resoluci´on de
sistemas con matrices de dimensi´on grande pero con casi todos los elementos
nulos.
En un m´etodo de relajaci´on se considera
M =
1
w
D +L N =
1 −w
w
D −U
con lo que M − N = A. w se llama factor de relajaci´on. En funci´on de su
valor se tiene
• Subrelajaci´on si 0 < w < 1.
• Super-relajaci´on si w > 1
• Gauss-Seidel si w = 1.
Si w ∈ (0, 2) el m´etodo no converge. Una condici´on suficiente para la conver-
gencia es que A sea sim´etrica y definida positiva.
Cap´ıtulo 4
Aproximaci´ on de funciones
Dada una tabla de datos como esta
x −1 0 1 2
y −2 −2 0 4
que representa unos valores y en funci´on de otros x, pretendemos encontrar
una funci´on y = f(x) que pase por esos puntos.
4.1 Construcci´ on del polinomio interpolador
Teorema: Dada una tabla de n+1 puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) con
x
i
= x
j
, existe un ´ unico polinomio P
n
(x) de grado menor o igual que n de
modo que
P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n.
Dicho polinomio se llama polinomio interpolador de los puntos.
71
72 Cap´ıtulo 4
Demostraci´on. Consideremos un polinomio cualquiera de grado menor o
igual que n :
P
n
(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Puesto que queremos que P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n tendremos que
a
0
+a
1
x
0
+a
2
x
2
0
+ +a
n
x
n
0
= y
0
a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n
x
n
1
= y
1

a
0
+a
1
x
n
+a
2
x
2
n
+ +a
n
x
n
n
= y
n
que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´ognitas en el que
el determinante de la matriz de los coeficientes es distinto de 0 :

1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1

1 x
n
x
2
n
x
n
n

= 0.
Por lo tanto, el sistema es compatible determinado y tiene una ´ unica soluci´on.

Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de
la tabla
x −1 0 1 2
y −2 −2 0 4
Como son 4 puntos buscaremos un polinomio de grado menor o igual que
3 de la forma P
n
(x) = a
0
+a
1
x +a
2
x
2
+a
3
x
3
. El sistema que resulta es
a
0
+a
1
(−1) +a
2
(−1)
2
+a
3
(−1)
3
= −2
a
0
+a
1
(0) +a
2
(0)
2
+a
3
(0)
3
= −2
a
0
+a
1
(1) +a
2
(1)
2
+a
3
(1)
3
= −2
a
0
+a
1
(2) +a
2
(2)
2
+a
3
(2)
3
= 4
Que es un sistema compatible determinado y que, por tanto, tiene una ´ unica
soluci´on, es decir, existe un ´ unico polinomio de grado menor o igual que 3 que
pasa por los puntos de la tabla. Dicho polinomio es P(x) = −2 +x +x
2
.

Aproximacion de funciones 73
4.1.1 M´etodo de Lagrange
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), el polinomio interpolador
P
n
(x) se puede calcular as´ı:
P
n
(x) =
n
¸
i=0
L
i
(x)y
i
donde
L
i
(x) =
Π
j=i
(x −x
j
)
Π
j=i
(x
i
−x
j
)
=
(x −x
0
)(x −x
1
) . . . (x −x
i−1
)(x −x
i+1
) . . . (x −x
n
)
(x
i
−x
0
)(x
i
−x
1
) . . . (x
i
−x
i−1
)(x
i
−x
i+1
) . . . (x
i
−x
n
)
.
Se verifica que
L
i
(x
i
) = 1 L
i
(x
j
) = 0 ∀i = j
de modo que
P
n
(x
j
) =
n
¸
i=0
L
i
(x
j
)y
i
= y
j
.
Ejemplo: En el ejemplo anterior
L
0
(x) =
x(x−1)(x−2)
(−1)(−2)(−3)
L
1
(x) =
(x+1)(x−1)(x−2)
1(−1)(−2)
L
2
(x) =
(x+1)x(x−2)
2·1(−1)
L
3
(x) =
(x+1)x(x−1)
3·2·1

4.1.2 M´etodo de Newton
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), se pueden calcular las dife-
rencias divididas
• de primer orden: [x
i
, x
i+1
] =
y
i+1
−y
i
x
i+1
−x
i
• de segundo orden: [x
i
, x
i+1
, x
i+2
] =
[x
i+1
,x
i+2
]−[x
i
,x
i+1
]
x
i+2
−x
i

• de orden k [x
i
, x
i+1
, . . . , x
i+k
] =
[x
i+1
,··· ,x
i+k
]−[x
i
,··· ,x
i+k−1
]
x
i+k
−x
i
Las diferencias divididas son invariantes frente a permutaciones. Por ejemplo:
[x
0
, x
1
, x
2
] = [x
1
, x
0
, x
2
].
La tabla siguiente permite construir de forma sencilla las diferencias divididas:
74 Cap´ıtulo 4
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
2
] [x
0
, x
1
, x
2
, x
3
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
3
]
x
2
y
2
[x
2
, x
3
]
x
3
y
3
. . .
El polinomio interpolador se construye a partir de las diferencias divididas as´ı:
P
n
(x) = y
0
+ [x
0
, x
1
](x −x
0
) + [x
0
, x
1
, x
2
](x −x
0
)(x −x
1
) +. . .
+ [x
0
, x
1
, x
2
, . . . , x
n
](x −x
0
)(x −x
1
) . . . (x −x
n−1
).
Ejemplo: En el ejemplo anterior la tabla ser´ıa la siguiente
−1 −2 0 1 0
0 −2 2 1
1 0 4
2 4
y el polinomio ser´ıa P(x) = −2 + 1(x + 1)x.

4.2 Error del polinomio interpolador
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) que provienen de una cierta
funci´on y = f(x), si conocemos cierta informaci´on sobre las derivadas de la
funci´on f(x), podemos estimar el error que se comete al aproximar f(x) por
su polinomio interpolador P
n
(x) de grado menor o igual que n.
Teorema: Sea f(x) una funci´ on n + 1 veces diferenciable en un inter-
valo (a, b) y sea P
n
(x) su polinomio interpolador en los nodos x
0
, x
1
, . . . , x
n
contenidos en [a, b]. Para cada x ∈ [a, b] existe un punto θ
x
∈ (a, b) tal que
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)(x −x
1
) . . . (x −x
n
).
Demostraci´on. Sea w(t) = (t − x
0
)(t − x
1
) . . . (t − x
n
). Para un valor fijo
x ∈ [a, b] existe un λ ∈ R tal que f(x)−P
n
(x) = λw(x). De modo que tenemos
la funci´on
Φ(t) = f(t) −P
n
(t) −λw(t)
Aproximacion de funciones 75
que vale 0 en x, x
0
, x
1
, . . . , x
n
. Por tanto, Φ
1)
(t) se anular´a en n + 1 puntos,
Φ
2)
(t) se anular´a en n puntos y Φ
n+1)
(t) se anular´a en 1 punto θ
x
∈ (a, b):
Φ
n+1)

x
) = f
n+1)

x
) −P
n+1)

x
) −λw
n+1)

x
) = 0
es decir
f
n+1)

x
) −λ(n + 1)! = 0 ⇒λ =
f
n+1)

x
)
(n + 1)!
.
Como consecuencia
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
w(x).

Ejemplo: El error al aproximar la funci´on f(x) = sen(x) en un punto
x ∈ [0, 1] mediante un polinomio interpolador en 9 nodos contenidos en el
intervalo [0, 1] se puede acotar as´ı:
[f(x) −P
9
(x)[ ≤
[f
10)

x
)[
10!

9
i=0
(x −x
i
)[ ≤
1
10!
< 2.8 10
−7

4.2.1 Elecci´ on de nodos. Polinomios de Chebyshev
Si pretendemos encontrar un polinomio que interpole a una determinada fun-
ci´on y los nodos no est´an previamente fijados, ¿qu´e nodos podemos elegir?
Elegir los nodos proporcionados por los polinomios de Chebyshev tienen algu-
na ventaja.
Definici´ on: Los polinomios de Chebyshev se definen as´ı:
T
0
(x) = 1 T
1
(x) = x T
n+1
(x) = 2xT
n
(x) −T
n−1
(x) si n ≥ 1
Proposici´ on: Las ra´ıces del polinomio de Chebyshev T
n
(x) si n ≥ 1 son
los valores
cos

2j −1
2n
π

∀1 ≤ j ≤ n.
76 Cap´ıtulo 4
Como consecuencia, todas las ra´ıces de cualquier polinomio de Chebyshev
est´an contenidas en el intervalo [−1, 1].
Teorema: Si los nodos (x
i
), con i = 0, 1, . . . , n, de interpolaci´ on de una
funci´ on f(x) en x ∈ [−1, 1] son las ra´ıces del polinomio de Chebyshev T
n+1
(x),
entonces
[f(x) −P
n
(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[.
La justificaci´on del teorema se basa en que la expresi´on
max
|x|≤1
Π
n
i=0
[(x −x
i
)[
que proviene de la f´ormula general del error en la interpolaci´on, se hace m´ınima
cuando x
i
son las ra´ıces del polinomio de Chebyshev correspondiente. El re-
sultado del teorema permite encontrar una cota del error del polinomio inter-
polador m´as peque˜ na que la establecida con car´acter general.
Si en lugar del intervalo [−1, 1] tenemos un intervalo [a, b], si aplicamos a
los nodos de Chebyshev la transformaci´on af´ın que lleva el intervalo [−1, 1] en
el intervalo [a, b], obtenemos unos nuevos nodos tales que:
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
[f
n+1)
(t)[.
Ejemplo: Calcula los cuatro nodos para la interpolaci´ on de una funci´ on
en el intervalo [−1, 1] y en el intervalo [2, 8] haciendo uso de los polinomio de
Chebyshev. Establece una cota del error en cada caso para la funci´ on f(x) =
sin(x).
Calculamos las ra´ıces de T
4
(x) = 8x
4
−8x
2
+ 1 :
x
0
= −0.9239 x
1
= −0.3827 x
2
= 0.3827 x
3
= 0.9239.
Estos ser´ıa los nodos en el intervalo [−1, 1]. Para calcular los nodos en el
intervalo [2, 8] necesitamos una transformaci´on af´ın αx+β que lleve el intervalo
Aproximacion de funciones 77
[−1, 1] en el intervalo [2, 8] :
[−1, 1] → [2, 8]
−1 → α(−1) +β = 2
1 → α(1) +β = 8
Resolviendo el sistema formado por las dos ´ ultimas ecuaciones, obtenemos que
la transformaci´on es 3x + 5. Aplicamos esta transformaci´on a los nodos de
Chebyshev y obtenemos los nuevos nodos en el intervalo [2, 8] :
x

0
= 2.2284 x

1
= 3.8519 x

2
= 6.1481 x

3
= 7.7716.
Veamos las cotas de los errores para la funci´on f(x) = sin(x) en cada caso.
Para el intervalo [−1, 1] :
[f(x) −P(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[ ≤
1
2
3
(4)!
Para el intervalo [2, 8] :
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
f
n+1)
(t) ≤
3
4
2
3
4!
.

¿Es cierto que si n aumenta el polinomio P
n
(x) se ”parece”m´as a la fun-
ci´on f(x)? En general la respuesta es que no. Por ejemplo, dada funci´on
f(x) =
1
1+x
2
en [−5, 5], si elegimos los nodos x
i
igualmente espaciados, se pue-
de demostrar que los polinomios no convergen a la funci´on fuera del intervalo
[−3.63, 3.63]. (Ver figura 4.1)
Otro ejemplo es la funci´on f(x) = [x[ en [−1, 1], en la cual la convergencia
se produce solo en los puntos −1, 0, 1.
Sin embargo, si elegimos los nodos de Chebyshev y la funci´on f(x) a in-
terpolar es continua y con derivada continua, entonces P
n
(x) converge uni-
formemente a f(x) en todo el intervalo. No obstante, para cualquier elecci´on
de nodos es posible encontrar una funci´on continua tal que no se produce esa
convergencia uniforme.
78 Cap´ıtulo 4
-4 -2 2 4
0.5
1
1.5
2
-4 -2 2 4
-0.5
0.5
1
1.5
2
Figura 4.1:
1
1+x
2
y sus polinomios interpoladores de grado 10 y 20.
4.3 Interpolaci´ on a trozos y con condiciones sobre
la derivada
4.3.1 Interpolaci´ on a trozos
Si disponemos de ciertos valores de una funci´on f(x) en un intervalo [a, b],
se puede obtener una aproximaci´on a la funci´on f(x) dividiendo el intervalo
en varios intervalos m´as peque˜ nos (subintervalos) y utilizando polinomios de
peque˜ no grado (1,2,3, etc.) distintos para interpolar los valores de cada su-
bintervalo. La siguiente gr´afica muestra la funci´on seno y una funci´on que la
interpola con trozos de recta en varios puntos:
1 2 3 4 5 6
-1
-0.5
0.5
1
Aproximacion de funciones 79
Ejercicio: Dada la tabla
x −1 0 1 2
y −2 −2 0 4
encuentra una funci´ on formada
a) por trozos de recta
b) por trozos de par´ abola
que pase por los puntos anteriores.
4.3.2 Interpolaci´ on con condiciones sobre la derivada
El siguiente es un ejemplo de problema de interpolaci´on con condiciones sobre
la derivada.
Ejemplo 1: Encuentra un polinomio P(x) tal que P(0) = 0, P(1) = 1 y
P

(0.5) = 2.
Puesto que son tres las condiciones que tenemos, cabe pensar que basta
buscar entre los polinomios con tres par´ametros, es decir, los polinomios de
grado 3 de la forma P(x) = a +bx +cx
2
:
P(0) = 0
P(1) = 1
P

(0.5) = 2

a = 0
b +c = 1
b + 2 c 0.5 = 2

a = 0
b +c = 1
b +c = 2
El sistema anterior no tiene soluci´on, con lo que habr´ıa que buscar entre los
polinomios de grado 4. Al plantear las ecuaciones correspondientes resulta un
sistema con soluci´on no ´ unica.

Ejemplo 2 (Interpolaci´on de Hermite): Encuentra un polinomio P(x) que
interpole a una funci´on y = f(x) sabiendo que
x −1 0 1
y 1 1 −1
y

2 0 0
Puesto que hay seis condiciones para la funci´on y sus derivadas buscamos
entre los polinomios de la forma P(x) = a
0
+a
1
x + +a
5
x
5
que tienen seis
80 Cap´ıtulo 4
coeficientes. Planteamos el sistema correspondiente seg´ un las condiciones y
obtenemos lo siguiente:
P(−1) = 1 P

(−1) = 2
P(0) = 1 P

(0) = 0
P(1) = 0 P

(1) = 0

a
0
= 1 a
3
= −3
a
1
= 0 a
4
=
1
2
a
2
=
−3
2
a
5
= 2
Con lo que el polinomio buscado es P(x) = 1 −
3
2
x
2
−3x
3
+
1
2
x
4
+ 2x
5
.

Ejemplo 3 (Interpolaci´on de Hermite c´ ubica a trozos): Encuentra una
funci´ on formada por trozos de polinomios de grado 3 que verifique las siguien-
tes condiciones
x −1 0 1
y 1 1 −1
y

2 0 0
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.2: La funci´on g(x)
Buscamos una funci´on de la forma
g(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
Aproximacion de funciones 81
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
. A partir de
las condiciones planteamos el sistema
P(−1) = 1 P

(−1) = 2 Q(0) = 1 Q

(0) = 0
P(0) = 1 P

(0) = 0 Q(1) = −1 Q

(1) = 0
con lo que
g(x) =

1 + 2x
2
+ 2x
3
si x ∈ [−1, 0]
1 −6x
2
+ 4x
3
si x ∈ [0, 1]
(Ver Figura 4.2)

Ejemplo 5 (Splines c´ ubicos): Encuentra una funci´ on polin´ omica c´ ubica a
trozos que sea de clase (
2
(continua, derivable y con derivada segunda conti-
nua) que verifique las siguientes condiciones
x −1 0 1
y 1 1 −1
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.3: La funci´on h(x)
Buscamos una funci´on de la forma
h(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
82 Cap´ıtulo 4
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
de modo que
P(−1) = 1 P(0) = 1 Q(0) = 1 Q(1) = −1 P

(0) = Q

(0) P

(0) = Q

(0)
Puesto que tenemos 6 ecuaciones y 8 inc´ognitas necesitamos 2 condiciones
m´as. Por ejemplo, a˜ nadimos las siguientes
P

(−1) = 0 Q

(1) = 0
y obtenemos un sistema compatible determinado de modo que
h(x) =

1 −x −
3
2
x
2

1
2
x
3
si x ∈ [−1, 0]
1 −x −
3
2
x
2
+
1
2
x
3
si x ∈ [0, 1]
(Ver Figura 4.3)

Interpolaci´ on de Hermite
Un problema de interpolaci´on de Hermite consiste en encontrar un polinomio
P(x) (Polinomio de Hermite) tal que
P(x
0
) = y
0
P

(x
0
) = y

0
P

(x
0
) = y

0
P
k
0
−1)
(x
0
) = y
k
0
−1
0
P(x
1
) = y
1
P

(x
1
) = y

1
P

(x
1
) = y

1
P
k
1
−1)
(x
1
) = y
k
1
−1
1

P(x
n
) = y
n
P

(x
n
) = y

n
P

(x
n
) = y

n
P
k
n
−1)
(x
n
) = y
k
n
−1
n
siendo y
i
, y

i
, , y
k)
i
los valores de una cierta funci´on y sus derivadas en n+1
puntos. Si el n´ umero de condiciones impuestas es k
1
+k
2
+ +k
n
= m+ 1
entonces
Teorema: Existe un ´ unico polinomio de grado menor o igual que m que
satisface las condiciones de interpolaci´ on de Hermite anteriores.
Demostraci´on. Sea P(x) un polinomio de grado menor o igual que m. Las
condiciones P
j
(x
i
) = y
j
i
dan lugar a un sistema de m + 1 ecuaciones de la
forma Au = y. Este sistema tiene soluci´on ´ unica si el sistema Au = 0 tiene
´ unicamente la soluci´on 0, es decir, si el sistema formado por las condiciones
P
j)
(x
i
) = 0 tiene como soluci´on ´ unica el polinomio 0. Veamos que esto ´ ultimo
Aproximacion de funciones 83
es cierto. Un polinomio P(x) que sea soluci´on del sistema P
j)
(x
i
) = 0 verifica
que tiene la ra´ız x
i
repetida k
i
veces, con lo que si P(x) no es cero, ser´ıa de
grado mayor o igual que m+ 1, en contradicci´on con la hip´otesis inicial.

Ejercicio: ¿Qu´e otro nombre recibe el polinomio de Hermite cuando solo
hay un nodo?

Teorema. Sean x
0
, x
1
, . . . , x
n
nodos distintos de [a, b] y f ∈ (
2
[a, b]. Si
P(x) es el polinomio de grado menor o igual que 2n+1 tal que P(x
i
) = f(x
i
)
y P

(x
i
) = f

(x
i
), con 0 ≤ i ≤ n, entonces ∀x ∈ [a, b] ∃θ ∈ [a, b] tal que
f(x) −P(x) =
f
2n+2)
(θ)
(2n + 2)!
Π
n
i=0
(x −x
i
)
2

El polinomio de Hermite se puede calcular usando las diferencias divididas.
Para ello definimos
[x
0
, x
0
] = lim
x→x
0
[x
0
, x] = lim
x→x
0
y −y
0
x −x
0
= lim
x→x
0
f(x) −f(x
0
)
x −x
0
= f

(x
0
)
[x
0
, x
0
, x
1
] =
[x
0
, x
1
] −[x
0
, x
0
]
x
1
−x
0
[x
0
, x
0
, x
0
] =
1
2!
f
2)
(x
0
) [x
0
, x
0
, x
0
, x
0
] =
1
3!
f
3)
(x
0
)
Y de forma similar el resto de diferencias. En estas condiciones el polinomio
de interpolaci´on de Hermite se calcula de forma parecida a como se calculaba
el polinomio de interpolaci´on sin condiciones sobre la derivada.
El c´alculo es m´as sencillo haciendo uso de una tabla. Por ejemplo, si el
problema de Hermite incluye datos sobre la funci´on y su derivada en tres
puntos la tabla quedar´ıa as´ı:
x y 1
0
2
0
3
0
4
0
5
0
x
0
y
0
[x
0
, x
0
] [x
0
, x
0
, x
1
] [x
0
, x
0
, x
1
, x
1
] [x
0
, x
0
, x
1
, x
1
, x
2
] [x
0
, . . . , x
2
]
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
1
] [x
0
, x
1
, x
1
, x
2
] [x
0
, x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
1
] [x
1
, x
1
, x
2
] [x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
2
]
x
2
y
2
[x
2
, x
2
]
x
2
y
2
84 Cap´ıtulo 4
siendo
[x
0
, x
0
, . . . , x
0
] =
1
k!
f
k)
(x
0
)
k veces
.
El polinomio ser´ıa
P(x) = y
0
+ [x
0
, x
0
](x −x
0
) + [x
0
, x
0
, x
1
](x −x
0
)
2
+
+[x
0
, x
0
, x
1
, x
1
](x −x
0
)
2
(x −x
1
) +
+[x
0
, x
0
, x
1
, x
1
, x
2
](x −x
0
)
2
(x −x
1
)
2
+[x
0
, x
0
, x
1
, x
1
, x
2
, x
2
](x −x
0
)
2
(x −x
1
)
2
(x −x
2
).
Ejemplo: Calcula el polinomio que verifica estas condiciones:
x −1 0 1
y 1 1 −1
y

2 0 0
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
5
0
-1 1 2 −2 2 −3/2 2
-1 1 0 0 −1 5/2
0 1 0 −2 4
0 1 −2 2
1 -1 0
1 -1
El polinomio ser´ıa
P(x) = 1+2(x+1)−2(x+1)
2
+2(x+1)
2
x−3/2(x+1)
2
x
2
+2(x+1)
2
x
2
(x−1)

Ejemplo: Calcula el polinomio que verifica las siguientes condiciones:
x 1 2
y 2 6
y

3 7
y

8
Aproximacion de funciones 85
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
1 2 3 1 2 −1
1 2 4 3 1
2 6 7 8/2!=4
2 6 7
2 6
El polinomio ser´ıa
P(x) = 2 + 3(x −1) + 1(x −1)
2
+ 2(x −1)
2
(x −2) −1(x −1)
2
(x −2)
2
.

Interpolaci´ on c´ ubica de Hermite a trozos
Dada la tabla de valores
x x
0
x
1
x
n
y y
1
y
2
y
n
y

y

1
y

2
y

n
correspondientes a una cierta funci´on y sus derivadas, el m´etodo de inter-
polaci´on c´ ubica de Hermite a trozos consiste en encontrar una ´ unica funci´on
derivable definida a trozos, tal que en cada intervalo [x
i
, x
i+1
] (i = 0, . . . , n−1),
la funci´on es un polinomio P
i
(x) de grado menor o igual a 3 que verifica lo
siguiente
P
i
(x
i
) = y
i
P
i
(x
i+1
) = y
i+1
P

(x
i
) = y

i
P

i
(x
i+1
) = y

i+1
.
Planteando los correspondientes sistemas de ecuaciones, se puede encontrar la
´ unica funci´on que interpola en esas condiciones.
Splines
Una funci´on spline de grado k con nodos x
0
≤ x
1
≤ ≤ x
n
es una funci´on
S(x) definida a trozos tal que:
a) S(x) es un polinomio S
i
(x) de grado menor o igual que k en cada inter-
valo [x
i
, x
i+1
], con i = 0, 1, . . . , n −1.
b) S(x) admite derivada segunda continua de orden k −1 en [x
0
, x
n
].
86 Cap´ıtulo 4
El spline c´ ubico (k = 3) es el m´as usado en interpolaci´on. Un spline c´ ubico de
interpolaci´on en ¦x
0
, x
1
, . . . , x
n
¦ es una funci´on que cumple las propiedades
a), b) y S(x
i
) = f(x
i
), con i = 0, 1, . . . , n. El n´ umero de condiciones que se
han de cumplir es el siguiente:
condici´on ecuaciones num. ec.
continuidad S
i−1
(x
i
) = S
i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 1
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 2
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
interpolaci´on S
i
(x
i
) = y
i
con i = 0, . . . , n n + 1
total 4n −2
Cada polinomio c´ ubico S
i
(x), con i = 0, . . . , n − 1, tendr´a 4 par´ametros,
con lo que el n´ umero de inc´ognitas ser´a 4n−4. Por lo tanto, para poder resolver
el correspondiente sistema de ecuaciones hemos de a˜ nadir dos condiciones m´as
y podemos hacerlo de distintas formas:
• Si exigimos S

(x
0
) = 0 y S

(x
n
) = 0 obtendremos el spline c´ ubico
natural.
• Si exigimos S

(x
0
) = S

(x
n
) y S

(x
0
) = S

(x
n
) obtendremos el spline
peri´odico.
Se pueden elegir otras condiciones distintas del spline natural o del peri´odico.
Sin embargo, los splines natural y peri´odico existen y son ´ unicos para cualquier
conjunto de nodos y de datos. Adem´as, si la funci´on a interpolar f(x) tiene
derivada segunda continua en [x
0
, x
n
], entonces

b
a
[S

(x)]
2
dx ≤

b
a
[f

(x)]
2
dx,
siendo S(x) el spline natural. Es decir, de entre todas las funciones con deriva-
da segunda continua que pasan por ciertos puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
)
el spline natural es el que tiene menor energ´ıa el´astica (menor tensi´on
1
).
Por otra parte, si aumentamos el n´ umero de puntos a interpolar en el
intervalo [a, b] (n →∞) disminuyendo simult´aneamente el tama˜ no m´aximo de
los subintervalos [x
i
, x
i+1
] (max
0≤i≤n
[x
i
, x
i+1
] →0), entonces el spline natural
y su derivada convergen uniformemente a f(x) y f

(x) respectivamente.
1
La tensi´ on o energ´ıa el´ astica en [a, b] es proporcional a

b
a
[f

(x)]
2
dx.
Cap´ıtulo 5
Diferenciaci´ on e integraci´ on
num´erica
5.1 Diferenciaci´ on num´erica y extrapolaci´ on de Ri-
charson
¿Puede calcularse la derivada de una funci´on f(x) en un punto si se conocen
solo los valores de la funci´on f(x
0
), f(x
1
),. . . ,f(x
n
) en n + 1 puntos? Si la
funci´on es un polinomio de grado n, entonces seguro que se puede. Si de
la funci´on solo sabemos que es derivable, entonces no ser´a posible, pues hay
muchas funciones derivables que pasan por los mismos puntos. El objetivo de
esta secci´on es estimar el valor de f

(x) a partir de los valores de la funci´on
en ciertos puntos f(x
0
), f(x
1
),. . . ,f(x
n
) dando una cota del error cometido.
Dado que
f

(x) = lim
h→0
f(x +h) −f(x)
h
una primera estimaci´on es
f

(x) ≈
f(x +h) −f(x)
h
que es aplicable cuando conocemos los valores de la funci´on en dos puntos:
x
0
= x y x
1
= x+h. La f´ormula anterior es exacta para funciones lineales (por
ejemplo, para f(x) = 3x+2) y en otros casos de manera fortuita. Calculemos
87
88 Cap´ıtulo 5
una cota del error. Por el teorema de Taylor:
f(x +h) = f(x) +f

(x)h +
f

(θ)
2!
h
2
es decir
f

(x) =
f(x +h) −f(x)
h

h
2
f

(θ).
El error al aproximar f

(x) por f

(x) =
f(x+h)−f(x)
h
, llamado error de trunca-
miento, es
error = −
h
2
f

(θ) (f´ormula de orden h)
siendo θ un n´ umero entre x y x + h. Cuanto menor sea h, mejor ser´a la
aproximaci´on de f

(x), hasta que el error de redondeo impida la mejora.
Ejemplo: Estima el valor de la derivada de cos(x) en el punto
π
4
y calcula
una cota del error cometido.
Tomando como h = 0.01
f

(
π
4
) ≈
f(
π
4
+h) −f(
π
4
)
h
=
cos(
π
4
+ 0.01) −cos(
π
4
)
0.01
= −0.71063050.
La cota del error ser´ıa
[error[ = [ −
h
2
f

(θ)[ = [
0.01
2
cos(θ)[ ≤
0.01
2
= 0.005.

Otra estimaci´on de f

(x) es
f

(x) ≈
f(x +h) −f(x −h)
2h
.
Veamos la estimaci´on del error. Del teorema de Taylor se deduce que
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f


1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f


2
).
Diferenciaci´ on e integraci´ on 89
Si restamos las ecuaciones anteriores
f(x +h) −f(x −h) = 2f

(x)h +
h
3
6
[f


1
) +f


2
)].
Despejando
f

(x) =
f(x +h) −f(x −h)
2h

h
2
12
[f


1
) +f


2
)]
con lo que el error de truncamiento ser´ıa

h
2
12
[f


1
) +f


2
)]
siendo θ
1
un n´ umero entre x y x+h y θ
2
un n´ umero entre x y x−h. Si f

(x)
existe y es continua en [x−h, x+h], entonces existe un n´ umero θ ∈ [x−h, x+h]
tal que f

(θ) =
f


1
)+f


2
)
2
, con lo que error de truncamiento quedar´ıa
error = −
h
2
6
f

(θ) (f´ormula de orden h
2
).
Para estimar el valor de una derivada segunda podemos usar la f´ormula
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2
.
Veamos la estimaci´on del error. Por el teorema de Taylor
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f

(x) +
h
4
24
f
4)

1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f

(x) +
h
4
24
f
4)

2
)
.
Si sumamos las ecuaciones anteriores y despejamos
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2

h
2
24
[f
4)

1
) +f
4)

2
)].
Siendo θ
1
y θ
2
n´ umeros que est´an entre x y x +h y entre x y x −h. Si f
4)
(x)
existe y es continua, entonces existe un n´ umero θ ∈ [x −h, x +h] tal que
error =
h
2
12
f
4)
(θ) (f´ormula de orden h
2
)
90 Cap´ıtulo 5
5.1.1 Diferenciaci´ on mediante interpolaci´ on
Dada una funci´on f(x) y recordando c´omo se calcula el polinomio de interpo-
laci´on en los puntos x
0
, x
1
, . . . ,x
n
, se tiene que :
f(x) =
n
¸
i=0
f(x
i
)L
x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w(x)
donde w(x) = Π
n
i=0
(x −x
i
). Si derivamos
f

(x) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w

(x)
+
1
(n + 1)!
w(x)
d
dx
(f
n+1)

x
))

Si x = x
k
f

(x
k
) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x
k
) +
1
(n + 1)!
f
n+1)

x
k
)w

(x
k
)

.
Y como
w

(x) =
n
¸
i=0
Π
n
j=0,j=i
(x −x
j
) ⇒w

(x
k
) = Π
n
j=0,j=k
(x
k
−x
j
)
nos queda
f

(x
k
) =
n
¸
i=0

f(x
i
)L

x
i
(x
k
)

+
1
(n + 1)!
f
n+1)

x
k

n
j=0,j=k
(x
k
−x
j
)
que es una forma de calcular un valor aproximado de f

(x
k
) a partir de los
valores x
0
, x
1
, . . . ,x
n
.
Diferenciaci´ on e integraci´ on 91
Ejemplo: a) Aplica la f´ ormula anterior para calcular f

(x
1
) con n = 2.
b) Calcula lo anterior con x
1
−x
0
= x
2
−x
1
= h
Apartado a). Puesto que
L
x
0
=
(x −x
1
)(x −x
2
)
(x
0
−x
1
)(x
0
−x
2
)
L
x
1
=
(x −x
0
)(x −x
2
)
(x
1
−x
0
)(x
1
−x
2
)
L
x
2
=
(x −x
0
)(x −x
1
)
(x
2
−x
0
)(x
2
−x
1
)
se tiene que
L

x
0
=
2x −x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
L

x
1
=
2x −x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
L

x
2
=
2x −x
0
−x
1
(x
2
−x
0
)(x
2
−x
1
)
.
Por tanto
f

(x
1
) ≈ f(x
0
)
x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
+f(x
1
)
2x
1
−x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
+f(x
2
)
x
1
−x
0
(x
2
−x
0
)(x
2
−x
1
)
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(x
1
−x
0
)(x
1
−x
2
).
Apartado b). Siendo x
0
= x
1
− h y x
2
= x
1
+ h se obtiene la f´ormula ya
conocida
f

(x
1
) ≈ f(x
1
−h)
−h
(−h)(−2h)
+f(x
1
)
2x
1
−(x
1
−h) −(x
1
+h)
(h)(−h)
+f(x
1
+h)
h
(2h)(h)
f(x
1
+h) −f(x
1
−h)
2h
,
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(h)(−h) = −
1
3!
f
3)

x
1
)h
2
.

92 Cap´ıtulo 5
5.1.2 Extrapolaci´ on de Richarson
La extrapolaci´on de Richarson sirve para generar resultados de gran exactitud
cuando se usan f´ormulas de bajo orden. La extrapolaci´on puede aplicarse
siempre a cualquier m´etodo de aproximaci´on en el que sepamos el t´ermino de
error de una forma previsible y se basa en un par´ametro que generalmente es
el tama˜ no de paso h.
Por el teorema de Taylor sabemos que
f(x +h) =

¸
k=0
1
k!
h
k
f
k)
(x) y f(x +h) =

¸
k=0
1
k!
(−1)
k
h
k
f
k)
(x).
Restando las f´ormulas anteriores
f(x +h) −f(x −h) = 2hf

(x) +
2
3!
h
3
f
3)
(x) +
2
5!
f
5)
(x) +. . .
y despejando f

(x)
f

(x) =
f(x +h) −f(x −h)
2h

¸
f
3)
(x)
3!
h
2
+
f
5)
(x)
5!
h
4
+
f
7)
(x)
7!
h
6
+. . .
¸
.
Si definimos Φ(h) =
f(x+h)−f(x−h)
2h
y denotamos a
i
al coeficiente de h
i
en la
f´ormula anterior, tenemos
f

(x) = Φ(h) +a
2
h
2
+a
4
h
4
+a
6
h
6
+. . . (5.1)
que es la f´ormula ya conocida de aproximaci´on de f

(x)
f

(x) ≈ Φ(h) con error = h
2

a
2
+a
4
h
2
+a
6
h
4
+. . .

Si sustituimos h por h/2
f

(x) = Φ(
h
2
) +
a
2
2
2
h
2
+
a
4
2
4
h
4
+
a
6
2
6
h
6
+. . .
y multiplicando por 4
4f

(x) = 4Φ(
h
2
) +a
2
h
2
+
a
4
4
h
4
+
a
6
2
4
h
6
+. . . (5.2)
Diferenciaci´ on e integraci´ on 93
con lo que (5.2)-(5.1) es
3f

(x) = 4Φ(
h
2
) −Φ(h) −
3a
4
4
h
4

15a
6
16
h
6
que, despejando f

(x), da origen a la f´ormula de aproximaci´on
f

(x) ≈
4
3
Φ(
h
2
) −
1
3
Φ(h) con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

que tambi´en puede expresarse
f

(x) ≈ Φ(
h
2
) +
Φ(
h
2
) −Φ(h)
3
con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

Ejemplo: Siendo f(x) = arctan(x), calcula f

(

2) haciendo uso de la
extrapolaci´on de Richarson.
Tomamos h = 0.1.
f

(x) ≈ Φ(h) =
f(x +h) −f(x −h)
2h
=
f(

2 + 0.1) −f(

2 −0.1)
2 0.1
= 0.3339506968
y
f

(x) ≈ Φ(h/2) = 0.3334876594
Usando la extrapolaci´on
f

(x) ≈ Φ(h/2) +
Φ(h/2) −Φ(h)
3
= 0.3333333136
(El valor exacto es 1/3).

94 Cap´ıtulo 5
Si en la f´ormula (5.1.2) denotamos Ψ(h) =
4
3
Φ(
h
2
) −
1
3
Φ(h), b
4
=
−a
4
4
,
b
6
=
−5a
6
16
, . . . obtenemos la expresi´on
f

(x) = Ψ(h) +b
4
h
4
+b
6
h
6
+. . . (5.3)
Sustituyendo h por h/2
f

(x) = Ψ(h/2) +b
4

h
2

4
+b
6

h
2

6
+. . .
y multiplicando por 2
4
16f

(x) = 16Ψ(h/2) +b
4
h
4
+b
6
h
6
4
+. . . (5.4)
Restando (5.4)-(5.3) nos queda
15f

(x) = 16Ψ(h/2) −Ψ(h) −3b
6
h
6
4
+. . .
y al despejar f

(x)
f

(x) =
16
15
Ψ(h/2) −
1
15
Ψ(h) −b
6
h
6
20
+. . .
da origen a la f´ormula
f

(x) ≈
16
15
Ψ(h/2) −
1
15
Ψ(h) con error =h
6
¸
−b
6
1
20
+. . .

que tambi´en puede expresarse
f

(x) ≈ Ψ(h/2) +
Ψ(h/2) −Ψ(h)
15
con error =h
6
¸
−b
6
1
20
+. . .

El proceso puede continuar de forma similar tomando ahora otra funci´on
Ω(h) =
16
15
Ψ(h/2) −
1
15
Ψ(h). Se puede demostrar el siguiente resultado:
Teorema: El algoritmo de Richarson genera aproximaciones a f

(x) cada
vez de un orden superior.
Diferenciaci´ on e integraci´ on 95
Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular
f

(

2) siendo f(x) = arctan(x) y tomando h = 0.1.
Aplicamos la f´ormula (5.1.2) con h y h/2 para obtener las dos primeras
aproximaciones de orden 2
Φ(0.1) =
arctan(

2 + 0.1) −arctan(

2 −0.1)
2 0.1
= 0.33395069677432
Φ(0.05) =
arctan(

2 + 0.05) −arctan(

2 −0.05)
2 0.05
= 0.33348765942111
A partir de esos dos valores y aplicando la f´ormula (5.1.2) calculamos la apro-
ximaci´on Ψ(h) que es de orden 4
Ψ(0.1) = Φ(0.05) +
Φ(0.05) −Φ(0.1))
3
= 0.33333331363671
Calculando Φ(h/4) (Φ(0.025) = 0.33337191390106) podremos tambi´en calcu-
lar Ψ(h/2)
Ψ(0.05) = Φ(0.025) +
Φ(0.025) −Φ(0.05)
3
= 0.33333333206104
y a partir de estos dos valores obtenemos la aproximaci´on Ω(h)
Ω(0.1) = Ψ(0.05) +
Ψ(0.05) −Ψ(0.1)
15
= 0.33333333328933.

En general, el proceso de extrapolaci´on de Richarson puede resumirse as´ı:
Etapa 0. Calculo distintas aproximaciones R(0, h) en funci´on de un par´ametro
h (en nuestro caso R(0, h) = Φ(h) =
f(x+h)−f(x−h)
2h
).
Etapa 1. A partir de R(0, h) y de R(0, h/2) calculo las aproximaciones
R(1, h) = R(0, h/2) +
R(0, h/2) −R(0, h)
4
1
−1
.
Etapa 2. A partir de R(1, h) y de R(1, h/2) calculo las aproximaciones
R(2, h) = R(1, h/2) +
R(1, h/2) −R(1, h)
4
2
−1
.
96 Cap´ıtulo 5
Etapa n. A partir de R(n −1, h) y de R(n −1, h/2) calculo las aproxima-
ciones
R(n, h) = R(n −1, h/2) +
R(n −1, h/2) −R(n −1, h)
4
n
−1
.
Etapa 0 Etapa 1 Etapa 2 Etapa 3 . . .
R(0, h)
R(0, h/2) R(1, h)
R(0, h/4) R(1, h/2) R(2, h)
R(0, h/8) R(1, h/4) R(2, h/2) R(3, h)
. . . . . . . . . . . . . . .
5.2 Integraci´ on num´erica mediante interpolaci´ on
El objetivo es obtener un valor aproximado de

b
a
f(x)dx sin calcular la pri-
mitiva de f(x). La idea es sustituir

b
a
f(x)dx por

b
a
p(x)dx, siendo p(x) una
funci´on que se parezca a f(x), por ejemplo un polinomio interpolador en unos
nodos x
0
, x
1
, . . . , x
n
del intervalo [a, b]. Si utilizamos el m´etodo de Lagrange
para calcular el polinomio interpolador
p(x) =
n
¸
i=0
f(x
i
)l
x
i
(x) con l
x
i
(x) =
n
¸
j=0
x −x
j
x
i
−x
j
,
tendr´ıamos que

b
a
f(x)dx ≈

b
a
p(x)dx =
n
¸
i=0
f(x
i
)

b
a
l
x
i
(x)
es decir, obtenemos una f´ormula como esta

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
). (5.5)
En el ejemplo anterior A
i
=

b
a
l
x
i
(x)dx. Una expresi´on como (5.5) se denomina
f´ormula de cuadratura y los puntos x
i
son los nodos de cuadratura. Las
f´ormulas as´ı construidas son exactas para los polinomios de grado menor o
igual que n (¿por qu´e?). Si en el ejemplo utilizado los nodos est´an igualmente
espaciados, estaremos hablando del ”m´etodo de Newton-Cˆ otes”.
Diferenciaci´ on e integraci´ on 97
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-3 -2 -1 1 2
-1
-0.5
0.5
1
Figura 5.1: f´ormulas de cuadratura gr´aficamente
5.2.1 Regla del trapecio
El caso particular del m´etodo de Newton-Cˆ otes con n = 1 se conoce co-
mo el m´etodo del trapecio. Puesto que l
x
0
(x) =
b−x
a−x
, l
x
1
(x) =
x−a
b−a
, A
0
=

b
a
l
x
0
(x)dx =
1
2
(b −a) y A
0
=

b
a
l
x
1
(x)dx =
1
2
(b −a), la f´ormula de cuadratu-
ra queda as´ı

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
) =
b −a
2
[f(a) +f(b)]
La expresi´on del error del polinomio de interpolaci´on p(x) para n = 1 es
f(x) −p(x) =
f


x
)
2
(x −a)(x −b), de modo que

b
a
f(x)dx −

b
a
p(x)dx =

b
a
f(x) −p(x)dx =

b
a
f


x
)
2
(x −a)(x −b)dx
Puesto que (x − a)(x − b) no cambia de signo en todo [a, b] y suponiendo
que f

(x)/2 es una funci´on continua en [a, b], aplicando la generalizaci´on del
teorema de valor medio del c´alculo integral
1
obtenemos que el error es
f

(ξ)
2

b
a
(x −a)(x −b)dx =
f

(ξ)
2
(a −b)
3
6
1
Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a, b]. Si
g(x) no cambia de signo en todo x ∈ [a, b] y h(x) es continua en [a, b], entonces existe un
punto ξ ∈ [a, b] tal que:

b
a
h(x)g(x)dx = h(ξ)

b
a
g(x)dx,
.
98 Cap´ıtulo 5
para un cierto valor ξ ∈ (a, b). En resumen, si h = b − a, la Regla del
Trapecio quedar´ıa as´ı:

b
a
f(x)dx ≈
h
2
[f(a) +f(b)] con error=−f

(ξ)
h
3
12
(5.6)
para un cierto ξ ∈ [a, b].
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 1
(regla del trapecio).

0.2
0
e
x
2
dx ≈
0.2 −0
2
[e
0
+e
0.2
] = 0.20408107741924
Sabiendo que si x ∈ [0, 0.2] entonces
[f

(x)[ = [2e
x
2
+4x
2
e
x
2
[ ≤ [f

(0.2)[ = [2e
0.2
2
+40.2e
0.2
2
[ = 2.248151272255559,
una cota del error ser´a
[ −2.248151272255559
0.2
3
12
[ = 0.00149876751484.

5.2.2 Regla de Simpson
La f´ormula de Newton-Cˆ otes para n = 2 o n = 3 se llama Regla de Simpson.
El caso n = 2, h =
b−a
2
y x
i
= x
0
+ih, se conoce como la regla de Simpson
1/3:

b
a
f(x)dx ≈
h
3
[f(x
0
) + 4f(x
1
) +f(x
2
)] con error −f
4)
(ξ)
h
5
90
para un cierto ξ ∈ [a, b]. Por ser una f´ormula de Newton-Cˆ otes con tres puntos
es exacta para polinomios de grado menor o igual que 2; pero adem´as es exacta
para los polinomios de grado menor o igual que 3, ya que el t´ermino del error
contiene el factor f
4)
(ξ).
Diferenciaci´ on e integraci´ on 99
El caso n = 3, h =
b−a
3
y x
i
= x
0
+ ih, se conoce como la regla de
Simpson 3/8:

b
a
f(x)dx ≈
3h
8
[f(x
0
) + 3f(x
1
) + 3f(x
2
) +f(x
3
)] con error −f
4)
(ξ)
3h
5
80
para un cierto ξ ∈ [a, b]. Es mejor usar la regla de Simpson 1/3 que la de
3/8, puesto que ambas son de orden 5 y [ − 1/90[ < [ − 3/80[. En general
es preferible usar una regla con n par (n´ umero impar de puntos) que con n
impar.
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 2
(regla de Simpson 1/3).

0.2
0
e
x
2
dx ≈
0.2/2
3
[e
0
+e
0.1
2
+e
0.2
2
] = 0.2027
Sabiendo que si x ∈ [0, 0.2] entonces
[f
4)
(x)[ = [12e
x
2
+ 48e
x
2
x
2
+ 16e
x
2
x
4
[ ≤ [f
4)
(0.2)
= [12e
0.2
2
+ 48e
0.2
2
0.2
2
+ 16e
0.2
2
0.2
4
[ = 14.5147,
una cota del error ser´a
[ −14.5147
(0.2/2)
5
90
[ = 1.6 ∗ 10
−6

5.2.3 Reglas compuestas
Este m´etodo consiste en dividir el intervalo [a, b] en subintervalos y aplicar
en cada uno de ellos una regla simple. Por ejemplo, la regla del trapecio
compuesta consiste en fijar unos puntos a = x
0
< x
1
< < x
n−1
< x
n
= b y
aplicar la regla del trapecio a cada intervalo [x
i−1
, x
i
]:

b
a
f(x)dx =
n
¸
i=1

x
i
x
i−1
f(x)dx ≈
1
2
n
¸
i=1
(x
i
−x
i−1
) [f(x
i−1
) +f(x
i
)] .
Es equivalente a sustituir f(x) por una funci´on que interpole a f(x) y que
est´e formada por trozos de l´ınea. Si los puntos est´an igualmente espaciados
100 Cap´ıtulo 5
(h = x
i
−x
i−1
=
b−a
n
, x
i
= a +ih con i = 1, 2, . . . , n), la regla del trapecio
compuesta nos queda

b
a
f(x)dx ≈
h
2
[f(x
0
) + 2f(x
1
) + +2f(x
n−1
) +f(x
n
)]
con error −
h
2
12
(b −a)f

(ξ)
para un cierto ξ ∈ [a, b]. La f´ormula es exacta para polinomios de grado
menor o igual que 1.
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
Figura 5.2: Regla del trapecio compuesta con 3 y 4 puntos
Ejemplo: Calcula un valor aproximado de

0.2
0
e
x
2
dx mediante la regla
del trapecio compuesta.
Si tomamos tres puntos x
0
= 0, x
1
= 0.1 y x
2
= 0.2

0.2
0
e
x
2
dx ≈
0.1
2

e
0
+ 2e
0.1
2
+e
0.2
2

= 0.201085
Una cota del error ser´ıa


0.1
2
12
(0.2 −0)(e
x
2
(2 + 4e
x
2
))


0.1
2
12
0.2 f

(0.2)

= 0.00187346

Diferenciaci´ on e integraci´ on 101
Si el n´ umero n de intervalos en los que dividimos [a, b] es par podemos
aplicar de forma sencilla la regla de Simpson compuesta con h =
b−a
n
, x
i
=
a+ih (0 ≤ i ≤ n), aplicando a cada dos subintervalos la regla de Simpson 1/3

b
a
f(x)dx =

x
2
x
0
f(x)dx +

x
4
x
2
f(x)dx + +

x
n
x
n−2
f(x)dx
con lo que obtenemos la f´ormula

b
a
f(x) ≈
h
3
[f(x
0
) + 4f(x
1
) + 2f(x
2
) + 4f(x
3
) + 2f(x
4
) +. . .
+ 4f(x
n−1
) +f(x
n
)]
o lo que es lo mismo

b
a
f(x)dx ≈ f(x
0
) +
n
2
¸
i=1
[2f(x
2i
)+4f(x
2i−1
)] +f(x
n
)
con error −
b −a
180
h
4
f
4)
(ξ)
con ξ ∈ [a, b].
5.2.4 M´etodo de los coeficientes indeterminados
Las reglas de Newton-Cˆ otes con n +1 puntos son exactas para los polinomios
de grado n, es decir, si en la f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
)
tomamos los coeficientes A
i
=

b
a
l
x
i
(x)dx, el resultado que obtenemos al calcu-
lar con esa regla la integral de un polinomio de grado n es el valor exacto. El
objetivo de esta secci´on es, dados un conjunto de n + 1 puntos x
0
, x
1
, . . . ,
x
n
, encontrar el valor de los coeficientes A
0
, A
1
, . . . , A
n
que aseguren que la
f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
) es exacta para los polino-
mios de grado n. En cada caso, el problema se puede resolver de forma similar
al siguiente ejemplo.
102 Cap´ıtulo 5
Ejemplo: Encuentra los valores A
0
, A
1
y A
2
para que la f´ormula

1
0
f(x)dx ≈ A
0
f(0) +A
1
f(
1
2
) +A
2
f(1)
sea exacta para los polinomios de grado menor o igual que 2. En particular
la f´ormula tendr´a que ser exacta para los polinomios 1, x y x
2
que forma una
base del conjunto de los polinomios de grado menor o igual que 2:
1 =

1
0
1dx = A
0
+ 1A
1
+A
2
1
2
=

1
0
xdx = 0A
0
+
1
2
A
1
+A
2
1
3
=

1
0
x
2
dx = 0A
0
+
1
4
A
1
+A
2
y obtenemos que A
0
=
1
6
, A
1
=
2
3
y A
2
=
1
6
. Adem´as, si P(x) = a + bx + cx
2
es cualquier otro polinomio de grado menor o igual que 2, la f´ormula ser´ıa
tambi´en exacta porque

1
0
P(x)dx = a

1
0
1dx +b

1
0
xdx +c

1
0
x
2
dx =
= a(A
0
+ 1A
1
+A
2
) +b(
1
2
A
1
+A
2
) +c(
1
4
A
1
+A
2
) =
= A
0
(a) +A
1
(a +
1
2
b + (
1
2
)
2
c) +A
2
(a + 1b + 1
2
c) =
= A
0
P(0) +A
1
P(
1
2
) +A
2
P(1)
que ser´ıa el resultado obtenido al aplicar la f´ormula de cuadratura con los
coeficientes calculados. Adem´as, es la misma f´ormula que se obtendr´ıa con el
m´etodo de Simpson.

5.3 Cuadratura gaussiana
Supongamos que queremos obtener una f´ormula de cuadratura

1
−1
f(x)dx = A
1
f(t
1
) +A
2
f(t
2
)
pero no fijamos previamente los valores de t
1
, t
2
, A
1
y A
2
. Para calcular estos
valores y puesto que tenemos 4 inc´ognitas, le imponemos 4 condiciones: que
Diferenciaci´ on e integraci´ on 103
la f´ormula sea exacta para los polinomios de grado menor o igual que 3, es
decir, para 1, x, x
2
y x
3
:

1
−1
x
3
dx = 0 = A
1
t
3
1
+A
2
t
3
2

1
−1
x
2
dx =
2
3
= A
1
t
2
1
+A
2
t
2
2

1
−1
xdx = 0 = A
1
t
1
+A
2
t
2

1
−1
1dx = 2 = A
1
+A
2
Restando a la ecuaci´on primera la tercera multiplicada por t
2
1
obtenemos
0 = A
2
(t
3
2
−t
2
1
t
2
) = A
2
t
2
(t
2
−t
1
)(t
2
+t
1
)
con lo que se obtiene alguno de los siguientes valores: A
2
= 0, t
2
= 0, t
2
= t
1
,
t
2
= −t
1
. Sustituyendo en el resto de las ecuaciones podemos comprobar que
solo es aceptable t
2
= −t
1
y que en ese caso los par´ametros son A
1
= A
2
= 1
y t
2
= −t
1
=

1
3
. Por tanto la f´ormula

1
−1
f(x)dx = f(−

1
3
) +f(

1
3
)
es exacta para integrar cualquier polinomio de grado menor o igual que 3 en
el intervalo [−1, 1]. Para integrarlos en [a, b] se utiliza una transformaci´on af´ın
que lleve un intervalo en el otro.
Los nodos t
i
(i = 1, 2, . . . , n) en la cuadratura gaussiana coinciden con las
ra´ıces del polinomio de Legendre de grado n. Los polinomios de Legendre se
construyen as´ı:
L
0
(x) = 1 L
1
(x) = x L
n+1
=
(2n + 1)xL
n
(x) −nL
n−1
(x)
n + 1
.
Ejemplo: Calcula un valor aproximado de

π
2
0
sen(x)dx mediante cuadra-
tura gaussiana de dos t´erminos.
Como el intervalo de integraci´on es [0,
π
2
], hemos de hacer un cambio de
variable af´ın que lleve [−1, 1] en [0,
π
2
]. Dicho cambio es x =
π
4
t +
π
4
con lo
que dx =
π
4
dt. Ya hemos deducido cuales son los nodos t
i
y los coeficientes A
i
(i = 1, 2). Si no supi´eramos cuales son, podr´ıamos averiguar primero los nodos
104 Cap´ıtulo 5
calculando las ra´ıces del polinomio de Legendre de grado 2 (L
2
=
3x
2
−x
2
). Pos-
teriormente calcular´ıamos los coeficientes A
i
planteando un sistema de ecua-
ciones. En todo caso se obtendr´ıa
π
2
0
sen(x)dx =

1
−1
sen

π
4
t +
π
4

π
4
dt =
=
π
4
¸
sen

π
4
(−

1
3
) +
π
4

+ sen

π
4
(

1
3
) +
π
4
¸
≈ 0.99847.

5.4 Integraci´ on de Romberg
Para aplicar el m´etodo de integraci´on de Romberg construimos una tabla como
esta
R(0, 0)
R(1, 0) R(1, 1)
R(2, 0) R(2, 1) R(2,2)
R(3, 0) R(3, 1) R(3,2) R(3,3)
. . .
R(M, 0) R(M, 1) R(M, 2) R(M, 3) . . . R(M, M)
donde, si queremos aproximar

b
a
f(x)dx
R(0, 0) =
1
2
(b −a) [f(a) +f(b)]
(Regla del trapecio para 2
0
intervalos)
R(n, 0) =
1
2
R(n −1, 0) +
b −a
2
n
2
n−1
¸
i=1
f(a + (2i −1)
b −a
2
n
)
(Regla del trapecio para 2
n
intervalos)
R(n, m) = R(n, m−1) +
1
4
m
−1
[R(n, m−1) −R(n −1, m−1)]
(Extrapolaci´on de Richarson)
(5.7)
La ´ ultima f´ormula se obtiene aplicando la extrapolaci´on de Richarson que
es un proceso que ya hemos utilizado en otra ocasi´on. El factor
1
4
m
−1
depende
Diferenciaci´ on e integraci´ on 105
del orden de convergencia del m´etodo empleado, en este caso la regla del
trapecio.
Cada valor R(i, j) se considera una aproximaci´on a

b
a
f(x)dx. A partir
de la aproximaci´on R(n, m − 1) que se considera que mejora a la anterior
R(n −1, m−1), se construye otra mejor aproximaci´on R(n, m):
R(n, m) = (+exacta) +
1
4
m
−1
[(+exacta) −(-exacta)] .
Teorema: Si f(x) es una funci´on continua en [a, b] entonces la sucesi´on que
se obtiene en cada columna del m´etodo de Romberg converge a

b
a
f(x)dx.
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
e
x
2
dx.
R(0, 0) es la regla del trapecio con 2
0
= 1 intervalo:
R(0, 0) =
2 −0
2
(e
0
+e
2
2
) ≈ 55.5981
R(1, 0) es la regla del trapecio compuesta con 2
1
intervalos:
R(1, 0) =
1
2

e
0
+ 2e
1
+e
2

= 30.5174
R(2, 0) es la regla del trapecio compuesta con 2
2
intervalos:
R(2, 0) =
2/4
2

e
0
+ 2e
0.5
+ 2e
1
+ 2e
1.5
+e
2

= 20.6446
y de modo similar los t´erminos R(n, 0) de la primera columna. El resto de
t´erminos se calculan seg´ un la f´ormula 5.7 La mejor aproximaci´on obtenida
ser´ıa

2
0
e
x
2
dx ≈ 16.4529.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 55.5981
n = 1 30.5174 22.1572
n = 2 20.6446 17.3537 17.0334
n = 3 17.5651 16.5386 16.4843 16.4756
n = 4 16.7354 16.4588 16.4535 16.4530 16.4529

106 Cap´ıtulo 5
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
x
2
dx.
Obtenemos la tabla siguiente en donde a mejor aproximaci´on obtenida
ser´ıa

2
0
x
2
dx ≈ 2.6667.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 4
n = 1 3 2.6667
n = 2 2.75 2.6667 2.6667
n = 3 2.6875 2.6667 2.6667 2.6667
n = 4 2.6719 2.6667 2.6667 2.6667 2.6667

Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

0.5
0.2
e
−x
2
dx.
Obtenemos la tabla siguiente
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 0.69302
n = 1 0.66211 0.65181
n = 2 0.65947 0.65859 0.65904
n = 3 0.65898 0.65882 0.65883 0.65883
n = 4 0.65886 0.65882 0.65882 0.65882 0.65882
La mejor aproximaci´on obtenida ser´ıa

0.5
0.2
e
−x
2
dx ≈ 0.65882.

Diferenciaci´ on e integraci´ on 107
5.5 Cuadratura adaptativa
A grandes rasgos, el m´etodo consiste en calcular un valor aproximado de una
integral

b
a
f(x)dx dividiendo el intervalo [a, b] en intervalos disjuntos [x
i
, x
i+1
]
con las siguientes condiciones:
• Se fija un par´ametro llamado tolerancia T.
• Se obtienen dos estimaciones de

x
i+1
x
i
f(x)dx mediante una f´ormula de
cuadratura.
• Se fija la tolerancia en el intervalo [x
i
, x
i+1
]:
T
[
x
i
, x
i+1
] =
T
(b −a)
(x
i+1
−x
i
).
• Si la diferencia entre las dos estimaciones de

x
i+1
x
i
f(x)dx es menor que
T
[x
i
,x
i+1
]
se estima definitivamente

x
i+1
x
i
f(x)dx por extrapolaci´on. En
caso contrario se divide el intervalo en dos subintervalos disjuntos.
• Se estima

b
a
f(x)dx:

b
a
f(x)dx =
n
¸
i=0

x
i+1
x
i
f(x)dx
Ejemplo: Fijado un valor de tolerancia T = 0.02, calcula

1
0.2
1
x
2
dx usando
la regla de Simpson.
Paso 1. Aplicamos la regla de Simpson para calcular la integral:
h
1
=
1 −0.2
2
= 0.4 ⇒S
1
[0.2, 1] = 4.94814815.
Paso 2. Aplicamos la regla de Simpson compuesta en dos subintervalos
de [0.2, 1], en concreto en [0.2, 0.6] y en [0.6, 1]:
h
2
=
0.6 −0.2
2
= 0.2 ⇒ S
2
[0.2, 0.6] = 3.51851852.
h
2
=
1 −0.6
2
= 0.2 ⇒ S
2
[0.6, 1] = 0.66851852.
108 Cap´ıtulo 5
Paso 3. Hasta ahora tenemos dos aproximaciones a

1
0.2
1
x
2
dx, a saber:
S
1
[0.2, 1] y S
2
[0.2, 0.6] + S
2
[0.6, 1]. Calculo la diferencia entre ambas estima-
ciones:
S
1
[0.2, 1] −(S
2
[0.2, 0.6] +S
2
[0.6, 1]) = 0.7611111 > T = 0.02.
Si la diferencia hubiera sido menor que T, el proceso finalizar´ıa efectuando
una extrapolaci´on del tipo:
(+exacta) +
1
15
[(+exacta) −(-exacta)]
entendiendo que la primera estimaci´on es menos exacta que la segunda. Puesto
que la diferencia es mayor que T, el proceso contin´ ua fijando la tolerancia de
forma proporcional al tama˜ no de cada subintervalo y de modo que sume la
tolerancia total T = 0.02. Con estas condiciones la tolerancia ser´a 0.01 en
[0.2, 0.6] y 0.01 en [0.6, 1].
Paso 4. Estudiamos el intervalo [0.6, 1]. Tenemos la estimaci´on S
2
[0.6, 1]
de

1
0.6
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.6, 0.8] (S
3
[0.6, 0.8] = 0.41678477) y en
[0.8, 1] (S
3
[0.6, 1] = 0.25002572). Comparamos ambas estimaciones:
S
2
[0.6, 1]−(S
3
[0.6, 0.8] +S
3
[0.8, 1]) = 0.66851852−0.66681049 = 0.001708 < T
[0.6,1]
= 0.01
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

1
0.6
1
x
2
dx :

1
0.6
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)]
0.66681049 +
1
15
(0.66681049 −0.66851852) = 0.66669662
Paso 5. Actuamos ahora sobre el intervalo [0.2, 0.6] donde la toleran-
cia tambi´en es 0.01. Contamos con una estimaci´on S
2
[0.2, 0.6] de la integral
en el intervalo y aplicamos la regla de Simpson en [0.2, 0.4] (S
3
[0.2, 0.4] =
2.52314815)y en [0.4, 0.6] (S
3
[0.4, 0.6] = 0.83435926) para obtener una nueva
(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]). Comparamos ambas estimaciones:
S
2
[0.2, 0.6] −(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]) = 0.161111 > T
[0.2,0.6]
= 0.01.
Diferenciaci´ on e integraci´ on 109
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y
dividimos el intervalo [0.2, 0.6] en los intervalos [0.2, 0.4] y [0.4, 0.6]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo
[0.2,0.6] (T
[0.2,0.6]
= 0.01). Con estas condiciones T
[0.2,0.4]
= 0.005 y T
[0.4,0.6]
=
0.005.
Paso 6. Estudiamos el intervalo [0.4, 0.6]. Tenemos la estimaci´on S
3
[0.4, 0.6]
de

0.6
0.4
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.5, 0.6] (S
4
[0.4, 0.5] = 0.50005144) y en
[0.5, 0.6] (S
4
[0.5, 0.6] = 0.33334864). Comparamos ambas estimaciones:
S
3
[0.4, 0.6] −(S
4
[0.4, 0.5] +S
4
[0.5, 0.6]) = 0.000859 < T
[0.4,0.6]
= 0.005
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.6
0.4
1
x
2
dx :

0.6
0.4
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.8333428.
Paso 7. Estudiamos el intervalo [0.2, 0.4]. Tenemos la estimaci´on S
3
[0.2, 0.4]
de

0.4
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.3] y [0.3, 0.4]. Comparamos ambas
estimaciones:
S
3
[0.2, 0.4] −(S
4
[0.2, 0.3] +S
4
[0.3, 0.4]) > T
[0.2,0.4]
= 0.005.
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y di-
vidimos el intervalo [0.2, 0.4] en los intervalos [0.2, 0.3] y [0.3, 0.4]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el inter-
valo [0.2,0.4] (T
[0.2,0.4]
= 0.005). Con estas condiciones T
[0.2,0.3]
= 0.0025 y
T
[0.3,0.4]
= 0.0025.
Paso 8. Estudiamos el intervalo [0.3, 0.4]. Tenemos la estimaci´on S
4
[0.3, 0.4]
de

0.4
0.3
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.3, 0.35] y [0.35, 0.4]. Comparamos ambas
estimaciones:
S
4
[0.3, 0.4] −(S
5
[0.3, 0.35] +S
5
[0.35, 0.4]) = 0.0002220 < T
[0.3,0.4]
= 0.0025.
110 Cap´ıtulo 5
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.4
0.3
1
x
2
dx :

0.4
0.3
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.83333492.
Paso 9. Estudiamos el intervalo [0.2, 0.3]. Tenemos la estimaci´on S
4
[0.2, 0.3]
de

0.3
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.25] y [0.25, 0.3]. Comparamos ambas
estimaciones:
S
4
[0.2, 0.3] −(S
5
[0.2, 0.25] +S
5
[0.25, 0.3]) < T
[0.2,0.3]
= 0.0025.
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.3
0.2
1
x
2
dx :

0.3
0.2
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 1.666686.
Por lo tanto, la estimaci´on mediante este m´etodo de

1
0.2
1
x
2
dx ser´ıa:

1
0.2
1
x
2
dx =

0.3
0.2
1
x
2
dx +

0.4
0.3
1
x
2
dx +

0.6
0.4
1
x
2
dx +

1
0.6
1
x
2
dx
= 1.666686 + 0.83333492 + 0.8333428 + 0.66669662 = 4.00005957.

T
a
b
l
a
d
i
f
e
r
e
n
c
i
a
c
i
´o
n
e
i
n
t
e
g
r
a
c
i
´o
n
n
u
m
´e
r
i
c
a
D
e
r
i
v
a
c
i
´o
n
f

(
x
)
=
f
(
x
+
h
)

f
(
x
)
h

h 2
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h

h
2
6
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

2
f
(
x
)
+
f
(
x

h
)
h
2

h
2
1
2
f
4
)
(
ξ
)
f

(
x
k
)
=

n i
=
0
f
(
x
i
)
L
i
(
x
k
)
1
(
n
+
1
)
!
f
n
+
1
)
(
ξ
x
k
)
Π
n j
=
0
,
j
=
k
(
x
k

x
j
)
R
(
0
,
h
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h
R
(
n
,
h
)
=
R
(
n

1
,
h
/
2
)
+
1
4
n

1
[
R
(
n

1
,
h
/
2
)

R
(
n

1
,
h
)
]
I
n
t
e
g
r
a
c
i
´o
n

n i
=
0
(

b
a
l
i
(
x
)
d
x
)
f
(
x
i
)
h 2
[
f
(
x
0
)
+
f
(
x
1
)
]

1
1
2
h
3
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
f
(
x
2
)
]

1
9
0
h
5
f
4
)
(
ξ
)
3
h
8
[
f
(
x
0
)
+
3
f
(
x
1
)
+
3
f
(
x
2
)
+
f
(
x
3
)
]

3
8
0
h
5
f
4
)
(
ξ
)
h 2
[
f
(
x
0
)
+
2
f
(
x
1
)
+
2
f
(
x
2
)
+
·
·
·
+
2
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
2
h
2
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
2
f
(
x
2
)
+
4
f
(
x
3
)
+
·
·
·
+
4
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
8
0
h
4
f
4
)
(
ξ
)
f
(

1 3
)
+
f
(

1 3
)
R
(
n
,
m
)
=
R
(
n
,
m

1
)
+
1
4
m

1
[
R
(
n
,
m

1
)

R
(
n

1
,
m

1
)
]
S
i
+
1
[
a
,
b
]
+
1
1
5

S
i
+
1
[
a
,
b
]

S
i
[
a
,
b
]

1
Cap´ıtulo 6
Resoluci´ on num´erica de
ecuaciones diferenciales
6.1 Existencia y unicidad de soluciones
Una ecuaci´on diferencial ordinaria (EDO) es una expresi´on de la forma
F(x, y(x), y

(x), y

(x), . . . ) = 0,
es decir, una ecuaci´on que contiene una variable independiente x, otra depen-
diente de la primera y(x) y derivadas de distinto orden de la segunda respecto
de la primera (y

(x), y

(x), . . . ).
El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´on.
El grado de una EDO es el mayor exponente de la derivada de mayor orden
que aparece en la ecuaci´on.
Ejemplo:
ecuaci´on orden grado
y

= y tan(x + 3) 1 1
(y

)
2
= y tan(x + 3) 1 2
y

= y tan(x + 3) 2 1

La soluci´on general de una EDO es una familia de funciones que verifican
la EDO. En general, la soluci´on general de una EDO de orden k es una familia
de funciones que depende de una par´ametro k.
113
114 Cap´ıtulo 6
Ejemplo: La soluci´on general de y

= sen(x) es y = −cos(x) + k con
k ∈ R. La soluci´on general de y

= −y es y = a sen(x) +b cos(x), con a ∈ R y
b ∈ R.

Una soluci´on particular de una EDO es un elemento particular de la solu-
ci´on general. Una soluci´on singular es una funci´on que verifica la EDO pero
que no est´a recogida en la soluci´on general.
Ejemplo: La ecuaci´on y

= y
1/3
tiene como soluci´on general y = (
2
3
x)
3
2
+C
con C ∈ R. Una soluci´on particular es y = (
2
3
x)
3
2
+ 4 y una soluci´on singular
es y = 0.

Si una EDO de primer orden F(x, y(x), y

(x)) = 0 se puede expresar de la
forma y

= f(x, y(x)) entonces
Teorema: Si f(x, y) y
∂f(x,y)
∂y
son continuas en un rect´angulo D del plano
R
2
y (x
0
, y
0
) ∈ D, entonces existe una ´ unica soluci´on de la ecuaci´on y

=
f(x, y) tal que y(x
0
) = y
0
.
Ejemplo: Encuentra d´onde tiene soluci´on ´ unica la ecuaci´on y

=
−y
x
.
Sea f(x, y) =
−y
x
. La gr´afica de dicha funci´on aparece en la figura 6.1.
f(x, y) es continua en R
2
− ¦x = 0¦.
∂f(x,y)
∂y
=
−1
x
es continua tambi´en en
R
2
−¦x = 0¦.
Por el teorema anterior, si existe un rect´angulo D ⊂ R
2
− ¦x = 0¦ y
(x
0
, y
0
) ∈ D, entonces el problema y

= f(x, y) tal que y(x
0
) = y
0
tiene
soluci´on ´ unica. Por ejemplo, el problema y

=
−y
x
con y(2) = 1, tiene soluci´on
´ unica porque (2, 1) est´an dentro de un rect´angulo que a su vez est´an contenido
en R
2
−¦x = 0¦. Dicha soluci´on es y =
2
x
. Sin embargo, si la condici´on inicial
es y(0) = 2 el problema no tiene soluci´on.

En general, la b´ usqueda de soluciones exactas de una ecuaci´on diferencial
es un problema dif´ıcil. Por ello se usan m´etodos num´ericos para encontrar
soluciones aproximadas. El planteamiento t´ıpico de una ecuaci´on diferencial
ordinaria de grado 1 con valor inicial es
Ecuaciones diferenciales 115
-10
-5
0
5
10
-10
-5
0
5
10
-5
-2.5
0
2.5
5
-10
-5
0
5
10
Figura 6.1: La funci´on f(x, y) =
y
x
y

= f(x, y(x)) y(x
0
) = y
0
(6.1)
Por ejemplo
y

= −2x −y y(0) = −1.
La soluci´on num´erica de una EDO ser´a una tabla de valores aproximados
de la funci´on y(x) en un conjunto de puntos x
i
. Usando esa tabla podemos
construir una aproximaci´on de la funci´on mediante, por ejemplo, los m´etodos
de interpolaci´on. En lo que sigue, trabajaremos con puntos x
i
igualmente
espaciados, es decir, separados cada uno del siguiente por un tama˜ no de paso
h, con lo que x
i
= x
0
+ ih. y(x
i
) denotar´a el valor exacto de la funci´on y(x)
en el punto x
i
; y
i
ser´a un valor aproximado de y(x
i
).
6.2 M´etodo de la serie de Taylor
Para resolver el problema (6.1), el m´etodo de Taylor de orden k propone
sustituir la funci´on desconocida y(x) por su polinomio de Taylor de orden k
116 Cap´ıtulo 6
en un entorno de cada punto x
i
, es decir
y(x
i+1
) = y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +y

(x
i
)
h
2
2
+ +y
k)
(x
i
) +
h
k
k!
Los valores de la funci´on y(x) y de sus derivadas en x
i
son desconocidos en
general, por lo que hay que sustituirlos por aproximaciones:
y(x
i
) ≈ y
i
y

(x
i
) ≈ f(x
i
, y
i
)
y

(x
i
) ≈
d f(x
i
, y
i
)
d x
. . .
y
k)
(x
i
) ≈
d
k-1
f(x
i
, y
i
)
d x
k−1
De este modo obtenemos la expresi´on del m´etodo:
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
A la hora de derivar f(x, y) respecto de x hay que tener en cuenta que es una
funci´on de dos variables y que y es funci´on de x. De modo que, denotando
f
x
y f
y
a las derivadas parciales de f(x, y) respecto x e y, tendr´ıamos, por
ejemplo que
d f(x, y)
d x
= f
x
(x, y) +f
y
(x, y)y

(x, y) = f
x
(x, y) +f
y
(x, y)f(x, y).
Elegido, el tama˜ no del paso h, el m´etodo de Taylor paso a paso ser´ıa el
siguiente:
Paso 1. Partimos del punto x
0
, obtenemos una aproximaci´on de y(x
1
)
y
1
= y
0
+f(x
0
, y
0
)h +
d f(x
0
, y
0
)
d x
h
2
2
+ +
d
k-1
f(x
0
, y
0
)
d x
k−1
h
k
k!
Paso 2. Partimos de x
1
= x
0
+h y calculamos una aproximaci´on y(x
2
):
y
2
= y
1
+f(x
1
, y
1
)h +
d f(x
1
, y
1
)
d x
h
2
2
+ +
d
k-1
f(x
1
, y
1
)
d x
k−1
h
k
k!
Ecuaciones diferenciales 117
Paso i+1. Partimos de x
i
= x
i−1
+h y calculamos una aproximaci´on de
y(x
i+1
):
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
Ejemplo: Proporciona tres valores aproximados de la funci´on y(x), solu-
ci´on de y

= −2x −y con y(0) = −1 mediante el m´etodo de Taylor con k = 4
y tama˜ no de paso h = 0.1.
Calculamos el desarrollo de Taylor hasta grado 4 de la funci´on y(x) en un
punto cualquiera x
i
:
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2
h
2
+
y

(x
i
)
3!
h
3
+
y
4)
(x
i
)
4!
h
4
Denotando y
i
al valor aproximado de y(x
i
) y dado que
y

(x) = f(x, y)
y

(x) = [y

(x)]

= [−2x −y(x)]

= −2 −y

(x) = −2 −f(x, y)
y

(x) = [y

(x)]

= −y

(x) = 2 +y

(x) = 2 +f(x, y)
y
4)
(x) = [y

(x)]

= [−y

(x)]

= −y

(x) = −2 −y

(x) = −2 −f(x, y)
definimos el m´etodo
y
i+1
= y
i
+f(x
i
, y
i
)h +
−2 −f(x
i
, y
i
)
2
h
2
+
2 +f(x
i
, y
i
)
3!
h
3
+
−2 −f(x
i
, y
i
)
4!
h
4
Paso 1. Como y
0
= −1 y f(x
0
, y
0
) = f(0, −1) = 1, obtenemos el valor
aproximado
y
1
= −1 + 0.1 −1.5 0.1
2
+ 0.5 0.1
3
−0.125 0.1
4
= −0.9645125.
Paso 2. Como y
1
= −0.9145125 y f(x
1
, y
1
) = f(0.1, −0.9145125) = 0.7145125,
obtenemos el valor aproximado
y
2
= −0.8561927.
Paso 3. Como y
2
= −0.8561927 y f(x
2
, y
2
) = f(0.2, −0.8561927) = 0.4561927,
obtenemos el valor aproximado
y
3
= −0.8224553

118 Cap´ıtulo 6
6.2.1 M´etodo de Euler
Es el m´etodo anterior usando el polinomio de Taylor de orden 1
y
i+1
= y
i
+f(x
i
, y
i
)h
Ejemplo. Resuelve la ecuaci´on y

= −2x − y con y(0) = −1 mediante el
m´etodo de Euler.
Con estos datos se tiene que x
0
= 0, y
0
= −1, f(x
0
, y
0
) = 1 con lo que
y
1
= y
0
+f(x
0
, y
0
)h = −1 + 1 0.1 = −0.9
Puesto que f(x
1
, y
1
) = 0.7, se deduce que
y
2
= y
1
+f(x
1
, y
1
)h = −0.9 + 0.7 0.1 = −0.83
Puesto que f(x
2
, y
2
) = 0.43, se deduce que
y
3
= y
2
+f(x
2
, y
2
)h = −0.83 + 0.43 0.1 = −0.787
Puesto que f(x
3
, y
3
) = 0.187, se deduce que
y
4
= y
3
+f(x
3
, y
3
)h = −0.787 + 0.187 0.1 = −0.7683

6.2.2 Errores
Al resolver num´ericamente una ecuaci´on diferencial aparecen varios tipos de
errores:
1. error de truncamiento local
2. error de truncamiento global
3. error de redondeo local
4. error de redondeo global
5. error total
Ecuaciones diferenciales 119
El error de truncamiento local es el que aparece en un paso cuando reem-
plazamos un proceso infinito por uno finito. Por ejemplo, en el m´etodo de
Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de
infinitos t´erminos) por los primeros k-t´erminos. En este caso, para un cierto
c
i
∈ R, se tiene que
y(x
i
+h) = y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
+
y
k+1)
(c
i
)
(k + 1)!
h
k+1
y dado que en el algoritmo usamos la aproximaci´on
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
se deduce que el error local en el paso i-´esimo es proporcional a h
k+1
, digamos
C
i
h
k+1
. Un error de esa magnitud se dice que es O(h
k+1
).
La acumulaci´on de todos los errores de truncamiento local genera el error
de truncamiento global. Si al aplicar un m´etodo el error de truncamiento
local es O(h
k+1
), el tama˜ no de paso es h, el punto inicial es x
0
y el punto final
es x
n
, entonces el n´ umero de pasos ser´a n =
x
n
−x
0
h
y puesto que
C
1
h
k+1
+C
2
h
k+1
+ +C
n
h
k+1
= h
k+1
(C
1
+C
2
+ +C
n
) ≤
≤ h
k+1
nmax¦C
1
, C
2
, . . . , C
n
¦ = Ch
k
siendo C = (x
n
−x
0
) max¦C
1
+C
2
+ +C
n
¦, el error de truncamiento global
ser´a O(h
k
). Si un m´etodo tiene error de truncamiento global O(h
k
) decimos
que el procedimiento num´erico es de orden k. El m´etodo de Taylor usando
el desarrollo hasta grado k es un m´etodo de orden k.
El error de redondeo local es el que en cada paso es provocado por la
limitada precisi´on de nuestras m´aquinas de c´omputo, como ya se coment´o el
tema inicial del curso. El error de redondeo global es la acumulaci´on de los
errores de redondeo local en los pasos anteriores. El error total es la suma
de los errores de truncamiento global y redondeo global.
6.3 M´etodos de Runge-Kutta
Los m´etodos de Taylor tienen el inconveniente de la dificultad de c´alculo de
las sucesivas derivadas de la funci´on y(x). En los m´etodos de Runge-Kutta se
120 Cap´ıtulo 6
elimina esa dificultad. Las ideas que dan origen a este conjunto de m´etodos
se resumen en los siguientes pasos:
Paso 1. Consideramos la igualdad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
y despejamos y(x
i+1
)
y(x
i+1
) = y(x
i
) +

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
Paso 2. Realizamos el cambio de variable x = x
i
+ θh en la integral
anterior y obtenemos
y(x
i+1
) = y(x
i
) +h

1
0
f(x
i
+θh, y(x
i
+θh))dθ. (6.2)
Paso 3. Consideramos el conjunto de puntos 0 = θ
0
≤ θ
1
≤ . . . θ
m
≤ 1 del
intervalo de integraci´on [0, 1] y estimamos la integral anterior mediante una
f´ormula de cuadratura del siguiente tipo

1
0
F(θ)dθ ≈ A
0
F(θ
0
) +A
1
F(θ
1
) + +A
m
F(θ
m
)
con lo que, denotando x

j
= x
i

j
h, en la ecuaci´on (6.2) obtenemos
y(x
i+1
) ≈ y(x
i
) + h

A
0
f

x

0
, y(x

0
)

+
A
1
f

x

1
, y(x

1
)

+ + A
m
f

x

m
, y(x

m
)

. (6.3)
La f´ormula de cuadratura elegida puede variar, pero se le ha de exigir que
al menos sea exacta para las funciones constantes, lo que se traduce en que
los coeficientes han de cumplir la condici´on
A
0
+A
1
+ +A
m
= 1
El m´etodo de Runge-Kutta ser´a la f´ormula que resulta de sustituir en la ecua-
ci´on (6.3) los valores y(x
i
), y(x

0
), y(x

1
), . . . , y(x

m
) por sus valores aproxi-
mados. Si bien dispondremos en cada paso del valor y
i
que aproxima a y(x
i
),
no ocurre lo mismo con las aproximaciones de y(x

0
), y(x

1
), . . . , y(x

m
).
Ecuaciones diferenciales 121
Paso 4. En esta etapa conseguiremos obtener un algoritmo para las apro-
ximaciones aludidas en el apartado anterior. De forma similar a como se
obtuvo la ecuaci´on (6.2), llegamos a la igualdad
y(x

j
) = y(x
i
) +h

θ
j
x
i
f(x
i
+θh, y(x
i
+θh))dθ
y aplicando una f´ormula de cuadratura para cada j

θ
j
x
i
F(θ)dθ ≈ B
j
0
F(θ
0
) +B
j
1
F(θ
1
) + +B
j
j−1
F(θ
j−1
) (6.4)
a la integral anterior, se obtienen las aproximaciones buscadas
y(x

j
) ≈ y(x
i
) +h
j−1
¸
k=0
B
j
k
f(x

k
, y(x

k
)).
Las f´ormulas de cuadraturas usadas en (6.4) han de ser exactas al menos para
las funciones constantes, por lo tanto los coeficientes deben verificar
B
j
0
+B
j
1
+ +B
j
j−1
= θ
j
j = 1, . . . , m.
Paso 5. Si denotamos y

j
a una estimaci´on de y(x

j
), un m´etodo de Runge-
Kutta quedar´ıan as´ı:
y
i+1
= y
i
+h[A
0
f(x

0
, y

0
) +A
1
f(x

1
, y

1
) + +A
m
f(x

m
, y

m
)

(6.5)
siendo
y

0
= y
i
y

1
= y
i
+h

B
1
0
f(x

0
, y

0
)

y

2
= y
i
+h

B
2
0
f(x

0
, y

0
) +B
2
1
f(x

1
, y

1
)

. . .
y

m
= y
i
+h

B
m
0
f(x

0
, y

0
) +B
m
1
f(x

1
, y

1
) +. . .
+B
m
m−1
f(x

m−1
, y

m−1
)

Previamente deben fijarse los valores
0 = θ
0
≤ θ
1
≤ θ
2
≤ . . . θ
m
≤ 1
122 Cap´ıtulo 6
as´ı como los siguientes par´ametros que han de cumplir con las condiciones de
las sumas correspondientes que aparecen en el cuadro
A
0
A
1
A
2
. . . A
m
¸
m
r=0
A
r
= 1
B
1
0
B
2
0
B
m
0
B
2
1
. . . B
m
1
. . .
B
m
m−1
B
1
0
= θ
1
B
2
0
+B
2
1
= θ
2
. . .
¸
m−1
k=0
B
m
k
= θ
m
Un m´etodo como el anterior se conoce con el nombre de m´etodo de Runge-
Kutta de m+1 etapas, debido a que la f´ormula (6.5) requiere m+1 evaluaciones
de la funci´on f(x, y).
Ejemplo: Para m = 0 (una etapa), el m´etodo de Runge-Kutta que resulta
es el m´etodo de Euler.
Para m = 1 (dos etapas), podemos obtener, entre otras posibilidades, el
m´etodo de Heun:
θ
0
= 0, θ
1
= 1
A
0
= 1/2 A
1
= 1/2 A
0
+A
1
= 1
B
1
0
= 1
B
1
0
= θ
1
= 1
y
i+1
= y
i
+h[
1
2
f(x
i0
, y
i0
) +
1
2
f(x
i1
, y
i1
)

siendo
y
i0
= y
i
y
i1
= y
i
+hf(x
i
, y
i
)
con lo que
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

(6.6)
El llamado m´etodo de Euler modificado sale con la elecci´on
θ
0
= 0, θ
1
= 1/2
Ecuaciones diferenciales 123
A
0
= 0 A
1
= 1 A
0
+A
1
= 1
B
1
0
= 1/2
B
1
0
= θ
1
= 1/2
y
i+1
= y
i
+h[f(x
iθ1
, y
iθ1
)]
siendo
y
i0
= y
i
y
i1/2
= y
i
+h
1
2
f(x
i
, y
i
)
con lo que el m´etodo queda
y
i+1
= y
i
+hf

x
i
+
h
2
, y
i
+
h
2
f(x
i
, y
i
)

(6.7)
Otra elecci´on posible es
θ
0
= 0, θ
1
= 2/3
A
0
= 1/4 A
1
= 3/4 A
0
+A
1
= 1
B
1
0
= 2/3
B
1
0
= θ
1
= 2/3
y
i+1
= y
i
+h[
1
4
f(x

0
, y

0
) +
3
4
f(x

1
, y

1
)

siendo
y

0
= y
i
y

1
= y
i
+h

2
3
f(x

0
, y

0
)

con lo que el m´etodo queda as´ı
y
i+1
= y
i
+h[
1
4
f(x
i
, y
i
) +
3
4
f(x
i
+
2
3
h, y
i
+h
2
3
f(x
i
, y
i
)

El m´etodo cl´asico de Runge-Kutta es de m = 3 (cuatro etapas) definido
por los par´ametros
0 = θ
0
θ
1
= 1/2 θ
2
= 1/2 θ
3
= 1
124 Cap´ıtulo 6
A
0
= 1/6 A
1
= 1/3 A
2
= 1/3 A
3
= 1/6
¸
3
r=0
A
r
= 1
B
1
0
= 1/2 B
2
0
= 0 B
3
0
= 0
B
2
1
= 1/2 B
3
1
= 0
B
3
2
= 1
B
1
0
= 1/2 B
2
0
+B
2
1
= 1/2
¸
2
k=0
B
3
k
= 1
que da lugar a
y
i+1
= y
i
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) (6.8)
donde
K
1
= f(x
i
, y
i
) K
2
= f(x
i
+
h
2
, y
i
+
h
2
K
1
)
K
3
= f(x
i
+
h
2
, y
i
+
h
2
K
2
) K
4
= f(x
i
+h, y
i
+hK
3
)

Ejercicio: Aplica tres pasos del m´etodo cl´asico de Runge-Kutta de orden
4 con h = 1/128 para resolver la ecuaci´on
y

=
yx −y
2
x
2
y(1) = 2.
Paso 1. Partimos de x
0
= 1, y
0
= 2. Para aplicar la ecuaci´on (6.8)
previamente calculamos
K
1
= f(x
0
, y
0
) = f(1, 2) = −2 K
2
= f(x
0
+
h
2
, y
0
+
h
2
K
1
) = −1.95355
K
3
= f(x
0
+
h
2
, y
0
+
h
2
K
2
) = −1.95409
K
4
= f(x
0
+h, y
0
+hK
3
) = −1.90898.
Con estos datos obtenemos
y
1
= y
0
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.98473,
Paso 2. Partimos de x
1
= 1 +
1
128
, y
1
= 1.98473. Calculamos
K
1
= f(x
1
, y
1
) = −1.90899 K
2
= f(x
1
+
h
2
, y
1
+
h
2
K
1
) = −1.86520
K
3
= f(x
1
+
h
2
, y
1
+
h
2
K
2
) = −1.86570
K
4
= f(x
1
+h, y
1
+hK
3
) = −1.82316.
Ecuaciones diferenciales 125
Con estos datos obtenemos
y
2
= y
1
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.97016.
Paso 3. Partimos de x
2
= 1 +
2
128
, y
2
= 1.97016. Calculamos
K
1
= f(x
2
, y
2
) = −1.82311 K
2
= f(x
2
+
h
2
, y
2
+
h
2
K
1
) = −1.78186
K
3
= f(x
2
+
h
2
, y
2
+
h
2
K
2
) = −1.78231
K
4
= f(x
2
+h, y
2
+hK
3
) = −1.74215.
Con estos datos obtenemos
y
3
= y
2
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.96088.

6.3.1 Errores
Los m´etodos de Runge-Kutta tienen tambi´en su error de truncamiento global,
es decir, su orden. Existen m´etodos de Runge-Kutta de orden k con k menor
o igual que el n´ umero de etapas m + 1. Se da la igualdad para k = 1, 2, 3, 4.
Es decir, los m´etodos de Runge-Kutta de 1,2,3,4 etapas tienen orden 1,2,3,4,
respectivamente. Para conseguir orden k = 5 es necesario 6 etapas; para k = 6,
7 etapas; en general para k ≥ 7 se necesitan un n´ umero de etapas mayor o
igual que k + 2.
6.4 M´etodos multipaso
Tanto los m´etodos de Taylor como los de Runge-Kutta son m´etodos de un
paso, porque para calcular el valor aproximado y
i+1
solo se usa, adem´as de x
i
y de h, el valor aproximado anterior y
i
. Los m´etodos multipaso se caracterizan
por obtener y
i+1
a partir de los valores h, x
i
, y
i
, x
i−1
, y
i−1
, . . . , x
i−k
, y
i−k
.
Partimos siempre de la ecuaci´on
y

= f(x, y) y(x
0
) = y
0
.
Ejemplo: Un primer ejemplo sencillo de un m´etodo multipaso se puede
obtener de la siguiente forma. Sabemos que
y

(x) ≈
y(x +h) −y(x −h)
2h
126 Cap´ıtulo 6
con lo que
y(x
i
) ≈
y(x
i+1
) −y(x
i−1
)
2h
y se deduce que
y(x
i+1
) ≈ y(x
i−1
) + 2 h y

(x
i
),
lo que sugiere el m´etodo
y
i+1
= y
i−1
+ 2 h f(x
i
, y
i
).
Para poder obtener el punto y
i+1
son necesarios los dos valores anteriores y
i
,
y
i−1
. Es un m´etodo de dos pasos. Para empezar a aplicarlo tenemos que
disponer de y
0
e y
1
. Este ´ ultimo puede calcularse con un m´etodo de un paso.

El que sigue es un proceso para obtener un conjunto de m´etodos multipasos.
Partimos de la relaci´on
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx,
y aplicamos el cambio de variable x = x
i
+θh
y(x
i+1
) −y(x
i
) = h

1
0
f(x
i
+θh, y(x
i
+θh))dθ.
Aproximamos la integral anterior por una f´ormula de cuadratura

1
0
F(θ)dθ = A
0
F(θ
0
) +A
1
F(θ
1
) + +A
k
F(θ
k
) (6.9)
y nos queda
y(x
i+1
) −y(x
i
) ≈ h

A
0
f(x
i

0
h, y(x
i
+θh))+
+A
1
f(x
i

1
h, y(x
i
+θh))+
+ +A
k
f(x
i

k
h, y(x
i

k
h))

(6.10)
lo cual sugiere un m´etodo que resultar´a de sustituir los valores de la funci´on
por valores aproximados.
Ecuaciones diferenciales 127
Ejemplo: Deduzcamos el m´etodo de orden 2
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

(6.11)
Si en la f´ormula de cuadratura (6.9) tomamos los puntos
θ
0
= 0 θ
1
= −1
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
1
= −
1
2
y la soluci´on del sistema anterior es A
0
=
3
2
y A
1
= −
1
2
. Sustituyendo en
(6.10) nos queda
y(x
i+1
) −y(x
i
) ≈ h

3
2
f(x
i
, y(x
i
)) −
1
2
f(x
i−1
, y(x
i−1
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
Para aplicar la f´ormula (6.11) necesitamos dos puntos iniciales y
0
, y
1
, y solo
disponemos del valor y
0
= 2. Es habitual calcular los puntos necesarios para
empezar mediante un m´etodo de un paso del mismo orden. Usamos el m´etodo
de Euler modificado (ver ecuaci´on (6.7)), que es un m´etodo de Runge-Kutta
de orden 2:
y
1
= y
0
+hf

x
0
+
h
2
, y
0
+
h
2
f(x
0
, y
0
)

= 1.98474.
128 Cap´ıtulo 6
Ya disponemos de y
0
e y
1
y podemos calcular y
2
aplicando (6.11)
y
2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0

= 1.97018.
Con y
1
e y
2
podemos calcular y
3
y
3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1

= 1.95627.
Y as´ı sucesivamente.

6.4.1 F´ ormulas de Adams-Bashforth
Un m´etodo multipaso de la forma
y
i+1
= y
i
+A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) + +A
k−1
f(x
i−k+1
, y
i−k+1
)
es una f´ormula de Adams-Bashforth de k pasos y orden k. Estos m´etodos
se encuadran dentro de los m´etodos multipaso expl´ıcitos, debido a que la
definici´on de y
i+1
es expl´ıcita en funci´on de los valores anteriores, a diferencia
de los m´etodos impl´ıcitos que veremos en es siguiente apartado. Estos son
algunos ejemplos de f´ormulas de Adams-Bashforth:
1. de orden 2:
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

2. de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

3. de orden 5:
y
i+1
= y
i
+
h
720

1901f(x
i
, y
i
) −2774f(x
i−1
, y
i−1
)+
+ 2616f(x
i−2
, y
i−2
) −1274f(x
i−3
, y
i−3
) + 251f(x
n−4
, y
n−4
)

Todas ellas se pueden obtener siguiendo el proceso descrito en la p´agina
126. Dado que en dicho proceso se utiliza el cambio de variable x = x
i
+θ h,
si en la f´ormula final (6.10) deseo que aparezca la funci´on f(x, y) valorada en
los puntos
Ecuaciones diferenciales 129
x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ
0
= 0, θ
1
= −1, ..., θ
k−1
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Bashforth de k pasos necesitaremos
los valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo
de un paso del mismo orden.
6.4.2 F´ ormulas de Adams-Moulton
Un m´etodo multipaso de la forma
y
i+1
= y
i
+Bf(x
i+1
, y
i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
)
(6.12)
es una f´ormula de Adams-Moulton de k pasos y orden k + 1. Estos m´etodos
se encuadran dentro de los m´etodos multipaso impl´ıcitos, debido a que en
la f´ormula aparece el valor y
i+1
definido de forma impl´ıcita. Al igual que
las f´ormulas de Adams-Bashforth, las f´ormulas de Adams-Moulton se pueden
obtener siguiendo el proceso descrito en la p´agina 126. Dado que en dicho
proceso se utiliza el cambio de variable x = x
i
+ θ h, si en la f´ormula final
(6.10) deseo que aparezca la funci´on f(x, y) valorada en los puntos
x
i+1
, x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ = 1, θ
0
= 0, θ
1
= −1, ..., θ
k
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Moulton de k pasos necesitaremos los
valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo de
un paso del mismo orden.
Supongamos que disponemos de los valores y
i
, y
i−1
, ..., y
i−k+1
. ¿C´omo
calcular y
i+1
mediante la f´ormula (6.12)? Se puede hacer de dos formas:
130 Cap´ıtulo 6
1. M´etodo predictor-corrector. Se estima un primer valor predictor y

i+1
mediante una f´ormula de Adams-Bashforth del mismo orden y despu´es se
calcula el valor corrector y
i+1
aplicando
y
i+1
= y
i
+Bf(x
i+1
, y

i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
2. M´etodo iterativo de punto fijo. En la f´ormula (6.12) todos los t´erminos
de la parte derecha de la igualdad son datos excepto y
i+1
. En este sentido,
y
i+1
es un punto fijo de la funci´on
Φ(t) = y
i
+Bf(x
i+1
, t) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
En consecuencia, y
i+1
lo podemos obtener como l´ımite de la sucesi´on
t
0
= y

i+1
, t
n
= Φ(t
n−1
) n ≥ 1
siendo y

i+1
un valor inicial que se recomienda obtener mediante la f´ormula
de Adams-Bashforth del mismo orden. En la pr´actica, es suficiente dos o tres
iteraciones para conseguir un valor aceptable de y
i+1
.
Ejemplo: Deduzcamos la f´ormula de Adams-Moulton de orden dos
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i
)

(6.13)
Aplicaremos el proceso descrito en la p´agina 126. Si en la f´ormula de
cuadratura (6.9) tomamos los puntos
θ
0
= 1 θ
1
= 0
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
0
=
1
2
Ecuaciones diferenciales 131
y la soluci´on del sistema anterior es A
0
=
1
2
y A
1
=
1
2
. Sustituyendo en (6.10)
nos queda
y(x
i+1
) −y(x
i
) ≈ h

1
2
f(x
i+1
, y(x
i+1
)) +
1
2
f(x
i
, y(x
i
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
El m´etodo a aplicar es de orden 2 y 1 paso, por lo que solo necesitamos el
valor y
0
para empezar. Para estimar el resto de valores podemos optar por el
m´etodo predictor-corrector o por el m´etodo iterativo de punto fijo.
1. M´etodo predictor. Calculamos un valor predictor y

1
. Si es posible,
debe calcularse con una f´ormula de Adams-Bashforth del mismo orden, en
este caso la f´ormula (6.11) que es de orden dos. Sin embargo, para aplicar
(6.11) necesitamos los dos puntos iniciales y
0
e y
1
, con lo que en este primer
paso no podemos hacer uso de ella. Calculamos y

1
mediante otro m´etodo, por
ejemplo, por Runge-Kutta de orden 2 (ver 6.6):
y

1
= y
0
+h

1
2
f(x
0
, y
0
) +
1
2
f(x
1
, y
0
+hf(x
0
, y
0
))

= 1.98474
Con este valor, calculamos el valor corrector con Adams-Moulton
y
1
= y
0
+h

1
2
f(x
1
, y

1
) +
1
2
f(x
0
, y
0

= 1.98473.
Para calcular y
2
, primero calculo el valor predictor y

2
con Adams-Bashforth
de orden 2 (f´ormula (6.11))
y

2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0
)

= 1.97017
132 Cap´ıtulo 6
y despu´es calculo el corrector con Adams-Moulton
y
2
= y
1
+h

1
2
f(x
2
, y

2
) +
1
2
f(x
1
, y
1

= 1.97015.
En el siguiente paso calculo el predictor y

3
con Adams-Bashforth
y

3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1
)

= 1.95624
y despu´es calculo el corrector con Adams-Moulton
y
3
= y
2
+h

1
2
f(x
3
, y

3
) +
1
2
f(x
2
, y
2

= 1.95622.
El proceso anterior se repite para calcular el resto de valores.
2. M´etodo iterativo de punto fijo. Dada la funci´on
Φ
1
(t) = y
0
+h

1
2
f(x
1
, t) +
1
2
f(x
0
, y
0
)

el valor y
1
que buscamos verifica
Φ
1
(y
1
) = y
1
.
Es, por tanto, un punto fijo de la ecuaci´on
Φ
1
(t) = t.
Para localizarlo generamos una sucesi´on iterativa comenzando por un valor y

1
obtenido, si es posible, por Adams-Bashforth del mismo orden. En este caso
no es posible aplicar Adams-Bashforth puesto que se necesitar´ıa dos puntos
iniciales que no tenemos. Calculamos y

1
mediante Runge-Kutta de orden 2
(y

1
= 1.98474) y generamos la sucesi´on iterativa:
t
0
= y

1
= 1.98474
t
1
= Φ
1
(1.98474) = 1.98473
t
2
= Φ
1
(1.98473) = 1.98473
De forma que tomamos y
1
= 1.98473.
y
2
es un punto fijo de
Φ
2
(t) = y
1
+h

1
2
f(x
2
, t) +
1
2
f(x
1
, y
1
)

Ecuaciones diferenciales 133
que localizamos mediante la sucesi´on iterativa similar a la anterior que co-
mienza en y

2
= 1.97017, que a su vez es obtenido por Adams-Bashforth de
orden 2
t
0
= y

2
= 1.97017
t
1
= Φ
2
(1.97017) = 1.97015
t
2
= Φ
2
(1.97015) = 1.97015
Tomamos y
2
= 1.97015. Y repetimos el proceso para el resto de valores.

Ejercicio:
1. Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
2. Repite el apartado anterior para la f´ormula de Adams-Moulton de orden
4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

Ejercicio: Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del si-
guiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.

Problemas
Ecuaciones no lineales
1. Dada la ecuaci´on

xsen(x) −x
3
+ 2 = 0
encuentra una aproximaci´on de una ra´ız
(a) Con el m´etodo de la bisecci´on con un error menor que 1/30.
(b) Con 4 iteraciones del m´etodo de Newton-Raphson.
2. Determina un intervalo y una funci´on para aplicar el m´etodo del punto
fijo a las siguientes ecuaciones:
(a) x
3
−x −1 = 0
(b) 4 −x −tg(x) = 0
Realiza 4 iteraciones del m´etodo y determina en cada caso una cota del
el error cometido.
3. Se considera la ecuaci´on x
2
−1 −sen(x) = 0.
(a) Prueba que dicha ecuaci´on tiene, al menos, una ra´ız positiva.
(b) Encuentra un intervalo en el cual la iteraci´on
x
n
=

1 +sen(x
n−1
) x ∈ N
converja, para cualquier valor inicial x
0
de dicho intervalo, a una
ra´ız positiva de la ecuaci´on anterior. ¿Cu´antos pasos deben darse,
a partir de x
0
= π/2, para obtener una aproximaci´on de la ra´ız con
un error inferior a una mil´esima?
135
136 Problemas
4. Demuestra que la ecuaci´on
e
x
L(x) +x
3
−2 = 0
tiene una ´ unica ra´ız positiva. Aplica el m´etodo de Newton-Raphson para
encontrar una aproximaci´on a la ra´ız. Realiza iteraciones hasta que se
repitan las primeros cuatro decimales.
5. Determina un intervalo y una funci´on para poder aplicar el m´etodo del
punto fijo a las siguientes ecuaciones:
(a) x −L(1 +x) −0.2 = 0.
(b) x = −L(x).
Calcula una aproximaci´on a la soluci´on con un error inferior a 10
−5
.
6. Se considera la funci´on
F(x) = e
−x
−sen(x) −2.
(a) Demuestra que F(x) < 0 si x ≥ 0.
(b) Prueba que la ecuaci´on F(x) = 0 tiene una ´ unica ra´ız negativa.
(c) Determina un intervalo donde se pueda aplicar el m´etodo de Newton-
Raphson para aproximar dicha ra´ız, as´ı como los 4 primeros t´erminos
de la sucesi´on definida mediante dicho m´etodo. Calcula una cota
del error cometido.
7. Dada la funci´on f(x) = e
x
−3x
2
,
(a) Localiza un intervalo que contenga una soluci´on de f(x) = 0. Enun-
cia el resultado te´orico que utilices.
(b) Encuentra, aplicando el m´etodo del punto fijo con cuatro iteracio-
nes, una aproximaci´on de un valor donde se anule la derivada de
f(x) y una cota del error cometido.
8. Dada la ecuaci´on x = arctg(x+1), aplica el m´etodo de la bisecci´on para
encontrar una soluci´on con un error menor que 1/10.
9. Calcula tres iteraciones del m´etodo de la secante para encontrar una ra´ız
de la ecuaci´on
cos(x) −x = 0
en el intervalo [0.5, π/4]
Problemas 137
10. Dada la ecuaci´on 2cos(2x) + 4x −k = 0,
(a) Determina el valor de k para que la ecuaci´on tenga una ´ unica ra´ız
triple en el intervalo [0, 1].
(b) Para k = 3, prueba que posee una ´ unica ra´ız simple en el intervalo
[0, 1] y calc´ ulala con el m´etodo de Newton con un error menor que
10
−3
.
11. Dado el polinomio P(x) = x
4
−4x
3
+ 7x
2
−5x −2
(a) Utiliza la sucesi´on de Sturm para separar las ra´ıces del polinomio.
(b) Utiliza el m´etodo de Newton-Raphson para encontrar una aproxi-
maci´on de la ra´ız real de P(x) de menor valor absoluto.
12. Dado el polinomio P(x) = 8x
3
− 20x
2
− 2x + 5, utiliza su sucesi´on
de Sturm para separar sus ra´ıces en intervalos disjuntos. Encuentra
aproximaciones de las ra´ıces con un error menor que 10
−3
.
13. Dado la ecuaci´on x
4
−7x
3
+ 18x
2
−20x + 8 = 0:
(a) Demuestra con el teorema de Bolzano que tiene una soluci´on en el
intervalo [1.5, 3]. y utiliza el m´etodo de Newton para encontrar una
aproximaci´on con error menor que 10
−6
(b) Utiliza la sucesi´on de Sturm para separar las distintas ra´ıces del
polinomio.
14. Cuesti´on de examen de febrero de 2004:
Dada la ecuaci´on x
2
−e
2x
= −1/2,
(a) Demuestra que tiene una ´ unica soluci´on en el intervalo [−2, 0].
(b) Encuentra una aproximaci´on a la soluci´on mediante tres iteraciones
del m´etodo del punto fijo partiendo del punto x
0
= −1.5
15. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = cos(x) −x,
(a) Calcula el n´ umero de pasos necesarios para encontrar una ra´ız de
f(x) con un error menor que 10
−2
con el m´etodo de la bisecci´on
en el intervalo [0.5, π/4]. Aplica el m´etodo con el n´ umero de pasos
calculado.
138 Problemas
(b) Aplica tres iteraciones del m´etodo de la secante para encontrar una
ra´ız de f(x) en el intervalo [0.5, π/4].
16. Cuesti´on de examen de septiembre de 2004:
Dado el polinomio P(x) = −x
3
+x
2
−2x + 5,
(a) Utiliza el m´etodo de Sturm para separar las ra´ıces en intervalos
disjuntos.
(b) Empezando con x = 6 aplica un paso del m´etodo de Newton ha-
ciendo uso del algoritmo de Horner.
Problemas 139
Sistemas de ecuaciones lineales
17. Para el conjunto de ecuaciones.
7x
1
−3x
2
+ 8x
3
= −49
x
1
−2x
2
−5x
3
= 5
4x
1
−6x
2
+ 10x
3
= −84
a) Calcula la inversa de la matriz de los coeficientes haciendo uso de
las operaciones fundamentales. b) Utiliza la inversa para obtener las
soluciones del sistema. c) Calcula el n´ umero de condici´on de la matriz
con las distintas normas que conozcas.
18. Dado el sistema de ecuaciones
0.5x
1
−x
2
= −9.5
0.28x
1
−0.5x
2
= −4.72
a) Resu´elvelo por Gauss. b) Sustituye a
11
por 0.55 y resu´elvelo de nuevo.
c) Interpreta los resultados anteriores en t´erminos del condicionamiento
del sistema. d) Calcula el n´ umero de condici´on de la matriz del sistema
con la norma infinito.
19. Dado el sistema
−12x
1
+x
2
−7x
3
= −80
x
1
−6x
2
+ 4x
3
= 13
−2x
1
−x
2
+ 10x
3
= 92
a) Resu´elvelo por eliminaci´on gaussiana simple usando d´ıgitos con dos
cifras decimales. b) Encuentra las matrices triangular inferior L, trian-
gular superior U y de permutaciones P tal que PA = LU, siendo A la
matriz de los coeficientes. c) Sustituye los resultados en las ecuaciones y,
si es necesario, utiliza el m´etodo del refinamiento iterativo para mejorar
la soluci´on.
20. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´on
gaussiana con pivoteo parcial empleando d´ıgitos con dos decimales. b)
Encuentra las matrices P, L y U tal que PA = LU como en el ejercicio
anterior. c) Comprueba los resultados, y si no son exactos, emplea el
refinamiento iterativo para mejorar la soluci´on.
140 Problemas
1).
4x
1
+ 5x
2
−6x
3
= 28
2x
1
−7x
3
= 29
−5x
1
−8x
2
= −64
2).
3x
2
−13x
3
= −50
2x
1
−6x
2
+x
3
= 44
4x
1
+ 8x
3
= 4
21. Dado el sistema

¸
3 2 100
−1 3 100
1 2 −1
¸

¸
x
1
x
2
x
3
¸

=

¸
105
102
2
¸

resu´elvelo mediante descomposici´on LU de Gauss: a) sin escalamiento y
b) con escalamiento previo de filas.
22. Dados
A =

¸
4 −3 0
2 2 3
6 1 −6
¸

b =

¸
−7
−2
6
¸

b

=

¸
14
9
−8
¸

resuelve Ax = b y Ax = b

mediante una descomposici´on LU de Gauss.
Utiliza 3 decimales en los c´alculos.
23. Resuelve el sistema siguiente mediante descomposici´on LU:
−4x
1
+ 2x
2
= 0
x
1
−4x
2
= −4
x
2
−4x
3
+x
4
= −11
x
3
−4x
4
+x
5
= 5
2x
4
−4x
5
= 6
24. Resuelve el sistema

¸
¸
¸
4 −1 −1 0
−1 4 0 −1
−1 0 4 −1
0 −1 −1 4
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
−4
0
4
−4
¸

mediante la descomposici´on de Cholesky. ¿Es la matriz de los coeficientes
definida positiva?
Problemas 141
25. Dado el sistema

¸
2 0 −1
−2 −10 0
−1 −1 4
¸

¸
x
1
x
2
x
3
¸

=

¸
1
−12
2
¸

comprueba si se cumple alguna de las condiciones suficientes para que
funcionen los m´etodos de Jacobi y Gauss-Seidel. Si se cumplen, realiza
dos iteraciones para cada m´etodo tomando como valor inicial (0, 0, 0).
26. Repite el ejercicio anterior para el sistema
x
1
−2x
2
= −1
3x
1
+x
2
= 4
Intenta resolver el sistema con los m´etodos de Jacobi y Gauss-Seidel
haciendo alg´ un peque˜ no cambio en las ecuaciones.
27. Cuesti´on de examen de febrero de 2004:
Aplica el m´etodo de Jacobi a la resoluci´on del sistema:
7x −y + 4z = 8
3x −8y + 2z = −4
4x +y −6z = 3
empleando 3 iteraciones y partiendo del punto (0, 0, 0). ¿Es convergente
el m´etodo?
28. Cuesti´on de examen de junio de 2004:
Resuelve por el m´etodo de Cholesky el sistema de ecuaciones:
x
1
+ 2x
2
+ 3x
3
= 7
2x
1
+ 5x
2
+ 4x
3
= 9
3x
1
+ 4x
2
+ 14x
3
= 33
29. Cuesti´on de examen de septiembre de 2004:
Resuelve el siguiente sistema dos veces. Primero, utilizando la elimina-
ci´on gaussiana simple y encontrando la factorizaci´on A = LU. Despu´es,
utilizando la eliminaci´on gaussiana con pivoteo y encontrando la facto-
rizaci´on PA = LU.
−x
1
+x
2
−4x
3
= 0
2x
1
+ 2x
2
= 1
3x
1
+ 3x
2
+ 2x
3
=
1
2
142 Problemas
Aproximaci´ on de funciones. Interpolaci´ on
30. De la funci´on f(x, t) que representa una onda que se desplaza sobre el
plano se conocen cinco posiciones en un determinado instante:
(−1, 0), (−0.5, −1), (0, 0), (0.5, 1), (1, 0).
(a) Encuentra un polinomio que pase por esos puntos.
(b) Encuentra una funci´on formada por trozos de recta que pase por
esos puntos.
(c) Sabiendo que las derivadas de f(x) en el mismo instante en los
puntos −1, −0.5, 0, 0.5 y 1 son −π, 0, π, 0 y −π, calcula un polinomio
que cumpla todas las condiciones.
(d) Calcula el spline natural para ese conjunto de datos.
31. ¿Cu´al es el polinomio interpolador de f(x) = x
3
−2x −5 en los puntos
−0, 1, 2, 4.?
32. Se ha estudiado el proceso de recepci´on de informaci´on de un ordenador
y se ha observado que en los instantes 0, 1, 2 medidos en segundos, la
cantidad de informaci´on recibida era 0, 51, 104 megabites y se recib´ıa
a una velocidad de 0, 52, 54 megabites por segundo, respectivamente.
Encuentra una funci´on que se aproxime a la que representa el proceso.
33. Dada la funci´on f(x) = e
x
y los puntos 0, 1, 2.,
(a) Encuentra su polinomio de interpolaci´on en los puntos y estima el
error cometido.
(b) Repite el apartado anterior con los nodos de Chebyshev en el inter-
valo [0, 2].
(c) Encuentra una funci´on lineal a trozos que se aproxime a f(x) en
los puntos dados.
(d) Encuentra un polinomio que interpole a f(x) y a sus derivadas en
los puntos dados.
(e) Calcula el spline natural en los puntos dados.
34. La funci´on f(x) = L(x) se ha evaluado en varios puntos, obteni´endose
lo siguientes datos:
Problemas 143
x
0
= 1 f(x
0
) = 0
x
1
= 4 f(x
1
) = 1.3863
x
2
= 6 f(x
2
) = 1.7918
(a) Util´ıcense los datos anteriores para calcular el polinomio de inter-
polaci´on y el spline natural. Est´ımese el valor de L(2).
(b) Agregando un cuarto punto x
3
= 5, f(x
3
) = 1.6094, h´aganse de
nuevo los c´alculos y estimaciones.
35. Calculando los valores de la funci´on f(x) =

x en 1,4 y 9,
(a) Halla el polinomio interpolador de grado menor o igual que 2 por
el m´etodo de Newton que pase por esos puntos.
(b) Halla el polinomio interpolador en los nodos de Chebyshev en [1,9].
(c) Aplica el m´etodo de Hermite en los puntos iniciales y en sus deri-
vadas.
(d) Calcula el spline natural.
36. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = e
x
, determina los cuatro nodos de Chebyshev en
[0, 1], el polinomio interpolador en dichos nodos y un valor aproximado
de e
0.5
mediante dicho polinomio. Realiza los c´alculos con 4 decimales.
Polinomios de Chebysev: T
0
(x) = 1, T
1
(x) = x, T
n+1
(x) = 2xT
n
(x) −
T
n−1
(x).
37. Cuesti´on de examen de septiembre de 2004:
Determina si la funci´on
f(x) =

1 +x −x
3
si x ∈ [0, 1]
1 −2(x −1) −3(x −1)
2
+ 4(x −1)
3
si x ∈ [1, 2]
4(x −2) + 9(x −2)
2
−3(x −2)
3
si x ∈ [2, 3]
es el spline c´ ubico natural que interpola a los puntos de la tabla:
x 0 1 2 3
y 1 1 0 10
144 Problemas
Diferenciaci´ on e integraci´ on num´erica
38. De la funci´on f(x) = e
x
−2x
2
+ 3x −1 se obtienen los siguientes datos:
x 0.0 0.2 0.4 0.6
f(x) 0.00000 0.74140 1.3718 1.9021
(a) Utilizando la f´ormula m´as adecuada de entre las siguientes:
f

(x) =
f(x+h)−f(x)
h
f

(x) =
f(x+h)−f(x−h)
2h
f

(x) =
f(x+h)−2f(x)+f(x−h)
h
2
,
calcula valores aproximados de la primera y segunda derivadas de
los puntos.
(b) Calcula los errores reales y las cotas de error por medio de las
f´ormulas de error para las estimaciones anteriores.
(c) Encuentra una aproximaci´on de f

(0.2) haciendo uso de la interpo-
laci´on de la funci´on en los cuatro puntos.
(d) Sabiendo que f(−0.2) = −0.861267, aplica la interpolaci´on de Ri-
chardson para calcular una aproximaci´on de f

(0.2).
39. De una funci´on f(x) se tienen los siguientes datos:
x 0.0 0.5 1 1.5 2 2.5 3
f(x) 2.25 3.75 5 6 5.5 6 7.25
Calcula un valor aproximado de

3
0
f(x)dx utilizando los siguientes m´etodos:
(a) Trapecios.
(b) Simpson 1/3.
(c) Simpson 3/8.
(d) Trapecios compuestos.
(e) Simpson compuesto.
(f) Romberg.
40. Determina el n´ umero de subintervalos que deben tomarse para aproximar
el valor de la integral

1
0.5
cos(

x)dx con un error menor que
1
2
10
−2
(a) con el m´etodo de los trapecios compuesto,
Problemas 145
(b) con el m´etodo de Simpson compuesto.
41. Repite el ejercicio anterior para
(a)

2
1
Ln(x)dx (b)

3
2
e
x
x
dx
42. Calcula

1
0
sen(x
2
)dx:
(a) con un error menor que 10
−2
con el m´etodo de los trapecios com-
puestos
(b) con un error menor que 10
−2
con el m´etodo de Simpson compuesto,
(c) con el algoritmo de Romberg hasta R(4, 4),
(d) con el m´etodo de cuadratura adaptativa con nivel de tolerancia
10
−3
.
43. Repite el ejercicio anterior con

2
1
e
1/x
dx.
44. (a) Calcula la integral

1
0
sen(x
2
)dx mediante cuadratura gaussiana de
dos t´erminos.
(b) Plantea c´omo resolver el problema de calcular la

1
0
sen(x
2
)dx me-
diante cuadratura gaussiana de tres t´erminos. Calcula la integral
sabiendo que los nodos (t
i
) en este caso son las ra´ıces del polinomio
5x
3
−3x
2
.
45. Aplica alg´ un m´etodo de integraci´on num´erica para resolver las siguientes
integrales:
(a)

1
0
sen(x)
x
dx (b)

1
−1
cos(x)−e
x
sen(x)
dx (c)


1
(xe
x
)
−1
dx.
46. Determina los valores de A, B y C que hagan que la f´ormula

2
0
xf(x) ≈ Af(0) +Bf(1) +Cf(2)
sea exacta para todos los polinomios de grado tan alto como sea posible.
¿Cu´al es el grado m´aximo?
47. Eval´ ua la integral de x
3
sen(x) entre x = 0 y x = 2 usando un valor de
tolerancia inferior a 0.1% de la respuesta verdadera (3.791197).
146 Problemas
48. Cuesti´on de examen de febrero de 2004:
Dada la funci´on f(x) = L(x) calcula

3
2
L(x)dx empleando el m´etodo de
cuadratura de Gauss con tres t´erminos y sabiendo que los polinomios de
Legendre se calculan as´ı:
L
0
(x) = 1, L
1
(x) = x,
L
n+1
(x) =
(2n+1)xL
n
(x)−nL
n−1
(x)
n+1
∀ n ≥ 1.
49. Cuesti´on de examen de junio de 2004:
Encuentra los coeficientes A
0
, A
1
, A
2
y A
3
para que la f´ormula

3
−1
f(x)dx = A
0
f(−1) +A
1
f(0) +A
2
f(1) +A
3
f(2)
sea exacta para los polinomios de grado menor o igual que 3 y calcula
un valor aproximado de

3
−1
(x
3
+x)dx haciendo uso de dicha f´ormula.
50. Cuesti´on de examen de septiembre de 2004:
Encuentra los coeficientes A
1
y A
2
para que la f´ormula


0
f(x)dx = A
1
f(0) +A
2
f(π)
sea exacta para cualquier funci´on que tenga la forma a +b cos(x).
Calcula


0
2 + 3 cos(x)dx haciendo uso de dicha f´ormula.
Problemas 147
Resoluci´ on num´erica de ecuaciones diferenciales
ordinarias
51. Cuesti´on de examen de junio de 2004:
Aplicando el m´etodo de Taylor de grado 2 con dos pasos, calcula valores
aproximados de y(0.1) y y(0.2), sabiendo que
y

+ 2y = x
2
+ 2x y(0) = 1
52. Cuesti´on de examen de febrero de 2005:
Resuelve la ecuaci´on y

= y
2
− t
2
+ 1, y(0) = 0.5, siendo 0 ≤ t ≤ 1.2,
mediante el m´etodo de Taylor de grado 2 con 5 pasos.
53. (a) Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
(b) Repite el apartado anterior para la f´ormula de Adams-Moulton de
orden 4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

54. Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del
siguiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.
148 Problemas
55. Aplica el m´etodo cl´asico de Runge-Kutta para estimar 10 valores apro-
ximados de la soluci´on de la ecuaci´on siguiente en el intervalo [0, 1]
y

+ 2y = x
2
+ 2x y(0) = 1
56. A partir de la identidad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx
deduce el m´etodo de Runge-Kutta de orden 2
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

´ Indice
Introducci´n o 1 Errores, redondeo, estabilidad, condicionamiento. o 1.1 Cifras significativas. Exactitud y precisi´n. Errores. 1.2 C´lculos estables e inestables. Condicionamiento. . . a 1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . 1.2.2 Condicionamiento . . . . . . . . . . . . . . . 1.3 Aritm´tica de la computadora . . . . . . . . . . . . . e 1.3.1 Aritm´tica de punto flotante. . . . . . . . . . e 1.3.2 Operaciones con computadoras . . . . . . . . 1.3.3 Epsilon de la m´quina . . . . . . . . . . . . . a 2 Resoluci´n de ecuaciones no lineales o 2.1 M´todo de la bisecci´n . . . . . . . . . . . . . . . . . e o 2.1.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.1.2 Convergencia del m´todo . . . . . . . . . . . e 2.1.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.1.4 Variaciones del m´todo: Regula Falsi . . . . . e 2.2 M´todo de Newton-Raphson . . . . . . . . . . . . . . e 2.2.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.2.2 Convergencia del m´todo . . . . . . . . . . . e 2.2.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.2.4 Variaciones del m´todo: M´todo de la secante e e 2.3 M´todo iterativo de punto fijo . . . . . . . . . . . . . e 2.3.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.3.2 Convergencia del m´todo . . . . . . . . . . . e 2.3.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.4 Ra´ ıces de polinomios . . . . . . . . . . . . . . . . . . 2.4.1 Separaci´n de ra´ o ıces. Sucesi´n de Sturm. . . o 3 7 9 9 12 12 12 13 13 15 16 17 19 19 19 20 21 22 22 23 24 27 28 28 29 30 32 34

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

.5. . . . . . . 90 o o . 41 . . . e 4. 3. Factorizaci´n de Cholesky . . . . . . . . 3. . o 4. e 3. . . . . 45 . . . . . . . a u o 3. . . . . . . .4.2.3. . . . . . . 60 .2 Error del polinomio interpolador . . 3. . . e 3. . . .6 M´todos iterativos . . . . . . . . . . . . .3. . . . . . . 62 . 3. .2. . . . . . . .5. . . . . . . . . e 3. .2 M´todo de Cholesky . . . o . .2 M´todo de Gauss-Seidel . . . .1 M´todo de Lagrange . . . . . . . . o 4. . . . . . . . . . . . 55 . . . 3.2 Resoluci´n de sistemas de ecuaciones lineales: o 3. . . . . . 45 m´todo de Gauss 46 e . . . . . . o 4. . . . . . . . . . . . . . . .1 M´todo de Gauss .3. 57 . . . . . .2 Interpolaci´n con condiciones sobre la derivada . .1 Interpolaci´n a trozos . .1 M´todo de Jacobi . . . . . . . . . . . . . . . 68 . . . . . . . . .1 Valores propios y vectores propios . 47 .1 M´todo de Crout . . . . . .3 M´todos de relajaci´n . . . . . . . . . . .3 2. . . . . . . . . . . 87 o e o 5. . . . . . . . . .2 Escalamiento . . . . . . . . .2. . . . . . . . . 3. . . . . Polinomios de Chebyshev . .6.1. .4 2. . . . 62 . . . . . . . . . . e 3. . . . . . . .2 M´todo de Gauss con pivoteo . . . . . . e 4. . . . .4. .1. . 63 . e 3.6. . . . . . . . 5 Diferenciaci´n e integraci´n num´rica o o e 87 5. . 4. . . . . .2 2. . .1 Diferenciaci´n mediante interpolaci´n . . 53 . . . .3 Factorizaci´n LU.5 Mejora de soluciones . . . . . . .1. . . . . 49 . . . . . . .4 Normas y an´lisis del error .1. . . 55 . . . . . .1 Diferenciaci´n num´rica y extrapolaci´n de Richarson .4. . .1 Construcci´n del polinomio interpolador . . . . o ıces Ra´ ıces de polinomios con el algoritmo de Horner . . .1 N´mero condici´n de una matriz . . . . . . . . . . . . . . .1 Algebra de matrices . . .6. . . . . . . e 3. . . . . . . . . . . . . . . . . . . o o 3. . . . . . . . . . . u 37 38 39 3 Sistemas Lineales ´ 3. . . . . . . . . . . . . . . . . . . . . . .1. . e 3. . . .1 Elecci´n de nodos. . . . . . . 3. . . . . 3. . . .2 Matriz definida . . . . . .3. 69 71 71 73 73 74 75 78 78 79 4 Aproximaci´n de funciones o 4. . .3. . . . .4 ´ INDICE Acotaci´n de ra´ . e o 41 . .3 Sistemas triangulares . . 64 . . . . . . . . . . . . . . . . . . 55 . . . . . . . . . . .2 M´todo de Newton . . . . .1 Refinamiento iterativo . . .3 Interpolaci´n a trozos y con condiciones sobre la derivada o 4. . . . . . . . . . . . . .4. . . . . . . . . 66 . . . . . . . . . Ra´ ıces m´ltiples . . . . . . . . . .

. . .2 F´rmulas de Adams-Moulton . . . .2 Regla de Simpson . . . . . . . . .4. . . . . Integraci´n de Romberg . . . . . . e 6. . . . e 6. . . . . .2 Errores . . . . . . . . . . 6. . . . . . . . . . . . . . . . . . . o e o 5. . . .´ INDICE 5 5. . . . . . . . . . . . . . . e 6. . . . . . . . . . . . . . . . . . . .1 Errores . . . .2. . . . . . . . . . . . . . . o Cuadratura adaptativa . . . . . . . . . . . . . . .1 Existencia y unicidad de soluciones . .3. . .5 6 Resoluci´n num´rica de ecuaciones diferenciales o e 6. . . . . . . . .2 M´todo de la serie de Taylor . . . . . .2. . . . . . . . . . . . . . . . . . . . . . .1 M´todo de Euler . . . . . . . . . . 6. . . .4 M´todos multipaso . . . . . . . . . . . . . . . . . . . . . .3 M´todos de Runge-Kutta . . .4. . .1 F´rmulas de Adams-Bashforth . .4 M´todo de los coeficientes indeterminados e Cuadratura gaussiana . . . . . . . . . . . . . . . . . . 5. . . . . . . 5. o Problemas . . . . . . . . . . . . .1 Regla del trapecio . . .2 5. e 6. . . . . . .2. . . . .4 5.2 Extrapolaci´n de Richarson . . . . . . o Integraci´n num´rica mediante interpolaci´n . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . o 6. . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . 5. . . 6. .2. . . . . . . .3 5.3 Reglas compuestas . . . 92 96 97 98 99 101 102 104 107 113 113 115 118 118 119 125 125 128 129 135 5. . . . . . . . . .1. . . . . .

.

Introducci´n o El texto que sigue no es definitivo ni exhaustivo. 7 . Debeis emplearlo como una ayuda para preparar la asignatura An´lisis Matem´tico I a a y como complemento de las notas que tomeis en clase. Espero que os sirva. Pedro Mart´ ın. Se ir´ reformando a medida a que se detecten fallos o se modifique el contenido para mejorarlo.

.

α1 α0 . estabilidad. . Erroo res. 1. βj ∈ 0.Cap´ ıtulo 1 Errores. . . 9 . . El concepto de cifra significativa intenta trasmitir la idea de cuando una cifra que aparece en la expresi´n decimal trasmite informaci´n o o ”esencial”y ”de fiar”sobre el n´mero que se intenta aproximar. a o Se trabaja. .1 Cifras significativas. . . . 9 Con la expresi´n anterior queremos representar que o x = αm 10m +αm−1 10m−1 +· · ·+α1 10+α0 100 +β1 10−1 +β2 10−2 +· · ·+βn 10−n +. u u por lo que se utilizan aproximaciones con un n´mero finito de decimales. βn . 2. 1. El C´lculo Num´rico consiste en desarrollar m´todos para encontrar soluciones a e e lo m´s aproximadas posibles a la verdadera soluci´n de un cierto problema. . por tanto. con αi . redondeo. con n´meros aproximados en lugar de n´meros exactos. β1 β2 . . u u Cualquier n´mero real x puede representarse en forma decimal con un n´mero finito o infinito de d´ ıgitos: x = αm αm−1 . La significau o o ci´n de una cifra depende del contexto y no solo de la expresi´n decimal en la que aparece. . u Toda expresi´n aproximada tiene un n´mero determinado de cifras sigo u nificativas. . condicionamiento. Exactitud y precisi´n.

5) al valor verdadero de la velocidad. 4. Tambi´n deben ser preciso. 4. valor verdadero .0001845 0. los tres o ultimos ceros parecen ser no significativos. estamos manejando solo dos o cifras significativas. La tercera cifra (. Se denomina error E a la cana e tidad: E = valor verdadero − valor aproximado A menudo se trabaja con el error absoluto (|E|). los valores aproximados que se obtengan en diferentes intentos de soluci´n deben estar cerca o del valor verdadero. pues no es ”de fiar”. en nuestra aproxia maci´n (48.5 Km/hora”porque vemos que la aguja del veloc´ ımetro del coche est´n entre 48 y 49. Cuanto mayor sea el n´mero de cifras significativas de la u aproximaci´n. El veloc´ ımetro (para velocidades menores de 100) solo permite aproximaciones con dos cifras significativas.5 × 104 .5000 × 104 ). esta podr´ variar si es otro el observador. se emplea u la notaci´n cient´ o ıfica (en el ejemplo anterior. Cualquier m´todo del C´lculo Num´rico que se emplee en la resoluci´n de e a e o un problema. El error relativo es e= E .001845 tienen todos cuatro cifras significativas. No es significativa.10 Cap´ ıtulo 1 Ejemplo: Cuando decimos ”circulamos a 48. o ı Para evitar equ´ ıvocos acerca del n´mero de cifras significativas. Sin embargo en la expresi´n ”me ´ o cost´ 45000 euros exactos”s´ son significativos. debe ser suficientemente exacto. Los ceros que se a˜aden al final pueden ser o no significativos: n Ejemplo: En la expresi´n ”se manifestaron 45000 personas”. ıa Los ceros que se a˜aden a la izquierda de una expresi´n decimal para situar n o la primera cifra distinta de cero no son significativos: Ejemplo: Los n´meros u 0. Con el uso de aproximaciones para representar operaciones y cantidades matem´ticas se generan errores num´ricos. las que permiten situar la velocidad entre 48 y 49.00001845 0. mayor ser´ la exactitud. Si hacemos observaciones con una cifra decimal.5) es una estimaci´n que podr´ o ıamos evitar. es decir o a e los diferentes valores obtenidos para la resoluci´n de un problema deben estar o cercanos entre s´ ı. es decir.

4 . o • Redondeo: surgen al sustituir un n´mero exacto por uno aproximado.6170431500 5. El ultimo d´ ´ ıgito que se conserva se aumenta en uno si el primer d´ ıgito descartado es mayor que 5.768 = 0.6170432 5. entonces el ultimo d´ ´ ıgito retenido se incrementa en uno solo si este ultimo es ´ impar: n´mero u 5.0 × 10−4 3.61704 5.032967 −→ 297 × 10 4. e 4. e Las causas de los errores pueden ser: • Truncamiento: surgen al sustituir un procedimiento matem´tico exacto a por uno aproximado. En la suma y en la resta. el redondeo se lleva a cabo de forma tal que el ´ ultimo d´ ´ ıgito retenido en la respuesta corresponda al ultimo d´ ´ ıgito M AS significativo de los n´meros que se est´n sumando o restando. estabilidad. Para minimizar este tipo de error se recurre a las reglas de redondeo: 1. existen dos casos e generales. Ejemplo: utilizar un polinomio de Taylor para encontrar el valor de una funci´n en un punto. En la multiplicaci´n y divisi´n se conserva el n´mero m´ o o u ınimo de cifras significativas que tenga los n´meros que intervienen: u 0. N´tese u a o que un d´ ıgito en la columna de las cent´simas es m´s significativo que e a una en la columna de las mil´simas.31 945/0. En los c´lculos.6170462500 6 cifras significativas 5. u Ejemplo: sustituir 1/3 por 0.3185 = 2967.6170462 2.0642 × 4.2 − 1.8 = 0.02468 × 10−4 −→ 6. se conservan las cifras significativas y el resto se descara tan.Errores.61705 8 cifras significativas 5. condicionamiento 11 Este ultimo compara la magnitud del error cometido con la magnitud del valor ´ que se pretende estimar y puede interpretarse en t´rminos de %. redondeo. Si es 5 o es 5 seguido de ceros. (multiplicaci´n o divisi´n ) ± (multiplicaci´n o divisi´n) o o o o (suma o resta ) ÷ (suma o resta) × 2.432 −→ 0.33333333.68 × 10−7 + 8. Para combinaciones de las operaciones aritm´ticas.3 × 10−4 − 228 × 10−6 = 6.30816 −→ 0.

o • Otras causas de error: equivocaci´n de usuario. mala formulaci´n del o o modelo. etc. 1. incertidumbre en los datos f´ ısicos recogidos. donde A = maxi. Si este es grande significa que el problema u o a est´ mal condicionado. Dado el sistema x + 1.086162170293413 × 10 −6 con la definici´n o inductiva y 2.99x + y = 1 .2.2. El c´lculo de o a los valores de la sucesi´n por el m´todo inductivo es inestable.2 Condicionamiento Un problema est´ mal condicionado si peque˜os cambios en los datos pueden a n dar lugar a grandes cambios en las respuestas.12 Cap´ ıtulo 1 En ambos casos.1 C´lculos estables e inestables. 1. 1 x1 = . obtenemos −1. Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax = b.01y = 1 0. En ciertos problemas se puede calcular un n´mero de condici´n. Si calculamos el t´rmino x11 con o e el programa Maxima. pues cualquier o e error que se presente en xn se multiplica por 13/3 al calcular xn+1 .2 1. a Ejemplo: Consideremos la sucesi´n o x0 = 1. se ejecutan primero las operaciones entre par´ntesis y e se redondea el resultado antes de proceder con otra operaci´n. se puede calcular el n´mero de condici´n as´ u o ı: k(A) = A · A−1 . Condicionamiena to.j |aij |.867971990792441 × 10−10 con la otra definici´n. 3 xn+1 = 13 4 xn − xn−1 3 3 ∀n ≥ 1 1 La sucesi´n anterior verifica que xn = ( 3 )n . Inestabilidad Decimos que un proceso num´rico es inestable cuando los peque˜os errores e n que se producen en alguna de sus etapas se agrandan en etapas posteriores y degradan seriamente la exactitud del c´lculo en su conjunto.

01y = 1. As´ el n´mero 9.01)(10100) = 10201.81250 ∗ 2 = 1. u u y as´ el 13. El ordenador. es decir.βn × 10e . u en: 9 = 2 ∗ (2 ∗ (2 ∗ 1 + 0) + 0) + 1 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 = (1001)2  0.1 Aritm´tica de la computadora e Aritm´tica de punto flotante.0442 → −0. para almacetodos empezar´n con 0.β1 β2 .25 ∗ 2 = 0.01y = 1 0. y = 100] 1. en contraste con el sistema decimal que normalmente se utiliza. y = 1] ⇒ [x = −100. se convierte en binario ı. o u u e e .625 ∗ 2 = 1. Esto significa que peque˜os cambios en b producir´n n a grandes cambios en la soluci´n.5 1∗2    . De hecho: o x + 1.01 0.0442 como −442E − 1.99x + y = 1 y x + 1.442 × 10−1 C´mo todos los n´meros se traducen seg´n la aritm´tica del punto flotante. e e Las computadoras utilizan la llamada aritm´tica del punto flotante.Errores..625 1 ∗ 2−2   0.90625 ∗ 2 = 1. condicionamiento 13 el n´mero de condici´n de la matriz del sistema ser´ k(A) = A · A −1 = u o ıa (1. la mayor parte de las computadoras trabajan con n´meros u reales en sistema binario.13524 × 102 . Por ejemplo: −0. · · · y terminar´n con 10 a a narlos ahorrando memoria.3. ı Por otra parte. prescinde de lo que es com´n a todos los n´meros. almacenan cada n´mero desplazando sus d´ u ıgitos de modo que aparezca de la forma 0.25 1 ∗ 2−3 ⇒ −4   .99x + y = 1 ⇒ [x = 0.. estabilidad.5 ∗ 2 = 1 1 ∗ 2−5 13.524 → 0.90625 en sistema decimal. redondeo.81250 1 ∗ 2−1    0.524 se almacena como 13524E2 y el −0.3 1.

1. Como consecuencia de todo lo anterior. ±1/8.. Cuanto m´s u a a o a grande sea p.112 = 1 × 2−1 + 1 × 2−2 = 1/2 + 1/4 = 3/4 ±6. Se o gana con ello un bit que se denomina bit escondido.. ±1/4. ±2. ±3. finita.. ± . con lo que se puede suprimir. .90625 = 1 ∗ 2−1 + 1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (0.. u u a d1 siempre es 1. ±3/4.102 × 2e son u y como los n´meros ±. En los ordenadores de base 2.. ±3/8. la representaci´n de un n´mero en una computadora ser´ de o u a la forma: ± d1 d2 . ±1. en cualquier m´quina solo se pueden almacenar una cantidad a finita de n´meros.14 Cap´ ıtulo 1 0. por tanto..90625 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 + 1 ∗ 2−1 + +1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (1001. p es el n´mero m´ximo de bits que puede tener esa parte u a significativa del n´mero que se almacena y es.... El 0 es un caso especial que se almacena como 00.dp Ee donde B es la base.102 × 2e Como los n´meros ±. Ejemplo: Si en una computadora se tiene que B = 2.112 × 2e con − 3 ≤ e ≤ 3. ±1/2. .112 × 2e son u . mayor ser´ la precisi´n de la m´quina. p es el n´mero m´ximo u a de bits significativos y e es el exponente de la potencia de B. di ∈ {0. p = 2 y −3 ≤ e ≤ 3. ..0E0. 2. ±3/2. entonces solo se podr´n almacenar n´meros de la forma a u ±. aumentando la precisi´n.102 = 1 × 2−1 + 0 × 2−2 = 1/2 ±4. llamados n´meros m´quina.11101)2 En general.. B − 1}.dp se llama parte significativa o mantisa. ±3/16.11101)2 Con lo que 1. La parte d1 d2 .dp × B e y se almacenar´ de la forma a ±d1 d2 . d1 > 0.

1.269 × 10−1 = = 0.37 + 0. Tambi´n se almacenar´ como 2 los n´meros 2 3 o 2 4. e = 8 bits.300 × 102 que se almacenar´ como 0.2 Operaciones con computadoras Supongamos una computadora cuyos par´metros sean B = 10. redondeo. De forma similar se definen desbordamiento negativo a y subdesbordamiento negativo. Veamos como trabajan y como se pueden generar errores al manejar las operaciones b´sicas y el redondeo: a 1. Para la suma. bien como 2 si se hace por truncamiento. con lo cual el n´mero m´ximo que se podr´ u a ıa almacenar ser´ 1 701E38.794 × 104 por redondeo.197 × 10−1 = 0.13969 × 101 que se almacenar´ como 0.079391 × 105 que se almacena como 0. estabilidad. 2.003 × 104 = 0. condicionamiento 15 En este sistema el n´mero 2 9 se almacenar´ seg´n est´ dise˜ada la comu ıa. 3.137 × 101 + 0. se multiplican las cifras significativas y se suman los exponentes: 403000 · 0.482 × 104 = 0. El n´mero m´ a u ınimo en valor absoluto ser´ 1 755E −38. Todo n´mero positivo menor estar´ en el subdesbordamiento ıa u ıa positivo de la m´quina.403 × 106 · 0. e ıan u Los par´metros B. . p = 23 bits.300 × 102 tanto por redondeo como por trunıa camiento.485 × 104 − 0. el de menor exponente se desplaza para alinear la coma decimal 1.793 × 104 por truncamiento y 0. p y e de una m´quina real pueden ser los siguientes: a a B = 2.Errores.137 × 101 + 0.00269 × 101 = 0.3. u e n putadora.0269 = 0. Todo n´mero mayor que el anterior estar´ en el ıa u ıa desbordamiento positivo de la m´quina.139 × 101 por truncamiento y 0. En el producto. p = 3 y −9 ≤ a e ≤ 9. En la resta: 4850 − 4820 = 0.140 × 101 por ıa redondeo. o bien como 3 si se hace por redondeo.0197 = 0.

3.356 × 10−1 /0. . Otra fuente de error puede ser el paso de sistema decimal a sistema binario.0 + ε = 1. ı u 1.. As´ el n´mero 1/10 en sistema binario es (0. 100 do s ← 0.s stop end if end .16 Cap´ ıtulo 1 4.0 for k = 1.) 2 . 2. Tambi´n se puede definir como el menor a e n´mero ε > 0 tal que u 1.156 × 104 = 2. .3 Epsilon de la m´quina a a n u a La diferencia m´s peque˜a entre dos n´meros que puede detectar una m´quina se denomina epsilon de la m´quina..0 if t ≤ 1.0001100110011001.0 y se puede calcular programando este algoritmo: input s ← 1.0s output k-1.0356/1560 = 0. En la divisi´n. se dividen las cifras significativas y se restan los exponeno tes: 0.0 then s ← 2.5s t ← s + 1.228 × 10−4 . . .28205 × 10−5 que se almacena como 0.

5 -10 -8 -6 -4 -2 -0.5 -1 f (x) = ex − sen(x) Para resolver ejercicios como el anterior es conveniente recordar los siguientes resultados: Teorema [Bolzano]: Sea f : R → R una funci´n continua en [a. Entonces existe c ∈ (a. localiza un intervalo donde o exista una soluci´n. b] tal o que f (a)f (b) < 0. 1 0.5 Dada una funci´n f : R → R. Ejemplo: Dada la ecuaci´n ex − o sen(x) = 0. trataremos o de encontrar m´todos que permitan locae lizar valores aproximados de las soluciones de f (x) = 0.Cap´ ıtulo 2 Resoluci´n de ecuaciones no o lineales 1. o 17 . o o Ejercicio: Dada la ecuaci´n ex − sen(x) = 0. encuentra la soluci´n m´s cero a cana a 0. El teorema de Bolzano se utiliza en este contexto para localizar intervalos que contengan una soluci´n de f (x) = 0 cuando la funci´n f (x) sea continua. b) tal que f (c) = 0.

b). para cada x0 ∈ [a. u o Teorema [Taylor]: Sea f : R → R una funci´n n veces derivable en [a. Dicho polinomio es Pn. el teorema de Rolle u a se utilizar´ para determinar el n´mero m´ximo de soluciones que puede tener a u a una ecuaci´n f (x) = 0. b] y derivable en (a. b] existe un polinomio de grado menor o igual que n que tiene un punto de contacto con f (x) de grado n en x0 . b) tal que f (c) = 0. n! Adem´s. si f (x) cumple las hip´tesis.x0 (x) = f n+1) (θx ) (x − x0 )n+1 .x0 (x) = f (x0 ) + f (x0 )(x − x0 ) + · · · + f n) (x0 ) (x − x0 )n . b] existe un punto θx entre x y x0 tal que a f (x) − Pn. Del teorema de Rolle se deduce que. Entonces existe c ∈ (a. b) y tal que f (a) = f (b). b]. (n + 1)! Teorema [de valor medio]: Sea f : R → R una funci´n continua en o [a. para cada x ∈ [a. o Ejercicio: Determina el n´mero de soluciones de la ecuaci´n ex − x = 0. el n´mero m´ximo de soluciones de f (x) = 0 ser´ u a a el n´mero de soluciones de f (x) = 0 m´s uno. De este modo. b−a . b). b] o y n + 1 veces derivable en (a. b) tal que f (b) − f (a) = f (c). Entonces existe c ∈ (a. entre o cada dos soluciones de la ecuaci´n f (x) = 0 debe existir al menos una soluci´n o o de f (x) = 0. Entonces.18 Cap´ ıtulo 2 Teorema [Rolle]: Sea f : R → R una funci´n continua en [a. Por tanto. derivable o en (a.

2 Paso 2. Si f (c0 ) < 0. . . En ambos casos. .1 2. estudiamos el intervalo [a2 . En ambos casos.1. . estudiamos el intervalo [an . [an . 2 Paso 1.´ Resolucion de ecuaciones no lineales 19 2. la sucesi´n (an )n∈N converge por ser creciente y acotada superioro mente y la sucesi´n (bn )n∈N converge por ser decreciente y acotada inferioro mente. 2 Paso n. definimos a2 = c1 y b2 = b1 . definimos an = an−1 y bn = cn−1 . Supongamos que f (a) < 0 y f (b) > 0 (de forma a n similar se razonar´ si f (a) > 0 y f (b) < 0).1 M´todo de la bisecci´n e o Descripci´n del m´todo o e Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos cada vez m´s peque˜os.1. . Si f (cn−1 ) > 0. Si f (cn−1 ) < 0. Veamos que sus l´ ımites son iguales n→∞ y lim bn − lim an = lim(bn − an ) = lim n→∞ 1 (b − a) = 0.2 Convergencia del m´todo e Teorema: Si [a. definimos a1 = c0 y b1 = b. n→∞ 2n . [a1 . entonces e o n→∞ lim an = lim bn = lim cn = r n→∞ n→∞ y adem´s f (r) = 0. . 2 2. definimos a2 = a1 y b2 = c1 . b1 ]. ıa Paso 0. b] y calculamos c0 = a+b . Si f (c0 ) > 0. Por la construcci´n de las sucesiones se tiene que o o a ≤ a 1 ≤ a 2 ≤ · · · ≤ b 2 ≤ b1 ≤ b 1 1 (bn − an ) = (bn−1 − an−1 ) = · · · = n (b − a). . b1 ] y calculamos c1 = a1 +b1 . a Demostraci´n. Si f (c1 ) > 0. denotan los intervalos utilizados en el m´todo de la bisecci´n. En ambos casos. estudiamos el intervalo [a1 . bn ]. definimos a1 = a y b1 = c0 . b2 ] y calculamos c2 = a2 +b2 . b]. Partimos del intervalo [a. 2 2 Por tanto. definimos an = cn−1 y bn = bn−1 . bn ] y calculamos cn = an +bn . Si f (c1 ) < 0.

1875 c4 = −3. −3].125 b4 = −3.175 c6 = −3.25 a4 = −3.0694 f (c2 ) = 0.125 c3 = −3.0277 f (c5 ) = 0. Aplicaremos el m´todo de la bisecci´n a la funci´n f (x) = ex − sen(x).5 c1 = −3.18125.5 a2 = −3.15625 b6 = −3. puesto que f (−4) < 0 y f (−3) > 0.3206 f (c1 ) = −0. ıa 2.125 b5 = −3.25 a3 = −3.175 c0 = −3. n→∞ n→∞ Llamemos a ese l´ ımite r. como queremos que el error sea menor que 10 o que: 1 1 1 |r − cn | ≤ n+1 |b − a| = n+1 | − 3 − (−4)| = n+1 < 10−2 2 2 2 por lo que n ≥ 6.25 c2 = −3.18125 f (c0 ) = −0. es decir.1875 b0 = −3 b1 = −3 b2 = −3 b3 = −3. n→∞ n→∞ Por tanto f (r) = 0 que era lo que se ten´ que probar. tendremos que calcular c6 . o ıa . Veamos ahora que r es la soluci´n de f (x) = 0 o utilizando las hip´tesis de continuidad de f (x) y la condici´n f (an )f (bn ) ≤ 0 : o o 0 ≥ f (r)f (r) = f ( lim an )f ( lim bn ) = n→∞ n→∞ n→∞ lim f (an ) lim f (bn ) = lim f (an )f (bn ) ≤ 0.0084 La soluci´n aproximada propuesta ser´ −3.0046 f (c4 ) = 0.20 Dado lo anterior y puesto que an ≤ cn ≤ bn se concluye que n→∞ Cap´ ıtulo 2 lim an = lim cn = lim bn .3 Aproximaci´n y error o o o o Una aproximaci´n a la soluci´n de la ecuaci´n f (x) = 0 en el paso n es cn .15625 c5 = −3. Si cn es la aproximaci´n y r es la o −2 .0554 f (c3 ) = −0. Una cota del error cometido ser´: a 1 1 1 |r − cn | ≤ |bn − an | = 2 |bn−1 − an−1 | = n+1 |b − a|.1. Los c´lculos ser´ los siguientes: a ıan a0 = −4 a1 = −3. Por e o o el teorema de Bolzano sabemos que hay una soluci´n de f (x) = 0 en el intervalo o [−4. 2 2 2 Ejemplo: Encuentra una aproximaci´n de la soluci´n de ex = sen(x) con o o un error menor que 10−2 . tendremos soluci´n exacta.1875 a5 = −3.1875 a6 = −3.

de f (x) = 3x + sen(x) − e a0 a1 a2 a3 a4 =0 =0 =0 =0 =0 b1 b2 b3 b4 b0 = 1 = 0.265160 f (c1 ) = 0.361598 = 0.360538 c0 c1 c2 c3 c4 = 0.029533 f (c2 ) = 2.4 Variaciones del m´todo: Regula Falsi e El m´todo de la Regula-falsi difiere respecto de la bisecci´n en el c´lculo del e o a punto cn .360538 = 0.360433 f (c0 ) = 0. Ejemplo: Aplicar el m´todo de la regula falsi para encontrar una soluci´n e o x = 0 a partir del intervalo [0.94 ∗ 10− 3 f (c3 ) = 2.1.470990 = 0.´ Resolucion de ecuaciones no lineales 21 2.94 ∗ 10− 5 1 0.5 0.6 0. f (bn ) − f (an ) El paso siguiente es elegir el intervalo formado por los puntos an y cn o bien el formado por cn y bn asegurando que la funci´n en los extremos sea de signo o contrario.372277 = 0.361598 = 0.94 ∗ 10− 4 f (c4 ) = 2.470990 = 0. Con este m´todo se calcula as´ e ı: cn = bn − f (bn ) bn − an .372277 = 0.4 0.2 -0.5 -1 0.8 1 regula falsi para f (x) = 3x + sen(x) − ex . 1].

su l´ r = lim xn = lim xn−1 − n→ n→ f (xn−1 ) f (r) f (r) =r− ⇒ = 0 ⇒ f (r) = 0. Calculamos el polinomio de Taylor de f (x) de grado 1 en x0 P1. resolvemos P1. es decir. 2 y 3 sustituyendo el punto xn−1 por el punto xn . . es decir f (x0 ) + f (x0 )(x − x0 ) = 0 ⇒ x = x0 − Paso 3. f (xn−1 ) Cuando la sucesi´n x0 . Utilizamos el m´todo de Newton-Raphson aplicado a ximaci´n de x o e la funci´n f (x) = x2 − 2. es convergente y la funci´n f (x) tiene cierta o o ımite r es la soluci´n puesto que o regularidad. . f (xn−1 ) f (r) f (r) Ejemplo√ Aplica el m´todo de Newton-Raphson para encontrar una aproe ximaci´n de 2. Definimos x1 = x 0 − f (x0 ) f (x0 ) f (x0 ) . .2 2. f (x0 ) y repetimos los pasos 1. Partimos de un punto inicial x0 . o √ Puesto que queremos una aproximaci´n de 2. en vez de resolver o f (x) = 0. x1 .x0 (x) como aproximaci´n de f (x) y. x2 .x0 (x) = f (x0 ) + f (x0 )(x − x0 ). Paso 1. f (xn−1 ) 2xn−1 .2. construimos la sucesi´n o o xn = xn−1 − x2 − 2 f (xn−1 ) = xn−1 − n−1 . Utilizamos P1. Paso 2.x0 = 0.22 Cap´ ıtulo 2 2. bastar´ encontrar una aproo a 2 − 2 = 0. es decir construimos la sucesi´n o xn = xn−1 − f (xn−1 ) .1 M´todo de Newton-Raphson e Descripci´n del m´todo o e Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´n o f (x).

´ Resolucion de ecuaciones no lineales

23

Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´n. Comenzamos o por el punto x0 = 1.5 : x0 = 1.5, x1 = 1.4167, x2 = 1.4142, x3 = 1.4142, ...

La aproximaci´n ser´ 1.4142. o ıa

2.2.2

Convergencia del m´todo e

Teorema: Si en un cierto intervalo se verifica que f ∈ C 2 (R), estrictamente creciente, f (x) ≥ 0 y f tiene un cero, entonces el cero es unico y la iteraci´n ´ o de Newton-Raphson converger´ a partir de cualquier punto inicial. a

0.5 8 0.4 6 0.3 4 0.2 2 0.1 -1 -2 1 2 3 4 -2 -1 1 2

Newton Raphson converge

Newton Raphson no converge

Demostraci´n. Sea x0 , x1 , . . . , xn la sucesi´n construida por el m´todo de o o e Newton-Raphson, r la soluci´n de la ecuaci´n f (x) = 0 y en = xn − r el error o o en el paso n. Por el teorema de Taylor sabemos que: 0 = f (r) = f (xn ) + f (xn )(−en ) + Por tanto en f (xn ) − f (xn ) = De modo que f (θn ) (−en )2 . 2

f (θn ) 2 en . 2

24

Cap´ ıtulo 2

en+1 = xn+1 − r = xn −

f (xn ) f (xn ) − r = en − = f (xn ) f (xn ) en f (xn ) − f (xn ) f (θn )e2 n = ≥0 f (xn ) 2f (xn ) f (xn ) ≤ en . f (xn )

Por lo tanto xn+1 ≥ r ⇒ f (xn ) ≥ f (r) = 0 ⇒ en+1 = en −

Puesto que xn+1 ≥ r y el error va decreciendo, se concluye que la sucesi´n o (xn )n∈N es decreciente y acotada inferiormente por r, por lo tanto tiene l´ ımite. As´ mismo, la sucesi´n (en )n∈N es decreciente y acotada inferiormente por 0, ı o por lo tanto tambi´n tiene l´ e ımite. Se deduce que
n→∞

lim en+1 =

f (xn ) = n→∞ f (xn ) f (limn→∞ xn ) ⇒ f ( lim xn ) = 0 lim en − n→∞ n→∞ f (limn→∞ xn ) lim en −

(2.1)

y puesto que f (x) es estrictamente creciente se obtiene que limn→∞ xn = r (en caso contrario f (limn→∞ xn ) > f (r) = 0), es decir, la sucesi´n de Newtono Raphson converge a la soluci´n. o

2.2.3

Aproximaci´n y error o

La aproximaci´n a la soluci´n en el paso n del m´todo de Newton-Raphson es o o e xn . Por el razonamiento anterior sabemos que en+1 = f (xn ) 2 e . 2f (xn ) n

Si encontramos una constante C tal que C≥ maxx∈I |f (x)| 2 minx∈I |f (x)|

siendo I un intervalo que contenga a la sucesi´n (xn )n∈N y a la soluci´n r, o o tendremos que |en+1 | ≤ Ce2 n

´ Resolucion de ecuaciones no lineales

25

lo que significa que la convergencia de la sucesi´n de errores es cuadr´tica. En o a estas condiciones C|en+1 | ≤ C 2 e2 ≤ C 2 (Ce2 )2 ≤ · · · ≤ (Ce0 )2 n n−1 es decir C|en | ≤ (Ce0 )2 ⇒ |en | ≤
n n+1

1 n (Ce0 )2 C que es una cota del error que se puede obtener previamente a aplicar el m´todo. e 1 Si |Ce0 | < 1, o lo que es lo mismo |e0 | < C , siendo e0 = x0 − r, tendremos que |en | ≤ 1 n (Ce0 )2 → 0 C

con lo que tenemos otro criterio de convergencia del m´todo. e Ejemplo: Calcula el n´mero de pasos necesarios para encontrar la ra´ u ız −6 cuadrada de 3 con un error menor que 10 1. Con el m´todo de Newton-Raphson e 2. Con el m´todo de la bisecci´n. e o Puesto que la ra´ cuadrada de 3 es soluci´n de x2 − 3 = 0, aplicaremos ız o 2 − 3. Puesto que f (x) es continua en [1, 2] los m´todos a la funci´n f (x) = x e o y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano se sabe que en [1, 2] hay una soluci´n de f (x) = 0. o Apartado 1). Aplicamos el primer criterio para saber si el m´todo de e Newton-Raphson converger´ en el intervalo [1, 2]. f (x) es un polinomio y por a tanto es de clase C 2 . Como f (x) = 2x > 0 en [1, 2], la funci´n es estrictamente o creciente en [1, 2]. Adem´s f (x) = 2 > 0 en [1, 2]. Por todo ello, podemos a asegurar que el m´todo de Newton-Raphson converger´ a partir de cualquier e a punto de [1, 2]. Veamos el n´mero de iteraciones necesarias para que el error sea menor u −6 . Sabemos que que 10 1 n |en | ≤ (Ce0 )2 C siendo maxx∈[1,2]|f (x)| 2 2 1 C≥ = = = . 2 minx∈[1,2] |f (x)| 2 minx∈[1,2] |2x| 2·2 2

o 1.051 ∗ 10−5 Si n = 5. Calcula una cota del error cometido.73205 x5 = 1. Aplicamos el m´todo empezando en el punto x0 = 1 e xn = xn−1 − x0 = 1 x1 = 2 x2 − 3 x2 + 3 f (xn−1 ) = xn−1 − n−1 = n−1 .567143 x4 = 0.73414 x4 = 1.566311 . es decir. No e obstante. entonces |e19 | ≤ 9. o 2. o o Como f (x) = e−x −1 < 0 en [0. Aplicando el teorema de Bolzano al intervalo [0.73205 x2 = 1. Aplica el m´todo de Newton-Raphson con 4 iteraciones para encontrar e la soluci´n. entonces |e4 | ≤ 3.75 Apartado 2).26 Por tanto 1 |en | ≤ 1/2 1 e0 2 Cap´ ıtulo 2 2n =2 1 e0 2 2n Si n = 4. Sea f (x) = e−x − x. necesitamos 19 iteraciones. 1] se puede asegurar que en dicho intervalo hay una soluci´n de la ecuaci´n f (x) = 0. entonces |e5 | ≤ 4. 1].54 ∗ 10−7 . Sabemos que |en | ≤ 1 1 (b − a) = n+1 < 10−6 2n+1 2 y si n = 19. f (xn−1 ) 2xn−1 2xn−1 x3 = 1. 1] no podemos aplicar el criterio para asegurar que el m´todo funcione empezando en cualquier punto del intervalo [0. lo aplicamos empezando en el punto x0 = 0 xn+1 = xn − e−xn − xn −e−xn − 1 x3 = 0.567143 x0 = 0 x1 = 0.5 x2 = 0.66 ∗ 10−10 . Ejemplo: Dada la ecuaci´n e−x − x = 0. Luego basta con 5 iteraciones.

f (xn−1 ) − f (xn−2 ) Por tanto hay que utilizar dos puntos iniciales en lugar de uno.4 x4 = 1.3333 x3 = 1. xn = xn−1 − (x2 − 2) n−1 x2 n−1 xn−1 − xn−2 xn−1 − xn−2 = xn−1 − (x2 − 2) 2 n−1 2 − 2 − [xn−2 − 2] xn−1 − x2 n−2 y tomando tomando x0 = 1 y x1 = 2 nos queda x0 = 1 x1 = 2 x2 = 1. 2(1/e + 1) 2(e + 1) n −1 n 27 Por tanto |e4 | ≤ C 2 e2 ≤ 0.365529.´ Resolucion de ecuaciones no lineales Calculemos una cota del error C|e4 | ≤ (Ce0 )2 siendo C ≥ maxx∈[0.3715 116 ≈ 0.4146 .2] | − e−x − 1| e 1 = ≈ 0.33 ∗ 10−7 0 n 2.1] |e−x | maxx∈I |f (x)| = = 2 minx∈I |f (x)| 2 minx∈[1. Aplicamos el m´todo a la soluci´n de la ecuaci´n f (x) = x2 − 2 = 0 en el e o o intervalo [1. 2]. a a o a √ Ejemplo: Calcula una aproximaci´n de 2.4 Variaciones del m´todo: M´todo de la secante e e e Teniendo en cuenta quef (xn ) = limh→0 f (xn +h)−f (xn ) este m´todo se diferenh cia del de Newton-Raphson en que se sustituye f (xn ) por el valor aproximado f (xn−1 )−f (xn−2 ) de modo que la sucesi´n que queda es o xn−1 −xn−2 xn = xn−1 − f (xn−1 ) xn−1 − xn−2 . con 4 iteraciones del m´todo o e de la secante.2. Es un m´todo e m´s r´pido que el de la bisecci´n pero m´s lento que el de Newton-Raphson.

2]. A menudo.3. para resolver la ecuaci´n o o F (x) = x se construye la sucesi´n o xn = F (xn−1 ). o n→∞ entonces F (r) = F ( lim xn ) = lim F (xn ) = lim xn+1 = r.1 M´todo iterativo de punto fijo e Descripci´n del m´todo o e Ciertos problemas de aproximaci´n se pueden resolver encontrando una soluo ci´n de F (x) = x. Una soluci´n r de F (x) = x se denomina un punto fijo de o o la funci´n F (x). n→∞ n→∞ n→∞ es decir.5 2 2. el l´ ımite de xn es un punto fijo de F (x).5 -1 1. e Como pretendemos resolver la ecuaci´n f (x) = x3 − x − 1 = 0. por el o teorema de Bolzano sabemos que hay una soluci´n en el intervalo [1. Ejemplo: Encuentra una soluci´n real de x3 − x − 1 = 0 usando cinco o pasos de un m´todo iterativo de punto fijo. o 3 − x − 1 = 0 es equivalente a resolver una de estas Resolver f (x) = x ecuaciones √ 3 x3 − 1 = x o bien 1 + x = x. debido a que F (r) = r. se denomina e m´todo iterativo de punto fijo. La b´squeda de soluciones u de F (x) = x empleando sucesiones de la forma xn = F (xn−1 ).5 Cap´ ıtulo 2 M´todo de la secante para f (x) = x2 − 2 e 2. Cuando la sucesi´n xn es convergente y F (x) es continua.3 2. si r = lim xn .28 4 3 2 1 0. .

comenzando por un punto o del intervalo [1. 2]. puesto que F (x) es continua. es decir. o 3 gente.3123 x3 −2 1. Adem´s ´ a r es el l´ ımite de cualquier sucesi´n que se obtenga a partir de la expresi´n o o xn+1 = F (xn ) siendo x0 ∈ C. y ∈ C. ıa 2. Por el teorema del valor medio |F (y) − F (x)| = |F (θ)(y − x)| = 1 3 3 |F (x) − F (y)| ≤ λ|x − y| (1 + θ)2 (y − x) ≤ 1 1 √ (y − x) = |y − x| 3 3 3 1 ≤ para todo x. para la funci´n F (x) = 1 + x la sucesi´n que sale s´ es o o ı convergente a un n´mero r. Por tanto la funci´n es contractiva con λ = 1/3. y ∈ [0. . veriu u ficar´ que F (r) = r.3224 x4 −9 1. Dicho n´mero.3243 x5 −730 1.3. por ejemplo por x0 = 1 resulta lo siguiente: xn = F (xn−1 ) F (x) = √3 − 1 x F (x) = 3 1 + x x0 1 1 x1 0 1.2600 x2 −1 1. Sin embargo. o Teorema: Si F es una funci´n contractiva que va de un cerrado C ⊂ R o en C (F (C) ⊂ C). Construyamos o la sucesi´n xn = F (xn−1 ) para ambas funciones. Se dice que F es contractiva en un o o conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que ∀x. La mejor aproximaci´n de r obtenida a o ser´ 1. √ Ejemplo: Comprueba que la funci´n F (x) = 3 1 + x es contractiva en o [0. 1].3246 Es claro que para la funci´n F (x) = x3 −√ la sucesi´n no resulta convero 1.3246. 1].´ Resolucion de ecuaciones no lineales 29 con lo que podemos aplicar el m´todo iterativo de punto fijo para resolver la e √ ecuaci´n F (x) = x siendo F (x) = x3 −1 o bien F (x) = 3 1 + x. entonces F tiene un unico punto fijo r ∈ C. f (r) = 0.2 Convergencia del m´todo e Definici´n: Sea F : R → R una funci´n.

. Entonces ´ |r1 − r2 | = |F (r1 ) − F (r2 )| ≤ λ|r1 − r2 | < |r1 − r2 | llegando a contradicci´n. o 2. . es decir. x1 . existe θn ∈ R entre r y xn tal que f (r) − f (xn ) = f (θn ). . Sea r = o e limn→∞ xn . la sucesi´n (xn )n∈N tambi´n lo es.3 Aproximaci´n y error o Si r es soluci´n de f (x) = 0 obtenida por iteraci´n de una funci´n F (x). la sucesi´n generada mediante la o o expresi´n xn+1 = F (xn ). Sea x0 . . Veamos que (xn )n∈N converge.30 Cap´ ıtulo 2 Demostraci´n. . xn = x0 + x1 − x0 + x2 − x1 + · · · + xn − xn−1 = x0 + por lo que n n→∞ ∞ k=1 (xk − xk−1 ) lim xn = x0 + lim ∞ k=1 (xk n→∞ k=1 (xk − xk−1 ) = x0 + k=1 (xk − xk−1 ) La serie ∞ k=1 − xk−1 ) es convergente porque ∞ ∞ (xk − xk−1 ) ≤ k=1 |xk − xk−1 | ≤ k=1 λk−1 (x1 − x0 ) = |x1 − x0 | 1 1−λ Como la serie es convergente. . Falta ver que es unico. . r − xn . se tiene que F (r) = r. r ∈ C por ser C un conjunto cerrado y xn ∈ C. Por ser contractiva o se tiene que |xn − xn−1 | = |F (xn−1 ) − F (xn−2 )| ≤ λ|xn−1 − xn−2 | ≤ Por otra parte n λ2 |xn−2 − xn−3 | ≤ · · · ≤ λn−1 |x1 − x0 |. o o hay un punto fijo. x2 . Supongamos que hubiese dos puntos fijos r1 y r2 . Por la construcci´n de la sucesi´n.3. xn . o o o entonces si f (x) es continua y derivable.

Calculamos cinco iteraciones empezando en x0 = 0 : . Aplicando el teorema 3 3 de Bolzano a la funci´n f (x) en el intervalo [−3. 4. 4. 1 Por otra parte.r] |f (θ)| La f´rmula anterior nos proporciona un m´todo para encontrar una cota de o e error a posteriori y se puede aplicar a cualquier m´todo iterativo de punto fijo. puesto que −3.5]) ⊂ [−3.5. 3 3 2 Se deduce que F (x) es contractiva con constante λ = 3 . Veamos si F (x) es contractiva o aplicando el teorema del valor medio 2 2 |F (y) − F (x)| = |F (θ)(y − x)| = | cos(2x)(y − x)| ≤ |y − x|.5].5] se deduce que hay o una soluci´n de f (x) = 0 en dicho intervalo. se deduce que f (xn ) |f (xn )| f (xn ) ⇒ |en | ≤ . e Si F (x) es contractiva de constante λ entonces |xn+p − xn | = |xn+p − xn+p−1 | + |xn+p−1 − xn+p−2 | + · · · + |xn+1 − xn | ≤ ≤ λn+p−1 |x1 − x0 | + λn+p−2 |x1 − x0 | + · · · + λn |x1 − x0 | = = (λn+p−1 + λn+p−2 + · · · + λn )|x1 − x0 | = = λn (λp−1 + λp−2 + · · · + 1)|x1 − x0 | 1 1−λ de modo que cuando p tiende a infinito ∞ |en | = |r − xn | ≤ λ n k=0 λk = λ n |x1 − x0 | que es una f´rmula que permite calcular una cota de error a priori. 4. Sea f (x) = 4 + 1 sin(2x) − x y F (x) = 4 + 1 sin(2x).5 ≤ 4 + 3 sin(2x) ≤ 4. = f (θn ) ⇒ en = en f (θn ) minθ∈[xn . Por tanto.´ Resolucion de ecuaciones no lineales 31 Suponiendo que xn ≤ r y puesto que f (r) = 0 y −en = r − xn . se deduce que F ([−3. la sucesi´n xn+1 = F (xn ) converger´ a un punto fijo a partir de o a cualquier valor inicial x0 .5. o Ejemplo: Encuentra una soluci´n de la ecuaci´n 4 + 1 sin(2x) − x = 0 o o 3 con un m´todo iterativo de punto fijo estimando una cota del error a priori y e otra a posteriori.5.5.

256383406 Una cota del error para x5 a priori ser´ ıa |e5 | ≤ 2 3 5 1 1− 2 3 |4 − 0| ≈ 1.230895147 x4 4.5802 que no es una cota muy buena.329786082 x3 4.4 Ra´ ıces de polinomios No existe ninguna f´rmula algebraica para la resoluci´n de ra´ de polinomios o o ıces de grado mayor que 4. hay que aplicar m´todos num´ricos para el e e c´lculo de dichas ra´ a ıces. Sin embargo podemos intentar calcular las ra´ ıces de otro polinomio con las mismas soluciones que el nuestro pero todas con multiplicidad 1. Una cota del error para x5 a posteriori ser´ ıa |e5 | ≤ |f (x5 )| 0.00239847. Definici´n: Una soluci´n r de una ecuaci´n f (x) = 0 se dice que tiene o o o multiplicidad n si f (r) = f (r) = · · · = f n−1) (r) = 0 f n) (r) = 0.5.4.5] | 3 cos(2θ) − 1| 2. por tanto.32 x0 0 x1 4 x2 4.273633799 Cap´ ıtulo 2 x5 4.00719542 = 0. Ejemplo: r = 1 es una soluci´n de multiplicidad 2 para la ecuaci´n o o x2 − 2x + 1 = 0. ≤ 2 1/3 minθ∈[−3. . Para la localizaci´n de ra´ o ıces de polinomios con multiplicidad par (como en el ejemplo anterior) no podemos emplear el teorema de Bolzano.

Si derivamos. (x − r1 )m1 siendo mi la multiplicidad de la ra´ i-´sima. (x − r1 ) M.6 0.4 0. . .D(Pn (x). podemos descomponerlo as´ ı: Pn (x) = an (x − rk )mk (x − rk−1 )mk−1 .C.C. .8 0. .5 1 1.5 2 33 f (x) = x2 − 2x + 1 Teorema [Teorema fundamental del ´lgebra]: Un polinomio de grado n a con coeficientes reales tiene exactamente n ceros o ra´ ıces entre los n´meros u complejos C.´ Resolucion de ecuaciones no lineales 1 0. a . . (x − r1 )m1 −1 M (x) siendo M (x) un polinomio tal que M (ri ) = 0. El problema es el c´lculo de Q(x) y de M.D(Pn (x). Pn (x)) tiene las mismas ra´ ıces que P (x) pero todas con multiplicidad 1.C. . Pn (x)) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 .D(Pn (x). contando cada cero tantas veces como indique su multiplicidad. Bastar´ ıa aplicar los m´todos a Q(x) para localizar las ra´ e ıces de Pn (x). obtenemos que ız e Pn (x) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 . (x − r1 )m1 −1 por lo que el polinomio Q(x) = P (x) = an (x − rk )(x − rk−1 ) . . Pn (x)). De modo que dado un polinomio Pn (x).2 0. El m´ximo com´n divisor de a u Pn (x) y de Pn (x) es D(x) = M. .

En este caso la sucesi´n de Sturm es o Pn (x). . −rk (x). . . . En este caso rk−1 (x) es el m´ximo com´n a u divisor de Pn (x) y de Pn (x). o La sucesi´n de Sturm nos permite calcular el n´mero de ra´ de un polinomio o u ıces en un intervalo [a. −r1 (b). Sucesi´n de Sturm. Construimos entonces la sucesi´n de Sturm coo rrespondiente al polinomio Q(x) = Pn (x) rk−1 (x) que es un polinomio que tiene las mismas ra´ que Pn (x) pero todas simples. Llegamos a un resto rk (x) constante distinto de 0. −r1 (a). −rk (a) Pn (b). Para construir la sucesi´n de Sturm aplicamos la divisi´n de polinomios o o repetidas veces a Pn (x). Pn−1 (b). . Pn−1 (x). b]. .34 Cap´ ıtulo 2 2. ıces 2.. b]. Hay un resto rk (x) = 0. . Pn−1 (a). .. . . .4. . Sea Pn (x) un polinomio de grado n y Pn (x) su derivada. . −r1 (x). Pn (x) y a los restos obtenidos cambiados de signo: Pn (x) Pn (x) −r1 (x) . −rk−2 (x) = c1 (x)Pn (x) + r1 (x) = c2 (x)(−r1 (x)) + r2 (x) = c3 (x)(−r2 (x)) + r3 (x) = ck (x)(−rk−1 (x)) + rk (x) Puede ocurrir lo siguiente: 1. −rk (b) es el n´mero de ra´ u ıces de Pn (x) en el intervalo [a. La diferencia entre el n´mero de cambios de signos de las sucesiones siguientes u Pn (a).1 Separaci´n de ra´ o ıces.

. 2) porque ız la diferencia de cambios de signo en los extremos en ambos casos es 1. El tercer miembro de la sucesi´n de Sturm es 300x2 − 50x − 50. 12x − 1. 2. calculamos el polinomio Q(x) = 6x2 P (x) = 6x2 − x − 1. Podemos multiplicar los polinomios implicados por numeros positivos para facilitar los c´lculos sin a que ello afecte al objetivo perseguido. Como hay un resto que es 0 el m´ximo com´n divisor de P (x) y P (x) es a u 300x2 − 50x − 50 o bien dividiendo por 50 6x2 − x − 1. Estudiamos algunos cambios de signo: 6x2 − x − 1 12x − 1 25 24 cambios de signo −∞ + + 2 -2 + + 2 En el intervalo (∞. Efeco tuamos la siguiente divisi´n: o 144x3 − 36x2 − 22x + 2 = 2/50(12x − 1)(300x2 − 50x − 50) + 0 3. Multiplicamos Pn (x) por 4 y efectuamos la primera divisi´n: o 144x4 −48x3 −44x+8x+4 = (x−1)(144x3 −36x2 −22x+2)+(−300x2 +50x+50). −2) y en (0. 2) no hay ninguna ra´ porque en los extremos ız de los intervalos la sucesi´n de Sturm tiene los mismos cambios de signo. −x−1 x −25 1 + )(12x − 1) + 24 2 24 25 24 0 + 1 2 + + + 0 ∞ + + + 0 4. Construimos la sucesi´n de Sturm para Q(x). Comenzamos los c´lculos: a 1.´ Resolucion de ecuaciones no lineales 35 Ejemplo: Localiza en intervalos disjuntos las ra´ ıces del P (x) = 36x 4 − 3 − 11x2 + 2x + 1. o 6x2 − x − 1 = (− Con la sucesi´n es o 6x2 − x − 1. 0) hay una ra´ y hay otra en el intervalo (0. 12x La derivada de P (x) es P (x) = 144x3 −36x2 −22x+2. o En el intervalo (−2.

−1/2. (−2. 9x2 + 9x + 2. 2 2 2 Podemos multiplicar por 2 el resto con lo que −r1 (x) = 9x2 − 9x + 2. 2 Separamos las ra´ ıces en intervalos disjuntos: x4 + 2x3 − 3x2 − 4x − 1 2x3 + 3x2 − 3x − 2 9x2 + 9x + 2 2x + 1 1 2 cambios de signo -1/2 + 0 + 2 0 + + + 1 1 0 + + + 1 2 + + + + + 0 ∞ + + + + + 0 En el intervalo (∞. 0 y (1. (−1. −1/2). ∞) no hay ninguna ra´ ız porque en los extremos de los intervalos la sucesi´n de Sturm tiene los mismos o cambios de signo. 2x + 1. 2 2 Con lo que la sucesi´n queda as´ o ı: 2x3 + 3x2 − 3x − 2. 2) hay una ra´ porque la diferencia de cambios de signo en los extremos en ambos ız casos es 1. 3x2 La derivada es P (x) = 4x3 + 6x2 − 6x − 4 = 2(2x3 + 3x2 − 3x − 2). −3). Dividiendo por 20 podemos suponer que −r2 (x) = 2x + 1. −1). . −2). (0. 1) y en (2. Para facilitar los c´lculos multiplicamos P (x) por 9 y calculamos el siguiente a miembro de la sucesi´n: o 18x3 + 27x2 − 27x − 18 = (2x + 1)(9x2 + 9x + 2) + (−40x − 20). Multiplicamos −r1 (x) por 2 y calculamos −r3 (x): 9 −1 18x2 + 18x + 4 = (9x + )(2x + 1) + . −∞ + + + 4 -3 + + + 4 -2 0 + + 3 -1 + + + 3 x4 + 2x3 − 3x2 − 4x − 1. Para facilitar el c´lculo multiplicamos P (x) por 2 y calculamos es tercer miembro a de la sucesi´n de Sturm: o 9 9 1 2x4 + 4x3 − 6x2 − 8x − 1 = (x + )(2x3 + 3x2 − 3x − 2) + (− x2 − x − 1). En cada uno de los intervalos (−3.36 Cap´ ıtulo 2 Ejemplo: Localiza en intervalos disjuntos las ra´ del P (x) = x4 +2x3 − ıces − 4x − 1. 1 .

es trivial que |r| < 1 + A . entonces A |r| < 1 + |an | Demostraci´n.2 Acotaci´n de ra´ o ıces siendo A = max0≤i≤n−1 |ai |. o 0 = |P (r)| = |an rn + an−1 rn−1 + · · · + a0 | ≥ ≥ |an rn | − |an−1 rn−1 + · · · + a0 | ≥ |an rn | − A |r|n−1 + · · · + |r| + 1 = |r|n − 1 |r|n |an rn | − A > |an ||r|n − A |r| − 1 |r| − 1 ≥ |an rn | − |an−1 ||rn−1 | + · · · + |a0 | ≥ > |r|n |an | − es decir.4. 0 > |an | − A A A ⇒ |an | < ⇒ |r| − 1 < |r| − 1 |r| − 1 |an | |r| < 1 + Si |r| ≤ 1. |an | A |r| − 1 con lo que concluimos que A |an | . Supongamos que |r| > 1. |an | 1 . Proposici´n: Sea P (x) = an xn + an−1 xn−1 + · · · + a0 . Ejemplo: Acota las ra´ ıces del polinomio P (x) = x4 + 2x3 − 3x2 − 4x − 1.´ Resolucion de ecuaciones no lineales 37 2. Com A = max1≤i≤n−1 |ai | = 4. usando la proposici´n anterior obtenemos o que cualquier ra´ r del polinomio verifica lo siguiente ız |r| < 1 + A 4 = 1 + = 5 ⇒ −5 < r < 5. Si r es una ra´ de o ız P (x).

b0 P (x0 ) x0 cn−2 x0 cn−3 x0 . . . bn−2 = an−1 +bn−1 x0 . Adem´s. . . . ´ a Sea x0 ∈ R y P (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 . . Entonces P (x0 ) = R y P (x) = Q(x)(x − x0 ) + P (x0 ). a1 a0 b1 x0 b0 x0 b0 P (x0 ) que tambi´n es una forma sencilla de calcular P (x0 ). b1 x 0 b0 x0 bn−1 bn−2 bn−3 . e a P (x) = Q(x)(x − x0 ) + R ⇒ P (x) = Q (x)(x − x0 ) + Q(x) ⇒ P (x0 ) = Q(x0 ). El algoritmo de Horner hace estos ultimos c´lculos de forma sencilla para polinomios. . . bn−2 bn−3 . Sea P (x) = Q(x)(x − x0 ) + R (R ser´ constante) el resultado de dividir P (x) entre (x − x0 ). con lo que La obtenci´n de los coeficientes bi se pueden representar gr´ficamente as´ o a ı an−1 an−2 . . P (x) − P (x0 ) = Q(x)(x − x0 ) es decir an xn + an−1 xn−1 + · · · + a1 x + a0 − P (x0 ) = = (bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 )(x − x0 ) Desarrollando e igualando los coeficientes de ambos t´rminos se deduce e que bn−1 = an . an x0 bn−1 .4. P (x0 ) . . .38 Cap´ ıtulo 2 2.3 Ra´ ıces de polinomios con el algoritmo de Horner Si usamos el m´todo de Newton-Raphson para encontrar las ra´ e ıces de un polinomio P (x) hemos de calcular P (xn ) y P (xn ).. . .. bn−1 x0 bn−2 x0 . . De modo que para calcular P (x0 ) podemos aplicar el algoritmo gr´fico anterior a a Q(x) : an an−1 an−2 . b0 = a1 +b1 x0 P (x0 ) = a0 +b0 x0 . Supongamos a que Q(x) = bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 .. a1 a0 x0 bn−1 x0 bn−2 x0 . . c0 x 0 cn−2 cn−3 cn−4 . .

P (x)) que ser´ un polinomio con las mismas ra´ a ıces que f (x) pero todas con multiplicidad 1. podemos intentar calcular las ra´ a ıces de P (x) Q(x) = M CD(P (x). Para detectar de qu´ multie plicidad es la ra´ en cuesti´n. Si la sucesi´n generada converge muy lentamente. Sea o no f (x) un polinomio. o se puede acelerar la convergencia de la sucesi´n calcul´ndola as´ o a ı xn+1 = xn − k f (xn ) . es decir que r sea una soluci´n de f (x) = 0 de multiplicidad k. f (xn ) . el c´lculo puede ser o u a problem´tico. f (xn ). para cada termino de la sucesi´n xn generada ız o o calculamos f (xn ). f k) (xn ). . calcula con el algoritmo de Horner P (2) y P (2).´ Resolucion de ecuaciones no lineales 39 Ejemplo: Siendo P (x) = x4 + 2x3 − 3x2 − 4x − 1. Si las derivadas hasta orden k − 1 son casi 0 en los valores xn y f k) (xn ) no es cercano a 0. En este caso. 2 1 −3 4 −5 4 10 14 36 2 5 7 18 31 2 4 18 50 2 9 25 68 2 Se concluye que P (2) = 31 y P (2) = 68. Si f (x) es un polinomio.4. 2. se puede intentar aplicar el m´todo de Newtone Raphson. entonces puede ocurrir que la soluci´n r verifique que o f n) (r) = 0 ∀ 0 ≤ n < k y f k) (r) = 0.4 Ra´ ıces m´ ltiples u Si una ecuaci´n f (x) = 0 tiene soluciones m´ltiples. . . f (xn ). la causa puede o encontrarse en esa multiplicidad de las ra´ ıces. .

b] |f (θ)| Cap´ ıtulo 2 Ejercicio: Sea f (x) = (x − 1)3 . Aplica Newton-Raphson para encontrar una soluci´n de f (x) = 0 empezando en x0 = 0. o .40 El error se obtendr´ as´ ıa ı |en | < |f (xn )| minθ∈[a.

el sistema anterior se puede expresar A·x=b 3.1≤j≤n ∈ Mm×n ). b = (bi )1≤i≤n y x = (xi )1≤i≤n .Cap´ ıtulo 3 Sistemas Lineales El objetivo de este tema es el desarrollo de t´cnicas de b´squeda de soluciones e u de sistemas de ecuaciones lineales como el siguiente: a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn an1 x1 + an2 x2 + · · · + ann xn = = ··· = b1 b2 bn Denotando A = (aij )1≤i.j≤n . 41 . La matriz traspuesta de A es la matriz At que resulta de intercambiar las filas de A por las columnas de A. A es de orden m×n si tiene tiene m filas y n columnas (A = (aij )1≤i≤m.1 ´ Algebra de matrices Sea A una matriz. Por ejemplo 3 5 2 2 1 3 tiene orden 2 × 3.

Sumar dos matrices A y B si A. .. al producto de una fila o columna por un n´mero distinto u de 0. Cada u o . podemos realizar las siguientes operaciones: .j el adjunto del elemento aij . ∀A ∈ Mn×n .. entonces A es regular.42 Cap´ ıtulo 3 A es sim´trica si At = A. a la suma de una fila o columna otra fila o columna multiplicada por un n´mero. entonces la inversa por la izquierda es tambi´n inversa por e −1 la derecha.j )t . A−1 = |A| La matriz identidad de orden n × n es  1 0 0 0 1 0 Id =   ..  0 0   1 Se verifica que A · Id = Id · A = A. B es una matriz inversa de A por la derecha si B · A = Id B es una matriz inversa de A por la izquierda si A · B = Id.. o Se llaman operaciones elementales de una matriz al intercambio de dos filas o columnas.Multiplicar una matriz por un n´mero: u α · A = (αaij )1≤i≤m. En este caso la inversa es unica y se denota A ´ A−1 · A = A · A−1 = Id.j≤m . Si A ∈ Mn×n tiene inversa. 0 0 . La matriz inversa es 1 (Ai.. En este caso el sistema A · x = b tiene como soluci´n x = A−1 · b. B ∈ Mm×n : A + B = (ai. .1≤j≤n ∈ Mm×n ..1≤j≤n . invertible o no singular. 0 siendo Ai.j + bij )1≤i. o cualquier combinaci´n finita de las operaciones anteriores. Si A ∈ Mn×n .. . e Si α ∈ R y B es una matriz.. .Multiplicar dos matrices A ∈ Mm×p y B ∈ Mp×n : p A·B =( k=1 aik bkj )1≤i≤m.

E1 Id = A−1 . dada la matriz   a11 a12 a13 A = a21 a22 a23  . . a22 a23 representa aplicar a la segunda matriz los siguientes cambios: . entonces existe un conjunto de matrices fundamentales Ek con k = 1. tales que Ep Ep−1 . . El producto de matrices     1 0 0 a11 a12 a13 0 0 α  · a21 a22 a23  0 1 αλ a31 a32 a33 Y la suma a la tercera fila de la segunda fila multiplicada por un n´mero α es: u       a11 a12 a13 1 0 0 a11 a12 a13  0 1 0 · a21 a22 a23  =  a21 a22 a23 αa21 + a31 αa22 + a32 αa23 + a33 a31 a32 a33 0 α 1 la segunda fila   a11 0 0 α 0 · a21 a31 0 1 por un n´mero α se puede expresar as´ u ı:    a12 a13 a11 a12 a13 a22 a23  = αa21 αa22 αa23  a32 a33 a31 a32 a33 . . . E1 A = Id.Multiplicar la tercera fila por αλ y sumarle la segunda. aplicando las mismas operaciones fundamentales a la matriz Id obtendremos la matriz inversa A−1 . a31 a32 a33 el intercambio de la  1 0 0 0 0 1 El producto de  1 0 0 segunda y tercera filas se puede     a11 a11 a12 a13 0 1 · a21 a22 a23  = a31 a21 a31 a32 a33 0 expresar as´ ı:  a12 a13 a32 a33  . Por ejemplo. con lo que multiplicando por A−1 por la derecha en ambos t´rminos se obtiene e que Ep Ep−1 . . p. Si A ∈ Mn×n tiene inversa. es decir. . que se llama matriz fundamental.Sistemas lineales 43 operaci´n fundamental en una matriz A se puede expresar mediante producto o de A por otra matriz. . . .Sustituir la fila segunda por la tercera multiplicada por α.

El primer cambio consiste en restar a la segunda fila la primera (correspondiente al producto por una cierta matriz fundamental E1 ):     1 0 0 1 2 3 E1 · Id = −1 1 0 E1 · A = 0 1 0  0 0 1 2 4 7 El segundo cambio (multiplicar por E2 ) consiste en restar a la tercera dos veces la primera:  1 2 3 E2 · E 1 · A = 0 1 0  0 0 1   1 0 0 E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto dos veces la segunda (E3 ):   1 0 3 E3 · E2 · E1 · A = 0 1 0 0 0 1  3 −2 0 E3 · E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto tres veces la tercera (E4 ):  1 0 0 E4 ·E3 ·E2 ·E1 ·A = 0 1 0 0 0 1   9 −2 −3 0  = A−1 . 2 4 7  Cap´ ıtulo 3 Partimos de A y la matriz Id. E4 ·E3 ·E2 ·E1 ·Id = −1 1 −2 0 1  Esta ultima matriz es la inversa de A.44 Ejemplo: Calcula la inversa de la matriz  1 2 3 A = 1 3 3  . ´ .

Los vectores fila de la matriz A son linealmente independientes. 4. 5.Sistemas lineales 45 Para toda matriz A ∈ Mn×n son equivalentes: 1. entonces.2 Matriz definida Sea A ∈ Mn×n . Para cada b ∈ Rn . 2 1 x1 · x2 1 2 = (x1 . son los elementos de n´cleo de u la aplicaci´n lineal A − λ · Id. Se dice que A es definida positiva (equivalentemente. (x1 . el sistema A · x = b tiene una unica soluci´n. Ejemplo. 1 2 1 2 Si A es una matriz definida positiva y sim´trica.1 Valores propios y vectores propios Sea A ∈ Mn×n . A es producto de matrices elementales. y x es un vector propio o autovector para el autovalor λ. x2 ) · 2x1 + x2 x1 + 2x2 = 2x2 + x1 x2 + x1 x2 + 2x2 = (x1 + x2 )2 + x2 + x2 > 0. 3. 3. |A| = 0. negativa) si para todo x ∈ Rn no nulo.1. se verifica que xt · A · x > 0. o 3. 2. λ es un valor propio o autovalor de la matriz A.1. Los vectores columna de la matriz A son linealmente independientes. A−1 existe. x2 ) · es definida positiva. Los vectores propios de A para el autovalor λ. Si existe un vector x ∈ Rn no nulo y un n´mero λ ∈ R tal u que A · x = λx. La matriz A = 2 1 1 2 Sea (x1 . Los valores propios de una matriz A son las ra´ ıces del llamado polinomio caracter´ ıstico |A − λ · Id|. u . ´ o 6. x2 ) un vector no nulo. entonces los autovalores e de A son todos n´meros reales y positivos.

o Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.. o o u 3. u • Iterativos: construyen una sucesi´n de soluciones aproximadas. Multiplicamos una ecuaci´n por un n´mero distinto de cero. o u 2. . . Intercambiamos dos ecuaciones.. . Para evitar este problema se utilizan m´todos num´ricos de resoluci´n de ecuaciones e e o lineales que pueden ser: • Directos: proporcionan un resultado que ser´ exacto salvo errores de a redondeo tras un n´mero determinado de operaciones. . Si |A| = 0. . para n = 50 se necesitan 1064 operaciones. |A| a1n a2n ann . puede no haber soluci´n. o existe una unica soluci´n y se puede calcular as´ ´ o ı: b1 b2 x1 = bn a12 . si |A| = 0. .2 Resoluci´n de sistemas de ecuaciones lineales: o m´todo de Gauss e Dado el sistema A · x = b.. . xn = a11 a21 a2n . ··· ..46 Cap´ ıtulo 3 3. . . Es decir. resulta un sistema equivalente si efectuamos alguna de las siguientes operaciones: 1... En un sistema de ecuaciones se pueden efectuar operaciones elementales en la matriz de los coeficientes y en la de los t´rminos independientes e y resulta un sistema equivalente. a22 .. . Sumamos a una ecuaci´n otra ecuaci´n multiplicada por un n´mero. Por ejemplo. an2 . a1n−1 a2n−1 b1 b2 ann−1 bn |A| Los c´lculos anteriores son poco pr´cticos cuando el n´mero de ecuaciones a a u es grande.. de modo o que en cada paso se mejora la aproximaci´n anterior.

2. . . xn−1 . e • Paso i (i ≥ 2). se convierten en 0 los elementos que se encuentran en la columna i de la fila j (j > i). Ejemplo: Resuelve el siguiente sistema de ecuaciones: 6x1 − 2x2 + 2x3 + 4x4 12x1 − 8x2 + 6x3 + 10x4 3x1 − 13x2 + 9x3 + 3x4 −6x1 + 4x2 + x3 − 18x4 = 12 = 34 = 27 = −38. e Se efect´an los pasos necesarios hasta que la matriz de los coeficientes sea u triangular. Si aii = 0. se elige a11 como elemento pivote. Conseguido esto. Si aii = 0. se intercambian las filas de orden mayor o igual que i para que esto no suceda.1 M´todo de Gauss e El m´todo de Gauss cl´sico es un m´todo directo que transforma mediante e a e operaciones elementales el sistema de ecuaciones que se pretende resolver en un sistema equivalente triangular de f´cil resoluci´n. En las operaciones de sumas de filas hay que incluir los t´rminos independientes. . u llamados multiplicadores. En forma matricial es sistema ser´ ıa      6 −2 2 4 x1 12  12 −8 6 10  x2   34     =  . se convierten en 0 los elementos que se encuentran en la primera columna distintos del pivote. Sumando a cada una de las filas que ocupan el lugar j (j > i) la fila del elemento pivote multiplicada por n´meros.  3 −13 9 3  x3   27  −6 4 1 −18 x4 −38 En el sistema anterior el m´todo de Gauss podr´ aplicarse as´ e ıa ı: . . se elige aii como elemento pivote. x1 . el c´lculo de la soluci´n es sencillo siguiendo el a o siguiente orden: xn . llamados u multiplicadores. En las operaciones de sumas de filas hay que incluir los t´rminos independientes. a o El m´todo de Gauss puede resumirse en lo siguiente: e • Paso 1. se intercambian las filas para que esto no suceda. Si a11 = 0. Sumando a cada una las filas restantes la fila del elemento pivote multiplicada por ciertos n´meros.Sistemas lineales 47 3. Si a11 = 0.

Elegimos como elemento pivote el t´rmino 6 de la primera fila e y efectuamos las siguientes operaciones: (fila 2a ) − 2(fila 1a ) (fila 3a ) − 1/2(fila 1a ) (fila 4a ) − (−1)(fila 1a ) Paso 2. −3 x4 0 0 0 −3     2 4 x1 12 2 2  x2   10    =  . Elegimos como elemento pivote el t´rmino −4 de la segunda fila y e efectuamos las siguientes operaciones: (fila 3a ) − 3(fila 2a ) obtenemos el sistema  6 −2 0 −4  0 0 0 0 (fila 4a ) − (−1/2)(fila 2a ) obtenemos el sistema      6 −2 2 4 x1 12 0 −4 2 2  x2   10     =  . 0 −12 8 1  x3   21  x4 0 2 3 −14 −26 Paso 3.48 Cap´ ıtulo 3 1. Paso 1. 2 −5  x3   −9  4 −13 x4 −21 que es un sistema de ecuaciones triangular superior de f´cil resoluci´n: a o  x1 = 1/6(12 − 4x4 − 2x3 + 2x2 ) = 1 6x1 − 2x2 + 2x3 + 4x4 = 12    −4x2 + 2x3 + 2x4 = 10 x2 = −1/4(10 − 2x4 − 2x3 ) = −3 ⇒ 2x3 − 5x4 = −9  x3 = 1/2(−9 + 5x4 ) = −2   x4 = 1 −3x4 = −3 . Elegimos como elemento pivote el t´rmino 2 de la tercera fila y e efectuamos la siguiente operaci´n: o (fila 4a ) − 2(fila 3a ) obtenemos el sistema      12 x1 6 −2 2 4 0 −4 2 2  x2   10       0 0 2 −5 x3  = −9 .

programa Maxima o Mathematica. En e ıa general.001 1 1 1 x1 x2 = 1 2 el m´todo de Gauss no funcionar´ correctamente por errores de redondeo. De hecho. al hacer los c´lculos con le a 999 −17 se obtiene x = 1 y x = 0. por lo que x1 = 0. U la matriz de los coeficientes final y L la matriz formada por los n´meros que u hemos utilizado para multiplicar las filas (multiplicadores): 1 0  2 1 L= 1/2 3 −1 −1/2  0 0 1 2  0 0  0 1 3. Si = 0. obtendr´ ıamos que x2 = 0. Sin embargo las soluciones exactas ıa son x2 = 998 ≈ 1 y x1 = 1000/999 ≈ 1. ser´ x2 = 0.Sistemas lineales 49 Se verifica que A = L · U .998998998999. con = 10 2 1 Esto sucede cuando el elemento pivote en alg´n paso es muy peque˜o u n comparado con el resto de los elementos a los que divide. En este caso el . redondeando a dos decimales.2 M´todo de Gauss con pivoteo e En un sistema como este 0.001. siendo A la matriz de los coeficientes inicial. si = 0 es peque˜o. si consideramos el redondeo. que. el sistema n 1 1 1 x1 x2 = 1 2 aplicando el m´todo de Gauss se transformar´ en e ıa 1 0 1− 1 x1 x2 = 1 2− 1 con lo que las soluciones. ser´ ıan: x2 = 2− 1− 1 1 1 ⇒ x1 = (1 − x2 ) 1 0.2.

con k. Pivoteo parcial: si estamos en el paso i. Obtenemos la matriz   6 1 −6 −5 | 6 2 2 3 2 | −2   4 −3 0 1 | −7 0 2 0 1 | 0 La matriz de los coeficientes y  0 2 2 2  4 −3 6 1 de los t´rminos independientes ser´ e ıa  0 1 | 0 3 2 | −2  0 1 | −7 −6 −5 | 6 . independientemente de si aii es cero o no. Elegimos como elemento pivote el t´rmino 6 de la ultima fila por e ´ ser el de mayor valor absoluto de entre los elementos de la primera columna. se elige como elemento pivote el elemento aki que tenga mayor valor absoluto entre los de la columna i. 2.50 Cap´ ıtulo 3 multiplicador correspondiente ser´ muy grande y la ecuaci´n que origina es a o ”casi¨n m´ltiplo de la ecuaci´n del elemento pivote: u u o 1 1 (fila 2a ) − (fila 1a ) ≈ − (fila 1a ). Este problema se puede resolver de dos formas: 1. Pivoteo total: si estamos en el paso i. con k ≥ i. j ≥ i. se elige como elemento pivote el elemento akj que tenga mayor valor absoluto entre los de la columna i y los de la fila i. o Ejemplo: Resuelve el siguiente sistema de ecuaciones: 2x2 + x4 2x1 + 2x2 + 3x3 + 2x4 4x1 − 3x2 + x4 6x1 + x2 − 6x3 − 5x4 = = = = 0 −2 −7 6. aplicando el pivoteo parcial. y se reordenan las filas. independientemente de si aii es cero o no. Esta opci´n tiene un importante o inconveniente pues hay que reordenar las inc´gnitas. El pivoteo parcial ser´ este proceso: ıa Paso 1. y se reordenan las filas y columnas.

Elegimos como elemento pivote el t´rmino −3.3333x4 6.8182 0 0 0 1.6667x2 + 4x3 + 4.6364 1.667 de la tercera fila por e ser el de mayor valor absoluto de entre los elementos de la segunda columna.1199 que se corresponde con el sistema de ecuaciones 6x1 + x2 + −6x3 − 5x4 −3.0001 (fila 4 6.8182 5.5600x4 = = = = 6 −11 . Este sistema se resuelve f´cilmente por ser triangular despejando las inc´gnitas a o en orden inverso.5600 | −3.6667 4 4.8182x3 + 5.1818 3. Se obtiene la soluci´n: o .3333 | −11    2 a) a) − 0 (fila 4 (fila 2 0 6.3333 | −11 (fila 3 6 0 2 0 1 | 0 51 Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 1.6667 4 4.6667 0 −3.6667 0 0 2.1818 (fila 3a ) 0 0 6.6667 | −4  (fila 2a ) − 2 (fila 1a ) 6   a ) − 4 (fila 1a ) 0 −3.6364 | −9.6667 (fila 3a ) − −3.6667 4 4.6667 | −4  0 2 0 1 | 0 Paso 3. −9.6667 5 3.6364 | −9.8182 5.1199.Sistemas lineales Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 0 1.9999 Paso 2.3333 | −11   0 1.0001 −3. Efectuamos la operaci´n indicada y obtenemos la matriz o siguiente:   6 1 −6 −5 | 6 0 −3.6667 (fila 2a ) 4 4.3333 | −11   U = a ) − 2.8182 de la tercera fila y no es necesario a intercambiar filas.0001 −3.6667 5 3.3636 | −5. Obtenemos la matriz   6 1 −6 −5 | 6 0 −3. El elemento pivote ser´ 6.

52 Cap´ ıtulo 3 x4 = −1. Calcular el determinante de la matriz de los coeficientes. anterior es la siguiente:  0 0  0 1 y se verifica que La matriz L de los multiplicadores en el ejemplo  0 0 1 0. que es una respuesta aceptable teniendo en cuenta que la soluci´n exacta o x4 = −2.9999. Esto ultimo nos permite calcular el determinante de A de forma sencilla al ´ ser |L| = 1.3333 −0.50000. L·U = 2 2 3 2 0 2 0 1 . tal que P · A = A = L · U. x2 = 1.54545 0.0000.45454 1 0 −0. x1 = −0.6667 1 0 L= 0. 2. es x3 = 0. En todo caso se verifica que existe una matriz P . El m´todo de Gauss permite: e 1. x1 = −1/2. que representa permutaciones de filas si empleamos pivoteo parcial. o siendo L y U matrices triangulares inferior y superior.33325. respectivamente. x2 = 1. 3. Encontrar las soluciones de un sistema de ecuaciones. x3 = 1/3. Descomponer la matriz de los coeficientes A en un producto de matrices P · A donde P representa una permutaci´n de filas de A y A = L · U .  6 1 −6 5 4 −3 0 1  := A . A = A si no se utiliza el pivoteo.32  El resultado no es exactamente A porque al aplicar el pivoteo hemos permutado filas. |P | = (−1)p (p es el n´mero de permutaciones de filas) y U una u matriz triangular: |A| = |P −1 · A | = |P −1 · L · U | = |P −1 ||L||U | = (−1)p |U |.

. La soluci´n x obtenida ser´ la o a soluci´n de Ax = b porque o Ax = LU x = Ly = b. para despu´s aplicar los pasos 1 y 2 e anteriores y as´ resolver el sistema. . . ..3 Factorizaci´n LU.. u2n  = . . obtendremos una descomposici´n de la matriz A en dos matrices A = L · U . 0 u11 u12 . Las soluciones a dan lugar a una descomposici´n L · U que es la misma que la obtenida por el o m´todo de Gauss sin intercambio de filas. .. ann 0 0 . por ejemplo. Resolvemos el sistema Ly = b y obtenemos una soluci´n y.Sistemas lineales 53 3. Esto permite. u1n  a21 a22 . . . . .. 0   0 u22 . a1n l11 0 0 . . podemos resolver el sistema de ecuaciones siguiendo estos dos pasos: a Paso 1. ı Si A = L · U tendremos que      a11 a12 . . .. Factorizaci´n de Cholesky o o Dado el sistema de ecuaciones Ax = b.. u3n  . una condici´n necesaria y suficiente para que A admita o una descomposici´n L·U de la forma anterior es que los menores fundamentales o (todos los determinantes de las matrices formadas con las primeras k filas y columnas) sean no nulos. . . o ´ . e o Los m´todos de factorizaci´n LU consisten en descomponer la matriz en producto de dos matrices triangulares. En este caso la factorizaci´n es unica. o Paso 2. . o siendo L triangular inferior y U triangular superior. a2n   l21 l22 0 . Si imponemos la condici´n n o o l11 = l22 = · · · = lnn = 1 obtendremos un sistema de ecuaciones f´cilmente resoluble. Adem´s. lnn Haciendo el producto de matrices e igualando t´rmino a t´rmino se obtienen e e 2 ecuaciones lineales con n2 + n inc´gnitas. calcular de forma sencilla el determinante de A: n n |A| = |L||U | = ( lii )( i=1 i=1 uii ). si aplicamos el m´todo de Gauss sin e pivoteo solo a la matriz de los coeficientes y no a los t´rminos independientes e b.. . an1 an2 . unn ln1 ln2 . e Si A es no singular.       . Resolvemos el sistema U x = y..

|A21 | = 3 1 6 3 = 0 y A33 = 3 1 2 6 3 2 −3 0 −8 = 0. o . −3 0 −8 2 x3 Como |A11 | = 3. 2 y3 y3 = 1 −1 1 1      x1 = 0 0 x1 3 1 2 U x = y ⇒ 0 1 −2 · x2  = 1 ⇒ x2 = 1 .      0 y1 = 0 1 0 0 y1 Ly = b ⇒  2 1 0 · y2  = 1 ⇒ y2 = 1 . 2 x3 1 0 0 −4 x3 = −1 4  que es la soluci´n del sistema. 0 0 u33 l31 l32 1 −3 0 −8 obtenemos u11 = 3 u12 = 1 u13 = 2 l21 u12 = 6 l21 u12 + u22 = 3 l21 u13 + u23 = 2 l31 u11 = −3 l31 u12 + l32 u22 = 0 l31 u13 + l32 u23 + u33 = −8                u11 = 3 u12 = 1 u13 = 2 l21 = 2 ⇒ u22 = 1   u23 = −2      l31 = −1     l32 = 1   u33 = −4 Paso 1. Paso 2. el sistema admite la factorizaci´n L · U buscada. Igualando t´rmino a t´rmino o e e las matrices siguientes      u11 u12 u13 1 0 0 3 1 2  6 3 2  = l21 1 0  0 u22 u23  .54 Cap´ ıtulo 3 Ejemplo: Resuelve el siguiente sistema mediante factorizaci´n L · U de o Gauss       3 1 2 x1 0  6 3 2  · x2  = 1 .

. 0 .. e La resoluci´n de un sistema de n = 50 ecuaciones con el m´todo de Choo e lesky requiere 503 /3 operaciones. 0 0 . 3...1 M´todo de Crout e Si en la factorizaci´n LU fijamos o u11 = u22 = · · · = unn = 1 se obtiene la descomposici´n por el m´todo de Crout. . . lij = uji . l31 = u13 . 0 l21 1 0 . .3. . lnn = unn . . l21 = u12 . ..3 Sistemas triangulares lineales en los que la matriz de los coeficientes es  a12 0 0 0 .Sistemas lineales 55 3. . . que tiene el inconveniente o e que puede producir grandes errores en la resoluci´n del sistema de ecuaciones..2 M´todo de Cholesky e Si en la factorizaci´n LU exigimos que U = Lt de modo que o l11 = u11 . o 3. 0 .   .. la matriz o u ıa admite una descomposici´n de la forma o    1 0 0 . En la mayor´ de los casos..3. unn−1 unn Son sistemas de ecuaciones de la forma:  a11 a21  A= 0   0 . 0 ann−1 ann Aparecen frecuentemente en la resoluci´n num´rica de ecuaciones diferenciales o e y en la aproximaci´n por splines c´bicos. 0 u11 u12 0 . 0  0 u22 u23 0 0      0 l32 1  0 0  0 u32 u33 . . . ... 0 .... . . se obtiene la descomposici´n por el m´todo de Cholesky que funciona si y solo o e si la matriz inicial A es sim´trica y definida positiva..3. puedo asegurar que o e dicha matriz es sim´trica y definida positiva. . lnn−1 1 0 0 . . si consigo la e descomposici´n de una matriz por el m´todo de Cholesky.... 0 a22 a23 0 0 . 0  a32 a33 a34 0 . Por tanto. ...      .

e o b) Obt´n la factorizaci´n de Gauss sin intercambio de filas y. A = 30 20 15 = 1/2 1 0  0 5 20 15 12 1/3 1 1 0 0 1/3 b) La factorizaci´n de Gauss se obtiene resolviendo el sistema de ecuaciones o que se deduce de      60 30 20 1 0 0 u11 u12 u13 30 20 15 = l21 1 0  0 u22 u23  . e o las descomposiciones de Crout y de Cholesky. a)     l11 0 0 60 30 20 l11 l21 l31 30 20 15 = LLt = l21 l22 0   0 l22 l32  l31 l32 l33 20 15 12 0 0 l33  por tanto 2 l11 l11 l21 l11 l31 2 2 l21 l22 l21 l31 + l22 l32 2 2 2 l31 + l32 + l33 = 60 = 30 = 20 = 20 = 15 = 12         l11 l21 l ⇒ 31  l22     l32   l33 √ = √60 = √60/2 = √60/3 = √5 = √5 = 3/3 Descomponiendo la segunda matriz de la parte derecha de la igualdad en un producto de una matriz diagonal por otra triangular superior con 1 en cada La descomposici´n que resulta es o      60 30 20 60 30 20 1 0 0 5 .56 Ejemplo: Dada la matriz   60 30 20 30 20 15 20 15 12 Cap´ ıtulo 3 a) Obt´n la descomposici´n de Cholesky. a partir de ella. 20 15 12 l31 l32 1 0 0 u33 .

αv = |α| v .4 Normas y an´lisis del error a Definici´n: Sea V un espacio vectorial. w ∈ V y ∀α ∈ R se verifica que: o 1.  1 0 A = 1/2 1 1/3 1 se obtiene  0 60 0  0 1 0 que   0 0 1 1/2 1/3 5 0  0 1 1  = (∗) 0 1/3 0 0 1 57 Multiplicando las dos primeras  60 30 (∗) = 20 que es la descomposici´n de Crout. Una norma sobre V es una aplicao ci´n · : V → R tal que ∀v. o Si en (∗) descomponemos la matriz diagonal   √  √ 60 √ 0 0 60 √ 0 1 0 0 1/2 1 0  0  0 (∗) = 5 0 5 1/3 1 1 0 0 1/3 0 0 matrices anteriores   0 0 1 1/2 1/3 5 0  0 1 1  4 1/3 0 0 1 que es la descomposici´n de Cholesky. . v + w ≤ v + w 3. o √ √  √  √  0 0 60 60/2 60/3 √ √ 60 √ √  = √60/2 √5 √ 0   0 5 √ 5 60/3 5 3/3 0 0 3/3   0 1 1/2 1/3 1 = 0  0 1 0 0 1 1/3 3. v ≥ 0 (v = 0 ⇔ v = 0) 2.Sistemas lineales elemento de la diagonal.

y. Dada cualquier norma vectorial · V sobre Rn . Si adem´s de esas condiciones se verifica que A·B ≤ A B A. B ∈ Mn×n V entones dicha norma es una norma matricial. u para ”medir”matrices tambi´n se utilizar´n normas que. y. . y.58 Cap´ ıtulo 3 Ejemplo: las siguientes son normas definidas sobre el espacio vectorial R3 : 1. Norma del m´ximo o norma infinito: (x. z) 2 = x2 + y 2 + z 2 ∞ 2. tendr´n e a a o a que verificar las condiciones de la definici´n de norma. La norma vectorial y su norma matricial subordinada son siempre compatibles. z) 1 = max(|x|. Las normas del ejemplo son diferentes formas de ”medir”las distancias entre los vectores de R3 . |z|) = |x| + |y| + |z| La norma de un vector mide la ”distancia”de ese vector al origen. es posible definir una norma matricial sobre Mn×n de la siguiente forma: A M = max{ Av V : v V = 1} Esta nueva norma se llama norma matricial inducida o subordinada a la norma vectorial correspondiente. con las operaciones suma y producto por un n´mero real es un espacio vectorial. z) a 3. Norma 1: (x. |y|. La distancia entre dos vectores se mide con la norma del vector diferencia. Una norma matricial · M sobre Mn×n y una norma vectorial · Rn se dice que son compatibles si se verifica que Av V sobre ≤ A M v V ∀A ∈ Mn×n ∀v ∈ Rn . Norma eucl´ ıdea o norma 2: (x. por tanto. Puesto que el conjunto Mn×n de las matrices cuadradas de orden n.

−3 0 −8 1 2. La norma matricial inducida por la norma vectorial 1 en R3 es A   a11 a12 a13 = a21 a22 a23  a31 a32 a33 n 59 1 = max1≤j≤n 1 i=1 |aij |. La norma matricial inducida por la norma vectorial 2 en R3 es ρ(At · A).  3 1 2 De modo que  6 3 2  = max(12. La norma matricial inducida por la norma infinito en R3 es  a11 a12 a13 = a21 a22 a23  a31 a32 a33  n A ∞ = max1≤i≤n ∞ j=1 |aij |. . 12) = 12. |At A − αId| =  −3 0 1−α 0 √ 5 y 1 y como consecuencia √  2 3 0 = 0 −1 0 0 0 1   Los autovalores de At A son 7 ± A 2 = 2 7+ 5 3.   2 3 0 Para calcular A 2 = 0 −1 0 debemos calcular primero los au0 0 1 2 tovalores de At · A que son las ra´ ıces de  13 − α −3 0 1−α 0  = (1 − α)(α2 − 14α + 4). 4.Sistemas lineales Ejemplos: 1.  A 2 = ρ(At ·A) es el radio espectral de At ·A que es el m´ximo de los valores absolutos a de los autovalores de la matriz At · A.

Se verifica que b x = Ae A−1 b ≤ A e A−1 1 A A−1 r e ≤ b x Vemos que e x ≤ k(a) r b . 11. e b ≤ A−1 r .4. Se verifica que Ax ≤ A−1 r A x . es decir.j≤n |ai. Se define la norma matricial de Fr¨benius como A = o 3. Teorema: e r 1 r ≤ ≤ k(a) . k(a) b x b r 1 k(a) b Demostraci´n. ∞ 1≤i. 11) = 11. Esto puede ser debido a que hay un peque˜o error cometido al hacer alguna medida en b o bien porque en vez de la soluci´n o exacta x hemos obtenido una soluci´n aproximada x.j | 2. si a peque˜os cambios en los datos (A o b) pueden producir grandes cambios en la n soluci´n del sistema. Si denotamos e al error o en la soluci´n y r al error en b o error residual. u o Se define el n´mero de condici´n de una matriz A como El n´mero de condici´n siempre es mayor o igual que 1 y se utiliza para estimar u o si un sistema de ecuaciones Ax = b est´ bien o mal condicionado. se verifica que Ae = Ax − Ax = o b − b = r. 4. o Supongamos que en vez de b utilizamos b de modo que la soluci´n del o n sistema es x y Ax = b. Veamos que o r Por tanto ≤ e x .1 N´ mero condici´n de una matriz u o k(A) = A A−1 .60  3 1 2 De modo que  6 3 2  −3 0 −8  Cap´ ıtulo 3 = max(6.

91 −76.65 −255. 2.51 −268.55 A−1 =  200.88 k(a) = A A−1 = 6.67 · 1138.66 −7.47 x3 5  1.54 1.Sistemas lineales Por tanto 61 e ≤ A A−1 x r .56 −1.02 −1. Encuentra el n´mero de condici´n de la matriz A de los coeficientes con u o · ∞. Acota el error relativo de las posibles soluciones en funci´n del error en o los datos.85 −102. el sistema puede estar mal condicionado y peque˜os cambios en los datos podr´n producir grandes cambios en la soluci´n.26 −669.83 −0. a) La matriz inversa redondeada a dos decimales es   5. Si por o e a b el contrario k(A) es muy grande. n a o     3.05 2. b Si k(A) est´n cerca de 1 el sistema estar´ bien condicionado porque el error a a relativo en la soluci´n x ser´ similar al error relativo r en los datos.63 · 10−5 r ≤ e ≤ 1591 r x con lo que .33  x 2  = 3  0. b) Se verifica que e r 1 r ≤ ≤ 7595 7595 5 x 5 es decir 2.53 x1 2  4.27 −18.68 = 7595.78 Ejemplo: Dado el sistema −0.

.000215 105 84 70 60 319 2.05000000 · 10−4 0.5. La nueva soluci´n aproximada ser´ x = x + e. La nueva soluci´n es x = (0. Calculo r = b − Ax con doble precisi´n.0 · 10−5       140 105 84 70  e3  =  −3. aplica el m´todo de e refinamiento iterativo para mejorarla. 1.05 · 10−4 e1 420 210 140 105 210 140 105 84  e2   −7.5000000 · 10−5  . Sea x una e o soluci´n aproximada de Ax = b tal que Ax = b.999997.5 3. Calculo e resolviendo el sistema Ae = r. 1.8000000 · 10−5 1.999988.0000000 · 10−5      r =  −  399 140 105 84 70  0. Se verifica que o x = A−1 b = x + x − x = x + A−1 b + A−1 b = x + A−1 (b − b) = x + A−1 r = x + e.5 · 10−5  −4. 0. El m´todo consiste en aplicar los siguientes pasos: e 1.4 · 10−5 . o Ejemplo: Si como soluci´n aproximada del sistema o      420 210 140 105 x1 875 210 140 105 84  x2  539      140 105 84 70  x3  = 399 105 84 70 60 x4 319 se obtiene x = (0. o 2.999988 420 210 140 105 875 539 210 140 105 84  1. Resuelvo     −1. −1.000137.999999.30 · 10−4 .999670 =  −3.000215). Calculo r = b − Ax con doble precisi´n. 1.8 · 10−5 e4 105 84 70 60  y obtengo e = (1. −2.62 Cap´ ıtulo 3 3.999670. o a Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´n.15 · 10−4 ) o 3. −4. o        −1.1 · 10−5 .000137  −7.1 Mejora de soluciones Refinamiento iterativo Es un m´todo para mejorar una soluci´n aproximada ya obtenida. 1). 3. 3. 1. 0.

Para solucionar este problema se puede recurrir al escalamiento que consiste en multiplicar cada ecuaci´n por un n´mero para que el coeficiente m´s o u a grande de las inc´gnitas en valor absoluto sea 1. . la soluci´n num´rica del sistema puede contener errores.2 Escalamiento Si en un sistema de ecuaciones los coeficientes de las inc´gnitas son de muy o diferente magnitud.5. Al aplicar el escalamiento o podemos cometer a su vez errores de redondeo.99998.00002 y x2 = 0. o e Ejemplo: Resolvamos el siguiente sistema por eliminaci´n gaussiana: o 2x1 + 100000x2 = 100000 x1 + x 2 = 2 2 100000 100000 1 1 2 (fila 2) − 1/2 (fila 1) 2 100000 100000 0 −999991 −99998 De modo que las soluciones son x1 = x2 = 100000−100000x2 ≈0 2 −99998 −99999 ≈ 1( redondeado a 4 cifras) Sin embargo el resultado correcto es x1 = 1. pero puede ayudar en casos extremos cuando hay mucha diferencia entre los coeficientes.00002x1 + x2 = 1 x1 + x 2 = 2 redondeando a 4 decimales x2 = 1 x1 + x 2 = 2 aplicando el pivoteo x1 + x 2 = 2 x2 = 1 y las soluciones son x1 = y x2 = 1.Sistemas lineales 63 3. Ejemplo: En el caso anterior 0.

Es esencial que M sea una matriz regular y es conveniente que sea una matriz sencilla para facilitar el c´lculo. es decir. con o muchos ceros.64 Cap´ ıtulo 3 3. o a o En la pr´ctica. aunque te´ricamente conducen a una soluci´n o o exacta.6 M´todos iterativos e Los m´todos directos estudiados anteriormente requieren aproximadamente e n3 /3 operaciones. El m´todo es convergente si la sucesi´n generada e o converge a la soluci´n del sistema a partir de cualquier vector inicial x0 . para calcular xk a partir de xk−1 se resuelve el sistema M xk = N xk−1 + b. Un m´todo iterativo de resoluci´n de un sistema de n ecuaciones Ax = b e o 0 ∈ Rn genera una sucesi´n de posibles soluciones es aquel a partir de un x o aproximadas x1 . puesto que a xk = G(xk−1 ) = M −1 (N xk−1 ) + b) ⇒ M xk = N xk−1 + b. x2 . De modo que. . veremos que para encontrar la soluci´n del o sistema basta encontrar un vector fijo de la funci´n G(x). De modo que Ax = b ⇔ (M − N )x = b ⇔ M x = N x + b ⇔ x = M −1 (N x + b) Si definimos G(x) = M −1 (N x + b). . o . Para ello se genera o una sucesi´n xk = G(xk−1 ) partiendo de una determinada soluci´n aproximada o o x0 . en la pr´ctica la soluci´n obtenida puede ser peor que la obtenida a o aproximadamente por un m´todo iterativo. en caso de converger. a La condici´n que asegura la convergencia es la siguiente. dadas las matrices M y N . Es o ımite es la soluci´n. el l´ Todos las m´todos iterativos de resoluci´n de un sistema Ax = b se basan e o en la descomposici´n de la matriz A en diferencia de dos matrices M − N . o consistente si. o siendo M una matriz regular. e Los m´todos iterativos est´n especialmente indicados para la resoluci´n e a o de sistemas con una matriz de gran dimensi´n pero dispersa. . Son sensibles a errores de redondeo que se acrecientan al aumentar n. . La sucesi´n converger´ a la soluci´n en determinadas condiciones. que suelen aparecer por ejemplo en la resoluci´n de ecuaciones o diferenciales en derivadas parciales.

≤ i=1 xk+i − xk+i−1 < p−1 λk+i−1 x1 − x0 λk−1 − λk+p−1 k→∞ → 0. Dicho vector x verifica que x − G(x) = lim xk −G( lim xk ) = lim G(xk−1 ) − G( lim xk ) k→∞ k→∞ k→∞ k→∞ = G( lim (xk−1 − xk )) = G(0) = 0 ⇒ x = G(x). < λk x1 − x0 . entonces G(y)−G(y ) < λ y−y . . A partir de un vector x0 vamos generando la sucesi´n xk+1 = G(xk ) y se o verifica que xk+1 − xk = G(xk ) − G(x)k−1 = G(xk − xk−1 ) < Por tanto xk+p − xk < xk+p − xk+p−1 + xk+p−1 − .Sistemas lineales 65 Teorema: En las condiciones anteriores. o Demostraci´n. = M −1 N (y − y ) Si M −1 N < λ < 1 para un cierto λ ∈ R. entonces la sucesi´n xk+1 = G(xk ) converge a un punto o fijo de la funci´n G(x). Teniendo en cuenta que o G(y) − G(y ) = M −1 (N y + b) − M −1 (N y + b) ≤ M −1 N = M −1 N y − M −1 N y y−y . k→∞ . . si existe una norma matricial tal que M −1 N < 1. 1−λ = x 1 − x0 i=0 λk+i−1 = x1 − x0 De modo que la sucesi´n xk+1 = G(xk ) es una sucesi´n convergente a un o o vector x ∈ Rn si M −1 N < λ < 1 para un cierto λ ∈ R. − xk p p−1 i=0 λ xk − xk−1 < . . .

o 3. la sucesi´n xk converge o a la soluci´n del sistema Ax = b. Si M −1 N < 1 para alguna norma matricial.6. un m´todo iterativo de resoluci´n de un sistema Ax = b e o consiste en generar una sucesi´n xk = G(xk−1 ) siendo G(x) = M −1 (N x + b) o y A = M − N . Si |A| = 0. el m´todo iterativo es m´s a e a r´pido. a 3. Si |M | = 0.j≤n . se definen:  0 ··· 0  a21 0 · · ·  0  . Para aplicar el m´todo se requiere que aii = 0 para todo i. Puesto e que  −a12 −a13 −a1n  0 ··· a11 a11 a11 −a23 −a2n   −a21 0 ··· −1 a22 a22   a22 M N =  ··· −ann−1 −an1 ··· 0 ann ann y 0  0 0  U =  0 0 . L =  a31 a32 0    ··· ann an1 an2 · · ·  u12 · · · u1n 0 u23 · · · u2n    ···  ··· 0 un−1n  ··· 0 0    0 0  0   0 a11 0 · · ·  0 a22 0 D=  ··· 0 ··· ··· ··· ann−1 En el m´todo de Jacobi M = D y N = −(L + U ). esto se e puede conseguir intercambiando filas si fuese necesario. Si el sistema M x = c se resuelve f´cilmente. El m´todo converge si M −1 N < 1 para alguna norma matricial.66 Cap´ ıtulo 3 En resumen. puedo calcular xk a partir de xk−1 . Para calcula xk a partir de e xk−1 se resuelve el sistema Dxk = −(L + U )xk−1 + b. 2.1 M´todo de Jacobi e Dada la matriz A = (aij )1≤i. Hay que tener en cuenta lo siguiente: 1.

Sistemas lineales M −1 N = max1≤i≤n n 1 j=1. 67 ∞ una condici´n suficiente para que el m´todo de Jacobi converja es que la matriz o e ∀i = 1. o Por ultimo. Se tiene e a o que     0 −5 0 6 0 0 0 −1 − (L + U ) =  0 D = 0 2 0 −2 0 0 0 0 3 vector inicial el x0 = (0. 0).j=i |aij | aii . A sea diagonal dominante. habr´ que resolver el sistema a   1      0 0 x1 0 −5 0 0 0 2 0 x1  =  0 0 −1 0 + 1 2 0 3 x1 −2 0 0 0 0 3 6x1 = 0 x1 = 0 1 1 1 = 1 ⇒ x1 = 1 2x2 2 2 3x1 = 0 x1 = 0 3 3 Por tanto Si elegimos como  6 0 0 El siguiente vector ser´ x1 = (0. . 2. una tercera condici´n suficiente es que la matriz D − L − U ´ o sea sim´trica y definida positiva. 0 x3 2 0 3 La matriz es diagonal dominante de modo que la sucesi´n xk de vectores o generados mediante el m´todo de Jacobi converger´ a la soluci´n.j=i |aij | Como M −1 N 1 = max1≤j≤n n i=1. ii otra condici´n suficiente es que lo anterior sea menor que 1. n. es decir que |aii | > n j=1. 0). e Ejemplo: Aplica una iteraci´n del m´todo de Jacobi al siguiente sistema o e      0 x1 6 5 0 0 2 1  x 2  = 1  .i=j |aij | a1 . 0. . . . ıa . 1/2.

0). que At sea diagonal dominante 3. Distintas condiciones suficientes a para que el m´todo funcione son: e 1.68 Cap´ ıtulo 3 3. 1/5. 0. 0 0 0 resolver el sistema     −2 0 0 0  0  + 1  0 −1 0 0 0 0 .2 M´todo de Gauss-Seidel e En este m´todo M = D + L y N = −U . e El m´todo de Gauss-Seidel es dos veces m´s r´pido que el de Jacobi. El sistema a resolver para calcular xk e a partir de xk−1 ser´ (D+L)xk = −U xk−1 +b.6. que A sea diagonal dominante 2. 3 0 x3 y se obtiene que x1 = (0. que A sea sim´trica y definida positiva. habr´ que a   1  0 0 x1 0  x1  = 0 5 0 2 0 3 x1 0 3   0 2 0 U = 0 0 1 . 0) Si partimos de x0  6 0 2   6 0 0 D + L = 0 5 0 2 0 3 = (0. e a a Ejemplo: Aplica el m´todo e  6 2 0 5 2 0 Tendremos que de Gauss-Seidel al siguiente sistema     0 x1 0 1  x 2  = 1  .

. . . xk−1 ). o • Super-relajaci´n si w > 1 o • Gauss-Seidel si w = 1. n 1 2 3 Etapa 2: calculo xk usando (xk . . xk . . . n i+1 el c´lculo de las componentes de xk se divide en etapas. utilizando en cada a una de ellas un vector diferente: Etapa 1: calculo xk usando (xk−1 . . . 2) el m´todo no converge. . .6. . . n 2 1 3 Etapa 3: calculo xk usando (xk . n 3 1 2 4 k Etapa n: calculo xn usando (xk . xk−1 ).Sistemas lineales 69 3. En funci´n de su o o valor se tiene • Subrelajaci´n si 0 < w < 1. Si w ∈ (0.3 M´todos de relajaci´n e o En el m´todo de Jacobi. . en el m´todo de Gauss-Seidel. . xk−1 . para calcular cada componente de xk se utilizan todos e los valores de xk−1 . . xk . En un m´todo de relajaci´n se considera e o M= 1 D+L w N= 1−w D−U w con lo que M − N = A. Una condici´n suficiente para la convere o gencia es que A sea sim´trica y definida positiva. 1 2 n−1 En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de n con el consiguiente ahorro en tiempo. Adem´s. . De este modo. . para calcular e k (xk ) se utilizan las componentes xk . xk ). . xk−1 ). la informaci´n obtenida en a o cada etapa se incorpora a la siguiente. xk−1 . xk . xk−1 . xk la componente i-´sima de x e 1 2 i i−1 del vector xk y las componentes xk−1 . . xk−1 del vector xk−1 . Los m´todos que utilizan esto ultimo se e ´ llaman ”m´todos de relajaci´n sucesiva”y se desarrollaron para la resoluci´n de e o o sistemas con matrices de dimensi´n grande pero con casi todos los elementos o nulos. . Sin embargo. . . . . w se llama factor de relajaci´n. e .

.

Dicho polinomio se llama polinomio interpolador de los puntos. 71 .Cap´ ıtulo 4 Aproximaci´n de funciones o Dada una tabla de datos como esta x y −1 −2 0 −2 1 0 2 4 que representa unos valores y en funci´n de otros x. . . . . n. . existe un unico polinomio Pn (x) de grado menor o igual que n de ´ modo que Pn (xi ) = yi ∀i = 0. 1. o 4. . y1 ). (xn . . (x1 . . pretendemos encontrar o una funci´n y = f (x) que pase por esos puntos. y0 ). yn ) con xi = xj .1 Construcci´n del polinomio interpolador o Teorema: Dada una tabla de n + 1 puntos (x0 .

. existe un unico polinomio de grado menor o igual que 3 que o ´ pasa por los puntos de la tabla. el sistema es compatible determinado y tiene una unica soluci´n. tiene una unica ´ soluci´n. Puesto que queremos que Pn (xi ) = yi ∀i = 0. El sistema que resulta es a0 + a1 (−1) + a2 (−1)2 + a3 (−1)3 a0 + a1 (0) + a2 (0)2 + a3 (0)3 a0 + a1 (1) + a2 (1)2 + a3 (1)3 a0 + a1 (2) + a2 (2)2 + a3 (2)3 = = = = −2 −2 −2 4 Que es un sistema compatible determinado y que. 1. . ´ o Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de la tabla x y −1 −2 0 −2 1 0 2 4 Como son 4 puntos buscaremos un polinomio de grado menor o igual que 3 de la forma Pn (x) = a0 + a1 x + a2 x2 + a3 x3 . por tanto. x2 · · · n Por lo tanto. . Dicho polinomio es P (x) = −2 + x + x2 . Consideremos un polinomio cualquiera de grado menor o o igual que n : Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn . n tendremos que n a0 + a 1 x0 + a 2 x2 + · · · + a n x0 = y 0 0 2 + · · · + a xn = y a0 + a 1 x1 + a 2 x1 n 1 1 ··· 2 n a0 + a 1 xn + a 2 xn + · · · + a n xn = y n que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´gnitas en el que o el determinante de la matriz de los coeficientes es distinto de 0 : x0 x1 ··· 1 xn 1 1 2 x0 x2 1 ··· ··· xn 0 xn 1 xn n = 0. . es decir.72 Cap´ ıtulo 4 Demostraci´n. .

xi+1 . y0 ). (xn . . .··· . (xi − xn ) Li (xi ) = 1 de modo que Pn (xj ) = i=0 n Se verifica que Li (xj ) = 0 ∀i = j Li (xj )yi = yj . .1 M´todo de Lagrange e Dados los puntos (x0 . xi+1 .2 M´todo de Newton e • de segundo orden: [xi . . yn ). se pueden calcular las diferencias divididas y • de primer orden: [xi . x2 ] = [x1 . x1 . . xi+2 ] = [xi+1 . Por ejemplo: [x0 . (xn .xi+k ]−[xi .Aproximacion de funciones 73 4.1. (x1 . Πj=i (xi − xj ) (xi − x0 )(xi − x1 ) . (x1 . . (xi − xi−1 )(xi − xi+1 ) . x2 ].1. .xi+1 ] xi+2 −xi ··· [x . yn ). . . . el polinomio interpolador Pn (x) se puede calcular as´ ı: n Pn (x) = i=0 Li (x)yi donde Li (x) = Πj=i (x − xj ) (x − x0 )(x − x1 ) . . . . .xi+k−1 ] • de orden k [xi . (x − xn ) = . xi+k ] = i+1 xi+k −xi Las diferencias divididas son invariantes frente a permutaciones. . . Dados los puntos (x0 . . xi+1 ] = xi+1 −yii i+1 −x La tabla siguiente permite construir de forma sencilla las diferencias divididas: . . . Ejemplo: En el ejemplo anterior L0 (x) = L2 (x) x(x−1)(x−2) (−1)(−2)(−3) = (x+1)x(x−2) 2·1(−1) L1 (x) = L3 (x) (x+1)(x−1)(x−2) 1(−1)(−2) (x+1)x(x−1) = 3·2·1 4. y0 ). (x − xi−1 )(x − xi+1 ) .··· . y1 ). . y1 ). x0 .xi+2 ]−[xi .

. x1 . . y0 y1 y2 y3 [x0 . (x − xn−1 ).. . x3 ] Cap´ ıtulo 4 El polinomio interpolador se construye a partir de las diferencias divididas as´ ı: Pn (x) = y0 + [x0 . x1 ](x − x0 ) + [x0 . x1 . . b] existe un punto θx ∈ (a. . y1 ). . x3 ] [x0 . . x1 ] [x1 . . xn ](x − x0 )(x − x1 ) . x2 . x2 ] [x2 . b) y sea Pn (x) su polinomio interpolador en los nodos x0 . x2 . . . x3 ] [x0 . . . . yn ) que provienen de una cierta funci´n y = f (x). . Sea w(t) = (t − x0 )(t − x1 ) . si conocemos cierta informaci´n sobre las derivadas de la o o funci´n f (x). b]. x2 . . y0 ). (n + 1)! Demostraci´n.2 Error del polinomio interpolador Dados los puntos (x0 . Teorema: Sea f (x) una funci´n n + 1 veces diferenciable en un intero valo (a. · · · + [x0 . Ejemplo: En el ejemplo anterior la tabla ser´ la siguiente ıa −1 0 1 2 −2 −2 0 4 0 2 4 1 1 0 y el polinomio ser´ P (x) = −2 + 1(x + 1)x.. xn contenidos en [a. x1 . . (t − xn ). b) tal que f (x) − Pn (x) = f n+1) (θx ) (x − x0 )(x − x1 ) . Para un valor fijo o x ∈ [a.74 x0 x1 x2 x3 . podemos estimar el error que se comete al aproximar f (x) por o su polinomio interpolador Pn (x) de grado menor o igual que n. . (x1 . De modo que tenemos la funci´n o Φ(t) = f (t) − Pn (t) − λw(t) . . x2 ] [x1 . x1 . . . (xn . Para cada x ∈ [a. x1 . (x − xn ). x2 ](x − x0 )(x − x1 ) + . ıa 4. b] existe un λ ∈ R tal que f (x) − Pn (x) = λw(x).

. . Por tanto.Aproximacion de funciones 75 que vale 0 en x. (n + 1)! f n+1) (θx ) .1 Elecci´n de nodos.8 · 10−7 10! 10! 4. x0 . 2n . x1 . (n + 1)! Ejemplo: El error al aproximar la funci´n f (x) = sen(x) en un punto o x ∈ [0. 1] se puede acotar as´ ı: |f (x) − P9 (x)| ≤ |f 10) (θx )| 9 1 |Πi=0 (x − xi )| ≤ < 2. 1] mediante un polinomio interpolador en 9 nodos contenidos en el intervalo [0. Definici´n: Los polinomios de Chebyshev se definen as´ o ı: T0 (x) = 1 T1 (x) = x Tn+1 (x) = 2xTn (x) − Tn−1 (x) si n ≥ 1 Proposici´n: Las ra´ o ıces del polinomio de Chebyshev Tn (x) si n ≥ 1 son los valores 2j − 1 cos π ∀1 ≤ j ≤ n. . xn .2. b): a a Φn+1) (θx ) = f n+1) (θx ) − P n+1) (θx ) − λwn+1) (θx ) = 0 es decir f n+1) (θx ) − λ(n + 1)! = 0 ⇒ λ = Como consecuencia f (x) − Pn (x) = f n+1) (θx ) w(x). . Φ1) (t) se anular´ en n + 1 puntos. Polinomios de Chebyshev o Si pretendemos encontrar un polinomio que interpole a una determinada funci´n y los nodos no est´n previamente fijados. a Φ2) (t) se anular´ en n puntos y Φn+1) (t) se anular´ en 1 punto θx ∈ (a. ¿qu´ nodos podemos elegir? o a e Elegir los nodos proporcionados por los polinomios de Chebyshev tienen alguna ventaja.

Calculamos las ra´ ıces de T4 (x) = 8x4 − 8x2 + 1 : x0 = −0. 1]. de interpolaci´n de una o funci´n f (x) en x ∈ [−1. si aplicamos a los nodos de Chebyshev la transformaci´n af´ que lleva el intervalo [−1. Establece una cota del error en cada caso para la funci´n f (x) = o sin(x). o ıces entonces 1 max |f n+1) (t)|.9239. . b]. 2n (n + 1)! t∈[a.3827 x2 = 0.9239 x1 = −0. a n a Si en lugar del intervalo [−1. 1. 8] necesitamos una transformaci´n af´ αx+β que lleve el intervalo o ın . b]. |f (x) − Pn (x)| ≤ n 2 (n + 1)! |t|≤1 La justificaci´n del teorema se basa en que la expresi´n o o max Πn |(x − xi )| i=0 |x|≤1 que proviene de la f´rmula general del error en la interpolaci´n. 1] tenemos un intervalo [a. Estos ser´ los nodos en el intervalo [−1. con i = 0. 1] en o ın el intervalo [a. todas las ra´ de cualquier polinomio de Chebyshev ıces est´n contenidas en el intervalo [−1.76 Cap´ ıtulo 4 Como consecuencia. El resultado del teorema permite encontrar una cota del error del polinomio interpolador m´s peque˜a que la establecida con car´cter general. . 8] haciendo uso de los polinomio de Chebyshev. . . a Teorema: Si los nodos (xi ). Para calcular los nodos en el ıa intervalo [2. 1]. 1] son las ra´ del polinomio de Chebyshev T n+1 (x).3827 x3 = 0. n.b] Ejemplo: Calcula los cuatro nodos para la interpolaci´n de una funci´n o o en el intervalo [−1. obtenemos unos nuevos nodos tales que: |f (x) − Pn (x)| ≤ b−a n+1 2 max |f n+1) (t)|. se hace m´ o o ınima cuando xi son las ra´ ıces del polinomio de Chebyshev correspondiente. 1] y en el intervalo [2.

en la cual la convergencia o se produce solo en los puntos −1. 1] : |f (x) − P (x)| ≤ Para el intervalo [2. se puede demostrar que los polinomios no convergen a la funci´n fuera del intervalo o [−3. .7716.1) Otro ejemplo es la funci´n f (x) = |x| en [−1. (Ver figura 4. No obstante. obtenemos que ´ la transformaci´n es 3x + 5. 1]. 1. 3. si elegimos los nodos xi igualmente espaciados. Sin embargo.b] 1 1 max |f n+1) (t)| ≤ 3 2n (n + 1)! |t|≤1 2 (4)! ≤ 34 . 0. 1] en el intervalo [2.2284 x1 = 3. Aplicamos esta transformaci´n a los nodos de o o Chebyshev y obtenemos los nuevos nodos en el intervalo [2.63]. o Para el intervalo [−1. entonces Pn (x) converge uniformemente a f (x) en todo el intervalo. Veamos las cotas de los errores para la funci´n f (x) = sin(x) en cada caso. 8] : |f (x) − Pn (x)| ≤ b−a n+1 2 max f n+1) (t) 2n (n + 1)! t∈[a. 5]. si elegimos los nodos de Chebyshev y la funci´n f (x) a ino terpolar es continua y con derivada continua. para cualquier elecci´n o de nodos es posible encontrar una funci´n continua tal que no se produce esa o convergencia uniforme.8519 x2 = 6. 23 4! ¿Es cierto que si n aumenta el polinomio Pn (x) se ”parece”m´s a la funa ci´n f (x)? En general la respuesta es que no.63. dada funci´n o o 1 f (x) = 1+x2 en [−5. 1] → [2. 8] : [−1. 8] : x0 = 2. Por ejemplo. 8] −1 → α(−1) + β = 2 1 → α(1) + β = 8 77 Resolviendo el sistema formado por las dos ultimas ecuaciones.Aproximacion de funciones [−1.1481 x3 = 7.

1 Interpolaci´n a trozos y con condiciones sobre o la derivada Interpolaci´n a trozos o Si disponemos de ciertos valores de una funci´n f (x) en un intervalo [a.5 1 0.5 -2 2 1.2.5 -1 2 3 4 5 6 .5 1 0. b]. o se puede obtener una aproximaci´n a la funci´n f (x) dividiendo el intervalo o o en varios intervalos m´s peque˜os (subintervalos) y utilizando polinomios de a n peque˜o grado (1.78 2 1.5 Cap´ ıtulo 4 2 4 Figura 4.3 4. etc.5 -4 -4 -2 2 4 -0.1: 1 1+x2 y sus polinomios interpoladores de grado 10 y 20.3. 4.3.) distintos para interpolar los valores de cada sun bintervalo.5 1 -0. La siguiente gr´fica muestra la funci´n seno y una funci´n que la a o o interpola con trozos de recta en varios puntos: 1 0.

o ´ Ejemplo 2 (Interpolaci´n de Hermite): Encuentra un polinomio P (x) que o interpole a una funci´n y = f (x) sabiendo que o x y y −1 1 2 0 1 0 1 −1 0 Puesto que hay seis condiciones para la funci´n y sus derivadas buscamos o entre los polinomios de la forma P (x) = a0 + a1 x + · · · + a5 x5 que tienen seis . es decir. P (1) = 1 y P (0. Ejemplo 1: Encuentra un polinomio P (x) tal que P (0) = 0. los polinomios de a grado 3 de la forma P (x) = a + bx + cx2 : P (0) = 0 a = 0 a = 0 P (1) = 1 ⇒ b+c = 1 ⇒ b+c = 1 P (0.5 = 2 b+c = 2 El sistema anterior no tiene soluci´n.3. Al plantear las ecuaciones correspondientes resulta un sistema con soluci´n no unica.5) = 2. Puesto que son tres las condiciones que tenemos.2 Interpolaci´n con condiciones sobre la derivada o El siguiente es un ejemplo de problema de interpolaci´n con condiciones sobre o la derivada. con lo que habr´ que buscar entre los o ıa polinomios de grado 4. cabe pensar que basta buscar entre los polinomios con tres par´metros.5) = 2 b + 2 · c · 0.Aproximacion de funciones Ejercicio: Dada la tabla x y −1 −2 0 −2 1 0 2 4 79 encuentra una funci´n formada o a) por trozos de recta b) por trozos de par´bola a que pase por los puntos anteriores. 4.

80 Cap´ ıtulo 4 coeficientes.5 1 Figura 4. 2 Ejemplo 3 (Interpolaci´n de Hermite c´bica a trozos): Encuentra una o u funci´n formada por trozos de polinomios de grado 3 que verifique las siguieno tes condiciones x y y −1 1 2 0 1 0 1 −1 0 1 0. 0] Q(x) si x ∈ [0. 1] . Planteamos el sistema correspondiente seg´n las condiciones y u obtenemos lo siguiente: P (−1) = 1 P (−1) = 2 a0 = 1 P (0) = 1 P (0) = 0 ⇒ a1 = 0 a2 = −3 P (1) = 0 P (1) = 0 2 a3 = −3 1 a4 = 2 a5 = 2 3 Con lo que el polinomio buscado es P (x) = 1 − 2 x2 − 3x3 + 1 x4 + 2x5 .5 -1 -0.5 -0.2: La funci´n g(x) o Buscamos una funci´n de la forma o g(x) = P (x) si x ∈ [−1.5 -1 0.

2) Ejemplo 5 (Splines c´bicos): Encuentra una funci´n polin´mica c´bica a u o o u trozos que sea de clase C 2 (continua.Aproximacion de funciones 81 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 . A partir de las condiciones planteamos el sistema P (−1) = 1 P (−1) = 2 Q(0) = 1 Q (0) = 0 P (0) = 1 P (0) = 0 Q(1) = −1 Q (1) = 0 con lo que g(x) = (Ver Figura 4. derivable y con derivada segunda continua) que verifique las siguientes condiciones x y −1 1 0 1 1 −1 1 + 2x2 + 2x3 si x ∈ [−1.5 -0. 1] 1 0. 0] Q(x) si x ∈ [0.5 -1 -0.5 1 Figura 4. 0] 1 − 6x2 + 4x3 si x ∈ [0. 1] .3: La funci´n h(x) o Buscamos una funci´n de la forma o h(x) = P (x) si x ∈ [−1.5 -1 0.

82 Cap´ ıtulo 4 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 de modo que P (−1) = 1 P (0) = 1 Q(0) = 1 Q(1) = −1 P (0) = Q (0) P (0) = Q (0) Puesto que tenemos 6 ecuaciones y 8 inc´gnitas necesitamos 2 condiciones o m´s. yi los valores de una cierta funci´n y sus derivadas en n + 1 puntos. Si el n´mero de condiciones impuestas es k1 + k2 + · · · + kn = m + 1 u entonces Teorema: Existe un unico polinomio de grado menor o igual que m que ´ satisface las condiciones de interpolaci´n de Hermite anteriores. 0] 3 2 1 1 − x − 2 x + 2 x3 si x ∈ [0. Por ejemplo. o o Demostraci´n. es decir. yi . · · · .3) 3 1 1 − x − 2 x2 − 2 x3 si x ∈ [−1. Sea P (x) un polinomio de grado menor o igual que m. 1] Interpolaci´n de Hermite o Un problema de interpolaci´n de Hermite consiste en encontrar un polinomio o P (x) (Polinomio de Hermite) tal que P (x0 ) = y0 P (x1 ) = y1 P (xn ) = yn P (x0 ) = y0 P (x0 ) = y0 · · · P (x1 ) = y1 P (x1 ) = y1 · · · ··· P (xn ) = yn P (xn ) = yn · · · k) k P k0 −1) (x0 ) = y0 0 −1 k P k1 −1) (x1 ) = y1 1 −1 k P kn −1) (xn ) = ynn −1 o siendo yi . si el sistema formado por las condiciones o ´ P j) (xi ) = 0 tiene como soluci´n unica el polinomio 0. Las j condiciones P j (xi ) = yi dan lugar a un sistema de m + 1 ecuaciones de la forma Au = y. a˜adimos las siguientes a n P (−1) = 0 Q (1) = 0 y obtenemos un sistema compatible determinado de modo que h(x) = (Ver Figura 4. Este sistema tiene soluci´n unica si el sistema Au = 0 tiene o ´ unicamente la soluci´n 0. Veamos que esto ultimo o ´ ´ .

x2 ] . x1 ] [x1 . x2 ] [x1 . o o Ejercicio: ¿Qu´ otro nombre recibe el polinomio de Hermite cuando solo e hay un nodo? Teorema. x0 ] [x0 . ser´ de ız ıa grado mayor o igual que m + 1. x0 ] x1 − x 0 1 2) 1 f (x0 ) [x0 . x] = limx→x0 = limx→x0 = f (x0 ) x − x0 x − x0 [x0 . x0 ] = limx→x0 [x0 . x2 ] [x2 . Si P (x) es el polinomio de grado menor o igual que 2n + 1 tal que P (xi ) = f (xi ) y P (xi ) = f (xi ). o El c´lculo es m´s sencillo haciendo uso de una tabla. si el a a problema de Hermite incluye datos sobre la funci´n y su derivada en tres o puntos la tabla quedar´ as´ ıa ı: x x0 x0 x1 x1 x2 x2 y y0 y0 y1 y1 y2 y2 10 [x0 . x1 . entonces ∀x ∈ [a. x1 ] [x0 . . x1 ] − [x0 . . x1 . con lo que si P (x) no es cero. b] y f ∈ C 2 [a. . x1 . x1 . x2 ] [x1 . x2 ] [x1 . . x2 ] [x0 . x0 . x0 . x1 . b] tal que f (x) − P (x) = f 2n+2) (θ) n Π (x − xi )2 (2n + 2)! i=0 El polinomio de Hermite se puede calcular usando las diferencias divididas. x1 . x1 .Aproximacion de funciones 83 es cierto. x1 ] = [x0 . x0 . . Un polinomio P (x) que sea soluci´n del sistema P j) (xi ) = 0 verifica o que tiene la ra´ xi repetida ki veces. x1 . . x1 ] [x0 . x2 ] [x0 . x1 . x0 . x0 ] = [x0 . x1 ] [x0 . x1 . b]. x0 . . x2 ] [x0 . en contradicci´n con la hip´tesis inicial. x1 . x0 . x2 ] 20 30 40 50 [x0 . x2 . Sean x0 . En estas condiciones el polinomio de interpolaci´n de Hermite se calcula de forma parecida a como se calculaba o el polinomio de interpolaci´n sin condiciones sobre la derivada. . con 0 ≤ i ≤ n. x0 ] = f 3) (x0 ) 2! 3! Y de forma similar el resto de diferencias. x2 . Para ello definimos y − y0 f (x) − f (x0 ) [x0 . b] ∃θ ∈ [a. x0 . Por ejemplo. x1 ] [x1 . xn nodos distintos de [a. x2 .

x1 . x1 . x1 . x0 ](x − x0 ) + [x0 . x1 . . x1 ](x − x0 )2 + +[x0 . . x0 . x2 ](x − x0 )2 (x − x1 )2 +[x0 . x0 . x2 .84 siendo [x0 . x2 ](x − x0 )2 (x − x1 )2 (x − x2 ). x0 . x0 . x0 . . . x1 ](x − x0 )2 (x − x1 ) + 1 k) k! f (x0 ) Cap´ ıtulo 4 . Ejemplo: Calcula el polinomio que verifica estas condiciones: x y y −1 1 2 0 1 0 1 −1 0 En este caso la tabla quedar´ as´ ıa ı x y 1 0 20 30 40 50 -1 1 2 −2 2 −3/2 2 -1 1 0 0 −1 5/2 0 1 0 −2 4 0 1 −2 2 1 -1 0 1 -1 El polinomio ser´ ıa P (x) = 1+2(x+1)−2(x+1)2 +2(x+1)2 x−3/2(x+1)2 x2 +2(x+1)2 x2 (x−1) Ejemplo: Calcula el polinomio que verifica las siguientes condiciones: x y y y 1 2 3 2 6 7 8 . x0 ] = k veces El polinomio ser´ ıa P (x) = y0 + [x0 . +[x0 . x1 .

xi+1 ] (i = 0. . b) S(x) admite derivada segunda continua de orden k − 1 en [x0 . el m´todo de intero e polaci´n c´bica de Hermite a trozos consiste en encontrar una unica funci´n o u ´ o derivable definida a trozos. ´ o Splines Una funci´n spline de grado k con nodos x0 ≤ x1 ≤ · · · ≤ xn es una funci´n o o S(x) definida a trozos tal que: a) S(x) es un polinomio Si (x) de grado menor o igual que k en cada intervalo [xi . . tal que en cada intervalo [xi . n − 1. Interpolaci´n c´ bica de Hermite a trozos o u Dada la tabla de valores x y y x0 y1 y1 x1 y2 y2 ··· ··· ··· xn yn yn correspondientes a una cierta funci´n y sus derivadas. Planteando los correspondientes sistemas de ecuaciones. xi+1 ]. . . . se puede encontrar la unica funci´n que interpola en esas condiciones. la funci´n es un polinomio Pi (x) de grado menor o igual a 3 que verifica lo o siguiente Pi (xi ) = yi Pi (xi+1 ) = yi+1 P (xi ) = yi Pi (xi+1 ) = yi+1 . con i = 0. . n−1). 1. . xn ].Aproximacion de funciones En este caso la tabla quedar´ as´ ıa ı x 1 1 2 2 2 y 10 20 30 40 2 3 1 2 −1 2 4 3 1 6 7 8/2!=4 6 7 6 85 El polinomio ser´ ıa P (x) = 2 + 3(x − 1) + 1(x − 1)2 + 2(x − 1)2 (x − 2) − 1(x − 1)2 (x − 2)2 . . .

. . xi+1 ] → 0). . . . y0 ). . ıa a o Por otra parte. xn ]. y1 ). si aumentamos el n´mero de puntos a interpolar en el u intervalo [a. .86 Cap´ ıtulo 4 El spline c´bico (k = 3) es el m´s usado en interpolaci´n. n − 1 Si (xi ) = yi con i = 0. n. . o Se pueden elegir otras condiciones distintas del spline natural o del peri´dico. . con i = 0. n − 1 Si−1 (xi ) = Si (xi ) con i = 1. . entonces b a [S (x)]2 dx ≤ b a [f (x)]2 dx. . . El n´mero de condiciones que se u han de cumplir es el siguiente: condici´n o continuidad derivada 1a continua derivada 2a continua interpolaci´n o ecuaciones Si−1 (xi ) = Si (xi ) con i = 1. x1 . b] es proporcional a o ıa a b [f a (x)]2 dx. los splines natural y peri´dico existen y son unicos para cualquier o ´ conjunto de nodos y de datos. entonces el spline natural y su derivada convergen uniformemente a f (x) y f (x) respectivamente. con i = 0. n − 1. . . . b) y S(xi ) = f (xi ). . (x1 . Por lo tanto. . yn ) el spline natural es el que tiene menor energ´ el´stica (menor tensi´n1 ). . . . siendo S(x) el spline natural. xi+1 ] (max0≤i≤n [xi . Adem´s. de entre todas las funciones con derivada segunda continua que pasan por ciertos puntos (x0 . u a a con lo que el n´mero de inc´gnitas ser´ 4n−4. . n−1 n−1 n−1 n+1 4n − 2 Cada polinomio c´bico Si (x). . xn } es una funci´n que cumple las propiedades o o a). . n − 1 Si−1 (xi ) = Si (xi ) con i = 1. tendr´ 4 par´metros. Es decir. • Si exigimos S (x0 ) = S (xn ) y S (x0 ) = S (xn ) obtendremos el spline peri´dico. b] (n → ∞) disminuyendo simult´neamente el tama˜o m´ximo de a n a los subintervalos [xi . ec. . . . (xn . . . o Sin embargo. 1 La tensi´n o energ´ el´stica en [a. n total num. 1. . Un spline c´bico de u a o u interpolaci´n en {x0 . . . . . si la funci´n a interpolar f (x) tiene a o derivada segunda continua en [x0 . para poder resolver u o a el correspondiente sistema de ecuaciones hemos de a˜adir dos condiciones m´s n a y podemos hacerlo de distintas formas: • Si exigimos S (x0 ) = 0 y S (xn ) = 0 obtendremos el spline c´bico u natural.

Cap´ ıtulo 5

Diferenciaci´n e integraci´n o o num´rica e
5.1 Diferenciaci´n num´rica y extrapolaci´n de Rio e o charson

o ¿Puede calcularse la derivada de una funci´n f (x) en un punto si se conocen solo los valores de la funci´n f (x0 ), f (x1 ),. . . ,f (xn ) en n + 1 puntos? Si la o funci´n es un polinomio de grado n, entonces seguro que se puede. Si de o la funci´n solo sabemos que es derivable, entonces no ser´ posible, pues hay o a muchas funciones derivables que pasan por los mismos puntos. El objetivo de esta secci´n es estimar el valor de f (x) a partir de los valores de la funci´n o o en ciertos puntos f (x0 ), f (x1 ),. . . ,f (xn ) dando una cota del error cometido. Dado que f (x + h) − f (x) f (x) = lim h→0 h una primera estimaci´n es o f (x) ≈ f (x + h) − f (x) h

que es aplicable cuando conocemos los valores de la funci´n en dos puntos: o x0 = x y x1 = x + h. La f´rmula anterior es exacta para funciones lineales (por o ejemplo, para f (x) = 3x + 2) y en otros casos de manera fortuita. Calculemos 87

88 una cota del error. Por el teorema de Taylor: f (x + h) = f (x) + f (x)h + es decir f (x) = f (θ) 2 h 2!

Cap´ ıtulo 5

f (x + h) − f (x) h − f (θ). h 2

El error al aproximar f (x) por f (x) = f (x+h)−f (x) , llamado error de truncah miento, es h o error = − f (θ) (f´rmula de orden h) 2 siendo θ un n´mero entre x y x + h. Cuanto menor sea h, mejor ser´ la u a aproximaci´n de f (x), hasta que el error de redondeo impida la mejora. o Ejemplo: Estima el valor de la derivada de cos(x) en el punto una cota del error cometido. Tomando como h = 0.01 f ( π + h) − f ( π ) cos( π + 0.01) − cos( π ) π 4 4 4 4 f ( )≈ = = −0.71063050. 4 h 0.01 La cota del error ser´ ıa |error| = | − 0.01 0.01 h f (θ)| = | cos(θ)| ≤ = 0.005. 2 2 2
π 4

y calcula

Otra estimaci´n de f (x) es o f (x) ≈ f (x + h) − f (x − h) . 2h

Veamos la estimaci´n del error. Del teorema de Taylor se deduce que o f (x + h) = f (x) + f (x)h + h f (x) + h f (θ1 ) 2 6 2 3 f (x − h) = f (x) − f (x)h + h f (x) − h f (θ2 ). 2 6
2 3

´ ´ Diferenciacion e integracion Si restamos las ecuaciones anteriores f (x + h) − f (x − h) = 2f (x)h + Despejando f (x) = f (x + h) − f (x − h) h2 − [f (θ1 ) + f (θ2 )] 2h 12 h2 [f (θ1 ) + f (θ2 )] 12 h3 [f (θ1 ) + f (θ2 )]. 6

89

con lo que el error de truncamiento ser´ ıa −

siendo θ1 un n´mero entre x y x + h y θ2 un n´mero entre x y x − h. Si f (x) u u existe y es continua en [x−h, x+h], entonces existe un n´mero θ ∈ [x−h, x+h] u f (θ1 )+f (θ2 ) , con lo que error de truncamiento quedar´ ıa tal que f (θ) = 2 error = − h2 f (θ) 6 (f´rmula de orden h2 ). o

Para estimar el valor de una derivada segunda podemos usar la f´rmula o f (x) = f (x + h) − 2f (x) + f (x − h) . h2

Veamos la estimaci´n del error. Por el teorema de Taylor o f (x + h) = f (x) + f (x)h + f (x − h) = f (x) − f (x)h +
h2 2 f h2 2 f

.

(x) + (x) −

h3 6 f h3 6 f

(x) + (x) +

h4 4) 24 f (θ1 ) h4 4) 24 f (θ2 )

Si sumamos las ecuaciones anteriores y despejamos f (x) = f (x + h) − 2f (x) + f (x − h) h2 4) − [f (θ1 ) + f 4) (θ2 )]. h2 24

Siendo θ1 y θ2 n´meros que est´n entre x y x + h y entre x y x − h. Si f 4) (x) u a existe y es continua, entonces existe un n´mero θ ∈ [x − h, x + h] tal que u error = h2 4) f (θ) 12 (f´rmula de orden h2 ) o

.xn . x1 . (n + 1)! Y como n w (x) = i=0 n Πn j=0.j=k (xk − xj ) (n + 1)! que es una forma de calcular un valor aproximado de f (xk ) a partir de los valores x0 .j=k (xk − xj ) nos queda n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )Πn j=0. . .1 Diferenciaci´n mediante interpolaci´n o o Dada una funci´n f (x) y recordando c´mo se calcula el polinomio de interpoo o laci´n en los puntos x0 . . . Si derivamos i=0 n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w (x) (n + 1)! + 1 d w(x) (f n+1) (θx )) (n + 1)! dx Si x = xk n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )w (xk ) . . .j=i (x − xj ) ⇒ w (xk ) = Πj=0.90 Cap´ ıtulo 5 5. .1.xn . x1 . . se tiene que : o n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w(x) (n + 1)! donde w(x) = Πn (x − xi ).

3! Apartado b). 3! 3! . Siendo x0 = x1 − h y x2 = x1 + h se obtiene la f´rmula ya o conocida f (x1 ) ≈ f (x1 − h) 2x1 − (x1 − h) − (x1 + h) −h + f (x1 ) (−h)(−2h) (h)(−h) h f (x1 + h) − f (x1 − h) + f (x1 + h) . Puesto que L x0 = (x − x1 )(x − x2 ) (x0 − x1 )(x0 − x2 ) L x1 = (x − x0 )(x − x2 ) (x1 − x0 )(x1 − x2 ) (x − x0 )(x − x1 ) L x2 = (x2 − x0 )(x2 − x1 ) se tiene que L x0 = 2x − x1 − x2 2x − x0 − x2 L x1 = (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) 2x − x0 − x1 L x2 = . (x2 − x0 )(x2 − x1 ) 2x1 − x0 − x2 x1 − x 2 + f (x1 ) (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) x1 − x 0 + f (x2 ) (x2 − x0 )(x2 − x1 ) 1 3) f (θx1 )(x1 − x0 )(x1 − x2 ).´ ´ Diferenciacion e integracion 91 Ejemplo: a) Aplica la f´rmula anterior para calcular f (x1 ) con n = 2. o b) Calcula lo anterior con x1 − x0 = x2 − x1 = h Apartado a). (2h)(h) 2h Por tanto f (x1 ) ≈ f (x0 ) siendo el error de esta aproximaci´n o siendo el error de esta aproximaci´n o 1 3) 1 f (θx1 )(h)(−h) = − f 3) (θx1 )h2 .

que es la f´rmula ya conocida de aproximaci´n de f (x) o o f (x) ≈ Φ(h) Si sustituimos h por h/2 h a2 a4 a6 f (x) = Φ( ) + 2 h2 + 4 h4 + 6 h6 + . . . . .2) con error = h2 a2 + a4 h2 + a6 h4 + ..1. . 2 2 2 2 y multiplicando por 4 h a4 a6 4f (x) = 4Φ( ) + a2 h2 + h4 + 4 h6 + . . tenemos o f (x) = Φ(h) + a2 h2 + a4 h4 + a6 h6 + . . . n Por el teorema de Taylor sabemos que ∞ f (x + h) = k=0 1 k k) h f (x) k! ∞ y f (x + h) = k=0 1 (−1)k hk f k) (x). . 3! 5! Si definimos Φ(h) = f (x+h)−f (x−h) y denotamos ai al coeficiente de hi en la 2h f´rmula anterior. (5.1) . 2h 3! 5! 7! 2 3 3) 2 h f (x) + f 5) (x) + . La extrapolaci´n puede aplicarse o o siempre a cualquier m´todo de aproximaci´n en el que sepamos el t´rmino de e o e error de una forma previsible y se basa en un par´metro que generalmente es a el tama˜o de paso h..92 Cap´ ıtulo 5 5. 2 4 2 (5. . . k! Restando las f´rmulas anteriores o f (x + h) − f (x − h) = 2hf (x) + y despejando f (x) f (x) = f 3) (x) 2 f 5) (x) 4 f 7) (x) 6 f (x + h) − f (x − h) − h + h + h + .2 Extrapolaci´n de Richarson o La extrapolaci´n de Richarson sirve para generar resultados de gran exactitud o cuando se usan f´rmulas de bajo orden.

da origen a la f´rmula de aproximaci´n o o 4 h 1 f (x) ≈ Φ( ) − Φ(h) 3 2 3 que tambi´n puede expresarse e Φ( h ) − Φ(h) h 2 f (x) ≈ Φ( ) + 2 3 con error = h4 − a4 5a6 2 − h − .1) − f ( 2 − 0. 4 16 con error = h4 − a4 5a6 2 − h − . 4 16 93 √ Ejemplo: Siendo f (x) = arctan(x).3333333136 3 y .1 f (x) ≈ Φ(h/2) = 0.3339506968 2 · 0. despejando f (x). o Tomamos h = 0...3334876594 Usando la extrapolaci´n o f (x) ≈ Φ(h/2) + (El valor exacto es 1/3).1. Φ(h/2) − Φ(h) = 0.2)-(5. calcula f ( 2) haciendo uso de la extrapolaci´n de Richarson.1) = = 0.. f (x) ≈ Φ(h) = f (x + h) − f (x − h) 2h √ √ f ( 2 + 0.1) es h 3a4 4 15a6 6 3f (x) = 4Φ( ) − Φ(h) − h − h 2 4 16 que..´ ´ Diferenciacion e integracion con lo que (5.

..94 Si en la f´rmula (5. 4 h 2 4 (5.4)-(5. . obtenemos la expresi´n o 16 h 4 3 Φ( 2 ) Cap´ ıtulo 5 − 1 Φ(h). .... 20 El proceso puede continuar de forma similar tomando ahora otra funci´n o 1 16 Ω(h) = 15 Ψ(h/2) − 15 Ψ(h). .. ... 20 16 1 h6 Ψ(h/2) − Ψ(h) − b6 + .3) + b6 h 2 6 + . 4 h6 + . b4 = 3 −a4 4 . (5. . Se puede demostrar el siguiente resultado: Teorema: El algoritmo de Richarson genera aproximaciones a f (x) cada vez de un orden superior.. .. Sustituyendo h por h/2 f (x) = Ψ(h/2) + b4 y multiplicando por 24 16f (x) = 16Ψ(h/2) + b4 h4 + b6 Restando (5. f (x) = Ψ(h) + b4 h4 + b6 h6 + ..1.3) nos queda 15f (x) = 16Ψ(h/2) − Ψ(h) − 3b6 y al despejar f (x) f (x) = da origen a la f´rmula o f (x) ≈ 1 16 Ψ(h/2) − Ψ(h) 15 15 con error =h6 −b6 1 + .4) que tambi´n puede expresarse e f (x) ≈ Ψ(h/2) + Ψ(h/2) − Ψ(h) 15 con error =h6 −b6 1 + .2) denotamos Ψ(h) = o b6 = −5a6 . . 15 15 20 h6 + .

05) = = 0.33333333206104 3 y a partir de estos dos valores obtenemos la aproximaci´n Ω(h) o Ω(0.05) = 0.33333333328933. A partir de R(1.1.05) Φ(0.1 √ √ arctan( 2 + 0.33395069677432 2 · 0. h) = R(0.05) + Φ(0. h) . h) = Φ(h) = ). h/2) calculo las aproximaciones R(2.1) = = 0. 15 En general.1) − arctan( 2 − 0.1. el proceso de extrapolaci´n de Richarson puede resumirse as´ o ı: Etapa 0.´ ´ Diferenciacion e integracion 95 Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular √ f ( 2) siendo f (x) = arctan(x) y tomando h = 0. h/2) + R(0.1) = Φ(0. 41 − 1 R(1. 2h Etapa 1.05) − Φ(0. h) y de R(1.2) calculamos la aproo ximaci´n Ψ(h) que es de orden 4 o Ψ(0. h/2) + . h) y de R(0.33333331363671 3 Calculando Φ(h/4) (Φ(0.1) = Ψ(0. h/2) − R(0. Calculo distintas aproximaciones R(0.1) = 0.025) = 0.05) − arctan( 2 − 0.025) + Φ(0.05) + Ψ(0. 42 − 1 Etapa 2. h/2) − R(1. Aplicamos la f´rmula (5.025) − Φ(0.2) con h y h/2 para obtener las dos primeras o aproximaciones de orden 2 √ √ arctan( 2 + 0.05) = Φ(0.1) Φ(0.05) − Ψ(0. h) en funci´n de un par´metro o a f (x+h)−f (x−h) h (en nuestro caso R(0. A partir de R(0. h) = R(1.1)) = 0.1.33337191390106) podremos tambi´n calcue lar Ψ(h/2) Ψ(0. h/2) calculo las aproximaciones R(1. h) .05 A partir de esos dos valores y aplicando la f´rmula (5.33348765942111 2 · 0.

estaremos hablando del ”m´todo de Newton-Cˆtes”. h) ......2 Integraci´n num´rica mediante interpolaci´n o e o b El objetivo es obtener un valor aproximado de a f (x)dx sin calcular la prib b mitiva de f (x). h/2) + . La idea es sustituir a f (x)dx por a p(x)dx.. Si en el ejemplo utilizado los nodos est´n igualmente e a espaciados. Las o f´rmulas as´ construidas son exactas para los polinomios de grado menor o o ı igual que n (¿por qu´?). xn del intervalo [a.96 Cap´ ıtulo 5 Etapa n. Una expresi´n como (5.... .. Si utilizamos el m´todo de Lagrange e para calcular el polinomio interpolador n n p(x) = i=0 f (xi )lxi (x) con lxi (x) = j=0 x − xj . 4n − 1 Etapa 0 R(0. . h) y de R(n − 1. xi − x j tendr´ ıamos que b a b n b f (x)dx ≈ p(x)dx = a i=0 f (xi ) a lxi (x) es decir. h/2) − R(n − 1. A partir de R(n − 1. h/4) R(0. siendo p(x) una funci´n que se parezca a f (x). 5. h) R(1. . h/2) calculo las aproximaciones R(n − 1. R(2.5) se denomina f´rmula de cuadratura y los puntos xi son los nodos de cuadratura. h) R(0. h) R(n. R(3.. h/2) R(0. h/4) . . h) R(2. Etapa 2 Etapa 3 . h/8) .5) o En el ejemplo anterior Ai = a lxi (x)dx. por ejemplo un polinomio interpolador en unos o nodos x0 .. h/2) . e o . i=0 (5. h/2) R(1. Etapa 1 R(1. . obtenemos una f´rmula como esta o b a n f (x)dx ≈ b Ai f (xi ). h) = R(n − 1. b]. x1 .

la f´rmula de cuadratu- f (x)dx ≈ Ai f (xi ) = i=0 b−a [f (a) + f (b)] 2 La expresi´n del error del polinomio de interpolaci´n p(x) para n = 1 es o o f (ξx ) f (x) − p(x) = 2 (x − a)(x − b). b]. b] tal que: b b h(x)g(x)dx = h(ξ) .1 Regla del trapecio El caso particular del m´todo de Newton-Cˆtes con n = 1 se conoce coe o b−x mo el m´todo del trapecio.2 -1 1 2 -3 -2 -1 -0. entonces existe un punto ξ ∈ [a. de modo que b a b b b f (x)dx − p(x)dx = a a f (x) − p(x)dx = a f (ξx ) (x − a)(x − b)dx 2 Puesto que (x − a)(x − b) no cambia de signo en todo [a.6 0. b] y suponiendo que f (x)/2 es una funci´n continua en [a.2. Si g(x) no cambia de signo en todo x ∈ [a.5 0. A0 = e b−a = 1 (b − a) y A0 = 2 ra queda as´ ı b a n b a lx0 (x)dx b a lx1 (x)dx 1 o = 2 (b − a). b]. Puesto que lx0 (x) = a−x .4 0.8 1 0. . lx1 (x) = x−a . b] y h(x) es continua en [a.1: f´rmulas de cuadratura gr´ficamente o a 5.5 1 2 -1 Figura 5. aplicando la generalizaci´n del o o teorema de valor medio del c´lculo integral 1 obtenemos que el error es a f (ξ) 2 1 b a (x − a)(x − b)dx = f (ξ) (a − b)3 2 6 Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a. a a g(x)dx.´ ´ Diferenciacion e integracion 97 1 0. b].

h = b−a y xi = x0 + ih. ya que el t´rmino del error e contiene el factor f 4) (ξ).248151272255559. b).2 Regla de Simpson La f´rmula de Newton-Cˆtes para n = 2 o n = 3 se llama Regla de Simpson.2. la Regla del Trapecio quedar´ as´ ıa ı: b a f (x)dx ≈ h [f (a) + f (b)] 2 con error= − f (ξ) h3 12 (5. se conoce como la regla de Simpson 2 1/3: b a f (x)dx ≈ h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 con error − f 4) (ξ) h5 90 para un cierto ξ ∈ [a.2] entonces |f (x)| = |2ex +4x2 ex | ≤ |f (0.248151272255559 0. b]. 0.98 Cap´ ıtulo 5 para un cierto valor ξ ∈ (a. o o El caso n = 2.6) para un cierto ξ ∈ [a.2 x2 0 e dx con la f´rmula de Newton-Cˆtes con n = 1 o o ex dx ≈ 0.23 | = 0.00149876751484. una cota del error ser´ a | − 2.2 +4·0. Ejemplo: Calcula (regla del trapecio). Por ser una f´rmula de Newton-Cˆtes con tres puntos o o es exacta para polinomios de grado menor o igual que 2.2)| = |2e0. b]. pero adem´s es exacta a para los polinomios de grado menor o igual que 3. si h = b − a. .2 ] = 0. En resumen. 0. 12 2 2 2 2 5.2 − 0 0 [e + e0.2 | = 2.2 0 2 0.2e0.20408107741924 2 Sabiendo que si x ∈ [0.

0.6 ∗ 10−6 90 2 una cota del error ser´ a | − 14. la regla del trapecio compuesta consiste en fijar unos puntos a = x0 < x1 < · · · < xn−1 < xn = b y aplicar la regla del trapecio a cada intervalo [xi−1 .24 | = 14. puesto que ambas son de orden 5 y | − 1/90| < | − 3/80|.´ ´ Diferenciacion e integracion El caso n = 3. Es mejor usar la regla de Simpson 1/3 que la de 3/8. b] en subintervalos y aplicar e en cada uno de ellos una regla simple. (0. h = Simpson 3/8: b a b−a 3 99 y xi = x0 + ih.2 x2 e dx con la f´rmula de Newton-Cˆtes con n = 2 o o ex dx ≈ 2 0. Si los puntos est´n igualmente espaciados a .22 + 16e0.2 0 2 0. 0.5147.2 ] = 0.2027 3 2 Sabiendo que si x ∈ [0. En general es preferible usar una regla con n par (n´mero impar de puntos) que con n u impar. se conoce como la regla de 3h5 80 f (x)dx ≈ 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 con error − f 4) (ξ) para un cierto ξ ∈ [a. xi ]: b n xi xi−1 f (x)dx = a i=1 f (x)dx ≈ 1 2 n i=1 (xi − xi−1 ) [f (xi−1 ) + f (xi )] .2 0. Es equivalente a sustituir f (x) por una funci´n que interpole a f (x) y que o est´ formada por trozos de l´ e ınea.2.1 + e0.5147 5.2/2)5 | = 1. Por ejemplo.2) 2 2 2 = |12e0. b].3 Reglas compuestas Este m´todo consiste en dividir el intervalo [a.2 0. Ejemplo: Calcula 0 (regla de Simpson 1/3).2 + 48e0.2] entonces |f 4) (x)| = |12ex + 48ex x2 + 16ex x4 | ≤ |f 4) (0.2/2 0 2 2 [e + e0.

6 0. 2. xi = a + ih con i = 1.100 Cap´ ıtulo 5 (h = xi − xi−1 = b−a .2 0.2 -1 1 2 1 0. Si tomamos tres puntos x0 = 0.12 0.12 2 2 (0. la regla del trapecio n compuesta nos queda b a f (x)dx ≈ h [f (x0 ) + 2f (x1 ) + · · · +2f (xn−1 ) + f (xn )] 2 h2 con error − (b − a)f (ξ) 12 para un cierto ξ ∈ [a. La f´rmula es exacta para polinomios de grado o menor o igual que 1. b].2) = 0.1 0 2 2 e + 2e0.1 + e0. . 1 0.4 0. .2 − 0)(ex (2 + 4ex )) ≤ − 0.8 0.2 2 ex dx ≈ 2 0. .2 0 0.4 0.2 · f (0. .6 0.2 -1 1 2 Figura 5.2 = 0.8 0.2: Regla del trapecio compuesta con 3 y 4 puntos Ejemplo: Calcula un valor aproximado de 0 ex dx mediante la regla del trapecio compuesta. n).1 y x2 = 0. x1 = 0.201085 2 Una cota del error ser´ ıa − 0.00187346 12 12 .

aplicando a cada dos subintervalos la regla de Simpson 1/3 b x2 x4 xn f (x)dx = a x0 f (x)dx + x2 f (x)dx + · · · + f (x)dx xn−2 con lo que obtenemos la f´rmula o b a f (x) ≈ h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + . A1 . encontrar el valor de los coeficientes A0 . x1 . An que aseguren que la b f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) es exacta para los polinoo i=0 mios de grado n. b] es par podemos u aplicar de forma sencilla la regla de Simpson compuesta con h = b−a . el resultado que obtenemos al calcular con esa regla la integral de un polinomio de grado n es el valor exacto. . dados un conjunto de n + 1 puntos x0 . . el problema se puede resolver de forma similar al siguiente ejemplo. . . es decir. .2. . b]. 3 + 4f (xn−1 ) + f (xn )] o lo que es lo mismo b a n 2 f (x)dx ≈ f (x0 ) + [2f (x2i )+4f (x2i−1 )] + f (xn ) i=1 con error − b − a 4 4) h f (ξ) 180 con ξ ∈ [a. xi = n a + ih (0 ≤ i ≤ n).´ ´ Diferenciacion e integracion 101 Si el n´mero n de intervalos en los que dividimos [a. .4 M´todo de los coeficientes indeterminados e Las reglas de Newton-Cˆtes con n + 1 puntos son exactas para los polinomios o b de grado n. o xn . El objetivo de esta secci´n es. . . 5. si en la f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) o i=0 b tomamos los coeficientes Ai = a lxi (x)dx. . En cada caso. .

x y x2 que forma una o a base del conjunto de los polinomios de grado menor o igual que 2: 1 = 1 2 = 1 3 = 1 0 1dx 1 0 xdx 1 2 0 x dx = A0 + 1A1 + A2 = 0A0 + 1 A1 + A2 2 = 0A0 + 1 A1 + A2 4 2 y obtenemos que A0 = 1 . es la misma f´rmula que se obtendr´ con el a o ıa m´todo de Simpson. Adem´s. e 5.3 Cuadratura gaussiana 1 Supongamos que queremos obtener una f´rmula de cuadratura o f (x)dx = A1 f (t1 ) + A2 f (t2 ) −1 pero no fijamos previamente los valores de t1 .102 Cap´ ıtulo 5 Ejemplo: Encuentra los valores A0 . A1 y A2 . t2 . En particular la f´rmula tendr´ que ser exacta para los polinomios 1. A1 y A2 para que la f´rmula o 1 0 1 f (x)dx ≈ A0 f (0) + A1 f ( ) + A2 f (1) 2 sea exacta para los polinomios de grado menor o igual que 2. Para calcular estos valores y puesto que tenemos 4 inc´gnitas. A1 = 3 y A2 = 1 . si P (x) = a + bx + cx2 a 6 6 es cualquier otro polinomio de grado menor o igual que 2. le imponemos 4 condiciones: que o . Adem´s. la f´rmula ser´ o ıa tambi´n exacta porque e 1 1 1 1 P (x)dx = a 0 0 1dx + b 0 xdx + c 0 x2 dx = 1 1 = a(A0 + 1A1 + A2 ) + b( A1 + A2 ) + c( A1 + A2 ) = 2 4 1 1 2 = A0 (a) + A1 (a + b + ( ) c) + A2 (a + 1b + 12 c) = 2 2 1 = A0 P (0) + A1 P ( ) + A2 P (1) 2 que ser´ el resultado obtenido al aplicar la f´rmula de cuadratura con los ıa o coeficientes calculados.

t2 = t1 . x. π ]. e sen(x)dx mediante cuadra- Como el intervalo de integraci´n es [0. t2 = −t1 . Ya hemos deducido cuales son los nodos ti y los coeficientes Ai 4 (i = 1. hemos de hacer un cambio de o 2 variable af´ que lleve [−1. Si no supi´ramos cuales son.´ ´ Diferenciacion e integracion 103 la f´rmula sea exacta para los polinomios de grado menor o igual que 3. . n+1 0 π 2 Ejemplo: Calcula un valor aproximado de tura gaussiana de dos t´rminos. 1]. 1] en [0. Sustituyendo en el resto de las ecuaciones podemos comprobar que solo es aceptable t2 = −t1 y que en ese caso los par´metros son A1 = A2 = 1 a y t2 = −t1 = 1 3. Los nodos ti (i = 1. Los polinomios de Legendre se construyen as´ ı: L0 (x) = 1 L1 (x) = x Ln+1 = (2n + 1)xLn (x) − nLn−1 (x) . Dicho cambio es x = π t + π con lo ın 2 4 4 que dx = π dt. . n) en la cuadratura gaussiana coinciden con las ra´ ıces del polinomio de Legendre de grado n. 2). . . 2. podr´ e ıamos averiguar primero los nodos . es o decir. b] se utiliza una transformaci´n af´ o ın que lleve un intervalo en el otro. para 1. x2 y x3 : 1 3 3 3 −1 x dx = 0 = A1 t1 + A2 t2 1 2 2 2 2 −1 x dx = 3 = A1 t1 + A2 t2 1 −1 xdx = 0 = A1 t1 + A2 t2 1 −1 1dx = 2 = A1 + A2 Restando a la ecuaci´n primera la tercera multiplicada por t2 obtenemos o 1 0 = A2 (t3 − t2 t2 ) = A2 t2 (t2 − t1 )(t2 + t1 ) 2 1 con lo que se obtiene alguno de los siguientes valores: A2 = 0. Por tanto la f´rmula o 1 f (x)dx = f (− −1 1 ) + f( 3 1 ) 3 es exacta para integrar cualquier polinomio de grado menor o igual que 3 en el intervalo [−1. π ]. t2 = 0. Para integrarlos en [a.

R(M. = 5. 3) . m − 1) − R(n − 1.. 1) R(2. . 2) R(M. 0) R(1. M ) 1 (b − a) [f (a) + f (b)] 2 (Regla del trapecio para 20 intervalos) 1 b−a R(n − 1. 1) R(2. 0) R(3.7) La ultima f´rmula se obtiene aplicando la extrapolaci´n de Richarson que ´ o o es un proceso que ya hemos utilizado en otra ocasi´n. 0) R(1. 0) R(M.2) R(3. El factor 4m1−1 depende o . 1) R(M. si queremos aproximar R(0.104 Cap´ ıtulo 5 2 calculando las ra´ del polinomio de Legendre de grado 2 (L2 = 3x 2−x ). En todo caso se obtendr´ ıa π 2 1 sen(x)dx = −1 sen π sen 4 0 π π t+ 4 4 π (− 4 π dt = 4 1 π )+ 3 4 + sen π ( 4 1 π )+ 3 4 ≈ 0.99847. 0) = f (a + (2i − 1) b−a ) 2n (Regla del trapecio para 2n intervalos) 1 R(n. . m − 1)] 4 −1 (Extrapolaci´n de Richarson) o (5. m) = R(n. 0) + n 2 2 2n−1 i=1 R(n. 0) R(2. donde. 1) R(3. m − 1) + m [R(n.3) . 0) = b a f (x)dx R(M.4 Integraci´n de Romberg o Para aplicar el m´todo de integraci´n de Romberg construimos una tabla como e o esta R(0..2) R(3. Posıces teriormente calcular´ ıamos los coeficientes Ai planteando un sistema de ecuaciones.

0) de la primera columna.4843 16.´ ´ Diferenciacion e integracion 105 del orden de convergencia del m´todo empleado. m − 1) que se considera que mejora a la anterior o R(n − 1.5174 20.5 + e2 = 20. ıa n=0 n=1 n=2 n=3 n=4 m=0 55. 0) es la regla del trapecio con 20 = 1 intervalo: R(0. en este caso la regla del e trapecio. 0) = 1 0 e + 2e1 + e2 = 30.4756 16.5174 2 R(2.4535 16.4530 16.1572 17. El resto de e t´rminos se calculan seg´n la f´rmula 5.6446 17.5651 16. j) se considera una aproximaci´n a a f (x)dx.6446 2 y de modo similar los t´rminos R(n.0334 16. A partir o de la aproximaci´n R(n.4529.3537 17.4529 . m) = (+exacta) + 4m 1 [(+exacta) − (-exacta)] . b Cada valor R(i.5386 16. m − 1).7 La mejor aproximaci´n obtenida e u o o 2 x2 ser´ 0 e dx ≈ 16.5 + 2e1 + 2e1.5981 2 R(1. se construye otra mejor aproximaci´n R(n. 0 R(0. −1 Teorema: Si f (x) es una funci´n continua en [a.5981 30.7354 m=1 m=2 m=3 m=4 22.4588 16. 0) = 2−0 0 2 (e + e2 ) ≈ 55. 0) es la regla del trapecio compuesta con 21 intervalos: R(1. 0) es la regla del trapecio compuesta con 22 intervalos: R(2. m): o R(n. e de Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 x2 e dx. 0) = 2/4 0 e + 2e0. b] entonces la sucesi´n que o o b se obtiene en cada columna del m´todo de Romberg converge a a f (x)dx.

6667 n = 4 2.65882.75 2.6667 m=2 m=3 m=4 2.65882 0.65882 0.65904 0. . Obtenemos la tabla siguiente n=0 n=1 n=2 n=3 n=4 m=0 0.6667 2.6667 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 0.5 −x2 dx 0.65181 0.6667.65886 m=1 m=2 m=3 m=4 0.65883 0.65859 0.65947 0.66211 0.6667 n = 2 2.6667 n = 3 2.6875 2.65882 0. ıa m=0 m=1 n=0 4 n=1 3 2.6667 2.65883 0.65882 0.106 Cap´ ıtulo 5 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 2 x dx.69302 0.6667 2.2 e La mejor aproximaci´n obtenida ser´ o ıa ≈ 0.6719 2.65898 0.65882 0.2 e dx. 0 de Obtenemos la tabla siguiente en donde a mejor aproximaci´n obtenida o 2 ser´ 0 x2 dx ≈ 2.6667 2.5 −x2 de 0.6667 2.

2 x2 dx usando Paso 1.´ ´ Diferenciacion e integracion 107 5. xi+1 xi f (x)dx mediante una f´rmula de o • Se fija la tolerancia en el intervalo [xi .xi+1 ] se estima definitivamente xii+1 f (x)dx por extrapolaci´n. 1]. 2 Paso 2.2 ⇒ S2 [0.6 = 0. 1]: h2 = 0. Aplicamos la regla de Simpson compuesta en dos subintervalos de [0.4 ⇒ S1 [0.2. 0. a • Se obtienen dos estimaciones de cuadratura.6. 0. el m´todo consiste en calcular un valor aproximado de una e b integral a f (x)dx dividiendo el intervalo [a. 1 1 0. xi+1 ] = T (xi+1 − xi ).5 Cuadratura adaptativa A grandes rasgos. 2 1 − 0.2 = 0.51851852. (b − a) x • Si la diferencia entre las dos estimaciones de xii+1 f (x)dx es menor que x T[xi . En o caso contrario se divide el intervalo en dos subintervalos disjuntos. 1] = 4.02. en concreto en [0.94814815. b] en intervalos disjuntos [xi .6.2. 1] = 0.2 ⇒ S2 [0. • Se estima b a f (x)dx: b n xi+1 f (x)dx = a i=0 xi f (x)dx Ejemplo: Fijado un valor de tolerancia T = 0.6] y en [0. calcula la regla de Simpson. h2 = 2 .2. xi+1 ] con las siguientes condiciones: • Se fija un par´metro llamado tolerancia T.2. Aplicamos la regla de Simpson para calcular la integral: h1 = 1 − 0. xi+1 ]: T[ xi .66851852.2 = 0.6] = 3.6 − 0.

1].8] (S3 [0.01.66851852) = 0.01 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 1 1 estimaci´n definitiva de 0.01.2. 0.6 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] 2 x 15 1 0.6.6] + S2 [0.1] = 0.66681049 + (0.4. Tenemos la estimaci´n S2 [0. 0.6] = 0. 0. 1] (S3 [0.2.6] y 0.161111 > T[0.2.4] (S3 [0. 0.4] = 2. 0. 0.8] + S3 [0.001708 < T [0. 1] − (S2 [0.6. el proceso contin´a fijando la tolerancia de u forma proporcional al tama˜o de cada subintervalo y de modo que sume la n tolerancia total T = 0.0.6 x2 dx : o 1 0. 0. 1] y S2 [0.6] + S2 [0.25002572).4. Estudiamos el intervalo [0. Puesto o que la diferencia es mayor que T.2 x2 dx.6. 1] o 1 1 de 0.6. Calculo la diferencia entre ambas estimaciones: S1 [0. Con estas condiciones la tolerancia ser´ 0. Paso 4.6] (S3 [0. 0.41678477) y en [0.6. 1] = 0.8.8.4.2.2.4] + S3 [0.2. 1]−(S3 [0.6] donde la tolerancia tambi´n es 0.2. 0.66681049 = 0.8] = 0. 0.6]) = 0.66669662 15 Paso 5. ıa Si la diferencia hubiera sido menor que T. 1]) = 0. el proceso finalizar´ efectuando una extrapolaci´n del tipo: o (+exacta) + 1 [(+exacta) − (-exacta)] 15 entendiendo que la primera estimaci´n es menos exacta que la segunda.2.2.108 1 Cap´ ıtulo 5 1 Paso 3.83435926) para obtener una nueva (S3 [0.4] + S3 [0. Actuamos ahora sobre el intervalo [0.02. 0.6.7611111 > T = 0.4. 0.2. 0. 0. 0. 0.6.02.6. .6] = 0.01 en a [0.01 en [0.2.6]).6] − (S3 [0. Hasta ahora tenemos dos aproximaciones a 0. Comparamos ambas estimaciones: S2 [0.2.2. 1].6. 1]. a saber: S1 [0. Contamos con una estimaci´n S2 [0. Comparamos ambas estimaciones: S2 [0.66851852−0.6] de la integral e o en el intervalo y aplicamos la regla de Simpson en [0. 0.66681049 − 0.52314815)y en [0. 1]) = 0.6.6.6 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.

4 1 de 0.2.5.2. Tenemos la estimaci´n S3 [0.005 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.3. 0.4] = 0.4] (T[0.35] y [0.005.0.4.2.6 1 estimaci´n definitiva de 0. 0. 0. 0.2.4].000859 < T[0.3.3.4 1 de 0.6 1 de 0. 0. 0.5.0.3.4]. Comparamos ambas estimaciones: S3 [0.0025 y T[0.4] = 0.6 0. 0. Tenemos la estimaci´n S4 [0. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0.0.35. 0.2.3.005 y T[0.4] − (S5 [0.6] (S4 [0.2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.4] o 0.2.2.0025.5. . 0. 0. Estudiamos el intervalo [0.6] (T[0. Estudiamos el intervalo [0.2. 0.4.005).4]) = 0. 0.4 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.3. 0. Con estas condiciones T[0.2. 0.3.6].0.6] − (S4 [0.6] = 0.0. 0.3] y [0.0. Estudiamos el intervalo [0.6] en los intervalos [0. 0.5] = 0.4] = 0.6] = 0.2.35] + S5 [0. 0. dx ≈ (+exacta) + 2 x 15 Paso 7.4].0002220 < T[0.3] + S4 [0.4] − (S4 [0.4] = 0.3] y [0. 0.4].50005144) y en [0.5.3 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.3. Paso 8.4]) > T[0.4] y [0. 0.0025. 0. 0. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0.4. Con estas condiciones T[0. Tenemos la estimaci´n S3 [0.4] en los intervalos [0.2. Paso 6.0.4 x2 dx : o 0.6]) = 0.4. 0.6] = 0. Comparamos ambas estimaciones: S3 [0.2.2.4 1 1 [(+exacta) − (-exacta)] = 0.6] = 0.35. 0.4.0. 0. 0.0.6] o 0.4].´ ´ Diferenciacion e integracion 109 Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0. Comparamos ambas estimaciones: S4 [0.3.005.4] o 0.2.2.3. 0.6] (S4 [0. 0.3] = 0.4.01). Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0.2.0.4.0.33334864). 0. 0.4] = 0.8333428.4.5] + S4 [0.6].

3 x2 dx : o 0.4 x 0.2. 0.2 ser´ ıa: 0.3] − (S5 [0.6 x = 1.4 0.3].25.00005957. Estudiamos el intervalo [0.3 0.2 x2 dx : o 0.2 x2 dx Por lo tanto.2 x 0. Tenemos la estimaci´n S4 [0.2.4 0.3 x 0. 0.3] o 0.666686. Comparamos ambas estimaciones: S4 [0. 0.4 1 estimaci´n definitiva de 0.3 1 estimaci´n definitiva de 0. 2 x 15 Paso 9. 0.3] = 0.666686 + 0. la estimaci´n mediante este m´todo de o e 1 0.83333492 + 0.83333492.3 1 de 0.110 Cap´ ıtulo 5 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.8333428 + 0. 0.25. 2 x 15 1 1 0. Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0. .3]) < T[0.25] y [0.3 0.2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.66669662 = 4.25] + S5 [0.0025.2.0.2. 0. 0.3].2.2 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 1.6 1 1 1 1 1 1 dx = dx + dx + dx + dx 2 2 2 2 2 x 0.2.3 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 0.

m − 1) − R(n − 1. m − 1)] 1 Si+1 [a. m − 1) + 4m1−1 [R(n. h/2) + 1 [R(n − 1. h) = R(n − 1. b] + 15 Si+1 [a. h)] 4n −1 Integraci´n o b n i=0 ( a li (x)dx)f (xi ) h [f (x0 ) + f (x1 )] 2 h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 h [f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )] 2 h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + · · · + 4f (xn−1 ) + f (xn )] 3 1 − 12 h3 f (ξ) 1 − 90 h5 f 4) (ξ) 3 − 80 h5 f 4) (ξ) − (b−a) h2 f (ξ) 12 − (b−a) h4 f 4) (ξ) 180 1 1 f (− 3 ) + f ( 3 ) R(n.Tabla diferenciaci´n e integraci´n num´rica o o e Derivaci´n o f (x) = f (x+h)−f (x) h f (x) = f (x+h)−f (x−h) 2h f (x) = f (x+h)−2f (x)+f (x−h) h2 n f (xk ) = i=0 f (xi )Li (xk ) − h f (ξ) 2 2 − h f (ξ) 6 2 − h f 4) (ξ) 12 1 n f n+1) (ξxk )Πj=0. b] − Si [a.j=k (xk (n+1)! − xj ) R(0. h/2) − R(n − 1. h) = f (x+h)−f (x−h) 2h R(n. b] 1 . m) = R(n.

.

. y(x). una ecuaci´n que contiene una variable independiente x. la soluci´n general de una EDO de orden k es una familia o de funciones que depende de una par´metro k. o Ejemplo: ecuaci´n o y = y tan(x + 3) (y )2 = y tan(x + 3) y = y tan(x + 3) orden 1 1 2 grado 1 2 1 Una ecuaci´n diferencial ordinaria (EDO) es una expresi´n de la forma o o La soluci´n general de una EDO es una familia de funciones que verifican o la EDO. o El grado de una EDO es el mayor exponente de la derivada de mayor orden que aparece en la ecuaci´n. . . ) = 0. es decir. .1 Existencia y unicidad de soluciones F (x. En general. y (x). a 113 . otra depeno diente de la primera y(x) y derivadas de distinto orden de la segunda respecto de la primera (y (x). y (x). y (x). ).Cap´ ıtulo 6 Resoluci´n num´rica de o e ecuaciones diferenciales 6. . El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´n. .

si existe un rect´ngulo D ⊂ R2 − {x = 0} y a (x0 . el problema y = −y con y(2) = 1. ∂f (x. y) = −y . Por ejemplo. entonces el problema y = f (x. con a ∈ R y o b ∈ R. y0 ) ∈ D. y) tal que y(x0 ) = y0 tiene soluci´n unica. y ) ∈ D. a o x 2 − {x = 0}. El planteamiento t´ ıpico de una ecuaci´n diferencial o ordinaria de grado 1 con valor inicial es .114 Cap´ ıtulo 6 Ejemplo: La soluci´n general de y = sen(x) es y = − cos(x) + k con o k ∈ R. y) y ∂f ∂y son continuas en un rect´ngulo D del plano a 2 y (x . Dicha soluci´n es y = x . Sin embargo. y) tal que y(x0 ) = y0 . Sea f (x. tiene soluci´n o ´ o x unica porque (2. 1) est´n dentro de un rect´ngulo que a su vez est´n contenido ´ a a a 2 en R2 − {x = 0}. R Por el teorema anterior. La gr´fica de dicha funci´n aparece en la figura 6. y(x)) entonces (x. Si una EDO de primer orden F (x. y) es continua en R ∂y x 2 − {x = 0}. Una soluci´n particular de una EDO es un elemento particular de la soluo ci´n general. a o Ejemplo: La ecuaci´n y = y 1/3 tiene como soluci´n general y = ( 2 x) 2 +C o o 3 3 2 2 + 4 y una soluci´n singular con C ∈ R. y (x)) = 0 se puede expresar de la forma y = f (x. o En general. Por ello se usan m´todos num´ricos para encontrar e e soluciones aproximadas. entonces existe una unica soluci´n de la ecuaci´n y = R ´ o o 0 0 f (x. si la condici´n inicial o o es y(0) = 2 el problema no tiene soluci´n. la b´squeda de soluciones exactas de una ecuaci´n diferencial u o es un problema dif´ ıcil. 3 Ejemplo: Encuentra d´nde tiene soluci´n unica la ecuaci´n y = o o ´ o −y x .1.y) = −1 es continua tambi´n en e f (x. Una soluci´n particular es y = ( 3 x) o o es y = 0. y(x). Una soluci´n singular es una funci´n que verifica la EDO pero o o o que no est´ recogida en la soluci´n general.y) Teorema: Si f (x. La soluci´n general de y = −y es y = a sen(x) + b cos(x).

La soluci´n num´rica de una EDO ser´ una tabla de valores aproximados o e a de la funci´n y(x) en un conjunto de puntos xi . y) = o y x 10 5 0 -5 y = f (x.1).5 -5 -10 -5 0 5 10 -10 Figura 6. con lo que xi = x0 + ih. por ejemplo.Ecuaciones diferenciales 115 5 2. Usando esa tabla podemos o construir una aproximaci´n de la funci´n mediante.1) y(0) = −1. En lo que sigue. es decir. separados cada uno del siguiente por un tama˜o de paso n h. el m´todo de Taylor de orden k propone e sustituir la funci´n desconocida y(x) por su polinomio de Taylor de orden k o .1: La funci´n f (x. trabajaremos con puntos xi igualmente o espaciados. yi ser´ un valor aproximado de y(xi ). a 6. y(x)) Por ejemplo y = −2x − y y(x0 ) = y0 (6.5 0 -2.2 M´todo de la serie de Taylor e Para resolver el problema (6. y(xi ) denotar´ el valor exacto de la funci´n y(x) a o en el punto xi . los m´todos o o e de interpolaci´n.

y1 ) h2 dk-1 f (x1 .. y1 )h + d f (x1 . y) respecto de x hay que tener en cuenta que es una funci´n de dos variables y que y es funci´n de x. ≈ De este modo obtenemos la expresi´n del m´todo: o e yi+1 = yi + f (xi . y)f (x. el tama˜o del paso h. por lo que hay que sustituirlos por aproximaciones: y(xi ) y (xi ) y (xi ) y k) (xi ) ≈ yi f (xi . y) + fy (x.. y) respecto x e y. yi ) h2 + ··· + dx 2 d xk−1 k! A la hora de derivar f (x. y0 )h + d f (x0 . yi ) d xk−1 ≈ ≈ . yi ) dx dk-1 f (xi . y)y (x. denotando o o fx y fy a las derivadas parciales de f (x. por ejemplo que d f (x. y) + fy (x. obtenemos una aproximaci´n de y(x1 ) o y1 = y0 + f (x0 . De modo que. tendr´ ıamos. y0 ) h2 dk-1 f (x0 . es decir y(xi+1 ) = y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) Cap´ ıtulo 6 h2 hk + · · · + y k) (xi ) + 2 k! Los valores de la funci´n y(x) y de sus derivadas en xi son desconocidos en o general.116 en un entorno de cada punto xi . y) = fx (x. y0 ) hk + ··· + dx 2 d xk−1 k! Paso 2. yi ) hk d f (xi . dx Elegido. y) = fx (x. Partimos de x1 = x0 + h y calculamos una aproximaci´n y(x2 ): o y2 = y1 + f (x1 . yi )h + dk-1 f (xi . yi ) d f (xi . y1 ) hk + ··· + dx 2 d xk−1 k! . Partimos del punto x0 . el m´todo de Taylor paso a paso ser´ el n e ıa siguiente: Paso 1. y).

14 = −0. Como y1 = −0.8561927. y) definimos el m´todo e −2 − f (xi . y0 ) = f (0. −0. obtenemos el valor aproximado yi+1 = yi + f (xi . yi ) 4 h + h + h 2 3! 4! Paso 1. Partimos de xi = xi−1 + h y calculamos una aproximaci´n de o y(xi+1 ): yi+1 = yi + f (xi . −1) = 1. y) y (x) = [y (x)] = [−2x − y(x)] = −2 − y (x) = −2 − f (x.12 + 0. Paso 2. y2 ) = f (0.8561927) = 0.Ecuaciones diferenciales 117 Paso i+1.5 · 0. yi ) h2 + ··· + dx 2 d xk−1 k! Ejemplo: Proporciona tres valores aproximados de la funci´n y(x).125 · 0. obtenemos el valor aproximado y3 = −0. yi )h + y1 = −1 + 0. y1 ) = f (0. yi ) hk d f (xi . n Calculamos el desarrollo de Taylor hasta grado 4 de la funci´n y(x) en un o punto cualquiera xi : y (xi ) 2 y (xi ) 3 y 4) (xi ) 4 h + h + h 2 3! 4! Denotando yi al valor aproximado de y(xi ) y dado que y(xi + h) ≈ y(xi ) + y (xi )h + y (x) = f (x.1 − 1. Paso 3. yi )h + dk-1 f (xi . y) y 4) (x) = [y (x)] = [−y (x)] = −y (x) = −2 − y (x) = −2 − f (x.9145125) = 0.8561927 y f (x2 . Como y0 = −1 y f (x0 .1. yi ) 2 2 + f (xi .7145125. yi ) 3 −2 − f (xi . soluo ci´n de y = −2x − y con y(0) = −1 mediante el m´todo de Taylor con k = 4 o e y tama˜o de paso h = 0.1. −0.2.4561927.9645125.5 · 0.13 − 0. obtenemos el valor aproximado y2 = −0. y) y (x) = [y (x)] = −y (x) = 2 + y (x) = 2 + f (x.9145125 y f (x1 . Como y2 = −0.8224553 .

error de redondeo local 4.1 = −0.187 · 0.787 + 0.7.9 Puesto que f (x1 . y0 ) = 1 con lo que y1 = y0 + f (x0 . error total . y1 )h = −0. error de truncamiento local 2. y2 )h = −0.1 = −0.1 M´todo de Euler e Es el m´todo anterior usando el polinomio de Taylor de orden 1 e yi+1 = yi + f (xi . se deduce que y4 = y3 + f (x3 .7683 6. e Con estos datos se tiene que x0 = 0.83 + 0. y0 )h = −1 + 1 · 0. se deduce que y2 = y1 + f (x1 . yi )h Ejemplo. error de redondeo global 5. Resuelve la ecuaci´n y = −2x − y con y(0) = −1 mediante el o m´todo de Euler.43.7 · 0. y3 )h = −0.2.2 Errores Al resolver num´ricamente una ecuaci´n diferencial aparecen varios tipos de e o errores: 1.1 = −0.1 = −0.43 · 0.83 Puesto que f (x2 .2.118 Cap´ ıtulo 6 6.9 + 0. y0 = −1. f (x0 . y1 ) = 0.187.787 Puesto que f (x3 . error de truncamiento global 3. y3 ) = 0. y2 ) = 0. se deduce que y3 = y2 + f (x2 .

Ecuaciones diferenciales

119

El error de truncamiento local es el que aparece en un paso cuando reemplazamos un proceso infinito por uno finito. Por ejemplo, en el m´todo de e Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de infinitos t´rminos) por los primeros k-t´rminos. En este caso, para un cierto e e ci ∈ R, se tiene que y(xi + h) = y(xi ) + y (xi )h + y k) (xi ) k y k+1) (ci ) k+1 y (xi ) 2 h + ··· + h + h 2! k! (k + 1)!

y dado que en el algoritmo usamos la aproximaci´n o y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) 2 y k) (xi ) k h + ··· + h 2! k!

se deduce que el error local en el paso i-´simo es proporcional a hk+1 , digamos e Ci hk+1 . Un error de esa magnitud se dice que es O(hk+1 ). La acumulaci´n de todos los errores de truncamiento local genera el error o de truncamiento global. Si al aplicar un m´todo el error de truncamiento e k+1 ), el tama˜ o de paso es h, el punto inicial es x y el punto final local es O(h n 0 es xn , entonces el n´mero de pasos ser´ n = xn −x0 y puesto que u a h C1 hk+1 + C2 hk+1 + · · · + Cn hk+1 = hk+1 (C1 + C2 + · · · + Cn ) ≤

≤ hk+1 n max{C1 , C2 , . . . , Cn } = Chk

siendo C = (xn − x0 ) max{C1 + C2 + · · · + Cn }, el error de truncamiento global ser´ O(hk ). Si un m´todo tiene error de truncamiento global O(hk ) decimos a e que el procedimiento num´rico es de orden k. El m´todo de Taylor usando e e el desarrollo hasta grado k es un m´todo de orden k. e El error de redondeo local es el que en cada paso es provocado por la limitada precisi´n de nuestras m´quinas de c´mputo, como ya se coment´ el o a o o tema inicial del curso. El error de redondeo global es la acumulaci´n de los o errores de redondeo local en los pasos anteriores. El error total es la suma de los errores de truncamiento global y redondeo global.

6.3

M´todos de Runge-Kutta e

Los m´todos de Taylor tienen el inconveniente de la dificultad de c´lculo de e a las sucesivas derivadas de la funci´n y(x). En los m´todos de Runge-Kutta se o e

120

Cap´ ıtulo 6

elimina esa dificultad. Las ideas que dan origen a este conjunto de m´todos e se resumen en los siguientes pasos: Paso 1. Consideramos la igualdad
xi+1 xi+1

y(xi+1 ) − y(xi ) = y despejamos y(xi+1 )

y (x)dx =
xi xi

f (x, y(x))dx.

xi+1

xi+1

y(xi+1 ) = y(xi ) +
xi

y (x)dx =
xi

f (x, y(x))dx.

Paso 2. Realizamos el cambio de variable x = xi + θh en la integral anterior y obtenemos
1

y(xi+1 ) = y(xi ) + h
0

f (xi + θh, y(xi + θh))dθ.

(6.2)

Paso 3. Consideramos el conjunto de puntos 0 = θ0 ≤ θ1 ≤ . . . θm ≤ 1 del intervalo de integraci´n [0, 1] y estimamos la integral anterior mediante una o o f´rmula de cuadratura del siguiente tipo
1 0

F (θ)dθ ≈ A0 F (θ0 ) + A1 F (θ1 ) + · · · + Am F (θm )

o con lo que, denotando xiθj = xi + θj h, en la ecuaci´n (6.2) obtenemos y(xi+1 ) ≈ y(xi ) + h A0 f xiθ0 , y(xiθ0 ) + A1 f xiθ1 , y(xiθ1 )

+ · · · + Am f xiθm , y(xiθm ) . (6.3)

La f´rmula de cuadratura elegida puede variar, pero se le ha de exigir que o al menos sea exacta para las funciones constantes, lo que se traduce en que los coeficientes han de cumplir la condici´n o A0 + A 1 + · · · + A m = 1 El m´todo de Runge-Kutta ser´ la f´rmula que resulta de sustituir en la ecuae a o ci´n (6.3) los valores y(xi ), y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ) por sus valores aproxio mados. Si bien dispondremos en cada paso del valor yi que aproxima a y(xi ), no ocurre lo mismo con las aproximaciones de y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ).

Ecuaciones diferenciales

121

Paso 4. En esta etapa conseguiremos obtener un algoritmo para las aproximaciones aludidas en el apartado anterior. De forma similar a como se obtuvo la ecuaci´n (6.2), llegamos a la igualdad o
θj

y(xiθj ) = y(xi ) + h

f (xi + θh, y(xi + θh))dθ
xi

y aplicando una f´rmula de cuadratura para cada j o
θj xi j j j F (θ)dθ ≈ B0 F (θ0 ) + B1 F (θ1 ) + · · · + Bj−1 F (θj−1 )

(6.4)

a la integral anterior, se obtienen las aproximaciones buscadas
j−1

y(xiθj ) ≈ y(xi ) + h

j Bk f (xiθk , y(xiθk )). k=0

Las f´rmulas de cuadraturas usadas en (6.4) han de ser exactas al menos para o las funciones constantes, por lo tanto los coeficientes deben verificar
j j j B0 + B1 + · · · + Bj−1 = θj

j = 1, . . . , m.

e o Paso 5. Si denotamos yiθj a una estimaci´n de y(xiθj ), un m´todo de RungeKutta quedar´ as´ ıan ı: yi+1 = yi + h[A0 f (xiθ0 , yiθ0 ) + A1 f (xiθ1 , yiθ1 ) + · · · + Am f (xiθm , yiθm ) (6.5) siendo yiθ0 = yi 1 yiθ1 = yi + h B0 f (xiθ0 , yiθ0 ) 2 2 yiθ2 = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) ... m m yiθm = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) + . . . m · · · + Bm−1 f (xiθm−1 , yiθm−1 ) Previamente deben fijarse los valores 0 = θ 0 ≤ θ1 ≤ θ2 ≤ . . . θm ≤ 1

podemos obtener. Am m B0 m B1 . θ1 = 1/2 . yi0 ) + f (xi1 . yi ) + f (xi+1 . e Para m = 1 (dos etapas). m Bm−1 m−1 m k=0 Bk = θm m r=0 Ar =1 1 2 2 B0 = θ 1 B0 + B 1 = θ 2 . yi + hf (xi .. el m´todo de Runge-Kutta que resulta e es el m´todo de Euler. yi ) con lo que yi+1 = yi + h 1 1 f (xi . Un m´todo como el anterior se conoce con el nombre de m´todo de Rungee e Kutta de m+1 etapas. . el m´todo de Heun: e θ0 = 0.. θ1 = 1 A0 = 1/2 A1 = 1/2 A 0 + A1 = 1 1 =1 B0 1 B0 = θ 1 = 1 1 1 yi+1 = yi + h[ f (xi0 .6) El llamado m´todo de Euler modificado sale con la elecci´n e o θ0 = 0. yi )) 2 2 (6. o Ejemplo: Para m = 0 (una etapa).122 Cap´ ıtulo 6 as´ como los siguientes par´metros que han de cumplir con las condiciones de ı a las sumas correspondientes que aparecen en el cuadro A0 A1 1 B0 A2 2 B0 2 B1 . entre otras posibilidades. debido a que la f´rmula (6. y). .5) requiere m+1 evaluaciones o de la funci´n f (x... yi1 ) 2 2 siendo yi0 = yi yi1 = yi + hf (xi .. ..

yi ) 2 2 (6. yi + h f (xi . yi ) 2 con lo que el m´todo queda e yi+1 = yi + hf xi + h h . θ1 = 2/3 A0 = 1/4 A1 = 3/4 A 0 + A1 = 1 1 = 2/3 B0 1 B0 = θ1 = 2/3 1 3 yi+1 = yi + h[ f (xiθ0 .Ecuaciones diferenciales A0 = 0 A1 = 1 A 0 + A1 = 1 1 = 1/2 B0 1 B0 = θ1 = 1/2 123 yi+1 = yi + h[f (xiθ1 . yi ) 4 4 3 3 El m´todo cl´sico de Runge-Kutta es de m = 3 (cuatro etapas) definido e a por los par´metros a 0 = θ0 θ1 = 1/2 θ2 = 1/2 θ3 = 1 . yi + f (xi . yiθ1 ) 4 4 siendo yiθ0 = yi yiθ1 = yi + h con lo que el m´todo queda as´ e ı 2 3 f (xiθ0 . yi ) + f (xi + h. yiθ1 )] siendo yi0 = yi yi1/2 = yi + h 1 f (xi .7) Otra elecci´n posible es o θ0 = 0. yiθ0 ) + f (xiθ1 . yiθ0 ) 1 3 2 2 yi+1 = yi + h[ f (xi .

y1 + hK3 ) = −1. y0 + h K1 ) = −1. Paso 1.8) o previamente calculamos K1 = f (x0 . y1 + h K1 ) = −1. Paso 2.86520 2 2 K3 = f (x1 + h . Con estos datos obtenemos y1 = y 0 + h (K1 + 2K2 + 2K3 + K4 ) = 1. y1 ) = −1.98473. . y0 = 2. Para aplicar la ecuaci´n (6. y0 + h K2 ) = −1.95409 2 2 K4 = f (x0 + h. 6 1 128 . y1 + h K2 ) = −1. Partimos de x0 = 1. yi + hK3 ) K3 = f (xi + 2 .82316.90898. y0 ) = f (1. yi ) K2 = f (xi + h .95355 2 2 K3 = f (x0 + h . 2) = −2 K2 = f (x0 + h . y0 + hK3 ) = −1. Calculamos K1 = f (x1 .86570 2 2 K4 = f (x1 + h.90899 K2 = f (x1 + h . yi + h K1 ) 2 2 h h K4 = f (xi + h.124 A0 = 1/6 A1 = 1/3 1 B0 = 1/2 A2 = 1/3 2 B0 = 0 2 = 1/2 B1 A3 = 1/6 3 B0 = 0 3 =0 B1 3 B2 = 1 2 3 k=0 Bk = 1 Cap´ ıtulo 6 3 r=0 Ar =1 1 2 2 B0 = 1/2 B0 + B1 = 1/2 que da lugar a yi+1 = yi + donde K1 = f (xi .8) Ejercicio: Aplica tres pasos del m´todo cl´sico de Runge-Kutta de orden e a 4 con h = 1/128 para resolver la ecuaci´n o y = yx − y 2 x2 y(1) = 2.98473. yi + 2 K2 ) h (K1 + 2K2 + 2K3 + K4 ) 6 (6. Partimos de x1 = 1 + y1 = 1.

Con estos datos obtenemos y3 = y 2 + h (K1 + 2K2 + 2K3 + K4 ) = 1. Los m´todos multipaso se caracterizan e por obtener yi+1 a partir de los valores h. yi−k . su orden. adem´s de xi a y de h.82311 K2 = f (x2 + h . 6. en general para k ≥ 7 se necesitan un n´mero de etapas mayor o u igual que k + 2. Partimos siempre de la ecuaci´n o y = f (x.96088. 2. los m´todos de Runge-Kutta de 1. Se da la igualdad para k = 1. . . xi .Ecuaciones diferenciales Con estos datos obtenemos y2 = y 1 + h (K1 + 2K2 + 2K3 + K4 ) = 1. 3. e e es decir.97016. porque para calcular el valor aproximado yi+1 solo se usa. . xi−1 . 6 2 128 . Partimos de x2 = 1 + y2 = 1.2.4 M´todos multipaso e Tanto los m´todos de Taylor como los de Runge-Kutta son m´todos de un e e paso.1 Errores Los m´todos de Runge-Kutta tienen tambi´n su error de truncamiento global. xi−k . 125 Paso 3. Ejemplo: Un primer ejemplo sencillo de un m´todo multipaso se puede e obtener de la siguiente forma.3. e respectivamente. 6 6. el valor aproximado anterior yi .2.4 etapas tienen orden 1.3. y2 + hK3 ) = −1.78186 2 2 h K3 = f (x2 + 2 . u Es decir. y2 + h K1 ) = −1. Calculamos K1 = f (x2 . y2 ) = −1. Sabemos que y (x) ≈ y(x + h) − y(x − h) 2h . y) y(x0 ) = y0 . Existen m´todos de Runge-Kutta de orden k con k menor e o igual que el n´mero de etapas m + 1. 4.78231 2 K4 = f (x2 + h. . Para conseguir orden k = 5 es necesario 6 etapas. y2 + h K2 ) = −1. para k = 6. 7 etapas. yi .97016. yi−1 .4.3.74215.

lo que sugiere el m´todo e yi+1 = yi−1 + 2 h f (xi . y(xi + θh))dθ. y(xi+1 ) − y(xi−1 ) 2h Cap´ ıtulo 6 Para poder obtener el punto yi+1 son necesarios los dos valores anteriores yi .9) y nos queda y(xi+1 ) − y(xi ) ≈ h A0 f (xi + θ0 h.126 con lo que y(xi ) ≈ y se deduce que y(xi+1 ) ≈ y(xi−1 ) + 2 h y (xi ). y(xi + θk h)) (6. ´ e El que sigue es un proceso para obtener un conjunto de m´todos multipasos. Para empezar a aplicarlo tenemos que e disponer de y0 e y1 . 0 Aproximamos la integral anterior por una f´rmula de cuadratura o 1 0 F (θ)dθ = A0 F (θ0 ) + A1 F (θ1 ) + · · · + Ak F (θk ) (6. yi ). e Partimos de la relaci´n o xi+1 xi+1 y(xi+1 ) − y(xi ) = y (x)dx = xi xi f (x. Es un m´todo de dos pasos. . y(xi + θh))+ + · · · + Ak f (xi + θk h. y(xi + θh))+ + A1 f (xi + θ1 h. yi−1 . Este ultimo puede calcularse con un m´todo de un paso.10) lo cual sugiere un m´todo que resultar´ de sustituir los valores de la funci´n e a o por valores aproximados. y aplicamos el cambio de variable x = xi + θh 1 y(xi+1 ) − y(xi ) = h f (xi + θh. y(x))dx.

y solo o disponemos del valor y0 = 2. 2 2 .10) nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 3 f (xi . Es habitual calcular los puntos necesarios para empezar mediante un m´todo de un paso del mismo orden.11) Si en la f´rmula de cuadratura (6. y0 ) = 1. Sustituyendo en o (6.98474.Ecuaciones diferenciales Ejemplo: Deduzcamos el m´todo de orden 2 e 127 yi+1 = yi + h 1 3 f (xi . y(xi−1 ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 Para aplicar la f´rmula (6. yi−1 ) 2 2 (6. y(xi )) − f (xi−1 . y1 . Usamos el m´todo e e de Euler modificado (ver ecuaci´n (6. 2 2 1 3 f (xi . yi−1 . que es un m´todo de Runge-Kutta o e de orden 2: y1 = y0 + hf x0 + h h .9) tomamos los puntos o θ0 = 0 θ1 = −1 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. y0 + f (x0 .7)). obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A1 = − 2 1 3 y la soluci´n del sistema anterior es A0 = 2 y A1 = − 2 . yi ) − f (xi−1 .11) necesitamos dos puntos iniciales y0 . yi ) − f (xi−1 .

y1 ) − f (x0 . yn−4 ) 3 2 f (xi .97018.10) deseo que aparezca la funci´n f (x. yi−1 ) + · · · + Ak−1 f (xi−k+1 . yi−3 ) h 1901f (xi . y) valorada en o o los puntos .128 Cap´ ıtulo 6 Ya disponemos de y0 e y1 y podemos calcular y2 aplicando (6. de orden 2: yi+1 = yi + h 2. yi ) − 59f (xi−1 . yi ) + A1 f (xi−1 . yi−2 ) − 1274f (xi−3 . y1 = 1.95627. 2 2 6. yi ) − 2774f (xi−1 . si en la f´rmula final (6. de orden 4: yi+1 = yi + h 55f (xi . Estos m´todos o e se encuadran dentro de los m´todos multipaso expl´ e ıcitos.1 F´rmulas de Adams-Bashforth o Un m´todo multipaso de la forma e yi+1 = yi + A0 f (xi . debido a que la definici´n de yi+1 es expl´ o ıcita en funci´n de los valores anteriores. 2 2 Con y1 e y2 podemos calcular y3 y2 = y 1 + h y3 = y 2 + h Y as´ sucesivamente. Estos son algunos ejemplos de f´rmulas de Adams-Bashforth: o 1. Dado que en dicho proceso se utiliza el cambio de variable x = xi + θ h. yi−2 ) − 9f (xi−3 . yi−1 )+ 720 + 2616f (xi−2 . de orden 5: yi+1 = yi + Todas ellas se pueden obtener siguiendo el proceso descrito en la p´gina a 126. yi−1 )+ 24 + 37f (xi−2 . y0 = 1. a diferencia o de los m´todos impl´ e ıcitos que veremos en es siguiente apartado.4. yi ) − 1 f (xi−1 .11) 3 1 f (x1 . y2 ) − f (x1 . yi−1 ) 2 3. ı 1 3 f (x2 . yi−3 ) + 251f (xn−4 . yi−k+1 ) es una f´rmula de Adams-Bashforth de k pasos y orden k.

θ1 = −1.. . Al igual que las f´rmulas de Adams-Bashforth... yi−1 ) + . xi−1 ..12) es una f´rmula de Adams-Moulton de k pasos y orden k + 1. . · · · + Ak−1 f (xi−k+1 . . que podr´n obtenerse mediante un m´todo de a e un paso del mismo orden. las f´rmulas de Adams-Moulton se pueden o o obtener siguiendo el proceso descrito en la p´gina 126. .. y1 .Ecuaciones diferenciales xi .. si en la f´rmula final o (6. θ1 = −1. . yi−1 . o Para aplicar una f´rmula de Adams-Moulton de k pasos necesitaremos los o valores iniciales y0 . .. . yk−1 . tendr´ que elegir los valores e θ = 1.. . Supongamos que disponemos de los valores yi .. xi−1 .. y) valorada en los puntos o xi+1 . . yi ) + A1 f (xi−1 . θk−1 = −k + 1 129 al construir la f´rmula de cuadratura (6. xi−k+1 . xi . θ0 = 0.. debido a que en la f´rmula aparece el valor yi+1 definido de forma impl´ o ıcita.. xi−k+1 . 6..10) deseo que aparezca la funci´n f (x. Estos m´todos o e se encuadran dentro de los m´todos multipaso impl´ e ıcitos.4.9)... y1 . yi−k+1 ) (6.12)? Se puede hacer de dos formas: o .. o Para aplicar una f´rmula de Adams-Bashforth de k pasos necesitaremos o los valores iniciales y0 .. Dado que en dicho a proceso se utiliza el cambio de variable x = xi + θ h...2 F´rmulas de Adams-Moulton o Un m´todo multipaso de la forma e yi+1 = yi + Bf (xi+1 . ¿C´mo o calcular yi+1 mediante la f´rmula (6. yi+1 ) + A0 f (xi . yi−k+1 . θk = −k + 1 al construir la f´rmula de cuadratura (6. yk−1 . tendr´ que elegir los valores e θ0 = 0..9). que podr´n obtenerse mediante un m´todo a e de un paso del mismo orden..

Se estima un primer valor predictor y i+1 e mediante una f´rmula de Adams-Bashforth del mismo orden y despu´s se o e calcula el valor corrector yi+1 aplicando ∗ yi+1 = yi + Bf (xi+1 . es suficiente dos o tres a iteraciones para conseguir un valor aceptable de yi+1 . yi−k+1 ). Ejemplo: Deduzcamos la f´rmula de Adams-Moulton de orden dos o yi+1 = yi + h 1 1 f (xi+1 . . yi ) + A1 f (xi−1 . En consecuencia. . yi+1 lo podemos obtener como l´ ımite de la sucesi´n o ∗ t0 = yi+1 . t) + A0 f (xi . yi−1 ) + . yi+1 ) + A0 f (xi . En la pr´ctica. yi ) 2 2 (6. 2. yi−1 ) + . En la f´rmula (6.9) tomamos los puntos θ0 = 1 θ1 = 0 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. · · · + Ak−1 f (xi−k+1 . M´todo iterativo de punto fijo. yi ) + A1 f (xi−1 .13) Aplicaremos el proceso descrito en la p´gina 126. · · · + Ak−1 f (xi−k+1 . tn = Φ(tn−1 ) n≥1 ∗ siendo yi+1 un valor inicial que se recomienda obtener mediante la f´rmula o de Adams-Bashforth del mismo orden. obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A0 = 2 .130 Cap´ ıtulo 6 ∗ 1. Si en la f´rmula de a o cuadratura (6. . yi+1 ) + f (xi . En este sentido.12) todos los t´rminos e o e de la parte derecha de la igualdad son datos excepto yi+1 . yi−k+1 ). yi+1 es un punto fijo de la funci´n o Φ(t) = yi + Bf (xi+1 . . M´todo predictor-corrector.

98474 2 2 Con este valor. Si es posible. 2 2 1 2 131 1 y A1 = 2 . y1 ) + f (x0 . e debe calcularse con una f´rmula de Adams-Bashforth del mismo orden. en o este caso la f´rmula (6.11) que es de orden dos.11)) o ∗ y2 = y 1 + h 3 1 f (x1 . yi+1 ) + f (xi .6): ∗ y1 = y 0 + h 1 1 f (x0 . Sustituyendo en (6. Sin embargo. por Runge-Kutta de orden 2 (ver 6. y0 = 1. M´todo predictor. y(xi+1 )) + f (xi . y0 )) = 1.11) necesitamos los dos puntos iniciales y0 e y1 . primero calculo el valor predictor y2 con Adams-Bashforth de orden 2 (f´rmula (6. y(xi ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 El m´todo a aplicar es de orden 2 y 1 paso. y0 ) = 1.Ecuaciones diferenciales y la soluci´n del sistema anterior es A0 = o nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 1 f (xi+1 . y1 ) − f (x0 . Para estimar el resto de valores podemos optar por el m´todo predictor-corrector o por el m´todo iterativo de punto fijo.97017 2 2 . 2 2 ∗ Para calcular y2 . calculamos el valor corrector con Adams-Moulton y1 = y 0 + h 1 1 ∗ f (x1 . y0 ) + f (x1 . y0 + hf (x0 . e e ∗ 1. Calculamos y1 mediante otro m´todo. para aplicar o (6.98473. yi .10) 1 1 f (xi+1 . Calculamos un valor predictor y1 . por e ejemplo. por lo que solo necesitamos el e valor y0 para empezar. con lo que en este primer ∗ paso no podemos hacer uso de ella.

98474) y generamos la sucesi´n iterativa: o ∗ t0 = y1 = 1.97015. si es posible. y1 = 1. ∗ Para localizarlo generamos una sucesi´n iterativa comenzando por un valor y 1 o obtenido. un punto fijo de la ecuaci´n o Φ1 (t) = t. 2 2 El proceso anterior se repite para calcular el resto de valores. M´todo iterativo de punto fijo. t) + f (x1 . y0 ) 2 2 De forma que tomamos y1 = 1. Calculamos y1 ∗ (y1 = 1.98473.95624 2 2 y despu´s calculo el corrector con Adams-Moulton e y3 = y 2 + h 1 1 ∗ f (x3 . y2 ) + f (x1 . y1 ) = 1. Es. y2 = 1. En este caso no es posible aplicar Adams-Bashforth puesto que se necesitar´ dos puntos ıa ∗ mediante Runge-Kutta de orden 2 iniciales que no tenemos.95622.132 y despu´s calculo el corrector con Adams-Moulton e y2 = y 1 + h 1 1 ∗ f (x2 .98474 t1 = Φ1 (1. Dada la funci´n e o Φ1 (t) = y0 + h el valor y1 que buscamos verifica Φ1 (y1 ) = y1 .98473 t2 = Φ1 (1.98473 1 1 f (x1 . y2 es un punto fijo de Φ2 (t) = y1 + h 1 1 f (x2 . 2. y1 ) 2 2 . por tanto. y3 ) + f (x2 . y2 ) − f (x1 .98473) = 1. 2 2 Cap´ ıtulo 6 ∗ En el siguiente paso calculo el predictor y3 con Adams-Bashforth ∗ y3 = y 2 + h 3 1 f (x2 . por Adams-Bashforth del mismo orden. t) + f (x0 .98474) = 1.

97015. y(i + 1)) + 19f (xi . yi+1 ) + f (xi+2 .97015 t2 = Φ2 (1.97017) = 1. yi−2 ) − 9f (xi−3 . yi ) + 4f (xi+1 .97017 t1 = Φ2 (1. yi−3 ) yx − x2 x2 y usala para resolver la ecuaci´n ´ o y = con h = 1/128 2. yi )− 24 − 5f (xi−1 . yi−2 ) y(1) = 2 Ejercicio: Usa la identidad xi+2 y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del sio o guiente m´todo multipaso e yi+2 = yi + h f (xi . que a su vez es obtenido por Adams-Bashforth de orden 2 ∗ t0 = y2 = 1. Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi .97015) = 1. yi ) − 59f (xi−1 .97017. Repite el apartado anterior para la f´rmula de Adams-Moulton de orden o 4: yi+1 = yi + h 9f (xi+1 . Y repetimos el proceso para el resto de valores. yi−1 )+ 24 + 37f (xi−2 . yi+2 ) . 3 .97015 Tomamos y2 = 1. yi−1 ) + f (xi−2 .Ecuaciones diferenciales 133 que localizamos mediante la sucesi´n iterativa similar a la anterior que coo ∗ mienza en y2 = 1. Ejercicio: 1.

.

una ra´ positiva. ¿Cu´ntos pasos deben darse. ız o a a partir de x0 = π/2. o ız (b) Encuentra un intervalo en el cual la iteraci´n o xn = 1 + sen(xn−1 ) x∈N converja. o (a) Prueba que dicha ecuaci´n tiene. para obtener una aproximaci´n de la ra´ con o ız un error inferior a una mil´sima? e 135 . a una ra´ positiva de la ecuaci´n anterior. al menos. e 2. para cualquier valor inicial x0 de dicho intervalo. 3. e o (b) Con 4 iteraciones del m´todo de Newton-Raphson. Se considera la ecuaci´n x2 − 1 − sen(x) = 0.Problemas Ecuaciones no lineales 1. Determina un intervalo y una funci´n para aplicar el m´todo del punto o e fijo a las siguientes ecuaciones: (a) x3 − x − 1 = 0 (b) 4 − x − tg(x) = 0 Realiza 4 iteraciones del m´todo y determina en cada caso una cota del e el error cometido. Dada la ecuaci´n o √ xsen(x) − x3 + 2 = 0 encuentra una aproximaci´n de una ra´ o ız (a) Con el m´todo de la bisecci´n con un error menor que 1/30.

Se considera la funci´n o F (x) = e−x − sen(x) − 2. 5. o (a) Localiza un intervalo que contenga una soluci´n de f (x) = 0. o (b) Encuentra.2 = 0.136 4. Calcula tres iteraciones del m´todo de la secante para encontrar una ra´ e ız o de la ecuaci´n cos(x) − x = 0 en el intervalo [0. Calcula una cota o e del error cometido. o o 6. Enuno cia el resultado te´rico que utilices. Dada la funci´n f (x) = ex − 3x2 . (b) x = −L(x). 8. 7. o ´ ız (c) Determina un intervalo donde se pueda aplicar el m´todo de Newtone Raphson para aproximar dicha ra´ as´ como los 4 primeros t´rminos ız. Demuestra que la ecuaci´n o ex L(x) + x3 − 2 = 0 Problemas tiene una unica ra´ positiva. Aplica el m´todo de Newton-Raphson para ´ ız e encontrar una aproximaci´n a la ra´ Realiza iteraciones hasta que se o ız. (b) Prueba que la ecuaci´n F (x) = 0 tiene una unica ra´ negativa. repitan las primeros cuatro decimales. Determina un intervalo y una funci´n para poder aplicar el m´todo del o e punto fijo a las siguientes ecuaciones: (a) x − L(1 + x) − 0. Calcula una aproximaci´n a la soluci´n con un error inferior a 10−5 . una aproximaci´n de un valor donde se anule la derivada de o f (x) y una cota del error cometido. aplicando el m´todo del punto fijo con cuatro iteracioe nes. Dada la ecuaci´n x = arctg(x + 1). o 9. aplica el m´todo de la bisecci´n para o e o encontrar una soluci´n con un error menor que 1/10. π/4] . (a) Demuestra que F (x) < 0 si x ≥ 0.5. ı e de la sucesi´n definida mediante dicho m´todo.

o ız 12. (b) Utiliza el m´todo de Newton-Raphson para encontrar una aproxie maci´n de la ra´ real de P (x) de menor valor absoluto. prueba que posee una unica ra´ simple en el intervalo ´ ız [0. π/4]. Dado la ecuaci´n x4 − 7x3 + 18x2 − 20x + 8 = 0: (a) Demuestra con el teorema de Bolzano que tiene una soluci´n en el o intervalo [1. 0]. o (a) Calcula el n´mero de pasos necesarios para encontrar una ra´ de u ız −2 con el m´todo de la bisecci´n f (x) con un error menor que 10 e o e u en el intervalo [0. y utiliza el m´todo de Newton para encontrar una e aproximaci´n con error menor que 10−6 o (b) Utiliza la sucesi´n de Sturm para separar las distintas ra´ o ıces del polinomio. Cuesti´n de examen de febrero de 2004: o Dada la ecuaci´n x2 − e2x = −1/2. 14.Problemas 10.5. o 137 (a) Determina el valor de k para que la ecuaci´n tenga una unica ra´ o ´ ız triple en el intervalo [0. utiliza su sucesi´n o ıces en intervalos disjuntos. o 13. Dada la ecuaci´n 2cos(2x) + 4x − k = 0. 3]. Dado el polinomio P (x) = 8x3 − 20x2 − 2x + 5. Dado el polinomio P (x) = x4 − 4x3 + 7x2 − 5x − 2 (a) Utiliza la sucesi´n de Sturm para separar las ra´ o ıces del polinomio. Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = cos(x) − x. 1]. Aplica el m´todo con el n´mero de pasos calculado. 1] y calc´lala con el m´todo de Newton con un error menor que u e 10−3 .5. (b) Para k = 3. . Encuentra de Sturm para separar sus ra´ aproximaciones de las ra´ ıces con un error menor que 10−3 . 11. ´ o (b) Encuentra una aproximaci´n a la soluci´n mediante tres iteraciones o o del m´todo del punto fijo partiendo del punto x0 = −1.5 e 15. o (a) Demuestra que tiene una unica soluci´n en el intervalo [−2.

ız 16. π/4].138 Problemas (b) Aplica tres iteraciones del m´todo de la secante para encontrar una e ra´ de f (x) en el intervalo [0. . (a) Utiliza el m´todo de Sturm para separar las ra´ e ıces en intervalos disjuntos. Cuesti´n de examen de septiembre de 2004: o Dado el polinomio P (x) = −x3 + x2 − 2x + 5. (b) Empezando con x = 6 aplica un paso del m´todo de Newton hae ciendo uso del algoritmo de Horner.5.

o 20. b) Utiliza la inversa para obtener las soluciones del sistema. c) Comprueba los resultados. c) Calcula el n´mero de condici´n de la matriz u o con las distintas normas que conozcas. d) Calcula el n´mero de condici´n de la matriz del sistema u o con la norma infinito. 18. utiliza el m´todo del refinamiento iterativo para mejorar e la soluci´n. Para el conjunto de ecuaciones.5 0. 7x1 − 3x2 + 8x3 = −49 x1 − 2x2 − 5x3 = 5 4x1 − 6x2 + 10x3 = −84 a) Calcula la inversa de la matriz de los coeficientes haciendo uso de las operaciones fundamentales. b) Sustituye a11 por 0. Dado el sistema de ecuaciones = −9. si es necesario. e e c) Interpreta los resultados anteriores en t´rminos del condicionamiento e del sistema. triangular superior U y de permutaciones P tal que P A = LU . b) Encuentra las matrices triangular inferior L. Dado el sistema −12x1 + x2 − 7x3 = −80 x1 − 6x2 + 4x3 = 13 −2x1 − x2 + 10x3 = 92 a) Resu´lvelo por eliminaci´n gaussiana simple usando d´ e o ıgitos con dos cifras decimales.Problemas 139 Sistemas de ecuaciones lineales 17.28x1 − 0. siendo A la matriz de los coeficientes. b) Encuentra las matrices P . c) Sustituye los resultados en las ecuaciones y. o .5x1 − x2 0.72 a) Resu´lvelo por Gauss. L y U tal que P A = LU como en el ejercicio anterior.55 y resu´lvelo de nuevo.5x2 = −4. y si no son exactos. emplea el refinamiento iterativo para mejorar la soluci´n. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´n o gaussiana con pivoteo parcial empleando d´ ıgitos con dos decimales. 19.

Resuelve el sistema  = 0 = −4 = −11 = 5 = 6     −4 x1 4 −1 −1 0  x 2   0  −1 4 0 −1      = −1 0 4 −1 x3   4  −4 x4 0 −1 −1 4 mediante la descomposici´n de Cholesky. o Utiliza 3 decimales en los c´lculos. Dados      14 −7 4 −3 0 2 2  b = −2 b =  9  3 A= −8 6 6 1 −6  resuelve Ax = b y Ax = b mediante una descomposici´n LU de Gauss. a 23. −5x1 − 8x2 = −64 21. 22. Dado el sistema     105 3 2 100 x1 −1 3 100 x2  = 102 2 x3 1 2 −1  Problemas 3x2 − 13x3 = −50 2). Resuelve el sistema siguiente mediante descomposici´n LU : o −4x1 + 2x2 x1 − 4x2 x2 − 4x3 + x4 x3 − 4x4 + x5 2x4 − 4x5 24. 2x1 − 6x2 + x3 = 44 4x1 + 8x3 = 4 e o resu´lvelo mediante descomposici´n LU de Gauss: a) sin escalamiento y b) con escalamiento previo de filas.140 4x1 + 5x2 − 6x3 = 28 2x1 − 7x3 = 29 1). ¿Es la matriz de los coeficientes o definida positiva? .

realiza e dos iteraciones para cada m´todo tomando como valor inicial (0. u n 27. Si se cumplen. Cuesti´n de examen de septiembre de 2004: o Resuelve el siguiente sistema dos veces. 0). Dado el sistema 141  comprueba si se cumple alguna de las condiciones suficientes para que funcionen los m´todos de Jacobi y Gauss-Seidel. o o e utilizando la eliminaci´n gaussiana con pivoteo y encontrando la factoo rizaci´n P A = LU. ¿Es convergente el m´todo? e 28. 0. Cuesti´n de examen de febrero de 2004: o e o Aplica el m´todo de Jacobi a la resoluci´n del sistema: 7x − y + 4z = 8 3x − 8y + 2z = −4 4x + y − 6z = 3     2 0 −1 x1 1 −2 −10 0  x2  = −12 −1 −1 4 2 x3 empleando 3 iteraciones y partiendo del punto (0. utilizando la eliminaci´n gaussiana simple y encontrando la factorizaci´n A = LU . Despu´s. 0). Cuesti´n de examen de junio de 2004: o Resuelve por el m´todo de Cholesky el sistema de ecuaciones: e x1 + 2x2 + 3x3 = 7 2x1 + 5x2 + 4x3 = 9 3x1 + 4x2 + 14x3 = 33 29. e 26. o −x1 + x2 − 4x3 = 0 = 1 2x1 + 2x2 1 3x1 + 3x2 + 2x3 = 2 . Repite el ejercicio anterior para el sistema x1 − 2x2 = −1 3x1 + x2 = 4 Intenta resolver el sistema con los m´todos de Jacobi y Gauss-Seidel e haciendo alg´n peque˜o cambio en las ecuaciones. Primero. 0.Problemas 25.

(c) Encuentra una funci´n lineal a trozos que se aproxime a f (x) en o los puntos dados. ¿Cu´l es el polinomio interpolador de f (x) = x3 − 2x − 5 en los puntos a −0.. 1. −1). 2. 1.142 Problemas Aproximaci´n de funciones.5. 51. (d) Calcula el spline natural para ese conjunto de datos. 34. (c) Sabiendo que las derivadas de f (x) en el mismo instante en los puntos −1. (0. 0. Dada la funci´n f (x) = ex y los puntos 0. respectivamente. La funci´n f (x) = L(x) se ha evaluado en varios puntos. (0. (−0. 0 y −π. (b) Encuentra una funci´n formada por trozos de recta que pase por o esos puntos. 0). 2. π. 0. 2]. (a) Encuentra un polinomio que pase por esos puntos. Se ha estudiado el proceso de recepci´n de informaci´n de un ordenador o o y se ha observado que en los instantes 0. 104 megabites y se recib´ o ıa a una velocidad de 0. Encuentra una funci´n que se aproxime a la que representa el proceso. (b) Repite el apartado anterior con los nodos de Chebyshev en el intervalo [0. De la funci´n f (x. −0. 52. o 33. (d) Encuentra un polinomio que interpole a f (x) y a sus derivadas en los puntos dados. o (a) Encuentra su polinomio de interpolaci´n en los puntos y estima el o error cometido. 31. calcula un polinomio que cumpla todas las condiciones. (e) Calcula el spline natural en los puntos dados. 1). 2 medidos en segundos.? 32. la cantidad de informaci´n recibida era 0.5 y 1 son −π.5. 0. obteni´ndose o e lo siguientes datos: . Interpolaci´n o o 30. 0). 1. 0). (1.5. 4. 54 megabites por segundo. t) que representa una onda que se desplaza sobre el o plano se conocen cinco posiciones en un determinado instante: (−1.

7918 143 (a) Util´ ıcense los datos anteriores para calcular el polinomio de interpolaci´n y el spline natural. Cuesti´n de examen de septiembre de 2004: o Determina si la funci´n o  1 + x − x3  1 − 2(x − 1) − 3(x − 1)2 + 4(x − 1)3 f (x) =  4(x − 2) + 9(x − 2)2 − 3(x − 2)3 x y 0 1 1 1 2 0 3 10 si si si x ∈ [0. determina los cuatro nodos de Chebyshev en o [0. el polinomio interpolador en dichos nodos y un valor aproximado de e0. (b) Agregando un cuarto punto x3 = 5.6094. (d) Calcula el spline natural. h´ganse de a nuevo los c´lculos y estimaciones. 37. (a) Halla el polinomio interpolador de grado menor o igual que 2 por el m´todo de Newton que pase por esos puntos. T1 (x) = x. e (b) Halla el polinomio interpolador en los nodos de Chebyshev en [1. 1] x ∈ [1.3863 f (x2 ) = 1. e (c) Aplica el m´todo de Hermite en los puntos iniciales y en sus derivadas. Realiza los c´lculos con 4 decimales. f (x3 ) = 1. Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = ex . Tn+1 (x) = 2xTn (x) − Tn−1 (x).Problemas x0 = 1 x1 = 4 x2 = 6 f (x0 ) = 0 f (x1 ) = 1.9]. 36. 2] x ∈ [2. a 35.5 mediante dicho polinomio. 3] es el spline c´bico natural que interpola a los puntos de la tabla: u . a Polinomios de Chebysev: T0 (x) = 1. 1]. Est´ o ımese el valor de L(2).4 y 9. Calculando los valores de la funci´n f (x) = o √ x en 1.

2).2 0.5 6 3 7. 3 0 f (x)dx utilizando los siguientes m´todos: e 40.5 6 2 5.00000 0.25 0. (d) Trapecios compuestos.144 Problemas Diferenciaci´n e integraci´n num´rica o o e 38.5 cos( x)dx con un error menor que 1 10−2 2 (a) con el m´todo de los trapecios compuesto. (e) Simpson compuesto. Determina el n´mero de subintervalos que deben tomarse para aproximar u √ 1 el valor de la integral 0. o 39. e . o (c) Encuentra una aproximaci´n de f (0. (b) Simpson 1/3.2) haciendo uso de la interpoo laci´n de la funci´n en los cuatro puntos.6 1.4 1. h 2h h2 calcula valores aproximados de la primera y segunda derivadas de los puntos.75 1 5 1.0 2.5 3.0 0. o o (d) Sabiendo que f (−0. De la funci´n f (x) = ex − 2x2 + 3x − 1 se obtienen los siguientes datos: o x f (x) 0.74140 0. aplica la interpolaci´n de Rio chardson para calcular una aproximaci´n de f (0.5 2.3718 0.25 Calcula un valor aproximado de (a) Trapecios.9021 (a) Utilizando la f´rmula m´s adecuada de entre las siguientes: o a f (x) = f (x+h)−f (x) f (x) = f (x+h)−f (x−h) f (x) = f (x+h)−2f (x)+f (x−h) . De una funci´n f (x) se tienen los siguientes datos: o x f (x) 0.861267. (b) Calcula los errores reales y las cotas de error por medio de las f´rmulas de error para las estimaciones anteriores. (f) Romberg.2) = −0. (c) Simpson 3/8.

2 45. Determina los valores de A. . B y C que hagan que la f´rmula o 2 0 xf (x) ≈ Af (0) + Bf (1) + Cf (2) sea exacta para todos los polinomios de grado tan alto como sea posible. Aplica alg´n m´todo de integraci´n num´rica para resolver las siguientes u e o e integrales: (a) 1 sen(x) x dx 0 (b) 1 cos(x)−ex −1 sen(x) dx (c) ∞ x −1 1 (xe ) dx. Eval´a la integral de x3 sen(x) entre x = 0 y x = 2 usando un valor de u tolerancia inferior a 0. (c) con el algoritmo de Romberg hasta R(4. 4). ¿Cu´l es el grado m´ximo? a a 47. e 2 1/x dx. Repite el ejercicio anterior con 44. 1 e 1 2 0 sen(x )dx mediante cuadratura gaussiana de 1 (b) Plantea c´mo resolver el problema de calcular la 0 sen(x2 )dx meo diante cuadratura gaussiana de tres t´rminos. (d) con el m´todo de cuadratura adaptativa con nivel de tolerancia e −3 . Repite el ejercicio anterior para (a) 42. e 41. (a) Calcula la integral dos t´rminos.791197). 46.Problemas (b) con el m´todo de Simpson compuesto. Calcula 2 1 Ln(x)dx 145 (b) 3 ex 2 x dx 1 2 0 sen(x )dx: (a) con un error menor que 10−2 con el m´todo de los trapecios come puestos e (b) con un error menor que 10−2 con el m´todo de Simpson compuesto. 10 43.1% de la respuesta verdadera (3. Calcula la integral e sabiendo que los nodos (ti ) en este caso son las ra´ del polinomio ıces 5x3 −3x .

49. Cuesti´n de examen de septiembre de 2004: o Encuentra los coeficientes A1 y A2 para que la f´rmula o 2π f (x)dx = A1 f (0) + A2 f (π) 0 sea exacta para cualquier funci´n que tenga la forma a + b cos(x). o Calcula 2π 0 2 + 3 cos(x)dx haciendo uso de dicha f´rmula. Cuesti´n de examen de febrero de 2004: o 3 e Dada la funci´n f (x) = L(x) calcula 2 L(x)dx empleando el m´todo de o cuadratura de Gauss con tres t´rminos y sabiendo que los polinomios de e Legendre se calculan as´ ı: L0 (x) = 1. L1 (x) = x. Cuesti´n de examen de junio de 2004: o Encuentra los coeficientes A0 . o . A1 . A2 y A3 para que la f´rmula o 3 f (x)dx = A0 f (−1) + A1 f (0) + A2 f (1) + A3 f (2) −1 sea exacta para los polinomios de grado menor o igual que 3 y calcula 3 o un valor aproximado de −1 (x3 + x)dx haciendo uso de dicha f´rmula.146 Problemas 48. 50. Ln+1 (x) = (2n+1)xLn (x)−nLn−1 (x) n+1 ∀ n ≥ 1.

3 . yi−1 )+ 24 + 37f (xi−2 . calcula valores e aproximados de y(0. yi ) − 59f (xi−1 . y(0) = 0. (a) Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi .Problemas 147 Resoluci´n num´rica de ecuaciones diferenciales o e ordinarias 51. yi+2 ) . o mediante el m´todo de Taylor de grado 2 con 5 pasos. siendo 0 ≤ t ≤ 1. yi )− 24 − 5f (xi−1 . yi−3 ) yx − x2 x2 y(0) = 1 y usala para resolver la ecuaci´n ´ o y = y(1) = 2 con h = 1/128 (b) Repite el apartado anterior para la f´rmula de Adams-Moulton de o orden 4: yi+1 = yi + h 9f (xi+1 .5. yi−1 ) + f (xi−2 . Usa la identidad y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del o o siguiente m´todo multipaso e yi+2 = yi + h f (xi . yi+1 ) + f (xi+2 .1) y y(0.2. sabiendo que y + 2y = x2 + 2x 52. e 53.2). yi−2 ) xi+2 54. Cuesti´n de examen de febrero de 2005: o Resuelve la ecuaci´n y = y 2 − t2 + 1. y(i + 1)) + 19f (xi . Cuesti´n de examen de junio de 2004: o Aplicando el m´todo de Taylor de grado 2 con dos pasos. yi−2 ) − 9f (xi−3 . yi ) + 4f (xi+1 .

yi ) + f (xi+1 . Aplica el m´todo cl´sico de Runge-Kutta para estimar 10 valores aproe a ximados de la soluci´n de la ecuaci´n siguiente en el intervalo [0. 1] o o y + 2y = x2 + 2x 56. yi + hf (xi . A partir de la identidad xi+1 y(0) = 1 y(xi+1 ) − y(xi ) = y (x)dx xi e deduce el m´todo de Runge-Kutta de orden 2 yi+1 = yi + h 1 1 f (xi . yi )) 2 2 .148 Problemas 55.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->