P. 1
Teoría entera

Teoría entera

|Views: 1.190|Likes:

More info:

Published by: Antonio Gamonales Contreras on Apr 26, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

01/11/2013

pdf

text

original

Sections

  • Introducci´on
  • 1.1 Cifras significativas. Exactitud y precisi´on. Erro-
  • 1.2 C´alculos estables e inestables. Condicionamien-
  • 1.2.1 Inestabilidad
  • 1.2.2 Condicionamiento
  • 1.3 Aritm´etica de la computadora
  • 1.3.1 Aritm´etica de punto flotante
  • 1.3.3 Epsilon de la m´aquina
  • 2.1 M´etodo de la bisecci´on
  • 2.1.1 Descripci´on del m´etodo
  • 2.1.2 Convergencia del m´etodo
  • 2.1.4 Variaciones del m´etodo: Regula Falsi
  • 2.2 M´etodo de Newton-Raphson
  • 2.2.1 Descripci´on del m´etodo
  • 2.2.2 Convergencia del m´etodo
  • 2.2.3 Aproximaci´on y error
  • 2.2.4 Variaciones del m´etodo: M´etodo de la secante
  • 2.3 M´etodo iterativo de punto fijo
  • 2.3.1 Descripci´on del m´etodo
  • pasos de un m´etodo iterativo de punto fijo
  • 2.3.2 Convergencia del m´etodo
  • 2.3.3 Aproximaci´on y error
  • 2.4 Ra´ıces de polinomios
  • 2.4.1 Separaci´on de ra´ıces. Sucesi´on de Sturm
  • 2.4.2 Acotaci´on de ra´ıces
  • 2.4.3 Ra´ıces de polinomios con el algoritmo de Horner
  • 2.4.4 Ra´ıces m´ultiples
  • Sistemas Lineales
  • 3.1 ´Algebra de matrices
  • 3.1.1 Valores propios y vectores propios
  • 3.1.2 Matriz definida
  • 3.2.1 M´etodo de Gauss
  • 3.2.2 M´etodo de Gauss con pivoteo
  • 3.3 Factorizaci´on LU. Factorizaci´on de Cholesky
  • 3.3.1 M´etodo de Crout
  • 3.3.2 M´etodo de Cholesky
  • 3.3.3 Sistemas triangulares
  • 3.4 Normas y an´alisis del error
  • 3.4.1 N´umero condici´on de una matriz
  • 3.5 Mejora de soluciones
  • 3.5.1 Refinamiento iterativo
  • 3.5.2 Escalamiento
  • 3.6 M´etodos iterativos
  • 3.6.1 M´etodo de Jacobi
  • 3.6.2 M´etodo de Gauss-Seidel
  • 3.6.3 M´etodos de relajaci´on
  • Aproximaci´on de funciones
  • 4.1 Construcci´on del polinomio interpolador
  • 4.1.1 M´etodo de Lagrange
  • 4.1.2 M´etodo de Newton
  • 4.2 Error del polinomio interpolador
  • 4.2.1 Elecci´on de nodos. Polinomios de Chebyshev
  • 4.3 Interpolaci´on a trozos y con condiciones sobre
  • 4.3.1 Interpolaci´on a trozos
  • 4.3.2 Interpolaci´on con condiciones sobre la derivada
  • 5.1 Diferenciaci´on num´erica y extrapolaci´on de Ri-
  • 5.1.1 Diferenciaci´on mediante interpolaci´on
  • 5.1.2 Extrapolaci´on de Richarson
  • 5.2 Integraci´on num´erica mediante interpolaci´on
  • 5.2.1 Regla del trapecio
  • 5.2.2 Regla de Simpson
  • 5.2.3 Reglas compuestas
  • 5.2.4 M´etodo de los coeficientes indeterminados
  • 5.3 Cuadratura gaussiana
  • 5.4 Integraci´on de Romberg
  • 5.5 Cuadratura adaptativa
  • 6.1 Existencia y unicidad de soluciones
  • 6.2 M´etodo de la serie de Taylor
  • 6.2.1 M´etodo de Euler
  • 6.2.2 Errores
  • 6.3 M´etodos de Runge-Kutta
  • 6.3.1 Errores
  • 6.4 M´etodos multipaso
  • 6.4.1 F´ormulas de Adams-Bashforth
  • 6.4.2 F´ormulas de Adams-Moulton
  • Problemas

DEPARTAMENTO DE MATEMÁTICAS

UNIVERSIDAD DE EXTREMADURA
06071-BADAJOZ (Spain)
Universidad de Extremadura
Departamento de Matem´aticas
Apuntes de C
´
alculo Num
´
erico
Pedro Mart
´
ın Jim
´
enez
http://cum.unex.es/profes/profes/pjimenez/
Badajoz, septiembre 2005
´
Indice
Introducci´ on 7
1 Errores, redondeo, estabilidad, condicionamiento. 9
1.1 Cifras significativas. Exactitud y precisi´on. Errores. . . . . . . 9
1.2 C´alculos estables e inestables. Condicionamiento. . . . . . . . . 12
1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Condicionamiento . . . . . . . . . . . . . . . . . . . . . 12
1.3 Aritm´etica de la computadora . . . . . . . . . . . . . . . . . . . 13
1.3.1 Aritm´etica de punto flotante. . . . . . . . . . . . . . . . 13
1.3.2 Operaciones con computadoras . . . . . . . . . . . . . . 15
1.3.3 Epsilon de la m´aquina . . . . . . . . . . . . . . . . . . . 16
2 Resoluci´ on de ecuaciones no lineales 17
2.1 M´etodo de la bisecci´on . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 19
2.1.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 19
2.1.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 20
2.1.4 Variaciones del m´etodo: Regula Falsi . . . . . . . . . . . 21
2.2 M´etodo de Newton-Raphson . . . . . . . . . . . . . . . . . . . . 22
2.2.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 22
2.2.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 23
2.2.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 24
2.2.4 Variaciones del m´etodo: M´etodo de la secante . . . . . . 27
2.3 M´etodo iterativo de punto fijo . . . . . . . . . . . . . . . . . . . 28
2.3.1 Descripci´on del m´etodo . . . . . . . . . . . . . . . . . . 28
2.3.2 Convergencia del m´etodo . . . . . . . . . . . . . . . . . 29
2.3.3 Aproximaci´on y error . . . . . . . . . . . . . . . . . . . 30
2.4 Ra´ıces de polinomios . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Separaci´on de ra´ıces. Sucesi´on de Sturm. . . . . . . . . 34
3
4
´
INDICE
2.4.2 Acotaci´on de ra´ıces . . . . . . . . . . . . . . . . . . . . . 37
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner . . . . 38
2.4.4 Ra´ıces m´ ultiples . . . . . . . . . . . . . . . . . . . . . . 39
3 Sistemas Lineales 41
3.1
´
Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.1 Valores propios y vectores propios . . . . . . . . . . . . 45
3.1.2 Matriz definida . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Resoluci´on de sistemas de ecuaciones lineales: m´etodo de Gauss 46
3.2.1 M´etodo de Gauss . . . . . . . . . . . . . . . . . . . . . . 47
3.2.2 M´etodo de Gauss con pivoteo . . . . . . . . . . . . . . . 49
3.3 Factorizaci´on LU. Factorizaci´on de Cholesky . . . . . . . . . . . 53
3.3.1 M´etodo de Crout . . . . . . . . . . . . . . . . . . . . . . 55
3.3.2 M´etodo de Cholesky . . . . . . . . . . . . . . . . . . . . 55
3.3.3 Sistemas triangulares . . . . . . . . . . . . . . . . . . . . 55
3.4 Normas y an´alisis del error . . . . . . . . . . . . . . . . . . . . 57
3.4.1 N´ umero condici´on de una matriz . . . . . . . . . . . . . 60
3.5 Mejora de soluciones . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5.1 Refinamiento iterativo . . . . . . . . . . . . . . . . . . . 62
3.5.2 Escalamiento . . . . . . . . . . . . . . . . . . . . . . . . 63
3.6 M´etodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.6.1 M´etodo de Jacobi . . . . . . . . . . . . . . . . . . . . . 66
3.6.2 M´etodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . 68
3.6.3 M´etodos de relajaci´on . . . . . . . . . . . . . . . . . . . 69
4 Aproximaci´ on de funciones 71
4.1 Construcci´on del polinomio interpolador . . . . . . . . . . . . . 71
4.1.1 M´etodo de Lagrange . . . . . . . . . . . . . . . . . . . . 73
4.1.2 M´etodo de Newton . . . . . . . . . . . . . . . . . . . . . 73
4.2 Error del polinomio interpolador . . . . . . . . . . . . . . . . . 74
4.2.1 Elecci´on de nodos. Polinomios de Chebyshev . . . . . . 75
4.3 Interpolaci´on a trozos y con condiciones sobre la derivada . . . 78
4.3.1 Interpolaci´on a trozos . . . . . . . . . . . . . . . . . . . 78
4.3.2 Interpolaci´on con condiciones sobre la derivada . . . . . 79
5 Diferenciaci´ on e integraci´ on num´erica 87
5.1 Diferenciaci´on num´erica y extrapolaci´on de Richarson . . . . . 87
5.1.1 Diferenciaci´on mediante interpolaci´on . . . . . . . . . . 90
´
INDICE 5
5.1.2 Extrapolaci´on de Richarson . . . . . . . . . . . . . . . . 92
5.2 Integraci´on num´erica mediante interpolaci´on . . . . . . . . . . . 96
5.2.1 Regla del trapecio . . . . . . . . . . . . . . . . . . . . . 97
5.2.2 Regla de Simpson . . . . . . . . . . . . . . . . . . . . . 98
5.2.3 Reglas compuestas . . . . . . . . . . . . . . . . . . . . . 99
5.2.4 M´etodo de los coeficientes indeterminados . . . . . . . . 101
5.3 Cuadratura gaussiana . . . . . . . . . . . . . . . . . . . . . . . 102
5.4 Integraci´on de Romberg . . . . . . . . . . . . . . . . . . . . . . 104
5.5 Cuadratura adaptativa . . . . . . . . . . . . . . . . . . . . . . . 107
6 Resoluci´ on num´erica de ecuaciones diferenciales 113
6.1 Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . 113
6.2 M´etodo de la serie de Taylor . . . . . . . . . . . . . . . . . . . 115
6.2.1 M´etodo de Euler . . . . . . . . . . . . . . . . . . . . . . 118
6.2.2 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3 M´etodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . 119
6.3.1 Errores . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4 M´etodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4.1 F´ormulas de Adams-Bashforth . . . . . . . . . . . . . . 128
6.4.2 F´ormulas de Adams-Moulton . . . . . . . . . . . . . . . 129
Problemas 135
Introducci´ on
El texto que sigue no es definitivo ni exhaustivo. Se ir´a reformando a medida
que se detecten fallos o se modifique el contenido para mejorarlo. Debeis
emplearlo como una ayuda para preparar la asignatura An´alisis Matem´atico I
y como complemento de las notas que tomeis en clase.
Espero que os sirva.
Pedro Mart´ın.
7
Cap´ıtulo 1
Errores, redondeo,
estabilidad, condicionamiento.
1.1 Cifras significativas. Exactitud y precisi´ on. Erro-
res.
Cualquier n´ umero real x puede representarse en forma decimal con un n´ umero
finito o infinito de d´ıgitos:
x = α
m
α
m−1
. . . α
1
α
0
. β
1
β
2
. . . β
n
. . . con α
i
, β
j
∈ 0, 1, 2, . . . , 9
Con la expresi´on anterior queremos representar que
x = α
m
10
m

m−1
10
m−1
+ +α
1
10+α
0
10
0

1
10
−1

2
10
−2
+ +β
n
10
−n
+. . .
El C´alculo Num´erico consiste en desarrollar m´etodos para encontrar soluciones
lo m´as aproximadas posibles a la verdadera soluci´on de un cierto problema.
Se trabaja, por tanto, con n´ umeros aproximados en lugar de n´ umeros exactos,
por lo que se utilizan aproximaciones con un n´ umero finito de decimales.
Toda expresi´on aproximada tiene un n´ umero determinado de cifras sig-
nificativas. El concepto de cifra significativa intenta trasmitir la idea de
cuando una cifra que aparece en la expresi´on decimal trasmite informaci´on
”esencial”y ”de fiar”sobre el n´ umero que se intenta aproximar. La significa-
ci´on de una cifra depende del contexto y no solo de la expresi´on decimal en la
que aparece.
9
10 Cap´ıtulo 1
Ejemplo: Cuando decimos ”circulamos a 48.5 Km/hora”porque vemos
que la aguja del veloc´ımetro del coche est´an entre 48 y 49, en nuestra aproxi-
maci´on (48.5) al valor verdadero de la velocidad, estamos manejando solo dos
cifras significativas, las que permiten situar la velocidad entre 48 y 49. La ter-
cera cifra (.5) es una estimaci´on que podr´ıamos evitar, pues no es ”de fiar”. No
es significativa. El veloc´ımetro (para velocidades menores de 100) solo permite
aproximaciones con dos cifras significativas. Si hacemos observaciones con una
cifra decimal, esta podr´ıa variar si es otro el observador.

Los ceros que se a˜ naden a la izquierda de una expresi´on decimal para situar
la primera cifra distinta de cero no son significativos:
Ejemplo: Los n´ umeros
0.00001845 0.0001845 0.001845
tienen todos cuatro cifras significativas.

Los ceros que se a˜ naden al final pueden ser o no significativos:
Ejemplo: En la expresi´on ”se manifestaron 45000 personas”, los tres
´ ultimos ceros parecen ser no significativos. Sin embargo en la expresi´on ”me
cost´o 45000 euros exactos”s´ı son significativos.

Para evitar equ´ıvocos acerca del n´ umero de cifras significativas, se emplea
la notaci´ on cient´ıfica (en el ejemplo anterior, 4.5 10
4
, 4.5000 10
4
).
Cualquier m´etodo del C´alculo Num´erico que se emplee en la resoluci´on de
un problema, debe ser suficientemente exacto, es decir, los valores aproxi-
mados que se obtengan en diferentes intentos de soluci´on deben estar cerca
del valor verdadero. Cuanto mayor sea el n´ umero de cifras significativas de la
aproximaci´on, mayor ser´a la exactitud. Tambi´en deben ser preciso, es decir
los diferentes valores obtenidos para la resoluci´on de un problema deben estar
cercanos entre s´ı.
Con el uso de aproximaciones para representar operaciones y cantidades
matem´aticas se generan errores num´ericos. Se denomina error E a la can-
tidad:
E = valor verdadero −valor aproximado
A menudo se trabaja con el error absoluto ([E[). El error relativo es
e =
E
valor verdadero
.
Errores, redondeo, estabilidad, condicionamiento 11
Este ´ ultimo compara la magnitud del error cometido con la magnitud del valor
que se pretende estimar y puede interpretarse en t´erminos de %.
Las causas de los errores pueden ser:
• Truncamiento: surgen al sustituir un procedimiento matem´atico exacto
por uno aproximado. Ejemplo: utilizar un polinomio de Taylor para encontrar
el valor de una funci´on en un punto.
• Redondeo: surgen al sustituir un n´ umero exacto por uno aproximado.
Ejemplo: sustituir 1/3 por 0.33333333. Para minimizar este tipo de error se
recurre a las reglas de redondeo:
1. En los c´alculos, se conservan las cifras significativas y el resto se descar-
tan. El ´ ultimo d´ıgito que se conserva se aumenta en uno si el primer
d´ıgito descartado es mayor que 5. Si es 5 o es 5 seguido de ceros, enton-
ces el ´ ultimo d´ıgito retenido se incrementa en uno solo si este ´ ultimo es
impar:
n´ umero 6 cifras significativas 8 cifras significativas
5.6170431500 5.61704 5.6170432
5.6170462500 5.61705 5.6170462
2. En la suma y en la resta, el redondeo se lleva a cabo de forma tal que el
´ ultimo d´ıgito retenido en la respuesta corresponda al ´ ultimo d´ıgito M
´
AS
significativo de los n´ umeros que se est´an sumando o restando. N´otese
que un d´ıgito en la columna de las cent´esimas es m´as significativo que
una en la columna de las mil´esimas.
2.2 −1.768 = 0.432 −→0.4
4.68 10
−7
+ 8.3 10
−4
−228 10
−6
= 6.02468 10
−4
−→6.0 10
−4
3. En la multiplicaci´on y divisi´on se conserva el n´ umero m´ınimo de cifras
significativas que tenga los n´ umeros que intervienen:
0.0642 4.8 = 0.30816 −→0.31
945/0.3185 = 2967.032967 −→297 10
4. Para combinaciones de las operaciones aritm´eticas, existen dos casos
generales.
(multiplicaci´on o divisi´on ) ±(multiplicaci´on o divisi´on)
(suma o resta )
×
÷ (suma o resta)
12 Cap´ıtulo 1
En ambos casos, se ejecutan primero las operaciones entre par´entesis y
se redondea el resultado antes de proceder con otra operaci´on.
• Otras causas de error: equivocaci´on de usuario, mala formulaci´on del
modelo, incertidumbre en los datos f´ısicos recogidos, etc.
1.2 C´alculos estables e inestables. Condicionamien-
to.
1.2.1 Inestabilidad
Decimos que un proceso num´erico es inestable cuando los peque˜ nos errores
que se producen en alguna de sus etapas se agrandan en etapas posteriores y
degradan seriamente la exactitud del c´alculo en su conjunto.
Ejemplo: Consideremos la sucesi´on
x
0
= 1, x
1
=
1
3
, x
n+1
=
13
3
x
n

4
3
x
n−1
∀n ≥ 1
La sucesi´on anterior verifica que x
n
= (
1
3
)
n
. Si calculamos el t´ermino x
11
con
el programa Maxima, obtenemos −1.08616217029341310
−6
con la definici´on
inductiva y 2.867971990792441 10
−10
con la otra definici´on. El c´alculo de
los valores de la sucesi´on por el m´etodo inductivo es inestable, pues cualquier
error que se presente en x
n
se multiplica por 13/3 al calcular x
n+1
.
1.2.2 Condicionamiento
Un problema est´a mal condicionado si peque˜ nos cambios en los datos pueden
dar lugar a grandes cambios en las respuestas. En ciertos problemas se puede
calcular un n´ umero de condici´on. Si este es grande significa que el problema
est´a mal condicionado.
Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax =
b, se puede calcular el n´ umero de condici´on as´ı:
k(A) = |A| |A
−1
|,
donde |A| = max
i,j
[a
ij
[. Dado el sistema
x + 1.01y = 1
0.99x +y = 1
Errores, redondeo, estabilidad, condicionamiento 13
el n´ umero de condici´on de la matriz del sistema ser´ıa k(A) = |A| |A
−1
| =
(1.01)(10100) = 10201. Esto significa que peque˜ nos cambios en b producir´an
grandes cambios en la soluci´on. De hecho:
x + 1.01y = 1
0.99x +y = 1

⇒[x = −100, y = 100]
y
x + 1.01y = 1.01
0.99x +y = 1

⇒[x = 0, y = 1]
1.3 Aritm´etica de la computadora
1.3.1 Aritm´etica de punto flotante.
Las computadoras utilizan la llamada aritm´etica del punto flotante, es decir,
almacenan cada n´ umero desplazando sus d´ıgitos de modo que aparezca de la
forma
0.β
1
β
2
...β
n
10
e
.
Por ejemplo:
13.524 →0.13524 10
2
−0.0442 →−0.442 10
−1
C´omo todos los n´ umeros se traducen seg´ un la aritm´etica del punto flotante,
todos empezar´an con 0. y terminar´an con 10
e
. El ordenador, para almace-
narlos ahorrando memoria, prescinde de lo que es com´ un a todos los n´ umeros,
y as´ı el 13.524 se almacena como 13524E2 y el −0.0442 como −442E −1.
Por otra parte, la mayor parte de las computadoras trabajan con n´ umeros
reales en sistema binario, en contraste con el sistema decimal que normalmente
se utiliza. As´ı, el n´ umero 9.90625 en sistema decimal, se convierte en binario
en:
9 = 2 ∗ (2 ∗ (2 ∗ 1 +0) +0) +1 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
= (1001)
2
0.90625 ∗ 2 = 1.81250 1 ∗ 2
−1
0.81250 ∗ 2 = 1.625 1 ∗ 2
−2
0.625 ∗ 2 = 1.25 1 ∗ 2
−3
.25 ∗ 2 = 0.5 1 ∗ 2
−4
.5 ∗ 2 = 1 1 ∗ 2
−5


14 Cap´ıtulo 1
0.90625 = 1 ∗ 2
−1
+ 1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (0.11101)
2
Con lo que
1.90625 = 1 ∗ 2
3
+ 0 ∗ 2
2
+ 0 ∗ 2
1
+ 1 ∗ 2
0
+ 1 ∗ 2
−1
+
+1 ∗ 2
−2
+ 1 ∗ 2
−3
+ 0 ∗ 2
−4
+ 1 ∗ 2
−5
= (1001.11101)
2
En general, la representaci´on de un n´ umero en una computadora ser´a de
la forma:
±

d
1
d
2
...d
p
B
e
y se almacenar´a de la forma
±d
1
d
2
...d
p
Ee
donde B es la base, d
i
∈ ¦0, 1, 2, ..., B − 1¦, d
1
> 0, p es el n´ umero m´aximo
de bits significativos y e es el exponente de la potencia de B. El 0 es un caso
especial que se almacena como 00...0E0. La parte d
1
d
2
...d
p
se llama parte sig-
nificativa o mantisa. p es el n´ umero m´aximo de bits que puede tener esa parte
significativa del n´ umero que se almacena y es, por tanto, finita. Cuanto m´as
grande sea p, mayor ser´a la precisi´on de la m´aquina. Como consecuencia de
todo lo anterior, en cualquier m´aquina solo se pueden almacenar una cantidad
finita de n´ umeros, llamados n´ umeros m´ aquina. En los ordenadores de base 2,
d
1
siempre es 1, con lo que se puede suprimir, aumentando la precisi´on. Se
gana con ello un bit que se denomina bit escondido.
Ejemplo: Si en una computadora se tiene que B = 2, p = 2 y −3 ≤ e ≤ 3,
entonces solo se podr´an almacenar n´ umeros de la forma
±.10
2
2
e
±.11
2
2
e
con −3 ≤ e ≤ 3.
Como
.10
2
= 1 2
−1
+ 0 2
−2
= 1/2
los n´ umeros ±.10
2
2
e
son
±4, ±2, ±1, ±1/2, ±1/4, ±1/8,
y como
.11
2
= 1 2
−1
+ 1 2
−2
= 1/2 + 1/4 = 3/4
los n´ umeros ±.11
2
2
e
son
±6, ±3, ±3/2, ±3/4, ±3/8, ±3/16.
Errores, redondeo, estabilidad, condicionamiento 15
En este sistema el n´ umero 2

9 se almacenar´ıa, seg´ un est´e dise˜ nada la com-
putadora, bien como 2 si se hace por truncamiento, o bien como 3 si se hace
por redondeo. Tambi´en se almacenar´ıan como 2 los n´ umeros 2

3 o 2

4.

Los par´ametros B, p y e de una m´aquina real pueden ser los siguientes:
B = 2, p = 23 bits, e = 8 bits, con lo cual el n´ umero m´aximo que se podr´ıa
almacenar ser´ıa 1

701E38. Todo n´ umero mayor que el anterior estar´ıa en el
desbordamiento positivo de la m´aquina. El n´ umero m´ınimo en valor absoluto
ser´ıa 1

755E−38. Todo n´ umero positivo menor estar´ıa en el subdesbordamiento
positivo de la m´aquina. De forma similar se definen desbordamiento negativo
y subdesbordamiento negativo.
1.3.2 Operaciones con computadoras
Supongamos una computadora cuyos par´ametros sean B = 10, p = 3 y −9 ≤
e ≤ 9. Veamos como trabajan y como se pueden generar errores al manejar
las operaciones b´asicas y el redondeo:
1. Para la suma, el de menor exponente se desplaza para alinear la coma
decimal
1.37 + 0.0269 = 0.137 10
1
+ 0.269 10
−1
=
= 0.137 10
1
+ 0.00269 10
1
= 0.13969 10
1
que se almacenar´ıa como 0.13910
1
por truncamiento y 0.14010
1
por
redondeo.
2. En la resta:
4850 −4820 = 0.485 10
4
−0.482 10
4
= 0.003 10
4
= 0.300 10
2
que se almacenar´ıa como 0.30010
2
tanto por redondeo como por trun-
camiento.
3. En el producto, se multiplican las cifras significativas y se suman los
exponentes:
403000 0.0197 = 0.403 10
6
0.197 10
−1
= 0.079391 10
5
que se almacena como 0.793 10
4
por truncamiento y 0.794 10
4
por
redondeo.
16 Cap´ıtulo 1
4. En la divisi´on, se dividen las cifras significativas y se restan los exponen-
tes:
0.0356/1560 = 0.356 10
−1
/0.156 10
4
= 2.28205 10
−5
que se almacena como 0.228 10
−4
.
Otra fuente de error puede ser el paso de sistema decimal a sistema binario.
As´ı el n´ umero 1/10 en sistema binario es (0.0001100110011001...)
2
.
1.3.3 Epsilon de la m´aquina
La diferencia m´as peque˜ na entre dos n´ umeros que puede detectar una m´aquina
se denomina epsilon de la m´ aquina. Tambi´en se puede definir como el menor
n´ umero ε > 0 tal que
1.0 +ε = 1.0
y se puede calcular programando este algoritmo:
input s ←1.0
for k = 1, 2, . . . , 100 do
s ←0.5s
t ←s + 1.0
if t ≤ 1.0 then
s ←2.0s
output k-1,s
stop
end if
end
Cap´ıtulo 2
Resoluci´ on de ecuaciones no
lineales
-10 -8 -6 -4 -2
-1
-0.5
0.5
1
1.5
f(x) = e
x
−sen(x)
Dada una funci´on f : R → R, trataremos
de encontrar m´etodos que permitan loca-
lizar valores aproximados de las soluciones
de f(x) = 0.
Ejemplo: Dada la ecuaci´ on e
x

sen(x) = 0, encuentra la soluci´ on m´ as cer-
cana a 0.

Para resolver ejercicios como el anterior es conveniente recordar los siguien-
tes resultados:
Teorema [Bolzano]: Sea f : R → R una funci´ on continua en [a, b] tal
que f(a)f(b) < 0. Entonces existe c ∈ (a, b) tal que f(c) = 0.
El teorema de Bolzano se utiliza en este contexto para localizar intervalos
que contengan una soluci´on de f(x) = 0 cuando la funci´on f(x) sea continua.
Ejercicio: Dada la ecuaci´ on e
x
− sen(x) = 0, localiza un intervalo donde
exista una soluci´ on.
17
18 Cap´ıtulo 2
Teorema [Rolle]: Sea f : R →R una funci´ on continua en [a, b], derivable
en (a, b) y tal que f(a) = f(b). Entonces existe c ∈ (a, b) tal que f

(c) = 0.
Del teorema de Rolle se deduce que, si f(x) cumple las hip´otesis, entre
cada dos soluciones de la ecuaci´on f(x) = 0 debe existir al menos una soluci´on
de f

(x) = 0. De este modo, el n´ umero m´aximo de soluciones de f(x) = 0 ser´a
el n´ umero de soluciones de f

(x) = 0 m´as uno. Por tanto, el teorema de Rolle
se utilizar´a para determinar el n´ umero m´aximo de soluciones que puede tener
una ecuaci´on f(x) = 0.
Ejercicio: Determina el n´ umero de soluciones de la ecuaci´ on e
x
−x = 0.
Teorema [Taylor]: Sea f : R →R una funci´ on n veces derivable en [a, b]
y n + 1 veces derivable en (a, b). Entonces, para cada x
0
∈ [a, b] existe un
polinomio de grado menor o igual que n que tiene un punto de contacto con
f(x) de grado n en x
0
. Dicho polinomio es
P
n,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
) + +
f
n)
(x
0
)
n!
(x −x
0
)
n
.
Adem´ as, para cada x ∈ [a, b] existe un punto θ
x
entre x y x
0
tal que
f(x) −P
n,x
0
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)
n+1
.
Teorema [de valor medio]: Sea f : R → R una funci´ on continua en
[a, b] y derivable en (a, b). Entonces existe c ∈ (a, b) tal que
f(b) −f(a)
b −a
= f

(c).
Resoluci´ on de ecuaciones no lineales 19
2.1 M´etodo de la bisecci´ on
2.1.1 Descripci´ on del m´etodo
Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos
cada vez m´as peque˜ nos. Supongamos que f(a) < 0 y f(b) > 0 (de forma
similar se razonar´ıa si f(a) > 0 y f(b) < 0).
Paso 0. Partimos del intervalo [a, b] y calculamos c
0
=
a+b
2
.
Paso 1. Si f(c
0
) < 0, definimos a
1
= c
0
y b
1
= b. Si f(c
0
) > 0, definimos
a
1
= a y b
1
= c
0
. En ambos casos, estudiamos el intervalo [a
1
, b
1
] y calculamos
c
1
=
a
1
+b
1
2
.
Paso 2. Si f(c
1
) < 0, definimos a
2
= c
1
y b
2
= b
1
. Si f(c
1
) > 0, definimos
a
2
= a
1
y b
2
= c
1
. En ambos casos, estudiamos el intervalo [a
2
, b
2
] y calculamos
c
2
=
a
2
+b
2
2
.
Paso n. Si f(c
n−1
) < 0, definimos a
n
= c
n−1
y b
n
= b
n−1
. Si f(c
n−1
) > 0,
definimos a
n
= a
n−1
y b
n
= c
n−1
. En ambos casos, estudiamos el intervalo
[a
n
, b
n
] y calculamos c
n
=
a
n
+b
n
2
.
2.1.2 Convergencia del m´etodo
Teorema: Si [a, b], [a
1
, b
1
], . . . , [a
n
, b
n
], . . . denotan los intervalos utilizados en
el m´etodo de la bisecci´ on, entonces
lim
n→∞
a
n
= lim
n→∞
b
n
= lim
n→∞
c
n
= r
y adem´ as f(r) = 0.
Demostraci´on. Por la construcci´on de las sucesiones se tiene que
a ≤ a
1
≤ a
2
≤ ≤ b
2
≤ b
1
≤ b
y
(b
n
−a
n
) =
1
2
(b
n−1
−a
n−1
) = =
1
2
n
(b −a).
Por tanto, la sucesi´on (a
n
)
n∈N
converge por ser creciente y acotada superior-
mente y la sucesi´on (b
n
)
n∈N
converge por ser decreciente y acotada inferior-
mente. Veamos que sus l´ımites son iguales
lim
n→∞
b
n
− lim
n→∞
a
n
= lim(b
n
−a
n
) = lim
n→∞
1
2
n
(b −a) = 0.
20 Cap´ıtulo 2
Dado lo anterior y puesto que a
n
≤ c
n
≤ b
n
se concluye que
lim
n→∞
a
n
= lim
n→∞
c
n
= lim
n→∞
b
n
.
Llamemos a ese l´ımite r. Veamos ahora que r es la soluci´on de f(x) = 0
utilizando las hip´otesis de continuidad de f(x) y la condici´on f(a
n
)f(b
n
) ≤ 0 :
0 ≥ f(r)f(r) = f( lim
n→∞
a
n
)f( lim
n→∞
b
n
) =
lim
n→∞
f(a
n
) lim
n→∞
f(b
n
) = lim
n→∞
f(a
n
)f(b
n
) ≤ 0.
Por tanto f(r) = 0 que era lo que se ten´ıa que probar.

2.1.3 Aproximaci´ on y error
Una aproximaci´on a la soluci´on de la ecuaci´on f(x) = 0 en el paso n es c
n
.
Una cota del error cometido ser´a:
[r −c
n
[ ≤
1
2
[b
n
−a
n
[ =
1
2
2
[b
n−1
−a
n−1
[ =
1
2
n+1
[b −a[.
Ejemplo: Encuentra una aproximaci´ on de la soluci´ on de e
x
= sen(x) con
un error menor que 10
−2
.
Aplicaremos el m´etodo de la bisecci´on a la funci´on f(x) = e
x
−sen(x). Por
el teorema de Bolzano sabemos que hay una soluci´on de f(x) = 0 en el intervalo
[−4, −3], puesto que f(−4) < 0 y f(−3) > 0. Si c
n
es la aproximaci´on y r es la
soluci´on exacta, como queremos que el error sea menor que 10
−2
, tendremos
que:
[r −c
n
[ ≤
1
2
n+1
[b −a[ =
1
2
n+1
[ −3 −(−4)[ =
1
2
n+1
< 10
−2
por lo que n ≥ 6, es decir, tendremos que calcular c
6
.
Los c´alculos ser´ıan los siguientes:
a
0
= −4 b
0
= −3 c
0
= −3.5 f(c
0
) = −0.3206
a
1
= −3.5 b
1
= −3 c
1
= −3.25 f(c
1
) = −0.0694
a
2
= −3.25 b
2
= −3 c
2
= −3.125 f(c
2
) = 0.0554
a
3
= −3.25 b
3
= −3.125 c
3
= −3.1875 f(c
3
) = −0.0046
a
4
= −3.1875 b
4
= −3.125 c
4
= −3.15625 f(c
4
) = 0.0277
a
5
= −3.1875 b
5
= −3.15625 c
5
= −3.175 f(c
5
) = 0.0084
a
6
= −3.1875 b
6
= −3.175 c
6
= −3.18125
La soluci´on aproximada propuesta ser´ıa −3.18125.
Resoluci´ on de ecuaciones no lineales 21
2.1.4 Variaciones del m´etodo: Regula Falsi
El m´etodo de la Regula-falsi difiere respecto de la bisecci´on en el c´alculo del
punto c
n
. Con este m´etodo se calcula as´ı:
c
n
= b
n
−f(b
n
)
b
n
−a
n
f(b
n
) −f(a
n
)
.
El paso siguiente es elegir el intervalo formado por los puntos a
n
y c
n
o bien
el formado por c
n
y b
n
asegurando que la funci´on en los extremos sea de signo
contrario.
Ejemplo: Aplicar el m´etodo de la regula falsi para encontrar una soluci´ on
de f(x) = 3x + sen(x) −e
x
= 0 a partir del intervalo [0, 1].
a
0
= 0 b
0
= 1 c
0
= 0.470990 f(c
0
) = 0.265160
a
1
= 0 b
1
= 0.470990 c
1
= 0.372277 f(c
1
) = 0.029533
a
2
= 0 b
2
= 0.372277 c
2
= 0.361598 f(c
2
) = 2.94 ∗ 10

3
a
3
= 0 b
3
= 0.361598 c
3
= 0.360538 f(c
3
) = 2.94 ∗ 10

4
a
4
= 0 b
4
= 0.360538 c
4
= 0.360433 f(c
4
) = 2.94 ∗ 10

5
0.2 0.4 0.6 0.8 1
-1
-0.5
0.5
1
regula falsi para f(x) = 3x + sen(x) −e
x

22 Cap´ıtulo 2
2.2 M´etodo de Newton-Raphson
2.2.1 Descripci´ on del m´etodo
Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´on
f(x).
Paso 1. Partimos de un punto inicial x
0
. Calculamos el polinomio de Taylor
de f(x) de grado 1 en x
0
P
1,x
0
(x) = f(x
0
) +f

(x
0
)(x −x
0
).
Paso 2. Utilizamos P
1,x
0
(x) como aproximaci´on de f(x) y, en vez de resolver
f(x) = 0, resolvemos P
1,x
0
= 0, es decir
f(x
0
) +f

(x
0
)(x −x
0
) = 0 ⇒x = x
0

f(x
0
)
f

(x
0
)
.
Paso 3. Definimos
x
1
= x
0

f(x
0
)
f

(x
0
)
y repetimos los pasos 1, 2 y 3 sustituyendo el punto x
n−1
por el punto x
n
, es
decir construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
.
Cuando la sucesi´on x
0
, x
1
, x
2
, . . . es convergente y la funci´on f(x) tiene cierta
regularidad, su l´ımite r es la soluci´on puesto que
r = lim
n→
x
n
= lim
n→
¸
x
n−1

f(x
n−1
)
f

(x
n−1
)

= r −
f(r)
f

(r)

f(r)
f

(r)
= 0 ⇒f(r) = 0.
Ejemplo Aplica el m´etodo de Newton-Raphson para encontrar una apro-
ximaci´ on de

2.
Puesto que queremos una aproximaci´on de

2, bastar´a encontrar una apro-
ximaci´on de x
2
−2 = 0. Utilizamos el m´etodo de Newton-Raphson aplicado a
la funci´on f(x) = x
2
−2, es decir, construimos la sucesi´on
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−2
2x
n−1
.
Resoluci´ on de ecuaciones no lineales 23
Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´on. Comenzamos
por el punto x
0
= 1.5 :
x
0
= 1.5, x
1
= 1.4167, x
2
= 1.4142, x
3
= 1.4142, . . .
La aproximaci´on ser´ıa 1.4142.

2.2.2 Convergencia del m´etodo
Teorema: Si en un cierto intervalo se verifica que f ∈ C
2
(R), estrictamente
creciente, f

(x) ≥ 0 y f tiene un cero, entonces el cero es ´ unico y la iteraci´ on
de Newton-Raphson converger´ a a partir de cualquier punto inicial.
-1 1 2 3 4
-2
2
4
6
8
Newton Raphson converge
-2 -1 1 2
0.1
0.2
0.3
0.4
0.5
Newton Raphson no converge
Demostraci´on. Sea x
0
, x
1
, . . . , x
n
la sucesi´on construida por el m´etodo de
Newton-Raphson, r la soluci´on de la ecuaci´on f(x) = 0 y e
n
= x
n
−r el error
en el paso n. Por el teorema de Taylor sabemos que:
0 = f(r) = f(x
n
) +f

(x
n
)(−e
n
) +
f


n
)
2
(−e
n
)
2
.
Por tanto
e
n
f

(x
n
) −f(x
n
) =
f


n
)
2
e
2
n
.
De modo que
24 Cap´ıtulo 2
e
n+1
= x
n+1
−r = x
n

f(x
n
)
f

(x
n
)
−r = e
n

f(x
n
)
f

(x
n
)
=
e
n
f

(x
n
) −f(x
n
)
f

(x
n
)
=
f


n
)e
2
n
2f

(x
n
)
≥ 0
Por lo tanto
x
n+1
≥ r ⇒f(x
n
) ≥ f(r) = 0 ⇒e
n+1
= e
n

f(x
n
)
f

(x
n
)
≤ e
n
.
Puesto que x
n+1
≥ r y el error va decreciendo, se concluye que la sucesi´on
(x
n
)
n∈N
es decreciente y acotada inferiormente por r, por lo tanto tiene l´ımite.
As´ı mismo, la sucesi´on (e
n
)
n∈N
es decreciente y acotada inferiormente por 0,
por lo tanto tambi´en tiene l´ımite. Se deduce que
lim
n→∞
e
n+1
= lim
n→∞

e
n

f(x
n
)
f

(x
n
)

=
lim
n→∞
e
n

f(lim
n→∞
x
n
)
f

(lim
n→∞
x
n
)
⇒f( lim
n→∞
x
n
) = 0 (2.1)
y puesto que f(x) es estrictamente creciente se obtiene que lim
n→∞
x
n
= r
(en caso contrario f(lim
n→∞
x
n
) > f(r) = 0), es decir, la sucesi´on de Newton-
Raphson converge a la soluci´on.

2.2.3 Aproximaci´ on y error
La aproximaci´on a la soluci´on en el paso n del m´etodo de Newton-Raphson es
x
n
. Por el razonamiento anterior sabemos que
e
n+1
=
f

(x
n
)
2f

(x
n
)
e
2
n
.
Si encontramos una constante C tal que
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
siendo I un intervalo que contenga a la sucesi´on (x
n
)
n∈N
y a la soluci´on r,
tendremos que
[e
n+1
[ ≤ Ce
2
n
Resoluci´ on de ecuaciones no lineales 25
lo que significa que la convergencia de la sucesi´on de errores es cuadr´atica. En
estas condiciones
C[e
n+1
[ ≤ C
2
e
2
n
≤ C
2
(Ce
2
n−1
)
2
≤ ≤ (Ce
0
)
2
n+1
es decir
C[e
n
[ ≤ (Ce
0
)
2
n
⇒[e
n
[ ≤
1
C
(Ce
0
)
2
n
que es una cota del error que se puede obtener previamente a aplicar el m´etodo.
Si [Ce
0
[ < 1, o lo que es lo mismo [e
0
[ <
1
C
, siendo e
0
= x
0
−r, tendremos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
→0
con lo que tenemos otro criterio de convergencia del m´etodo.
Ejemplo: Calcula el n´ umero de pasos necesarios para encontrar la ra´ız
cuadrada de 3 con un error menor que 10
−6
1. Con el m´etodo de Newton-Raphson
2. Con el m´etodo de la bisecci´ on.
Puesto que la ra´ız cuadrada de 3 es soluci´on de x
2
− 3 = 0, aplicaremos
los m´etodos a la funci´on f(x) = x
2
−3. Puesto que f(x) es continua en [1, 2]
y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano
se sabe que en [1, 2] hay una soluci´on de f(x) = 0.
Apartado 1). Aplicamos el primer criterio para saber si el m´etodo de
Newton-Raphson converger´a en el intervalo [1, 2]. f(x) es un polinomio y por
tanto es de clase C
2
. Como f

(x) = 2x > 0 en [1, 2], la funci´on es estrictamente
creciente en [1, 2]. Adem´as f

(x) = 2 > 0 en [1, 2]. Por todo ello, podemos
asegurar que el m´etodo de Newton-Raphson converger´a a partir de cualquier
punto de [1, 2].
Veamos el n´ umero de iteraciones necesarias para que el error sea menor
que 10
−6
. Sabemos que
[e
n
[ ≤
1
C
(Ce
0
)
2
n
siendo
C ≥
max
x∈[1,2]|f

(x)|
2 min
x∈[1,2]
[f

(x)[
=
2
2 min
x∈[1,2]
[2x[
=
2
2 2
=
1
2
.
26 Cap´ıtulo 2
Por tanto
[e
n
[ ≤
1
1/2

1
2
e
0

2
n
= 2

1
2
e
0

2
n
Si n = 4, entonces [e
4
[ ≤ 3.051 ∗ 10
−5
Si n = 5, entonces [e
5
[ ≤ 4.66 ∗ 10
−10
. Luego basta con 5 iteraciones.
Aplicamos el m´etodo empezando en el punto x
0
= 1
x
n
= x
n−1

f(x
n−1
)
f

(x
n−1
)
= x
n−1

x
2
n−1
−3
2x
n−1
=
x
2
n−1
+ 3
2x
n−1
.
x
0
= 1 x
1
= 2 x
2
= 1.75 x
3
= 1.73414 x
4
= 1.73205 x
5
= 1.73205
Apartado 2). Sabemos que
[e
n
[ ≤
1
2
n+1
(b −a) =
1
2
n+1
< 10
−6
y si n = 19, entonces [e
19
[ ≤ 9.54 ∗ 10
−7
, es decir, necesitamos 19 iteraciones.

Ejemplo: Dada la ecuaci´ on e
−x
−x = 0,
1. Aplica el m´etodo de Newton-Raphson con 4 iteraciones para encontrar
la soluci´ on.
2. Calcula una cota del error cometido.
Sea f(x) = e
−x
−x. Aplicando el teorema de Bolzano al intervalo [0, 1] se
puede asegurar que en dicho intervalo hay una soluci´on de la ecuaci´on f(x) = 0.
Como f

(x) = e
−x
−1 < 0 en [0, 1] no podemos aplicar el criterio para asegurar
que el m´etodo funcione empezando en cualquier punto del intervalo [0, 1]. No
obstante, lo aplicamos empezando en el punto x
0
= 0
x
n+1
= x
n

e
−x
n
−x
n
−e
−x
n
−1
x
0
= 0 x
1
= 0.5 x
2
= 0.566311 x
3
= 0.567143 x
4
= 0.567143
Resoluci´ on de ecuaciones no lineales 27
Calculemos una cota del error
C[e
4
[ ≤ (Ce
0
)
2
n
siendo
C ≥
max
x∈I
[f

(x)[
2 min
x∈I
[f

(x)[
=
max
x∈[0,1]
[e
−x
[
2 min
x∈[1,2]
[ −e
−x
−1[
=
1
2(1/e + 1)
=
e
2(e + 1)
≈ 0.365529.
Por tanto
[e
4
[ ≤ C
2
n
−1
e
2
n
0
≤ 0.37
15
1
16
≈ 0.33 ∗ 10
−7

2.2.4 Variaciones del m´etodo: M´etodo de la secante
Teniendo en cuenta quef

(x
n
) = lim
h→0
f(x
n
+h)−f(x
n
)
h
este m´etodo se diferen-
cia del de Newton-Raphson en que se sustituye f

(x
n
) por el valor aproximado
f(x
n−1
)−f(x
n−2
)
x
n−1
−x
n−2
de modo que la sucesi´on que queda es
x
n
= x
n−1
−f(x
n−1
)
x
n−1
−x
n−2
f(x
n−1
) −f(x
n−2
)
.
Por tanto hay que utilizar dos puntos iniciales en lugar de uno. Es un m´etodo
m´as r´apido que el de la bisecci´on pero m´as lento que el de Newton-Raphson.
Ejemplo: Calcula una aproximaci´ on de

2, con 4 iteraciones del m´etodo
de la secante.
Aplicamos el m´etodo a la soluci´on de la ecuaci´on f(x) = x
2
−2 = 0 en el
intervalo [1, 2].
x
n
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−2 −[x
2
n−2
−2]
= x
n−1
−(x
2
n−1
−2)
x
n−1
−x
n−2
x
2
n−1
−x
2
n−2
y tomando tomando x
0
= 1 y x
1
= 2 nos queda
x
0
= 1 x
1
= 2 x
2
= 1.3333 x
3
= 1.4 x
4
= 1.4146

28 Cap´ıtulo 2
0.5 1.5 2 2.5
-1
1
2
3
4
M´etodo de la secante para f(x) = x
2
−2
2.3 M´etodo iterativo de punto fijo
2.3.1 Descripci´ on del m´etodo
Ciertos problemas de aproximaci´on se pueden resolver encontrando una solu-
ci´on de F(x) = x. Una soluci´on r de F(x) = x se denomina un punto fijo de
la funci´on F(x), debido a que F(r) = r. A menudo, para resolver la ecuaci´on
F(x) = x se construye la sucesi´on
x
n
= F(x
n−1
).
Cuando la sucesi´on x
n
es convergente y F(x) es continua, si r = lim
n→∞
x
n
,
entonces
F(r) = F( lim
n→∞
x
n
) = lim
n→∞
F(x
n
) = lim
n→∞
x
n+1
= r,
es decir, el l´ımite de x
n
es un punto fijo de F(x). La b´ usqueda de soluciones
de F(x) = x empleando sucesiones de la forma x
n
= F(x
n−1
), se denomina
m´etodo iterativo de punto fijo.
Ejemplo: Encuentra una soluci´ on real de x
3
− x − 1 = 0 usando cinco
pasos de un m´etodo iterativo de punto fijo.
Como pretendemos resolver la ecuaci´on f(x) = x
3
− x − 1 = 0, por el
teorema de Bolzano sabemos que hay una soluci´on en el intervalo [1, 2].
Resolver f(x) = x
3
− x − 1 = 0 es equivalente a resolver una de estas
ecuaciones
x
3
−1 = x o bien
3

1 +x = x,
Resoluci´ on de ecuaciones no lineales 29
con lo que podemos aplicar el m´etodo iterativo de punto fijo para resolver la
ecuaci´on F(x) = x siendo F(x) = x
3
−1 o bien F(x) =
3

1 +x. Construyamos
la sucesi´on x
n
= F(x
n−1
) para ambas funciones, comenzando por un punto
del intervalo [1, 2], por ejemplo por x
0
= 1 resulta lo siguiente:
x
n
= F(x
n−1
) x
0
x
1
x
2
x
3
x
4
x
5
F(x) = x
3
−1 1 0 −1 −2 −9 −730
F(x) =
3

1 +x 1 1.2600 1.3123 1.3224 1.3243 1.3246
Es claro que para la funci´on F(x) = x
3
−1, la sucesi´on no resulta conver-
gente. Sin embargo, para la funci´on F(x) =
3

1 +x la sucesi´on que sale s´ı es
convergente a un n´ umero r. Dicho n´ umero, puesto que F(x) es continua, veri-
ficar´a que F(r) = r, es decir, f(r) = 0. La mejor aproximaci´on de r obtenida
ser´ıa 1.3246.

2.3.2 Convergencia del m´etodo
Definici´ on: Sea F : R →R una funci´on. Se dice que F es contractiva en un
conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que
[F(x) −F(y)[ ≤ λ[x −y[ ∀x, y ∈ C.
Ejemplo: Comprueba que la funci´ on F(x) =
3

1 +x es contractiva en
[0, 1].
Por el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ =

1
3
3

(1 +θ)
2
(y −x)


1
3
3

1
(y −x)

=
1
3
[y −x[
para todo x, y ∈ [0, 1]. Por tanto la funci´on es contractiva con λ = 1/3.

Teorema: Si F es una funci´ on contractiva que va de un cerrado C ⊂ R
en C (F(C) ⊂ C), entonces F tiene un ´ unico punto fijo r ∈ C. Adem´ as
r es el l´ımite de cualquier sucesi´ on que se obtenga a partir de la expresi´ on
x
n+1
= F(x
n
) siendo x
0
∈ C.
30 Cap´ıtulo 2
Demostraci´on. Sea x
0
, x
1
, x
2
, . . . , x
n
, . . . la sucesi´on generada mediante la
expresi´on x
n+1
= F(x
n
). Veamos que (x
n
)
n∈N
converge. Por ser contractiva
se tiene que
[x
n
−x
n−1
[ = [F(x
n−1
) −F(x
n−2
)[ ≤ λ[x
n−1
−x
n−2
[ ≤
λ
2
[x
n−2
−x
n−3
[ ≤ ≤ λ
n−1
[x
1
−x
0
[.
Por otra parte
x
n
= x
0
+x
1
−x
0
+x
2
−x
1
+ +x
n
−x
n−1
= x
0
+
n
¸
k=1
(x
k
−x
k−1
)
por lo que
lim
n→∞
x
n
= x
0
+ lim
n→∞
n
¸
k=1
(x
k
−x
k−1
) = x
0
+

¸
k=1
(x
k
−x
k−1
)
La serie
¸

k=1
(x
k
−x
k−1
) es convergente porque


¸
k=1
(x
k
−x
k−1
)



¸
k=1
[x
k
−x
k−1
[ ≤

¸
k=1
λ
k−1
(x
1
−x
0
) = [x
1
−x
0
[
1
1 −λ
Como la serie es convergente, la sucesi´on (x
n
)
n∈N
tambi´en lo es. Sea r =
lim
n→∞
x
n
. Por la construcci´on de la sucesi´on, se tiene que F(r) = r, es decir,
hay un punto fijo. r ∈ C por ser C un conjunto cerrado y x
n
∈ C. Falta ver
que es ´ unico. Supongamos que hubiese dos puntos fijos r
1
y r
2
. Entonces
[r
1
−r
2
[ = [F(r
1
) −F(r
2
)[ ≤ λ[r
1
−r
2
[ < [r
1
−r
2
[
llegando a contradicci´on.
2.3.3 Aproximaci´ on y error
Si r es soluci´on de f(x) = 0 obtenida por iteraci´on de una funci´on F(x),
entonces si f(x) es continua y derivable, existe θ
n
∈ R entre r y x
n
tal que
f(r) −f(x
n
)
r −x
n
= f


n
).
Resoluci´ on de ecuaciones no lineales 31
Suponiendo que x
n
≤ r y puesto que f(r) = 0 y −e
n
= r −x
n
, se deduce que
f(x
n
)
e
n
= f


n
) ⇒e
n
=
f(x
n
)
f


n
)
⇒[e
n
[ ≤
[f(x
n
)[
min
θ∈[x
n
,r]
[f

(θ)[
.
La f´ormula anterior nos proporciona un m´etodo para encontrar una cota de
error a posteriori y se puede aplicar a cualquier m´etodo iterativo de punto fijo.
Si F(x) es contractiva de constante λ entonces
[x
n+p
−x
n
[ = [x
n+p
−x
n+p−1
[ +[x
n+p−1
−x
n+p−2
[ + +[x
n+1
−x
n
[ ≤
≤ λ
n+p−1
[x
1
−x
0
[ +λ
n+p−2
[x
1
−x
0
[ + +λ
n
[x
1
−x
0
[ =
= (λ
n+p−1

n+p−2
+ +λ
n
)[x
1
−x
0
[ =
= λ
n

p−1

p−2
+ + 1)[x
1
−x
0
[
de modo que cuando p tiende a infinito
[e
n
[ = [r −x
n
[ ≤ λ
n

¸
k=0
λ
k
= λ
n

1
1 −λ

[x
1
−x
0
[
que es una f´ormula que permite calcular una cota de error a priori.
Ejemplo: Encuentra una soluci´ on de la ecuaci´ on 4 +
1
3
sin(2x) − x = 0
con un m´etodo iterativo de punto fijo estimando una cota del error a priori y
otra a posteriori.
Sea f(x) = 4 +
1
3
sin(2x) −x y F(x) = 4 +
1
3
sin(2x). Aplicando el teorema
de Bolzano a la funci´on f(x) en el intervalo [−3.5, 4.5] se deduce que hay
una soluci´on de f(x) = 0 en dicho intervalo. Veamos si F(x) es contractiva
aplicando el teorema del valor medio
[F(y) −F(x)[ = [F

(θ)(y −x)[ = [
2
3
cos(2x)(y −x)[ ≤
2
3
[y −x[.
Se deduce que F(x) es contractiva con constante λ =
2
3
.
Por otra parte, puesto que −3.5 ≤ 4 +
1
3
sin(2x) ≤ 4.5, se deduce que
F([−3.5, 4.5]) ⊂ [−3.5, 4.5].
Por tanto, la sucesi´on x
n+1
= F(x
n
) converger´a a un punto fijo a partir de
cualquier valor inicial x
0
. Calculamos cinco iteraciones empezando en x
0
= 0 :
32 Cap´ıtulo 2
x
0
x
1
x
2
x
3
x
4
x
5
0 4 4.329786082 4.230895147 4.273633799 4.256383406
Una cota del error para x
5
a priori ser´ıa
[e
5
[ ≤

2
3

5

1
1 −
2
3

[4 −0[ ≈ 1.5802
que no es una cota muy buena.
Una cota del error para x
5
a posteriori ser´ıa
[e
5
[ ≤
[f(x
5
)[
min
θ∈[−3.5,4.5]
[
2
3
cos(2θ) −1[

0.00719542
1/3
= 0.00239847.

2.4 Ra´ıces de polinomios
No existe ninguna f´ormula algebraica para la resoluci´on de ra´ıces de polinomios
de grado mayor que 4, por tanto, hay que aplicar m´etodos num´ericos para el
c´alculo de dichas ra´ıces.
Definici´ on: Una soluci´on r de una ecuaci´on f(x) = 0 se dice que tiene
multiplicidad n si
f(r) = f

(r) = = f
n−1)
(r) = 0 f
n)
(r) = 0.
Ejemplo: r = 1 es una soluci´on de multiplicidad 2 para la ecuaci´on
x
2
−2x + 1 = 0.

Para la localizaci´on de ra´ıces de polinomios con multiplicidad par (como
en el ejemplo anterior) no podemos emplear el teorema de Bolzano. Sin em-
bargo podemos intentar calcular las ra´ıces de otro polinomio con las mismas
soluciones que el nuestro pero todas con multiplicidad 1.
Resoluci´ on de ecuaciones no lineales 33
0.5 1 1.5 2
0.2
0.4
0.6
0.8
1
f(x) = x
2
−2x + 1
Teorema [Teorema fundamental del ´algebra]: Un polinomio de grado n
con coeficientes reales tiene exactamente n ceros o ra´ıces entre los n´ umeros
complejos C, contando cada cero tantas veces como indique su multiplicidad.
De modo que dado un polinomio P
n
(x), podemos descomponerlo as´ı:
P
n
(x) = a
n
(x −r
k
)
m
k
(x −r
k−1
)
m
k−1
. . . (x −r
1
)
m
1
siendo m
i
la multiplicidad de la ra´ız i-´esima. Si derivamos, obtenemos que
P

n
(x) = a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
M(x)
siendo M(x) un polinomio tal que M(r
i
) = 0. El m´aximo com´ un divisor de
P
n
(x) y de P

n
(x) es
D(x) = M.C.D(P
n
(x), P

n
(x)) =
a
n
(x −r
k
)
m
k
−1
(x −r
k−1
)
m
k−1
−1
. . . (x −r
1
)
m
1
−1
por lo que el polinomio
Q(x) =
P(x)
M.C.D(P
n
(x), P

n
(x))
= a
n
(x −r
k
)(x −r
k−1
) . . . (x −r
1
)
tiene las mismas ra´ıces que P(x) pero todas con multiplicidad 1. Bastar´ıa
aplicar los m´etodos a Q(x) para localizar las ra´ıces de P
n
(x). El problema es
el c´alculo de Q(x) y de M.C.D(P
n
(x), P

n
(x)).
34 Cap´ıtulo 2
2.4.1 Separaci´ on de ra´ıces. Sucesi´ on de Sturm.
La sucesi´on de Sturm nos permite calcular el n´ umero de ra´ıces de un polinomio
en un intervalo [a, b]. Sea P
n
(x) un polinomio de grado n y P

n
(x) su deriva-
da. Para construir la sucesi´on de Sturm aplicamos la divisi´on de polinomios
repetidas veces a P
n
(x), P

n
(x) y a los restos obtenidos cambiados de signo:
P
n
(x) = c
1
(x)P

n
(x) +r
1
(x)
P

n
(x) = c
2
(x)(−r
1
(x)) +r
2
(x)
−r
1
(x) = c
3
(x)(−r
2
(x)) +r
3
(x)
. . .
−r
k−2
(x) = c
k
(x)(−r
k−1
(x)) +r
k
(x)
Puede ocurrir lo siguiente:
1. Hay un resto r
k
(x) = 0. En este caso r
k−1
(x) es el m´aximo com´ un
divisor de P
n
(x) y de P

n
(x). Construimos entonces la sucesi´on de Sturm co-
rrespondiente al polinomio
Q(x) =
P
n
(x)
r
k−1
(x)
que es un polinomio que tiene las mismas ra´ıces que P
n
(x) pero todas simples.
2. Llegamos a un resto r
k
(x) constante distinto de 0. En este caso la
sucesi´on de Sturm es
P
n
(x), P
n−1
(x), −r
1
(x), . . . , −r
k
(x).
La diferencia entre el n´ umero de cambios de signos de las sucesiones siguientes
P
n
(a), P
n−1
(a), −r
1
(a), . . . , −r
k
(a) P
n
(b), P
n−1
(b), −r
1
(b), . . . , −r
k
(b)
es el n´ umero de ra´ıces de P
n
(x) en el intervalo [a, b].
Resoluci´ on de ecuaciones no lineales 35
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = 36x
4

12x
3
−11x
2
+ 2x + 1.
La derivada de P(x) es P

(x) = 144x
3
−36x
2
−22x+2. Podemos multiplicar
los polinomios implicados por numeros positivos para facilitar los c´alculos sin
que ello afecte al objetivo perseguido. Comenzamos los c´alculos:
1. Multiplicamos P
n
(x) por 4 y efectuamos la primera divisi´on:
144x
4
−48x
3
−44x+8x+4 = (x−1)(144x
3
−36x
2
−22x+2)+(−300x
2
+50x+50).
2. El tercer miembro de la sucesi´on de Sturm es 300x
2
− 50x − 50. Efec-
tuamos la siguiente divisi´on:
144x
3
−36x
2
−22x + 2 = 2/50(12x −1)(300x
2
−50x −50) + 0
3. Como hay un resto que es 0 el m´aximo com´ un divisor de P(x) y P

(x) es
300x
2
−50x−50 o bien dividiendo por 50 6x
2
−x−1. calculamos el polinomio
Q(x) =
P(x)
6x
2
−x −1
= 6x
2
−x −1.
4. Construimos la sucesi´on de Sturm para Q(x).
6x
2
−x −1 = (−
1
24
+
x
2
)(12x −1) +
−25
24
Con la sucesi´on es
6x
2
−x −1, 12x −1,
25
24
Estudiamos algunos cambios de signo:
−∞ -2 0 2 ∞
6x
2
−x −1 + + - + +
12x −1 - - - + +
25
24
+ + + + +
cambios de signo 2 2 1 0 0
En el intervalo (∞, −2) y en (0, 2) no hay ninguna ra´ız porque en los extremos
de los intervalos la sucesi´on de Sturm tiene los mismos cambios de signo.
En el intervalo (−2, 0) hay una ra´ız y hay otra en el intervalo (0, 2) porque
la diferencia de cambios de signo en los extremos en ambos casos es 1.

36 Cap´ıtulo 2
Ejemplo: Localiza en intervalos disjuntos las ra´ıces del P(x) = x
4
+2x
3

3x
2
−4x −1.
La derivada es P

(x) = 4x
3
+ 6x
2
−6x −4 = 2(2x
3
+ 3x
2
−3x −2). Para
facilitar el c´alculo multiplicamos P(x) por 2 y calculamos es tercer miembro
de la sucesi´on de Sturm:
2x
4
+ 4x
3
−6x
2
−8x −1 = (x +
1
2
)(2x
3
+ 3x
2
−3x −2) + (−
9
2
x
2

9
2
x −1).
Podemos multiplicar por 2 el resto con lo que −r
1
(x) = 9x
2
− 9x + 2. Pa-
ra facilitar los c´alculos multiplicamos P

(x) por 9 y calculamos el siguiente
miembro de la sucesi´on:
18x
3
+ 27x
2
−27x −18 = (2x + 1)(9x
2
+ 9x + 2) + (−40x −20).
Dividiendo por 20 podemos suponer que −r
2
(x) = 2x + 1. Multiplicamos
−r
1
(x) por 2 y calculamos −r
3
(x):
18x
2
+ 18x + 4 = (9x +
9
2
)(2x + 1) +
−1
2
.
Con lo que la sucesi´on queda as´ı:
x
4
+ 2x
3
−3x
2
−4x −1, 2x
3
+ 3x
2
−3x −2, 9x
2
+ 9x + 2, 2x + 1,
1
2
.
Separamos las ra´ıces en intervalos disjuntos:
−∞ -3 -2 -1 -1/2 0 1 2 ∞
x
4
+ 2x
3
−3x
2
−4x −1 + + - - - - - + +
2x
3
+ 3x
2
−3x −2 - - 0 + - - 0 + +
9x
2
+ 9x + 2 + + + + + + + + +
2x + 1 - - - - 0 + + + +
1
2
+ + + + + + + + +
cambios de signo 4 4 3 3 2 1 1 0 0
En el intervalo (∞, −3), (−2, −1), (0, 1) y en (2, ∞) no hay ninguna ra´ız
porque en los extremos de los intervalos la sucesi´on de Sturm tiene los mismos
cambios de signo.
En cada uno de los intervalos (−3, −2), (−1, −1/2), −1/2, 0 y (1, 2) hay
una ra´ız porque la diferencia de cambios de signo en los extremos en ambos
casos es 1.

Resoluci´ on de ecuaciones no lineales 37
2.4.2 Acotaci´ on de ra´ıces
Proposici´ on: Sea P(x) = a
n
x
n
+ a
n−1
x
n−1
+ + a
0
. Si r es una ra´ız de
P(x), entonces
[r[ < 1 +
A
[a
n
[
siendo A = max
0≤i≤n−1
[a
i
[.
Demostraci´on. Supongamos que [r[ > 1.
0 = [P(r)[ = [a
n
r
n
+a
n−1
r
n−1
+ +a
0
[ ≥
≥ [a
n
r
n
[ −[a
n−1
r
n−1
+ +a
0
[
≥ [a
n
r
n
[ −

[a
n−1
[[r
n−1
[ + +[a
0
[


≥ [a
n
r
n
[ −A

[r[
n−1
+ +[r[ + 1

=
[a
n
r
n
[ −A
[r[
n
−1
[r[ −1
> [a
n
[[r[
n
−A
[r[
n
[r[ −1
> [r[
n

[a
n
[ −
A
[r[ −1

es decir,
0 > [a
n
[ −
A
[r[ −1
⇒[a
n
[ <
A
[r[ −1
⇒[r[ −1 <
A
[a
n
[
con lo que concluimos que
[r[ < 1 +
A
[a
n
[
.
Si [r[ ≤ 1, es trivial que [r[ < 1 +
A
|a
n
|
.

Ejemplo: Acota las ra´ıces del polinomio P(x) = x
4
+2x
3
−3x
2
−4x −1.
Com A = max
1≤i≤n−1
[a
i
[ = 4, usando la proposici´on anterior obtenemos
que cualquier ra´ız r del polinomio verifica lo siguiente
[r[ < 1 +
A
[a
n
[
= 1 +
4
1
= 5 ⇒−5 < r < 5.

38 Cap´ıtulo 2
2.4.3 Ra´ıces de polinomios con el algoritmo de Horner
Si usamos el m´etodo de Newton-Raphson para encontrar las ra´ıces de un
polinomio P(x) hemos de calcular P(x
n
) y P

(x
n
). El algoritmo de Horner
hace estos ´ ultimos c´alculos de forma sencilla para polinomios.
Sea x
0
∈ R y P(x) = a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
. Sea
P(x) = Q(x)(x −x
0
) +R
(R ser´a constante) el resultado de dividir P(x) entre (x − x
0
). Supongamos
que
Q(x) = b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
.
Entonces P(x
0
) = R y P(x) = Q(x)(x −x
0
) +P(x
0
), con lo que
P(x) −P(x
0
) = Q(x)(x −x
0
)
es decir
a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
−P(x
0
) =
= (b
n−1
x
n−1
+b
n−2
x
n−2
+ +b
1
x +b
0
)(x −x
0
)
Desarrollando e igualando los coeficientes de ambos t´erminos se deduce
que
b
n−1
= a
n
, b
n−2
= a
n−1
+b
n−1
x
0
, . . . , b
0
= a
1
+b
1
x
0
P(x
0
) = a
0
+b
0
x
0
.
La obtenci´on de los coeficientes b
i
se pueden representar gr´aficamente as´ı
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
que tambi´en es una forma sencilla de calcular P(x
0
). Adem´as,
P(x) = Q(x)(x−x
0
) +R ⇒P

(x) = Q

(x)(x−x
0
) +Q(x) ⇒P

(x
0
) = Q(x
0
).
De modo que para calcular P

(x
0
) podemos aplicar el algoritmo gr´afico anterior
a Q(x) :
a
n
a
n−1
a
n−2
. . . a
1
a
0
x
0
b
n−1
x
0
b
n−2
x
0
. . . b
1
x
0
b
0
x
0
b
n−1
b
n−2
b
n−3
. . . b
0
P(x
0
)
x
0
c
n−2
x
0
c
n−3
x
0
. . . c
0
x
0
c
n−2
c
n−3
c
n−4
. . . P

(x
0
)
Resoluci´ on de ecuaciones no lineales 39
Ejemplo: Siendo P(x) = x
4
+2x
3
−3x
2
−4x−1, calcula con el algoritmo
de Horner P(2) y P

(2).
2 1 −3 4 −5
2 4 10 14 36
2 5 7 18 31
2 4 18 50
2 9 25 68
Se concluye que P(2) = 31 y P

(2) = 68.

2.4.4 Ra´ıces m´ ultiples
Si una ecuaci´on f(x) = 0 tiene soluciones m´ ultiples, el c´alculo puede ser
problem´atico. Si f(x) es un polinomio, podemos intentar calcular las ra´ıces
de
Q(x) =
P(x)
MCD(P(x), P

(x))
que ser´a un polinomio con las mismas ra´ıces que f(x) pero todas con multi-
plicidad 1.
Sea o no f(x) un polinomio, se puede intentar aplicar el m´etodo de Newton-
Raphson. Si la sucesi´on generada converge muy lentamente, la causa puede
encontrarse en esa multiplicidad de las ra´ıces. Para detectar de qu´e multi-
plicidad es la ra´ız en cuesti´on, para cada termino de la sucesi´on x
n
generada
calculamos f

(x
n
), f

(x
n
), f

(x
n
), . . . , f
k)
(x
n
). Si las derivadas hasta orden
k −1 son casi 0 en los valores x
n
y f
k)
(x
n
) no es cercano a 0, entonces puede
ocurrir que la soluci´on r verifique que
f
n)
(r) = 0 ∀ 0 ≤ n < k y f
k)
(r) = 0,
es decir que r sea una soluci´on de f(x) = 0 de multiplicidad k. En este caso,
se puede acelerar la convergencia de la sucesi´on calcul´andola as´ı
x
n+1
= x
n
−k
f(x
n
)
f

(x
n
)
.
40 Cap´ıtulo 2
El error se obtendr´ıa as´ı
[e
n
[ <
[f(x
n
)[
min
θ∈[a,b]
[f

(θ)[
Ejercicio: Sea f(x) = (x − 1)
3
. Aplica Newton-Raphson para encontrar
una soluci´on de f(x) = 0 empezando en x
0
= 0.
Cap´ıtulo 3
Sistemas Lineales
El objetivo de este tema es el desarrollo de t´ecnicas de b´ usqueda de soluciones
de sistemas de ecuaciones lineales como el siguiente:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2

a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
= b
n
Denotando A = (a
ij
)
1≤i,j≤n
, b = (b
i
)
1≤i≤n
y x = (x
i
)
1≤i≤n
, el sistema anterior
se puede expresar
A x = b
3.1
´
Algebra de matrices
Sea A una matriz.
Aes de orden mn si tiene tiene mfilas y n columnas (A = (a
ij
)
1≤i≤m,1≤j≤n

´
m×n
). Por ejemplo

3 5 2
2 1 3

tiene orden 2 3.
La matriz traspuesta de A es la matriz A
t
que resulta de intercambiar las
filas de A por las columnas de A.
41
42 Cap´ıtulo 3
A es sim´etrica si A
t
= A.
Si α ∈ R y B es una matriz, podemos realizar las siguientes operaciones:
- Multiplicar una matriz por un n´ umero:
α A = (αa
ij
)
1≤i≤m,1≤j≤n
.
- Sumar dos matrices A y B si A, B ∈ ´
m×n
:
A+B = (a
i,j
+b
ij
)
1≤i,j≤m
.
- Multiplicar dos matrices A ∈ ´
m×p
y B ∈ ´
p×n
:
A B = (
p
¸
k=1
a
ik
b
kj
)
1≤i≤m,1≤j≤n
∈ ´
m×n
.
La matriz identidad de orden n n es
Id =

¸
¸
¸
1 0 0 . . . 0
0 1 0 . . . 0
. . .
0 0 . . . 0 1
¸

Se verifica que A Id = Id A = A, ∀A ∈ ´
n×n
.
B es una matriz inversa de A por la derecha si B A = Id
B es una matriz inversa de A por la izquierda si A B = Id.
Si A ∈ ´
n×n
, entonces la inversa por la izquierda es tambi´en inversa por
la derecha. En este caso la inversa es ´ unica y se denota A
−1
A
−1
A = A A
−1
= Id.
Si A ∈ ´
n×n
tiene inversa, entonces A es regular, invertible o no singular.
La matriz inversa es
A
−1
=
1
[A[
(A
i,j
)
t
,
siendo A
i,j
el adjunto del elemento a
ij
.
En este caso el sistema A x = b tiene como soluci´on x = A
−1
b.
Se llaman operaciones elementales de una matriz al intercambio de dos
filas o columnas, al producto de una fila o columna por un n´ umero distinto
de 0, a la suma de una fila o columna otra fila o columna multiplicada por un
n´ umero, o cualquier combinaci´on finita de las operaciones anteriores. Cada
Sistemas lineales 43
operaci´on fundamental en una matriz A se puede expresar mediante producto
de A por otra matriz, que se llama matriz fundamental. Por ejemplo, dada la
matriz
A =

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

,
el intercambio de la segunda y tercera filas se puede expresar as´ı:

¸
1 0 0
0 0 1
0 1 0
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
31
a
32
a
33
a
21
a
22
a
23
¸

.
El producto de la segunda fila por un n´ umero α se puede expresar as´ı:

¸
1 0 0
0 α 0
0 0 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
αa
21
αa
22
αa
23
a
31
a
32
a
33
¸

Y la suma a la tercera fila de la segunda fila multiplicada por un n´ umero α es:

¸
1 0 0
0 1 0
0 α 1
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
αa
21
+a
31
αa
22
+a
32
αa
23
+a
33
¸

El producto de matrices

¸
1 0 0
0 0 α
0 1 αλ
¸

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

representa aplicar a la segunda matriz los siguientes cambios:
- Sustituir la fila segunda por la tercera multiplicada por α.
- Multiplicar la tercera fila por αλ y sumarle la segunda.
Si A ∈ ´
n×n
tiene inversa, entonces existe un conjunto de matrices fun-
damentales E
k
con k = 1, . . . , p, tales que
E
p
E
p−1
. . . E
1
A = Id,
con lo que multiplicando por A
−1
por la derecha en ambos t´erminos se obtiene
que
E
p
E
p−1
. . . E
1
Id = A
−1
,
es decir, aplicando las mismas operaciones fundamentales a la matriz Id ob-
tendremos la matriz inversa A
−1
.
44 Cap´ıtulo 3
Ejemplo: Calcula la inversa de la matriz
A =

¸
1 2 3
1 3 3
2 4 7
¸

.
Partimos de A y la matriz Id. El primer cambio consiste en restar a la segunda
fila la primera (correspondiente al producto por una cierta matriz fundamental
E
1
):
E
1
A =

¸
1 2 3
0 1 0
2 4 7
¸

E
1
Id =

¸
1 0 0
−1 1 0
0 0 1
¸

El segundo cambio (multiplicar por E
2
) consiste en restar a la tercera dos
veces la primera:
E
2
E
1
A =

¸
1 2 3
0 1 0
0 0 1
¸

E
2
E
1
Id =

¸
1 0 0
−1 1 0
−2 0 1
¸

A la primera le resto dos veces la segunda (E
3
):
E
3
E
2
E
1
A =

¸
1 0 3
0 1 0
0 0 1
¸

E
3
E
2
E
1
Id =

¸
3 −2 0
−1 1 0
−2 0 1
¸

A la primera le resto tres veces la tercera (E
4
):
E
4
E
3
E
2
E
1
A =

¸
1 0 0
0 1 0
0 0 1
¸

E
4
E
3
E
2
E
1
Id =

¸
9 −2 −3
−1 1 0
−2 0 1
¸

= A
−1
.
Esta ´ ultima matriz es la inversa de A.

Sistemas lineales 45
Para toda matriz A ∈ ´
n×n
son equivalentes:
1. A
−1
existe.
2. [A[ = 0.
3. Los vectores fila de la matriz A son linealmente independientes.
4. Los vectores columna de la matriz A son linealmente independientes.
5. Para cada b ∈ R
n
, el sistema A x = b tiene una ´ unica soluci´on.
6. A es producto de matrices elementales.
3.1.1 Valores propios y vectores propios
Sea A ∈ ´
n×n
. Si existe un vector x ∈ R
n
no nulo y un n´ umero λ ∈ R tal
que A x = λx, entonces, λ es un valor propio o autovalor de la matriz A, y
x es un vector propio o autovector para el autovalor λ. Los valores propios de
una matriz A son las ra´ıces del llamado polinomio caracter´ıstico [A − λ Id[.
Los vectores propios de A para el autovalor λ, son los elementos de n´ ucleo de
la aplicaci´on lineal A−λ Id.
3.1.2 Matriz definida
Sea A ∈ ´
n×n
. Se dice que A es definida positiva (equivalentemente, negati-
va) si para todo x ∈ R
n
no nulo, se verifica que
x
t
A x > 0.
Ejemplo. La matriz A =

2 1
1 2

es definida positiva.
Sea (x
1
, x
2
) un vector no nulo.
(x
1
, x
2
)

2 1
1 2

x
1
x
2

= (x
1
, x
2
)

2x
1
+x
2
x
1
+ 2x
2

=
2x
2
1
+x
1
x
2
+x
1
x
2
+ 2x
2
2
= (x
1
+x
2
)
2
+x
2
1
+x
2
2
> 0.

Si A es una matriz definida positiva y sim´etrica, entonces los autovalores
de A son todos n´ umeros reales y positivos.
46 Cap´ıtulo 3
3.2 Resoluci´ on de sistemas de ecuaciones lineales:
m´etodo de Gauss
Dado el sistema A x = b, si [A[ = 0, puede no haber soluci´on. Si [A[ = 0,
existe una ´ unica soluci´on y se puede calcular as´ı:
x
1
=

b
1
a
12
. . . a
1n
b
2
a
22
. . . a
2n
. . .
b
n
a
n2
. . . a
nn

[A[
, , x
n
=

a
11
. . . a
1n−1
b
1
a
21
a
2n−1
b
2
. . .
a
2n
. . . a
nn−1
b
n

[A[
Los c´alculos anteriores son poco pr´acticos cuando el n´ umero de ecuaciones
es grande. Por ejemplo, para n = 50 se necesitan 10
64
operaciones. Para
evitar este problema se utilizan m´etodos num´ericos de resoluci´on de ecuaciones
lineales que pueden ser:
• Directos: proporcionan un resultado que ser´a exacto salvo errores de
redondeo tras un n´ umero determinado de operaciones.
• Iterativos: construyen una sucesi´on de soluciones aproximadas, de modo
que en cada paso se mejora la aproximaci´on anterior.
Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas
soluciones. En un sistema de ecuaciones se pueden efectuar operaciones ele-
mentales en la matriz de los coeficientes y en la de los t´erminos independientes
y resulta un sistema equivalente. Es decir, resulta un sistema equivalente si
efectuamos alguna de las siguientes operaciones:
1. Multiplicamos una ecuaci´on por un n´ umero distinto de cero.
2. Sumamos a una ecuaci´on otra ecuaci´on multiplicada por un n´ umero.
3. Intercambiamos dos ecuaciones.
Sistemas lineales 47
3.2.1 M´etodo de Gauss
El m´etodo de Gauss cl´asico es un m´etodo directo que transforma mediante
operaciones elementales el sistema de ecuaciones que se pretende resolver en
un sistema equivalente triangular de f´acil resoluci´on.
El m´etodo de Gauss puede resumirse en lo siguiente:
• Paso 1. Si a
11
= 0, se elige a
11
como elemento pivote. Si a
11
= 0, se inter-
cambian las filas para que esto no suceda. Sumando a cada una las filas
restantes la fila del elemento pivote multiplicada por ciertos n´ umeros,
llamados multiplicadores, se convierten en 0 los elementos que se en-
cuentran en la primera columna distintos del pivote. En las operaciones
de sumas de filas hay que incluir los t´erminos independientes.
• Paso i (i ≥ 2). Si a
ii
= 0, se elige a
ii
como elemento pivote. Si a
ii
= 0,
se intercambian las filas de orden mayor o igual que i para que esto
no suceda. Sumando a cada una de las filas que ocupan el lugar j
(j > i) la fila del elemento pivote multiplicada por n´ umeros, llamados
multiplicadores, se convierten en 0 los elementos que se encuentran en
la columna i de la fila j (j > i). En las operaciones de sumas de filas
hay que incluir los t´erminos independientes.
Se efect´ uan los pasos necesarios hasta que la matriz de los coeficientes sea
triangular. Conseguido esto, el c´alculo de la soluci´on es sencillo siguiendo el
siguiente orden: x
n
, x
n−1
, . . . , x
1
.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
12x
1
−8x
2
+ 6x
3
+ 10x
4
= 34
3x
1
−13x
2
+ 9x
3
+ 3x
4
= 27
−6x
1
+ 4x
2
+x
3
−18x
4
= −38.
En forma matricial es sistema ser´ıa

¸
¸
¸
6 −2 2 4
12 −8 6 10
3 −13 9 3
−6 4 1 −18
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
34
27
−38
¸

.
En el sistema anterior el m´etodo de Gauss podr´ıa aplicarse as´ı:
48 Cap´ıtulo 3
1. Paso 1. Elegimos como elemento pivote el t´ermino 6 de la primera fila
y efectuamos las siguientes operaciones:
(fila 2
a
) −2(fila 1
a
) (fila 3
a
) −1/2(fila 1
a
) (fila 4
a
) −(−1)(fila 1
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 −12 8 1
0 2 3 −14
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
21
−26
¸

.
Paso 2. Elegimos como elemento pivote el t´ermino −4 de la segunda fila y
efectuamos las siguientes operaciones:
(fila 3
a
) −3(fila 2
a
) (fila 4
a
) −(−1/2)(fila 2
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 4 −13
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−21
¸

.
Paso 3. Elegimos como elemento pivote el t´ermino 2 de la tercera fila y
efectuamos la siguiente operaci´on:
(fila 4
a
) −2(fila 3
a
)
obtenemos el sistema

¸
¸
¸
6 −2 2 4
0 −4 2 2
0 0 2 −5
0 0 0 −3
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
12
10
−9
−3
¸

.
que es un sistema de ecuaciones triangular superior de f´acil resoluci´on:
6x
1
−2x
2
+ 2x
3
+ 4x
4
= 12
−4x
2
+ 2x
3
+ 2x
4
= 10
2x
3
−5x
4
= −9
−3x
4
= −3


x
1
= 1/6(12 −4x
4
−2x
3
+ 2x
2
) = 1
x
2
= −1/4(10 −2x
4
−2x
3
) = −3
x
3
= 1/2(−9 + 5x
4
) = −2
x
4
= 1
Sistemas lineales 49
Se verifica que A = L U, siendo A la matriz de los coeficientes inicial, U
la matriz de los coeficientes final y L la matriz formada por los n´ umeros que
hemos utilizado para multiplicar las filas (multiplicadores):
L =

¸
¸
¸
1 0 0 0
2 1 0 0
1/2 3 1 0
−1 −1/2 2 1
¸

3.2.2 M´etodo de Gauss con pivoteo
En un sistema como este

0.001 1
1 1

x
1
x
2

=

1
2

el m´etodo de Gauss no funcionar´ıa correctamente por errores de redondeo. En
general, si = 0 es peque˜ no, el sistema

1
1 1

x
1
x
2

=

1
2

aplicando el m´etodo de Gauss se transformar´ıa en

1
0 1 −
1

x
1
x
2

=

1
2 −
1

con lo que las soluciones, si consideramos el redondeo, ser´ıan:
x
2
=
2 −
1

1 −
1

· 1 ⇒ x
1
= (1 −x
2
)
1

· 0.
Si = 0.001, obtendr´ıamos que x
2
= 0.998998998999, que, redondeando a dos
decimales, ser´ıa x
2
= 0, por lo que x
1
= 0. Sin embargo las soluciones exactas
son x
2
=
998
999
≈ 1 y x
1
= 1000/999 ≈ 1. De hecho, al hacer los c´alculos con le
programa Maxima o Mathematica, con = 10
−17
se obtiene x
2
= 1 y x
1
= 0.
Esto sucede cuando el elemento pivote en alg´ un paso es muy peque˜ no
comparado con el resto de los elementos a los que divide. En este caso el
50 Cap´ıtulo 3
multiplicador correspondiente ser´a muy grande y la ecuaci´on que origina es
”casi¨ un m´ ultiplo de la ecuaci´on del elemento pivote:
(fila 2
a
) −
1

(fila 1
a
) ≈ −
1

(fila 1
a
).
Este problema se puede resolver de dos formas:
1. Pivoteo parcial: si estamos en el paso i, se elige como elemento pivote
el elemento a
ki
que tenga mayor valor absoluto entre los de la columna
i, con k ≥ i, independientemente de si a
ii
es cero o no, y se reordenan
las filas.
2. Pivoteo total: si estamos en el paso i, se elige como elemento pivote el
elemento a
kj
que tenga mayor valor absoluto entre los de la columna i
y los de la fila i, con k, j ≥ i, independientemente de si a
ii
es cero o no,
y se reordenan las filas y columnas. Esta opci´on tiene un importante
inconveniente pues hay que reordenar las inc´ognitas.
Ejemplo: Resuelve el siguiente sistema de ecuaciones:
2x
2
+x
4
= 0
2x
1
+ 2x
2
+ 3x
3
+ 2x
4
= −2
4x
1
−3x
2
+x
4
= −7
6x
1
+x
2
−6x
3
−5x
4
= 6.
aplicando el pivoteo parcial.
La matriz de los coeficientes y de los t´erminos independientes ser´ıa

¸
¸
¸
0 2 0 1 [ 0
2 2 3 2 [ −2
4 −3 0 1 [ −7
6 1 −6 −5 [ 6
¸

El pivoteo parcial ser´ıa este proceso:
Paso 1. Elegimos como elemento pivote el t´ermino 6 de la ´ ultima fila por
ser el de mayor valor absoluto de entre los elementos de la primera columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
2 2 3 2 [ −2
4 −3 0 1 [ −7
0 2 0 1 [ 0
¸

Sistemas lineales 51
Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 2
a
) −
2
6
(fila 1
a
)
(fila 3
a
) −
4
6
(fila 1
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 1.6667 5 3.6667 [ −4
0 −3.6667 4 4.3333 [ −11
0 2 0 1 [ 0
¸

Paso 2. Elegimos como elemento pivote el t´ermino −3.667 de la tercera fila por
ser el de mayor valor absoluto de entre los elementos de la segunda columna.
Obtenemos la matriz

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 1.6667 5 3.6667 [ −4
0 2 0 1 [ 0
¸

Efectuamos las operaciones indicadas obtenemos la matriz siguiente:
(fila 3
a
) −
1.6667
−3.6667
(fila 2
a
)
(fila 4
a
) −
2
−3.6667
(fila 2
a
)

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 2.1818 3.3636 [ −5.9999
¸

Paso 3. El elemento pivote ser´a 6.8182 de la tercera fila y no es necesario
intercambiar filas. Efectuamos la operaci´on indicada y obtenemos la matriz
siguiente:
(fila 4
a
) −
2.1818
6.8182
(fila 3
a
)
U =

¸
¸
¸
6 1 −6 −5 [ 6
0 −3.6667 4 4.3333 [ −11
0 0 6.8182 5.6364 [ −9.0001
0 0 0 1.5600 [ −3.1199
¸

que se corresponde con el sistema de ecuaciones
6x
1
+x
2
+−6x
3
−5x
4
= 6
−3.6667x
2
+ 4x
3
+ 4.3333x
4
= −11
6.8182x
3
+ 5.6364 = −9.0001
1.5600x
4
= −3.1199.
.
Este sistema se resuelve f´acilmente por ser triangular despejando las inc´ognitas
en orden inverso. Se obtiene la soluci´on:
52 Cap´ıtulo 3
x
4
= −1.9999, x
3
= 0.33325, x
2
= 1.0000, x
1
= −0.50000,
que es una respuesta aceptable teniendo en cuenta que la soluci´on exacta
es
x
4
= −2, x
3
= 1/3, x
2
= 1, x
1
= −1/2.

La matriz L de los multiplicadores en el ejemplo anterior es la siguiente:
L =

¸
¸
¸
1 0 0 0
0.6667 1 0 0
0.3333 −0.45454 1 0
0 −0.54545 0.32 1
¸

y se verifica que
L U =

¸
¸
¸
6 1 −6 5
4 −3 0 1
2 2 3 2
0 2 0 1
¸

:= A

.
El resultado no es exactamente A porque al aplicar el pivoteo hemos permu-
tado filas. En todo caso se verifica que existe una matriz P, que representa
permutaciones de filas si empleamos pivoteo parcial, tal que
P A = A

= L U.
Esto ´ ultimo nos permite calcular el determinante de A de forma sencilla al
ser [L[ = 1, [P[ = (−1)
p
(p es el n´ umero de permutaciones de filas) y U una
matriz triangular:
[A[ = [P
−1
A

[ = [P
−1
L U[ = [P
−1
[[L[[U[ = (−1)
p
[U[.
El m´etodo de Gauss permite:
1. Encontrar las soluciones de un sistema de ecuaciones.
2. Calcular el determinante de la matriz de los coeficientes.
3. Descomponer la matriz de los coeficientes A en un producto de matrices
P A

donde P representa una permutaci´on de filas de A y A

= L U,
siendo L y U matrices triangulares inferior y superior, respectivamente.
A = A

si no se utiliza el pivoteo.
Sistemas lineales 53
3.3 Factorizaci´ on LU. Factorizaci´ on de Cholesky
Dado el sistema de ecuaciones Ax = b, si aplicamos el m´etodo de Gauss sin
pivoteo solo a la matriz de los coeficientes y no a los t´erminos independientes
b, obtendremos una descomposici´on de la matriz A en dos matrices A = L U,
siendo L triangular inferior y U triangular superior. Esto permite, por ejemplo,
calcular de forma sencilla el determinante de A:
[A[ = [L[[U[ = (
n
¸
i=1
l
ii
)(
n
¸
i=1
u
ii
).
Adem´as, podemos resolver el sistema de ecuaciones siguiendo estos dos pasos:
Paso 1. Resolvemos el sistema Ly = b y obtenemos una soluci´on y.
Paso 2. Resolvemos el sistema Ux = y. La soluci´on x obtenida ser´a la
soluci´on de Ax = b porque
Ax = LUx = Ly = b.
Los m´etodos de factorizaci´on LU consisten en descomponer la matriz en
producto de dos matrices triangulares, para despu´es aplicar los pasos 1 y 2
anteriores y as´ı resolver el sistema.
Si A = L U tendremos que

¸
¸
¸
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
n1
a
n2
. . . a
nn
¸

=

¸
¸
¸
l
11
0 0 . . . 0
l
21
l
22
0 . . . 0
. . .
l
n1
l
n2
. . . l
nn
¸

¸
¸
¸
u
11
u
12
. . . u
1n
0 u
22
. . . u
2n
. . . u
3n
0 0 . . . u
nn
¸

.
Haciendo el producto de matrices e igualando t´ermino a t´ermino se obtienen
n
2
ecuaciones lineales con n
2
+n inc´ognitas. Si imponemos la condici´on
l
11
= l
22
= = l
nn
= 1
obtendremos un sistema de ecuaciones f´acilmente resoluble. Las soluciones
dan lugar a una descomposici´on L U que es la misma que la obtenida por el
m´etodo de Gauss sin intercambio de filas.
Si A es no singular, una condici´on necesaria y suficiente para que A admita
una descomposici´on LU de la forma anterior es que los menores fundamentales
(todos los determinantes de las matrices formadas con las primeras k filas y
columnas) sean no nulos. En este caso la factorizaci´on es ´ unica.
54 Cap´ıtulo 3
Ejemplo: Resuelve el siguiente sistema mediante factorizaci´ on L U de
Gauss

¸
3 1 2
6 3 2
−3 0 −8
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
2
¸

.
Como [A
11
[ = 3, [A
21
[ =

3 1
6 3

= 0 y A
33
=

3 1 2
6 3 2
−3 0 −8

= 0, el
sistema admite la factorizaci´on L U buscada. Igualando t´ermino a t´ermino
las matrices siguientes

¸
3 1 2
6 3 2
−3 0 −8
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
obtenemos
u
11
= 3
u
12
= 1
u
13
= 2
l
21
u
12
= 6
l
21
u
12
+u
22
= 3
l
21
u
13
+u
23
= 2
l
31
u
11
= −3
l
31
u
12
+l
32
u
22
= 0
l
31
u
13
+l
32
u
23
+u
33
= −8


u
11
= 3
u
12
= 1
u
13
= 2
l
21
= 2
u
22
= 1
u
23
= −2
l
31
= −1
l
32
= 1
u
33
= −4
Paso 1.
Ly = b ⇒

¸
1 0 0
2 1 0
−1 1 1
¸

¸
y
1
y
2
y
3
¸

=

¸
0
1
2
¸


y
1
= 0
y
2
= 1
y
3
= 1
.
Paso 2.
Ux = y ⇒

¸
3 1 2
0 1 −2
0 0 −4
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
1
¸


x
1
= 0
x
2
=
1
2
x
3
=
−1
4
,
que es la soluci´on del sistema.

Sistemas lineales 55
3.3.1 M´etodo de Crout
Si en la factorizaci´on LU fijamos
u
11
= u
22
= = u
nn
= 1
se obtiene la descomposici´on por el m´etodo de Crout, que tiene el inconveniente
que puede producir grandes errores en la resoluci´on del sistema de ecuaciones.
3.3.2 M´etodo de Cholesky
Si en la factorizaci´on LU exigimos que U = L
t
de modo que
l
11
= u
11
, l
21
= u
12
, l
31
= u
13
, . . . , l
ij
= u
ji
, . . . , l
nn
= u
nn
,
se obtiene la descomposici´on por el m´etodo de Cholesky que funciona si y solo
si la matriz inicial A es sim´etrica y definida positiva. Por tanto, si consigo la
descomposici´on de una matriz por el m´etodo de Cholesky, puedo asegurar que
dicha matriz es sim´etrica y definida positiva.
La resoluci´on de un sistema de n = 50 ecuaciones con el m´etodo de Cho-
lesky requiere 50
3
/3 operaciones.
3.3.3 Sistemas triangulares
Son sistemas de ecuaciones lineales en los que la matriz de los coeficientes es
de la forma:
A =

¸
¸
¸
¸
¸
a
11
a
12
0 0 0 . . . 0
a
21
a
22
a
23
0 0 . . . 0
0 a
32
a
33
a
34
0 . . . 0
. . .
0 0 . . . 0 a
nn−1
a
nn
¸

.
Aparecen frecuentemente en la resoluci´on num´erica de ecuaciones diferenciales
y en la aproximaci´on por splines c´ ubicos. En la mayor´ıa de los casos, la matriz
admite una descomposici´on de la forma

¸
¸
¸
¸
¸
1 0 0 . . . 0
l
21
1 0 . . . 0
0 l
32
1 0
. . .
0 0 . . . l
nn−1
1
¸

¸
¸
¸
¸
¸
u
11
u
12
0 . . . 0
0 u
22
u
23
0 0
0 0 u
32
u
33
. . . 0
. . .
0 0 . . . u
nn−1
u
nn
¸

.
56 Cap´ıtulo 3
Ejemplo: Dada la matriz

¸
60 30 20
30 20 15
20 15 12
¸

a) Obt´en la descomposici´ on de Cholesky.
b) Obt´en la factorizaci´ on de Gauss sin intercambio de filas y, a partir de ella,
las descomposiciones de Crout y de Cholesky.
a)

¸
60 30 20
30 20 15
20 15 12
¸

= LL
t
=

¸
l
11
0 0
l
21
l
22
0
l
31
l
32
l
33
¸

¸
l
11
l
21
l
31
0 l
22
l
32
0 0 l
33
¸

por tanto
l
2
11
= 60
l
11
l
21
= 30
l
11
l
31
= 20
l
2
21
l
2
22
= 20
l
21
l
31
+l
22
l
32
= 15
l
2
31
+l
2
32
+l
2
33
= 12


l
11
=

60
l
21
=

60/2
l
31
=

60/3
l
22
=

5
l
32
=

5
l
33
=

3/3
b) La factorizaci´on de Gauss se obtiene resolviendo el sistema de ecuaciones
que se deduce de

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
l
21
1 0
l
31
l
32
1
¸

¸
u
11
u
12
u
13
0 u
22
u
23
0 0 u
33
¸

.
La descomposici´on que resulta es
A =

¸
60 30 20
30 20 15
20 15 12
¸

=

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 30 20
0 5 5
0 0 1/3
¸

.
Descomponiendo la segunda matriz de la parte derecha de la igualdad en un
producto de una matriz diagonal por otra triangular superior con 1 en cada
Sistemas lineales 57
elemento de la diagonal, se obtiene que
A =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸
60 0 0
0 5 0
0 0 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

= (∗)
Multiplicando las dos primeras matrices anteriores
(∗) =

¸
60 0 0
30 5 0
20 4 1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

que es la descomposici´on de Crout.
Si en (∗) descomponemos la matriz diagonal
(∗) =

¸
1 0 0
1/2 1 0
1/3 1 1
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸

60 0 0
0

5 0
0 0

1/3
¸

¸
1 1/2 1/3
0 1 1
0 0 1
¸

=
=

¸

60 0 0

60/2

5 0

60/3

5

3/3
¸

¸

60

60/2

60/3
0

5

5
0 0

3/3
¸

que es la descomposici´on de Cholesky.

3.4 Normas y an´alisis del error
Definici´ on: Sea V un espacio vectorial. Una norma sobre V es una aplica-
ci´ on | | : V →R tal que ∀v, w ∈ V y ∀α ∈ R se verifica que:
1. |v| ≥ 0 (v = 0 ⇔|v| = 0)
2. |v +w| ≤ |v| +|w|
3. |αv| = [α[|v|.
58 Cap´ıtulo 3
Ejemplo: las siguientes son normas definidas sobre el espacio vectorial
R
3
:
1. Norma eucl´ıdea o norma 2: |(x, y, z)|
2
=

x
2
+y
2
+z
2
2. Norma del m´ aximo o norma infinito: |(x, y, z)|

= max([x[, [y[, [z[)
3. Norma 1: |(x, y, z)|
1
= [x[ +[y[ +[z[

La norma de un vector mide la ”distancia”de ese vector al origen. La
distancia entre dos vectores se mide con la norma del vector diferencia. Las
normas del ejemplo son diferentes formas de ”medir”las distancias entre los
vectores de R
3
.
Puesto que el conjunto ´
n×n
de las matrices cuadradas de orden n, con
las operaciones suma y producto por un n´ umero real es un espacio vectorial,
para ”medir”matrices tambi´en se utilizar´an normas que, por tanto, tendr´an
que verificar las condiciones de la definici´on de norma. Si adem´as de esas
condiciones se verifica que
|A B| ≤ |A||B| A, B ∈ ´
n×n
entones dicha norma es una norma matricial.
Una norma matricial | |
M
sobre M
n×n
y una norma vectorial | |
V
sobre
R
n
se dice que son compatibles si se verifica que
|Av|
V
≤ |A|
M
|v|
V
∀A ∈ ´
n×n
∀v ∈ R
n
.
Dada cualquier norma vectorial | |
V
sobre R
n
, es posible definir una norma
matricial sobre ´
n×n
de la siguiente forma:
|A|
M
= max¦|Av|
V
: |v|
V
= 1¦
Esta nueva norma se llama norma matricial inducida o subordinada a
la norma vectorial correspondiente. La norma vectorial y su norma matricial
subordinada son siempre compatibles.
Sistemas lineales 59
Ejemplos:
1. La norma matricial inducida por la norma vectorial 1 en R
3
es
|A|
1
=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸

1
= max
1≤j≤n
n
¸
i=1
[a
ij
[.
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸

1
= max(12, 4, 12) = 12.
2. La norma matricial inducida por la norma vectorial 2 en R
3
es
|A|
2
=

ρ(A
t
A).
ρ(A
t
A) es el radio espectral de A
t
A que es el m´aximo de los valores absolutos
de los autovalores de la matriz A
t
A.
Para calcular |A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
debemos calcular primero los au-
tovalores de |A
t
A| que son las ra´ıces de
[A
t
A−αId[ =

¸
13 −α −3 0
−3 1 −α 0
0 0 1 −α
¸

= (1 −α)(α
2
−14α + 4).
Los autovalores de A
t
A son 7 ±

5 y 1 y como consecuencia
|A|
2
=

¸
2 3 0
0 −1 0
0 0 1
¸

2
=

7 +

5
3. La norma matricial inducida por la norma infinito en R
3
es
|A|

=

¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸


= max
1≤i≤n
n
¸
j=1
[a
ij
[.
60 Cap´ıtulo 3
De modo que

¸
3 1 2
6 3 2
−3 0 −8
¸


= max(6, 11, 11) = 11.
4. Se define la norma matricial de Fr¨ obenius como |A| =

¸
1≤i,j≤n
[a
i,j
[
2
.

3.4.1 N´ umero condici´ on de una matriz
Se define el n´ umero de condici´ on de una matriz A como
k(A) = |A||A
−1
|.
El n´ umero de condici´on siempre es mayor o igual que 1 y se utiliza para estimar
si un sistema de ecuaciones Ax = b est´a bien o mal condicionado, es decir, si
peque˜ nos cambios en los datos (A o b) pueden producir grandes cambios en la
soluci´on del sistema.
Supongamos que en vez de b utilizamos
¯
b de modo que la soluci´on del
sistema es ¯ x y A¯ x =
¯
b. Esto puede ser debido a que hay un peque˜ no error
cometido al hacer alguna medida en b o bien porque en vez de la soluci´on
exacta x hemos obtenido una soluci´on aproximada ¯ x. Si denotamos e al error
en la soluci´on y r al error en b o error residual, se verifica que Ae = Ax−A¯ x =
b −
¯
b = r.
Teorema:
1
k(a)
|r|
|b|

|e|
|x|
≤ k(a)
|r|
|b|
.
Demostraci´ on. Veamos que
1
k(a)
r
b

e
x
. Se verifica que
|r||x| = |Ae||A
−1
b| ≤ |A||e||A
−1
||b|
Por tanto
1
|A||A
−1
|
|r|
|b|

|e|
|x|
Vemos que
e
x
≤ k(a)
r
b
. Se verifica que
|e||b| ≤ |A
−1
r||Ax| ≤ |A
−1
||r||A||x|.
Sistemas lineales 61
Por tanto
|e|
|x|
≤ |A||A
−1
|
|r|
|b|
.

Si k(A) est´an cerca de 1 el sistema estar´a bien condicionado porque el error
relativo en la soluci´on
e
x
ser´a similar al error relativo
r
b
en los datos. Si por
el contrario k(A) es muy grande, el sistema puede estar mal condicionado y
peque˜ nos cambios en los datos podr´an producir grandes cambios en la soluci´on.
Ejemplo: Dado el sistema

¸
3.02 −1.05 2.53
4.33 0.56 −1.78
−0.83 −0.54 1.47
¸

¸
x
1
x
2
x
3
¸

=

¸
2
3
5
¸

1. Encuentra el n´ umero de condici´ on de la matriz A de los coeficientes con
| |

.
2. Acota el error relativo de las posibles soluciones en funci´ on del error en
los datos.
a) La matriz inversa redondeada a dos decimales es
A
−1
=

¸
5.66 −7.27 −18.55
200.51 −268.26 −669.91
−76.85 −102.65 −255.88
¸

con lo que
k(a) = |A||A
−1
| = 6.67 1138.68 = 7595.
b) Se verifica que
1
7595
|r|
5

|e|
|x|
≤ 7595
|r|
5
es decir
2.63 10
−5
|r| ≤
|e|
|x|
≤ 1591|r|

62 Cap´ıtulo 3
3.5 Mejora de soluciones
3.5.1 Refinamiento iterativo
Es un m´etodo para mejorar una soluci´on aproximada ya obtenida. Sea ¯ x una
soluci´on aproximada de Ax = b tal que A¯ x =
¯
b. Se verifica que
x = A
−1
b = ¯ x+x−¯ x = ¯ x+A
−1
b+A
−1
¯
b = ¯ x+A
−1
(b−
¯
b) = ¯ x+A
−1
r = ¯ x+e.
El m´etodo consiste en aplicar los siguientes pasos:
1. Calculo r = b −A¯ x con doble precisi´on.
2. Calculo e resolviendo el sistema Ae = r.
3. La nueva soluci´on aproximada ser´a
¯
¯ x = ¯ x +e.
Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´on.
Ejemplo: Si como soluci´ on aproximada del sistema

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
875
539
399
319
¸

se obtiene ¯ x = (0.999988, 1.000137, 0.999670, 1.000215), aplica el m´etodo de
refinamiento iterativo para mejorarla.
1. Calculo r = b −A¯ x con doble precisi´on.
r =

¸
¸
¸
875
539
399
319
¸

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
0.999988
1.000137
0.999670
1.000215
¸

=

¸
¸
¸
−1.05000000 10
−4
−7.0000000 10
−5
−3.5000000 10
−5
−4.8000000 10
−5
¸

.
2. Resuelvo

¸
¸
¸
420 210 140 105
210 140 105 84
140 105 84 70
105 84 70 60
¸

¸
¸
¸
e
1
e
2
e
3
e
4
¸

=

¸
¸
¸
−1.05 10
−4
−7.0 10
−5
−3.5 10
−5
−4.8 10
−5
¸

y obtengo e = (1.1 10
−5
, −1.4 10
−5
, 3.30 10
−4
, −2.15 10
−4
)
3. La nueva soluci´on es
¯
¯ x = (0.999999, 0.999997, 1, 1).

Sistemas lineales 63
3.5.2 Escalamiento
Si en un sistema de ecuaciones los coeficientes de las inc´ognitas son de muy
diferente magnitud, la soluci´on num´erica del sistema puede contener errores.
Ejemplo: Resolvamos el siguiente sistema por eliminaci´on gaussiana:
2x
1
+ 100000x
2
= 100000
x
1
+x
2
= 2

2 100000 100000
1 1 2

(fila 2) −1/2 (fila 1)

2 100000 100000
0 −999991 −99998

De modo que las soluciones son
x
1
=
100000−100000x
2
2
≈ 0
x
2
=
−99998
−99999
≈ 1( redondeado a 4 cifras)
Sin embargo el resultado correcto es x
1
= 1.00002 y x
2
= 0.99998.

Para solucionar este problema se puede recurrir al escalamiento que con-
siste en multiplicar cada ecuaci´on por un n´ umero para que el coeficiente m´as
grande de las inc´ognitas en valor absoluto sea 1. Al aplicar el escalamiento
podemos cometer a su vez errores de redondeo, pero puede ayudar en casos
extremos cuando hay mucha diferencia entre los coeficientes.
Ejemplo: En el caso anterior
0.00002x
1
+x
2
= 1
x
1
+x
2
= 2
redondeando a 4 decimales
x
2
= 1
x
1
+x
2
= 2
aplicando el pivoteo
x
1
+x
2
= 2
x
2
= 1
y las soluciones son x
1
= y x
2
= 1.

64 Cap´ıtulo 3
3.6 M´etodos iterativos
Los m´etodos directos estudiados anteriormente requieren aproximadamente
n
3
/3 operaciones. Son sensibles a errores de redondeo que se acrecientan al
aumentar n. De modo que, aunque te´oricamente conducen a una soluci´on
exacta, en la pr´actica la soluci´on obtenida puede ser peor que la obtenida
aproximadamente por un m´etodo iterativo.
Los m´etodos iterativos est´an especialmente indicados para la resoluci´on
de sistemas con una matriz de gran dimensi´on pero dispersa, es decir, con
muchos ceros, que suelen aparecer por ejemplo en la resoluci´on de ecuaciones
diferenciales en derivadas parciales.
Un m´etodo iterativo de resoluci´on de un sistema de n ecuaciones Ax = b
es aquel a partir de un x
0
∈ R
n
genera una sucesi´on de posibles soluciones
aproximadas x
1
, x
2
, . . . . El m´etodo es convergente si la sucesi´on generada
converge a la soluci´on del sistema a partir de cualquier vector inicial x
0
. Es
consistente si, en caso de converger, el l´ımite es la soluci´on.
Todos las m´etodos iterativos de resoluci´on de un sistema Ax = b se basan
en la descomposici´on de la matriz A en diferencia de dos matrices M − N,
siendo M una matriz regular. De modo que
Ax = b ⇔(M −N)x = b ⇔Mx = Nx +b ⇔x = M
−1
(Nx +b)
Si definimos G(x) = M
−1
(Nx+b), veremos que para encontrar la soluci´on del
sistema basta encontrar un vector fijo de la funci´on G(x). Para ello se genera
una sucesi´on x
k
= G(x
k−1
) partiendo de una determinada soluci´on aproximada
x
0
. La sucesi´on converger´a a la soluci´on en determinadas condiciones.
En la pr´actica, dadas las matrices M y N, puesto que
x
k
= G(x
k−1
) = M
−1
(Nx
k−1
) +b) ⇒Mx
k
= Nx
k−1
+b,
para calcular x
k
a partir de x
k−1
se resuelve el sistema
Mx
k
= Nx
k−1
+b.
Es esencial que M sea una matriz regular y es conveniente que sea una matriz
sencilla para facilitar el c´alculo.
La condici´on que asegura la convergencia es la siguiente.
Sistemas lineales 65
Teorema: En las condiciones anteriores, si existe una norma matricial
tal que |M
−1
N| < 1, entonces la sucesi´ on x
k+1
= G(x
k
) converge a un punto
fijo de la funci´ on G(x).
Demostraci´on. Teniendo en cuenta que
|G(y) −G(y

)| = |M
−1
(Ny +b) −M
−1
(Ny

+b)|
= |M
−1
Ny −M
−1
Ny

| = |M
−1
N(y −y

)|
≤ |M
−1
N||y −y

|.
Si |M
−1
N| < λ < 1 para un cierto λ ∈ R, entonces |G(y)−G(y

)| < λ|y−y

|.
A partir de un vector x
0
vamos generando la sucesi´on x
k+1
= G(x
k
) y se
verifica que
|x
k+1
−x
k
| = |G(x
k
) −G(x)
k−1
| =|G(x
k
−x
k−1
)| <
λ|x
k
−x
k−1
| < . . . < λ
k
|x
1
−x
0
|.
Por tanto
|x
k+p
−x
k
| < |x
k+p
−x
k+p−1
+x
k+p−1
−. . . −x
k
|

p
¸
i=1
|x
k+i
−x
k+i−1
| <
p−1
¸
i=0
λ
k+i−1
|x
1
−x
0
|
= |x
1
−x
0
|
p−1
¸
i=0
λ
k+i−1
= |x
1
−x
0
|
λ
k−1
−λ
k+p−1
1 −λ
k→∞
→ 0.
De modo que la sucesi´on x
k+1
= G(x
k
) es una sucesi´on convergente a un
vector x ∈ R
n
si |M
−1
N| < λ < 1 para un cierto λ ∈ R. Dicho vector x
verifica que
x −G(x) = lim
k→∞
x
k
−G( lim
k→∞
x
k
) = lim
k→∞
G(x
k−1
) −G( lim
k→∞
x
k
)
= G( lim
k→∞
(x
k−1
−x
k
)) = G(0) = 0 ⇒x = G(x).

66 Cap´ıtulo 3
En resumen, un m´etodo iterativo de resoluci´on de un sistema Ax = b
consiste en generar una sucesi´on x
k
= G(x
k−1
) siendo G(x) = M
−1
(Nx + b)
y A = M −N. Hay que tener en cuenta lo siguiente:
1. Si [M[ = 0, puedo calcular x
k
a partir de x
k−1
.
2. Si el sistema Mx = c se resuelve f´acilmente, el m´etodo iterativo es m´as
r´apido.
3. Si |M
−1
N| < 1 para alguna norma matricial, la sucesi´on x
k
converge
a la soluci´on del sistema Ax = b.
3.6.1 M´etodo de Jacobi
Dada la matriz A = (a
ij
)
1≤i,j≤n
, se definen:
D =

¸
¸
¸
a
11
0 0
0 a
22
0 0

0 0 a
nn
¸

, L =

¸
¸
¸
¸
¸
0 0
a
21
0 0
a
31
a
32
0 0

a
n1
a
n2
a
nn−1
0
¸

U =

¸
¸
¸
¸
¸
0 u
12
u
1n
0 0 u
23
u
2n

0 0 u
n−1n
0 0 0
¸

En el m´etodo de Jacobi M = D y N = −(L+U). Para calcula x
k
a partir de
x
k−1
se resuelve el sistema
Dx
k
= −(L +U)x
k−1
+b.
Para aplicar el m´etodo se requiere que a
ii
= 0 para todo i. Si [A[ = 0, esto se
puede conseguir intercambiando filas si fuese necesario.
El m´etodo converge si |M
−1
N| < 1 para alguna norma matricial. Puesto
que
M
−1
N =

¸
¸
¸
0
−a
12
a
11
−a
13
a
11

−a
1n
a
11
−a
21
a
22
0
−a
23
a
22

−a
2n
a
22

−a
n1
a
nn

−a
nn−1
a
nn
0
¸

y
Sistemas lineales 67
|M
−1
N|

= max
1≤i≤n
¸
n
j=1,j=i
[a
ij
[

1
a
ii
,
una condici´on suficiente para que el m´etodo de Jacobi converja es que la matriz
A sea diagonal dominante, es decir que [a
ii
[ >
¸
n
j=1,j=i
[a
ij
[ ∀i = 1, 2, . . . , n.
Como
|M
−1
N|
1
= max
1≤j≤n
¸
n
i=1,i=j

[a
ij
[
1
a
ii

,
otra condici´on suficiente es que lo anterior sea menor que 1.
Por ´ ultimo, una tercera condici´on suficiente es que la matriz D − L − U
sea sim´etrica y definida positiva.
Ejemplo: Aplica una iteraci´ on del m´etodo de Jacobi al siguiente sistema

¸
6 5 0
0 2 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
La matriz es diagonal dominante de modo que la sucesi´on x
k
de vectores
generados mediante el m´etodo de Jacobi converger´a a la soluci´on. Se tiene
que
D =

¸
6 0 0
0 2 0
0 0 3
¸

−(L +U) =

¸
0 −5 0
0 0 −1
−2 0 0
¸

Si elegimos como vector inicial el x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 2 0
0 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −5 0
0 0 −1
−2 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

Por tanto
6x
1
1
= 0
2x
1
2
= 1
3x
1
3
= 0

x
1
1
= 0
x
1
2
=
1
2
x
1
3
= 0
El siguiente vector ser´ıa x
1
= (0, 1/2, 0).

68 Cap´ıtulo 3
3.6.2 M´etodo de Gauss-Seidel
En este m´etodo M = D+L y N = −U. El sistema a resolver para calcular x
k
a partir de x
k−1
ser´a (D+L)x
k
= −Ux
k−1
+b. Distintas condiciones suficientes
para que el m´etodo funcione son:
1. que A sea diagonal dominante
2. que A
t
sea diagonal dominante
3. que A sea sim´etrica y definida positiva.
El m´etodo de Gauss-Seidel es dos veces m´as r´apido que el de Jacobi.
Ejemplo: Aplica el m´etodo de Gauss-Seidel al siguiente sistema

¸
6 2 0
0 5 1
2 0 3
¸

¸
x
1
x
2
x
3
¸

=

¸
0
1
0
¸

.
Tendremos que
D +L =

¸
6 0 0
0 5 0
2 0 3
¸

U =

¸
0 2 0
0 0 1
0 0 0
¸

.
Si partimos de x
0
= (0, 0, 0), habr´a que resolver el sistema

¸
6 0 0
0 5 0
2 0 3
¸

¸
x
1
1
x
1
2
x
1
3
¸

=

¸
0 −2 0
0 0 −1
0 0 0
¸

¸
0
0
0
¸

+

¸
0
1
0
¸

y se obtiene que x
1
= (0, 1/5, 0)

Sistemas lineales 69
3.6.3 M´etodos de relajaci´ on
En el m´etodo de Jacobi, para calcular cada componente de x
k
se utilizan todos
los valores de x
k−1
. Sin embargo, en el m´etodo de Gauss-Seidel, para calcular
la componente i-´esima de x
k
(x
k
i
) se utilizan las componentes x
k
1
, x
k
2
, . . . , x
k
i−1
del vector x
k
y las componentes x
k−1
i+1
, . . . , x
k−1
n
del vector x
k−1
. De este modo,
el c´alculo de las componentes de x
k
se divide en etapas, utilizando en cada
una de ellas un vector diferente:
Etapa 1: calculo x
k
1
usando (x
k−1
2
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 2: calculo x
k
2
usando (x
k
1
, x
k−1
3
, . . . , x
k−1
n
).
Etapa 3: calculo x
k
3
usando (x
k
1
, x
k
2
, x
k−1
4
, . . . , x
k−1
n
).
Etapa n: calculo x
k
n
usando (x
k
1
, x
k
2
, . . . , x
k
n−1
).
En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de
n con el consiguiente ahorro en tiempo. Adem´as, la informaci´on obtenida en
cada etapa se incorpora a la siguiente. Los m´etodos que utilizan esto ´ ultimo se
llaman ”m´etodos de relajaci´on sucesiva”y se desarrollaron para la resoluci´on de
sistemas con matrices de dimensi´on grande pero con casi todos los elementos
nulos.
En un m´etodo de relajaci´on se considera
M =
1
w
D +L N =
1 −w
w
D −U
con lo que M − N = A. w se llama factor de relajaci´on. En funci´on de su
valor se tiene
• Subrelajaci´on si 0 < w < 1.
• Super-relajaci´on si w > 1
• Gauss-Seidel si w = 1.
Si w ∈ (0, 2) el m´etodo no converge. Una condici´on suficiente para la conver-
gencia es que A sea sim´etrica y definida positiva.
Cap´ıtulo 4
Aproximaci´ on de funciones
Dada una tabla de datos como esta
x −1 0 1 2
y −2 −2 0 4
que representa unos valores y en funci´on de otros x, pretendemos encontrar
una funci´on y = f(x) que pase por esos puntos.
4.1 Construcci´ on del polinomio interpolador
Teorema: Dada una tabla de n+1 puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) con
x
i
= x
j
, existe un ´ unico polinomio P
n
(x) de grado menor o igual que n de
modo que
P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n.
Dicho polinomio se llama polinomio interpolador de los puntos.
71
72 Cap´ıtulo 4
Demostraci´on. Consideremos un polinomio cualquiera de grado menor o
igual que n :
P
n
(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Puesto que queremos que P
n
(x
i
) = y
i
∀i = 0, 1, . . . , n tendremos que
a
0
+a
1
x
0
+a
2
x
2
0
+ +a
n
x
n
0
= y
0
a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n
x
n
1
= y
1

a
0
+a
1
x
n
+a
2
x
2
n
+ +a
n
x
n
n
= y
n
que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´ognitas en el que
el determinante de la matriz de los coeficientes es distinto de 0 :

1 x
0
x
2
0
x
n
0
1 x
1
x
2
1
x
n
1

1 x
n
x
2
n
x
n
n

= 0.
Por lo tanto, el sistema es compatible determinado y tiene una ´ unica soluci´on.

Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de
la tabla
x −1 0 1 2
y −2 −2 0 4
Como son 4 puntos buscaremos un polinomio de grado menor o igual que
3 de la forma P
n
(x) = a
0
+a
1
x +a
2
x
2
+a
3
x
3
. El sistema que resulta es
a
0
+a
1
(−1) +a
2
(−1)
2
+a
3
(−1)
3
= −2
a
0
+a
1
(0) +a
2
(0)
2
+a
3
(0)
3
= −2
a
0
+a
1
(1) +a
2
(1)
2
+a
3
(1)
3
= −2
a
0
+a
1
(2) +a
2
(2)
2
+a
3
(2)
3
= 4
Que es un sistema compatible determinado y que, por tanto, tiene una ´ unica
soluci´on, es decir, existe un ´ unico polinomio de grado menor o igual que 3 que
pasa por los puntos de la tabla. Dicho polinomio es P(x) = −2 +x +x
2
.

Aproximacion de funciones 73
4.1.1 M´etodo de Lagrange
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), el polinomio interpolador
P
n
(x) se puede calcular as´ı:
P
n
(x) =
n
¸
i=0
L
i
(x)y
i
donde
L
i
(x) =
Π
j=i
(x −x
j
)
Π
j=i
(x
i
−x
j
)
=
(x −x
0
)(x −x
1
) . . . (x −x
i−1
)(x −x
i+1
) . . . (x −x
n
)
(x
i
−x
0
)(x
i
−x
1
) . . . (x
i
−x
i−1
)(x
i
−x
i+1
) . . . (x
i
−x
n
)
.
Se verifica que
L
i
(x
i
) = 1 L
i
(x
j
) = 0 ∀i = j
de modo que
P
n
(x
j
) =
n
¸
i=0
L
i
(x
j
)y
i
= y
j
.
Ejemplo: En el ejemplo anterior
L
0
(x) =
x(x−1)(x−2)
(−1)(−2)(−3)
L
1
(x) =
(x+1)(x−1)(x−2)
1(−1)(−2)
L
2
(x) =
(x+1)x(x−2)
2·1(−1)
L
3
(x) =
(x+1)x(x−1)
3·2·1

4.1.2 M´etodo de Newton
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
), se pueden calcular las dife-
rencias divididas
• de primer orden: [x
i
, x
i+1
] =
y
i+1
−y
i
x
i+1
−x
i
• de segundo orden: [x
i
, x
i+1
, x
i+2
] =
[x
i+1
,x
i+2
]−[x
i
,x
i+1
]
x
i+2
−x
i

• de orden k [x
i
, x
i+1
, . . . , x
i+k
] =
[x
i+1
,··· ,x
i+k
]−[x
i
,··· ,x
i+k−1
]
x
i+k
−x
i
Las diferencias divididas son invariantes frente a permutaciones. Por ejemplo:
[x
0
, x
1
, x
2
] = [x
1
, x
0
, x
2
].
La tabla siguiente permite construir de forma sencilla las diferencias divididas:
74 Cap´ıtulo 4
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
2
] [x
0
, x
1
, x
2
, x
3
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
3
]
x
2
y
2
[x
2
, x
3
]
x
3
y
3
. . .
El polinomio interpolador se construye a partir de las diferencias divididas as´ı:
P
n
(x) = y
0
+ [x
0
, x
1
](x −x
0
) + [x
0
, x
1
, x
2
](x −x
0
)(x −x
1
) +. . .
+ [x
0
, x
1
, x
2
, . . . , x
n
](x −x
0
)(x −x
1
) . . . (x −x
n−1
).
Ejemplo: En el ejemplo anterior la tabla ser´ıa la siguiente
−1 −2 0 1 0
0 −2 2 1
1 0 4
2 4
y el polinomio ser´ıa P(x) = −2 + 1(x + 1)x.

4.2 Error del polinomio interpolador
Dados los puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
) que provienen de una cierta
funci´on y = f(x), si conocemos cierta informaci´on sobre las derivadas de la
funci´on f(x), podemos estimar el error que se comete al aproximar f(x) por
su polinomio interpolador P
n
(x) de grado menor o igual que n.
Teorema: Sea f(x) una funci´ on n + 1 veces diferenciable en un inter-
valo (a, b) y sea P
n
(x) su polinomio interpolador en los nodos x
0
, x
1
, . . . , x
n
contenidos en [a, b]. Para cada x ∈ [a, b] existe un punto θ
x
∈ (a, b) tal que
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
(x −x
0
)(x −x
1
) . . . (x −x
n
).
Demostraci´on. Sea w(t) = (t − x
0
)(t − x
1
) . . . (t − x
n
). Para un valor fijo
x ∈ [a, b] existe un λ ∈ R tal que f(x)−P
n
(x) = λw(x). De modo que tenemos
la funci´on
Φ(t) = f(t) −P
n
(t) −λw(t)
Aproximacion de funciones 75
que vale 0 en x, x
0
, x
1
, . . . , x
n
. Por tanto, Φ
1)
(t) se anular´a en n + 1 puntos,
Φ
2)
(t) se anular´a en n puntos y Φ
n+1)
(t) se anular´a en 1 punto θ
x
∈ (a, b):
Φ
n+1)

x
) = f
n+1)

x
) −P
n+1)

x
) −λw
n+1)

x
) = 0
es decir
f
n+1)

x
) −λ(n + 1)! = 0 ⇒λ =
f
n+1)

x
)
(n + 1)!
.
Como consecuencia
f(x) −P
n
(x) =
f
n+1)

x
)
(n + 1)!
w(x).

Ejemplo: El error al aproximar la funci´on f(x) = sen(x) en un punto
x ∈ [0, 1] mediante un polinomio interpolador en 9 nodos contenidos en el
intervalo [0, 1] se puede acotar as´ı:
[f(x) −P
9
(x)[ ≤
[f
10)

x
)[
10!

9
i=0
(x −x
i
)[ ≤
1
10!
< 2.8 10
−7

4.2.1 Elecci´ on de nodos. Polinomios de Chebyshev
Si pretendemos encontrar un polinomio que interpole a una determinada fun-
ci´on y los nodos no est´an previamente fijados, ¿qu´e nodos podemos elegir?
Elegir los nodos proporcionados por los polinomios de Chebyshev tienen algu-
na ventaja.
Definici´ on: Los polinomios de Chebyshev se definen as´ı:
T
0
(x) = 1 T
1
(x) = x T
n+1
(x) = 2xT
n
(x) −T
n−1
(x) si n ≥ 1
Proposici´ on: Las ra´ıces del polinomio de Chebyshev T
n
(x) si n ≥ 1 son
los valores
cos

2j −1
2n
π

∀1 ≤ j ≤ n.
76 Cap´ıtulo 4
Como consecuencia, todas las ra´ıces de cualquier polinomio de Chebyshev
est´an contenidas en el intervalo [−1, 1].
Teorema: Si los nodos (x
i
), con i = 0, 1, . . . , n, de interpolaci´ on de una
funci´ on f(x) en x ∈ [−1, 1] son las ra´ıces del polinomio de Chebyshev T
n+1
(x),
entonces
[f(x) −P
n
(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[.
La justificaci´on del teorema se basa en que la expresi´on
max
|x|≤1
Π
n
i=0
[(x −x
i
)[
que proviene de la f´ormula general del error en la interpolaci´on, se hace m´ınima
cuando x
i
son las ra´ıces del polinomio de Chebyshev correspondiente. El re-
sultado del teorema permite encontrar una cota del error del polinomio inter-
polador m´as peque˜ na que la establecida con car´acter general.
Si en lugar del intervalo [−1, 1] tenemos un intervalo [a, b], si aplicamos a
los nodos de Chebyshev la transformaci´on af´ın que lleva el intervalo [−1, 1] en
el intervalo [a, b], obtenemos unos nuevos nodos tales que:
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
[f
n+1)
(t)[.
Ejemplo: Calcula los cuatro nodos para la interpolaci´ on de una funci´ on
en el intervalo [−1, 1] y en el intervalo [2, 8] haciendo uso de los polinomio de
Chebyshev. Establece una cota del error en cada caso para la funci´ on f(x) =
sin(x).
Calculamos las ra´ıces de T
4
(x) = 8x
4
−8x
2
+ 1 :
x
0
= −0.9239 x
1
= −0.3827 x
2
= 0.3827 x
3
= 0.9239.
Estos ser´ıa los nodos en el intervalo [−1, 1]. Para calcular los nodos en el
intervalo [2, 8] necesitamos una transformaci´on af´ın αx+β que lleve el intervalo
Aproximacion de funciones 77
[−1, 1] en el intervalo [2, 8] :
[−1, 1] → [2, 8]
−1 → α(−1) +β = 2
1 → α(1) +β = 8
Resolviendo el sistema formado por las dos ´ ultimas ecuaciones, obtenemos que
la transformaci´on es 3x + 5. Aplicamos esta transformaci´on a los nodos de
Chebyshev y obtenemos los nuevos nodos en el intervalo [2, 8] :
x

0
= 2.2284 x

1
= 3.8519 x

2
= 6.1481 x

3
= 7.7716.
Veamos las cotas de los errores para la funci´on f(x) = sin(x) en cada caso.
Para el intervalo [−1, 1] :
[f(x) −P(x)[ ≤
1
2
n
(n + 1)!
max
|t|≤1
[f
n+1)
(t)[ ≤
1
2
3
(4)!
Para el intervalo [2, 8] :
[f(x) −P
n
(x)[ ≤

b−a
2

n+1
2
n
(n + 1)!
max
t∈[a,b]
f
n+1)
(t) ≤
3
4
2
3
4!
.

¿Es cierto que si n aumenta el polinomio P
n
(x) se ”parece”m´as a la fun-
ci´on f(x)? En general la respuesta es que no. Por ejemplo, dada funci´on
f(x) =
1
1+x
2
en [−5, 5], si elegimos los nodos x
i
igualmente espaciados, se pue-
de demostrar que los polinomios no convergen a la funci´on fuera del intervalo
[−3.63, 3.63]. (Ver figura 4.1)
Otro ejemplo es la funci´on f(x) = [x[ en [−1, 1], en la cual la convergencia
se produce solo en los puntos −1, 0, 1.
Sin embargo, si elegimos los nodos de Chebyshev y la funci´on f(x) a in-
terpolar es continua y con derivada continua, entonces P
n
(x) converge uni-
formemente a f(x) en todo el intervalo. No obstante, para cualquier elecci´on
de nodos es posible encontrar una funci´on continua tal que no se produce esa
convergencia uniforme.
78 Cap´ıtulo 4
-4 -2 2 4
0.5
1
1.5
2
-4 -2 2 4
-0.5
0.5
1
1.5
2
Figura 4.1:
1
1+x
2
y sus polinomios interpoladores de grado 10 y 20.
4.3 Interpolaci´ on a trozos y con condiciones sobre
la derivada
4.3.1 Interpolaci´ on a trozos
Si disponemos de ciertos valores de una funci´on f(x) en un intervalo [a, b],
se puede obtener una aproximaci´on a la funci´on f(x) dividiendo el intervalo
en varios intervalos m´as peque˜ nos (subintervalos) y utilizando polinomios de
peque˜ no grado (1,2,3, etc.) distintos para interpolar los valores de cada su-
bintervalo. La siguiente gr´afica muestra la funci´on seno y una funci´on que la
interpola con trozos de recta en varios puntos:
1 2 3 4 5 6
-1
-0.5
0.5
1
Aproximacion de funciones 79
Ejercicio: Dada la tabla
x −1 0 1 2
y −2 −2 0 4
encuentra una funci´ on formada
a) por trozos de recta
b) por trozos de par´ abola
que pase por los puntos anteriores.
4.3.2 Interpolaci´ on con condiciones sobre la derivada
El siguiente es un ejemplo de problema de interpolaci´on con condiciones sobre
la derivada.
Ejemplo 1: Encuentra un polinomio P(x) tal que P(0) = 0, P(1) = 1 y
P

(0.5) = 2.
Puesto que son tres las condiciones que tenemos, cabe pensar que basta
buscar entre los polinomios con tres par´ametros, es decir, los polinomios de
grado 3 de la forma P(x) = a +bx +cx
2
:
P(0) = 0
P(1) = 1
P

(0.5) = 2

a = 0
b +c = 1
b + 2 c 0.5 = 2

a = 0
b +c = 1
b +c = 2
El sistema anterior no tiene soluci´on, con lo que habr´ıa que buscar entre los
polinomios de grado 4. Al plantear las ecuaciones correspondientes resulta un
sistema con soluci´on no ´ unica.

Ejemplo 2 (Interpolaci´on de Hermite): Encuentra un polinomio P(x) que
interpole a una funci´on y = f(x) sabiendo que
x −1 0 1
y 1 1 −1
y

2 0 0
Puesto que hay seis condiciones para la funci´on y sus derivadas buscamos
entre los polinomios de la forma P(x) = a
0
+a
1
x + +a
5
x
5
que tienen seis
80 Cap´ıtulo 4
coeficientes. Planteamos el sistema correspondiente seg´ un las condiciones y
obtenemos lo siguiente:
P(−1) = 1 P

(−1) = 2
P(0) = 1 P

(0) = 0
P(1) = 0 P

(1) = 0

a
0
= 1 a
3
= −3
a
1
= 0 a
4
=
1
2
a
2
=
−3
2
a
5
= 2
Con lo que el polinomio buscado es P(x) = 1 −
3
2
x
2
−3x
3
+
1
2
x
4
+ 2x
5
.

Ejemplo 3 (Interpolaci´on de Hermite c´ ubica a trozos): Encuentra una
funci´ on formada por trozos de polinomios de grado 3 que verifique las siguien-
tes condiciones
x −1 0 1
y 1 1 −1
y

2 0 0
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.2: La funci´on g(x)
Buscamos una funci´on de la forma
g(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
Aproximacion de funciones 81
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
. A partir de
las condiciones planteamos el sistema
P(−1) = 1 P

(−1) = 2 Q(0) = 1 Q

(0) = 0
P(0) = 1 P

(0) = 0 Q(1) = −1 Q

(1) = 0
con lo que
g(x) =

1 + 2x
2
+ 2x
3
si x ∈ [−1, 0]
1 −6x
2
+ 4x
3
si x ∈ [0, 1]
(Ver Figura 4.2)

Ejemplo 5 (Splines c´ ubicos): Encuentra una funci´ on polin´ omica c´ ubica a
trozos que sea de clase (
2
(continua, derivable y con derivada segunda conti-
nua) que verifique las siguientes condiciones
x −1 0 1
y 1 1 −1
-1 -0.5 0.5 1
-1
-0.5
0.5
1
Figura 4.3: La funci´on h(x)
Buscamos una funci´on de la forma
h(x) =

P(x) si x ∈ [−1, 0]
Q(x) si x ∈ [0, 1]
82 Cap´ıtulo 4
donde P(x) = a +bx +cx
2
+dx
3
y Q(x) = a

+b

x +c

x
2
+d

x
3
de modo que
P(−1) = 1 P(0) = 1 Q(0) = 1 Q(1) = −1 P

(0) = Q

(0) P

(0) = Q

(0)
Puesto que tenemos 6 ecuaciones y 8 inc´ognitas necesitamos 2 condiciones
m´as. Por ejemplo, a˜ nadimos las siguientes
P

(−1) = 0 Q

(1) = 0
y obtenemos un sistema compatible determinado de modo que
h(x) =

1 −x −
3
2
x
2

1
2
x
3
si x ∈ [−1, 0]
1 −x −
3
2
x
2
+
1
2
x
3
si x ∈ [0, 1]
(Ver Figura 4.3)

Interpolaci´ on de Hermite
Un problema de interpolaci´on de Hermite consiste en encontrar un polinomio
P(x) (Polinomio de Hermite) tal que
P(x
0
) = y
0
P

(x
0
) = y

0
P

(x
0
) = y

0
P
k
0
−1)
(x
0
) = y
k
0
−1
0
P(x
1
) = y
1
P

(x
1
) = y

1
P

(x
1
) = y

1
P
k
1
−1)
(x
1
) = y
k
1
−1
1

P(x
n
) = y
n
P

(x
n
) = y

n
P

(x
n
) = y

n
P
k
n
−1)
(x
n
) = y
k
n
−1
n
siendo y
i
, y

i
, , y
k)
i
los valores de una cierta funci´on y sus derivadas en n+1
puntos. Si el n´ umero de condiciones impuestas es k
1
+k
2
+ +k
n
= m+ 1
entonces
Teorema: Existe un ´ unico polinomio de grado menor o igual que m que
satisface las condiciones de interpolaci´ on de Hermite anteriores.
Demostraci´on. Sea P(x) un polinomio de grado menor o igual que m. Las
condiciones P
j
(x
i
) = y
j
i
dan lugar a un sistema de m + 1 ecuaciones de la
forma Au = y. Este sistema tiene soluci´on ´ unica si el sistema Au = 0 tiene
´ unicamente la soluci´on 0, es decir, si el sistema formado por las condiciones
P
j)
(x
i
) = 0 tiene como soluci´on ´ unica el polinomio 0. Veamos que esto ´ ultimo
Aproximacion de funciones 83
es cierto. Un polinomio P(x) que sea soluci´on del sistema P
j)
(x
i
) = 0 verifica
que tiene la ra´ız x
i
repetida k
i
veces, con lo que si P(x) no es cero, ser´ıa de
grado mayor o igual que m+ 1, en contradicci´on con la hip´otesis inicial.

Ejercicio: ¿Qu´e otro nombre recibe el polinomio de Hermite cuando solo
hay un nodo?

Teorema. Sean x
0
, x
1
, . . . , x
n
nodos distintos de [a, b] y f ∈ (
2
[a, b]. Si
P(x) es el polinomio de grado menor o igual que 2n+1 tal que P(x
i
) = f(x
i
)
y P

(x
i
) = f

(x
i
), con 0 ≤ i ≤ n, entonces ∀x ∈ [a, b] ∃θ ∈ [a, b] tal que
f(x) −P(x) =
f
2n+2)
(θ)
(2n + 2)!
Π
n
i=0
(x −x
i
)
2

El polinomio de Hermite se puede calcular usando las diferencias divididas.
Para ello definimos
[x
0
, x
0
] = lim
x→x
0
[x
0
, x] = lim
x→x
0
y −y
0
x −x
0
= lim
x→x
0
f(x) −f(x
0
)
x −x
0
= f

(x
0
)
[x
0
, x
0
, x
1
] =
[x
0
, x
1
] −[x
0
, x
0
]
x
1
−x
0
[x
0
, x
0
, x
0
] =
1
2!
f
2)
(x
0
) [x
0
, x
0
, x
0
, x
0
] =
1
3!
f
3)
(x
0
)
Y de forma similar el resto de diferencias. En estas condiciones el polinomio
de interpolaci´on de Hermite se calcula de forma parecida a como se calculaba
el polinomio de interpolaci´on sin condiciones sobre la derivada.
El c´alculo es m´as sencillo haciendo uso de una tabla. Por ejemplo, si el
problema de Hermite incluye datos sobre la funci´on y su derivada en tres
puntos la tabla quedar´ıa as´ı:
x y 1
0
2
0
3
0
4
0
5
0
x
0
y
0
[x
0
, x
0
] [x
0
, x
0
, x
1
] [x
0
, x
0
, x
1
, x
1
] [x
0
, x
0
, x
1
, x
1
, x
2
] [x
0
, . . . , x
2
]
x
0
y
0
[x
0
, x
1
] [x
0
, x
1
, x
1
] [x
0
, x
1
, x
1
, x
2
] [x
0
, x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
1
] [x
1
, x
1
, x
2
] [x
1
, x
1
, x
2
, x
2
]
x
1
y
1
[x
1
, x
2
] [x
1
, x
2
, x
2
]
x
2
y
2
[x
2
, x
2
]
x
2
y
2
84 Cap´ıtulo 4
siendo
[x
0
, x
0
, . . . , x
0
] =
1
k!
f
k)
(x
0
)
k veces
.
El polinomio ser´ıa
P(x) = y
0
+ [x
0
, x
0
](x −x
0
) + [x
0
, x
0
, x
1
](x −x
0
)
2
+
+[x
0
, x
0
, x
1
, x
1
](x −x
0
)
2
(x −x
1
) +
+[x
0
, x
0
, x
1
, x
1
, x
2
](x −x
0
)
2
(x −x
1
)
2
+[x
0
, x
0
, x
1
, x
1
, x
2
, x
2
](x −x
0
)
2
(x −x
1
)
2
(x −x
2
).
Ejemplo: Calcula el polinomio que verifica estas condiciones:
x −1 0 1
y 1 1 −1
y

2 0 0
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
5
0
-1 1 2 −2 2 −3/2 2
-1 1 0 0 −1 5/2
0 1 0 −2 4
0 1 −2 2
1 -1 0
1 -1
El polinomio ser´ıa
P(x) = 1+2(x+1)−2(x+1)
2
+2(x+1)
2
x−3/2(x+1)
2
x
2
+2(x+1)
2
x
2
(x−1)

Ejemplo: Calcula el polinomio que verifica las siguientes condiciones:
x 1 2
y 2 6
y

3 7
y

8
Aproximacion de funciones 85
En este caso la tabla quedar´ıa as´ı
x y 1
0
2
0
3
0
4
0
1 2 3 1 2 −1
1 2 4 3 1
2 6 7 8/2!=4
2 6 7
2 6
El polinomio ser´ıa
P(x) = 2 + 3(x −1) + 1(x −1)
2
+ 2(x −1)
2
(x −2) −1(x −1)
2
(x −2)
2
.

Interpolaci´ on c´ ubica de Hermite a trozos
Dada la tabla de valores
x x
0
x
1
x
n
y y
1
y
2
y
n
y

y

1
y

2
y

n
correspondientes a una cierta funci´on y sus derivadas, el m´etodo de inter-
polaci´on c´ ubica de Hermite a trozos consiste en encontrar una ´ unica funci´on
derivable definida a trozos, tal que en cada intervalo [x
i
, x
i+1
] (i = 0, . . . , n−1),
la funci´on es un polinomio P
i
(x) de grado menor o igual a 3 que verifica lo
siguiente
P
i
(x
i
) = y
i
P
i
(x
i+1
) = y
i+1
P

(x
i
) = y

i
P

i
(x
i+1
) = y

i+1
.
Planteando los correspondientes sistemas de ecuaciones, se puede encontrar la
´ unica funci´on que interpola en esas condiciones.
Splines
Una funci´on spline de grado k con nodos x
0
≤ x
1
≤ ≤ x
n
es una funci´on
S(x) definida a trozos tal que:
a) S(x) es un polinomio S
i
(x) de grado menor o igual que k en cada inter-
valo [x
i
, x
i+1
], con i = 0, 1, . . . , n −1.
b) S(x) admite derivada segunda continua de orden k −1 en [x
0
, x
n
].
86 Cap´ıtulo 4
El spline c´ ubico (k = 3) es el m´as usado en interpolaci´on. Un spline c´ ubico de
interpolaci´on en ¦x
0
, x
1
, . . . , x
n
¦ es una funci´on que cumple las propiedades
a), b) y S(x
i
) = f(x
i
), con i = 0, 1, . . . , n. El n´ umero de condiciones que se
han de cumplir es el siguiente:
condici´on ecuaciones num. ec.
continuidad S
i−1
(x
i
) = S
i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 1
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
derivada 2
a
continua S

i−1
(x
i
) = S

i
(x
i
) con i = 1, . . . , n −1 n −1
interpolaci´on S
i
(x
i
) = y
i
con i = 0, . . . , n n + 1
total 4n −2
Cada polinomio c´ ubico S
i
(x), con i = 0, . . . , n − 1, tendr´a 4 par´ametros,
con lo que el n´ umero de inc´ognitas ser´a 4n−4. Por lo tanto, para poder resolver
el correspondiente sistema de ecuaciones hemos de a˜ nadir dos condiciones m´as
y podemos hacerlo de distintas formas:
• Si exigimos S

(x
0
) = 0 y S

(x
n
) = 0 obtendremos el spline c´ ubico
natural.
• Si exigimos S

(x
0
) = S

(x
n
) y S

(x
0
) = S

(x
n
) obtendremos el spline
peri´odico.
Se pueden elegir otras condiciones distintas del spline natural o del peri´odico.
Sin embargo, los splines natural y peri´odico existen y son ´ unicos para cualquier
conjunto de nodos y de datos. Adem´as, si la funci´on a interpolar f(x) tiene
derivada segunda continua en [x
0
, x
n
], entonces

b
a
[S

(x)]
2
dx ≤

b
a
[f

(x)]
2
dx,
siendo S(x) el spline natural. Es decir, de entre todas las funciones con deriva-
da segunda continua que pasan por ciertos puntos (x
0
, y
0
), (x
1
, y
1
), . . . , (x
n
, y
n
)
el spline natural es el que tiene menor energ´ıa el´astica (menor tensi´on
1
).
Por otra parte, si aumentamos el n´ umero de puntos a interpolar en el
intervalo [a, b] (n →∞) disminuyendo simult´aneamente el tama˜ no m´aximo de
los subintervalos [x
i
, x
i+1
] (max
0≤i≤n
[x
i
, x
i+1
] →0), entonces el spline natural
y su derivada convergen uniformemente a f(x) y f

(x) respectivamente.
1
La tensi´ on o energ´ıa el´ astica en [a, b] es proporcional a

b
a
[f

(x)]
2
dx.
Cap´ıtulo 5
Diferenciaci´ on e integraci´ on
num´erica
5.1 Diferenciaci´ on num´erica y extrapolaci´ on de Ri-
charson
¿Puede calcularse la derivada de una funci´on f(x) en un punto si se conocen
solo los valores de la funci´on f(x
0
), f(x
1
),. . . ,f(x
n
) en n + 1 puntos? Si la
funci´on es un polinomio de grado n, entonces seguro que se puede. Si de
la funci´on solo sabemos que es derivable, entonces no ser´a posible, pues hay
muchas funciones derivables que pasan por los mismos puntos. El objetivo de
esta secci´on es estimar el valor de f

(x) a partir de los valores de la funci´on
en ciertos puntos f(x
0
), f(x
1
),. . . ,f(x
n
) dando una cota del error cometido.
Dado que
f

(x) = lim
h→0
f(x +h) −f(x)
h
una primera estimaci´on es
f

(x) ≈
f(x +h) −f(x)
h
que es aplicable cuando conocemos los valores de la funci´on en dos puntos:
x
0
= x y x
1
= x+h. La f´ormula anterior es exacta para funciones lineales (por
ejemplo, para f(x) = 3x+2) y en otros casos de manera fortuita. Calculemos
87
88 Cap´ıtulo 5
una cota del error. Por el teorema de Taylor:
f(x +h) = f(x) +f

(x)h +
f

(θ)
2!
h
2
es decir
f

(x) =
f(x +h) −f(x)
h

h
2
f

(θ).
El error al aproximar f

(x) por f

(x) =
f(x+h)−f(x)
h
, llamado error de trunca-
miento, es
error = −
h
2
f

(θ) (f´ormula de orden h)
siendo θ un n´ umero entre x y x + h. Cuanto menor sea h, mejor ser´a la
aproximaci´on de f

(x), hasta que el error de redondeo impida la mejora.
Ejemplo: Estima el valor de la derivada de cos(x) en el punto
π
4
y calcula
una cota del error cometido.
Tomando como h = 0.01
f

(
π
4
) ≈
f(
π
4
+h) −f(
π
4
)
h
=
cos(
π
4
+ 0.01) −cos(
π
4
)
0.01
= −0.71063050.
La cota del error ser´ıa
[error[ = [ −
h
2
f

(θ)[ = [
0.01
2
cos(θ)[ ≤
0.01
2
= 0.005.

Otra estimaci´on de f

(x) es
f

(x) ≈
f(x +h) −f(x −h)
2h
.
Veamos la estimaci´on del error. Del teorema de Taylor se deduce que
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f


1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f


2
).
Diferenciaci´ on e integraci´ on 89
Si restamos las ecuaciones anteriores
f(x +h) −f(x −h) = 2f

(x)h +
h
3
6
[f


1
) +f


2
)].
Despejando
f

(x) =
f(x +h) −f(x −h)
2h

h
2
12
[f


1
) +f


2
)]
con lo que el error de truncamiento ser´ıa

h
2
12
[f


1
) +f


2
)]
siendo θ
1
un n´ umero entre x y x+h y θ
2
un n´ umero entre x y x−h. Si f

(x)
existe y es continua en [x−h, x+h], entonces existe un n´ umero θ ∈ [x−h, x+h]
tal que f

(θ) =
f


1
)+f


2
)
2
, con lo que error de truncamiento quedar´ıa
error = −
h
2
6
f

(θ) (f´ormula de orden h
2
).
Para estimar el valor de una derivada segunda podemos usar la f´ormula
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2
.
Veamos la estimaci´on del error. Por el teorema de Taylor
f(x +h) = f(x) +f

(x)h +
h
2
2
f

(x) +
h
3
6
f

(x) +
h
4
24
f
4)

1
)
f(x −h) = f(x) −f

(x)h +
h
2
2
f

(x) −
h
3
6
f

(x) +
h
4
24
f
4)

2
)
.
Si sumamos las ecuaciones anteriores y despejamos
f

(x) =
f(x +h) −2f(x) +f(x −h)
h
2

h
2
24
[f
4)

1
) +f
4)

2
)].
Siendo θ
1
y θ
2
n´ umeros que est´an entre x y x +h y entre x y x −h. Si f
4)
(x)
existe y es continua, entonces existe un n´ umero θ ∈ [x −h, x +h] tal que
error =
h
2
12
f
4)
(θ) (f´ormula de orden h
2
)
90 Cap´ıtulo 5
5.1.1 Diferenciaci´ on mediante interpolaci´ on
Dada una funci´on f(x) y recordando c´omo se calcula el polinomio de interpo-
laci´on en los puntos x
0
, x
1
, . . . ,x
n
, se tiene que :
f(x) =
n
¸
i=0
f(x
i
)L
x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w(x)
donde w(x) = Π
n
i=0
(x −x
i
). Si derivamos
f

(x) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x) +
1
(n + 1)!
f
n+1)

x
)w

(x)
+
1
(n + 1)!
w(x)
d
dx
(f
n+1)

x
))

Si x = x
k
f

(x
k
) =
n
¸
i=0
¸
f(x
i
)L

x
i
(x
k
) +
1
(n + 1)!
f
n+1)

x
k
)w

(x
k
)

.
Y como
w

(x) =
n
¸
i=0
Π
n
j=0,j=i
(x −x
j
) ⇒w

(x
k
) = Π
n
j=0,j=k
(x
k
−x
j
)
nos queda
f

(x
k
) =
n
¸
i=0

f(x
i
)L

x
i
(x
k
)

+
1
(n + 1)!
f
n+1)

x
k

n
j=0,j=k
(x
k
−x
j
)
que es una forma de calcular un valor aproximado de f

(x
k
) a partir de los
valores x
0
, x
1
, . . . ,x
n
.
Diferenciaci´ on e integraci´ on 91
Ejemplo: a) Aplica la f´ ormula anterior para calcular f

(x
1
) con n = 2.
b) Calcula lo anterior con x
1
−x
0
= x
2
−x
1
= h
Apartado a). Puesto que
L
x
0
=
(x −x
1
)(x −x
2
)
(x
0
−x
1
)(x
0
−x
2
)
L
x
1
=
(x −x
0
)(x −x
2
)
(x
1
−x
0
)(x
1
−x
2
)
L
x
2
=
(x −x
0
)(x −x
1
)
(x
2
−x
0
)(x
2
−x
1
)
se tiene que
L

x
0
=
2x −x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
L

x
1
=
2x −x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
L

x
2
=
2x −x
0
−x
1
(x
2
−x
0
)(x
2
−x
1
)
.
Por tanto
f

(x
1
) ≈ f(x
0
)
x
1
−x
2
(x
0
−x
1
)(x
0
−x
2
)
+f(x
1
)
2x
1
−x
0
−x
2
(x
1
−x
0
)(x
1
−x
2
)
+f(x
2
)
x
1
−x
0
(x
2
−x
0
)(x
2
−x
1
)
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(x
1
−x
0
)(x
1
−x
2
).
Apartado b). Siendo x
0
= x
1
− h y x
2
= x
1
+ h se obtiene la f´ormula ya
conocida
f

(x
1
) ≈ f(x
1
−h)
−h
(−h)(−2h)
+f(x
1
)
2x
1
−(x
1
−h) −(x
1
+h)
(h)(−h)
+f(x
1
+h)
h
(2h)(h)
f(x
1
+h) −f(x
1
−h)
2h
,
siendo el error de esta aproximaci´on
1
3!
f
3)

x
1
)(h)(−h) = −
1
3!
f
3)

x
1
)h
2
.

92 Cap´ıtulo 5
5.1.2 Extrapolaci´ on de Richarson
La extrapolaci´on de Richarson sirve para generar resultados de gran exactitud
cuando se usan f´ormulas de bajo orden. La extrapolaci´on puede aplicarse
siempre a cualquier m´etodo de aproximaci´on en el que sepamos el t´ermino de
error de una forma previsible y se basa en un par´ametro que generalmente es
el tama˜ no de paso h.
Por el teorema de Taylor sabemos que
f(x +h) =

¸
k=0
1
k!
h
k
f
k)
(x) y f(x +h) =

¸
k=0
1
k!
(−1)
k
h
k
f
k)
(x).
Restando las f´ormulas anteriores
f(x +h) −f(x −h) = 2hf

(x) +
2
3!
h
3
f
3)
(x) +
2
5!
f
5)
(x) +. . .
y despejando f

(x)
f

(x) =
f(x +h) −f(x −h)
2h

¸
f
3)
(x)
3!
h
2
+
f
5)
(x)
5!
h
4
+
f
7)
(x)
7!
h
6
+. . .
¸
.
Si definimos Φ(h) =
f(x+h)−f(x−h)
2h
y denotamos a
i
al coeficiente de h
i
en la
f´ormula anterior, tenemos
f

(x) = Φ(h) +a
2
h
2
+a
4
h
4
+a
6
h
6
+. . . (5.1)
que es la f´ormula ya conocida de aproximaci´on de f

(x)
f

(x) ≈ Φ(h) con error = h
2

a
2
+a
4
h
2
+a
6
h
4
+. . .

Si sustituimos h por h/2
f

(x) = Φ(
h
2
) +
a
2
2
2
h
2
+
a
4
2
4
h
4
+
a
6
2
6
h
6
+. . .
y multiplicando por 4
4f

(x) = 4Φ(
h
2
) +a
2
h
2
+
a
4
4
h
4
+
a
6
2
4
h
6
+. . . (5.2)
Diferenciaci´ on e integraci´ on 93
con lo que (5.2)-(5.1) es
3f

(x) = 4Φ(
h
2
) −Φ(h) −
3a
4
4
h
4

15a
6
16
h
6
que, despejando f

(x), da origen a la f´ormula de aproximaci´on
f

(x) ≈
4
3
Φ(
h
2
) −
1
3
Φ(h) con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

que tambi´en puede expresarse
f

(x) ≈ Φ(
h
2
) +
Φ(
h
2
) −Φ(h)
3
con error = h
4
¸

a
4
4

5a
6
16
h
2
−. . .

Ejemplo: Siendo f(x) = arctan(x), calcula f

(

2) haciendo uso de la
extrapolaci´on de Richarson.
Tomamos h = 0.1.
f

(x) ≈ Φ(h) =
f(x +h) −f(x −h)
2h
=
f(

2 + 0.1) −f(

2 −0.1)
2 0.1
= 0.3339506968
y
f

(x) ≈ Φ(h/2) = 0.3334876594
Usando la extrapolaci´on
f

(x) ≈ Φ(h/2) +
Φ(h/2) −Φ(h)
3
= 0.3333333136
(El valor exacto es 1/3).

94 Cap´ıtulo 5
Si en la f´ormula (5.1.2) denotamos Ψ(h) =
4
3
Φ(
h
2
) −
1
3
Φ(h), b
4
=
−a
4
4
,
b
6
=
−5a
6
16
, . . . obtenemos la expresi´on
f

(x) = Ψ(h) +b
4
h
4
+b
6
h
6
+. . . (5.3)
Sustituyendo h por h/2
f

(x) = Ψ(h/2) +b
4

h
2

4
+b
6

h
2

6
+. . .
y multiplicando por 2
4
16f

(x) = 16Ψ(h/2) +b
4
h
4
+b
6
h
6
4
+. . . (5.4)
Restando (5.4)-(5.3) nos queda
15f

(x) = 16Ψ(h/2) −Ψ(h) −3b
6
h
6
4
+. . .
y al despejar f

(x)
f

(x) =
16
15
Ψ(h/2) −
1
15
Ψ(h) −b
6
h
6
20
+. . .
da origen a la f´ormula
f

(x) ≈
16
15
Ψ(h/2) −
1
15
Ψ(h) con error =h
6
¸
−b
6
1
20
+. . .

que tambi´en puede expresarse
f

(x) ≈ Ψ(h/2) +
Ψ(h/2) −Ψ(h)
15
con error =h
6
¸
−b
6
1
20
+. . .

El proceso puede continuar de forma similar tomando ahora otra funci´on
Ω(h) =
16
15
Ψ(h/2) −
1
15
Ψ(h). Se puede demostrar el siguiente resultado:
Teorema: El algoritmo de Richarson genera aproximaciones a f

(x) cada
vez de un orden superior.
Diferenciaci´ on e integraci´ on 95
Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular
f

(

2) siendo f(x) = arctan(x) y tomando h = 0.1.
Aplicamos la f´ormula (5.1.2) con h y h/2 para obtener las dos primeras
aproximaciones de orden 2
Φ(0.1) =
arctan(

2 + 0.1) −arctan(

2 −0.1)
2 0.1
= 0.33395069677432
Φ(0.05) =
arctan(

2 + 0.05) −arctan(

2 −0.05)
2 0.05
= 0.33348765942111
A partir de esos dos valores y aplicando la f´ormula (5.1.2) calculamos la apro-
ximaci´on Ψ(h) que es de orden 4
Ψ(0.1) = Φ(0.05) +
Φ(0.05) −Φ(0.1))
3
= 0.33333331363671
Calculando Φ(h/4) (Φ(0.025) = 0.33337191390106) podremos tambi´en calcu-
lar Ψ(h/2)
Ψ(0.05) = Φ(0.025) +
Φ(0.025) −Φ(0.05)
3
= 0.33333333206104
y a partir de estos dos valores obtenemos la aproximaci´on Ω(h)
Ω(0.1) = Ψ(0.05) +
Ψ(0.05) −Ψ(0.1)
15
= 0.33333333328933.

En general, el proceso de extrapolaci´on de Richarson puede resumirse as´ı:
Etapa 0. Calculo distintas aproximaciones R(0, h) en funci´on de un par´ametro
h (en nuestro caso R(0, h) = Φ(h) =
f(x+h)−f(x−h)
2h
).
Etapa 1. A partir de R(0, h) y de R(0, h/2) calculo las aproximaciones
R(1, h) = R(0, h/2) +
R(0, h/2) −R(0, h)
4
1
−1
.
Etapa 2. A partir de R(1, h) y de R(1, h/2) calculo las aproximaciones
R(2, h) = R(1, h/2) +
R(1, h/2) −R(1, h)
4
2
−1
.
96 Cap´ıtulo 5
Etapa n. A partir de R(n −1, h) y de R(n −1, h/2) calculo las aproxima-
ciones
R(n, h) = R(n −1, h/2) +
R(n −1, h/2) −R(n −1, h)
4
n
−1
.
Etapa 0 Etapa 1 Etapa 2 Etapa 3 . . .
R(0, h)
R(0, h/2) R(1, h)
R(0, h/4) R(1, h/2) R(2, h)
R(0, h/8) R(1, h/4) R(2, h/2) R(3, h)
. . . . . . . . . . . . . . .
5.2 Integraci´ on num´erica mediante interpolaci´ on
El objetivo es obtener un valor aproximado de

b
a
f(x)dx sin calcular la pri-
mitiva de f(x). La idea es sustituir

b
a
f(x)dx por

b
a
p(x)dx, siendo p(x) una
funci´on que se parezca a f(x), por ejemplo un polinomio interpolador en unos
nodos x
0
, x
1
, . . . , x
n
del intervalo [a, b]. Si utilizamos el m´etodo de Lagrange
para calcular el polinomio interpolador
p(x) =
n
¸
i=0
f(x
i
)l
x
i
(x) con l
x
i
(x) =
n
¸
j=0
x −x
j
x
i
−x
j
,
tendr´ıamos que

b
a
f(x)dx ≈

b
a
p(x)dx =
n
¸
i=0
f(x
i
)

b
a
l
x
i
(x)
es decir, obtenemos una f´ormula como esta

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
). (5.5)
En el ejemplo anterior A
i
=

b
a
l
x
i
(x)dx. Una expresi´on como (5.5) se denomina
f´ormula de cuadratura y los puntos x
i
son los nodos de cuadratura. Las
f´ormulas as´ı construidas son exactas para los polinomios de grado menor o
igual que n (¿por qu´e?). Si en el ejemplo utilizado los nodos est´an igualmente
espaciados, estaremos hablando del ”m´etodo de Newton-Cˆ otes”.
Diferenciaci´ on e integraci´ on 97
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-3 -2 -1 1 2
-1
-0.5
0.5
1
Figura 5.1: f´ormulas de cuadratura gr´aficamente
5.2.1 Regla del trapecio
El caso particular del m´etodo de Newton-Cˆ otes con n = 1 se conoce co-
mo el m´etodo del trapecio. Puesto que l
x
0
(x) =
b−x
a−x
, l
x
1
(x) =
x−a
b−a
, A
0
=

b
a
l
x
0
(x)dx =
1
2
(b −a) y A
0
=

b
a
l
x
1
(x)dx =
1
2
(b −a), la f´ormula de cuadratu-
ra queda as´ı

b
a
f(x)dx ≈
n
¸
i=0
A
i
f(x
i
) =
b −a
2
[f(a) +f(b)]
La expresi´on del error del polinomio de interpolaci´on p(x) para n = 1 es
f(x) −p(x) =
f


x
)
2
(x −a)(x −b), de modo que

b
a
f(x)dx −

b
a
p(x)dx =

b
a
f(x) −p(x)dx =

b
a
f


x
)
2
(x −a)(x −b)dx
Puesto que (x − a)(x − b) no cambia de signo en todo [a, b] y suponiendo
que f

(x)/2 es una funci´on continua en [a, b], aplicando la generalizaci´on del
teorema de valor medio del c´alculo integral
1
obtenemos que el error es
f

(ξ)
2

b
a
(x −a)(x −b)dx =
f

(ξ)
2
(a −b)
3
6
1
Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a, b]. Si
g(x) no cambia de signo en todo x ∈ [a, b] y h(x) es continua en [a, b], entonces existe un
punto ξ ∈ [a, b] tal que:

b
a
h(x)g(x)dx = h(ξ)

b
a
g(x)dx,
.
98 Cap´ıtulo 5
para un cierto valor ξ ∈ (a, b). En resumen, si h = b − a, la Regla del
Trapecio quedar´ıa as´ı:

b
a
f(x)dx ≈
h
2
[f(a) +f(b)] con error=−f

(ξ)
h
3
12
(5.6)
para un cierto ξ ∈ [a, b].
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 1
(regla del trapecio).

0.2
0
e
x
2
dx ≈
0.2 −0
2
[e
0
+e
0.2
] = 0.20408107741924
Sabiendo que si x ∈ [0, 0.2] entonces
[f

(x)[ = [2e
x
2
+4x
2
e
x
2
[ ≤ [f

(0.2)[ = [2e
0.2
2
+40.2e
0.2
2
[ = 2.248151272255559,
una cota del error ser´a
[ −2.248151272255559
0.2
3
12
[ = 0.00149876751484.

5.2.2 Regla de Simpson
La f´ormula de Newton-Cˆ otes para n = 2 o n = 3 se llama Regla de Simpson.
El caso n = 2, h =
b−a
2
y x
i
= x
0
+ih, se conoce como la regla de Simpson
1/3:

b
a
f(x)dx ≈
h
3
[f(x
0
) + 4f(x
1
) +f(x
2
)] con error −f
4)
(ξ)
h
5
90
para un cierto ξ ∈ [a, b]. Por ser una f´ormula de Newton-Cˆ otes con tres puntos
es exacta para polinomios de grado menor o igual que 2; pero adem´as es exacta
para los polinomios de grado menor o igual que 3, ya que el t´ermino del error
contiene el factor f
4)
(ξ).
Diferenciaci´ on e integraci´ on 99
El caso n = 3, h =
b−a
3
y x
i
= x
0
+ ih, se conoce como la regla de
Simpson 3/8:

b
a
f(x)dx ≈
3h
8
[f(x
0
) + 3f(x
1
) + 3f(x
2
) +f(x
3
)] con error −f
4)
(ξ)
3h
5
80
para un cierto ξ ∈ [a, b]. Es mejor usar la regla de Simpson 1/3 que la de
3/8, puesto que ambas son de orden 5 y [ − 1/90[ < [ − 3/80[. En general
es preferible usar una regla con n par (n´ umero impar de puntos) que con n
impar.
Ejemplo: Calcula

0.2
0
e
x
2
dx con la f´ormula de Newton-Cˆ otes con n = 2
(regla de Simpson 1/3).

0.2
0
e
x
2
dx ≈
0.2/2
3
[e
0
+e
0.1
2
+e
0.2
2
] = 0.2027
Sabiendo que si x ∈ [0, 0.2] entonces
[f
4)
(x)[ = [12e
x
2
+ 48e
x
2
x
2
+ 16e
x
2
x
4
[ ≤ [f
4)
(0.2)
= [12e
0.2
2
+ 48e
0.2
2
0.2
2
+ 16e
0.2
2
0.2
4
[ = 14.5147,
una cota del error ser´a
[ −14.5147
(0.2/2)
5
90
[ = 1.6 ∗ 10
−6

5.2.3 Reglas compuestas
Este m´etodo consiste en dividir el intervalo [a, b] en subintervalos y aplicar
en cada uno de ellos una regla simple. Por ejemplo, la regla del trapecio
compuesta consiste en fijar unos puntos a = x
0
< x
1
< < x
n−1
< x
n
= b y
aplicar la regla del trapecio a cada intervalo [x
i−1
, x
i
]:

b
a
f(x)dx =
n
¸
i=1

x
i
x
i−1
f(x)dx ≈
1
2
n
¸
i=1
(x
i
−x
i−1
) [f(x
i−1
) +f(x
i
)] .
Es equivalente a sustituir f(x) por una funci´on que interpole a f(x) y que
est´e formada por trozos de l´ınea. Si los puntos est´an igualmente espaciados
100 Cap´ıtulo 5
(h = x
i
−x
i−1
=
b−a
n
, x
i
= a +ih con i = 1, 2, . . . , n), la regla del trapecio
compuesta nos queda

b
a
f(x)dx ≈
h
2
[f(x
0
) + 2f(x
1
) + +2f(x
n−1
) +f(x
n
)]
con error −
h
2
12
(b −a)f

(ξ)
para un cierto ξ ∈ [a, b]. La f´ormula es exacta para polinomios de grado
menor o igual que 1.
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
-1 1 2
0.2
0.4
0.6
0.8
1
Figura 5.2: Regla del trapecio compuesta con 3 y 4 puntos
Ejemplo: Calcula un valor aproximado de

0.2
0
e
x
2
dx mediante la regla
del trapecio compuesta.
Si tomamos tres puntos x
0
= 0, x
1
= 0.1 y x
2
= 0.2

0.2
0
e
x
2
dx ≈
0.1
2

e
0
+ 2e
0.1
2
+e
0.2
2

= 0.201085
Una cota del error ser´ıa


0.1
2
12
(0.2 −0)(e
x
2
(2 + 4e
x
2
))


0.1
2
12
0.2 f

(0.2)

= 0.00187346

Diferenciaci´ on e integraci´ on 101
Si el n´ umero n de intervalos en los que dividimos [a, b] es par podemos
aplicar de forma sencilla la regla de Simpson compuesta con h =
b−a
n
, x
i
=
a+ih (0 ≤ i ≤ n), aplicando a cada dos subintervalos la regla de Simpson 1/3

b
a
f(x)dx =

x
2
x
0
f(x)dx +

x
4
x
2
f(x)dx + +

x
n
x
n−2
f(x)dx
con lo que obtenemos la f´ormula

b
a
f(x) ≈
h
3
[f(x
0
) + 4f(x
1
) + 2f(x
2
) + 4f(x
3
) + 2f(x
4
) +. . .
+ 4f(x
n−1
) +f(x
n
)]
o lo que es lo mismo

b
a
f(x)dx ≈ f(x
0
) +
n
2
¸
i=1
[2f(x
2i
)+4f(x
2i−1
)] +f(x
n
)
con error −
b −a
180
h
4
f
4)
(ξ)
con ξ ∈ [a, b].
5.2.4 M´etodo de los coeficientes indeterminados
Las reglas de Newton-Cˆ otes con n +1 puntos son exactas para los polinomios
de grado n, es decir, si en la f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
)
tomamos los coeficientes A
i
=

b
a
l
x
i
(x)dx, el resultado que obtenemos al calcu-
lar con esa regla la integral de un polinomio de grado n es el valor exacto. El
objetivo de esta secci´on es, dados un conjunto de n + 1 puntos x
0
, x
1
, . . . ,
x
n
, encontrar el valor de los coeficientes A
0
, A
1
, . . . , A
n
que aseguren que la
f´ormula de cuadratura

b
a
f(x)dx ≈
¸
n
i=0
A
i
f(x
i
) es exacta para los polino-
mios de grado n. En cada caso, el problema se puede resolver de forma similar
al siguiente ejemplo.
102 Cap´ıtulo 5
Ejemplo: Encuentra los valores A
0
, A
1
y A
2
para que la f´ormula

1
0
f(x)dx ≈ A
0
f(0) +A
1
f(
1
2
) +A
2
f(1)
sea exacta para los polinomios de grado menor o igual que 2. En particular
la f´ormula tendr´a que ser exacta para los polinomios 1, x y x
2
que forma una
base del conjunto de los polinomios de grado menor o igual que 2:
1 =

1
0
1dx = A
0
+ 1A
1
+A
2
1
2
=

1
0
xdx = 0A
0
+
1
2
A
1
+A
2
1
3
=

1
0
x
2
dx = 0A
0
+
1
4
A
1
+A
2
y obtenemos que A
0
=
1
6
, A
1
=
2
3
y A
2
=
1
6
. Adem´as, si P(x) = a + bx + cx
2
es cualquier otro polinomio de grado menor o igual que 2, la f´ormula ser´ıa
tambi´en exacta porque

1
0
P(x)dx = a

1
0
1dx +b

1
0
xdx +c

1
0
x
2
dx =
= a(A
0
+ 1A
1
+A
2
) +b(
1
2
A
1
+A
2
) +c(
1
4
A
1
+A
2
) =
= A
0
(a) +A
1
(a +
1
2
b + (
1
2
)
2
c) +A
2
(a + 1b + 1
2
c) =
= A
0
P(0) +A
1
P(
1
2
) +A
2
P(1)
que ser´ıa el resultado obtenido al aplicar la f´ormula de cuadratura con los
coeficientes calculados. Adem´as, es la misma f´ormula que se obtendr´ıa con el
m´etodo de Simpson.

5.3 Cuadratura gaussiana
Supongamos que queremos obtener una f´ormula de cuadratura

1
−1
f(x)dx = A
1
f(t
1
) +A
2
f(t
2
)
pero no fijamos previamente los valores de t
1
, t
2
, A
1
y A
2
. Para calcular estos
valores y puesto que tenemos 4 inc´ognitas, le imponemos 4 condiciones: que
Diferenciaci´ on e integraci´ on 103
la f´ormula sea exacta para los polinomios de grado menor o igual que 3, es
decir, para 1, x, x
2
y x
3
:

1
−1
x
3
dx = 0 = A
1
t
3
1
+A
2
t
3
2

1
−1
x
2
dx =
2
3
= A
1
t
2
1
+A
2
t
2
2

1
−1
xdx = 0 = A
1
t
1
+A
2
t
2

1
−1
1dx = 2 = A
1
+A
2
Restando a la ecuaci´on primera la tercera multiplicada por t
2
1
obtenemos
0 = A
2
(t
3
2
−t
2
1
t
2
) = A
2
t
2
(t
2
−t
1
)(t
2
+t
1
)
con lo que se obtiene alguno de los siguientes valores: A
2
= 0, t
2
= 0, t
2
= t
1
,
t
2
= −t
1
. Sustituyendo en el resto de las ecuaciones podemos comprobar que
solo es aceptable t
2
= −t
1
y que en ese caso los par´ametros son A
1
= A
2
= 1
y t
2
= −t
1
=

1
3
. Por tanto la f´ormula

1
−1
f(x)dx = f(−

1
3
) +f(

1
3
)
es exacta para integrar cualquier polinomio de grado menor o igual que 3 en
el intervalo [−1, 1]. Para integrarlos en [a, b] se utiliza una transformaci´on af´ın
que lleve un intervalo en el otro.
Los nodos t
i
(i = 1, 2, . . . , n) en la cuadratura gaussiana coinciden con las
ra´ıces del polinomio de Legendre de grado n. Los polinomios de Legendre se
construyen as´ı:
L
0
(x) = 1 L
1
(x) = x L
n+1
=
(2n + 1)xL
n
(x) −nL
n−1
(x)
n + 1
.
Ejemplo: Calcula un valor aproximado de

π
2
0
sen(x)dx mediante cuadra-
tura gaussiana de dos t´erminos.
Como el intervalo de integraci´on es [0,
π
2
], hemos de hacer un cambio de
variable af´ın que lleve [−1, 1] en [0,
π
2
]. Dicho cambio es x =
π
4
t +
π
4
con lo
que dx =
π
4
dt. Ya hemos deducido cuales son los nodos t
i
y los coeficientes A
i
(i = 1, 2). Si no supi´eramos cuales son, podr´ıamos averiguar primero los nodos
104 Cap´ıtulo 5
calculando las ra´ıces del polinomio de Legendre de grado 2 (L
2
=
3x
2
−x
2
). Pos-
teriormente calcular´ıamos los coeficientes A
i
planteando un sistema de ecua-
ciones. En todo caso se obtendr´ıa
π
2
0
sen(x)dx =

1
−1
sen

π
4
t +
π
4

π
4
dt =
=
π
4
¸
sen

π
4
(−

1
3
) +
π
4

+ sen

π
4
(

1
3
) +
π
4
¸
≈ 0.99847.

5.4 Integraci´ on de Romberg
Para aplicar el m´etodo de integraci´on de Romberg construimos una tabla como
esta
R(0, 0)
R(1, 0) R(1, 1)
R(2, 0) R(2, 1) R(2,2)
R(3, 0) R(3, 1) R(3,2) R(3,3)
. . .
R(M, 0) R(M, 1) R(M, 2) R(M, 3) . . . R(M, M)
donde, si queremos aproximar

b
a
f(x)dx
R(0, 0) =
1
2
(b −a) [f(a) +f(b)]
(Regla del trapecio para 2
0
intervalos)
R(n, 0) =
1
2
R(n −1, 0) +
b −a
2
n
2
n−1
¸
i=1
f(a + (2i −1)
b −a
2
n
)
(Regla del trapecio para 2
n
intervalos)
R(n, m) = R(n, m−1) +
1
4
m
−1
[R(n, m−1) −R(n −1, m−1)]
(Extrapolaci´on de Richarson)
(5.7)
La ´ ultima f´ormula se obtiene aplicando la extrapolaci´on de Richarson que
es un proceso que ya hemos utilizado en otra ocasi´on. El factor
1
4
m
−1
depende
Diferenciaci´ on e integraci´ on 105
del orden de convergencia del m´etodo empleado, en este caso la regla del
trapecio.
Cada valor R(i, j) se considera una aproximaci´on a

b
a
f(x)dx. A partir
de la aproximaci´on R(n, m − 1) que se considera que mejora a la anterior
R(n −1, m−1), se construye otra mejor aproximaci´on R(n, m):
R(n, m) = (+exacta) +
1
4
m
−1
[(+exacta) −(-exacta)] .
Teorema: Si f(x) es una funci´on continua en [a, b] entonces la sucesi´on que
se obtiene en cada columna del m´etodo de Romberg converge a

b
a
f(x)dx.
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
e
x
2
dx.
R(0, 0) es la regla del trapecio con 2
0
= 1 intervalo:
R(0, 0) =
2 −0
2
(e
0
+e
2
2
) ≈ 55.5981
R(1, 0) es la regla del trapecio compuesta con 2
1
intervalos:
R(1, 0) =
1
2

e
0
+ 2e
1
+e
2

= 30.5174
R(2, 0) es la regla del trapecio compuesta con 2
2
intervalos:
R(2, 0) =
2/4
2

e
0
+ 2e
0.5
+ 2e
1
+ 2e
1.5
+e
2

= 20.6446
y de modo similar los t´erminos R(n, 0) de la primera columna. El resto de
t´erminos se calculan seg´ un la f´ormula 5.7 La mejor aproximaci´on obtenida
ser´ıa

2
0
e
x
2
dx ≈ 16.4529.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 55.5981
n = 1 30.5174 22.1572
n = 2 20.6446 17.3537 17.0334
n = 3 17.5651 16.5386 16.4843 16.4756
n = 4 16.7354 16.4588 16.4535 16.4530 16.4529

106 Cap´ıtulo 5
Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

2
0
x
2
dx.
Obtenemos la tabla siguiente en donde a mejor aproximaci´on obtenida
ser´ıa

2
0
x
2
dx ≈ 2.6667.
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 4
n = 1 3 2.6667
n = 2 2.75 2.6667 2.6667
n = 3 2.6875 2.6667 2.6667 2.6667
n = 4 2.6719 2.6667 2.6667 2.6667 2.6667

Ejemplo: Aplica el m´etodo de Romberg para obtener una aproximaci´on
de

0.5
0.2
e
−x
2
dx.
Obtenemos la tabla siguiente
m = 0 m = 1 m = 2 m = 3 m = 4
n = 0 0.69302
n = 1 0.66211 0.65181
n = 2 0.65947 0.65859 0.65904
n = 3 0.65898 0.65882 0.65883 0.65883
n = 4 0.65886 0.65882 0.65882 0.65882 0.65882
La mejor aproximaci´on obtenida ser´ıa

0.5
0.2
e
−x
2
dx ≈ 0.65882.

Diferenciaci´ on e integraci´ on 107
5.5 Cuadratura adaptativa
A grandes rasgos, el m´etodo consiste en calcular un valor aproximado de una
integral

b
a
f(x)dx dividiendo el intervalo [a, b] en intervalos disjuntos [x
i
, x
i+1
]
con las siguientes condiciones:
• Se fija un par´ametro llamado tolerancia T.
• Se obtienen dos estimaciones de

x
i+1
x
i
f(x)dx mediante una f´ormula de
cuadratura.
• Se fija la tolerancia en el intervalo [x
i
, x
i+1
]:
T
[
x
i
, x
i+1
] =
T
(b −a)
(x
i+1
−x
i
).
• Si la diferencia entre las dos estimaciones de

x
i+1
x
i
f(x)dx es menor que
T
[x
i
,x
i+1
]
se estima definitivamente

x
i+1
x
i
f(x)dx por extrapolaci´on. En
caso contrario se divide el intervalo en dos subintervalos disjuntos.
• Se estima

b
a
f(x)dx:

b
a
f(x)dx =
n
¸
i=0

x
i+1
x
i
f(x)dx
Ejemplo: Fijado un valor de tolerancia T = 0.02, calcula

1
0.2
1
x
2
dx usando
la regla de Simpson.
Paso 1. Aplicamos la regla de Simpson para calcular la integral:
h
1
=
1 −0.2
2
= 0.4 ⇒S
1
[0.2, 1] = 4.94814815.
Paso 2. Aplicamos la regla de Simpson compuesta en dos subintervalos
de [0.2, 1], en concreto en [0.2, 0.6] y en [0.6, 1]:
h
2
=
0.6 −0.2
2
= 0.2 ⇒ S
2
[0.2, 0.6] = 3.51851852.
h
2
=
1 −0.6
2
= 0.2 ⇒ S
2
[0.6, 1] = 0.66851852.
108 Cap´ıtulo 5
Paso 3. Hasta ahora tenemos dos aproximaciones a

1
0.2
1
x
2
dx, a saber:
S
1
[0.2, 1] y S
2
[0.2, 0.6] + S
2
[0.6, 1]. Calculo la diferencia entre ambas estima-
ciones:
S
1
[0.2, 1] −(S
2
[0.2, 0.6] +S
2
[0.6, 1]) = 0.7611111 > T = 0.02.
Si la diferencia hubiera sido menor que T, el proceso finalizar´ıa efectuando
una extrapolaci´on del tipo:
(+exacta) +
1
15
[(+exacta) −(-exacta)]
entendiendo que la primera estimaci´on es menos exacta que la segunda. Puesto
que la diferencia es mayor que T, el proceso contin´ ua fijando la tolerancia de
forma proporcional al tama˜ no de cada subintervalo y de modo que sume la
tolerancia total T = 0.02. Con estas condiciones la tolerancia ser´a 0.01 en
[0.2, 0.6] y 0.01 en [0.6, 1].
Paso 4. Estudiamos el intervalo [0.6, 1]. Tenemos la estimaci´on S
2
[0.6, 1]
de

1
0.6
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.6, 0.8] (S
3
[0.6, 0.8] = 0.41678477) y en
[0.8, 1] (S
3
[0.6, 1] = 0.25002572). Comparamos ambas estimaciones:
S
2
[0.6, 1]−(S
3
[0.6, 0.8] +S
3
[0.8, 1]) = 0.66851852−0.66681049 = 0.001708 < T
[0.6,1]
= 0.01
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

1
0.6
1
x
2
dx :

1
0.6
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)]
0.66681049 +
1
15
(0.66681049 −0.66851852) = 0.66669662
Paso 5. Actuamos ahora sobre el intervalo [0.2, 0.6] donde la toleran-
cia tambi´en es 0.01. Contamos con una estimaci´on S
2
[0.2, 0.6] de la integral
en el intervalo y aplicamos la regla de Simpson en [0.2, 0.4] (S
3
[0.2, 0.4] =
2.52314815)y en [0.4, 0.6] (S
3
[0.4, 0.6] = 0.83435926) para obtener una nueva
(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]). Comparamos ambas estimaciones:
S
2
[0.2, 0.6] −(S
3
[0.2, 0.4] +S
3
[0.4, 0.6]) = 0.161111 > T
[0.2,0.6]
= 0.01.
Diferenciaci´ on e integraci´ on 109
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y
dividimos el intervalo [0.2, 0.6] en los intervalos [0.2, 0.4] y [0.4, 0.6]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo
[0.2,0.6] (T
[0.2,0.6]
= 0.01). Con estas condiciones T
[0.2,0.4]
= 0.005 y T
[0.4,0.6]
=
0.005.
Paso 6. Estudiamos el intervalo [0.4, 0.6]. Tenemos la estimaci´on S
3
[0.4, 0.6]
de

0.6
0.4
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.5, 0.6] (S
4
[0.4, 0.5] = 0.50005144) y en
[0.5, 0.6] (S
4
[0.5, 0.6] = 0.33334864). Comparamos ambas estimaciones:
S
3
[0.4, 0.6] −(S
4
[0.4, 0.5] +S
4
[0.5, 0.6]) = 0.000859 < T
[0.4,0.6]
= 0.005
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.6
0.4
1
x
2
dx :

0.6
0.4
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.8333428.
Paso 7. Estudiamos el intervalo [0.2, 0.4]. Tenemos la estimaci´on S
3
[0.2, 0.4]
de

0.4
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.3] y [0.3, 0.4]. Comparamos ambas
estimaciones:
S
3
[0.2, 0.4] −(S
4
[0.2, 0.3] +S
4
[0.3, 0.4]) > T
[0.2,0.4]
= 0.005.
Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y di-
vidimos el intervalo [0.2, 0.4] en los intervalos [0.2, 0.3] y [0.3, 0.4]. Fijamos
la tolerancia de cada intervalo de forma proporcional al tama˜ no del intervalo
correspondiente y de modo que la suma sea igual a la tolerancia en el inter-
valo [0.2,0.4] (T
[0.2,0.4]
= 0.005). Con estas condiciones T
[0.2,0.3]
= 0.0025 y
T
[0.3,0.4]
= 0.0025.
Paso 8. Estudiamos el intervalo [0.3, 0.4]. Tenemos la estimaci´on S
4
[0.3, 0.4]
de

0.4
0.3
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.3, 0.35] y [0.35, 0.4]. Comparamos ambas
estimaciones:
S
4
[0.3, 0.4] −(S
5
[0.3, 0.35] +S
5
[0.35, 0.4]) = 0.0002220 < T
[0.3,0.4]
= 0.0025.
110 Cap´ıtulo 5
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.4
0.3
1
x
2
dx :

0.4
0.3
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 0.83333492.
Paso 9. Estudiamos el intervalo [0.2, 0.3]. Tenemos la estimaci´on S
4
[0.2, 0.3]
de

0.3
0.2
1
x
2
dx y obtenemos otra sumando los resultados obtenidos al aplicar la
regla de Simpson en los intervalos [0.2, 0.25] y [0.25, 0.3]. Comparamos ambas
estimaciones:
S
4
[0.2, 0.3] −(S
5
[0.2, 0.25] +S
5
[0.25, 0.3]) < T
[0.2,0.3]
= 0.0025.
Como la diferencia es menor que la tolerancia extrapolando obtenemos la
estimaci´on definitiva de

0.3
0.2
1
x
2
dx :

0.3
0.2
1
x
2
dx ≈ (+exacta) +
1
15
[(+exacta) −(-exacta)] = 1.666686.
Por lo tanto, la estimaci´on mediante este m´etodo de

1
0.2
1
x
2
dx ser´ıa:

1
0.2
1
x
2
dx =

0.3
0.2
1
x
2
dx +

0.4
0.3
1
x
2
dx +

0.6
0.4
1
x
2
dx +

1
0.6
1
x
2
dx
= 1.666686 + 0.83333492 + 0.8333428 + 0.66669662 = 4.00005957.

T
a
b
l
a
d
i
f
e
r
e
n
c
i
a
c
i
´o
n
e
i
n
t
e
g
r
a
c
i
´o
n
n
u
m
´e
r
i
c
a
D
e
r
i
v
a
c
i
´o
n
f

(
x
)
=
f
(
x
+
h
)

f
(
x
)
h

h 2
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h

h
2
6
f

(
ξ
)
f

(
x
)
=
f
(
x
+
h
)

2
f
(
x
)
+
f
(
x

h
)
h
2

h
2
1
2
f
4
)
(
ξ
)
f

(
x
k
)
=

n i
=
0
f
(
x
i
)
L
i
(
x
k
)
1
(
n
+
1
)
!
f
n
+
1
)
(
ξ
x
k
)
Π
n j
=
0
,
j
=
k
(
x
k

x
j
)
R
(
0
,
h
)
=
f
(
x
+
h
)

f
(
x

h
)
2
h
R
(
n
,
h
)
=
R
(
n

1
,
h
/
2
)
+
1
4
n

1
[
R
(
n

1
,
h
/
2
)

R
(
n

1
,
h
)
]
I
n
t
e
g
r
a
c
i
´o
n

n i
=
0
(

b
a
l
i
(
x
)
d
x
)
f
(
x
i
)
h 2
[
f
(
x
0
)
+
f
(
x
1
)
]

1
1
2
h
3
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
f
(
x
2
)
]

1
9
0
h
5
f
4
)
(
ξ
)
3
h
8
[
f
(
x
0
)
+
3
f
(
x
1
)
+
3
f
(
x
2
)
+
f
(
x
3
)
]

3
8
0
h
5
f
4
)
(
ξ
)
h 2
[
f
(
x
0
)
+
2
f
(
x
1
)
+
2
f
(
x
2
)
+
·
·
·
+
2
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
2
h
2
f

(
ξ
)
h 3
[
f
(
x
0
)
+
4
f
(
x
1
)
+
2
f
(
x
2
)
+
4
f
(
x
3
)
+
·
·
·
+
4
f
(
x
n

1
)
+
f
(
x
n
)
]

(
b

a
)
1
8
0
h
4
f
4
)
(
ξ
)
f
(

1 3
)
+
f
(

1 3
)
R
(
n
,
m
)
=
R
(
n
,
m

1
)
+
1
4
m

1
[
R
(
n
,
m

1
)

R
(
n

1
,
m

1
)
]
S
i
+
1
[
a
,
b
]
+
1
1
5

S
i
+
1
[
a
,
b
]

S
i
[
a
,
b
]

1
Cap´ıtulo 6
Resoluci´ on num´erica de
ecuaciones diferenciales
6.1 Existencia y unicidad de soluciones
Una ecuaci´on diferencial ordinaria (EDO) es una expresi´on de la forma
F(x, y(x), y

(x), y

(x), . . . ) = 0,
es decir, una ecuaci´on que contiene una variable independiente x, otra depen-
diente de la primera y(x) y derivadas de distinto orden de la segunda respecto
de la primera (y

(x), y

(x), . . . ).
El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´on.
El grado de una EDO es el mayor exponente de la derivada de mayor orden
que aparece en la ecuaci´on.
Ejemplo:
ecuaci´on orden grado
y

= y tan(x + 3) 1 1
(y

)
2
= y tan(x + 3) 1 2
y

= y tan(x + 3) 2 1

La soluci´on general de una EDO es una familia de funciones que verifican
la EDO. En general, la soluci´on general de una EDO de orden k es una familia
de funciones que depende de una par´ametro k.
113
114 Cap´ıtulo 6
Ejemplo: La soluci´on general de y

= sen(x) es y = −cos(x) + k con
k ∈ R. La soluci´on general de y

= −y es y = a sen(x) +b cos(x), con a ∈ R y
b ∈ R.

Una soluci´on particular de una EDO es un elemento particular de la solu-
ci´on general. Una soluci´on singular es una funci´on que verifica la EDO pero
que no est´a recogida en la soluci´on general.
Ejemplo: La ecuaci´on y

= y
1/3
tiene como soluci´on general y = (
2
3
x)
3
2
+C
con C ∈ R. Una soluci´on particular es y = (
2
3
x)
3
2
+ 4 y una soluci´on singular
es y = 0.

Si una EDO de primer orden F(x, y(x), y

(x)) = 0 se puede expresar de la
forma y

= f(x, y(x)) entonces
Teorema: Si f(x, y) y
∂f(x,y)
∂y
son continuas en un rect´angulo D del plano
R
2
y (x
0
, y
0
) ∈ D, entonces existe una ´ unica soluci´on de la ecuaci´on y

=
f(x, y) tal que y(x
0
) = y
0
.
Ejemplo: Encuentra d´onde tiene soluci´on ´ unica la ecuaci´on y

=
−y
x
.
Sea f(x, y) =
−y
x
. La gr´afica de dicha funci´on aparece en la figura 6.1.
f(x, y) es continua en R
2
− ¦x = 0¦.
∂f(x,y)
∂y
=
−1
x
es continua tambi´en en
R
2
−¦x = 0¦.
Por el teorema anterior, si existe un rect´angulo D ⊂ R
2
− ¦x = 0¦ y
(x
0
, y
0
) ∈ D, entonces el problema y

= f(x, y) tal que y(x
0
) = y
0
tiene
soluci´on ´ unica. Por ejemplo, el problema y

=
−y
x
con y(2) = 1, tiene soluci´on
´ unica porque (2, 1) est´an dentro de un rect´angulo que a su vez est´an contenido
en R
2
−¦x = 0¦. Dicha soluci´on es y =
2
x
. Sin embargo, si la condici´on inicial
es y(0) = 2 el problema no tiene soluci´on.

En general, la b´ usqueda de soluciones exactas de una ecuaci´on diferencial
es un problema dif´ıcil. Por ello se usan m´etodos num´ericos para encontrar
soluciones aproximadas. El planteamiento t´ıpico de una ecuaci´on diferencial
ordinaria de grado 1 con valor inicial es
Ecuaciones diferenciales 115
-10
-5
0
5
10
-10
-5
0
5
10
-5
-2.5
0
2.5
5
-10
-5
0
5
10
Figura 6.1: La funci´on f(x, y) =
y
x
y

= f(x, y(x)) y(x
0
) = y
0
(6.1)
Por ejemplo
y

= −2x −y y(0) = −1.
La soluci´on num´erica de una EDO ser´a una tabla de valores aproximados
de la funci´on y(x) en un conjunto de puntos x
i
. Usando esa tabla podemos
construir una aproximaci´on de la funci´on mediante, por ejemplo, los m´etodos
de interpolaci´on. En lo que sigue, trabajaremos con puntos x
i
igualmente
espaciados, es decir, separados cada uno del siguiente por un tama˜ no de paso
h, con lo que x
i
= x
0
+ ih. y(x
i
) denotar´a el valor exacto de la funci´on y(x)
en el punto x
i
; y
i
ser´a un valor aproximado de y(x
i
).
6.2 M´etodo de la serie de Taylor
Para resolver el problema (6.1), el m´etodo de Taylor de orden k propone
sustituir la funci´on desconocida y(x) por su polinomio de Taylor de orden k
116 Cap´ıtulo 6
en un entorno de cada punto x
i
, es decir
y(x
i+1
) = y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +y

(x
i
)
h
2
2
+ +y
k)
(x
i
) +
h
k
k!
Los valores de la funci´on y(x) y de sus derivadas en x
i
son desconocidos en
general, por lo que hay que sustituirlos por aproximaciones:
y(x
i
) ≈ y
i
y

(x
i
) ≈ f(x
i
, y
i
)
y

(x
i
) ≈
d f(x
i
, y
i
)
d x
. . .
y
k)
(x
i
) ≈
d
k-1
f(x
i
, y
i
)
d x
k−1
De este modo obtenemos la expresi´on del m´etodo:
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
A la hora de derivar f(x, y) respecto de x hay que tener en cuenta que es una
funci´on de dos variables y que y es funci´on de x. De modo que, denotando
f
x
y f
y
a las derivadas parciales de f(x, y) respecto x e y, tendr´ıamos, por
ejemplo que
d f(x, y)
d x
= f
x
(x, y) +f
y
(x, y)y

(x, y) = f
x
(x, y) +f
y
(x, y)f(x, y).
Elegido, el tama˜ no del paso h, el m´etodo de Taylor paso a paso ser´ıa el
siguiente:
Paso 1. Partimos del punto x
0
, obtenemos una aproximaci´on de y(x
1
)
y
1
= y
0
+f(x
0
, y
0
)h +
d f(x
0
, y
0
)
d x
h
2
2
+ +
d
k-1
f(x
0
, y
0
)
d x
k−1
h
k
k!
Paso 2. Partimos de x
1
= x
0
+h y calculamos una aproximaci´on y(x
2
):
y
2
= y
1
+f(x
1
, y
1
)h +
d f(x
1
, y
1
)
d x
h
2
2
+ +
d
k-1
f(x
1
, y
1
)
d x
k−1
h
k
k!
Ecuaciones diferenciales 117
Paso i+1. Partimos de x
i
= x
i−1
+h y calculamos una aproximaci´on de
y(x
i+1
):
y
i+1
= y
i
+f(x
i
, y
i
)h +
d f(x
i
, y
i
)
d x
h
2
2
+ +
d
k-1
f(x
i
, y
i
)
d x
k−1
h
k
k!
Ejemplo: Proporciona tres valores aproximados de la funci´on y(x), solu-
ci´on de y

= −2x −y con y(0) = −1 mediante el m´etodo de Taylor con k = 4
y tama˜ no de paso h = 0.1.
Calculamos el desarrollo de Taylor hasta grado 4 de la funci´on y(x) en un
punto cualquiera x
i
:
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2
h
2
+
y

(x
i
)
3!
h
3
+
y
4)
(x
i
)
4!
h
4
Denotando y
i
al valor aproximado de y(x
i
) y dado que
y

(x) = f(x, y)
y

(x) = [y

(x)]

= [−2x −y(x)]

= −2 −y

(x) = −2 −f(x, y)
y

(x) = [y

(x)]

= −y

(x) = 2 +y

(x) = 2 +f(x, y)
y
4)
(x) = [y

(x)]

= [−y

(x)]

= −y

(x) = −2 −y

(x) = −2 −f(x, y)
definimos el m´etodo
y
i+1
= y
i
+f(x
i
, y
i
)h +
−2 −f(x
i
, y
i
)
2
h
2
+
2 +f(x
i
, y
i
)
3!
h
3
+
−2 −f(x
i
, y
i
)
4!
h
4
Paso 1. Como y
0
= −1 y f(x
0
, y
0
) = f(0, −1) = 1, obtenemos el valor
aproximado
y
1
= −1 + 0.1 −1.5 0.1
2
+ 0.5 0.1
3
−0.125 0.1
4
= −0.9645125.
Paso 2. Como y
1
= −0.9145125 y f(x
1
, y
1
) = f(0.1, −0.9145125) = 0.7145125,
obtenemos el valor aproximado
y
2
= −0.8561927.
Paso 3. Como y
2
= −0.8561927 y f(x
2
, y
2
) = f(0.2, −0.8561927) = 0.4561927,
obtenemos el valor aproximado
y
3
= −0.8224553

118 Cap´ıtulo 6
6.2.1 M´etodo de Euler
Es el m´etodo anterior usando el polinomio de Taylor de orden 1
y
i+1
= y
i
+f(x
i
, y
i
)h
Ejemplo. Resuelve la ecuaci´on y

= −2x − y con y(0) = −1 mediante el
m´etodo de Euler.
Con estos datos se tiene que x
0
= 0, y
0
= −1, f(x
0
, y
0
) = 1 con lo que
y
1
= y
0
+f(x
0
, y
0
)h = −1 + 1 0.1 = −0.9
Puesto que f(x
1
, y
1
) = 0.7, se deduce que
y
2
= y
1
+f(x
1
, y
1
)h = −0.9 + 0.7 0.1 = −0.83
Puesto que f(x
2
, y
2
) = 0.43, se deduce que
y
3
= y
2
+f(x
2
, y
2
)h = −0.83 + 0.43 0.1 = −0.787
Puesto que f(x
3
, y
3
) = 0.187, se deduce que
y
4
= y
3
+f(x
3
, y
3
)h = −0.787 + 0.187 0.1 = −0.7683

6.2.2 Errores
Al resolver num´ericamente una ecuaci´on diferencial aparecen varios tipos de
errores:
1. error de truncamiento local
2. error de truncamiento global
3. error de redondeo local
4. error de redondeo global
5. error total
Ecuaciones diferenciales 119
El error de truncamiento local es el que aparece en un paso cuando reem-
plazamos un proceso infinito por uno finito. Por ejemplo, en el m´etodo de
Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de
infinitos t´erminos) por los primeros k-t´erminos. En este caso, para un cierto
c
i
∈ R, se tiene que
y(x
i
+h) = y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
+
y
k+1)
(c
i
)
(k + 1)!
h
k+1
y dado que en el algoritmo usamos la aproximaci´on
y(x
i
+h) ≈ y(x
i
) +y

(x
i
)h +
y

(x
i
)
2!
h
2
+ +
y
k)
(x
i
)
k!
h
k
se deduce que el error local en el paso i-´esimo es proporcional a h
k+1
, digamos
C
i
h
k+1
. Un error de esa magnitud se dice que es O(h
k+1
).
La acumulaci´on de todos los errores de truncamiento local genera el error
de truncamiento global. Si al aplicar un m´etodo el error de truncamiento
local es O(h
k+1
), el tama˜ no de paso es h, el punto inicial es x
0
y el punto final
es x
n
, entonces el n´ umero de pasos ser´a n =
x
n
−x
0
h
y puesto que
C
1
h
k+1
+C
2
h
k+1
+ +C
n
h
k+1
= h
k+1
(C
1
+C
2
+ +C
n
) ≤
≤ h
k+1
nmax¦C
1
, C
2
, . . . , C
n
¦ = Ch
k
siendo C = (x
n
−x
0
) max¦C
1
+C
2
+ +C
n
¦, el error de truncamiento global
ser´a O(h
k
). Si un m´etodo tiene error de truncamiento global O(h
k
) decimos
que el procedimiento num´erico es de orden k. El m´etodo de Taylor usando
el desarrollo hasta grado k es un m´etodo de orden k.
El error de redondeo local es el que en cada paso es provocado por la
limitada precisi´on de nuestras m´aquinas de c´omputo, como ya se coment´o el
tema inicial del curso. El error de redondeo global es la acumulaci´on de los
errores de redondeo local en los pasos anteriores. El error total es la suma
de los errores de truncamiento global y redondeo global.
6.3 M´etodos de Runge-Kutta
Los m´etodos de Taylor tienen el inconveniente de la dificultad de c´alculo de
las sucesivas derivadas de la funci´on y(x). En los m´etodos de Runge-Kutta se
120 Cap´ıtulo 6
elimina esa dificultad. Las ideas que dan origen a este conjunto de m´etodos
se resumen en los siguientes pasos:
Paso 1. Consideramos la igualdad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
y despejamos y(x
i+1
)
y(x
i+1
) = y(x
i
) +

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx.
Paso 2. Realizamos el cambio de variable x = x
i
+ θh en la integral
anterior y obtenemos
y(x
i+1
) = y(x
i
) +h

1
0
f(x
i
+θh, y(x
i
+θh))dθ. (6.2)
Paso 3. Consideramos el conjunto de puntos 0 = θ
0
≤ θ
1
≤ . . . θ
m
≤ 1 del
intervalo de integraci´on [0, 1] y estimamos la integral anterior mediante una
f´ormula de cuadratura del siguiente tipo

1
0
F(θ)dθ ≈ A
0
F(θ
0
) +A
1
F(θ
1
) + +A
m
F(θ
m
)
con lo que, denotando x

j
= x
i

j
h, en la ecuaci´on (6.2) obtenemos
y(x
i+1
) ≈ y(x
i
) + h

A
0
f

x

0
, y(x

0
)

+
A
1
f

x

1
, y(x

1
)

+ + A
m
f

x

m
, y(x

m
)

. (6.3)
La f´ormula de cuadratura elegida puede variar, pero se le ha de exigir que
al menos sea exacta para las funciones constantes, lo que se traduce en que
los coeficientes han de cumplir la condici´on
A
0
+A
1
+ +A
m
= 1
El m´etodo de Runge-Kutta ser´a la f´ormula que resulta de sustituir en la ecua-
ci´on (6.3) los valores y(x
i
), y(x

0
), y(x

1
), . . . , y(x

m
) por sus valores aproxi-
mados. Si bien dispondremos en cada paso del valor y
i
que aproxima a y(x
i
),
no ocurre lo mismo con las aproximaciones de y(x

0
), y(x

1
), . . . , y(x

m
).
Ecuaciones diferenciales 121
Paso 4. En esta etapa conseguiremos obtener un algoritmo para las apro-
ximaciones aludidas en el apartado anterior. De forma similar a como se
obtuvo la ecuaci´on (6.2), llegamos a la igualdad
y(x

j
) = y(x
i
) +h

θ
j
x
i
f(x
i
+θh, y(x
i
+θh))dθ
y aplicando una f´ormula de cuadratura para cada j

θ
j
x
i
F(θ)dθ ≈ B
j
0
F(θ
0
) +B
j
1
F(θ
1
) + +B
j
j−1
F(θ
j−1
) (6.4)
a la integral anterior, se obtienen las aproximaciones buscadas
y(x

j
) ≈ y(x
i
) +h
j−1
¸
k=0
B
j
k
f(x

k
, y(x

k
)).
Las f´ormulas de cuadraturas usadas en (6.4) han de ser exactas al menos para
las funciones constantes, por lo tanto los coeficientes deben verificar
B
j
0
+B
j
1
+ +B
j
j−1
= θ
j
j = 1, . . . , m.
Paso 5. Si denotamos y

j
a una estimaci´on de y(x

j
), un m´etodo de Runge-
Kutta quedar´ıan as´ı:
y
i+1
= y
i
+h[A
0
f(x

0
, y

0
) +A
1
f(x

1
, y

1
) + +A
m
f(x

m
, y

m
)

(6.5)
siendo
y

0
= y
i
y

1
= y
i
+h

B
1
0
f(x

0
, y

0
)

y

2
= y
i
+h

B
2
0
f(x

0
, y

0
) +B
2
1
f(x

1
, y

1
)

. . .
y

m
= y
i
+h

B
m
0
f(x

0
, y

0
) +B
m
1
f(x

1
, y

1
) +. . .
+B
m
m−1
f(x

m−1
, y

m−1
)

Previamente deben fijarse los valores
0 = θ
0
≤ θ
1
≤ θ
2
≤ . . . θ
m
≤ 1
122 Cap´ıtulo 6
as´ı como los siguientes par´ametros que han de cumplir con las condiciones de
las sumas correspondientes que aparecen en el cuadro
A
0
A
1
A
2
. . . A
m
¸
m
r=0
A
r
= 1
B
1
0
B
2
0
B
m
0
B
2
1
. . . B
m
1
. . .
B
m
m−1
B
1
0
= θ
1
B
2
0
+B
2
1
= θ
2
. . .
¸
m−1
k=0
B
m
k
= θ
m
Un m´etodo como el anterior se conoce con el nombre de m´etodo de Runge-
Kutta de m+1 etapas, debido a que la f´ormula (6.5) requiere m+1 evaluaciones
de la funci´on f(x, y).
Ejemplo: Para m = 0 (una etapa), el m´etodo de Runge-Kutta que resulta
es el m´etodo de Euler.
Para m = 1 (dos etapas), podemos obtener, entre otras posibilidades, el
m´etodo de Heun:
θ
0
= 0, θ
1
= 1
A
0
= 1/2 A
1
= 1/2 A
0
+A
1
= 1
B
1
0
= 1
B
1
0
= θ
1
= 1
y
i+1
= y
i
+h[
1
2
f(x
i0
, y
i0
) +
1
2
f(x
i1
, y
i1
)

siendo
y
i0
= y
i
y
i1
= y
i
+hf(x
i
, y
i
)
con lo que
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

(6.6)
El llamado m´etodo de Euler modificado sale con la elecci´on
θ
0
= 0, θ
1
= 1/2
Ecuaciones diferenciales 123
A
0
= 0 A
1
= 1 A
0
+A
1
= 1
B
1
0
= 1/2
B
1
0
= θ
1
= 1/2
y
i+1
= y
i
+h[f(x
iθ1
, y
iθ1
)]
siendo
y
i0
= y
i
y
i1/2
= y
i
+h
1
2
f(x
i
, y
i
)
con lo que el m´etodo queda
y
i+1
= y
i
+hf

x
i
+
h
2
, y
i
+
h
2
f(x
i
, y
i
)

(6.7)
Otra elecci´on posible es
θ
0
= 0, θ
1
= 2/3
A
0
= 1/4 A
1
= 3/4 A
0
+A
1
= 1
B
1
0
= 2/3
B
1
0
= θ
1
= 2/3
y
i+1
= y
i
+h[
1
4
f(x

0
, y

0
) +
3
4
f(x

1
, y

1
)

siendo
y

0
= y
i
y

1
= y
i
+h

2
3
f(x

0
, y

0
)

con lo que el m´etodo queda as´ı
y
i+1
= y
i
+h[
1
4
f(x
i
, y
i
) +
3
4
f(x
i
+
2
3
h, y
i
+h
2
3
f(x
i
, y
i
)

El m´etodo cl´asico de Runge-Kutta es de m = 3 (cuatro etapas) definido
por los par´ametros
0 = θ
0
θ
1
= 1/2 θ
2
= 1/2 θ
3
= 1
124 Cap´ıtulo 6
A
0
= 1/6 A
1
= 1/3 A
2
= 1/3 A
3
= 1/6
¸
3
r=0
A
r
= 1
B
1
0
= 1/2 B
2
0
= 0 B
3
0
= 0
B
2
1
= 1/2 B
3
1
= 0
B
3
2
= 1
B
1
0
= 1/2 B
2
0
+B
2
1
= 1/2
¸
2
k=0
B
3
k
= 1
que da lugar a
y
i+1
= y
i
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) (6.8)
donde
K
1
= f(x
i
, y
i
) K
2
= f(x
i
+
h
2
, y
i
+
h
2
K
1
)
K
3
= f(x
i
+
h
2
, y
i
+
h
2
K
2
) K
4
= f(x
i
+h, y
i
+hK
3
)

Ejercicio: Aplica tres pasos del m´etodo cl´asico de Runge-Kutta de orden
4 con h = 1/128 para resolver la ecuaci´on
y

=
yx −y
2
x
2
y(1) = 2.
Paso 1. Partimos de x
0
= 1, y
0
= 2. Para aplicar la ecuaci´on (6.8)
previamente calculamos
K
1
= f(x
0
, y
0
) = f(1, 2) = −2 K
2
= f(x
0
+
h
2
, y
0
+
h
2
K
1
) = −1.95355
K
3
= f(x
0
+
h
2
, y
0
+
h
2
K
2
) = −1.95409
K
4
= f(x
0
+h, y
0
+hK
3
) = −1.90898.
Con estos datos obtenemos
y
1
= y
0
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.98473,
Paso 2. Partimos de x
1
= 1 +
1
128
, y
1
= 1.98473. Calculamos
K
1
= f(x
1
, y
1
) = −1.90899 K
2
= f(x
1
+
h
2
, y
1
+
h
2
K
1
) = −1.86520
K
3
= f(x
1
+
h
2
, y
1
+
h
2
K
2
) = −1.86570
K
4
= f(x
1
+h, y
1
+hK
3
) = −1.82316.
Ecuaciones diferenciales 125
Con estos datos obtenemos
y
2
= y
1
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.97016.
Paso 3. Partimos de x
2
= 1 +
2
128
, y
2
= 1.97016. Calculamos
K
1
= f(x
2
, y
2
) = −1.82311 K
2
= f(x
2
+
h
2
, y
2
+
h
2
K
1
) = −1.78186
K
3
= f(x
2
+
h
2
, y
2
+
h
2
K
2
) = −1.78231
K
4
= f(x
2
+h, y
2
+hK
3
) = −1.74215.
Con estos datos obtenemos
y
3
= y
2
+
h
6
(K
1
+ 2K
2
+ 2K
3
+K
4
) = 1.96088.

6.3.1 Errores
Los m´etodos de Runge-Kutta tienen tambi´en su error de truncamiento global,
es decir, su orden. Existen m´etodos de Runge-Kutta de orden k con k menor
o igual que el n´ umero de etapas m + 1. Se da la igualdad para k = 1, 2, 3, 4.
Es decir, los m´etodos de Runge-Kutta de 1,2,3,4 etapas tienen orden 1,2,3,4,
respectivamente. Para conseguir orden k = 5 es necesario 6 etapas; para k = 6,
7 etapas; en general para k ≥ 7 se necesitan un n´ umero de etapas mayor o
igual que k + 2.
6.4 M´etodos multipaso
Tanto los m´etodos de Taylor como los de Runge-Kutta son m´etodos de un
paso, porque para calcular el valor aproximado y
i+1
solo se usa, adem´as de x
i
y de h, el valor aproximado anterior y
i
. Los m´etodos multipaso se caracterizan
por obtener y
i+1
a partir de los valores h, x
i
, y
i
, x
i−1
, y
i−1
, . . . , x
i−k
, y
i−k
.
Partimos siempre de la ecuaci´on
y

= f(x, y) y(x
0
) = y
0
.
Ejemplo: Un primer ejemplo sencillo de un m´etodo multipaso se puede
obtener de la siguiente forma. Sabemos que
y

(x) ≈
y(x +h) −y(x −h)
2h
126 Cap´ıtulo 6
con lo que
y(x
i
) ≈
y(x
i+1
) −y(x
i−1
)
2h
y se deduce que
y(x
i+1
) ≈ y(x
i−1
) + 2 h y

(x
i
),
lo que sugiere el m´etodo
y
i+1
= y
i−1
+ 2 h f(x
i
, y
i
).
Para poder obtener el punto y
i+1
son necesarios los dos valores anteriores y
i
,
y
i−1
. Es un m´etodo de dos pasos. Para empezar a aplicarlo tenemos que
disponer de y
0
e y
1
. Este ´ ultimo puede calcularse con un m´etodo de un paso.

El que sigue es un proceso para obtener un conjunto de m´etodos multipasos.
Partimos de la relaci´on
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx =

x
i+1
x
i
f(x, y(x))dx,
y aplicamos el cambio de variable x = x
i
+θh
y(x
i+1
) −y(x
i
) = h

1
0
f(x
i
+θh, y(x
i
+θh))dθ.
Aproximamos la integral anterior por una f´ormula de cuadratura

1
0
F(θ)dθ = A
0
F(θ
0
) +A
1
F(θ
1
) + +A
k
F(θ
k
) (6.9)
y nos queda
y(x
i+1
) −y(x
i
) ≈ h

A
0
f(x
i

0
h, y(x
i
+θh))+
+A
1
f(x
i

1
h, y(x
i
+θh))+
+ +A
k
f(x
i

k
h, y(x
i

k
h))

(6.10)
lo cual sugiere un m´etodo que resultar´a de sustituir los valores de la funci´on
por valores aproximados.
Ecuaciones diferenciales 127
Ejemplo: Deduzcamos el m´etodo de orden 2
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

(6.11)
Si en la f´ormula de cuadratura (6.9) tomamos los puntos
θ
0
= 0 θ
1
= −1
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
1
= −
1
2
y la soluci´on del sistema anterior es A
0
=
3
2
y A
1
= −
1
2
. Sustituyendo en
(6.10) nos queda
y(x
i+1
) −y(x
i
) ≈ h

3
2
f(x
i
, y(x
i
)) −
1
2
f(x
i−1
, y(x
i−1
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
Para aplicar la f´ormula (6.11) necesitamos dos puntos iniciales y
0
, y
1
, y solo
disponemos del valor y
0
= 2. Es habitual calcular los puntos necesarios para
empezar mediante un m´etodo de un paso del mismo orden. Usamos el m´etodo
de Euler modificado (ver ecuaci´on (6.7)), que es un m´etodo de Runge-Kutta
de orden 2:
y
1
= y
0
+hf

x
0
+
h
2
, y
0
+
h
2
f(x
0
, y
0
)

= 1.98474.
128 Cap´ıtulo 6
Ya disponemos de y
0
e y
1
y podemos calcular y
2
aplicando (6.11)
y
2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0

= 1.97018.
Con y
1
e y
2
podemos calcular y
3
y
3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1

= 1.95627.
Y as´ı sucesivamente.

6.4.1 F´ ormulas de Adams-Bashforth
Un m´etodo multipaso de la forma
y
i+1
= y
i
+A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) + +A
k−1
f(x
i−k+1
, y
i−k+1
)
es una f´ormula de Adams-Bashforth de k pasos y orden k. Estos m´etodos
se encuadran dentro de los m´etodos multipaso expl´ıcitos, debido a que la
definici´on de y
i+1
es expl´ıcita en funci´on de los valores anteriores, a diferencia
de los m´etodos impl´ıcitos que veremos en es siguiente apartado. Estos son
algunos ejemplos de f´ormulas de Adams-Bashforth:
1. de orden 2:
y
i+1
= y
i
+h

3
2
f(x
i
, y
i
) −
1
2
f(x
i−1
, y
i−1
)

2. de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

3. de orden 5:
y
i+1
= y
i
+
h
720

1901f(x
i
, y
i
) −2774f(x
i−1
, y
i−1
)+
+ 2616f(x
i−2
, y
i−2
) −1274f(x
i−3
, y
i−3
) + 251f(x
n−4
, y
n−4
)

Todas ellas se pueden obtener siguiendo el proceso descrito en la p´agina
126. Dado que en dicho proceso se utiliza el cambio de variable x = x
i
+θ h,
si en la f´ormula final (6.10) deseo que aparezca la funci´on f(x, y) valorada en
los puntos
Ecuaciones diferenciales 129
x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ
0
= 0, θ
1
= −1, ..., θ
k−1
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Bashforth de k pasos necesitaremos
los valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo
de un paso del mismo orden.
6.4.2 F´ ormulas de Adams-Moulton
Un m´etodo multipaso de la forma
y
i+1
= y
i
+Bf(x
i+1
, y
i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
)
(6.12)
es una f´ormula de Adams-Moulton de k pasos y orden k + 1. Estos m´etodos
se encuadran dentro de los m´etodos multipaso impl´ıcitos, debido a que en
la f´ormula aparece el valor y
i+1
definido de forma impl´ıcita. Al igual que
las f´ormulas de Adams-Bashforth, las f´ormulas de Adams-Moulton se pueden
obtener siguiendo el proceso descrito en la p´agina 126. Dado que en dicho
proceso se utiliza el cambio de variable x = x
i
+ θ h, si en la f´ormula final
(6.10) deseo que aparezca la funci´on f(x, y) valorada en los puntos
x
i+1
, x
i
, x
i−1
, ..., x
i−k+1
,
tendr´e que elegir los valores
θ = 1, θ
0
= 0, θ
1
= −1, ..., θ
k
= −k + 1
al construir la f´ormula de cuadratura (6.9).
Para aplicar una f´ormula de Adams-Moulton de k pasos necesitaremos los
valores iniciales y
0
, y
1
, ..., y
k−1
, que podr´an obtenerse mediante un m´etodo de
un paso del mismo orden.
Supongamos que disponemos de los valores y
i
, y
i−1
, ..., y
i−k+1
. ¿C´omo
calcular y
i+1
mediante la f´ormula (6.12)? Se puede hacer de dos formas:
130 Cap´ıtulo 6
1. M´etodo predictor-corrector. Se estima un primer valor predictor y

i+1
mediante una f´ormula de Adams-Bashforth del mismo orden y despu´es se
calcula el valor corrector y
i+1
aplicando
y
i+1
= y
i
+Bf(x
i+1
, y

i+1
) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
2. M´etodo iterativo de punto fijo. En la f´ormula (6.12) todos los t´erminos
de la parte derecha de la igualdad son datos excepto y
i+1
. En este sentido,
y
i+1
es un punto fijo de la funci´on
Φ(t) = y
i
+Bf(x
i+1
, t) +A
0
f(x
i
, y
i
) +A
1
f(x
i−1
, y
i−1
) +. . .
+A
k−1
f(x
i−k+1
, y
i−k+1
).
En consecuencia, y
i+1
lo podemos obtener como l´ımite de la sucesi´on
t
0
= y

i+1
, t
n
= Φ(t
n−1
) n ≥ 1
siendo y

i+1
un valor inicial que se recomienda obtener mediante la f´ormula
de Adams-Bashforth del mismo orden. En la pr´actica, es suficiente dos o tres
iteraciones para conseguir un valor aceptable de y
i+1
.
Ejemplo: Deduzcamos la f´ormula de Adams-Moulton de orden dos
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i
)

(6.13)
Aplicaremos el proceso descrito en la p´agina 126. Si en la f´ormula de
cuadratura (6.9) tomamos los puntos
θ
0
= 1 θ
1
= 0
y le imponemos la condici´on de que sea exacta para los polinomios de grado
menor o igual que 1, obtendremos que los coeficientes A
0
y A
1
deben verificar
las ecuaciones
A
0
+A
1
= 1 A
0
=
1
2
Ecuaciones diferenciales 131
y la soluci´on del sistema anterior es A
0
=
1
2
y A
1
=
1
2
. Sustituyendo en (6.10)
nos queda
y(x
i+1
) −y(x
i
) ≈ h

1
2
f(x
i+1
, y(x
i+1
)) +
1
2
f(x
i
, y(x
i
)

lo cual sugiere el m´etodo
y
i+1
= y
i
+h

1
2
f(x
i+1
, y
i+1
) +
1
2
f(x
i
, y
i

.

Ejercicio: Aplica el m´etodo anterior al c´alculo de la soluci´on de
y

=
yx −x
2
x
2
y(1) = 2
El m´etodo a aplicar es de orden 2 y 1 paso, por lo que solo necesitamos el
valor y
0
para empezar. Para estimar el resto de valores podemos optar por el
m´etodo predictor-corrector o por el m´etodo iterativo de punto fijo.
1. M´etodo predictor. Calculamos un valor predictor y

1
. Si es posible,
debe calcularse con una f´ormula de Adams-Bashforth del mismo orden, en
este caso la f´ormula (6.11) que es de orden dos. Sin embargo, para aplicar
(6.11) necesitamos los dos puntos iniciales y
0
e y
1
, con lo que en este primer
paso no podemos hacer uso de ella. Calculamos y

1
mediante otro m´etodo, por
ejemplo, por Runge-Kutta de orden 2 (ver 6.6):
y

1
= y
0
+h

1
2
f(x
0
, y
0
) +
1
2
f(x
1
, y
0
+hf(x
0
, y
0
))

= 1.98474
Con este valor, calculamos el valor corrector con Adams-Moulton
y
1
= y
0
+h

1
2
f(x
1
, y

1
) +
1
2
f(x
0
, y
0

= 1.98473.
Para calcular y
2
, primero calculo el valor predictor y

2
con Adams-Bashforth
de orden 2 (f´ormula (6.11))
y

2
= y
1
+h

3
2
f(x
1
, y
1
) −
1
2
f(x
0
, y
0
)

= 1.97017
132 Cap´ıtulo 6
y despu´es calculo el corrector con Adams-Moulton
y
2
= y
1
+h

1
2
f(x
2
, y

2
) +
1
2
f(x
1
, y
1

= 1.97015.
En el siguiente paso calculo el predictor y

3
con Adams-Bashforth
y

3
= y
2
+h

3
2
f(x
2
, y
2
) −
1
2
f(x
1
, y
1
)

= 1.95624
y despu´es calculo el corrector con Adams-Moulton
y
3
= y
2
+h

1
2
f(x
3
, y

3
) +
1
2
f(x
2
, y
2

= 1.95622.
El proceso anterior se repite para calcular el resto de valores.
2. M´etodo iterativo de punto fijo. Dada la funci´on
Φ
1
(t) = y
0
+h

1
2
f(x
1
, t) +
1
2
f(x
0
, y
0
)

el valor y
1
que buscamos verifica
Φ
1
(y
1
) = y
1
.
Es, por tanto, un punto fijo de la ecuaci´on
Φ
1
(t) = t.
Para localizarlo generamos una sucesi´on iterativa comenzando por un valor y

1
obtenido, si es posible, por Adams-Bashforth del mismo orden. En este caso
no es posible aplicar Adams-Bashforth puesto que se necesitar´ıa dos puntos
iniciales que no tenemos. Calculamos y

1
mediante Runge-Kutta de orden 2
(y

1
= 1.98474) y generamos la sucesi´on iterativa:
t
0
= y

1
= 1.98474
t
1
= Φ
1
(1.98474) = 1.98473
t
2
= Φ
1
(1.98473) = 1.98473
De forma que tomamos y
1
= 1.98473.
y
2
es un punto fijo de
Φ
2
(t) = y
1
+h

1
2
f(x
2
, t) +
1
2
f(x
1
, y
1
)

Ecuaciones diferenciales 133
que localizamos mediante la sucesi´on iterativa similar a la anterior que co-
mienza en y

2
= 1.97017, que a su vez es obtenido por Adams-Bashforth de
orden 2
t
0
= y

2
= 1.97017
t
1
= Φ
2
(1.97017) = 1.97015
t
2
= Φ
2
(1.97015) = 1.97015
Tomamos y
2
= 1.97015. Y repetimos el proceso para el resto de valores.

Ejercicio:
1. Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
2. Repite el apartado anterior para la f´ormula de Adams-Moulton de orden
4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

Ejercicio: Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del si-
guiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.

Problemas
Ecuaciones no lineales
1. Dada la ecuaci´on

xsen(x) −x
3
+ 2 = 0
encuentra una aproximaci´on de una ra´ız
(a) Con el m´etodo de la bisecci´on con un error menor que 1/30.
(b) Con 4 iteraciones del m´etodo de Newton-Raphson.
2. Determina un intervalo y una funci´on para aplicar el m´etodo del punto
fijo a las siguientes ecuaciones:
(a) x
3
−x −1 = 0
(b) 4 −x −tg(x) = 0
Realiza 4 iteraciones del m´etodo y determina en cada caso una cota del
el error cometido.
3. Se considera la ecuaci´on x
2
−1 −sen(x) = 0.
(a) Prueba que dicha ecuaci´on tiene, al menos, una ra´ız positiva.
(b) Encuentra un intervalo en el cual la iteraci´on
x
n
=

1 +sen(x
n−1
) x ∈ N
converja, para cualquier valor inicial x
0
de dicho intervalo, a una
ra´ız positiva de la ecuaci´on anterior. ¿Cu´antos pasos deben darse,
a partir de x
0
= π/2, para obtener una aproximaci´on de la ra´ız con
un error inferior a una mil´esima?
135
136 Problemas
4. Demuestra que la ecuaci´on
e
x
L(x) +x
3
−2 = 0
tiene una ´ unica ra´ız positiva. Aplica el m´etodo de Newton-Raphson para
encontrar una aproximaci´on a la ra´ız. Realiza iteraciones hasta que se
repitan las primeros cuatro decimales.
5. Determina un intervalo y una funci´on para poder aplicar el m´etodo del
punto fijo a las siguientes ecuaciones:
(a) x −L(1 +x) −0.2 = 0.
(b) x = −L(x).
Calcula una aproximaci´on a la soluci´on con un error inferior a 10
−5
.
6. Se considera la funci´on
F(x) = e
−x
−sen(x) −2.
(a) Demuestra que F(x) < 0 si x ≥ 0.
(b) Prueba que la ecuaci´on F(x) = 0 tiene una ´ unica ra´ız negativa.
(c) Determina un intervalo donde se pueda aplicar el m´etodo de Newton-
Raphson para aproximar dicha ra´ız, as´ı como los 4 primeros t´erminos
de la sucesi´on definida mediante dicho m´etodo. Calcula una cota
del error cometido.
7. Dada la funci´on f(x) = e
x
−3x
2
,
(a) Localiza un intervalo que contenga una soluci´on de f(x) = 0. Enun-
cia el resultado te´orico que utilices.
(b) Encuentra, aplicando el m´etodo del punto fijo con cuatro iteracio-
nes, una aproximaci´on de un valor donde se anule la derivada de
f(x) y una cota del error cometido.
8. Dada la ecuaci´on x = arctg(x+1), aplica el m´etodo de la bisecci´on para
encontrar una soluci´on con un error menor que 1/10.
9. Calcula tres iteraciones del m´etodo de la secante para encontrar una ra´ız
de la ecuaci´on
cos(x) −x = 0
en el intervalo [0.5, π/4]
Problemas 137
10. Dada la ecuaci´on 2cos(2x) + 4x −k = 0,
(a) Determina el valor de k para que la ecuaci´on tenga una ´ unica ra´ız
triple en el intervalo [0, 1].
(b) Para k = 3, prueba que posee una ´ unica ra´ız simple en el intervalo
[0, 1] y calc´ ulala con el m´etodo de Newton con un error menor que
10
−3
.
11. Dado el polinomio P(x) = x
4
−4x
3
+ 7x
2
−5x −2
(a) Utiliza la sucesi´on de Sturm para separar las ra´ıces del polinomio.
(b) Utiliza el m´etodo de Newton-Raphson para encontrar una aproxi-
maci´on de la ra´ız real de P(x) de menor valor absoluto.
12. Dado el polinomio P(x) = 8x
3
− 20x
2
− 2x + 5, utiliza su sucesi´on
de Sturm para separar sus ra´ıces en intervalos disjuntos. Encuentra
aproximaciones de las ra´ıces con un error menor que 10
−3
.
13. Dado la ecuaci´on x
4
−7x
3
+ 18x
2
−20x + 8 = 0:
(a) Demuestra con el teorema de Bolzano que tiene una soluci´on en el
intervalo [1.5, 3]. y utiliza el m´etodo de Newton para encontrar una
aproximaci´on con error menor que 10
−6
(b) Utiliza la sucesi´on de Sturm para separar las distintas ra´ıces del
polinomio.
14. Cuesti´on de examen de febrero de 2004:
Dada la ecuaci´on x
2
−e
2x
= −1/2,
(a) Demuestra que tiene una ´ unica soluci´on en el intervalo [−2, 0].
(b) Encuentra una aproximaci´on a la soluci´on mediante tres iteraciones
del m´etodo del punto fijo partiendo del punto x
0
= −1.5
15. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = cos(x) −x,
(a) Calcula el n´ umero de pasos necesarios para encontrar una ra´ız de
f(x) con un error menor que 10
−2
con el m´etodo de la bisecci´on
en el intervalo [0.5, π/4]. Aplica el m´etodo con el n´ umero de pasos
calculado.
138 Problemas
(b) Aplica tres iteraciones del m´etodo de la secante para encontrar una
ra´ız de f(x) en el intervalo [0.5, π/4].
16. Cuesti´on de examen de septiembre de 2004:
Dado el polinomio P(x) = −x
3
+x
2
−2x + 5,
(a) Utiliza el m´etodo de Sturm para separar las ra´ıces en intervalos
disjuntos.
(b) Empezando con x = 6 aplica un paso del m´etodo de Newton ha-
ciendo uso del algoritmo de Horner.
Problemas 139
Sistemas de ecuaciones lineales
17. Para el conjunto de ecuaciones.
7x
1
−3x
2
+ 8x
3
= −49
x
1
−2x
2
−5x
3
= 5
4x
1
−6x
2
+ 10x
3
= −84
a) Calcula la inversa de la matriz de los coeficientes haciendo uso de
las operaciones fundamentales. b) Utiliza la inversa para obtener las
soluciones del sistema. c) Calcula el n´ umero de condici´on de la matriz
con las distintas normas que conozcas.
18. Dado el sistema de ecuaciones
0.5x
1
−x
2
= −9.5
0.28x
1
−0.5x
2
= −4.72
a) Resu´elvelo por Gauss. b) Sustituye a
11
por 0.55 y resu´elvelo de nuevo.
c) Interpreta los resultados anteriores en t´erminos del condicionamiento
del sistema. d) Calcula el n´ umero de condici´on de la matriz del sistema
con la norma infinito.
19. Dado el sistema
−12x
1
+x
2
−7x
3
= −80
x
1
−6x
2
+ 4x
3
= 13
−2x
1
−x
2
+ 10x
3
= 92
a) Resu´elvelo por eliminaci´on gaussiana simple usando d´ıgitos con dos
cifras decimales. b) Encuentra las matrices triangular inferior L, trian-
gular superior U y de permutaciones P tal que PA = LU, siendo A la
matriz de los coeficientes. c) Sustituye los resultados en las ecuaciones y,
si es necesario, utiliza el m´etodo del refinamiento iterativo para mejorar
la soluci´on.
20. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´on
gaussiana con pivoteo parcial empleando d´ıgitos con dos decimales. b)
Encuentra las matrices P, L y U tal que PA = LU como en el ejercicio
anterior. c) Comprueba los resultados, y si no son exactos, emplea el
refinamiento iterativo para mejorar la soluci´on.
140 Problemas
1).
4x
1
+ 5x
2
−6x
3
= 28
2x
1
−7x
3
= 29
−5x
1
−8x
2
= −64
2).
3x
2
−13x
3
= −50
2x
1
−6x
2
+x
3
= 44
4x
1
+ 8x
3
= 4
21. Dado el sistema

¸
3 2 100
−1 3 100
1 2 −1
¸

¸
x
1
x
2
x
3
¸

=

¸
105
102
2
¸

resu´elvelo mediante descomposici´on LU de Gauss: a) sin escalamiento y
b) con escalamiento previo de filas.
22. Dados
A =

¸
4 −3 0
2 2 3
6 1 −6
¸

b =

¸
−7
−2
6
¸

b

=

¸
14
9
−8
¸

resuelve Ax = b y Ax = b

mediante una descomposici´on LU de Gauss.
Utiliza 3 decimales en los c´alculos.
23. Resuelve el sistema siguiente mediante descomposici´on LU:
−4x
1
+ 2x
2
= 0
x
1
−4x
2
= −4
x
2
−4x
3
+x
4
= −11
x
3
−4x
4
+x
5
= 5
2x
4
−4x
5
= 6
24. Resuelve el sistema

¸
¸
¸
4 −1 −1 0
−1 4 0 −1
−1 0 4 −1
0 −1 −1 4
¸

¸
¸
¸
x
1
x
2
x
3
x
4
¸

=

¸
¸
¸
−4
0
4
−4
¸

mediante la descomposici´on de Cholesky. ¿Es la matriz de los coeficientes
definida positiva?
Problemas 141
25. Dado el sistema

¸
2 0 −1
−2 −10 0
−1 −1 4
¸

¸
x
1
x
2
x
3
¸

=

¸
1
−12
2
¸

comprueba si se cumple alguna de las condiciones suficientes para que
funcionen los m´etodos de Jacobi y Gauss-Seidel. Si se cumplen, realiza
dos iteraciones para cada m´etodo tomando como valor inicial (0, 0, 0).
26. Repite el ejercicio anterior para el sistema
x
1
−2x
2
= −1
3x
1
+x
2
= 4
Intenta resolver el sistema con los m´etodos de Jacobi y Gauss-Seidel
haciendo alg´ un peque˜ no cambio en las ecuaciones.
27. Cuesti´on de examen de febrero de 2004:
Aplica el m´etodo de Jacobi a la resoluci´on del sistema:
7x −y + 4z = 8
3x −8y + 2z = −4
4x +y −6z = 3
empleando 3 iteraciones y partiendo del punto (0, 0, 0). ¿Es convergente
el m´etodo?
28. Cuesti´on de examen de junio de 2004:
Resuelve por el m´etodo de Cholesky el sistema de ecuaciones:
x
1
+ 2x
2
+ 3x
3
= 7
2x
1
+ 5x
2
+ 4x
3
= 9
3x
1
+ 4x
2
+ 14x
3
= 33
29. Cuesti´on de examen de septiembre de 2004:
Resuelve el siguiente sistema dos veces. Primero, utilizando la elimina-
ci´on gaussiana simple y encontrando la factorizaci´on A = LU. Despu´es,
utilizando la eliminaci´on gaussiana con pivoteo y encontrando la facto-
rizaci´on PA = LU.
−x
1
+x
2
−4x
3
= 0
2x
1
+ 2x
2
= 1
3x
1
+ 3x
2
+ 2x
3
=
1
2
142 Problemas
Aproximaci´ on de funciones. Interpolaci´ on
30. De la funci´on f(x, t) que representa una onda que se desplaza sobre el
plano se conocen cinco posiciones en un determinado instante:
(−1, 0), (−0.5, −1), (0, 0), (0.5, 1), (1, 0).
(a) Encuentra un polinomio que pase por esos puntos.
(b) Encuentra una funci´on formada por trozos de recta que pase por
esos puntos.
(c) Sabiendo que las derivadas de f(x) en el mismo instante en los
puntos −1, −0.5, 0, 0.5 y 1 son −π, 0, π, 0 y −π, calcula un polinomio
que cumpla todas las condiciones.
(d) Calcula el spline natural para ese conjunto de datos.
31. ¿Cu´al es el polinomio interpolador de f(x) = x
3
−2x −5 en los puntos
−0, 1, 2, 4.?
32. Se ha estudiado el proceso de recepci´on de informaci´on de un ordenador
y se ha observado que en los instantes 0, 1, 2 medidos en segundos, la
cantidad de informaci´on recibida era 0, 51, 104 megabites y se recib´ıa
a una velocidad de 0, 52, 54 megabites por segundo, respectivamente.
Encuentra una funci´on que se aproxime a la que representa el proceso.
33. Dada la funci´on f(x) = e
x
y los puntos 0, 1, 2.,
(a) Encuentra su polinomio de interpolaci´on en los puntos y estima el
error cometido.
(b) Repite el apartado anterior con los nodos de Chebyshev en el inter-
valo [0, 2].
(c) Encuentra una funci´on lineal a trozos que se aproxime a f(x) en
los puntos dados.
(d) Encuentra un polinomio que interpole a f(x) y a sus derivadas en
los puntos dados.
(e) Calcula el spline natural en los puntos dados.
34. La funci´on f(x) = L(x) se ha evaluado en varios puntos, obteni´endose
lo siguientes datos:
Problemas 143
x
0
= 1 f(x
0
) = 0
x
1
= 4 f(x
1
) = 1.3863
x
2
= 6 f(x
2
) = 1.7918
(a) Util´ıcense los datos anteriores para calcular el polinomio de inter-
polaci´on y el spline natural. Est´ımese el valor de L(2).
(b) Agregando un cuarto punto x
3
= 5, f(x
3
) = 1.6094, h´aganse de
nuevo los c´alculos y estimaciones.
35. Calculando los valores de la funci´on f(x) =

x en 1,4 y 9,
(a) Halla el polinomio interpolador de grado menor o igual que 2 por
el m´etodo de Newton que pase por esos puntos.
(b) Halla el polinomio interpolador en los nodos de Chebyshev en [1,9].
(c) Aplica el m´etodo de Hermite en los puntos iniciales y en sus deri-
vadas.
(d) Calcula el spline natural.
36. Cuesti´on de examen de junio de 2004:
Dada la funci´on f(x) = e
x
, determina los cuatro nodos de Chebyshev en
[0, 1], el polinomio interpolador en dichos nodos y un valor aproximado
de e
0.5
mediante dicho polinomio. Realiza los c´alculos con 4 decimales.
Polinomios de Chebysev: T
0
(x) = 1, T
1
(x) = x, T
n+1
(x) = 2xT
n
(x) −
T
n−1
(x).
37. Cuesti´on de examen de septiembre de 2004:
Determina si la funci´on
f(x) =

1 +x −x
3
si x ∈ [0, 1]
1 −2(x −1) −3(x −1)
2
+ 4(x −1)
3
si x ∈ [1, 2]
4(x −2) + 9(x −2)
2
−3(x −2)
3
si x ∈ [2, 3]
es el spline c´ ubico natural que interpola a los puntos de la tabla:
x 0 1 2 3
y 1 1 0 10
144 Problemas
Diferenciaci´ on e integraci´ on num´erica
38. De la funci´on f(x) = e
x
−2x
2
+ 3x −1 se obtienen los siguientes datos:
x 0.0 0.2 0.4 0.6
f(x) 0.00000 0.74140 1.3718 1.9021
(a) Utilizando la f´ormula m´as adecuada de entre las siguientes:
f

(x) =
f(x+h)−f(x)
h
f

(x) =
f(x+h)−f(x−h)
2h
f

(x) =
f(x+h)−2f(x)+f(x−h)
h
2
,
calcula valores aproximados de la primera y segunda derivadas de
los puntos.
(b) Calcula los errores reales y las cotas de error por medio de las
f´ormulas de error para las estimaciones anteriores.
(c) Encuentra una aproximaci´on de f

(0.2) haciendo uso de la interpo-
laci´on de la funci´on en los cuatro puntos.
(d) Sabiendo que f(−0.2) = −0.861267, aplica la interpolaci´on de Ri-
chardson para calcular una aproximaci´on de f

(0.2).
39. De una funci´on f(x) se tienen los siguientes datos:
x 0.0 0.5 1 1.5 2 2.5 3
f(x) 2.25 3.75 5 6 5.5 6 7.25
Calcula un valor aproximado de

3
0
f(x)dx utilizando los siguientes m´etodos:
(a) Trapecios.
(b) Simpson 1/3.
(c) Simpson 3/8.
(d) Trapecios compuestos.
(e) Simpson compuesto.
(f) Romberg.
40. Determina el n´ umero de subintervalos que deben tomarse para aproximar
el valor de la integral

1
0.5
cos(

x)dx con un error menor que
1
2
10
−2
(a) con el m´etodo de los trapecios compuesto,
Problemas 145
(b) con el m´etodo de Simpson compuesto.
41. Repite el ejercicio anterior para
(a)

2
1
Ln(x)dx (b)

3
2
e
x
x
dx
42. Calcula

1
0
sen(x
2
)dx:
(a) con un error menor que 10
−2
con el m´etodo de los trapecios com-
puestos
(b) con un error menor que 10
−2
con el m´etodo de Simpson compuesto,
(c) con el algoritmo de Romberg hasta R(4, 4),
(d) con el m´etodo de cuadratura adaptativa con nivel de tolerancia
10
−3
.
43. Repite el ejercicio anterior con

2
1
e
1/x
dx.
44. (a) Calcula la integral

1
0
sen(x
2
)dx mediante cuadratura gaussiana de
dos t´erminos.
(b) Plantea c´omo resolver el problema de calcular la

1
0
sen(x
2
)dx me-
diante cuadratura gaussiana de tres t´erminos. Calcula la integral
sabiendo que los nodos (t
i
) en este caso son las ra´ıces del polinomio
5x
3
−3x
2
.
45. Aplica alg´ un m´etodo de integraci´on num´erica para resolver las siguientes
integrales:
(a)

1
0
sen(x)
x
dx (b)

1
−1
cos(x)−e
x
sen(x)
dx (c)


1
(xe
x
)
−1
dx.
46. Determina los valores de A, B y C que hagan que la f´ormula

2
0
xf(x) ≈ Af(0) +Bf(1) +Cf(2)
sea exacta para todos los polinomios de grado tan alto como sea posible.
¿Cu´al es el grado m´aximo?
47. Eval´ ua la integral de x
3
sen(x) entre x = 0 y x = 2 usando un valor de
tolerancia inferior a 0.1% de la respuesta verdadera (3.791197).
146 Problemas
48. Cuesti´on de examen de febrero de 2004:
Dada la funci´on f(x) = L(x) calcula

3
2
L(x)dx empleando el m´etodo de
cuadratura de Gauss con tres t´erminos y sabiendo que los polinomios de
Legendre se calculan as´ı:
L
0
(x) = 1, L
1
(x) = x,
L
n+1
(x) =
(2n+1)xL
n
(x)−nL
n−1
(x)
n+1
∀ n ≥ 1.
49. Cuesti´on de examen de junio de 2004:
Encuentra los coeficientes A
0
, A
1
, A
2
y A
3
para que la f´ormula

3
−1
f(x)dx = A
0
f(−1) +A
1
f(0) +A
2
f(1) +A
3
f(2)
sea exacta para los polinomios de grado menor o igual que 3 y calcula
un valor aproximado de

3
−1
(x
3
+x)dx haciendo uso de dicha f´ormula.
50. Cuesti´on de examen de septiembre de 2004:
Encuentra los coeficientes A
1
y A
2
para que la f´ormula


0
f(x)dx = A
1
f(0) +A
2
f(π)
sea exacta para cualquier funci´on que tenga la forma a +b cos(x).
Calcula


0
2 + 3 cos(x)dx haciendo uso de dicha f´ormula.
Problemas 147
Resoluci´ on num´erica de ecuaciones diferenciales
ordinarias
51. Cuesti´on de examen de junio de 2004:
Aplicando el m´etodo de Taylor de grado 2 con dos pasos, calcula valores
aproximados de y(0.1) y y(0.2), sabiendo que
y

+ 2y = x
2
+ 2x y(0) = 1
52. Cuesti´on de examen de febrero de 2005:
Resuelve la ecuaci´on y

= y
2
− t
2
+ 1, y(0) = 0.5, siendo 0 ≤ t ≤ 1.2,
mediante el m´etodo de Taylor de grado 2 con 5 pasos.
53. (a) Deduce la f´ormula de Adams-Bashforth de orden 4:
y
i+1
= y
i
+
h
24

55f(x
i
, y
i
) −59f(x
i−1
, y
i−1
)+
+ 37f(x
i−2
, y
i−2
) −9f(x
i−3
, y
i−3
)

y ´ usala para resolver la ecuaci´on
y

=
yx −x
2
x
2
y(1) = 2
con h = 1/128
(b) Repite el apartado anterior para la f´ormula de Adams-Moulton de
orden 4:
y
i+1
= y
i
+
h
24

9f(x
i+1
, y(i + 1)) + 19f(x
i
, y
i
)−
−5f(x
i−1
, y
i−1
) +f(x
i−2
, y
i−2
)

54. Usa la identidad
y(x
i+2
) −y(x
i
) =

x
i+2
x
i
y

(x)dx
y la f´ormula de cuadratura de Simpson 1/3 para obtener la f´ormula del
siguiente m´etodo multipaso
y
i+2
= y
i
+
h
3

f(x
i
, y
i
) + 4f(x
i+1
, y
i+1
) +f(x
i+2
, y
i+2
)

.
148 Problemas
55. Aplica el m´etodo cl´asico de Runge-Kutta para estimar 10 valores apro-
ximados de la soluci´on de la ecuaci´on siguiente en el intervalo [0, 1]
y

+ 2y = x
2
+ 2x y(0) = 1
56. A partir de la identidad
y(x
i+1
) −y(x
i
) =

x
i+1
x
i
y

(x)dx
deduce el m´etodo de Runge-Kutta de orden 2
y
i+1
= y
i
+h

1
2
f(x
i
, y
i
) +
1
2
f(x
i+1
, y
i
+hf(x
i
, y
i
))

´ Indice
Introducci´n o 1 Errores, redondeo, estabilidad, condicionamiento. o 1.1 Cifras significativas. Exactitud y precisi´n. Errores. 1.2 C´lculos estables e inestables. Condicionamiento. . . a 1.2.1 Inestabilidad . . . . . . . . . . . . . . . . . . 1.2.2 Condicionamiento . . . . . . . . . . . . . . . 1.3 Aritm´tica de la computadora . . . . . . . . . . . . . e 1.3.1 Aritm´tica de punto flotante. . . . . . . . . . e 1.3.2 Operaciones con computadoras . . . . . . . . 1.3.3 Epsilon de la m´quina . . . . . . . . . . . . . a 2 Resoluci´n de ecuaciones no lineales o 2.1 M´todo de la bisecci´n . . . . . . . . . . . . . . . . . e o 2.1.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.1.2 Convergencia del m´todo . . . . . . . . . . . e 2.1.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.1.4 Variaciones del m´todo: Regula Falsi . . . . . e 2.2 M´todo de Newton-Raphson . . . . . . . . . . . . . . e 2.2.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.2.2 Convergencia del m´todo . . . . . . . . . . . e 2.2.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.2.4 Variaciones del m´todo: M´todo de la secante e e 2.3 M´todo iterativo de punto fijo . . . . . . . . . . . . . e 2.3.1 Descripci´n del m´todo . . . . . . . . . . . . o e 2.3.2 Convergencia del m´todo . . . . . . . . . . . e 2.3.3 Aproximaci´n y error . . . . . . . . . . . . . o 2.4 Ra´ ıces de polinomios . . . . . . . . . . . . . . . . . . 2.4.1 Separaci´n de ra´ o ıces. Sucesi´n de Sturm. . . o 3 7 9 9 12 12 12 13 13 15 16 17 19 19 19 20 21 22 22 23 24 27 28 28 29 30 32 34

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. .4 Normas y an´lisis del error .2 M´todo de Gauss con pivoteo . . . e 3. . . . . . . . . . . . . . . . . . . . . .3 Factorizaci´n LU. . . . . . o ıces Ra´ ıces de polinomios con el algoritmo de Horner . . . . . . .2 2. . . . . . . o o 3. . . . .4. . . . e o 41 . . . . . . . .1 Algebra de matrices . 3. . . .1. . . . . . . . . . .3. . . 60 . . . . . . . . . . . . . .2 Error del polinomio interpolador .3. . . . . . e 4. . . . . . . . . . . . . . . . . .6. . . . . . . . . . . . . . . . . . . . .3 2. 3. . . . . . . . . 3. . . . . . .1 Interpolaci´n a trozos . . . . . . . .3 Interpolaci´n a trozos y con condiciones sobre la derivada o 4. . . . . .2 Resoluci´n de sistemas de ecuaciones lineales: o 3.6. . . . . . . . . . . .3 M´todos de relajaci´n . . . . . . . . . . . . . . .1.6 M´todos iterativos . . .2. o 4. . . . . .1 Diferenciaci´n mediante interpolaci´n . . . . .4.4 2. . . . . . . . . 64 . .1 Diferenciaci´n num´rica y extrapolaci´n de Richarson . . . .2 Escalamiento .2 M´todo de Newton . . . . a u o 3. 68 . .4.1 Refinamiento iterativo . .1 Construcci´n del polinomio interpolador . . . .1. . . . . . . . . . . .4. . . . . . . . .3. . .4 ´ INDICE Acotaci´n de ra´ . e 3. e 3. . . . . 4. . . . . . . . 3. . . 5 Diferenciaci´n e integraci´n num´rica o o e 87 5. . 57 . .5.5. 63 . . . e 3. . . . . . . . . . . . . . . . . . . . . . . . e 3. . .3 Sistemas triangulares . 45 m´todo de Gauss 46 e . . . . . . . . . . . . . . . . . . . . . . . u 37 38 39 3 Sistemas Lineales ´ 3. . . . . e 4. . e 3. . . . . . . . .1 Valores propios y vectores propios . . 53 . . . . 69 71 71 73 73 74 75 78 78 79 4 Aproximaci´n de funciones o 4. . . . . . . 41 . . . . . . . . . . . . . . . . . o 4. . . . . . o 4. . . Factorizaci´n de Cholesky . . . . . . . . . .3. . . . . . . . . . . . . e 3. . . . 62 . . . . o . .2 Interpolaci´n con condiciones sobre la derivada . . . . 66 . . .1 M´todo de Lagrange . .1 M´todo de Gauss . 3. . . . 55 . . .1 N´mero condici´n de una matriz . . . . . . . . . 55 . . . 62 . . .1. . . . . . 3. . . . . . . 3. . 49 . . .1. . . . . .1 M´todo de Crout . . . . . . . . . . .1 M´todo de Jacobi .6. . . . . 47 . . . . . 87 o e o 5. . 55 . . . . . . . . . . . .2 M´todo de Cholesky . . .2 M´todo de Gauss-Seidel . . 90 o o . . . . Polinomios de Chebyshev . .2. . . . .2. . . 3. .2 Matriz definida . . Ra´ ıces m´ltiples . . . . . . .5 Mejora de soluciones .1 Elecci´n de nodos. 45 . . . . . . . . .3. .

. . . . . . . o Integraci´n num´rica mediante interpolaci´n . . . . . . . . . . . . . . . . 92 96 97 98 99 101 102 104 107 113 113 115 118 118 119 125 125 128 129 135 5. . . . . . . . . . . . .3 5. .2 Errores . .2. . . . . . . e 6. . . . . . . .1 Existencia y unicidad de soluciones . . . . . . . 5. .3 M´todos de Runge-Kutta . . . o Cuadratura adaptativa . . . . .4 5. . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2.2. . . . . . . .4 M´todo de los coeficientes indeterminados e Cuadratura gaussiana . e 6. . o Problemas . . . . . . . . . . . . . . . . . 5. . . . e 6. . . . . . . e 6. . . . . . . . . .1 M´todo de Euler .2 Extrapolaci´n de Richarson . o 6. . . . . . . . . . . 6. . . . . .2. . . . . .2. . . . . . . . . . . . . . . . . .2 5. o e o 5. . . . . . . . . . . 6. . . . . . . . . . . . . . . . . . .2 Regla de Simpson . . . . . . . . .´ INDICE 5 5. . . . 5. . . . . . . . . . . . . . .4 M´todos multipaso . . . . . . .3 Reglas compuestas . . . . . . . . . . . . . . .1 Regla del trapecio . . . . . . . . . . . .2. . .1 F´rmulas de Adams-Bashforth .1 Errores . . 6. . . . . . . . .4. . . . .5 6 Resoluci´n num´rica de ecuaciones diferenciales o e 6. . . . . . . . . . Integraci´n de Romberg . . .2 M´todo de la serie de Taylor . . .2 F´rmulas de Adams-Moulton . . . . . . . .4. . . . . . . . . .3. . . . . . . . . . . . . . . . . .

.

Espero que os sirva.Introducci´n o El texto que sigue no es definitivo ni exhaustivo. Debeis emplearlo como una ayuda para preparar la asignatura An´lisis Matem´tico I a a y como complemento de las notas que tomeis en clase. Se ir´ reformando a medida a que se detecten fallos o se modifique el contenido para mejorarlo. 7 . Pedro Mart´ ın.

.

Cap´ ıtulo 1 Errores. El C´lculo Num´rico consiste en desarrollar m´todos para encontrar soluciones a e e lo m´s aproximadas posibles a la verdadera soluci´n de un cierto problema. u u por lo que se utilizan aproximaciones con un n´mero finito de decimales.1 Cifras significativas. a o Se trabaja. . . . u Toda expresi´n aproximada tiene un n´mero determinado de cifras sigo u nificativas. . con αi . . . La significau o o ci´n de una cifra depende del contexto y no solo de la expresi´n decimal en la que aparece. Exactitud y precisi´n. condicionamiento. Erroo res. α1 α0 . estabilidad. 9 . . 1. . β1 β2 . . . . por tanto. βj ∈ 0. redondeo. con n´meros aproximados en lugar de n´meros exactos. 9 Con la expresi´n anterior queremos representar que o x = αm 10m +αm−1 10m−1 +· · ·+α1 10+α0 100 +β1 10−1 +β2 10−2 +· · ·+βn 10−n +. 2. 1. . El concepto de cifra significativa intenta trasmitir la idea de cuando una cifra que aparece en la expresi´n decimal trasmite informaci´n o o ”esencial”y ”de fiar”sobre el n´mero que se intenta aproximar. βn . u u Cualquier n´mero real x puede representarse en forma decimal con un n´mero finito o infinito de d´ ıgitos: x = αm αm−1 .

mayor ser´ la exactitud.5 Km/hora”porque vemos que la aguja del veloc´ ımetro del coche est´n entre 48 y 49. 4.5000 × 104 ).5 × 104 .00001845 0. pues no es ”de fiar”. Cuanto mayor sea el n´mero de cifras significativas de la u aproximaci´n. La tercera cifra (. es decir o a e los diferentes valores obtenidos para la resoluci´n de un problema deben estar o cercanos entre s´ ı. los tres o ultimos ceros parecen ser no significativos. las que permiten situar la velocidad entre 48 y 49. Los ceros que se a˜aden al final pueden ser o no significativos: n Ejemplo: En la expresi´n ”se manifestaron 45000 personas”. Sin embargo en la expresi´n ”me ´ o cost´ 45000 euros exactos”s´ son significativos. en nuestra aproxia maci´n (48. Se denomina error E a la cana e tidad: E = valor verdadero − valor aproximado A menudo se trabaja con el error absoluto (|E|). El error relativo es e= E . es decir. se emplea u la notaci´n cient´ o ıfica (en el ejemplo anterior. No es significativa. valor verdadero . esta podr´ variar si es otro el observador. los valores aproximados que se obtengan en diferentes intentos de soluci´n deben estar cerca o del valor verdadero. Con el uso de aproximaciones para representar operaciones y cantidades matem´ticas se generan errores num´ricos. El veloc´ ımetro (para velocidades menores de 100) solo permite aproximaciones con dos cifras significativas.5) es una estimaci´n que podr´ o ıamos evitar. Cualquier m´todo del C´lculo Num´rico que se emplee en la resoluci´n de e a e o un problema. Si hacemos observaciones con una cifra decimal. debe ser suficientemente exacto.5) al valor verdadero de la velocidad. Tambi´n deben ser preciso.001845 tienen todos cuatro cifras significativas. 4.10 Cap´ ıtulo 1 Ejemplo: Cuando decimos ”circulamos a 48. estamos manejando solo dos o cifras significativas.0001845 0. ıa Los ceros que se a˜aden a la izquierda de una expresi´n decimal para situar n o la primera cifra distinta de cero no son significativos: Ejemplo: Los n´meros u 0. o ı Para evitar equ´ ıvocos acerca del n´mero de cifras significativas.

Errores.6170432 5. condicionamiento 11 Este ultimo compara la magnitud del error cometido con la magnitud del valor ´ que se pretende estimar y puede interpretarse en t´rminos de %.0642 × 4.3185 = 2967.30816 −→ 0.4 . Para minimizar este tipo de error se recurre a las reglas de redondeo: 1. o • Redondeo: surgen al sustituir un n´mero exacto por uno aproximado. redondeo. Para combinaciones de las operaciones aritm´ticas. En la suma y en la resta. Ejemplo: utilizar un polinomio de Taylor para encontrar el valor de una funci´n en un punto.6170431500 5.61705 8 cifras significativas 5. estabilidad.0 × 10−4 3. e 4. u Ejemplo: sustituir 1/3 por 0.68 × 10−7 + 8. el redondeo se lleva a cabo de forma tal que el ´ ultimo d´ ´ ıgito retenido en la respuesta corresponda al ultimo d´ ´ ıgito M AS significativo de los n´meros que se est´n sumando o restando.432 −→ 0. e Las causas de los errores pueden ser: • Truncamiento: surgen al sustituir un procedimiento matem´tico exacto a por uno aproximado.3 × 10−4 − 228 × 10−6 = 6.6170462 2. se conservan las cifras significativas y el resto se descara tan. entonces el ultimo d´ ´ ıgito retenido se incrementa en uno solo si este ultimo es ´ impar: n´mero u 5. En los c´lculos.6170462500 6 cifras significativas 5.8 = 0. N´tese u a o que un d´ ıgito en la columna de las cent´simas es m´s significativo que e a una en la columna de las mil´simas. Si es 5 o es 5 seguido de ceros.032967 −→ 297 × 10 4.31 945/0. El ultimo d´ ´ ıgito que se conserva se aumenta en uno si el primer d´ ıgito descartado es mayor que 5.33333333.768 = 0. existen dos casos e generales.02468 × 10−4 −→ 6.61704 5.2 − 1. En la multiplicaci´n y divisi´n se conserva el n´mero m´ o o u ınimo de cifras significativas que tenga los n´meros que intervienen: u 0. (multiplicaci´n o divisi´n ) ± (multiplicaci´n o divisi´n) o o o o (suma o resta ) ÷ (suma o resta) × 2.

El c´lculo de o a los valores de la sucesi´n por el m´todo inductivo es inestable.2 1. se ejecutan primero las operaciones entre par´ntesis y e se redondea el resultado antes de proceder con otra operaci´n. 1 x1 = .1 C´lculos estables e inestables. etc. Inestabilidad Decimos que un proceso num´rico es inestable cuando los peque˜os errores e n que se producen en alguna de sus etapas se agrandan en etapas posteriores y degradan seriamente la exactitud del c´lculo en su conjunto.2 Condicionamiento Un problema est´ mal condicionado si peque˜os cambios en los datos pueden a n dar lugar a grandes cambios en las respuestas. incertidumbre en los datos f´ ısicos recogidos. 3 xn+1 = 13 4 xn − xn−1 3 3 ∀n ≥ 1 1 La sucesi´n anterior verifica que xn = ( 3 )n . Dado el sistema x + 1. pues cualquier o e error que se presente en xn se multiplica por 13/3 al calcular xn+1 . 1. obtenemos −1.086162170293413 × 10 −6 con la definici´n o inductiva y 2. Si este es grande significa que el problema u o a est´ mal condicionado. mala formulaci´n del o o modelo.01y = 1 0. a Ejemplo: Consideremos la sucesi´n o x0 = 1.2.867971990792441 × 10−10 con la otra definici´n. 1.99x + y = 1 .j |aij |.2. donde A = maxi. En ciertos problemas se puede calcular un n´mero de condici´n. se puede calcular el n´mero de condici´n as´ u o ı: k(A) = A · A−1 . Condicionamiena to. Ejemplo: Dado un sistema de ecuaciones lineales en forma matricial Ax = b.12 Cap´ ıtulo 1 En ambos casos. Si calculamos el t´rmino x11 con o e el programa Maxima. o • Otras causas de error: equivocaci´n de usuario.

Esto significa que peque˜os cambios en b producir´n n a grandes cambios en la soluci´n. para almacetodos empezar´n con 0.. Por ejemplo: −0.13524 × 102 .99x + y = 1 y x + 1.β1 β2 . la mayor parte de las computadoras trabajan con n´meros u reales en sistema binario.Errores.. es decir.1 Aritm´tica de la computadora e Aritm´tica de punto flotante.01)(10100) = 10201. y = 100] 1.625 ∗ 2 = 1.442 × 10−1 C´mo todos los n´meros se traducen seg´n la aritm´tica del punto flotante. estabilidad.25 1 ∗ 2−3 ⇒ −4   . condicionamiento 13 el n´mero de condici´n de la matriz del sistema ser´ k(A) = A · A −1 = u o ıa (1.5 1∗2    . · · · y terminar´n con 10 a a narlos ahorrando memoria.524 se almacena como 13524E2 y el −0.81250 ∗ 2 = 1.99x + y = 1 ⇒ [x = 0.0442 → −0.01y = 1. De hecho: o x + 1. o u u e e . prescinde de lo que es com´n a todos los n´meros.01 0. e e Las computadoras utilizan la llamada aritm´tica del punto flotante. en contraste con el sistema decimal que normalmente se utiliza. y = 1] ⇒ [x = −100. ı Por otra parte.90625 en sistema decimal.524 → 0.625 1 ∗ 2−2   0. almacenan cada n´mero desplazando sus d´ u ıgitos de modo que aparezca de la forma 0.01y = 1 0. redondeo.90625 ∗ 2 = 1.5 ∗ 2 = 1 1 ∗ 2−5 13. u en: 9 = 2 ∗ (2 ∗ (2 ∗ 1 + 0) + 0) + 1 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 = (1001)2  0.81250 1 ∗ 2−1    0.βn × 10e .3. As´ el n´mero 9. se convierte en binario ı.0442 como −442E − 1.25 ∗ 2 = 0. El ordenador.3 1. u u y as´ el 13.

±1/4.0E0.dp se llama parte significativa o mantisa. ±3/8.112 × 2e son u . ±1. la representaci´n de un n´mero en una computadora ser´ de o u a la forma: ± d1 d2 . entonces solo se podr´n almacenar n´meros de la forma a u ±.dp Ee donde B es la base. ±1/2. .11101)2 Con lo que 1. d1 > 0. ±1/8. 2. p es el n´mero m´ximo de bits que puede tener esa parte u a significativa del n´mero que se almacena y es... . ±3/4. llamados n´meros m´quina. Cuanto m´s u a a o a grande sea p.dp × B e y se almacenar´ de la forma a ±d1 d2 ... La parte d1 d2 . Como consecuencia de todo lo anterior....14 Cap´ ıtulo 1 0. ±3/2.. aumentando la precisi´n. p es el n´mero m´ximo u a de bits significativos y e es el exponente de la potencia de B. ±3... ± . por tanto. di ∈ {0. en cualquier m´quina solo se pueden almacenar una cantidad a finita de n´meros. u u a d1 siempre es 1. .. En los ordenadores de base 2. El 0 es un caso especial que se almacena como 00.102 × 2e son u y como los n´meros ±.90625 = 1 ∗ 23 + 0 ∗ 22 + 0 ∗ 21 + 1 ∗ 20 + 1 ∗ 2−1 + +1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (1001. ±2.102 = 1 × 2−1 + 0 × 2−2 = 1/2 ±4. B − 1}.90625 = 1 ∗ 2−1 + 1 ∗ 2−2 + 1 ∗ 2−3 + 0 ∗ 2−4 + 1 ∗ 2−5 = (0. p = 2 y −3 ≤ e ≤ 3.112 = 1 × 2−1 + 1 × 2−2 = 1/2 + 1/4 = 3/4 ±6. 1. finita.112 × 2e con − 3 ≤ e ≤ 3.102 × 2e Como los n´meros ±. Se o gana con ello un bit que se denomina bit escondido. mayor ser´ la precisi´n de la m´quina. ±3/16. con lo que se puede suprimir. Ejemplo: Si en una computadora se tiene que B = 2.11101)2 En general.

3.2 Operaciones con computadoras Supongamos una computadora cuyos par´metros sean B = 10. 2. 1.197 × 10−1 = 0.140 × 101 por ıa redondeo. p = 3 y −9 ≤ a e ≤ 9.0269 = 0.137 × 101 + 0. bien como 2 si se hace por truncamiento.079391 × 105 que se almacena como 0.37 + 0.300 × 102 tanto por redondeo como por trunıa camiento.13969 × 101 que se almacenar´ como 0.269 × 10−1 = = 0.137 × 101 + 0. Todo n´mero mayor que el anterior estar´ en el ıa u ıa desbordamiento positivo de la m´quina. En el producto. p = 23 bits.Errores.3. El n´mero m´ a u ınimo en valor absoluto ser´ 1 755E −38. e = 8 bits. con lo cual el n´mero m´ximo que se podr´ u a ıa almacenar ser´ 1 701E38. condicionamiento 15 En este sistema el n´mero 2 9 se almacenar´ seg´n est´ dise˜ada la comu ıa. redondeo. u e n putadora.794 × 104 por redondeo. estabilidad.403 × 106 · 0. Todo n´mero positivo menor estar´ en el subdesbordamiento ıa u ıa positivo de la m´quina. En la resta: 4850 − 4820 = 0. e ıan u Los par´metros B. el de menor exponente se desplaza para alinear la coma decimal 1. Para la suma.482 × 104 = 0. Veamos como trabajan y como se pueden generar errores al manejar las operaciones b´sicas y el redondeo: a 1.0197 = 0. . se multiplican las cifras significativas y se suman los exponentes: 403000 · 0. Tambi´n se almacenar´ como 2 los n´meros 2 3 o 2 4. De forma similar se definen desbordamiento negativo a y subdesbordamiento negativo.139 × 101 por truncamiento y 0.793 × 104 por truncamiento y 0. p y e de una m´quina real pueden ser los siguientes: a a B = 2.00269 × 101 = 0. o bien como 3 si se hace por redondeo.300 × 102 que se almacenar´ como 0.003 × 104 = 0.485 × 104 − 0.

As´ el n´mero 1/10 en sistema binario es (0. 2.) 2 .228 × 10−4 .28205 × 10−5 que se almacena como 0. se dividen las cifras significativas y se restan los exponeno tes: 0. .5s t ← s + 1.156 × 104 = 2.0 + ε = 1.s stop end if end .0001100110011001.3..0 if t ≤ 1. En la divisi´n.0 y se puede calcular programando este algoritmo: input s ← 1.0 for k = 1. . . 100 do s ← 0. Otra fuente de error puede ser el paso de sistema decimal a sistema binario. ı u 1.16 Cap´ ıtulo 1 4.3 Epsilon de la m´quina a a n u a La diferencia m´s peque˜a entre dos n´meros que puede detectar una m´quina se denomina epsilon de la m´quina. Tambi´n se puede definir como el menor a e n´mero ε > 0 tal que u 1.356 × 10−1 /0.0 then s ← 2.0s output k-1.0356/1560 = 0.. .

5 -10 -8 -6 -4 -2 -0. b] tal o que f (a)f (b) < 0.Cap´ ıtulo 2 Resoluci´n de ecuaciones no o lineales 1. Ejemplo: Dada la ecuaci´n ex − o sen(x) = 0. trataremos o de encontrar m´todos que permitan locae lizar valores aproximados de las soluciones de f (x) = 0. o o Ejercicio: Dada la ecuaci´n ex − sen(x) = 0. El teorema de Bolzano se utiliza en este contexto para localizar intervalos que contengan una soluci´n de f (x) = 0 cuando la funci´n f (x) sea continua.5 -1 f (x) = ex − sen(x) Para resolver ejercicios como el anterior es conveniente recordar los siguientes resultados: Teorema [Bolzano]: Sea f : R → R una funci´n continua en [a.5 Dada una funci´n f : R → R. b) tal que f (c) = 0. encuentra la soluci´n m´s cero a cana a 0. 1 0. o 17 . localiza un intervalo donde o exista una soluci´n. Entonces existe c ∈ (a.

para cada x ∈ [a. derivable o en (a. b] existe un polinomio de grado menor o igual que n que tiene un punto de contacto con f (x) de grado n en x0 . b]. b] o y n + 1 veces derivable en (a. para cada x0 ∈ [a. entre o cada dos soluciones de la ecuaci´n f (x) = 0 debe existir al menos una soluci´n o o de f (x) = 0. b) tal que f (b) − f (a) = f (c). Por tanto. b) y tal que f (a) = f (b).x0 (x) = f (x0 ) + f (x0 )(x − x0 ) + · · · + f n) (x0 ) (x − x0 )n . b). b) tal que f (c) = 0. b).x0 (x) = f n+1) (θx ) (x − x0 )n+1 . n! Adem´s. De este modo. el n´mero m´ximo de soluciones de f (x) = 0 ser´ u a a el n´mero de soluciones de f (x) = 0 m´s uno. b−a . o Ejercicio: Determina el n´mero de soluciones de la ecuaci´n ex − x = 0. b] y derivable en (a.18 Cap´ ıtulo 2 Teorema [Rolle]: Sea f : R → R una funci´n continua en [a. b] existe un punto θx entre x y x0 tal que a f (x) − Pn. Entonces existe c ∈ (a. Dicho polinomio es Pn. el teorema de Rolle u a se utilizar´ para determinar el n´mero m´ximo de soluciones que puede tener a u a una ecuaci´n f (x) = 0. (n + 1)! Teorema [de valor medio]: Sea f : R → R una funci´n continua en o [a. u o Teorema [Taylor]: Sea f : R → R una funci´n n veces derivable en [a. si f (x) cumple las hip´tesis. Entonces. Del teorema de Rolle se deduce que. Entonces existe c ∈ (a.

n→∞ 2n . . 2 Paso n. entonces e o n→∞ lim an = lim bn = lim cn = r n→∞ n→∞ y adem´s f (r) = 0. denotan los intervalos utilizados en el m´todo de la bisecci´n.1 2. b1 ] y calculamos c1 = a1 +b1 . 2 Paso 1. a Demostraci´n. . Si f (cn−1 ) < 0. Si f (c1 ) > 0.´ Resolucion de ecuaciones no lineales 19 2. [an . Partimos del intervalo [a. 2 2. b1 ]. . Supongamos que f (a) < 0 y f (b) > 0 (de forma a n similar se razonar´ si f (a) > 0 y f (b) < 0). definimos an = an−1 y bn = cn−1 . . 2 Paso 2. bn ]. En ambos casos. definimos a2 = c1 y b2 = b1 . . Si f (cn−1 ) > 0. En ambos casos. Veamos que sus l´ ımites son iguales n→∞ y lim bn − lim an = lim(bn − an ) = lim n→∞ 1 (b − a) = 0.2 Convergencia del m´todo e Teorema: Si [a. [a1 . bn ] y calculamos cn = an +bn . la sucesi´n (an )n∈N converge por ser creciente y acotada superioro mente y la sucesi´n (bn )n∈N converge por ser decreciente y acotada inferioro mente.1 M´todo de la bisecci´n e o Descripci´n del m´todo o e Consiste en aplicar de forma reiterada el teorema de Bolzano en intervalos cada vez m´s peque˜os. estudiamos el intervalo [a2 . Si f (c1 ) < 0. . definimos a1 = c0 y b1 = b. definimos a2 = a1 y b2 = c1 . Si f (c0 ) > 0.1. estudiamos el intervalo [a1 . . 2 2 Por tanto. definimos a1 = a y b1 = c0 . Por la construcci´n de las sucesiones se tiene que o o a ≤ a 1 ≤ a 2 ≤ · · · ≤ b 2 ≤ b1 ≤ b 1 1 (bn − an ) = (bn−1 − an−1 ) = · · · = n (b − a). ıa Paso 0. b]. definimos an = cn−1 y bn = bn−1 . b2 ] y calculamos c2 = a2 +b2 . b] y calculamos c0 = a+b . Si f (c0 ) < 0. En ambos casos. estudiamos el intervalo [an .1.

0084 La soluci´n aproximada propuesta ser´ −3.1.20 Dado lo anterior y puesto que an ≤ cn ≤ bn se concluye que n→∞ Cap´ ıtulo 2 lim an = lim cn = lim bn .15625 b6 = −3. como queremos que el error sea menor que 10 o que: 1 1 1 |r − cn | ≤ n+1 |b − a| = n+1 | − 3 − (−4)| = n+1 < 10−2 2 2 2 por lo que n ≥ 6.0277 f (c5 ) = 0.1875 b0 = −3 b1 = −3 b2 = −3 b3 = −3. n→∞ n→∞ Llamemos a ese l´ ımite r. Los c´lculos ser´ los siguientes: a ıan a0 = −4 a1 = −3.3206 f (c1 ) = −0. Aplicaremos el m´todo de la bisecci´n a la funci´n f (x) = ex − sen(x). Una cota del error cometido ser´: a 1 1 1 |r − cn | ≤ |bn − an | = 2 |bn−1 − an−1 | = n+1 |b − a|.125 c3 = −3.1875 c4 = −3.3 Aproximaci´n y error o o o o Una aproximaci´n a la soluci´n de la ecuaci´n f (x) = 0 en el paso n es cn .25 c2 = −3.18125. ıa 2.25 a3 = −3. o ıa .15625 c5 = −3.1875 a6 = −3. n→∞ n→∞ Por tanto f (r) = 0 que era lo que se ten´ que probar. tendremos que calcular c6 .0694 f (c2 ) = 0.25 a4 = −3.5 a2 = −3.18125 f (c0 ) = −0. Por e o o el teorema de Bolzano sabemos que hay una soluci´n de f (x) = 0 en el intervalo o [−4.125 b5 = −3.175 c0 = −3. Veamos ahora que r es la soluci´n de f (x) = 0 o utilizando las hip´tesis de continuidad de f (x) y la condici´n f (an )f (bn ) ≤ 0 : o o 0 ≥ f (r)f (r) = f ( lim an )f ( lim bn ) = n→∞ n→∞ n→∞ lim f (an ) lim f (bn ) = lim f (an )f (bn ) ≤ 0. tendremos soluci´n exacta.0046 f (c4 ) = 0.0554 f (c3 ) = −0.5 c1 = −3.175 c6 = −3. 2 2 2 Ejemplo: Encuentra una aproximaci´n de la soluci´n de ex = sen(x) con o o un error menor que 10−2 .1875 a5 = −3. −3].125 b4 = −3. es decir. puesto que f (−4) < 0 y f (−3) > 0. Si cn es la aproximaci´n y r es la o −2 .

8 1 regula falsi para f (x) = 3x + sen(x) − ex . f (bn ) − f (an ) El paso siguiente es elegir el intervalo formado por los puntos an y cn o bien el formado por cn y bn asegurando que la funci´n en los extremos sea de signo o contrario.5 -1 0.1.372277 = 0. de f (x) = 3x + sen(x) − e a0 a1 a2 a3 a4 =0 =0 =0 =0 =0 b1 b2 b3 b4 b0 = 1 = 0.6 0.94 ∗ 10− 3 f (c3 ) = 2.´ Resolucion de ecuaciones no lineales 21 2. Con este m´todo se calcula as´ e ı: cn = bn − f (bn ) bn − an .361598 = 0.372277 = 0.361598 = 0.265160 f (c1 ) = 0.360538 c0 c1 c2 c3 c4 = 0.94 ∗ 10− 4 f (c4 ) = 2.4 0. 1].360433 f (c0 ) = 0. Ejemplo: Aplicar el m´todo de la regula falsi para encontrar una soluci´n e o x = 0 a partir del intervalo [0.360538 = 0.4 Variaciones del m´todo: Regula Falsi e El m´todo de la Regula-falsi difiere respecto de la bisecci´n en el c´lculo del e o a punto cn .470990 = 0.5 0.2 -0.94 ∗ 10− 5 1 0.470990 = 0.029533 f (c2 ) = 2.

f (x0 ) y repetimos los pasos 1. x1 . f (xn−1 ) f (r) f (r) Ejemplo√ Aplica el m´todo de Newton-Raphson para encontrar una aproe ximaci´n de 2. resolvemos P1. o √ Puesto que queremos una aproximaci´n de 2. . es decir construimos la sucesi´n o xn = xn−1 − f (xn−1 ) .x0 (x) como aproximaci´n de f (x) y. Paso 1. es decir. 2 y 3 sustituyendo el punto xn−1 por el punto xn . Definimos x1 = x 0 − f (x0 ) f (x0 ) f (x0 ) .2 2. Partimos de un punto inicial x0 . Utilizamos P1.22 Cap´ ıtulo 2 2. Utilizamos el m´todo de Newton-Raphson aplicado a ximaci´n de x o e la funci´n f (x) = x2 − 2.x0 (x) = f (x0 ) + f (x0 )(x − x0 ).x0 = 0. es convergente y la funci´n f (x) tiene cierta o o ımite r es la soluci´n puesto que o regularidad. construimos la sucesi´n o o xn = xn−1 − x2 − 2 f (xn−1 ) = xn−1 − n−1 . en vez de resolver o f (x) = 0. f (xn−1 ) Cuando la sucesi´n x0 . su l´ r = lim xn = lim xn−1 − n→ n→ f (xn−1 ) f (r) f (r) =r− ⇒ = 0 ⇒ f (r) = 0. es decir f (x0 ) + f (x0 )(x − x0 ) = 0 ⇒ x = x0 − Paso 3. Paso 2. f (xn−1 ) 2xn−1 . .1 M´todo de Newton-Raphson e Descripci´n del m´todo o e Consiste en utilizar el polinomio de Taylor de grado 1 como aproximaci´n o f (x). bastar´ encontrar una aproo a 2 − 2 = 0.2. Calculamos el polinomio de Taylor de f (x) de grado 1 en x0 P1. x2 . .

´ Resolucion de ecuaciones no lineales

23

Por el teorema de Bolzano, en el intervalo [1, 2] hay una soluci´n. Comenzamos o por el punto x0 = 1.5 : x0 = 1.5, x1 = 1.4167, x2 = 1.4142, x3 = 1.4142, ...

La aproximaci´n ser´ 1.4142. o ıa

2.2.2

Convergencia del m´todo e

Teorema: Si en un cierto intervalo se verifica que f ∈ C 2 (R), estrictamente creciente, f (x) ≥ 0 y f tiene un cero, entonces el cero es unico y la iteraci´n ´ o de Newton-Raphson converger´ a partir de cualquier punto inicial. a

0.5 8 0.4 6 0.3 4 0.2 2 0.1 -1 -2 1 2 3 4 -2 -1 1 2

Newton Raphson converge

Newton Raphson no converge

Demostraci´n. Sea x0 , x1 , . . . , xn la sucesi´n construida por el m´todo de o o e Newton-Raphson, r la soluci´n de la ecuaci´n f (x) = 0 y en = xn − r el error o o en el paso n. Por el teorema de Taylor sabemos que: 0 = f (r) = f (xn ) + f (xn )(−en ) + Por tanto en f (xn ) − f (xn ) = De modo que f (θn ) (−en )2 . 2

f (θn ) 2 en . 2

24

Cap´ ıtulo 2

en+1 = xn+1 − r = xn −

f (xn ) f (xn ) − r = en − = f (xn ) f (xn ) en f (xn ) − f (xn ) f (θn )e2 n = ≥0 f (xn ) 2f (xn ) f (xn ) ≤ en . f (xn )

Por lo tanto xn+1 ≥ r ⇒ f (xn ) ≥ f (r) = 0 ⇒ en+1 = en −

Puesto que xn+1 ≥ r y el error va decreciendo, se concluye que la sucesi´n o (xn )n∈N es decreciente y acotada inferiormente por r, por lo tanto tiene l´ ımite. As´ mismo, la sucesi´n (en )n∈N es decreciente y acotada inferiormente por 0, ı o por lo tanto tambi´n tiene l´ e ımite. Se deduce que
n→∞

lim en+1 =

f (xn ) = n→∞ f (xn ) f (limn→∞ xn ) ⇒ f ( lim xn ) = 0 lim en − n→∞ n→∞ f (limn→∞ xn ) lim en −

(2.1)

y puesto que f (x) es estrictamente creciente se obtiene que limn→∞ xn = r (en caso contrario f (limn→∞ xn ) > f (r) = 0), es decir, la sucesi´n de Newtono Raphson converge a la soluci´n. o

2.2.3

Aproximaci´n y error o

La aproximaci´n a la soluci´n en el paso n del m´todo de Newton-Raphson es o o e xn . Por el razonamiento anterior sabemos que en+1 = f (xn ) 2 e . 2f (xn ) n

Si encontramos una constante C tal que C≥ maxx∈I |f (x)| 2 minx∈I |f (x)|

siendo I un intervalo que contenga a la sucesi´n (xn )n∈N y a la soluci´n r, o o tendremos que |en+1 | ≤ Ce2 n

´ Resolucion de ecuaciones no lineales

25

lo que significa que la convergencia de la sucesi´n de errores es cuadr´tica. En o a estas condiciones C|en+1 | ≤ C 2 e2 ≤ C 2 (Ce2 )2 ≤ · · · ≤ (Ce0 )2 n n−1 es decir C|en | ≤ (Ce0 )2 ⇒ |en | ≤
n n+1

1 n (Ce0 )2 C que es una cota del error que se puede obtener previamente a aplicar el m´todo. e 1 Si |Ce0 | < 1, o lo que es lo mismo |e0 | < C , siendo e0 = x0 − r, tendremos que |en | ≤ 1 n (Ce0 )2 → 0 C

con lo que tenemos otro criterio de convergencia del m´todo. e Ejemplo: Calcula el n´mero de pasos necesarios para encontrar la ra´ u ız −6 cuadrada de 3 con un error menor que 10 1. Con el m´todo de Newton-Raphson e 2. Con el m´todo de la bisecci´n. e o Puesto que la ra´ cuadrada de 3 es soluci´n de x2 − 3 = 0, aplicaremos ız o 2 − 3. Puesto que f (x) es continua en [1, 2] los m´todos a la funci´n f (x) = x e o y tiene distinto signo en los extremos del intervalo, por el teorema de Bolzano se sabe que en [1, 2] hay una soluci´n de f (x) = 0. o Apartado 1). Aplicamos el primer criterio para saber si el m´todo de e Newton-Raphson converger´ en el intervalo [1, 2]. f (x) es un polinomio y por a tanto es de clase C 2 . Como f (x) = 2x > 0 en [1, 2], la funci´n es estrictamente o creciente en [1, 2]. Adem´s f (x) = 2 > 0 en [1, 2]. Por todo ello, podemos a asegurar que el m´todo de Newton-Raphson converger´ a partir de cualquier e a punto de [1, 2]. Veamos el n´mero de iteraciones necesarias para que el error sea menor u −6 . Sabemos que que 10 1 n |en | ≤ (Ce0 )2 C siendo maxx∈[1,2]|f (x)| 2 2 1 C≥ = = = . 2 minx∈[1,2] |f (x)| 2 minx∈[1,2] |2x| 2·2 2

entonces |e4 | ≤ 3. f (xn−1 ) 2xn−1 2xn−1 x3 = 1. lo aplicamos empezando en el punto x0 = 0 xn+1 = xn − e−xn − xn −e−xn − 1 x3 = 0. Aplicamos el m´todo empezando en el punto x0 = 1 e xn = xn−1 − x0 = 1 x1 = 2 x2 − 3 x2 + 3 f (xn−1 ) = xn−1 − n−1 = n−1 .5 x2 = 0.73414 x4 = 1. 1] no podemos aplicar el criterio para asegurar que el m´todo funcione empezando en cualquier punto del intervalo [0. No e obstante. Aplica el m´todo de Newton-Raphson con 4 iteraciones para encontrar e la soluci´n.566311 . o o Como f (x) = e−x −1 < 0 en [0. entonces |e19 | ≤ 9. Calcula una cota del error cometido. Ejemplo: Dada la ecuaci´n e−x − x = 0. o 2. Sabemos que |en | ≤ 1 1 (b − a) = n+1 < 10−6 2n+1 2 y si n = 19.66 ∗ 10−10 . necesitamos 19 iteraciones. Aplicando el teorema de Bolzano al intervalo [0. Luego basta con 5 iteraciones. 1]. es decir. 1] se puede asegurar que en dicho intervalo hay una soluci´n de la ecuaci´n f (x) = 0. o 1. Sea f (x) = e−x − x. entonces |e5 | ≤ 4.567143 x0 = 0 x1 = 0.73205 x5 = 1.54 ∗ 10−7 .26 Por tanto 1 |en | ≤ 1/2 1 e0 2 Cap´ ıtulo 2 2n =2 1 e0 2 2n Si n = 4.73205 x2 = 1.75 Apartado 2).567143 x4 = 0.051 ∗ 10−5 Si n = 5.

4 Variaciones del m´todo: M´todo de la secante e e e Teniendo en cuenta quef (xn ) = limh→0 f (xn +h)−f (xn ) este m´todo se diferenh cia del de Newton-Raphson en que se sustituye f (xn ) por el valor aproximado f (xn−1 )−f (xn−2 ) de modo que la sucesi´n que queda es o xn−1 −xn−2 xn = xn−1 − f (xn−1 ) xn−1 − xn−2 .2.4 x4 = 1.3333 x3 = 1. xn = xn−1 − (x2 − 2) n−1 x2 n−1 xn−1 − xn−2 xn−1 − xn−2 = xn−1 − (x2 − 2) 2 n−1 2 − 2 − [xn−2 − 2] xn−1 − x2 n−2 y tomando tomando x0 = 1 y x1 = 2 nos queda x0 = 1 x1 = 2 x2 = 1.1] |e−x | maxx∈I |f (x)| = = 2 minx∈I |f (x)| 2 minx∈[1. a a o a √ Ejemplo: Calcula una aproximaci´n de 2. Es un m´todo e m´s r´pido que el de la bisecci´n pero m´s lento que el de Newton-Raphson.2] | − e−x − 1| e 1 = ≈ 0.´ Resolucion de ecuaciones no lineales Calculemos una cota del error C|e4 | ≤ (Ce0 )2 siendo C ≥ maxx∈[0. Aplicamos el m´todo a la soluci´n de la ecuaci´n f (x) = x2 − 2 = 0 en el e o o intervalo [1.365529. con 4 iteraciones del m´todo o e de la secante.33 ∗ 10−7 0 n 2. 2].4146 .3715 116 ≈ 0. 2(1/e + 1) 2(e + 1) n −1 n 27 Por tanto |e4 | ≤ C 2 e2 ≤ 0. f (xn−1 ) − f (xn−2 ) Por tanto hay que utilizar dos puntos iniciales en lugar de uno.

La b´squeda de soluciones u de F (x) = x empleando sucesiones de la forma xn = F (xn−1 ).28 4 3 2 1 0. o 3 − x − 1 = 0 es equivalente a resolver una de estas Resolver f (x) = x ecuaciones √ 3 x3 − 1 = x o bien 1 + x = x. 2]. Una soluci´n r de F (x) = x se denomina un punto fijo de o o la funci´n F (x). A menudo. si r = lim xn .3.5 -1 1.3 2. . Cuando la sucesi´n xn es convergente y F (x) es continua. por el o teorema de Bolzano sabemos que hay una soluci´n en el intervalo [1. debido a que F (r) = r. n→∞ n→∞ n→∞ es decir.1 M´todo iterativo de punto fijo e Descripci´n del m´todo o e Ciertos problemas de aproximaci´n se pueden resolver encontrando una soluo ci´n de F (x) = x. el l´ ımite de xn es un punto fijo de F (x). para resolver la ecuaci´n o o F (x) = x se construye la sucesi´n o xn = F (xn−1 ). o n→∞ entonces F (r) = F ( lim xn ) = lim F (xn ) = lim xn+1 = r. e Como pretendemos resolver la ecuaci´n f (x) = x3 − x − 1 = 0. se denomina e m´todo iterativo de punto fijo.5 Cap´ ıtulo 2 M´todo de la secante para f (x) = x2 − 2 e 2.5 2 2. Ejemplo: Encuentra una soluci´n real de x3 − x − 1 = 0 usando cinco o pasos de un m´todo iterativo de punto fijo.

1]. Adem´s ´ a r es el l´ ımite de cualquier sucesi´n que se obtenga a partir de la expresi´n o o xn+1 = F (xn ) siendo x0 ∈ C.´ Resolucion de ecuaciones no lineales 29 con lo que podemos aplicar el m´todo iterativo de punto fijo para resolver la e √ ecuaci´n F (x) = x siendo F (x) = x3 −1 o bien F (x) = 3 1 + x.3.3246.3123 x3 −2 1. comenzando por un punto o del intervalo [1. entonces F tiene un unico punto fijo r ∈ C. es decir. Construyamos o la sucesi´n xn = F (xn−1 ) para ambas funciones. ıa 2. Por tanto la funci´n es contractiva con λ = 1/3. por ejemplo por x0 = 1 resulta lo siguiente: xn = F (xn−1 ) F (x) = √3 − 1 x F (x) = 3 1 + x x0 1 1 x1 0 1. 2].2 Convergencia del m´todo e Definici´n: Sea F : R → R una funci´n. Por el teorema del valor medio |F (y) − F (x)| = |F (θ)(y − x)| = 1 3 3 |F (x) − F (y)| ≤ λ|x − y| (1 + θ)2 (y − x) ≤ 1 1 √ (y − x) = |y − x| 3 3 3 1 ≤ para todo x. f (r) = 0. y ∈ C. La mejor aproximaci´n de r obtenida a o ser´ 1. o Teorema: Si F es una funci´n contractiva que va de un cerrado C ⊂ R o en C (F (C) ⊂ C). Sin embargo. puesto que F (x) es continua. o 3 gente.3224 x4 −9 1. √ Ejemplo: Comprueba que la funci´n F (x) = 3 1 + x es contractiva en o [0.3246 Es claro que para la funci´n F (x) = x3 −√ la sucesi´n no resulta convero 1. para la funci´n F (x) = 1 + x la sucesi´n que sale s´ es o o ı convergente a un n´mero r. Dicho n´mero. 1]. veriu u ficar´ que F (r) = r. y ∈ [0.2600 x2 −1 1. . Se dice que F es contractiva en un o o conjunto C ⊂ R si existe 0 ≤ λ < 1 tal que ∀x.3243 x5 −730 1.

. se tiene que F (r) = r. . la sucesi´n generada mediante la o o expresi´n xn+1 = F (xn ).3 Aproximaci´n y error o Si r es soluci´n de f (x) = 0 obtenida por iteraci´n de una funci´n F (x). x2 . x1 . . xn . . Falta ver que es unico. o o hay un punto fijo. o o o entonces si f (x) es continua y derivable. Sea r = o e limn→∞ xn . es decir. Veamos que (xn )n∈N converge. . xn = x0 + x1 − x0 + x2 − x1 + · · · + xn − xn−1 = x0 + por lo que n n→∞ ∞ k=1 (xk − xk−1 ) lim xn = x0 + lim ∞ k=1 (xk n→∞ k=1 (xk − xk−1 ) = x0 + k=1 (xk − xk−1 ) La serie ∞ k=1 − xk−1 ) es convergente porque ∞ ∞ (xk − xk−1 ) ≤ k=1 |xk − xk−1 | ≤ k=1 λk−1 (x1 − x0 ) = |x1 − x0 | 1 1−λ Como la serie es convergente. . Entonces ´ |r1 − r2 | = |F (r1 ) − F (r2 )| ≤ λ|r1 − r2 | < |r1 − r2 | llegando a contradicci´n. o 2. r ∈ C por ser C un conjunto cerrado y xn ∈ C. existe θn ∈ R entre r y xn tal que f (r) − f (xn ) = f (θn ). Sea x0 . .30 Cap´ ıtulo 2 Demostraci´n. r − xn .3. la sucesi´n (xn )n∈N tambi´n lo es. Por ser contractiva o se tiene que |xn − xn−1 | = |F (xn−1 ) − F (xn−2 )| ≤ λ|xn−1 − xn−2 | ≤ Por otra parte n λ2 |xn−2 − xn−3 | ≤ · · · ≤ λn−1 |x1 − x0 |. Supongamos que hubiese dos puntos fijos r1 y r2 . Por la construcci´n de la sucesi´n.

5]) ⊂ [−3. o Ejemplo: Encuentra una soluci´n de la ecuaci´n 4 + 1 sin(2x) − x = 0 o o 3 con un m´todo iterativo de punto fijo estimando una cota del error a priori y e otra a posteriori. se deduce que f (xn ) |f (xn )| f (xn ) ⇒ |en | ≤ .5] se deduce que hay o una soluci´n de f (x) = 0 en dicho intervalo. 4. 4. 1 Por otra parte.5. 3 3 2 Se deduce que F (x) es contractiva con constante λ = 3 . la sucesi´n xn+1 = F (xn ) converger´ a un punto fijo a partir de o a cualquier valor inicial x0 .5. e Si F (x) es contractiva de constante λ entonces |xn+p − xn | = |xn+p − xn+p−1 | + |xn+p−1 − xn+p−2 | + · · · + |xn+1 − xn | ≤ ≤ λn+p−1 |x1 − x0 | + λn+p−2 |x1 − x0 | + · · · + λn |x1 − x0 | = = (λn+p−1 + λn+p−2 + · · · + λn )|x1 − x0 | = = λn (λp−1 + λp−2 + · · · + 1)|x1 − x0 | 1 1−λ de modo que cuando p tiende a infinito ∞ |en | = |r − xn | ≤ λ n k=0 λk = λ n |x1 − x0 | que es una f´rmula que permite calcular una cota de error a priori.5. puesto que −3.5.r] |f (θ)| La f´rmula anterior nos proporciona un m´todo para encontrar una cota de o e error a posteriori y se puede aplicar a cualquier m´todo iterativo de punto fijo. se deduce que F ([−3. 4. = f (θn ) ⇒ en = en f (θn ) minθ∈[xn . Aplicando el teorema 3 3 de Bolzano a la funci´n f (x) en el intervalo [−3.´ Resolucion de ecuaciones no lineales 31 Suponiendo que xn ≤ r y puesto que f (r) = 0 y −en = r − xn . Sea f (x) = 4 + 1 sin(2x) − x y F (x) = 4 + 1 sin(2x).5 ≤ 4 + 3 sin(2x) ≤ 4. Veamos si F (x) es contractiva o aplicando el teorema del valor medio 2 2 |F (y) − F (x)| = |F (θ)(y − x)| = | cos(2x)(y − x)| ≤ |y − x|. Por tanto. Calculamos cinco iteraciones empezando en x0 = 0 : .5].

Ejemplo: r = 1 es una soluci´n de multiplicidad 2 para la ecuaci´n o o x2 − 2x + 1 = 0.4. hay que aplicar m´todos num´ricos para el e e c´lculo de dichas ra´ a ıces.5.230895147 x4 4. Sin embargo podemos intentar calcular las ra´ ıces de otro polinomio con las mismas soluciones que el nuestro pero todas con multiplicidad 1.256383406 Una cota del error para x5 a priori ser´ ıa |e5 | ≤ 2 3 5 1 1− 2 3 |4 − 0| ≈ 1.4 Ra´ ıces de polinomios No existe ninguna f´rmula algebraica para la resoluci´n de ra´ de polinomios o o ıces de grado mayor que 4. Una cota del error para x5 a posteriori ser´ ıa |e5 | ≤ |f (x5 )| 0. ≤ 2 1/3 minθ∈[−3.329786082 x3 4.5] | 3 cos(2θ) − 1| 2.00239847. por tanto.32 x0 0 x1 4 x2 4. .5802 que no es una cota muy buena.00719542 = 0. Para la localizaci´n de ra´ o ıces de polinomios con multiplicidad par (como en el ejemplo anterior) no podemos emplear el teorema de Bolzano.273633799 Cap´ ıtulo 2 x5 4. Definici´n: Una soluci´n r de una ecuaci´n f (x) = 0 se dice que tiene o o o multiplicidad n si f (r) = f (r) = · · · = f n−1) (r) = 0 f n) (r) = 0.

C. (x − r1 )m1 −1 por lo que el polinomio Q(x) = P (x) = an (x − rk )(x − rk−1 ) .C. Pn (x)) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 .2 0. (x − r1 )m1 −1 M (x) siendo M (x) un polinomio tal que M (ri ) = 0.D(Pn (x). .6 0.D(Pn (x). .´ Resolucion de ecuaciones no lineales 1 0. podemos descomponerlo as´ ı: Pn (x) = an (x − rk )mk (x − rk−1 )mk−1 . . Si derivamos. . De modo que dado un polinomio Pn (x). El m´ximo com´n divisor de a u Pn (x) y de Pn (x) es D(x) = M. (x − r1 )m1 siendo mi la multiplicidad de la ra´ i-´sima.C. . contando cada cero tantas veces como indique su multiplicidad.D(Pn (x). Pn (x)) tiene las mismas ra´ ıces que P (x) pero todas con multiplicidad 1.4 0.8 0. . . Pn (x)). obtenemos que ız e Pn (x) = an (x − rk )mk −1 (x − rk−1 )mk−1 −1 . (x − r1 ) M. Bastar´ ıa aplicar los m´todos a Q(x) para localizar las ra´ e ıces de Pn (x). El problema es el c´lculo de Q(x) y de M. .5 1 1. a .5 2 33 f (x) = x2 − 2x + 1 Teorema [Teorema fundamental del ´lgebra]: Un polinomio de grado n a con coeficientes reales tiene exactamente n ceros o ra´ ıces entre los n´meros u complejos C.

Sucesi´n de Sturm. Llegamos a un resto rk (x) constante distinto de 0. .4. b]. −rk (b) es el n´mero de ra´ u ıces de Pn (x) en el intervalo [a. . Construimos entonces la sucesi´n de Sturm coo rrespondiente al polinomio Q(x) = Pn (x) rk−1 (x) que es un polinomio que tiene las mismas ra´ que Pn (x) pero todas simples. −r1 (x). . . . Pn−1 (b). ıces 2. Sea Pn (x) un polinomio de grado n y Pn (x) su derivada. . −rk (a) Pn (b).. . . La diferencia entre el n´mero de cambios de signos de las sucesiones siguientes u Pn (a). . En este caso la sucesi´n de Sturm es o Pn (x). En este caso rk−1 (x) es el m´ximo com´n a u divisor de Pn (x) y de Pn (x). −rk (x). −rk−2 (x) = c1 (x)Pn (x) + r1 (x) = c2 (x)(−r1 (x)) + r2 (x) = c3 (x)(−r2 (x)) + r3 (x) = ck (x)(−rk−1 (x)) + rk (x) Puede ocurrir lo siguiente: 1. b]. o La sucesi´n de Sturm nos permite calcular el n´mero de ra´ de un polinomio o u ıces en un intervalo [a. Pn (x) y a los restos obtenidos cambiados de signo: Pn (x) Pn (x) −r1 (x) . Para construir la sucesi´n de Sturm aplicamos la divisi´n de polinomios o o repetidas veces a Pn (x). . Pn−1 (x).1 Separaci´n de ra´ o ıces. .. −r1 (b).34 Cap´ ıtulo 2 2. Hay un resto rk (x) = 0. . . Pn−1 (a). −r1 (a).

El tercer miembro de la sucesi´n de Sturm es 300x2 − 50x − 50. Como hay un resto que es 0 el m´ximo com´n divisor de P (x) y P (x) es a u 300x2 − 50x − 50 o bien dividiendo por 50 6x2 − x − 1. 2. 12x − 1. Multiplicamos Pn (x) por 4 y efectuamos la primera divisi´n: o 144x4 −48x3 −44x+8x+4 = (x−1)(144x3 −36x2 −22x+2)+(−300x2 +50x+50). . −2) y en (0. −x−1 x −25 1 + )(12x − 1) + 24 2 24 25 24 0 + 1 2 + + + 0 ∞ + + + 0 4. o 6x2 − x − 1 = (− Con la sucesi´n es o 6x2 − x − 1. 12x La derivada de P (x) es P (x) = 144x3 −36x2 −22x+2. Estudiamos algunos cambios de signo: 6x2 − x − 1 12x − 1 25 24 cambios de signo −∞ + + 2 -2 + + 2 En el intervalo (∞. 2) no hay ninguna ra´ porque en los extremos ız de los intervalos la sucesi´n de Sturm tiene los mismos cambios de signo. Construimos la sucesi´n de Sturm para Q(x). calculamos el polinomio Q(x) = 6x2 P (x) = 6x2 − x − 1.´ Resolucion de ecuaciones no lineales 35 Ejemplo: Localiza en intervalos disjuntos las ra´ ıces del P (x) = 36x 4 − 3 − 11x2 + 2x + 1. 2) porque ız la diferencia de cambios de signo en los extremos en ambos casos es 1. Efeco tuamos la siguiente divisi´n: o 144x3 − 36x2 − 22x + 2 = 2/50(12x − 1)(300x2 − 50x − 50) + 0 3. o En el intervalo (−2. Podemos multiplicar los polinomios implicados por numeros positivos para facilitar los c´lculos sin a que ello afecte al objetivo perseguido. 0) hay una ra´ y hay otra en el intervalo (0. Comenzamos los c´lculos: a 1.

(0. Multiplicamos −r1 (x) por 2 y calculamos −r3 (x): 9 −1 18x2 + 18x + 4 = (9x + )(2x + 1) + . −1). 2 Separamos las ra´ ıces en intervalos disjuntos: x4 + 2x3 − 3x2 − 4x − 1 2x3 + 3x2 − 3x − 2 9x2 + 9x + 2 2x + 1 1 2 cambios de signo -1/2 + 0 + 2 0 + + + 1 1 0 + + + 1 2 + + + + + 0 ∞ + + + + + 0 En el intervalo (∞. 1) y en (2. 9x2 + 9x + 2. En cada uno de los intervalos (−3. Para facilitar los c´lculos multiplicamos P (x) por 9 y calculamos el siguiente a miembro de la sucesi´n: o 18x3 + 27x2 − 27x − 18 = (2x + 1)(9x2 + 9x + 2) + (−40x − 20). −1/2. −2). 2 2 2 Podemos multiplicar por 2 el resto con lo que −r1 (x) = 9x2 − 9x + 2. 1 . −∞ + + + 4 -3 + + + 4 -2 0 + + 3 -1 + + + 3 x4 + 2x3 − 3x2 − 4x − 1. 2x + 1. 0 y (1. 2 2 Con lo que la sucesi´n queda as´ o ı: 2x3 + 3x2 − 3x − 2. (−1. 2) hay una ra´ porque la diferencia de cambios de signo en los extremos en ambos ız casos es 1. Para facilitar el c´lculo multiplicamos P (x) por 2 y calculamos es tercer miembro a de la sucesi´n de Sturm: o 9 9 1 2x4 + 4x3 − 6x2 − 8x − 1 = (x + )(2x3 + 3x2 − 3x − 2) + (− x2 − x − 1). ∞) no hay ninguna ra´ ız porque en los extremos de los intervalos la sucesi´n de Sturm tiene los mismos o cambios de signo. −3). (−2.36 Cap´ ıtulo 2 Ejemplo: Localiza en intervalos disjuntos las ra´ del P (x) = x4 +2x3 − ıces − 4x − 1. −1/2). 3x2 La derivada es P (x) = 4x3 + 6x2 − 6x − 4 = 2(2x3 + 3x2 − 3x − 2). . Dividiendo por 20 podemos suponer que −r2 (x) = 2x + 1.

Supongamos que |r| > 1. usando la proposici´n anterior obtenemos o que cualquier ra´ r del polinomio verifica lo siguiente ız |r| < 1 + A 4 = 1 + = 5 ⇒ −5 < r < 5.2 Acotaci´n de ra´ o ıces siendo A = max0≤i≤n−1 |ai |. es trivial que |r| < 1 + A .´ Resolucion de ecuaciones no lineales 37 2.4. |an | A |r| − 1 con lo que concluimos que A |an | . Proposici´n: Sea P (x) = an xn + an−1 xn−1 + · · · + a0 . entonces A |r| < 1 + |an | Demostraci´n. Com A = max1≤i≤n−1 |ai | = 4. o 0 = |P (r)| = |an rn + an−1 rn−1 + · · · + a0 | ≥ ≥ |an rn | − |an−1 rn−1 + · · · + a0 | ≥ |an rn | − A |r|n−1 + · · · + |r| + 1 = |r|n − 1 |r|n |an rn | − A > |an ||r|n − A |r| − 1 |r| − 1 ≥ |an rn | − |an−1 ||rn−1 | + · · · + |a0 | ≥ > |r|n |an | − es decir. 0 > |an | − A A A ⇒ |an | < ⇒ |r| − 1 < |r| − 1 |r| − 1 |an | |r| < 1 + Si |r| ≤ 1. |an | 1 . Si r es una ra´ de o ız P (x). Ejemplo: Acota las ra´ ıces del polinomio P (x) = x4 + 2x3 − 3x2 − 4x − 1.

b0 P (x0 ) x0 cn−2 x0 cn−3 x0 . . Adem´s. c0 x 0 cn−2 cn−3 cn−4 . Entonces P (x0 ) = R y P (x) = Q(x)(x − x0 ) + P (x0 ). an x0 bn−1 . Sea P (x) = Q(x)(x − x0 ) + R (R ser´ constante) el resultado de dividir P (x) entre (x − x0 ). e a P (x) = Q(x)(x − x0 ) + R ⇒ P (x) = Q (x)(x − x0 ) + Q(x) ⇒ P (x0 ) = Q(x0 ). . a1 a0 x0 bn−1 x0 bn−2 x0 . De modo que para calcular P (x0 ) podemos aplicar el algoritmo gr´fico anterior a a Q(x) : an an−1 an−2 . con lo que La obtenci´n de los coeficientes bi se pueden representar gr´ficamente as´ o a ı an−1 an−2 . .3 Ra´ ıces de polinomios con el algoritmo de Horner Si usamos el m´todo de Newton-Raphson para encontrar las ra´ e ıces de un polinomio P (x) hemos de calcular P (xn ) y P (xn ). El algoritmo de Horner hace estos ultimos c´lculos de forma sencilla para polinomios. . . . .. a1 a0 b1 x0 b0 x0 b0 P (x0 ) que tambi´n es una forma sencilla de calcular P (x0 ). P (x) − P (x0 ) = Q(x)(x − x0 ) es decir an xn + an−1 xn−1 + · · · + a1 x + a0 − P (x0 ) = = (bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 )(x − x0 ) Desarrollando e igualando los coeficientes de ambos t´rminos se deduce e que bn−1 = an . . Supongamos a que Q(x) = bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 . . bn−1 x0 bn−2 x0 .. P (x0 ) . . b1 x 0 b0 x0 bn−1 bn−2 bn−3 . . . b0 = a1 +b1 x0 P (x0 ) = a0 +b0 x0 . bn−2 bn−3 .38 Cap´ ıtulo 2 2. .4. . . bn−2 = an−1 +bn−1 x0 . . ´ a Sea x0 ∈ R y P (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ..

o se puede acelerar la convergencia de la sucesi´n calcul´ndola as´ o a ı xn+1 = xn − k f (xn ) . .´ Resolucion de ecuaciones no lineales 39 Ejemplo: Siendo P (x) = x4 + 2x3 − 3x2 − 4x − 1.4 Ra´ ıces m´ ltiples u Si una ecuaci´n f (x) = 0 tiene soluciones m´ltiples. entonces puede ocurrir que la soluci´n r verifique que o f n) (r) = 0 ∀ 0 ≤ n < k y f k) (r) = 0. 2. Sea o no f (x) un polinomio. el c´lculo puede ser o u a problem´tico. Si la sucesi´n generada converge muy lentamente. f (xn ). En este caso. para cada termino de la sucesi´n xn generada ız o o calculamos f (xn ). Si las derivadas hasta orden k − 1 son casi 0 en los valores xn y f k) (xn ) no es cercano a 0. f k) (xn ). 2 1 −3 4 −5 4 10 14 36 2 5 7 18 31 2 4 18 50 2 9 25 68 2 Se concluye que P (2) = 31 y P (2) = 68. la causa puede o encontrarse en esa multiplicidad de las ra´ ıces. f (xn ) . . Para detectar de qu´ multie plicidad es la ra´ en cuesti´n. f (xn ). se puede intentar aplicar el m´todo de Newtone Raphson. . calcula con el algoritmo de Horner P (2) y P (2). . podemos intentar calcular las ra´ a ıces de P (x) Q(x) = M CD(P (x). P (x)) que ser´ un polinomio con las mismas ra´ a ıces que f (x) pero todas con multiplicidad 1. Si f (x) es un polinomio.4. es decir que r sea una soluci´n de f (x) = 0 de multiplicidad k.

b] |f (θ)| Cap´ ıtulo 2 Ejercicio: Sea f (x) = (x − 1)3 . o . Aplica Newton-Raphson para encontrar una soluci´n de f (x) = 0 empezando en x0 = 0.40 El error se obtendr´ as´ ıa ı |en | < |f (xn )| minθ∈[a.

j≤n .1 ´ Algebra de matrices Sea A una matriz. el sistema anterior se puede expresar A·x=b 3. La matriz traspuesta de A es la matriz At que resulta de intercambiar las filas de A por las columnas de A. b = (bi )1≤i≤n y x = (xi )1≤i≤n . 41 . A es de orden m×n si tiene tiene m filas y n columnas (A = (aij )1≤i≤m.1≤j≤n ∈ Mm×n ).Cap´ ıtulo 3 Sistemas Lineales El objetivo de este tema es el desarrollo de t´cnicas de b´squeda de soluciones e u de sistemas de ecuaciones lineales como el siguiente: a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn an1 x1 + an2 x2 + · · · + ann xn = = ··· = b1 b2 bn Denotando A = (aij )1≤i. Por ejemplo 3 5 2 2 1 3 tiene orden 2 × 3.

La matriz inversa es 1 (Ai.. e Si α ∈ R y B es una matriz. ∀A ∈ Mn×n . entonces A es regular.Sumar dos matrices A y B si A.1≤j≤n ∈ Mm×n . o cualquier combinaci´n finita de las operaciones anteriores. B es una matriz inversa de A por la derecha si B · A = Id B es una matriz inversa de A por la izquierda si A · B = Id. Si A ∈ Mn×n tiene inversa. . al producto de una fila o columna por un n´mero distinto u de 0.42 Cap´ ıtulo 3 A es sim´trica si At = A. podemos realizar las siguientes operaciones: ..j + bij )1≤i.  0 0   1 Se verifica que A · Id = Id · A = A.. 0 siendo Ai. A−1 = |A| La matriz identidad de orden n × n es  1 0 0 0 1 0 Id =   . a la suma de una fila o columna otra fila o columna multiplicada por un n´mero. B ∈ Mm×n : A + B = (ai. . entonces la inversa por la izquierda es tambi´n inversa por e −1 la derecha.j≤m .Multiplicar una matriz por un n´mero: u α · A = (αaij )1≤i≤m. 0 0 .. Cada u o . Si A ∈ Mn×n .. . . En este caso el sistema A · x = b tiene como soluci´n x = A−1 · b.1≤j≤n .. invertible o no singular..j el adjunto del elemento aij . o Se llaman operaciones elementales de una matriz al intercambio de dos filas o columnas.Multiplicar dos matrices A ∈ Mm×p y B ∈ Mp×n : p A·B =( k=1 aik bkj )1≤i≤m. En este caso la inversa es unica y se denota A ´ A−1 · A = A · A−1 = Id.j )t ..

entonces existe un conjunto de matrices fundamentales Ek con k = 1. E1 Id = A−1 . tales que Ep Ep−1 . . Si A ∈ Mn×n tiene inversa. p. con lo que multiplicando por A−1 por la derecha en ambos t´rminos se obtiene e que Ep Ep−1 . . El producto de matrices     1 0 0 a11 a12 a13 0 0 α  · a21 a22 a23  0 1 αλ a31 a32 a33 Y la suma a la tercera fila de la segunda fila multiplicada por un n´mero α es: u       a11 a12 a13 1 0 0 a11 a12 a13  0 1 0 · a21 a22 a23  =  a21 a22 a23 αa21 + a31 αa22 + a32 αa23 + a33 a31 a32 a33 0 α 1 la segunda fila   a11 0 0 α 0 · a21 a31 0 1 por un n´mero α se puede expresar as´ u ı:    a12 a13 a11 a12 a13 a22 a23  = αa21 αa22 αa23  a32 a33 a31 a32 a33 . .Multiplicar la tercera fila por αλ y sumarle la segunda. dada la matriz   a11 a12 a13 A = a21 a22 a23  . que se llama matriz fundamental. aplicando las mismas operaciones fundamentales a la matriz Id obtendremos la matriz inversa A−1 . es decir. .Sistemas lineales 43 operaci´n fundamental en una matriz A se puede expresar mediante producto o de A por otra matriz. E1 A = Id. a31 a32 a33 el intercambio de la  1 0 0 0 0 1 El producto de  1 0 0 segunda y tercera filas se puede     a11 a11 a12 a13 0 1 · a21 a22 a23  = a31 a21 a31 a32 a33 0 expresar as´ ı:  a12 a13 a32 a33  . . . .Sustituir la fila segunda por la tercera multiplicada por α. Por ejemplo. . . a22 a23 representa aplicar a la segunda matriz los siguientes cambios: .

´ .44 Ejemplo: Calcula la inversa de la matriz  1 2 3 A = 1 3 3  . 2 4 7  Cap´ ıtulo 3 Partimos de A y la matriz Id. El primer cambio consiste en restar a la segunda fila la primera (correspondiente al producto por una cierta matriz fundamental E1 ):     1 0 0 1 2 3 E1 · Id = −1 1 0 E1 · A = 0 1 0  0 0 1 2 4 7 El segundo cambio (multiplicar por E2 ) consiste en restar a la tercera dos veces la primera:  1 2 3 E2 · E 1 · A = 0 1 0  0 0 1   1 0 0 E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto dos veces la segunda (E3 ):   1 0 3 E3 · E2 · E1 · A = 0 1 0 0 0 1  3 −2 0 E3 · E2 · E1 · Id = −1 1 0 −2 0 1  A la primera le resto tres veces la tercera (E4 ):  1 0 0 E4 ·E3 ·E2 ·E1 ·A = 0 1 0 0 0 1   9 −2 −3 0  = A−1 . E4 ·E3 ·E2 ·E1 ·Id = −1 1 −2 0 1  Esta ultima matriz es la inversa de A.

λ es un valor propio o autovalor de la matriz A. Para cada b ∈ Rn . u . se verifica que xt · A · x > 0. 3. La matriz A = 2 1 1 2 Sea (x1 . A es producto de matrices elementales. (x1 . o 3. y x es un vector propio o autovector para el autovalor λ. Los vectores fila de la matriz A son linealmente independientes. ´ o 6. entonces. Los vectores propios de A para el autovalor λ. |A| = 0.1 Valores propios y vectores propios Sea A ∈ Mn×n . 1 2 1 2 Si A es una matriz definida positiva y sim´trica. Se dice que A es definida positiva (equivalentemente.Sistemas lineales 45 Para toda matriz A ∈ Mn×n son equivalentes: 1. 3. x2 ) un vector no nulo. x2 ) · es definida positiva. 2 1 x1 · x2 1 2 = (x1 . Si existe un vector x ∈ Rn no nulo y un n´mero λ ∈ R tal u que A · x = λx.1. 5. Ejemplo. A−1 existe. entonces los autovalores e de A son todos n´meros reales y positivos. negativa) si para todo x ∈ Rn no nulo. Los vectores columna de la matriz A son linealmente independientes.1. 4. 2. el sistema A · x = b tiene una unica soluci´n. son los elementos de n´cleo de u la aplicaci´n lineal A − λ · Id.2 Matriz definida Sea A ∈ Mn×n . Los valores propios de una matriz A son las ra´ ıces del llamado polinomio caracter´ ıstico |A − λ · Id|. x2 ) · 2x1 + x2 x1 + 2x2 = 2x2 + x1 x2 + x1 x2 + 2x2 = (x1 + x2 )2 + x2 + x2 > 0.

Multiplicamos una ecuaci´n por un n´mero distinto de cero... Si |A| = 0.. xn = a11 a21 a2n . Para evitar este problema se utilizan m´todos num´ricos de resoluci´n de ecuaciones e e o lineales que pueden ser: • Directos: proporcionan un resultado que ser´ exacto salvo errores de a redondeo tras un n´mero determinado de operaciones. . u • Iterativos: construyen una sucesi´n de soluciones aproximadas.. a1n−1 a2n−1 b1 b2 ann−1 bn |A| Los c´lculos anteriores son poco pr´cticos cuando el n´mero de ecuaciones a a u es grande. . Por ejemplo. o Se dice que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones... o existe una unica soluci´n y se puede calcular as´ ´ o ı: b1 b2 x1 = bn a12 . Sumamos a una ecuaci´n otra ecuaci´n multiplicada por un n´mero. puede no haber soluci´n. . para n = 50 se necesitan 1064 operaciones. Es decir. . o o u 3. resulta un sistema equivalente si efectuamos alguna de las siguientes operaciones: 1. ··· . En un sistema de ecuaciones se pueden efectuar operaciones elementales en la matriz de los coeficientes y en la de los t´rminos independientes e y resulta un sistema equivalente. . o u 2. a22 . de modo o que en cada paso se mejora la aproximaci´n anterior.46 Cap´ ıtulo 3 3. si |A| = 0. ..2 Resoluci´n de sistemas de ecuaciones lineales: o m´todo de Gauss e Dado el sistema A · x = b. .. . . |A| a1n a2n ann . . Intercambiamos dos ecuaciones. an2 .

. . . e • Paso i (i ≥ 2). se intercambian las filas de orden mayor o igual que i para que esto no suceda. Si a11 = 0. xn−1 . En las operaciones de sumas de filas hay que incluir los t´rminos independientes. se intercambian las filas para que esto no suceda. . se convierten en 0 los elementos que se encuentran en la columna i de la fila j (j > i).1 M´todo de Gauss e El m´todo de Gauss cl´sico es un m´todo directo que transforma mediante e a e operaciones elementales el sistema de ecuaciones que se pretende resolver en un sistema equivalente triangular de f´cil resoluci´n. Ejemplo: Resuelve el siguiente sistema de ecuaciones: 6x1 − 2x2 + 2x3 + 4x4 12x1 − 8x2 + 6x3 + 10x4 3x1 − 13x2 + 9x3 + 3x4 −6x1 + 4x2 + x3 − 18x4 = 12 = 34 = 27 = −38. a o El m´todo de Gauss puede resumirse en lo siguiente: e • Paso 1.Sistemas lineales 47 3. Si aii = 0. Si a11 = 0. Conseguido esto. En forma matricial es sistema ser´ ıa      6 −2 2 4 x1 12  12 −8 6 10  x2   34     =  . se convierten en 0 los elementos que se encuentran en la primera columna distintos del pivote. se elige aii como elemento pivote. x1 . llamados u multiplicadores. Sumando a cada una de las filas que ocupan el lugar j (j > i) la fila del elemento pivote multiplicada por n´meros.2. Sumando a cada una las filas restantes la fila del elemento pivote multiplicada por ciertos n´meros. se elige a11 como elemento pivote. el c´lculo de la soluci´n es sencillo siguiendo el a o siguiente orden: xn . En las operaciones de sumas de filas hay que incluir los t´rminos independientes. u llamados multiplicadores. Si aii = 0. e Se efect´an los pasos necesarios hasta que la matriz de los coeficientes sea u triangular.  3 −13 9 3  x3   27  −6 4 1 −18 x4 −38 En el sistema anterior el m´todo de Gauss podr´ aplicarse as´ e ıa ı: .

Elegimos como elemento pivote el t´rmino 2 de la tercera fila y e efectuamos la siguiente operaci´n: o (fila 4a ) − 2(fila 3a ) obtenemos el sistema      12 x1 6 −2 2 4 0 −4 2 2  x2   10       0 0 2 −5 x3  = −9 . Elegimos como elemento pivote el t´rmino 6 de la primera fila e y efectuamos las siguientes operaciones: (fila 2a ) − 2(fila 1a ) (fila 3a ) − 1/2(fila 1a ) (fila 4a ) − (−1)(fila 1a ) Paso 2. −3 x4 0 0 0 −3     2 4 x1 12 2 2  x2   10    =  . 0 −12 8 1  x3   21  x4 0 2 3 −14 −26 Paso 3.48 Cap´ ıtulo 3 1. Paso 1. 2 −5  x3   −9  4 −13 x4 −21 que es un sistema de ecuaciones triangular superior de f´cil resoluci´n: a o  x1 = 1/6(12 − 4x4 − 2x3 + 2x2 ) = 1 6x1 − 2x2 + 2x3 + 4x4 = 12    −4x2 + 2x3 + 2x4 = 10 x2 = −1/4(10 − 2x4 − 2x3 ) = −3 ⇒ 2x3 − 5x4 = −9  x3 = 1/2(−9 + 5x4 ) = −2   x4 = 1 −3x4 = −3 . Elegimos como elemento pivote el t´rmino −4 de la segunda fila y e efectuamos las siguientes operaciones: (fila 3a ) − 3(fila 2a ) obtenemos el sistema  6 −2 0 −4  0 0 0 0 (fila 4a ) − (−1/2)(fila 2a ) obtenemos el sistema      6 −2 2 4 x1 12 0 −4 2 2  x2   10     =  .

si consideramos el redondeo.2 M´todo de Gauss con pivoteo e En un sistema como este 0. redondeando a dos decimales. De hecho. al hacer los c´lculos con le a 999 −17 se obtiene x = 1 y x = 0. ser´ x2 = 0.2.Sistemas lineales 49 Se verifica que A = L · U . con = 10 2 1 Esto sucede cuando el elemento pivote en alg´n paso es muy peque˜o u n comparado con el resto de los elementos a los que divide. siendo A la matriz de los coeficientes inicial. Si = 0. obtendr´ ıamos que x2 = 0. si = 0 es peque˜o. ser´ ıan: x2 = 2− 1− 1 1 1 ⇒ x1 = (1 − x2 ) 1 0. Sin embargo las soluciones exactas ıa son x2 = 998 ≈ 1 y x1 = 1000/999 ≈ 1.001 1 1 1 x1 x2 = 1 2 el m´todo de Gauss no funcionar´ correctamente por errores de redondeo. que. U la matriz de los coeficientes final y L la matriz formada por los n´meros que u hemos utilizado para multiplicar las filas (multiplicadores): 1 0  2 1 L= 1/2 3 −1 −1/2  0 0 1 2  0 0  0 1 3.998998998999.001. el sistema n 1 1 1 x1 x2 = 1 2 aplicando el m´todo de Gauss se transformar´ en e ıa 1 0 1− 1 x1 x2 = 1 2− 1 con lo que las soluciones. programa Maxima o Mathematica. por lo que x1 = 0. En e ıa general. En este caso el .

50 Cap´ ıtulo 3 multiplicador correspondiente ser´ muy grande y la ecuaci´n que origina es a o ”casi¨n m´ltiplo de la ecuaci´n del elemento pivote: u u o 1 1 (fila 2a ) − (fila 1a ) ≈ − (fila 1a ). aplicando el pivoteo parcial. independientemente de si aii es cero o no. j ≥ i. Elegimos como elemento pivote el t´rmino 6 de la ultima fila por e ´ ser el de mayor valor absoluto de entre los elementos de la primera columna. El pivoteo parcial ser´ este proceso: ıa Paso 1. con k ≥ i. Pivoteo total: si estamos en el paso i. Pivoteo parcial: si estamos en el paso i. o Ejemplo: Resuelve el siguiente sistema de ecuaciones: 2x2 + x4 2x1 + 2x2 + 3x3 + 2x4 4x1 − 3x2 + x4 6x1 + x2 − 6x3 − 5x4 = = = = 0 −2 −7 6. y se reordenan las filas. con k. Este problema se puede resolver de dos formas: 1. y se reordenan las filas y columnas. se elige como elemento pivote el elemento akj que tenga mayor valor absoluto entre los de la columna i y los de la fila i. 2. independientemente de si aii es cero o no. se elige como elemento pivote el elemento aki que tenga mayor valor absoluto entre los de la columna i. Obtenemos la matriz   6 1 −6 −5 | 6 2 2 3 2 | −2   4 −3 0 1 | −7 0 2 0 1 | 0 La matriz de los coeficientes y  0 2 2 2  4 −3 6 1 de los t´rminos independientes ser´ e ıa  0 1 | 0 3 2 | −2  0 1 | −7 −6 −5 | 6 . Esta opci´n tiene un importante o inconveniente pues hay que reordenar las inc´gnitas.

5600x4 = = = = 6 −11 .9999 Paso 2.6364 | −9.3333 | −11 (fila 3 6 0 2 0 1 | 0 51 Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 1.1818 (fila 3a ) 0 0 6.6667 | −4  0 2 0 1 | 0 Paso 3. Se obtiene la soluci´n: o .6667 4 4.3333 | −11   0 1. Este sistema se resuelve f´cilmente por ser triangular despejando las inc´gnitas a o en orden inverso. Obtenemos la matriz   6 1 −6 −5 | 6 0 −3.6667 5 3.1199 que se corresponde con el sistema de ecuaciones 6x1 + x2 + −6x3 − 5x4 −3.6667 0 0 2.6364 | −9. El elemento pivote ser´ 6.6667x2 + 4x3 + 4.6667 0 −3.Sistemas lineales Efectuamos las operaciones indicadas obtenemos la matriz siguiente:   6 1 −6 −5 | 6 0 1.0001 −3.6667 (fila 2a ) 4 4.6667 | −4  (fila 2a ) − 2 (fila 1a ) 6   a ) − 4 (fila 1a ) 0 −3.6667 4 4.0001 −3.6667 5 3. −9.8182 5.6364 1.667 de la tercera fila por e ser el de mayor valor absoluto de entre los elementos de la segunda columna.3333x4 6.3333 | −11   U = a ) − 2.8182 de la tercera fila y no es necesario a intercambiar filas.6667 4 4.5600 | −3.8182 5.3333 | −11    2 a) a) − 0 (fila 4 (fila 2 0 6.6667 (fila 3a ) − −3.8182 0 0 0 1. Efectuamos la operaci´n indicada y obtenemos la matriz o siguiente:   6 1 −6 −5 | 6 0 −3.8182x3 + 5.3636 | −5. Elegimos como elemento pivote el t´rmino −3.1818 3.1199.0001 (fila 4 6.

 6 1 −6 5 4 −3 0 1  := A .6667 1 0 L= 0.0000. anterior es la siguiente:  0 0  0 1 y se verifica que La matriz L de los multiplicadores en el ejemplo  0 0 1 0. tal que P · A = A = L · U. 3. En todo caso se verifica que existe una matriz P .33325. x2 = 1. Descomponer la matriz de los coeficientes A en un producto de matrices P · A donde P representa una permutaci´n de filas de A y A = L · U . El m´todo de Gauss permite: e 1. x1 = −0.54545 0. respectivamente. x3 = 1/3. o siendo L y U matrices triangulares inferior y superior. x2 = 1. Esto ultimo nos permite calcular el determinante de A de forma sencilla al ´ ser |L| = 1. es x3 = 0.52 Cap´ ıtulo 3 x4 = −1.32  El resultado no es exactamente A porque al aplicar el pivoteo hemos permutado filas. Encontrar las soluciones de un sistema de ecuaciones. Calcular el determinante de la matriz de los coeficientes.45454 1 0 −0. que es una respuesta aceptable teniendo en cuenta que la soluci´n exacta o x4 = −2. A = A si no se utiliza el pivoteo. que representa permutaciones de filas si empleamos pivoteo parcial. L·U = 2 2 3 2 0 2 0 1 .3333 −0.50000. |P | = (−1)p (p es el n´mero de permutaciones de filas) y U una u matriz triangular: |A| = |P −1 · A | = |P −1 · L · U | = |P −1 ||L||U | = (−1)p |U |. x1 = −1/2. 2.9999.

.3 Factorizaci´n LU.. .. . ann 0 0 . an1 an2 . o ´ . Si imponemos la condici´n n o o l11 = l22 = · · · = lnn = 1 obtendremos un sistema de ecuaciones f´cilmente resoluble. si aplicamos el m´todo de Gauss sin e pivoteo solo a la matriz de los coeficientes y no a los t´rminos independientes e b.. .. o siendo L triangular inferior y U triangular superior. u3n  . 0 u11 u12 . . 0   0 u22 . . o Paso 2. . unn ln1 ln2 . . una condici´n necesaria y suficiente para que A admita o una descomposici´n L·U de la forma anterior es que los menores fundamentales o (todos los determinantes de las matrices formadas con las primeras k filas y columnas) sean no nulos. u2n  = . . calcular de forma sencilla el determinante de A: n n |A| = |L||U | = ( lii )( i=1 i=1 uii ). Resolvemos el sistema Ly = b y obtenemos una soluci´n y. podemos resolver el sistema de ecuaciones siguiendo estos dos pasos: a Paso 1. . para despu´s aplicar los pasos 1 y 2 e anteriores y as´ resolver el sistema. a2n   l21 l22 0 .Sistemas lineales 53 3. Resolvemos el sistema U x = y. e o Los m´todos de factorizaci´n LU consisten en descomponer la matriz en producto de dos matrices triangulares. . La soluci´n x obtenida ser´ la o a soluci´n de Ax = b porque o Ax = LU x = Ly = b.. por ejemplo.. e Si A es no singular. En este caso la factorizaci´n es unica. a1n l11 0 0 . . Esto permite. Factorizaci´n de Cholesky o o Dado el sistema de ecuaciones Ax = b. lnn Haciendo el producto de matrices e igualando t´rmino a t´rmino se obtienen e e 2 ecuaciones lineales con n2 + n inc´gnitas. Las soluciones a dan lugar a una descomposici´n L · U que es la misma que la obtenida por el o m´todo de Gauss sin intercambio de filas.       . . . obtendremos una descomposici´n de la matriz A en dos matrices A = L · U . . u1n  a21 a22 . Adem´s... ı Si A = L · U tendremos que      a11 a12 . . .

0 0 u33 l31 l32 1 −3 0 −8 obtenemos u11 = 3 u12 = 1 u13 = 2 l21 u12 = 6 l21 u12 + u22 = 3 l21 u13 + u23 = 2 l31 u11 = −3 l31 u12 + l32 u22 = 0 l31 u13 + l32 u23 + u33 = −8                u11 = 3 u12 = 1 u13 = 2 l21 = 2 ⇒ u22 = 1   u23 = −2      l31 = −1     l32 = 1   u33 = −4 Paso 1. −3 0 −8 2 x3 Como |A11 | = 3. 2 x3 1 0 0 −4 x3 = −1 4  que es la soluci´n del sistema. o .      0 y1 = 0 1 0 0 y1 Ly = b ⇒  2 1 0 · y2  = 1 ⇒ y2 = 1 . Igualando t´rmino a t´rmino o e e las matrices siguientes      u11 u12 u13 1 0 0 3 1 2  6 3 2  = l21 1 0  0 u22 u23  . Paso 2. 2 y3 y3 = 1 −1 1 1      x1 = 0 0 x1 3 1 2 U x = y ⇒ 0 1 −2 · x2  = 1 ⇒ x2 = 1 .54 Cap´ ıtulo 3 Ejemplo: Resuelve el siguiente sistema mediante factorizaci´n L · U de o Gauss       3 1 2 x1 0  6 3 2  · x2  = 1 . el sistema admite la factorizaci´n L · U buscada. |A21 | = 3 1 6 3 = 0 y A33 = 3 1 2 6 3 2 −3 0 −8 = 0.

0 ann−1 ann Aparecen frecuentemente en la resoluci´n num´rica de ecuaciones diferenciales o e y en la aproximaci´n por splines c´bicos... 0 . En la mayor´ de los casos. . . la matriz o u ıa admite una descomposici´n de la forma o    1 0 0 . ...3. 3.3 Sistemas triangulares lineales en los que la matriz de los coeficientes es  a12 0 0 0 . si consigo la e descomposici´n de una matriz por el m´todo de Cholesky.. lnn−1 1 0 0 .. lij = uji .3. . 0 . e La resoluci´n de un sistema de n = 50 ecuaciones con el m´todo de Choo e lesky requiere 503 /3 operaciones. Por tanto.. ... 0 a22 a23 0 0 .2 M´todo de Cholesky e Si en la factorizaci´n LU exigimos que U = Lt de modo que o l11 = u11 . . se obtiene la descomposici´n por el m´todo de Cholesky que funciona si y solo o e si la matriz inicial A es sim´trica y definida positiva. l31 = u13 .1 M´todo de Crout e Si en la factorizaci´n LU fijamos o u11 = u22 = · · · = unn = 1 se obtiene la descomposici´n por el m´todo de Crout. 0 0 . 0  0 u22 u23 0 0      0 l32 1  0 0  0 u32 u33 . ..   . . 0 u11 u12 0 .. 0 l21 1 0 . lnn = unn . . ..Sistemas lineales 55 3.. 0 .. .. unn−1 unn Son sistemas de ecuaciones de la forma:  a11 a21  A= 0   0 . puedo asegurar que o e dicha matriz es sim´trica y definida positiva.. .3.. o 3. l21 = u12 . . .. .      . 0  a32 a33 a34 0 . . . que tiene el inconveniente o e que puede producir grandes errores en la resoluci´n del sistema de ecuaciones.

A = 30 20 15 = 1/2 1 0  0 5 20 15 12 1/3 1 1 0 0 1/3 b) La factorizaci´n de Gauss se obtiene resolviendo el sistema de ecuaciones o que se deduce de      60 30 20 1 0 0 u11 u12 u13 30 20 15 = l21 1 0  0 u22 u23  . 20 15 12 l31 l32 1 0 0 u33 . a)     l11 0 0 60 30 20 l11 l21 l31 30 20 15 = LLt = l21 l22 0   0 l22 l32  l31 l32 l33 20 15 12 0 0 l33  por tanto 2 l11 l11 l21 l11 l31 2 2 l21 l22 l21 l31 + l22 l32 2 2 2 l31 + l32 + l33 = 60 = 30 = 20 = 20 = 15 = 12         l11 l21 l ⇒ 31  l22     l32   l33 √ = √60 = √60/2 = √60/3 = √5 = √5 = 3/3 Descomponiendo la segunda matriz de la parte derecha de la igualdad en un producto de una matriz diagonal por otra triangular superior con 1 en cada La descomposici´n que resulta es o      60 30 20 60 30 20 1 0 0 5 .56 Ejemplo: Dada la matriz   60 30 20 30 20 15 20 15 12 Cap´ ıtulo 3 a) Obt´n la descomposici´n de Cholesky. a partir de ella. e o b) Obt´n la factorizaci´n de Gauss sin intercambio de filas y. e o las descomposiciones de Crout y de Cholesky.

v ≥ 0 (v = 0 ⇔ v = 0) 2. v + w ≤ v + w 3. w ∈ V y ∀α ∈ R se verifica que: o 1. .4 Normas y an´lisis del error a Definici´n: Sea V un espacio vectorial.Sistemas lineales elemento de la diagonal. o √ √  √  √  0 0 60 60/2 60/3 √ √ 60 √ √  = √60/2 √5 √ 0   0 5 √ 5 60/3 5 3/3 0 0 3/3   0 1 1/2 1/3 1 = 0  0 1 0 0 1 1/3 3. αv = |α| v .  1 0 A = 1/2 1 1/3 1 se obtiene  0 60 0  0 1 0 que   0 0 1 1/2 1/3 5 0  0 1 1  = (∗) 0 1/3 0 0 1 57 Multiplicando las dos primeras  60 30 (∗) = 20 que es la descomposici´n de Crout. Una norma sobre V es una aplicao ci´n · : V → R tal que ∀v. o Si en (∗) descomponemos la matriz diagonal   √  √ 60 √ 0 0 60 √ 0 1 0 0 1/2 1 0  0  0 (∗) = 5 0 5 1/3 1 1 0 0 1/3 0 0 matrices anteriores   0 0 1 1/2 1/3 5 0  0 1 1  4 1/3 0 0 1 que es la descomposici´n de Cholesky.

z) a 3. Las normas del ejemplo son diferentes formas de ”medir”las distancias entre los vectores de R3 . Norma eucl´ ıdea o norma 2: (x. z) 1 = max(|x|. z) 2 = x2 + y 2 + z 2 ∞ 2. es posible definir una norma matricial sobre Mn×n de la siguiente forma: A M = max{ Av V : v V = 1} Esta nueva norma se llama norma matricial inducida o subordinada a la norma vectorial correspondiente. Dada cualquier norma vectorial · V sobre Rn . Norma del m´ximo o norma infinito: (x.58 Cap´ ıtulo 3 Ejemplo: las siguientes son normas definidas sobre el espacio vectorial R3 : 1. por tanto. La norma vectorial y su norma matricial subordinada son siempre compatibles. Si adem´s de esas condiciones se verifica que A·B ≤ A B A. . Norma 1: (x. tendr´n e a a o a que verificar las condiciones de la definici´n de norma. con las operaciones suma y producto por un n´mero real es un espacio vectorial. La distancia entre dos vectores se mide con la norma del vector diferencia. y. B ∈ Mn×n V entones dicha norma es una norma matricial. |y|. Una norma matricial · M sobre Mn×n y una norma vectorial · Rn se dice que son compatibles si se verifica que Av V sobre ≤ A M v V ∀A ∈ Mn×n ∀v ∈ Rn . Puesto que el conjunto Mn×n de las matrices cuadradas de orden n. y. u para ”medir”matrices tambi´n se utilizar´n normas que. |z|) = |x| + |y| + |z| La norma de un vector mide la ”distancia”de ese vector al origen. y.

La norma matricial inducida por la norma vectorial 2 en R3 es ρ(At · A). |At A − αId| =  −3 0 1−α 0 √ 5 y 1 y como consecuencia √  2 3 0 = 0 −1 0 0 0 1   Los autovalores de At A son 7 ± A 2 = 2 7+ 5 3. La norma matricial inducida por la norma infinito en R3 es  a11 a12 a13 = a21 a22 a23  a31 a32 a33  n A ∞ = max1≤i≤n ∞ j=1 |aij |.Sistemas lineales Ejemplos: 1. −3 0 −8 1 2. . 12) = 12.  3 1 2 De modo que  6 3 2  = max(12. 4. La norma matricial inducida por la norma vectorial 1 en R3 es A   a11 a12 a13 = a21 a22 a23  a31 a32 a33 n 59 1 = max1≤j≤n 1 i=1 |aij |.   2 3 0 Para calcular A 2 = 0 −1 0 debemos calcular primero los au0 0 1 2 tovalores de At · A que son las ra´ ıces de  13 − α −3 0 1−α 0  = (1 − α)(α2 − 14α + 4).  A 2 = ρ(At ·A) es el radio espectral de At ·A que es el m´ximo de los valores absolutos a de los autovalores de la matriz At · A.

Se verifica que b x = Ae A−1 b ≤ A e A−1 1 A A−1 r e ≤ b x Vemos que e x ≤ k(a) r b . u o Se define el n´mero de condici´n de una matriz A como El n´mero de condici´n siempre es mayor o igual que 1 y se utiliza para estimar u o si un sistema de ecuaciones Ax = b est´ bien o mal condicionado. Se verifica que Ax ≤ A−1 r A x . se verifica que Ae = Ax − Ax = o b − b = r. si a peque˜os cambios en los datos (A o b) pueden producir grandes cambios en la n soluci´n del sistema. 11. Veamos que o r Por tanto ≤ e x . es decir. Teorema: e r 1 r ≤ ≤ k(a) . 11) = 11.j≤n |ai. 4.4. o Supongamos que en vez de b utilizamos b de modo que la soluci´n del o n sistema es x y Ax = b.j | 2. Se define la norma matricial de Fr¨benius como A = o 3. Esto puede ser debido a que hay un peque˜o error cometido al hacer alguna medida en b o bien porque en vez de la soluci´n o exacta x hemos obtenido una soluci´n aproximada x. k(a) b x b r 1 k(a) b Demostraci´n.1 N´ mero condici´n de una matriz u o k(A) = A A−1 .60  3 1 2 De modo que  6 3 2  −3 0 −8  Cap´ ıtulo 3 = max(6. Si denotamos e al error o en la soluci´n y r al error en b o error residual. ∞ 1≤i. e b ≤ A−1 r .

88 k(a) = A A−1 = 6.55 A−1 =  200. b) Se verifica que e r 1 r ≤ ≤ 7595 7595 5 x 5 es decir 2.05 2. a) La matriz inversa redondeada a dos decimales es   5.47 x3 5  1. b Si k(A) est´n cerca de 1 el sistema estar´ bien condicionado porque el error a a relativo en la soluci´n x ser´ similar al error relativo r en los datos.56 −1. n a o     3. Si por o e a b el contrario k(A) es muy grande.26 −669.83 −0.66 −7. Acota el error relativo de las posibles soluciones en funci´n del error en o los datos.51 −268. el sistema puede estar mal condicionado y peque˜os cambios en los datos podr´n producir grandes cambios en la soluci´n.27 −18.33  x 2  = 3  0.63 · 10−5 r ≤ e ≤ 1591 r x con lo que .78 Ejemplo: Dado el sistema −0.65 −255.67 · 1138.53 x1 2  4.68 = 7595.85 −102.02 −1.91 −76.54 1.Sistemas lineales Por tanto 61 e ≤ A A−1 x r . Encuentra el n´mero de condici´n de la matriz A de los coeficientes con u o · ∞. 2.

Calculo r = b − Ax con doble precisi´n.5. o a Los pasos anteriores se repiten las veces necesarias para mejorar la soluci´n. −4. o Ejemplo: Si como soluci´n aproximada del sistema o      420 210 140 105 x1 875 210 140 105 84  x2  539      140 105 84 70  x3  = 399 105 84 70 60 x4 319 se obtiene x = (0.5 · 10−5  −4.8000000 · 10−5 1. −2. Calculo r = b − Ax con doble precisi´n. 0.000215 105 84 70 60 319 2.999988.999988 420 210 140 105 875 539 210 140 105 84  1.62 Cap´ ıtulo 3 3. 3. −1. 1.15 · 10−4 ) o 3.1 · 10−5 .000137.05 · 10−4 e1 420 210 140 105 210 140 105 84  e2   −7. La nueva soluci´n es x = (0.999670.5 3. 1. El m´todo consiste en aplicar los siguientes pasos: e 1.30 · 10−4 . La nueva soluci´n aproximada ser´ x = x + e.0000000 · 10−5      r =  −  399 140 105 84 70  0.999997.000215).5000000 · 10−5  . aplica el m´todo de e refinamiento iterativo para mejorarla.000137  −7. 3. Resuelvo     −1. o        −1. o 2. 1. Calculo e resolviendo el sistema Ae = r. 0. 1.8 · 10−5 e4 105 84 70 60  y obtengo e = (1.0 · 10−5       140 105 84 70  e3  =  −3.999670 =  −3. 1). Se verifica que o x = A−1 b = x + x − x = x + A−1 b + A−1 b = x + A−1 (b − b) = x + A−1 r = x + e.1 Mejora de soluciones Refinamiento iterativo Es un m´todo para mejorar una soluci´n aproximada ya obtenida.4 · 10−5 . Sea x una e o soluci´n aproximada de Ax = b tal que Ax = b.999999.05000000 · 10−4 0. .

Ejemplo: En el caso anterior 0. Al aplicar el escalamiento o podemos cometer a su vez errores de redondeo.00002x1 + x2 = 1 x1 + x 2 = 2 redondeando a 4 decimales x2 = 1 x1 + x 2 = 2 aplicando el pivoteo x1 + x 2 = 2 x2 = 1 y las soluciones son x1 = y x2 = 1.2 Escalamiento Si en un sistema de ecuaciones los coeficientes de las inc´gnitas son de muy o diferente magnitud. o e Ejemplo: Resolvamos el siguiente sistema por eliminaci´n gaussiana: o 2x1 + 100000x2 = 100000 x1 + x 2 = 2 2 100000 100000 1 1 2 (fila 2) − 1/2 (fila 1) 2 100000 100000 0 −999991 −99998 De modo que las soluciones son x1 = x2 = 100000−100000x2 ≈0 2 −99998 −99999 ≈ 1( redondeado a 4 cifras) Sin embargo el resultado correcto es x1 = 1.99998.Sistemas lineales 63 3. . la soluci´n num´rica del sistema puede contener errores. pero puede ayudar en casos extremos cuando hay mucha diferencia entre los coeficientes. Para solucionar este problema se puede recurrir al escalamiento que consiste en multiplicar cada ecuaci´n por un n´mero para que el coeficiente m´s o u a grande de las inc´gnitas en valor absoluto sea 1.5.00002 y x2 = 0.

Es esencial que M sea una matriz regular y es conveniente que sea una matriz sencilla para facilitar el c´lculo. dadas las matrices M y N . Es o ımite es la soluci´n. o a o En la pr´ctica. El m´todo es convergente si la sucesi´n generada e o converge a la soluci´n del sistema a partir de cualquier vector inicial x0 . veremos que para encontrar la soluci´n del o sistema basta encontrar un vector fijo de la funci´n G(x). a La condici´n que asegura la convergencia es la siguiente. De modo que Ax = b ⇔ (M − N )x = b ⇔ M x = N x + b ⇔ x = M −1 (N x + b) Si definimos G(x) = M −1 (N x + b). Un m´todo iterativo de resoluci´n de un sistema de n ecuaciones Ax = b e o 0 ∈ Rn genera una sucesi´n de posibles soluciones es aquel a partir de un x o aproximadas x1 . con o muchos ceros. Para ello se genera o una sucesi´n xk = G(xk−1 ) partiendo de una determinada soluci´n aproximada o o x0 . el l´ Todos las m´todos iterativos de resoluci´n de un sistema Ax = b se basan e o en la descomposici´n de la matriz A en diferencia de dos matrices M − N . puesto que a xk = G(xk−1 ) = M −1 (N xk−1 ) + b) ⇒ M xk = N xk−1 + b. . La sucesi´n converger´ a la soluci´n en determinadas condiciones. .6 M´todos iterativos e Los m´todos directos estudiados anteriormente requieren aproximadamente e n3 /3 operaciones. que suelen aparecer por ejemplo en la resoluci´n de ecuaciones o diferenciales en derivadas parciales. aunque te´ricamente conducen a una soluci´n o o exacta. es decir. en caso de converger. o siendo M una matriz regular. e Los m´todos iterativos est´n especialmente indicados para la resoluci´n e a o de sistemas con una matriz de gran dimensi´n pero dispersa. o . x2 . para calcular xk a partir de xk−1 se resuelve el sistema M xk = N xk−1 + b. De modo que.64 Cap´ ıtulo 3 3. en la pr´ctica la soluci´n obtenida puede ser peor que la obtenida a o aproximadamente por un m´todo iterativo. . Son sensibles a errores de redondeo que se acrecientan al aumentar n. . o consistente si.

si existe una norma matricial tal que M −1 N < 1. . Dicho vector x verifica que x − G(x) = lim xk −G( lim xk ) = lim G(xk−1 ) − G( lim xk ) k→∞ k→∞ k→∞ k→∞ = G( lim (xk−1 − xk )) = G(0) = 0 ⇒ x = G(x). ≤ i=1 xk+i − xk+i−1 < p−1 λk+i−1 x1 − x0 λk−1 − λk+p−1 k→∞ → 0. . .Sistemas lineales 65 Teorema: En las condiciones anteriores. = M −1 N (y − y ) Si M −1 N < λ < 1 para un cierto λ ∈ R. < λk x1 − x0 . k→∞ . o Demostraci´n. 1−λ = x 1 − x0 i=0 λk+i−1 = x1 − x0 De modo que la sucesi´n xk+1 = G(xk ) es una sucesi´n convergente a un o o vector x ∈ Rn si M −1 N < λ < 1 para un cierto λ ∈ R. entonces G(y)−G(y ) < λ y−y . entonces la sucesi´n xk+1 = G(xk ) converge a un punto o fijo de la funci´n G(x). Teniendo en cuenta que o G(y) − G(y ) = M −1 (N y + b) − M −1 (N y + b) ≤ M −1 N = M −1 N y − M −1 N y y−y . . A partir de un vector x0 vamos generando la sucesi´n xk+1 = G(xk ) y se o verifica que xk+1 − xk = G(xk ) − G(x)k−1 = G(xk − xk−1 ) < Por tanto xk+p − xk < xk+p − xk+p−1 + xk+p−1 − . − xk p p−1 i=0 λ xk − xk−1 < .

Si el sistema M x = c se resuelve f´cilmente. Si |A| = 0. un m´todo iterativo de resoluci´n de un sistema Ax = b e o consiste en generar una sucesi´n xk = G(xk−1 ) siendo G(x) = M −1 (N x + b) o y A = M − N . el m´todo iterativo es m´s a e a r´pido. El m´todo converge si M −1 N < 1 para alguna norma matricial. la sucesi´n xk converge o a la soluci´n del sistema Ax = b. a 3. 2. Hay que tener en cuenta lo siguiente: 1. L =  a31 a32 0    ··· ann an1 an2 · · ·  u12 · · · u1n 0 u23 · · · u2n    ···  ··· 0 un−1n  ··· 0 0    0 0  0   0 a11 0 · · ·  0 a22 0 D=  ··· 0 ··· ··· ··· ann−1 En el m´todo de Jacobi M = D y N = −(L + U ).j≤n . Si |M | = 0. Si M −1 N < 1 para alguna norma matricial.6. Para calcula xk a partir de e xk−1 se resuelve el sistema Dxk = −(L + U )xk−1 + b. esto se e puede conseguir intercambiando filas si fuese necesario. Para aplicar el m´todo se requiere que aii = 0 para todo i.66 Cap´ ıtulo 3 En resumen. Puesto e que  −a12 −a13 −a1n  0 ··· a11 a11 a11 −a23 −a2n   −a21 0 ··· −1 a22 a22   a22 M N =  ··· −ann−1 −an1 ··· 0 ann ann y 0  0 0  U =  0 0 . se definen:  0 ··· 0  a21 0 · · ·  0  . puedo calcular xk a partir de xk−1 .1 M´todo de Jacobi e Dada la matriz A = (aij )1≤i. o 3.

j=i |aij | aii . ii otra condici´n suficiente es que lo anterior sea menor que 1. es decir que |aii | > n j=1. 0). ıa . 0). una tercera condici´n suficiente es que la matriz D − L − U ´ o sea sim´trica y definida positiva. e Ejemplo: Aplica una iteraci´n del m´todo de Jacobi al siguiente sistema o e      0 x1 6 5 0 0 2 1  x 2  = 1  . 2. 0 x3 2 0 3 La matriz es diagonal dominante de modo que la sucesi´n xk de vectores o generados mediante el m´todo de Jacobi converger´ a la soluci´n. Se tiene e a o que     0 −5 0 6 0 0 0 −1 − (L + U ) =  0 D = 0 2 0 −2 0 0 0 0 3 vector inicial el x0 = (0.j=i |aij | Como M −1 N 1 = max1≤j≤n n i=1. o Por ultimo. A sea diagonal dominante. 0. 1/2.Sistemas lineales M −1 N = max1≤i≤n n 1 j=1. 67 ∞ una condici´n suficiente para que el m´todo de Jacobi converja es que la matriz o e ∀i = 1. . . . . habr´ que resolver el sistema a   1      0 0 x1 0 −5 0 0 0 2 0 x1  =  0 0 −1 0 + 1 2 0 3 x1 −2 0 0 0 0 3 6x1 = 0 x1 = 0 1 1 1 = 1 ⇒ x1 = 1 2x2 2 2 3x1 = 0 x1 = 0 3 3 Por tanto Si elegimos como  6 0 0 El siguiente vector ser´ x1 = (0.i=j |aij | a1 . n.

que A sea diagonal dominante 2. Distintas condiciones suficientes a para que el m´todo funcione son: e 1. 0.2 M´todo de Gauss-Seidel e En este m´todo M = D + L y N = −U . e a a Ejemplo: Aplica el m´todo e  6 2 0 5 2 0 Tendremos que de Gauss-Seidel al siguiente sistema     0 x1 0 1  x 2  = 1  . 3 0 x3 y se obtiene que x1 = (0.68 Cap´ ıtulo 3 3. que At sea diagonal dominante 3. 1/5. El sistema a resolver para calcular xk e a partir de xk−1 ser´ (D+L)xk = −U xk−1 +b.6. 0 0 0 resolver el sistema     −2 0 0 0  0  + 1  0 −1 0 0 0 0 . 0) Si partimos de x0  6 0 2   6 0 0 D + L = 0 5 0 2 0 3 = (0. 0). que A sea sim´trica y definida positiva. e El m´todo de Gauss-Seidel es dos veces m´s r´pido que el de Jacobi. habr´ que a   1  0 0 x1 0  x1  = 0 5 0 2 0 3 x1 0 3   0 2 0 U = 0 0 1 .

. . . xk−1 ). . o • Super-relajaci´n si w > 1 o • Gauss-Seidel si w = 1. . . .3 M´todos de relajaci´n e o En el m´todo de Jacobi. . Los m´todos que utilizan esto ultimo se e ´ llaman ”m´todos de relajaci´n sucesiva”y se desarrollaron para la resoluci´n de e o o sistemas con matrices de dimensi´n grande pero con casi todos los elementos o nulos. . en el m´todo de Gauss-Seidel. Sin embargo. De este modo. xk . xk . xk−1 ). . n 2 1 3 Etapa 3: calculo xk usando (xk . . . . . xk ). n i+1 el c´lculo de las componentes de xk se divide en etapas. n 3 1 2 4 k Etapa n: calculo xn usando (xk . xk−1 . Adem´s. Si w ∈ (0. En un m´todo de relajaci´n se considera e o M= 1 D+L w N= 1−w D−U w con lo que M − N = A. . la informaci´n obtenida en a o cada etapa se incorpora a la siguiente. utilizando en cada a una de ellas un vector diferente: Etapa 1: calculo xk usando (xk−1 . . Una condici´n suficiente para la convere o gencia es que A sea sim´trica y definida positiva. . para calcular cada componente de xk se utilizan todos e los valores de xk−1 .6. n 1 2 3 Etapa 2: calculo xk usando (xk . . xk−1 ). xk−1 del vector xk−1 . En funci´n de su o o valor se tiene • Subrelajaci´n si 0 < w < 1. para calcular e k (xk ) se utilizan las componentes xk . . . . 2) el m´todo no converge. e . xk−1 . . 1 2 n−1 En cada etapa se manejan tan solo vectores de n − 1 variables en lugar de n con el consiguiente ahorro en tiempo.Sistemas lineales 69 3. xk . xk la componente i-´sima de x e 1 2 i i−1 del vector xk y las componentes xk−1 . xk−1 . . . w se llama factor de relajaci´n.

.

. existe un unico polinomio Pn (x) de grado menor o igual que n de ´ modo que Pn (xi ) = yi ∀i = 0. yn ) con xi = xj . (x1 . . 1.Cap´ ıtulo 4 Aproximaci´n de funciones o Dada una tabla de datos como esta x y −1 −2 0 −2 1 0 2 4 que representa unos valores y en funci´n de otros x. y0 ). (xn . pretendemos encontrar o una funci´n y = f (x) que pase por esos puntos. .1 Construcci´n del polinomio interpolador o Teorema: Dada una tabla de n + 1 puntos (x0 . Dicho polinomio se llama polinomio interpolador de los puntos. . . o 4. . . . y1 ). 71 . n.

es decir. x2 · · · n Por lo tanto. ´ o Ejemplo: Demuestra que existe un polinomio que pasa por los puntos de la tabla x y −1 −2 0 −2 1 0 2 4 Como son 4 puntos buscaremos un polinomio de grado menor o igual que 3 de la forma Pn (x) = a0 + a1 x + a2 x2 + a3 x3 . .72 Cap´ ıtulo 4 Demostraci´n. el sistema es compatible determinado y tiene una unica soluci´n. Dicho polinomio es P (x) = −2 + x + x2 . . existe un unico polinomio de grado menor o igual que 3 que o ´ pasa por los puntos de la tabla. . n tendremos que n a0 + a 1 x0 + a 2 x2 + · · · + a n x0 = y 0 0 2 + · · · + a xn = y a0 + a 1 x1 + a 2 x1 n 1 1 ··· 2 n a0 + a 1 xn + a 2 xn + · · · + a n xn = y n que es un sistema de n + 1 ecuaciones lineales con n + 1 inc´gnitas en el que o el determinante de la matriz de los coeficientes es distinto de 0 : x0 x1 ··· 1 xn 1 1 2 x0 x2 1 ··· ··· xn 0 xn 1 xn n = 0. tiene una unica ´ soluci´n. Consideremos un polinomio cualquiera de grado menor o o igual que n : Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn . 1. Puesto que queremos que Pn (xi ) = yi ∀i = 0. por tanto. El sistema que resulta es a0 + a1 (−1) + a2 (−1)2 + a3 (−1)3 a0 + a1 (0) + a2 (0)2 + a3 (0)3 a0 + a1 (1) + a2 (1)2 + a3 (1)3 a0 + a1 (2) + a2 (2)2 + a3 (2)3 = = = = −2 −2 −2 4 Que es un sistema compatible determinado y que. . .

. se pueden calcular las diferencias divididas y • de primer orden: [xi .··· . Por ejemplo: [x0 . xi+k ] = i+1 xi+k −xi Las diferencias divididas son invariantes frente a permutaciones.2 M´todo de Newton e • de segundo orden: [xi . . Πj=i (xi − xj ) (xi − x0 )(xi − x1 ) .1 M´todo de Lagrange e Dados los puntos (x0 . el polinomio interpolador Pn (x) se puede calcular as´ ı: n Pn (x) = i=0 Li (x)yi donde Li (x) = Πj=i (x − xj ) (x − x0 )(x − x1 ) . (xn . . . . . x1 . y0 ). y0 ). xi+2 ] = [xi+1 . . (xi − xi−1 )(xi − xi+1 ) . (x1 .1. . x2 ]. . (x − xi−1 )(x − xi+1 ) . . (xi − xn ) Li (xi ) = 1 de modo que Pn (xj ) = i=0 n Se verifica que Li (xj ) = 0 ∀i = j Li (xj )yi = yj . xi+1 ] = xi+1 −yii i+1 −x La tabla siguiente permite construir de forma sencilla las diferencias divididas: . . y1 ).xi+1 ] xi+2 −xi ··· [x . y1 ). . (xn . . (x1 . . xi+1 . xi+1 .Aproximacion de funciones 73 4. Dados los puntos (x0 . yn ). .xi+k−1 ] • de orden k [xi . . Ejemplo: En el ejemplo anterior L0 (x) = L2 (x) x(x−1)(x−2) (−1)(−2)(−3) = (x+1)x(x−2) 2·1(−1) L1 (x) = L3 (x) (x+1)(x−1)(x−2) 1(−1)(−2) (x+1)x(x−1) = 3·2·1 4. .1.xi+2 ]−[xi . .xi+k ]−[xi . x2 ] = [x1 . . . yn ).··· . x0 . (x − xn ) = .

(x − xn−1 ). . . x1 . x2 . . b) y sea Pn (x) su polinomio interpolador en los nodos x0 . . . x2 ] [x1 . Ejemplo: En el ejemplo anterior la tabla ser´ la siguiente ıa −1 0 1 2 −2 −2 0 4 0 2 4 1 1 0 y el polinomio ser´ P (x) = −2 + 1(x + 1)x. . . x1 . . yn ) que provienen de una cierta funci´n y = f (x). . Teorema: Sea f (x) una funci´n n + 1 veces diferenciable en un intero valo (a. .2 Error del polinomio interpolador Dados los puntos (x0 . x1 . Para cada x ∈ [a. x2 ] [x2 . . x2 ](x − x0 )(x − x1 ) + . (n + 1)! Demostraci´n. x1 . (x1 . . x2 . . x1 . xn contenidos en [a. Para un valor fijo o x ∈ [a. b] existe un λ ∈ R tal que f (x) − Pn (x) = λw(x). xn ](x − x0 )(x − x1 ) . si conocemos cierta informaci´n sobre las derivadas de la o o funci´n f (x).74 x0 x1 x2 x3 . . . . x3 ] [x0 . podemos estimar el error que se comete al aproximar f (x) por o su polinomio interpolador Pn (x) de grado menor o igual que n. y0 ). (x − xn ). . Sea w(t) = (t − x0 )(t − x1 ) . x1 ](x − x0 ) + [x0 . (xn . b]. . (t − xn ).. b) tal que f (x) − Pn (x) = f n+1) (θx ) (x − x0 )(x − x1 ) .. x2 . ıa 4. y0 y1 y2 y3 [x0 . . De modo que tenemos la funci´n o Φ(t) = f (t) − Pn (t) − λw(t) . · · · + [x0 . b] existe un punto θx ∈ (a. . x1 ] [x1 . x3 ] Cap´ ıtulo 4 El polinomio interpolador se construye a partir de las diferencias divididas as´ ı: Pn (x) = y0 + [x0 . x3 ] [x0 . y1 ).

. (n + 1)! Ejemplo: El error al aproximar la funci´n f (x) = sen(x) en un punto o x ∈ [0.2.1 Elecci´n de nodos. . . xn . x0 . Φ1) (t) se anular´ en n + 1 puntos. (n + 1)! f n+1) (θx ) . 1] mediante un polinomio interpolador en 9 nodos contenidos en el intervalo [0. 1] se puede acotar as´ ı: |f (x) − P9 (x)| ≤ |f 10) (θx )| 9 1 |Πi=0 (x − xi )| ≤ < 2.8 · 10−7 10! 10! 4. b): a a Φn+1) (θx ) = f n+1) (θx ) − P n+1) (θx ) − λwn+1) (θx ) = 0 es decir f n+1) (θx ) − λ(n + 1)! = 0 ⇒ λ = Como consecuencia f (x) − Pn (x) = f n+1) (θx ) w(x).Aproximacion de funciones 75 que vale 0 en x. ¿qu´ nodos podemos elegir? o a e Elegir los nodos proporcionados por los polinomios de Chebyshev tienen alguna ventaja. . a Φ2) (t) se anular´ en n puntos y Φn+1) (t) se anular´ en 1 punto θx ∈ (a. Definici´n: Los polinomios de Chebyshev se definen as´ o ı: T0 (x) = 1 T1 (x) = x Tn+1 (x) = 2xTn (x) − Tn−1 (x) si n ≥ 1 Proposici´n: Las ra´ o ıces del polinomio de Chebyshev Tn (x) si n ≥ 1 son los valores 2j − 1 cos π ∀1 ≤ j ≤ n. Por tanto. 2n . Polinomios de Chebyshev o Si pretendemos encontrar un polinomio que interpole a una determinada funci´n y los nodos no est´n previamente fijados. x1 .

1] y en el intervalo [2. Calculamos las ra´ ıces de T4 (x) = 8x4 − 8x2 + 1 : x0 = −0. Para calcular los nodos en el ıa intervalo [2. si aplicamos a los nodos de Chebyshev la transformaci´n af´ que lleva el intervalo [−1. . |f (x) − Pn (x)| ≤ n 2 (n + 1)! |t|≤1 La justificaci´n del teorema se basa en que la expresi´n o o max Πn |(x − xi )| i=0 |x|≤1 que proviene de la f´rmula general del error en la interpolaci´n. con i = 0. b].3827 x3 = 0. 1]. 1] son las ra´ del polinomio de Chebyshev T n+1 (x). Estos ser´ los nodos en el intervalo [−1. se hace m´ o o ınima cuando xi son las ra´ ıces del polinomio de Chebyshev correspondiente. 1] en o ın el intervalo [a. todas las ra´ de cualquier polinomio de Chebyshev ıces est´n contenidas en el intervalo [−1. obtenemos unos nuevos nodos tales que: |f (x) − Pn (x)| ≤ b−a n+1 2 max |f n+1) (t)|.9239 x1 = −0. 8] necesitamos una transformaci´n af´ αx+β que lleve el intervalo o ın . 8] haciendo uso de los polinomio de Chebyshev. a n a Si en lugar del intervalo [−1. Establece una cota del error en cada caso para la funci´n f (x) = o sin(x).b] Ejemplo: Calcula los cuatro nodos para la interpolaci´n de una funci´n o o en el intervalo [−1. . b].9239. . El resultado del teorema permite encontrar una cota del error del polinomio interpolador m´s peque˜a que la establecida con car´cter general. o ıces entonces 1 max |f n+1) (t)|. 1]. 2n (n + 1)! t∈[a. . 1] tenemos un intervalo [a. 1. a Teorema: Si los nodos (xi ). de interpolaci´n de una o funci´n f (x) en x ∈ [−1.3827 x2 = 0.76 Cap´ ıtulo 4 Como consecuencia. n.

7716. en la cual la convergencia o se produce solo en los puntos −1.8519 x2 = 6. 8] : [−1. se puede demostrar que los polinomios no convergen a la funci´n fuera del intervalo o [−3. Veamos las cotas de los errores para la funci´n f (x) = sin(x) en cada caso. para cualquier elecci´n o de nodos es posible encontrar una funci´n continua tal que no se produce esa o convergencia uniforme. 1. 0.Aproximacion de funciones [−1.63]. dada funci´n o o 1 f (x) = 1+x2 en [−5. 5].2284 x1 = 3. 1] → [2. 3. 1] en el intervalo [2. Aplicamos esta transformaci´n a los nodos de o o Chebyshev y obtenemos los nuevos nodos en el intervalo [2. si elegimos los nodos de Chebyshev y la funci´n f (x) a ino terpolar es continua y con derivada continua. si elegimos los nodos xi igualmente espaciados.1) Otro ejemplo es la funci´n f (x) = |x| en [−1. 8] : |f (x) − Pn (x)| ≤ b−a n+1 2 max f n+1) (t) 2n (n + 1)! t∈[a. 8] : x0 = 2. 23 4! ¿Es cierto que si n aumenta el polinomio Pn (x) se ”parece”m´s a la funa ci´n f (x)? En general la respuesta es que no. Sin embargo. 1]. 8] −1 → α(−1) + β = 2 1 → α(1) + β = 8 77 Resolviendo el sistema formado por las dos ultimas ecuaciones.63. No obstante. 1] : |f (x) − P (x)| ≤ Para el intervalo [2. entonces Pn (x) converge uniformemente a f (x) en todo el intervalo.1481 x3 = 7.b] 1 1 max |f n+1) (t)| ≤ 3 2n (n + 1)! |t|≤1 2 (4)! ≤ 34 . (Ver figura 4. o Para el intervalo [−1. obtenemos que ´ la transformaci´n es 3x + 5. Por ejemplo. .

La siguiente gr´fica muestra la funci´n seno y una funci´n que la a o o interpola con trozos de recta en varios puntos: 1 0.3. 4.1 Interpolaci´n a trozos y con condiciones sobre o la derivada Interpolaci´n a trozos o Si disponemos de ciertos valores de una funci´n f (x) en un intervalo [a.1: 1 1+x2 y sus polinomios interpoladores de grado 10 y 20.5 1 -0.5 1 0.2.5 -1 2 3 4 5 6 .3.78 2 1.5 -4 -4 -2 2 4 -0. o se puede obtener una aproximaci´n a la funci´n f (x) dividiendo el intervalo o o en varios intervalos m´s peque˜os (subintervalos) y utilizando polinomios de a n peque˜o grado (1.3 4.) distintos para interpolar los valores de cada sun bintervalo.5 Cap´ ıtulo 4 2 4 Figura 4.5 1 0. b].5 -2 2 1. etc.

5 = 2 b+c = 2 El sistema anterior no tiene soluci´n.2 Interpolaci´n con condiciones sobre la derivada o El siguiente es un ejemplo de problema de interpolaci´n con condiciones sobre o la derivada. 4.5) = 2 b + 2 · c · 0. Ejemplo 1: Encuentra un polinomio P (x) tal que P (0) = 0. o ´ Ejemplo 2 (Interpolaci´n de Hermite): Encuentra un polinomio P (x) que o interpole a una funci´n y = f (x) sabiendo que o x y y −1 1 2 0 1 0 1 −1 0 Puesto que hay seis condiciones para la funci´n y sus derivadas buscamos o entre los polinomios de la forma P (x) = a0 + a1 x + · · · + a5 x5 que tienen seis . Al plantear las ecuaciones correspondientes resulta un sistema con soluci´n no unica. P (1) = 1 y P (0. los polinomios de a grado 3 de la forma P (x) = a + bx + cx2 : P (0) = 0 a = 0 a = 0 P (1) = 1 ⇒ b+c = 1 ⇒ b+c = 1 P (0. cabe pensar que basta buscar entre los polinomios con tres par´metros. con lo que habr´ que buscar entre los o ıa polinomios de grado 4. es decir.Aproximacion de funciones Ejercicio: Dada la tabla x y −1 −2 0 −2 1 0 2 4 79 encuentra una funci´n formada o a) por trozos de recta b) por trozos de par´bola a que pase por los puntos anteriores.5) = 2.3. Puesto que son tres las condiciones que tenemos.

2 Ejemplo 3 (Interpolaci´n de Hermite c´bica a trozos): Encuentra una o u funci´n formada por trozos de polinomios de grado 3 que verifique las siguieno tes condiciones x y y −1 1 2 0 1 0 1 −1 0 1 0. Planteamos el sistema correspondiente seg´n las condiciones y u obtenemos lo siguiente: P (−1) = 1 P (−1) = 2 a0 = 1 P (0) = 1 P (0) = 0 ⇒ a1 = 0 a2 = −3 P (1) = 0 P (1) = 0 2 a3 = −3 1 a4 = 2 a5 = 2 3 Con lo que el polinomio buscado es P (x) = 1 − 2 x2 − 3x3 + 1 x4 + 2x5 .2: La funci´n g(x) o Buscamos una funci´n de la forma o g(x) = P (x) si x ∈ [−1.5 -1 -0.5 1 Figura 4. 0] Q(x) si x ∈ [0.5 -1 0. 1] .5 -0.80 Cap´ ıtulo 4 coeficientes.

3: La funci´n h(x) o Buscamos una funci´n de la forma o h(x) = P (x) si x ∈ [−1. 0] 1 − 6x2 + 4x3 si x ∈ [0. 1] 1 0.2) Ejemplo 5 (Splines c´bicos): Encuentra una funci´n polin´mica c´bica a u o o u trozos que sea de clase C 2 (continua.Aproximacion de funciones 81 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 . derivable y con derivada segunda continua) que verifique las siguientes condiciones x y −1 1 0 1 1 −1 1 + 2x2 + 2x3 si x ∈ [−1.5 -1 0. A partir de las condiciones planteamos el sistema P (−1) = 1 P (−1) = 2 Q(0) = 1 Q (0) = 0 P (0) = 1 P (0) = 0 Q(1) = −1 Q (1) = 0 con lo que g(x) = (Ver Figura 4.5 -1 -0.5 1 Figura 4.5 -0. 1] . 0] Q(x) si x ∈ [0.

Si el n´mero de condiciones impuestas es k1 + k2 + · · · + kn = m + 1 u entonces Teorema: Existe un unico polinomio de grado menor o igual que m que ´ satisface las condiciones de interpolaci´n de Hermite anteriores. yi los valores de una cierta funci´n y sus derivadas en n + 1 puntos. 0] 3 2 1 1 − x − 2 x + 2 x3 si x ∈ [0. Veamos que esto ultimo o ´ ´ . a˜adimos las siguientes a n P (−1) = 0 Q (1) = 0 y obtenemos un sistema compatible determinado de modo que h(x) = (Ver Figura 4. Este sistema tiene soluci´n unica si el sistema Au = 0 tiene o ´ unicamente la soluci´n 0.3) 3 1 1 − x − 2 x2 − 2 x3 si x ∈ [−1. Las j condiciones P j (xi ) = yi dan lugar a un sistema de m + 1 ecuaciones de la forma Au = y.82 Cap´ ıtulo 4 donde P (x) = a + bx + cx2 + dx3 y Q(x) = a + b x + c x2 + d x3 de modo que P (−1) = 1 P (0) = 1 Q(0) = 1 Q(1) = −1 P (0) = Q (0) P (0) = Q (0) Puesto que tenemos 6 ecuaciones y 8 inc´gnitas necesitamos 2 condiciones o m´s. yi . · · · . 1] Interpolaci´n de Hermite o Un problema de interpolaci´n de Hermite consiste en encontrar un polinomio o P (x) (Polinomio de Hermite) tal que P (x0 ) = y0 P (x1 ) = y1 P (xn ) = yn P (x0 ) = y0 P (x0 ) = y0 · · · P (x1 ) = y1 P (x1 ) = y1 · · · ··· P (xn ) = yn P (xn ) = yn · · · k) k P k0 −1) (x0 ) = y0 0 −1 k P k1 −1) (x1 ) = y1 1 −1 k P kn −1) (xn ) = ynn −1 o siendo yi . Sea P (x) un polinomio de grado menor o igual que m. Por ejemplo. si el sistema formado por las condiciones o ´ P j) (xi ) = 0 tiene como soluci´n unica el polinomio 0. es decir. o o Demostraci´n.

x2 . con 0 ≤ i ≤ n. x1 . xn nodos distintos de [a. x0 . si el a a problema de Hermite incluye datos sobre la funci´n y su derivada en tres o puntos la tabla quedar´ as´ ıa ı: x x0 x0 x1 x1 x2 x2 y y0 y0 y1 y1 y2 y2 10 [x0 . x2 . ser´ de ız ıa grado mayor o igual que m + 1. x2 ] 20 30 40 50 [x0 . . x] = limx→x0 = limx→x0 = f (x0 ) x − x0 x − x0 [x0 . con lo que si P (x) no es cero. o El c´lculo es m´s sencillo haciendo uso de una tabla. b] ∃θ ∈ [a. x2 ] [x1 . x2 ] [x1 . x1 ] [x0 . x1 ] = [x0 . x1 . x0 ] = f 3) (x0 ) 2! 3! Y de forma similar el resto de diferencias. x1 . b] y f ∈ C 2 [a. Si P (x) es el polinomio de grado menor o igual que 2n + 1 tal que P (xi ) = f (xi ) y P (xi ) = f (xi ). Sean x0 . . . x2 ] [x0 . x0 . x2 ] . x1 ] [x0 . x0 . o o Ejercicio: ¿Qu´ otro nombre recibe el polinomio de Hermite cuando solo e hay un nodo? Teorema. . x1 ] [x1 . x1 . en contradicci´n con la hip´tesis inicial. b] tal que f (x) − P (x) = f 2n+2) (θ) n Π (x − xi )2 (2n + 2)! i=0 El polinomio de Hermite se puede calcular usando las diferencias divididas. En estas condiciones el polinomio de interpolaci´n de Hermite se calcula de forma parecida a como se calculaba o el polinomio de interpolaci´n sin condiciones sobre la derivada. x1 . x1 . x0 . Para ello definimos y − y0 f (x) − f (x0 ) [x0 . . x1 . x1 . Por ejemplo. . x2 ] [x0 . x0 . . x1 . x0 ] [x0 . x1 . x0 ] = [x0 .Aproximacion de funciones 83 es cierto. x0 . entonces ∀x ∈ [a. x2 ] [x1 . x0 . x2 . x1 ] − [x0 . . x2 ] [x2 . x0 ] = limx→x0 [x0 . x1 ] [x0 . Un polinomio P (x) que sea soluci´n del sistema P j) (xi ) = 0 verifica o que tiene la ra´ xi repetida ki veces. x2 ] [x0 . b]. x1 . x0 ] x1 − x 0 1 2) 1 f (x0 ) [x0 . x1 ] [x1 .

. +[x0 . x0 . x0 . . x2 ](x − x0 )2 (x − x1 )2 (x − x2 ). x1 .84 siendo [x0 . x2 ](x − x0 )2 (x − x1 )2 +[x0 . x1 . x1 . x0 ](x − x0 ) + [x0 . x1 ](x − x0 )2 + +[x0 . x1 ](x − x0 )2 (x − x1 ) + 1 k) k! f (x0 ) Cap´ ıtulo 4 . Ejemplo: Calcula el polinomio que verifica estas condiciones: x y y −1 1 2 0 1 0 1 −1 0 En este caso la tabla quedar´ as´ ıa ı x y 1 0 20 30 40 50 -1 1 2 −2 2 −3/2 2 -1 1 0 0 −1 5/2 0 1 0 −2 4 0 1 −2 2 1 -1 0 1 -1 El polinomio ser´ ıa P (x) = 1+2(x+1)−2(x+1)2 +2(x+1)2 x−3/2(x+1)2 x2 +2(x+1)2 x2 (x−1) Ejemplo: Calcula el polinomio que verifica las siguientes condiciones: x y y y 1 2 3 2 6 7 8 . . x2 . x1 . . x0 ] = k veces El polinomio ser´ ıa P (x) = y0 + [x0 . x0 . x0 . x1 . x0 .

xn ]. n − 1. 1. b) S(x) admite derivada segunda continua de orden k − 1 en [x0 . Interpolaci´n c´ bica de Hermite a trozos o u Dada la tabla de valores x y y x0 y1 y1 x1 y2 y2 ··· ··· ··· xn yn yn correspondientes a una cierta funci´n y sus derivadas. . n−1).Aproximacion de funciones En este caso la tabla quedar´ as´ ıa ı x 1 1 2 2 2 y 10 20 30 40 2 3 1 2 −1 2 4 3 1 6 7 8/2!=4 6 7 6 85 El polinomio ser´ ıa P (x) = 2 + 3(x − 1) + 1(x − 1)2 + 2(x − 1)2 (x − 2) − 1(x − 1)2 (x − 2)2 . Planteando los correspondientes sistemas de ecuaciones. . ´ o Splines Una funci´n spline de grado k con nodos x0 ≤ x1 ≤ · · · ≤ xn es una funci´n o o S(x) definida a trozos tal que: a) S(x) es un polinomio Si (x) de grado menor o igual que k en cada intervalo [xi . el m´todo de intero e polaci´n c´bica de Hermite a trozos consiste en encontrar una unica funci´n o u ´ o derivable definida a trozos. . . la funci´n es un polinomio Pi (x) de grado menor o igual a 3 que verifica lo o siguiente Pi (xi ) = yi Pi (xi+1 ) = yi+1 P (xi ) = yi Pi (xi+1 ) = yi+1 . . se puede encontrar la unica funci´n que interpola en esas condiciones. tal que en cada intervalo [xi . . xi+1 ] (i = 0. con i = 0. . . xi+1 ]. .

. . . siendo S(x) el spline natural. b) y S(xi ) = f (xi ). n−1 n−1 n−1 n+1 4n − 2 Cada polinomio c´bico Si (x). . xn ]. b] es proporcional a o ıa a b [f a (x)]2 dx. . Es decir. . . . . ıa a o Por otra parte. con i = 0. . .86 Cap´ ıtulo 4 El spline c´bico (k = 3) es el m´s usado en interpolaci´n. u a a con lo que el n´mero de inc´gnitas ser´ 4n−4. x1 . n total num. b] (n → ∞) disminuyendo simult´neamente el tama˜o m´ximo de a n a los subintervalos [xi . . . de entre todas las funciones con derivada segunda continua que pasan por ciertos puntos (x0 . n − 1 Si−1 (xi ) = Si (xi ) con i = 1. y1 ). . n − 1 Si (xi ) = yi con i = 0. si aumentamos el n´mero de puntos a interpolar en el u intervalo [a. . . . los splines natural y peri´dico existen y son unicos para cualquier o ´ conjunto de nodos y de datos. o Sin embargo. Por lo tanto. n. Un spline c´bico de u a o u interpolaci´n en {x0 . (x1 . con i = 0. . n − 1 Si−1 (xi ) = Si (xi ) con i = 1. . xi+1 ] (max0≤i≤n [xi . . . . . . . ec. El n´mero de condiciones que se u han de cumplir es el siguiente: condici´n o continuidad derivada 1a continua derivada 2a continua interpolaci´n o ecuaciones Si−1 (xi ) = Si (xi ) con i = 1. si la funci´n a interpolar f (x) tiene a o derivada segunda continua en [x0 . . . . y0 ). xi+1 ] → 0). . • Si exigimos S (x0 ) = S (xn ) y S (x0 ) = S (xn ) obtendremos el spline peri´dico. entonces b a [S (x)]2 dx ≤ b a [f (x)]2 dx. xn } es una funci´n que cumple las propiedades o o a). entonces el spline natural y su derivada convergen uniformemente a f (x) y f (x) respectivamente. 1 La tensi´n o energ´ el´stica en [a. para poder resolver u o a el correspondiente sistema de ecuaciones hemos de a˜adir dos condiciones m´s n a y podemos hacerlo de distintas formas: • Si exigimos S (x0 ) = 0 y S (xn ) = 0 obtendremos el spline c´bico u natural. n − 1. o Se pueden elegir otras condiciones distintas del spline natural o del peri´dico. Adem´s. 1. . . . . (xn . yn ) el spline natural es el que tiene menor energ´ el´stica (menor tensi´n1 ). tendr´ 4 par´metros.

Cap´ ıtulo 5

Diferenciaci´n e integraci´n o o num´rica e
5.1 Diferenciaci´n num´rica y extrapolaci´n de Rio e o charson

o ¿Puede calcularse la derivada de una funci´n f (x) en un punto si se conocen solo los valores de la funci´n f (x0 ), f (x1 ),. . . ,f (xn ) en n + 1 puntos? Si la o funci´n es un polinomio de grado n, entonces seguro que se puede. Si de o la funci´n solo sabemos que es derivable, entonces no ser´ posible, pues hay o a muchas funciones derivables que pasan por los mismos puntos. El objetivo de esta secci´n es estimar el valor de f (x) a partir de los valores de la funci´n o o en ciertos puntos f (x0 ), f (x1 ),. . . ,f (xn ) dando una cota del error cometido. Dado que f (x + h) − f (x) f (x) = lim h→0 h una primera estimaci´n es o f (x) ≈ f (x + h) − f (x) h

que es aplicable cuando conocemos los valores de la funci´n en dos puntos: o x0 = x y x1 = x + h. La f´rmula anterior es exacta para funciones lineales (por o ejemplo, para f (x) = 3x + 2) y en otros casos de manera fortuita. Calculemos 87

88 una cota del error. Por el teorema de Taylor: f (x + h) = f (x) + f (x)h + es decir f (x) = f (θ) 2 h 2!

Cap´ ıtulo 5

f (x + h) − f (x) h − f (θ). h 2

El error al aproximar f (x) por f (x) = f (x+h)−f (x) , llamado error de truncah miento, es h o error = − f (θ) (f´rmula de orden h) 2 siendo θ un n´mero entre x y x + h. Cuanto menor sea h, mejor ser´ la u a aproximaci´n de f (x), hasta que el error de redondeo impida la mejora. o Ejemplo: Estima el valor de la derivada de cos(x) en el punto una cota del error cometido. Tomando como h = 0.01 f ( π + h) − f ( π ) cos( π + 0.01) − cos( π ) π 4 4 4 4 f ( )≈ = = −0.71063050. 4 h 0.01 La cota del error ser´ ıa |error| = | − 0.01 0.01 h f (θ)| = | cos(θ)| ≤ = 0.005. 2 2 2
π 4

y calcula

Otra estimaci´n de f (x) es o f (x) ≈ f (x + h) − f (x − h) . 2h

Veamos la estimaci´n del error. Del teorema de Taylor se deduce que o f (x + h) = f (x) + f (x)h + h f (x) + h f (θ1 ) 2 6 2 3 f (x − h) = f (x) − f (x)h + h f (x) − h f (θ2 ). 2 6
2 3

´ ´ Diferenciacion e integracion Si restamos las ecuaciones anteriores f (x + h) − f (x − h) = 2f (x)h + Despejando f (x) = f (x + h) − f (x − h) h2 − [f (θ1 ) + f (θ2 )] 2h 12 h2 [f (θ1 ) + f (θ2 )] 12 h3 [f (θ1 ) + f (θ2 )]. 6

89

con lo que el error de truncamiento ser´ ıa −

siendo θ1 un n´mero entre x y x + h y θ2 un n´mero entre x y x − h. Si f (x) u u existe y es continua en [x−h, x+h], entonces existe un n´mero θ ∈ [x−h, x+h] u f (θ1 )+f (θ2 ) , con lo que error de truncamiento quedar´ ıa tal que f (θ) = 2 error = − h2 f (θ) 6 (f´rmula de orden h2 ). o

Para estimar el valor de una derivada segunda podemos usar la f´rmula o f (x) = f (x + h) − 2f (x) + f (x − h) . h2

Veamos la estimaci´n del error. Por el teorema de Taylor o f (x + h) = f (x) + f (x)h + f (x − h) = f (x) − f (x)h +
h2 2 f h2 2 f

.

(x) + (x) −

h3 6 f h3 6 f

(x) + (x) +

h4 4) 24 f (θ1 ) h4 4) 24 f (θ2 )

Si sumamos las ecuaciones anteriores y despejamos f (x) = f (x + h) − 2f (x) + f (x − h) h2 4) − [f (θ1 ) + f 4) (θ2 )]. h2 24

Siendo θ1 y θ2 n´meros que est´n entre x y x + h y entre x y x − h. Si f 4) (x) u a existe y es continua, entonces existe un n´mero θ ∈ [x − h, x + h] tal que u error = h2 4) f (θ) 12 (f´rmula de orden h2 ) o

se tiene que : o n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w(x) (n + 1)! donde w(x) = Πn (x − xi ). x1 .xn . .1.90 Cap´ ıtulo 5 5.1 Diferenciaci´n mediante interpolaci´n o o Dada una funci´n f (x) y recordando c´mo se calcula el polinomio de interpoo o laci´n en los puntos x0 . . . Si derivamos i=0 n f (x) = i=0 f (xi )Lxi (x) + 1 f n+1) (θx )w (x) (n + 1)! + 1 d w(x) (f n+1) (θx )) (n + 1)! dx Si x = xk n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )w (xk ) .j=k (xk − xj ) nos queda n f (xk ) = i=0 f (xi )Lxi (xk ) + 1 f n+1) (θxk )Πn j=0. .j=k (xk − xj ) (n + 1)! que es una forma de calcular un valor aproximado de f (xk ) a partir de los valores x0 . .xn . . . .j=i (x − xj ) ⇒ w (xk ) = Πj=0. (n + 1)! Y como n w (x) = i=0 n Πn j=0. x1 . .

(2h)(h) 2h Por tanto f (x1 ) ≈ f (x0 ) siendo el error de esta aproximaci´n o siendo el error de esta aproximaci´n o 1 3) 1 f (θx1 )(h)(−h) = − f 3) (θx1 )h2 . Puesto que L x0 = (x − x1 )(x − x2 ) (x0 − x1 )(x0 − x2 ) L x1 = (x − x0 )(x − x2 ) (x1 − x0 )(x1 − x2 ) (x − x0 )(x − x1 ) L x2 = (x2 − x0 )(x2 − x1 ) se tiene que L x0 = 2x − x1 − x2 2x − x0 − x2 L x1 = (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) 2x − x0 − x1 L x2 = . (x2 − x0 )(x2 − x1 ) 2x1 − x0 − x2 x1 − x 2 + f (x1 ) (x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) x1 − x 0 + f (x2 ) (x2 − x0 )(x2 − x1 ) 1 3) f (θx1 )(x1 − x0 )(x1 − x2 ). 3! 3! . Siendo x0 = x1 − h y x2 = x1 + h se obtiene la f´rmula ya o conocida f (x1 ) ≈ f (x1 − h) 2x1 − (x1 − h) − (x1 + h) −h + f (x1 ) (−h)(−2h) (h)(−h) h f (x1 + h) − f (x1 − h) + f (x1 + h) . o b) Calcula lo anterior con x1 − x0 = x2 − x1 = h Apartado a).´ ´ Diferenciacion e integracion 91 Ejemplo: a) Aplica la f´rmula anterior para calcular f (x1 ) con n = 2. 3! Apartado b).

La extrapolaci´n puede aplicarse o o siempre a cualquier m´todo de aproximaci´n en el que sepamos el t´rmino de e o e error de una forma previsible y se basa en un par´metro que generalmente es a el tama˜o de paso h. que es la f´rmula ya conocida de aproximaci´n de f (x) o o f (x) ≈ Φ(h) Si sustituimos h por h/2 h a2 a4 a6 f (x) = Φ( ) + 2 h2 + 4 h4 + 6 h6 + . . 2h 3! 5! 7! 2 3 3) 2 h f (x) + f 5) (x) + .1) . 2 2 2 2 y multiplicando por 4 h a4 a6 4f (x) = 4Φ( ) + a2 h2 + h4 + 4 h6 + . n Por el teorema de Taylor sabemos que ∞ f (x + h) = k=0 1 k k) h f (x) k! ∞ y f (x + h) = k=0 1 (−1)k hk f k) (x). . (5.2 Extrapolaci´n de Richarson o La extrapolaci´n de Richarson sirve para generar resultados de gran exactitud o cuando se usan f´rmulas de bajo orden. . . 3! 5! Si definimos Φ(h) = f (x+h)−f (x−h) y denotamos ai al coeficiente de hi en la 2h f´rmula anterior. . . . .. 2 4 2 (5.. tenemos o f (x) = Φ(h) + a2 h2 + a4 h4 + a6 h6 + .92 Cap´ ıtulo 5 5.2) con error = h2 a2 + a4 h2 + a6 h4 + . k! Restando las f´rmulas anteriores o f (x + h) − f (x − h) = 2hf (x) + y despejando f (x) f (x) = f 3) (x) 2 f 5) (x) 4 f 7) (x) 6 f (x + h) − f (x − h) − h + h + h + .1. . . .

1) − f ( 2 − 0... Φ(h/2) − Φ(h) = 0.3339506968 2 · 0. calcula f ( 2) haciendo uso de la extrapolaci´n de Richarson.2)-(5.. despejando f (x).3334876594 Usando la extrapolaci´n o f (x) ≈ Φ(h/2) + (El valor exacto es 1/3).1) es h 3a4 4 15a6 6 3f (x) = 4Φ( ) − Φ(h) − h − h 2 4 16 que. 4 16 93 √ Ejemplo: Siendo f (x) = arctan(x).1. 4 16 con error = h4 − a4 5a6 2 − h − . da origen a la f´rmula de aproximaci´n o o 4 h 1 f (x) ≈ Φ( ) − Φ(h) 3 2 3 que tambi´n puede expresarse e Φ( h ) − Φ(h) h 2 f (x) ≈ Φ( ) + 2 3 con error = h4 − a4 5a6 2 − h − .1) = = 0.´ ´ Diferenciacion e integracion con lo que (5.3333333136 3 y .1 f (x) ≈ Φ(h/2) = 0.. f (x) ≈ Φ(h) = f (x + h) − f (x − h) 2h √ √ f ( 2 + 0. o Tomamos h = 0.

. . 20 16 1 h6 Ψ(h/2) − Ψ(h) − b6 + .. Sustituyendo h por h/2 f (x) = Ψ(h/2) + b4 y multiplicando por 24 16f (x) = 16Ψ(h/2) + b4 h4 + b6 Restando (5.94 Si en la f´rmula (5.1.. . 4 h 2 4 (5. 4 h6 + . 20 El proceso puede continuar de forma similar tomando ahora otra funci´n o 1 16 Ω(h) = 15 Ψ(h/2) − 15 Ψ(h).3) nos queda 15f (x) = 16Ψ(h/2) − Ψ(h) − 3b6 y al despejar f (x) f (x) = da origen a la f´rmula o f (x) ≈ 1 16 Ψ(h/2) − Ψ(h) 15 15 con error =h6 −b6 1 + .4)-(5.3) + b6 h 2 6 + .. f (x) = Ψ(h) + b4 h4 + b6 h6 + . . b4 = 3 −a4 4 .4) que tambi´n puede expresarse e f (x) ≈ Ψ(h/2) + Ψ(h/2) − Ψ(h) 15 con error =h6 −b6 1 + .. . obtenemos la expresi´n o 16 h 4 3 Φ( 2 ) Cap´ ıtulo 5 − 1 Φ(h).2) denotamos Ψ(h) = o b6 = −5a6 .. Se puede demostrar el siguiente resultado: Teorema: El algoritmo de Richarson genera aproximaciones a f (x) cada vez de un orden superior. ...... (5. 15 15 20 h6 + . . .

1.1)) = 0.1) = = 0. h/2) + . A partir de R(0.05) Φ(0.05) = Φ(0.2) calculamos la aproo ximaci´n Ψ(h) que es de orden 4 o Ψ(0. h/2) calculo las aproximaciones R(1.´ ´ Diferenciacion e integracion 95 Ejemplo: Aplica dos pasos del algoritmo de Richarson para calcular √ f ( 2) siendo f (x) = arctan(x) y tomando h = 0. el proceso de extrapolaci´n de Richarson puede resumirse as´ o ı: Etapa 0.1. h) = R(0. h/2) calculo las aproximaciones R(2.05) = 0.025) = 0. h) = Φ(h) = ). 41 − 1 R(1.2) con h y h/2 para obtener las dos primeras o aproximaciones de orden 2 √ √ arctan( 2 + 0.1) Φ(0.05) + Φ(0.33395069677432 2 · 0. h/2) − R(1. h/2) + R(0.1) = Φ(0. h/2) − R(0.025) − Φ(0.1.1) − arctan( 2 − 0.05) − Ψ(0.33333333328933. 42 − 1 Etapa 2. 2h Etapa 1. h) = R(1. A partir de R(1.05) = = 0. h) y de R(1.33333333206104 3 y a partir de estos dos valores obtenemos la aproximaci´n Ω(h) o Ω(0.05) − Φ(0.05 A partir de esos dos valores y aplicando la f´rmula (5.1) = 0. Calculo distintas aproximaciones R(0.1) = Ψ(0. h) . h) en funci´n de un par´metro o a f (x+h)−f (x−h) h (en nuestro caso R(0.05) + Ψ(0. Aplicamos la f´rmula (5.1 √ √ arctan( 2 + 0.025) + Φ(0. h) y de R(0.33348765942111 2 · 0. 15 En general.05) − arctan( 2 − 0.33337191390106) podremos tambi´n calcue lar Ψ(h/2) Ψ(0.33333331363671 3 Calculando Φ(h/4) (Φ(0. h) .

. h) R(0. h) R(1..96 Cap´ ıtulo 5 Etapa n. i=0 (5... h) y de R(n − 1. Si en el ejemplo utilizado los nodos est´n igualmente e a espaciados. h/2) calculo las aproximaciones R(n − 1. h/2) − R(n − 1.5) o En el ejemplo anterior Ai = a lxi (x)dx. h/4) . A partir de R(n − 1. Las o f´rmulas as´ construidas son exactas para los polinomios de grado menor o o ı igual que n (¿por qu´?). . xi − x j tendr´ ıamos que b a b n b f (x)dx ≈ p(x)dx = a i=0 f (xi ) a lxi (x) es decir. siendo p(x) una funci´n que se parezca a f (x). h/2) R(0. h/8) .. La idea es sustituir a f (x)dx por a p(x)dx. por ejemplo un polinomio interpolador en unos o nodos x0 . h/4) R(0. h/2) . 5. h) . R(3. Etapa 2 Etapa 3 . h) = R(n − 1. h) R(n. x1 . h) R(2. h/2) + . Etapa 1 R(1. R(2. e o .. estaremos hablando del ”m´todo de Newton-Cˆtes”. 4n − 1 Etapa 0 R(0. obtenemos una f´rmula como esta o b a n f (x)dx ≈ b Ai f (xi ).... xn del intervalo [a.2 Integraci´n num´rica mediante interpolaci´n o e o b El objetivo es obtener un valor aproximado de a f (x)dx sin calcular la prib b mitiva de f (x). .. Si utilizamos el m´todo de Lagrange e para calcular el polinomio interpolador n n p(x) = i=0 f (xi )lxi (x) con lxi (x) = j=0 x − xj . b]. . Una expresi´n como (5. .5) se denomina f´rmula de cuadratura y los puntos xi son los nodos de cuadratura.. . h/2) R(1..

Puesto que lx0 (x) = a−x . b].1 Regla del trapecio El caso particular del m´todo de Newton-Cˆtes con n = 1 se conoce coe o b−x mo el m´todo del trapecio. . la f´rmula de cuadratu- f (x)dx ≈ Ai f (xi ) = i=0 b−a [f (a) + f (b)] 2 La expresi´n del error del polinomio de interpolaci´n p(x) para n = 1 es o o f (ξx ) f (x) − p(x) = 2 (x − a)(x − b). lx1 (x) = x−a . b] tal que: b b h(x)g(x)dx = h(ξ) . aplicando la generalizaci´n del o o teorema de valor medio del c´lculo integral 1 obtenemos que el error es a f (ξ) 2 1 b a (x − a)(x − b)dx = f (ξ) (a − b)3 2 6 Teorema: Sean h(x) y g(x) dos funciones reales e integrables en un intervalo [a.5 1 2 -1 Figura 5.2 -1 1 2 -3 -2 -1 -0.4 0.1: f´rmulas de cuadratura gr´ficamente o a 5. A0 = e b−a = 1 (b − a) y A0 = 2 ra queda as´ ı b a n b a lx0 (x)dx b a lx1 (x)dx 1 o = 2 (b − a). Si g(x) no cambia de signo en todo x ∈ [a. b] y suponiendo que f (x)/2 es una funci´n continua en [a. b]. a a g(x)dx.6 0.8 1 0.´ ´ Diferenciacion e integracion 97 1 0. b] y h(x) es continua en [a.5 0. de modo que b a b b b f (x)dx − p(x)dx = a a f (x) − p(x)dx = a f (ξx ) (x − a)(x − b)dx 2 Puesto que (x − a)(x − b) no cambia de signo en todo [a. b].2. entonces existe un punto ξ ∈ [a.

2)| = |2e0.2 − 0 0 [e + e0.98 Cap´ ıtulo 5 para un cierto valor ξ ∈ (a.2e0. Ejemplo: Calcula (regla del trapecio).248151272255559. b]. 0.2. una cota del error ser´ a | − 2.2 0 2 0.2 ] = 0. se conoce como la regla de Simpson 2 1/3: b a f (x)dx ≈ h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 con error − f 4) (ξ) h5 90 para un cierto ξ ∈ [a. la Regla del Trapecio quedar´ as´ ıa ı: b a f (x)dx ≈ h [f (a) + f (b)] 2 con error= − f (ξ) h3 12 (5. o o El caso n = 2.2 | = 2.23 | = 0.20408107741924 2 Sabiendo que si x ∈ [0. si h = b − a. En resumen. ya que el t´rmino del error e contiene el factor f 4) (ξ).248151272255559 0.2 +4·0. . 12 2 2 2 2 5. h = b−a y xi = x0 + ih. Por ser una f´rmula de Newton-Cˆtes con tres puntos o o es exacta para polinomios de grado menor o igual que 2.2 x2 0 e dx con la f´rmula de Newton-Cˆtes con n = 1 o o ex dx ≈ 0. 0.2 Regla de Simpson La f´rmula de Newton-Cˆtes para n = 2 o n = 3 se llama Regla de Simpson.2] entonces |f (x)| = |2ex +4x2 ex | ≤ |f (0. b]. b). pero adem´s es exacta a para los polinomios de grado menor o igual que 3.00149876751484.6) para un cierto ξ ∈ [a.

xi ]: b n xi xi−1 f (x)dx = a i=1 f (x)dx ≈ 1 2 n i=1 (xi − xi−1 ) [f (xi−1 ) + f (xi )] .2 0. la regla del trapecio compuesta consiste en fijar unos puntos a = x0 < x1 < · · · < xn−1 < xn = b y aplicar la regla del trapecio a cada intervalo [xi−1 .22 + 16e0.6 ∗ 10−6 90 2 una cota del error ser´ a | − 14. Ejemplo: Calcula 0 (regla de Simpson 1/3).2) 2 2 2 = |12e0. b] en subintervalos y aplicar e en cada uno de ellos una regla simple. puesto que ambas son de orden 5 y | − 1/90| < | − 3/80|. se conoce como la regla de 3h5 80 f (x)dx ≈ 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 con error − f 4) (ξ) para un cierto ξ ∈ [a. Si los puntos est´n igualmente espaciados a .5147 5.2 ] = 0.5147.´ ´ Diferenciacion e integracion El caso n = 3.2/2)5 | = 1.2027 3 2 Sabiendo que si x ∈ [0. Es equivalente a sustituir f (x) por una funci´n que interpole a f (x) y que o est´ formada por trozos de l´ e ınea.2 0.2 0 2 0.1 + e0.2/2 0 2 2 [e + e0. 0.2 x2 e dx con la f´rmula de Newton-Cˆtes con n = 2 o o ex dx ≈ 2 0.2] entonces |f 4) (x)| = |12ex + 48ex x2 + 16ex x4 | ≤ |f 4) (0.24 | = 14. Es mejor usar la regla de Simpson 1/3 que la de 3/8.2 + 48e0.3 Reglas compuestas Este m´todo consiste en dividir el intervalo [a. Por ejemplo. 0. b].2. En general es preferible usar una regla con n par (n´mero impar de puntos) que con n u impar. (0. h = Simpson 3/8: b a b−a 3 99 y xi = x0 + ih.

8 0. Si tomamos tres puntos x0 = 0. .1 0 2 2 e + 2e0.2 -1 1 2 Figura 5. la regla del trapecio n compuesta nos queda b a f (x)dx ≈ h [f (x0 ) + 2f (x1 ) + · · · +2f (xn−1 ) + f (xn )] 2 h2 con error − (b − a)f (ξ) 12 para un cierto ξ ∈ [a. n). xi = a + ih con i = 1. La f´rmula es exacta para polinomios de grado o menor o igual que 1.4 0.2 · f (0. . 2.100 Cap´ ıtulo 5 (h = xi − xi−1 = b−a . x1 = 0. 1 0.2 -1 1 2 1 0.4 0.1 y x2 = 0. b].6 0.2) = 0. .2 0 0.12 2 2 (0. .201085 2 Una cota del error ser´ ıa − 0.00187346 12 12 .2 − 0)(ex (2 + 4ex )) ≤ − 0.1 + e0.2: Regla del trapecio compuesta con 3 y 4 puntos Ejemplo: Calcula un valor aproximado de 0 ex dx mediante la regla del trapecio compuesta.12 0.2 2 ex dx ≈ 2 0.8 0.2 = 0.6 0.2 0.

. En cada caso. si en la f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) o i=0 b tomamos los coeficientes Ai = a lxi (x)dx. . . An que aseguren que la b f´rmula de cuadratura a f (x)dx ≈ n Ai f (xi ) es exacta para los polinoo i=0 mios de grado n. b]. . . 5.4 M´todo de los coeficientes indeterminados e Las reglas de Newton-Cˆtes con n + 1 puntos son exactas para los polinomios o b de grado n. x1 . aplicando a cada dos subintervalos la regla de Simpson 1/3 b x2 x4 xn f (x)dx = a x0 f (x)dx + x2 f (x)dx + · · · + f (x)dx xn−2 con lo que obtenemos la f´rmula o b a f (x) ≈ h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + .2. b] es par podemos u aplicar de forma sencilla la regla de Simpson compuesta con h = b−a . 3 + 4f (xn−1 ) + f (xn )] o lo que es lo mismo b a n 2 f (x)dx ≈ f (x0 ) + [2f (x2i )+4f (x2i−1 )] + f (xn ) i=1 con error − b − a 4 4) h f (ξ) 180 con ξ ∈ [a. dados un conjunto de n + 1 puntos x0 . El objetivo de esta secci´n es. el problema se puede resolver de forma similar al siguiente ejemplo. xi = n a + ih (0 ≤ i ≤ n). . . . A1 . es decir. el resultado que obtenemos al calcular con esa regla la integral de un polinomio de grado n es el valor exacto. . . .´ ´ Diferenciacion e integracion 101 Si el n´mero n de intervalos en los que dividimos [a. o xn . encontrar el valor de los coeficientes A0 .

En particular la f´rmula tendr´ que ser exacta para los polinomios 1. e 5. la f´rmula ser´ o ıa tambi´n exacta porque e 1 1 1 1 P (x)dx = a 0 0 1dx + b 0 xdx + c 0 x2 dx = 1 1 = a(A0 + 1A1 + A2 ) + b( A1 + A2 ) + c( A1 + A2 ) = 2 4 1 1 2 = A0 (a) + A1 (a + b + ( ) c) + A2 (a + 1b + 12 c) = 2 2 1 = A0 P (0) + A1 P ( ) + A2 P (1) 2 que ser´ el resultado obtenido al aplicar la f´rmula de cuadratura con los ıa o coeficientes calculados. le imponemos 4 condiciones: que o . si P (x) = a + bx + cx2 a 6 6 es cualquier otro polinomio de grado menor o igual que 2.102 Cap´ ıtulo 5 Ejemplo: Encuentra los valores A0 . Adem´s. Para calcular estos valores y puesto que tenemos 4 inc´gnitas. Adem´s. es la misma f´rmula que se obtendr´ con el a o ıa m´todo de Simpson.3 Cuadratura gaussiana 1 Supongamos que queremos obtener una f´rmula de cuadratura o f (x)dx = A1 f (t1 ) + A2 f (t2 ) −1 pero no fijamos previamente los valores de t1 . x y x2 que forma una o a base del conjunto de los polinomios de grado menor o igual que 2: 1 = 1 2 = 1 3 = 1 0 1dx 1 0 xdx 1 2 0 x dx = A0 + 1A1 + A2 = 0A0 + 1 A1 + A2 2 = 0A0 + 1 A1 + A2 4 2 y obtenemos que A0 = 1 . A1 y A2 . A1 y A2 para que la f´rmula o 1 0 1 f (x)dx ≈ A0 f (0) + A1 f ( ) + A2 f (1) 2 sea exacta para los polinomios de grado menor o igual que 2. A1 = 3 y A2 = 1 . t2 .

Ya hemos deducido cuales son los nodos ti y los coeficientes Ai 4 (i = 1. . Si no supi´ramos cuales son. t2 = −t1 . x. para 1. n) en la cuadratura gaussiana coinciden con las ra´ ıces del polinomio de Legendre de grado n. t2 = 0. n+1 0 π 2 Ejemplo: Calcula un valor aproximado de tura gaussiana de dos t´rminos. π ]. . 2. Por tanto la f´rmula o 1 f (x)dx = f (− −1 1 ) + f( 3 1 ) 3 es exacta para integrar cualquier polinomio de grado menor o igual que 3 en el intervalo [−1. es o decir. . Sustituyendo en el resto de las ecuaciones podemos comprobar que solo es aceptable t2 = −t1 y que en ese caso los par´metros son A1 = A2 = 1 a y t2 = −t1 = 1 3. Dicho cambio es x = π t + π con lo ın 2 4 4 que dx = π dt. 1] en [0. t2 = t1 . podr´ e ıamos averiguar primero los nodos . Los nodos ti (i = 1. b] se utiliza una transformaci´n af´ o ın que lleve un intervalo en el otro. x2 y x3 : 1 3 3 3 −1 x dx = 0 = A1 t1 + A2 t2 1 2 2 2 2 −1 x dx = 3 = A1 t1 + A2 t2 1 −1 xdx = 0 = A1 t1 + A2 t2 1 −1 1dx = 2 = A1 + A2 Restando a la ecuaci´n primera la tercera multiplicada por t2 obtenemos o 1 0 = A2 (t3 − t2 t2 ) = A2 t2 (t2 − t1 )(t2 + t1 ) 2 1 con lo que se obtiene alguno de los siguientes valores: A2 = 0.´ ´ Diferenciacion e integracion 103 la f´rmula sea exacta para los polinomios de grado menor o igual que 3. hemos de hacer un cambio de o 2 variable af´ que lleve [−1. e sen(x)dx mediante cuadra- Como el intervalo de integraci´n es [0. Los polinomios de Legendre se construyen as´ ı: L0 (x) = 1 L1 (x) = x Ln+1 = (2n + 1)xLn (x) − nLn−1 (x) . 2). . π ]. 1]. Para integrarlos en [a.

0) R(1. si queremos aproximar R(0. 0) R(M. donde.. 0) = b a f (x)dx R(M. 1) R(M. 0) R(3.2) R(3. . 0) = f (a + (2i − 1) b−a ) 2n (Regla del trapecio para 2n intervalos) 1 R(n. m − 1) + m [R(n. m − 1) − R(n − 1.3) . 1) R(2. En todo caso se obtendr´ ıa π 2 1 sen(x)dx = −1 sen π sen 4 0 π π t+ 4 4 π (− 4 π dt = 4 1 π )+ 3 4 + sen π ( 4 1 π )+ 3 4 ≈ 0. 1) R(3.99847. m) = R(n. 0) R(1. Posıces teriormente calcular´ ıamos los coeficientes Ai planteando un sistema de ecuaciones. m − 1)] 4 −1 (Extrapolaci´n de Richarson) o (5. . M ) 1 (b − a) [f (a) + f (b)] 2 (Regla del trapecio para 20 intervalos) 1 b−a R(n − 1.104 Cap´ ıtulo 5 2 calculando las ra´ del polinomio de Legendre de grado 2 (L2 = 3x 2−x )..7) La ultima f´rmula se obtiene aplicando la extrapolaci´n de Richarson que ´ o o es un proceso que ya hemos utilizado en otra ocasi´n.4 Integraci´n de Romberg o Para aplicar el m´todo de integraci´n de Romberg construimos una tabla como e o esta R(0. R(M.2) R(3. = 5. 0) R(2. 3) . 1) R(2. 0) + n 2 2 2n−1 i=1 R(n. 2) R(M. El factor 4m1−1 depende o .

5981 30.3537 17. e de Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 x2 e dx. A partir o de la aproximaci´n R(n. b] entonces la sucesi´n que o o b se obtiene en cada columna del m´todo de Romberg converge a a f (x)dx.7 La mejor aproximaci´n obtenida e u o o 2 x2 ser´ 0 e dx ≈ 16.4843 16.5 + 2e1 + 2e1. m − 1).4756 16. 0) = 1 0 e + 2e1 + e2 = 30.5981 2 R(1.7354 m=1 m=2 m=3 m=4 22. 0) es la regla del trapecio compuesta con 22 intervalos: R(2.6446 2 y de modo similar los t´rminos R(n. j) se considera una aproximaci´n a a f (x)dx.4529 . 0) = 2/4 0 e + 2e0. El resto de e t´rminos se calculan seg´n la f´rmula 5. en este caso la regla del e trapecio. m) = (+exacta) + 4m 1 [(+exacta) − (-exacta)] . 0) = 2−0 0 2 (e + e2 ) ≈ 55.5174 2 R(2.4588 16.1572 17. b Cada valor R(i.5651 16. ıa n=0 n=1 n=2 n=3 n=4 m=0 55.5174 20.4530 16.6446 17. se construye otra mejor aproximaci´n R(n.´ ´ Diferenciacion e integracion 105 del orden de convergencia del m´todo empleado. −1 Teorema: Si f (x) es una funci´n continua en [a.0334 16. 0) es la regla del trapecio compuesta con 21 intervalos: R(1. m − 1) que se considera que mejora a la anterior o R(n − 1.4535 16. m): o R(n.5 + e2 = 20.4529.5386 16. 0) de la primera columna. 0) es la regla del trapecio con 20 = 1 intervalo: R(0. 0 R(0.

6875 2.65859 0.65882.65882 0.6667.6667 n = 2 2.65883 0.6719 2.106 Cap´ ıtulo 5 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 2 2 x dx.65898 0.6667 Ejemplo: Aplica el m´todo de Romberg para obtener una aproximaci´n e o 0.2 e La mejor aproximaci´n obtenida ser´ o ıa ≈ 0.2 e dx.65181 0.65883 0. Obtenemos la tabla siguiente n=0 n=1 n=2 n=3 n=4 m=0 0.66211 0.6667 2.6667 n = 4 2.65947 0. ıa m=0 m=1 n=0 4 n=1 3 2.65886 m=1 m=2 m=3 m=4 0. .6667 2.69302 0.5 −x2 dx 0.75 2.65882 0.65882 0.6667 2.6667 n = 3 2.6667 2.5 −x2 de 0.65904 0.65882 0.6667 2. 0 de Obtenemos la tabla siguiente en donde a mejor aproximaci´n obtenida o 2 ser´ 0 x2 dx ≈ 2.65882 0.6667 m=2 m=3 m=4 2.

6.2 x2 dx usando Paso 1. 1].2. xi+1 xi f (x)dx mediante una f´rmula de o • Se fija la tolerancia en el intervalo [xi . a • Se obtienen dos estimaciones de cuadratura. • Se estima b a f (x)dx: b n xi+1 f (x)dx = a i=0 xi f (x)dx Ejemplo: Fijado un valor de tolerancia T = 0.94814815. Aplicamos la regla de Simpson para calcular la integral: h1 = 1 − 0.6] y en [0.´ ´ Diferenciacion e integracion 107 5.6 − 0.2.6. 0. 1] = 0. b] en intervalos disjuntos [xi . 1]: h2 = 0. h2 = 2 . xi+1 ] con las siguientes condiciones: • Se fija un par´metro llamado tolerancia T. calcula la regla de Simpson.66851852.xi+1 ] se estima definitivamente xii+1 f (x)dx por extrapolaci´n. 2 Paso 2.6 = 0.2 = 0.2.51851852.2 ⇒ S2 [0. Aplicamos la regla de Simpson compuesta en dos subintervalos de [0. 1] = 4. (b − a) x • Si la diferencia entre las dos estimaciones de xii+1 f (x)dx es menor que x T[xi .2 ⇒ S2 [0. xi+1 ]: T[ xi .6] = 3. 1 1 0. 0.5 Cuadratura adaptativa A grandes rasgos.2 = 0. el m´todo consiste en calcular un valor aproximado de una e b integral a f (x)dx dividiendo el intervalo [a. En o caso contrario se divide el intervalo en dos subintervalos disjuntos. 2 1 − 0.4 ⇒ S1 [0.02. xi+1 ] = T (xi+1 − xi ). en concreto en [0.2.

ıa Si la diferencia hubiera sido menor que T. 1]) = 0.66669662 15 Paso 5. Paso 4.6 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.52314815)y en [0.6. 0.2.02.6] donde la tolerancia tambi´n es 0.01. 0. 1] o 1 1 de 0. 1]) = 0. 0. Estudiamos el intervalo [0.6]).25002572). a saber: S1 [0. 1]. Comparamos ambas estimaciones: S2 [0.4] + S3 [0.4] = 2. Hasta ahora tenemos dos aproximaciones a 0.01.4. 0.6.6] = 0.6]) = 0.6] de la integral e o en el intervalo y aplicamos la regla de Simpson en [0.6 x2 dx : o 1 0. 0. 1]−(S3 [0. 0.6] = 0.66681049 − 0. Con estas condiciones la tolerancia ser´ 0.6] + S2 [0. 1] y S2 [0. 0. 0.161111 > T[0.6. Contamos con una estimaci´n S2 [0.66851852) = 0.001708 < T [0. Calculo la diferencia entre ambas estimaciones: S1 [0. Comparamos ambas estimaciones: S2 [0. 0.2.6.2.8] = 0. el proceso contin´a fijando la tolerancia de u forma proporcional al tama˜o de cada subintervalo y de modo que sume la n tolerancia total T = 0. 0.6] y 0.6. 0.6.1] = 0.6.8] (S3 [0.66681049 + (0. 0.8] + S3 [0. 1].2 x2 dx. 1] − (S2 [0.01 en [0. Tenemos la estimaci´n S2 [0.6.66851852−0.0. 0.4] + S3 [0.2.6.2.41678477) y en [0.2.83435926) para obtener una nueva (S3 [0.6] (S3 [0.66681049 = 0.4. 1] (S3 [0.108 1 Cap´ ıtulo 5 1 Paso 3. 0.4] (S3 [0.2.2. el proceso finalizar´ efectuando una extrapolaci´n del tipo: o (+exacta) + 1 [(+exacta) − (-exacta)] 15 entendiendo que la primera estimaci´n es menos exacta que la segunda.2.2.2. 0.6. 0.8. 1] = 0.6 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] 2 x 15 1 0.6] − (S3 [0.8.6. Puesto o que la diferencia es mayor que T.2. 0.02.01 en a [0. Actuamos ahora sobre el intervalo [0.01 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 1 1 estimaci´n definitiva de 0. 1]. .7611111 > T = 0.4.4.6] + S2 [0.2.

5. 0. 0. 0.4 x2 dx : o 0. 0.2.2.4.4] = 0.3] = 0.0002220 < T[0. 0.0025. Comparamos ambas estimaciones: S4 [0.0. 0.005).0.3. 0.4] = 0.2.3 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0. 0. Tenemos la estimaci´n S4 [0.50005144) y en [0.4]) = 0.0. Paso 6.4]) > T[0.6]. 0. 0.4.35.5] + S4 [0.3] y [0.4] o 0. Estudiamos el intervalo [0.4 1 de 0. 0.3.4.3.4.4. 0.4 1 1 [(+exacta) − (-exacta)] = 0.8333428. 0. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0.2.0.6 1 estimaci´n definitiva de 0.4].2.4.3.3.0025 y T[0.0.35] y [0. 0.6] (S4 [0. 0.4. dx ≈ (+exacta) + 2 x 15 Paso 7.33334864). Estudiamos el intervalo [0.2.4] − (S5 [0.´ ´ Diferenciacion e integracion 109 Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0.2.4] y [0. 0. 0. .005.3] y [0.6] = 0.01). 0.3.4].3] + S4 [0. Comparamos ambas estimaciones: S3 [0. 0.35.4].4] = 0.2.6 0. Tenemos la estimaci´n S3 [0.5.6] = 0. 0.5] = 0. 0.3.2.6] (S4 [0.6].000859 < T[0.6] (T[0.2. 0.2.005.0.4] = 0. 0.005 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.5. 0.0025. Con estas condiciones T[0.4].4] − (S4 [0.0.0.6] = 0.4] o 0.2.3.0.0.4] en los intervalos [0.6]) = 0. 0.4 1 de 0. Paso 8.005 y T[0.6] en los intervalos [0.4] = 0. 0.3. 0.2.4 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0. 0.2.6] − (S4 [0. Puesto que la diferencia es mayor que la tolerancia seguimos el proceso y dividimos el intervalo [0. Tenemos la estimaci´n S3 [0.2. Con estas condiciones T[0.4].4] (T[0.6] = 0. 0.5.6] o 0.4.35] + S5 [0.2.2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.6 1 de 0. Comparamos ambas estimaciones: S3 [0.3. Fijamos la tolerancia de cada intervalo de forma proporcional al tama˜o del intervalo n correspondiente y de modo que la suma sea igual a la tolerancia en el intervalo [0.0. Estudiamos el intervalo [0.

3 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 0.3]) < T[0.6 x = 1.66669662 = 4.2 ser´ ıa: 0.2 x2 dx y obtenemos otra sumando los resultados obtenidos al aplicar la regla de Simpson en los intervalos [0.83333492.6 1 1 1 1 1 1 dx = dx + dx + dx + dx 2 2 2 2 2 x 0.2 1 1 dx ≈ (+exacta) + [(+exacta) − (-exacta)] = 1.25.110 Cap´ ıtulo 5 Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.3 1 de 0. Comparamos ambas estimaciones: S4 [0.666686 + 0.2.3 1 estimaci´n definitiva de 0.4 0. 2 x 15 1 1 0.3] o 0. 0.2 x2 dx : o 0.666686. 0. 0.0025.25] + S5 [0.2.3 0.2. 0.00005957.3 0. 0.2.25] y [0.3] − (S5 [0. Tenemos la estimaci´n S4 [0. 0. Como la diferencia es menor que la tolerancia extrapolando obtenemos la 0.4 1 estimaci´n definitiva de 0.3]. 0. .2. la estimaci´n mediante este m´todo de o e 1 0.3 x2 dx : o 0.4 0.3 x 0.8333428 + 0.2.2 x2 dx Por lo tanto.2 x 0. Estudiamos el intervalo [0.0.83333492 + 0.25.4 x 0.3] = 0.3]. 2 x 15 Paso 9.

j=k (xk (n+1)! − xj ) R(0.Tabla diferenciaci´n e integraci´n num´rica o o e Derivaci´n o f (x) = f (x+h)−f (x) h f (x) = f (x+h)−f (x−h) 2h f (x) = f (x+h)−2f (x)+f (x−h) h2 n f (xk ) = i=0 f (xi )Li (xk ) − h f (ξ) 2 2 − h f (ξ) 6 2 − h f 4) (ξ) 12 1 n f n+1) (ξxk )Πj=0. m − 1) − R(n − 1. b] − Si [a. b] + 15 Si+1 [a. h) = f (x+h)−f (x−h) 2h R(n. m − 1)] 1 Si+1 [a. h) = R(n − 1. h/2) − R(n − 1. m − 1) + 4m1−1 [R(n. m) = R(n. b] 1 . h)] 4n −1 Integraci´n o b n i=0 ( a li (x)dx)f (xi ) h [f (x0 ) + f (x1 )] 2 h [f (x0 ) + 4f (x1 ) + f (x2 )] 3 3h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] 8 h [f (x0 ) + 2f (x1 ) + 2f (x2 ) + · · · + 2f (xn−1 ) + f (xn )] 2 h [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + · · · + 4f (xn−1 ) + f (xn )] 3 1 − 12 h3 f (ξ) 1 − 90 h5 f 4) (ξ) 3 − 80 h5 f 4) (ξ) − (b−a) h2 f (ξ) 12 − (b−a) h4 f 4) (ξ) 180 1 1 f (− 3 ) + f ( 3 ) R(n. h/2) + 1 [R(n − 1.

.

. o El grado de una EDO es el mayor exponente de la derivada de mayor orden que aparece en la ecuaci´n. y (x). o Ejemplo: ecuaci´n o y = y tan(x + 3) (y )2 = y tan(x + 3) y = y tan(x + 3) orden 1 1 2 grado 1 2 1 Una ecuaci´n diferencial ordinaria (EDO) es una expresi´n de la forma o o La soluci´n general de una EDO es una familia de funciones que verifican o la EDO. a 113 . otra depeno diente de la primera y(x) y derivadas de distinto orden de la segunda respecto de la primera (y (x). . y(x). y (x). . es decir. ) = 0.Cap´ ıtulo 6 Resoluci´n num´rica de o e ecuaciones diferenciales 6.1 Existencia y unicidad de soluciones F (x. El orden de una EDO es el de la mayor derivada que aparece en la ecuaci´n. y (x). En general. . una ecuaci´n que contiene una variable independiente x. . ). la soluci´n general de una EDO de orden k es una familia o de funciones que depende de una par´metro k. .

tiene soluci´n o ´ o x unica porque (2. La soluci´n general de y = −y es y = a sen(x) + b cos(x). y ) ∈ D.114 Cap´ ıtulo 6 Ejemplo: La soluci´n general de y = sen(x) es y = − cos(x) + k con o k ∈ R. y) y ∂f ∂y son continuas en un rect´ngulo D del plano a 2 y (x . Una soluci´n particular es y = ( 3 x) o o es y = 0. a o Ejemplo: La ecuaci´n y = y 1/3 tiene como soluci´n general y = ( 2 x) 2 +C o o 3 3 2 2 + 4 y una soluci´n singular con C ∈ R. y(x). R Por el teorema anterior. Sin embargo. 1) est´n dentro de un rect´ngulo que a su vez est´n contenido ´ a a a 2 en R2 − {x = 0}. Una soluci´n singular es una funci´n que verifica la EDO pero o o o que no est´ recogida en la soluci´n general. entonces el problema y = f (x. si existe un rect´ngulo D ⊂ R2 − {x = 0} y a (x0 . 3 Ejemplo: Encuentra d´nde tiene soluci´n unica la ecuaci´n y = o o ´ o −y x . a o x 2 − {x = 0}. si la condici´n inicial o o es y(0) = 2 el problema no tiene soluci´n. o En general.y) = −1 es continua tambi´n en e f (x. Dicha soluci´n es y = x . entonces existe una unica soluci´n de la ecuaci´n y = R ´ o o 0 0 f (x. ∂f (x. La gr´fica de dicha funci´n aparece en la figura 6. Sea f (x. la b´squeda de soluciones exactas de una ecuaci´n diferencial u o es un problema dif´ ıcil. y) = −y . con a ∈ R y o b ∈ R. El planteamiento t´ ıpico de una ecuaci´n diferencial o ordinaria de grado 1 con valor inicial es . y) tal que y(x0 ) = y0 tiene soluci´n unica. y (x)) = 0 se puede expresar de la forma y = f (x.y) Teorema: Si f (x. y) tal que y(x0 ) = y0 . y(x)) entonces (x. Una soluci´n particular de una EDO es un elemento particular de la soluo ci´n general. y) es continua en R ∂y x 2 − {x = 0}.1. Si una EDO de primer orden F (x. Por ello se usan m´todos num´ricos para encontrar e e soluciones aproximadas. y0 ) ∈ D. el problema y = −y con y(2) = 1. Por ejemplo.

La soluci´n num´rica de una EDO ser´ una tabla de valores aproximados o e a de la funci´n y(x) en un conjunto de puntos xi . el m´todo de Taylor de orden k propone e sustituir la funci´n desconocida y(x) por su polinomio de Taylor de orden k o . por ejemplo. En lo que sigue. y(x)) Por ejemplo y = −2x − y y(x0 ) = y0 (6. yi ser´ un valor aproximado de y(xi ). y(xi ) denotar´ el valor exacto de la funci´n y(x) a o en el punto xi . y) = o y x 10 5 0 -5 y = f (x.5 0 -2.1). los m´todos o o e de interpolaci´n.1: La funci´n f (x. Usando esa tabla podemos o construir una aproximaci´n de la funci´n mediante. separados cada uno del siguiente por un tama˜o de paso n h. es decir. con lo que xi = x0 + ih. trabajaremos con puntos xi igualmente o espaciados.5 -5 -10 -5 0 5 10 -10 Figura 6.1) y(0) = −1. a 6.Ecuaciones diferenciales 115 5 2.2 M´todo de la serie de Taylor e Para resolver el problema (6.

y) + fy (x. Partimos del punto x0 . y) + fy (x. dx Elegido. ≈ De este modo obtenemos la expresi´n del m´todo: o e yi+1 = yi + f (xi . y) respecto de x hay que tener en cuenta que es una funci´n de dos variables y que y es funci´n de x. por lo que hay que sustituirlos por aproximaciones: y(xi ) y (xi ) y (xi ) y k) (xi ) ≈ yi f (xi . y)y (x. el tama˜o del paso h. De modo que. denotando o o fx y fy a las derivadas parciales de f (x. es decir y(xi+1 ) = y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) Cap´ ıtulo 6 h2 hk + · · · + y k) (xi ) + 2 k! Los valores de la funci´n y(x) y de sus derivadas en xi son desconocidos en o general. y). y) = fx (x. y0 )h + d f (x0 . y1 )h + d f (x1 . yi )h + dk-1 f (xi . yi ) d f (xi . y1 ) h2 dk-1 f (x1 . el m´todo de Taylor paso a paso ser´ el n e ıa siguiente: Paso 1. y0 ) hk + ··· + dx 2 d xk−1 k! Paso 2.. y0 ) h2 dk-1 f (x0 . y) respecto x e y. obtenemos una aproximaci´n de y(x1 ) o y1 = y0 + f (x0 . y) = fx (x. tendr´ ıamos. por ejemplo que d f (x. yi ) hk d f (xi .116 en un entorno de cada punto xi . Partimos de x1 = x0 + h y calculamos una aproximaci´n y(x2 ): o y2 = y1 + f (x1 . y1 ) hk + ··· + dx 2 d xk−1 k! . yi ) d xk−1 ≈ ≈ . y)f (x.. yi ) dx dk-1 f (xi . yi ) h2 + ··· + dx 2 d xk−1 k! A la hora de derivar f (x.

yi )h + y1 = −1 + 0.9645125. Paso 2.9145125 y f (x1 . −0.1. Como y1 = −0.1.4561927. yi )h + dk-1 f (xi . Como y2 = −0. y0 ) = f (0. y2 ) = f (0. yi ) 4 h + h + h 2 3! 4! Paso 1. y) y (x) = [y (x)] = −y (x) = 2 + y (x) = 2 + f (x. yi ) 2 2 + f (xi .8224553 .5 · 0. n Calculamos el desarrollo de Taylor hasta grado 4 de la funci´n y(x) en un o punto cualquiera xi : y (xi ) 2 y (xi ) 3 y 4) (xi ) 4 h + h + h 2 3! 4! Denotando yi al valor aproximado de y(xi ) y dado que y(xi + h) ≈ y(xi ) + y (xi )h + y (x) = f (x. y1 ) = f (0.8561927) = 0. Paso 3.2. Partimos de xi = xi−1 + h y calculamos una aproximaci´n de o y(xi+1 ): yi+1 = yi + f (xi .12 + 0.9145125) = 0.5 · 0.125 · 0.14 = −0.1 − 1.7145125. yi ) h2 + ··· + dx 2 d xk−1 k! Ejemplo: Proporciona tres valores aproximados de la funci´n y(x). Como y0 = −1 y f (x0 . −0.13 − 0.8561927. y) y 4) (x) = [y (x)] = [−y (x)] = −y (x) = −2 − y (x) = −2 − f (x.Ecuaciones diferenciales 117 Paso i+1. soluo ci´n de y = −2x − y con y(0) = −1 mediante el m´todo de Taylor con k = 4 o e y tama˜o de paso h = 0. y) definimos el m´todo e −2 − f (xi . yi ) 3 −2 − f (xi . obtenemos el valor aproximado y2 = −0. −1) = 1. obtenemos el valor aproximado yi+1 = yi + f (xi . yi ) hk d f (xi . y) y (x) = [y (x)] = [−2x − y(x)] = −2 − y (x) = −2 − f (x.8561927 y f (x2 . obtenemos el valor aproximado y3 = −0.

7 · 0. e Con estos datos se tiene que x0 = 0.9 Puesto que f (x1 . y1 )h = −0.43.2. y2 ) = 0.1 = −0.83 Puesto que f (x2 .2 Errores Al resolver num´ricamente una ecuaci´n diferencial aparecen varios tipos de e o errores: 1.1 M´todo de Euler e Es el m´todo anterior usando el polinomio de Taylor de orden 1 e yi+1 = yi + f (xi .1 = −0. se deduce que y3 = y2 + f (x2 .2.9 + 0.187 · 0. se deduce que y4 = y3 + f (x3 .1 = −0.7. se deduce que y2 = y1 + f (x1 .83 + 0. Resuelve la ecuaci´n y = −2x − y con y(0) = −1 mediante el o m´todo de Euler. y0 = −1. error de redondeo global 5.187.43 · 0.1 = −0. error de redondeo local 4.787 Puesto que f (x3 . y1 ) = 0. f (x0 . error de truncamiento global 3.118 Cap´ ıtulo 6 6. y0 )h = −1 + 1 · 0.787 + 0. error de truncamiento local 2.7683 6. yi )h Ejemplo. y3 ) = 0. y3 )h = −0. y2 )h = −0. y0 ) = 1 con lo que y1 = y0 + f (x0 . error total .

Ecuaciones diferenciales

119

El error de truncamiento local es el que aparece en un paso cuando reemplazamos un proceso infinito por uno finito. Por ejemplo, en el m´todo de e Taylor, usando el desarrollo hasta grado k, sustituimos la serie de Taylor (de infinitos t´rminos) por los primeros k-t´rminos. En este caso, para un cierto e e ci ∈ R, se tiene que y(xi + h) = y(xi ) + y (xi )h + y k) (xi ) k y k+1) (ci ) k+1 y (xi ) 2 h + ··· + h + h 2! k! (k + 1)!

y dado que en el algoritmo usamos la aproximaci´n o y(xi + h) ≈ y(xi ) + y (xi )h + y (xi ) 2 y k) (xi ) k h + ··· + h 2! k!

se deduce que el error local en el paso i-´simo es proporcional a hk+1 , digamos e Ci hk+1 . Un error de esa magnitud se dice que es O(hk+1 ). La acumulaci´n de todos los errores de truncamiento local genera el error o de truncamiento global. Si al aplicar un m´todo el error de truncamiento e k+1 ), el tama˜ o de paso es h, el punto inicial es x y el punto final local es O(h n 0 es xn , entonces el n´mero de pasos ser´ n = xn −x0 y puesto que u a h C1 hk+1 + C2 hk+1 + · · · + Cn hk+1 = hk+1 (C1 + C2 + · · · + Cn ) ≤

≤ hk+1 n max{C1 , C2 , . . . , Cn } = Chk

siendo C = (xn − x0 ) max{C1 + C2 + · · · + Cn }, el error de truncamiento global ser´ O(hk ). Si un m´todo tiene error de truncamiento global O(hk ) decimos a e que el procedimiento num´rico es de orden k. El m´todo de Taylor usando e e el desarrollo hasta grado k es un m´todo de orden k. e El error de redondeo local es el que en cada paso es provocado por la limitada precisi´n de nuestras m´quinas de c´mputo, como ya se coment´ el o a o o tema inicial del curso. El error de redondeo global es la acumulaci´n de los o errores de redondeo local en los pasos anteriores. El error total es la suma de los errores de truncamiento global y redondeo global.

6.3

M´todos de Runge-Kutta e

Los m´todos de Taylor tienen el inconveniente de la dificultad de c´lculo de e a las sucesivas derivadas de la funci´n y(x). En los m´todos de Runge-Kutta se o e

120

Cap´ ıtulo 6

elimina esa dificultad. Las ideas que dan origen a este conjunto de m´todos e se resumen en los siguientes pasos: Paso 1. Consideramos la igualdad
xi+1 xi+1

y(xi+1 ) − y(xi ) = y despejamos y(xi+1 )

y (x)dx =
xi xi

f (x, y(x))dx.

xi+1

xi+1

y(xi+1 ) = y(xi ) +
xi

y (x)dx =
xi

f (x, y(x))dx.

Paso 2. Realizamos el cambio de variable x = xi + θh en la integral anterior y obtenemos
1

y(xi+1 ) = y(xi ) + h
0

f (xi + θh, y(xi + θh))dθ.

(6.2)

Paso 3. Consideramos el conjunto de puntos 0 = θ0 ≤ θ1 ≤ . . . θm ≤ 1 del intervalo de integraci´n [0, 1] y estimamos la integral anterior mediante una o o f´rmula de cuadratura del siguiente tipo
1 0

F (θ)dθ ≈ A0 F (θ0 ) + A1 F (θ1 ) + · · · + Am F (θm )

o con lo que, denotando xiθj = xi + θj h, en la ecuaci´n (6.2) obtenemos y(xi+1 ) ≈ y(xi ) + h A0 f xiθ0 , y(xiθ0 ) + A1 f xiθ1 , y(xiθ1 )

+ · · · + Am f xiθm , y(xiθm ) . (6.3)

La f´rmula de cuadratura elegida puede variar, pero se le ha de exigir que o al menos sea exacta para las funciones constantes, lo que se traduce en que los coeficientes han de cumplir la condici´n o A0 + A 1 + · · · + A m = 1 El m´todo de Runge-Kutta ser´ la f´rmula que resulta de sustituir en la ecuae a o ci´n (6.3) los valores y(xi ), y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ) por sus valores aproxio mados. Si bien dispondremos en cada paso del valor yi que aproxima a y(xi ), no ocurre lo mismo con las aproximaciones de y(xiθ0 ), y(xiθ1 ), . . . , y(xiθm ).

Ecuaciones diferenciales

121

Paso 4. En esta etapa conseguiremos obtener un algoritmo para las aproximaciones aludidas en el apartado anterior. De forma similar a como se obtuvo la ecuaci´n (6.2), llegamos a la igualdad o
θj

y(xiθj ) = y(xi ) + h

f (xi + θh, y(xi + θh))dθ
xi

y aplicando una f´rmula de cuadratura para cada j o
θj xi j j j F (θ)dθ ≈ B0 F (θ0 ) + B1 F (θ1 ) + · · · + Bj−1 F (θj−1 )

(6.4)

a la integral anterior, se obtienen las aproximaciones buscadas
j−1

y(xiθj ) ≈ y(xi ) + h

j Bk f (xiθk , y(xiθk )). k=0

Las f´rmulas de cuadraturas usadas en (6.4) han de ser exactas al menos para o las funciones constantes, por lo tanto los coeficientes deben verificar
j j j B0 + B1 + · · · + Bj−1 = θj

j = 1, . . . , m.

e o Paso 5. Si denotamos yiθj a una estimaci´n de y(xiθj ), un m´todo de RungeKutta quedar´ as´ ıan ı: yi+1 = yi + h[A0 f (xiθ0 , yiθ0 ) + A1 f (xiθ1 , yiθ1 ) + · · · + Am f (xiθm , yiθm ) (6.5) siendo yiθ0 = yi 1 yiθ1 = yi + h B0 f (xiθ0 , yiθ0 ) 2 2 yiθ2 = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) ... m m yiθm = yi + h B0 f (xiθ0 , yiθ0 ) + B1 f (xiθ1 , yiθ1 ) + . . . m · · · + Bm−1 f (xiθm−1 , yiθm−1 ) Previamente deben fijarse los valores 0 = θ 0 ≤ θ1 ≤ θ2 ≤ . . . θm ≤ 1

. θ1 = 1 A0 = 1/2 A1 = 1/2 A 0 + A1 = 1 1 =1 B0 1 B0 = θ 1 = 1 1 1 yi+1 = yi + h[ f (xi0 . entre otras posibilidades. e Para m = 1 (dos etapas). θ1 = 1/2 ..122 Cap´ ıtulo 6 as´ como los siguientes par´metros que han de cumplir con las condiciones de ı a las sumas correspondientes que aparecen en el cuadro A0 A1 1 B0 A2 2 B0 2 B1 . yi1 ) 2 2 siendo yi0 = yi yi1 = yi + hf (xi . el m´todo de Heun: e θ0 = 0. . .5) requiere m+1 evaluaciones o de la funci´n f (x. el m´todo de Runge-Kutta que resulta e es el m´todo de Euler. y). yi ) + f (xi+1 . Un m´todo como el anterior se conoce con el nombre de m´todo de Rungee e Kutta de m+1 etapas. o Ejemplo: Para m = 0 (una etapa). . Am m B0 m B1 . debido a que la f´rmula (6. m Bm−1 m−1 m k=0 Bk = θm m r=0 Ar =1 1 2 2 B0 = θ 1 B0 + B 1 = θ 2 . yi ) con lo que yi+1 = yi + h 1 1 f (xi . yi )) 2 2 (6. podemos obtener...6) El llamado m´todo de Euler modificado sale con la elecci´n e o θ0 = 0... yi0 ) + f (xi1 . yi + hf (xi .

yi ) 4 4 3 3 El m´todo cl´sico de Runge-Kutta es de m = 3 (cuatro etapas) definido e a por los par´metros a 0 = θ0 θ1 = 1/2 θ2 = 1/2 θ3 = 1 . yi ) 2 2 (6. θ1 = 2/3 A0 = 1/4 A1 = 3/4 A 0 + A1 = 1 1 = 2/3 B0 1 B0 = θ1 = 2/3 1 3 yi+1 = yi + h[ f (xiθ0 . yi + h f (xi . yiθ0 ) 1 3 2 2 yi+1 = yi + h[ f (xi . yiθ0 ) + f (xiθ1 . yi ) + f (xi + h. yiθ1 ) 4 4 siendo yiθ0 = yi yiθ1 = yi + h con lo que el m´todo queda as´ e ı 2 3 f (xiθ0 . yi ) 2 con lo que el m´todo queda e yi+1 = yi + hf xi + h h .7) Otra elecci´n posible es o θ0 = 0. yiθ1 )] siendo yi0 = yi yi1/2 = yi + h 1 f (xi . yi + f (xi .Ecuaciones diferenciales A0 = 0 A1 = 1 A 0 + A1 = 1 1 = 1/2 B0 1 B0 = θ1 = 1/2 123 yi+1 = yi + h[f (xiθ1 .

yi + h K1 ) 2 2 h h K4 = f (xi + h. Para aplicar la ecuaci´n (6.95409 2 2 K4 = f (x0 + h. Calculamos K1 = f (x1 .90899 K2 = f (x1 + h .90898. yi ) K2 = f (xi + h . .98473. y1 ) = −1. y0 + h K2 ) = −1.124 A0 = 1/6 A1 = 1/3 1 B0 = 1/2 A2 = 1/3 2 B0 = 0 2 = 1/2 B1 A3 = 1/6 3 B0 = 0 3 =0 B1 3 B2 = 1 2 3 k=0 Bk = 1 Cap´ ıtulo 6 3 r=0 Ar =1 1 2 2 B0 = 1/2 B0 + B1 = 1/2 que da lugar a yi+1 = yi + donde K1 = f (xi .86520 2 2 K3 = f (x1 + h . Con estos datos obtenemos y1 = y 0 + h (K1 + 2K2 + 2K3 + K4 ) = 1. yi + 2 K2 ) h (K1 + 2K2 + 2K3 + K4 ) 6 (6. y0 ) = f (1. yi + hK3 ) K3 = f (xi + 2 . Partimos de x1 = 1 + y1 = 1. 6 1 128 . y0 + h K1 ) = −1.8) o previamente calculamos K1 = f (x0 .8) Ejercicio: Aplica tres pasos del m´todo cl´sico de Runge-Kutta de orden e a 4 con h = 1/128 para resolver la ecuaci´n o y = yx − y 2 x2 y(1) = 2. 2) = −2 K2 = f (x0 + h .95355 2 2 K3 = f (x0 + h . y0 + hK3 ) = −1. y1 + h K2 ) = −1.86570 2 2 K4 = f (x1 + h.82316. Paso 1. Partimos de x0 = 1. Paso 2. y0 = 2.98473. y1 + h K1 ) = −1. y1 + hK3 ) = −1.

u Es decir. y2 ) = −1.97016. los m´todos de Runge-Kutta de 1. e e es decir. xi . 7 etapas.74215.78186 2 2 h K3 = f (x2 + 2 . Sabemos que y (x) ≈ y(x + h) − y(x − h) 2h .Ecuaciones diferenciales Con estos datos obtenemos y2 = y 1 + h (K1 + 2K2 + 2K3 + K4 ) = 1. xi−k . Existen m´todos de Runge-Kutta de orden k con k menor e o igual que el n´mero de etapas m + 1.4 M´todos multipaso e Tanto los m´todos de Taylor como los de Runge-Kutta son m´todos de un e e paso. Se da la igualdad para k = 1. 6 6. . en general para k ≥ 7 se necesitan un n´mero de etapas mayor o u igual que k + 2. Los m´todos multipaso se caracterizan e por obtener yi+1 a partir de los valores h.78231 2 K4 = f (x2 + h. Partimos de x2 = 1 + y2 = 1. Calculamos K1 = f (x2 . .96088.4. y2 + h K1 ) = −1. y2 + h K2 ) = −1. yi . . e respectivamente. 4. 3. 6.97016. 2. adem´s de xi a y de h. .3.2. yi−k . el valor aproximado anterior yi .2. xi−1 . porque para calcular el valor aproximado yi+1 solo se usa. 125 Paso 3. Para conseguir orden k = 5 es necesario 6 etapas. para k = 6. Partimos siempre de la ecuaci´n o y = f (x. y) y(x0 ) = y0 . 6 2 128 .4 etapas tienen orden 1. su orden. Con estos datos obtenemos y3 = y 2 + h (K1 + 2K2 + 2K3 + K4 ) = 1. Ejemplo: Un primer ejemplo sencillo de un m´todo multipaso se puede e obtener de la siguiente forma.1 Errores Los m´todos de Runge-Kutta tienen tambi´n su error de truncamiento global.3.3. yi−1 . y2 + hK3 ) = −1.82311 K2 = f (x2 + h .

y(xi + θk h)) (6. y(xi+1 ) − y(xi−1 ) 2h Cap´ ıtulo 6 Para poder obtener el punto yi+1 son necesarios los dos valores anteriores yi . y(xi + θh))dθ. y(xi + θh))+ + · · · + Ak f (xi + θk h. Este ultimo puede calcularse con un m´todo de un paso. Para empezar a aplicarlo tenemos que e disponer de y0 e y1 .10) lo cual sugiere un m´todo que resultar´ de sustituir los valores de la funci´n e a o por valores aproximados. Es un m´todo de dos pasos. y aplicamos el cambio de variable x = xi + θh 1 y(xi+1 ) − y(xi ) = h f (xi + θh. y(xi + θh))+ + A1 f (xi + θ1 h. y(x))dx. . yi ). yi−1 . lo que sugiere el m´todo e yi+1 = yi−1 + 2 h f (xi . 0 Aproximamos la integral anterior por una f´rmula de cuadratura o 1 0 F (θ)dθ = A0 F (θ0 ) + A1 F (θ1 ) + · · · + Ak F (θk ) (6.9) y nos queda y(xi+1 ) − y(xi ) ≈ h A0 f (xi + θ0 h.126 con lo que y(xi ) ≈ y se deduce que y(xi+1 ) ≈ y(xi−1 ) + 2 h y (xi ). ´ e El que sigue es un proceso para obtener un conjunto de m´todos multipasos. e Partimos de la relaci´n o xi+1 xi+1 y(xi+1 ) − y(xi ) = y (x)dx = xi xi f (x.

y1 . y(xi )) − f (xi−1 . y0 ) = 1. que es un m´todo de Runge-Kutta o e de orden 2: y1 = y0 + hf x0 + h h . yi−1 ) 2 2 (6.9) tomamos los puntos o θ0 = 0 θ1 = −1 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. Usamos el m´todo e e de Euler modificado (ver ecuaci´n (6. 2 2 1 3 f (xi .11) necesitamos dos puntos iniciales y0 . y0 + f (x0 . yi ) − f (xi−1 . Es habitual calcular los puntos necesarios para empezar mediante un m´todo de un paso del mismo orden. y(xi−1 ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 Para aplicar la f´rmula (6. yi−1 . obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A1 = − 2 1 3 y la soluci´n del sistema anterior es A0 = 2 y A1 = − 2 .7)). Sustituyendo en o (6. y solo o disponemos del valor y0 = 2.10) nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 3 f (xi .Ecuaciones diferenciales Ejemplo: Deduzcamos el m´todo de orden 2 e 127 yi+1 = yi + h 1 3 f (xi . 2 2 .11) Si en la f´rmula de cuadratura (6.98474. yi ) − f (xi−1 .

yi−3 ) h 1901f (xi .11) 3 1 f (x1 . y1 = 1. de orden 2: yi+1 = yi + h 2. y0 = 1. ı 1 3 f (x2 . 2 2 6. de orden 5: yi+1 = yi + Todas ellas se pueden obtener siguiendo el proceso descrito en la p´gina a 126. y) valorada en o o los puntos . a diferencia o de los m´todos impl´ e ıcitos que veremos en es siguiente apartado.128 Cap´ ıtulo 6 Ya disponemos de y0 e y1 y podemos calcular y2 aplicando (6. yn−4 ) 3 2 f (xi . yi−2 ) − 9f (xi−3 . Estos son algunos ejemplos de f´rmulas de Adams-Bashforth: o 1. yi−1 ) + · · · + Ak−1 f (xi−k+1 . Dado que en dicho proceso se utiliza el cambio de variable x = xi + θ h.95627. Estos m´todos o e se encuadran dentro de los m´todos multipaso expl´ e ıcitos. y1 ) − f (x0 . yi ) − 2774f (xi−1 . yi−k+1 ) es una f´rmula de Adams-Bashforth de k pasos y orden k. y2 ) − f (x1 . de orden 4: yi+1 = yi + h 55f (xi .1 F´rmulas de Adams-Bashforth o Un m´todo multipaso de la forma e yi+1 = yi + A0 f (xi . yi−1 )+ 24 + 37f (xi−2 . yi ) − 1 f (xi−1 .4. 2 2 Con y1 e y2 podemos calcular y3 y2 = y 1 + h y3 = y 2 + h Y as´ sucesivamente. debido a que la definici´n de yi+1 es expl´ o ıcita en funci´n de los valores anteriores. yi−2 ) − 1274f (xi−3 .97018.10) deseo que aparezca la funci´n f (x. yi−1 )+ 720 + 2616f (xi−2 . yi−1 ) 2 3. si en la f´rmula final (6. yi ) + A1 f (xi−1 . yi ) − 59f (xi−1 . yi−3 ) + 251f (xn−4 .

9).....Ecuaciones diferenciales xi . θk−1 = −k + 1 129 al construir la f´rmula de cuadratura (6. 6. ¿C´mo o calcular yi+1 mediante la f´rmula (6. θk = −k + 1 al construir la f´rmula de cuadratura (6. tendr´ que elegir los valores e θ = 1. xi−1 . .. xi−k+1 . Estos m´todos o e se encuadran dentro de los m´todos multipaso impl´ e ıcitos..2 F´rmulas de Adams-Moulton o Un m´todo multipaso de la forma e yi+1 = yi + Bf (xi+1 . que podr´n obtenerse mediante un m´todo a e de un paso del mismo orden. θ1 = −1. que podr´n obtenerse mediante un m´todo de a e un paso del mismo orden.. θ1 = −1. yi ) + A1 f (xi−1 . si en la f´rmula final o (6. θ0 = 0. . o Para aplicar una f´rmula de Adams-Moulton de k pasos necesitaremos los o valores iniciales y0 .12) es una f´rmula de Adams-Moulton de k pasos y orden k + 1. .. . y1 . yk−1 . yi−1 . xi . y) valorada en los puntos o xi+1 . Dado que en dicho a proceso se utiliza el cambio de variable x = xi + θ h. Al igual que las f´rmulas de Adams-Bashforth.. Supongamos que disponemos de los valores yi .4.. yi−k+1 ) (6. xi−k+1 .. .10) deseo que aparezca la funci´n f (x.. yi−k+1 . yk−1 ... o Para aplicar una f´rmula de Adams-Bashforth de k pasos necesitaremos o los valores iniciales y0 . · · · + Ak−1 f (xi−k+1 .. .... . debido a que en la f´rmula aparece el valor yi+1 definido de forma impl´ o ıcita.. tendr´ que elegir los valores e θ0 = 0. . .12)? Se puede hacer de dos formas: o . xi−1 . yi−1 ) + .. yi+1 ) + A0 f (xi ..9). las f´rmulas de Adams-Moulton se pueden o o obtener siguiendo el proceso descrito en la p´gina 126. y1 .

Ejemplo: Deduzcamos la f´rmula de Adams-Moulton de orden dos o yi+1 = yi + h 1 1 f (xi+1 . yi−k+1 ). . . yi+1 ) + f (xi . Si en la f´rmula de a o cuadratura (6. · · · + Ak−1 f (xi−k+1 . Se estima un primer valor predictor y i+1 e mediante una f´rmula de Adams-Bashforth del mismo orden y despu´s se o e calcula el valor corrector yi+1 aplicando ∗ yi+1 = yi + Bf (xi+1 . M´todo iterativo de punto fijo. En consecuencia.130 Cap´ ıtulo 6 ∗ 1. 2.9) tomamos los puntos θ0 = 1 θ1 = 0 y le imponemos la condici´n de que sea exacta para los polinomios de grado o menor o igual que 1. yi ) + A1 f (xi−1 . yi−k+1 ).13) Aplicaremos el proceso descrito en la p´gina 126. es suficiente dos o tres a iteraciones para conseguir un valor aceptable de yi+1 . yi ) 2 2 (6. t) + A0 f (xi . yi ) + A1 f (xi−1 . En este sentido. En la f´rmula (6. .12) todos los t´rminos e o e de la parte derecha de la igualdad son datos excepto yi+1 . yi−1 ) + . tn = Φ(tn−1 ) n≥1 ∗ siendo yi+1 un valor inicial que se recomienda obtener mediante la f´rmula o de Adams-Bashforth del mismo orden. M´todo predictor-corrector. . · · · + Ak−1 f (xi−k+1 . En la pr´ctica. yi+1 ) + A0 f (xi . yi−1 ) + . yi+1 es un punto fijo de la funci´n o Φ(t) = yi + Bf (xi+1 . obtendremos que los coeficientes A0 y A1 deben verificar las ecuaciones 1 A0 + A 1 = 1 A0 = 2 . yi+1 lo podemos obtener como l´ ımite de la sucesi´n o ∗ t0 = yi+1 .

calculamos el valor corrector con Adams-Moulton y1 = y 0 + h 1 1 ∗ f (x1 . M´todo predictor. Sustituyendo en (6. e e ∗ 1.11)) o ∗ y2 = y 1 + h 3 1 f (x1 . Si es posible.10) 1 1 f (xi+1 . en o este caso la f´rmula (6. yi+1 ) + f (xi .98473. Sin embargo.97017 2 2 . Calculamos y1 mediante otro m´todo. con lo que en este primer ∗ paso no podemos hacer uso de ella.98474 2 2 Con este valor. y0 = 1. por Runge-Kutta de orden 2 (ver 6. y1 ) + f (x0 . y0 + hf (x0 . y0 ) + f (x1 . Calculamos un valor predictor y1 .6): ∗ y1 = y 0 + h 1 1 f (x0 . y(xi ) 2 2 Ejercicio: Aplica el m´todo anterior al c´lculo de la soluci´n de e a o y = yx − x2 x2 y(1) = 2 El m´todo a aplicar es de orden 2 y 1 paso. y0 ) = 1. por e ejemplo. Para estimar el resto de valores podemos optar por el m´todo predictor-corrector o por el m´todo iterativo de punto fijo. 2 2 1 2 131 1 y A1 = 2 . e debe calcularse con una f´rmula de Adams-Bashforth del mismo orden.11) necesitamos los dos puntos iniciales y0 e y1 . para aplicar o (6.Ecuaciones diferenciales y la soluci´n del sistema anterior es A0 = o nos queda y(xi+1 ) − y(xi ) ≈ h lo cual sugiere el m´todo e yi+1 = yi + h 1 1 f (xi+1 .11) que es de orden dos. 2 2 ∗ Para calcular y2 . y1 ) − f (x0 . yi . y0 )) = 1. por lo que solo necesitamos el e valor y0 para empezar. primero calculo el valor predictor y2 con Adams-Bashforth de orden 2 (f´rmula (6. y(xi+1 )) + f (xi .

Es. y2 ) − f (x1 . 2.95622. Calculamos y1 ∗ (y1 = 1. y2 ) + f (x1 .95624 2 2 y despu´s calculo el corrector con Adams-Moulton e y3 = y 2 + h 1 1 ∗ f (x3 . un punto fijo de la ecuaci´n o Φ1 (t) = t. M´todo iterativo de punto fijo. 2 2 El proceso anterior se repite para calcular el resto de valores. por tanto.98473. y1 = 1. y2 es un punto fijo de Φ2 (t) = y1 + h 1 1 f (x2 . por Adams-Bashforth del mismo orden. En este caso no es posible aplicar Adams-Bashforth puesto que se necesitar´ dos puntos ıa ∗ mediante Runge-Kutta de orden 2 iniciales que no tenemos. ∗ Para localizarlo generamos una sucesi´n iterativa comenzando por un valor y 1 o obtenido. 2 2 Cap´ ıtulo 6 ∗ En el siguiente paso calculo el predictor y3 con Adams-Bashforth ∗ y3 = y 2 + h 3 1 f (x2 .98473 t2 = Φ1 (1.98474) y generamos la sucesi´n iterativa: o ∗ t0 = y1 = 1.98473 1 1 f (x1 . si es posible.97015. y2 = 1.98473) = 1.98474 t1 = Φ1 (1. Dada la funci´n e o Φ1 (t) = y0 + h el valor y1 que buscamos verifica Φ1 (y1 ) = y1 .132 y despu´s calculo el corrector con Adams-Moulton e y2 = y 1 + h 1 1 ∗ f (x2 .98474) = 1. t) + f (x0 . y1 ) = 1. y3 ) + f (x2 . y0 ) 2 2 De forma que tomamos y1 = 1. y1 ) 2 2 . t) + f (x1 .

que a su vez es obtenido por Adams-Bashforth de orden 2 ∗ t0 = y2 = 1. yi−1 ) + f (xi−2 . Y repetimos el proceso para el resto de valores.97017 t1 = Φ2 (1. yi−2 ) y(1) = 2 Ejercicio: Usa la identidad xi+2 y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del sio o guiente m´todo multipaso e yi+2 = yi + h f (xi .97015 Tomamos y2 = 1. yi ) + 4f (xi+1 . yi )− 24 − 5f (xi−1 .97015) = 1. yi+1 ) + f (xi+2 . yi+2 ) .97015 t2 = Φ2 (1.97015.97017) = 1.Ecuaciones diferenciales 133 que localizamos mediante la sucesi´n iterativa similar a la anterior que coo ∗ mienza en y2 = 1.97017. yi−2 ) − 9f (xi−3 . Repite el apartado anterior para la f´rmula de Adams-Moulton de orden o 4: yi+1 = yi + h 9f (xi+1 . Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi . yi−1 )+ 24 + 37f (xi−2 . Ejercicio: 1. yi ) − 59f (xi−1 . 3 . y(i + 1)) + 19f (xi . yi−3 ) yx − x2 x2 y usala para resolver la ecuaci´n ´ o y = con h = 1/128 2.

.

Dada la ecuaci´n o √ xsen(x) − x3 + 2 = 0 encuentra una aproximaci´n de una ra´ o ız (a) Con el m´todo de la bisecci´n con un error menor que 1/30. para cualquier valor inicial x0 de dicho intervalo. 3. para obtener una aproximaci´n de la ra´ con o ız un error inferior a una mil´sima? e 135 . ız o a a partir de x0 = π/2. a una ra´ positiva de la ecuaci´n anterior. Determina un intervalo y una funci´n para aplicar el m´todo del punto o e fijo a las siguientes ecuaciones: (a) x3 − x − 1 = 0 (b) 4 − x − tg(x) = 0 Realiza 4 iteraciones del m´todo y determina en cada caso una cota del e el error cometido. e o (b) Con 4 iteraciones del m´todo de Newton-Raphson. Se considera la ecuaci´n x2 − 1 − sen(x) = 0. al menos. una ra´ positiva. ¿Cu´ntos pasos deben darse.Problemas Ecuaciones no lineales 1. o ız (b) Encuentra un intervalo en el cual la iteraci´n o xn = 1 + sen(xn−1 ) x∈N converja. o (a) Prueba que dicha ecuaci´n tiene. e 2.

(b) x = −L(x). 7. 8. o 9.2 = 0. Se considera la funci´n o F (x) = e−x − sen(x) − 2. Calcula una aproximaci´n a la soluci´n con un error inferior a 10−5 . Dada la ecuaci´n x = arctg(x + 1). o (b) Encuentra.5. (a) Demuestra que F (x) < 0 si x ≥ 0. Aplica el m´todo de Newton-Raphson para ´ ız e encontrar una aproximaci´n a la ra´ Realiza iteraciones hasta que se o ız. Determina un intervalo y una funci´n para poder aplicar el m´todo del o e punto fijo a las siguientes ecuaciones: (a) x − L(1 + x) − 0. o (a) Localiza un intervalo que contenga una soluci´n de f (x) = 0. Enuno cia el resultado te´rico que utilices. aplica el m´todo de la bisecci´n para o e o encontrar una soluci´n con un error menor que 1/10. o o 6. una aproximaci´n de un valor donde se anule la derivada de o f (x) y una cota del error cometido. aplicando el m´todo del punto fijo con cuatro iteracioe nes. Calcula tres iteraciones del m´todo de la secante para encontrar una ra´ e ız o de la ecuaci´n cos(x) − x = 0 en el intervalo [0. o ´ ız (c) Determina un intervalo donde se pueda aplicar el m´todo de Newtone Raphson para aproximar dicha ra´ as´ como los 4 primeros t´rminos ız. Dada la funci´n f (x) = ex − 3x2 . Demuestra que la ecuaci´n o ex L(x) + x3 − 2 = 0 Problemas tiene una unica ra´ positiva. ı e de la sucesi´n definida mediante dicho m´todo. 5.136 4. π/4] . Calcula una cota o e del error cometido. (b) Prueba que la ecuaci´n F (x) = 0 tiene una unica ra´ negativa. repitan las primeros cuatro decimales.

(b) Utiliza el m´todo de Newton-Raphson para encontrar una aproxie maci´n de la ra´ real de P (x) de menor valor absoluto. π/4].5 e 15. o 13. utiliza su sucesi´n o ıces en intervalos disjuntos.5. 11. 1]. 3]. Encuentra de Sturm para separar sus ra´ aproximaciones de las ra´ ıces con un error menor que 10−3 . (b) Para k = 3. prueba que posee una unica ra´ simple en el intervalo ´ ız [0. Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = cos(x) − x. o 137 (a) Determina el valor de k para que la ecuaci´n tenga una unica ra´ o ´ ız triple en el intervalo [0. o (a) Calcula el n´mero de pasos necesarios para encontrar una ra´ de u ız −2 con el m´todo de la bisecci´n f (x) con un error menor que 10 e o e u en el intervalo [0. o (a) Demuestra que tiene una unica soluci´n en el intervalo [−2. Aplica el m´todo con el n´mero de pasos calculado.Problemas 10. y utiliza el m´todo de Newton para encontrar una e aproximaci´n con error menor que 10−6 o (b) Utiliza la sucesi´n de Sturm para separar las distintas ra´ o ıces del polinomio. Dado el polinomio P (x) = 8x3 − 20x2 − 2x + 5.5. 14. Dado el polinomio P (x) = x4 − 4x3 + 7x2 − 5x − 2 (a) Utiliza la sucesi´n de Sturm para separar las ra´ o ıces del polinomio. 1] y calc´lala con el m´todo de Newton con un error menor que u e 10−3 . Dado la ecuaci´n x4 − 7x3 + 18x2 − 20x + 8 = 0: (a) Demuestra con el teorema de Bolzano que tiene una soluci´n en el o intervalo [1. Dada la ecuaci´n 2cos(2x) + 4x − k = 0. Cuesti´n de examen de febrero de 2004: o Dada la ecuaci´n x2 − e2x = −1/2. 0]. o ız 12. ´ o (b) Encuentra una aproximaci´n a la soluci´n mediante tres iteraciones o o del m´todo del punto fijo partiendo del punto x0 = −1. .

ız 16.5. (a) Utiliza el m´todo de Sturm para separar las ra´ e ıces en intervalos disjuntos. π/4]. . Cuesti´n de examen de septiembre de 2004: o Dado el polinomio P (x) = −x3 + x2 − 2x + 5. (b) Empezando con x = 6 aplica un paso del m´todo de Newton hae ciendo uso del algoritmo de Horner.138 Problemas (b) Aplica tres iteraciones del m´todo de la secante para encontrar una e ra´ de f (x) en el intervalo [0.

si es necesario. 19. Para el conjunto de ecuaciones. 18.Problemas 139 Sistemas de ecuaciones lineales 17. c) Sustituye los resultados en las ecuaciones y. d) Calcula el n´mero de condici´n de la matriz del sistema u o con la norma infinito. b) Sustituye a11 por 0. Dado el sistema de ecuaciones = −9. b) Utiliza la inversa para obtener las soluciones del sistema. b) Encuentra las matrices P . o . L y U tal que P A = LU como en el ejercicio anterior. b) Encuentra las matrices triangular inferior L. c) Comprueba los resultados.5x1 − x2 0. e e c) Interpreta los resultados anteriores en t´rminos del condicionamiento e del sistema.5 0. siendo A la matriz de los coeficientes.5x2 = −4. 7x1 − 3x2 + 8x3 = −49 x1 − 2x2 − 5x3 = 5 4x1 − 6x2 + 10x3 = −84 a) Calcula la inversa de la matriz de los coeficientes haciendo uso de las operaciones fundamentales. c) Calcula el n´mero de condici´n de la matriz u o con las distintas normas que conozcas. y si no son exactos. o 20.72 a) Resu´lvelo por Gauss. triangular superior U y de permutaciones P tal que P A = LU . emplea el refinamiento iterativo para mejorar la soluci´n.55 y resu´lvelo de nuevo.28x1 − 0. utiliza el m´todo del refinamiento iterativo para mejorar e la soluci´n. a) Resuelve los siguientes sistemas de ecuaciones mediante eliminaci´n o gaussiana con pivoteo parcial empleando d´ ıgitos con dos decimales. Dado el sistema −12x1 + x2 − 7x3 = −80 x1 − 6x2 + 4x3 = 13 −2x1 − x2 + 10x3 = 92 a) Resu´lvelo por eliminaci´n gaussiana simple usando d´ e o ıgitos con dos cifras decimales.

22. a 23.140 4x1 + 5x2 − 6x3 = 28 2x1 − 7x3 = 29 1). ¿Es la matriz de los coeficientes o definida positiva? . Resuelve el sistema siguiente mediante descomposici´n LU : o −4x1 + 2x2 x1 − 4x2 x2 − 4x3 + x4 x3 − 4x4 + x5 2x4 − 4x5 24. −5x1 − 8x2 = −64 21. Resuelve el sistema  = 0 = −4 = −11 = 5 = 6     −4 x1 4 −1 −1 0  x 2   0  −1 4 0 −1      = −1 0 4 −1 x3   4  −4 x4 0 −1 −1 4 mediante la descomposici´n de Cholesky. 2x1 − 6x2 + x3 = 44 4x1 + 8x3 = 4 e o resu´lvelo mediante descomposici´n LU de Gauss: a) sin escalamiento y b) con escalamiento previo de filas. o Utiliza 3 decimales en los c´lculos. Dados      14 −7 4 −3 0 2 2  b = −2 b =  9  3 A= −8 6 6 1 −6  resuelve Ax = b y Ax = b mediante una descomposici´n LU de Gauss. Dado el sistema     105 3 2 100 x1 −1 3 100 x2  = 102 2 x3 1 2 −1  Problemas 3x2 − 13x3 = −50 2).

u n 27. ¿Es convergente el m´todo? e 28. realiza e dos iteraciones para cada m´todo tomando como valor inicial (0. Primero. Cuesti´n de examen de septiembre de 2004: o Resuelve el siguiente sistema dos veces. Repite el ejercicio anterior para el sistema x1 − 2x2 = −1 3x1 + x2 = 4 Intenta resolver el sistema con los m´todos de Jacobi y Gauss-Seidel e haciendo alg´n peque˜o cambio en las ecuaciones. Dado el sistema 141  comprueba si se cumple alguna de las condiciones suficientes para que funcionen los m´todos de Jacobi y Gauss-Seidel. o o e utilizando la eliminaci´n gaussiana con pivoteo y encontrando la factoo rizaci´n P A = LU. 0). Cuesti´n de examen de junio de 2004: o Resuelve por el m´todo de Cholesky el sistema de ecuaciones: e x1 + 2x2 + 3x3 = 7 2x1 + 5x2 + 4x3 = 9 3x1 + 4x2 + 14x3 = 33 29. Despu´s. e 26. Si se cumplen. o −x1 + x2 − 4x3 = 0 = 1 2x1 + 2x2 1 3x1 + 3x2 + 2x3 = 2 . 0. 0). utilizando la eliminaci´n gaussiana simple y encontrando la factorizaci´n A = LU . 0. Cuesti´n de examen de febrero de 2004: o e o Aplica el m´todo de Jacobi a la resoluci´n del sistema: 7x − y + 4z = 8 3x − 8y + 2z = −4 4x + y − 6z = 3     2 0 −1 x1 1 −2 −10 0  x2  = −12 −1 −1 4 2 x3 empleando 3 iteraciones y partiendo del punto (0.Problemas 25.

(0. (b) Repite el apartado anterior con los nodos de Chebyshev en el intervalo [0. 34. (d) Encuentra un polinomio que interpole a f (x) y a sus derivadas en los puntos dados. 0). 1).5 y 1 son −π. 52. −1). Encuentra una funci´n que se aproxime a la que representa el proceso. 4. (−0. 104 megabites y se recib´ o ıa a una velocidad de 0.5. 2 medidos en segundos.. (b) Encuentra una funci´n formada por trozos de recta que pase por o esos puntos. (c) Encuentra una funci´n lineal a trozos que se aproxime a f (x) en o los puntos dados. Interpolaci´n o o 30. −0. 0). 0 y −π.142 Problemas Aproximaci´n de funciones. 0. 0). 2. 2]. De la funci´n f (x. (a) Encuentra un polinomio que pase por esos puntos. 31. π. 54 megabites por segundo. o 33.5. t) que representa una onda que se desplaza sobre el o plano se conocen cinco posiciones en un determinado instante: (−1.? 32. 2. 1. (c) Sabiendo que las derivadas de f (x) en el mismo instante en los puntos −1. ¿Cu´l es el polinomio interpolador de f (x) = x3 − 2x − 5 en los puntos a −0. (0. 0. (d) Calcula el spline natural para ese conjunto de datos. respectivamente. obteni´ndose o e lo siguientes datos: . 51. 1. (1. o (a) Encuentra su polinomio de interpolaci´n en los puntos y estima el o error cometido.5. (e) Calcula el spline natural en los puntos dados. La funci´n f (x) = L(x) se ha evaluado en varios puntos. 1. calcula un polinomio que cumpla todas las condiciones. Dada la funci´n f (x) = ex y los puntos 0. 0. la cantidad de informaci´n recibida era 0. Se ha estudiado el proceso de recepci´n de informaci´n de un ordenador o o y se ha observado que en los instantes 0.

4 y 9. Cuesti´n de examen de junio de 2004: o Dada la funci´n f (x) = ex . Tn+1 (x) = 2xTn (x) − Tn−1 (x). e (c) Aplica el m´todo de Hermite en los puntos iniciales y en sus derivadas. f (x3 ) = 1. 1] x ∈ [1. 3] es el spline c´bico natural que interpola a los puntos de la tabla: u .7918 143 (a) Util´ ıcense los datos anteriores para calcular el polinomio de interpolaci´n y el spline natural.5 mediante dicho polinomio. Realiza los c´lculos con 4 decimales. determina los cuatro nodos de Chebyshev en o [0. 2] x ∈ [2. Calculando los valores de la funci´n f (x) = o √ x en 1.9]. Est´ o ımese el valor de L(2). h´ganse de a nuevo los c´lculos y estimaciones.3863 f (x2 ) = 1. a Polinomios de Chebysev: T0 (x) = 1. (d) Calcula el spline natural.6094. 36. 1]. (a) Halla el polinomio interpolador de grado menor o igual que 2 por el m´todo de Newton que pase por esos puntos. a 35. T1 (x) = x. 37. e (b) Halla el polinomio interpolador en los nodos de Chebyshev en [1.Problemas x0 = 1 x1 = 4 x2 = 6 f (x0 ) = 0 f (x1 ) = 1. Cuesti´n de examen de septiembre de 2004: o Determina si la funci´n o  1 + x − x3  1 − 2(x − 1) − 3(x − 1)2 + 4(x − 1)3 f (x) =  4(x − 2) + 9(x − 2)2 − 3(x − 2)3 x y 0 1 1 1 2 0 3 10 si si si x ∈ [0. (b) Agregando un cuarto punto x3 = 5. el polinomio interpolador en dichos nodos y un valor aproximado de e0.

75 1 5 1.9021 (a) Utilizando la f´rmula m´s adecuada de entre las siguientes: o a f (x) = f (x+h)−f (x) f (x) = f (x+h)−f (x−h) f (x) = f (x+h)−2f (x)+f (x−h) . h 2h h2 calcula valores aproximados de la primera y segunda derivadas de los puntos.5 6 2 5.25 Calcula un valor aproximado de (a) Trapecios. De una funci´n f (x) se tienen los siguientes datos: o x f (x) 0.0 0.144 Problemas Diferenciaci´n e integraci´n num´rica o o e 38. o o (d) Sabiendo que f (−0.4 1.5 cos( x)dx con un error menor que 1 10−2 2 (a) con el m´todo de los trapecios compuesto. o (c) Encuentra una aproximaci´n de f (0.2).5 6 3 7. 3 0 f (x)dx utilizando los siguientes m´todos: e 40. (f) Romberg.00000 0. aplica la interpolaci´n de Rio chardson para calcular una aproximaci´n de f (0.3718 0.74140 0.0 2. Determina el n´mero de subintervalos que deben tomarse para aproximar u √ 1 el valor de la integral 0. o 39.25 0.2) haciendo uso de la interpoo laci´n de la funci´n en los cuatro puntos.6 1. (e) Simpson compuesto.2 0. De la funci´n f (x) = ex − 2x2 + 3x − 1 se obtienen los siguientes datos: o x f (x) 0.2) = −0. (b) Calcula los errores reales y las cotas de error por medio de las f´rmulas de error para las estimaciones anteriores.861267. (d) Trapecios compuestos.5 3.5 2. (c) Simpson 3/8. e . (b) Simpson 1/3.

Aplica alg´n m´todo de integraci´n num´rica para resolver las siguientes u e o e integrales: (a) 1 sen(x) x dx 0 (b) 1 cos(x)−ex −1 sen(x) dx (c) ∞ x −1 1 (xe ) dx. ¿Cu´l es el grado m´ximo? a a 47. Repite el ejercicio anterior para (a) 42. B y C que hagan que la f´rmula o 2 0 xf (x) ≈ Af (0) + Bf (1) + Cf (2) sea exacta para todos los polinomios de grado tan alto como sea posible.791197).1% de la respuesta verdadera (3. (d) con el m´todo de cuadratura adaptativa con nivel de tolerancia e −3 .Problemas (b) con el m´todo de Simpson compuesto. 10 43. 1 e 1 2 0 sen(x )dx mediante cuadratura gaussiana de 1 (b) Plantea c´mo resolver el problema de calcular la 0 sen(x2 )dx meo diante cuadratura gaussiana de tres t´rminos. Calcula 2 1 Ln(x)dx 145 (b) 3 ex 2 x dx 1 2 0 sen(x )dx: (a) con un error menor que 10−2 con el m´todo de los trapecios come puestos e (b) con un error menor que 10−2 con el m´todo de Simpson compuesto. Eval´a la integral de x3 sen(x) entre x = 0 y x = 2 usando un valor de u tolerancia inferior a 0. . Determina los valores de A. (c) con el algoritmo de Romberg hasta R(4. e 2 1/x dx. Repite el ejercicio anterior con 44. 2 45. 4). e 41. Calcula la integral e sabiendo que los nodos (ti ) en este caso son las ra´ del polinomio ıces 5x3 −3x . 46. (a) Calcula la integral dos t´rminos.

L1 (x) = x. A2 y A3 para que la f´rmula o 3 f (x)dx = A0 f (−1) + A1 f (0) + A2 f (1) + A3 f (2) −1 sea exacta para los polinomios de grado menor o igual que 3 y calcula 3 o un valor aproximado de −1 (x3 + x)dx haciendo uso de dicha f´rmula. 49. Ln+1 (x) = (2n+1)xLn (x)−nLn−1 (x) n+1 ∀ n ≥ 1.146 Problemas 48. 50. Cuesti´n de examen de junio de 2004: o Encuentra los coeficientes A0 . Cuesti´n de examen de septiembre de 2004: o Encuentra los coeficientes A1 y A2 para que la f´rmula o 2π f (x)dx = A1 f (0) + A2 f (π) 0 sea exacta para cualquier funci´n que tenga la forma a + b cos(x). o . o Calcula 2π 0 2 + 3 cos(x)dx haciendo uso de dicha f´rmula. Cuesti´n de examen de febrero de 2004: o 3 e Dada la funci´n f (x) = L(x) calcula 2 L(x)dx empleando el m´todo de o cuadratura de Gauss con tres t´rminos y sabiendo que los polinomios de e Legendre se calculan as´ ı: L0 (x) = 1. A1 .

y(0) = 0. o mediante el m´todo de Taylor de grado 2 con 5 pasos.2). Cuesti´n de examen de febrero de 2005: o Resuelve la ecuaci´n y = y 2 − t2 + 1. Usa la identidad y(xi+2 ) − y(xi ) = y (x)dx xi y la f´rmula de cuadratura de Simpson 1/3 para obtener la f´rmula del o o siguiente m´todo multipaso e yi+2 = yi + h f (xi . yi−3 ) yx − x2 x2 y(0) = 1 y usala para resolver la ecuaci´n ´ o y = y(1) = 2 con h = 1/128 (b) Repite el apartado anterior para la f´rmula de Adams-Moulton de o orden 4: yi+1 = yi + h 9f (xi+1 . e 53.Problemas 147 Resoluci´n num´rica de ecuaciones diferenciales o e ordinarias 51. sabiendo que y + 2y = x2 + 2x 52. calcula valores e aproximados de y(0. Cuesti´n de examen de junio de 2004: o Aplicando el m´todo de Taylor de grado 2 con dos pasos. yi−2 ) − 9f (xi−3 . yi )− 24 − 5f (xi−1 . yi+2 ) .1) y y(0. yi+1 ) + f (xi+2 . yi−1 ) + f (xi−2 . yi−2 ) xi+2 54. yi−1 )+ 24 + 37f (xi−2 . (a) Deduce la f´rmula de Adams-Bashforth de orden 4: o yi+1 = yi + h 55f (xi . 3 . yi ) + 4f (xi+1 .5. y(i + 1)) + 19f (xi . yi ) − 59f (xi−1 . siendo 0 ≤ t ≤ 1.2.

yi + hf (xi . Aplica el m´todo cl´sico de Runge-Kutta para estimar 10 valores aproe a ximados de la soluci´n de la ecuaci´n siguiente en el intervalo [0. 1] o o y + 2y = x2 + 2x 56. yi )) 2 2 . A partir de la identidad xi+1 y(0) = 1 y(xi+1 ) − y(xi ) = y (x)dx xi e deduce el m´todo de Runge-Kutta de orden 2 yi+1 = yi + h 1 1 f (xi .148 Problemas 55. yi ) + f (xi+1 .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->