Está en la página 1de 72

Metodos Numericos III

Profesor Guillermo Gonzalez


Transcriptor:
Bartomeu Kane Binimelis
Primavera de 1708

Indice general
1. Introducci
on

2. Problemas de Condiciones Iniciales


2.1. Metodo de k pasos . . . . . . . . . . . . . . .
2.1.1. Ejemplos . . . . . . . . . . . . . . . .
2.2. Errores, Convergencia, Consistencia y Orden
2.3. Ecuaciones Lineales en Diferencias (EDLin) .
2.3.1. Introducci
on a las EDLin . . . . . . .
2.3.2. Algunos resultados sobre EDLin . . .
2.4. Estabilidad y Condiciones de Convergencia .
2.5. Teora de Estabilidad Lineal . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

7
7
7
8
13
13
14
18
20

3. M
etodos Lineales Multipaso
3.1. Metodos Lineales Multipaso y Teorema de Dahlquist .
3.1.1. Estabilidad Lineal . . . . . . . . . . . . . . . .
3.2. Metodos Implcitos y Predictor-Corrector . . . . . . .
3.3. Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . .
3.4. Estimacion del ELD para metodos de 1 paso . . . . .
3.5. Estimacion del ELD con metodos Predictor-Corrector
3.6. Estabilidad lineal para metodos P-C . . . . . . . . . .
3.7. Construcci
on de MLM por Interpolacion . . . . . . . .
3.7.1. Metodos Adams-Bashfort de k pasos . . . . . .
3.7.2. Metodos Adams-Moulton de k pasos . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

23
23
24
25
26
27
29
32
33
34
35

4. M
etodos Runge-Kutta
4.1. Formulaci
on del metodo . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Convergencia de metodos RK . . . . . . . . . . . . . . . . . . . . .
4.2.1. Error local de discretizacion . . . . . . . . . . . . . . . . . .
4.2.2. Metodos implcitos y semi-implcito . . . . . . . . . . . . .
4.2.3. Regi
on de estabilidad absoluta . . . . . . . . . . . . . . . .
4.3. Introducci
on al estudio del orden de los metodos RK . . . . . . . .
4.3.1. Orden de un RK explcito de 3 niveles para un PVI escalar
4.3.2. Algunos resultados generales . . . . . . . . . . . . . . . . .
4.4. Herramientas para el estudio del orden de los metodos RK . . . . .
4.4.1. Caso y = f (y) . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.2. La M -esima derivada de Frechet . . . . . . . . . . . . . . .
4.4.3. Derivadas de Frechet de primer y segundo orden . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

37
37
38
38
39
39
40
40
41
42
43
43
44

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

INDICE GENERAL

4.4.4. Diferenciales elementales . . . . . . . . . . . . . . . . . . . .

4.4.5. Arboles
con raz . . . . . . . . . . . . . . . . . . . . . . . .
4.4.6. Funciones definidas sobre arboles con raz . . . . . . . . . .
4.5. Orden de los metodos Runge-Kutta . . . . . . . . . . . . . . . . . .
4.5.1. Expresion de metodos RK . . . . . . . . . . . . . . . . . . .
4.5.2. Condicion suma-fila . . . . . . . . . . . . . . . . . . . . . .
4.5.3. Formulaci
on de las condiciones de orden de los metodos RK
4.6. Metodos RK imbricados . . . . . . . . . . . . . . . . . . . . . . . .
4.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

45
46
49
52
52
53
55
56
57

5. Introducci
on a los M
etodos para Sistemas Rgidos
5.0.1. Determinaci
on de metodos A-estables . . . . . . . . . . . . . . . . . . . .

65
65

6. Problemas de Condiciones de Frontera


6.1. Caso general: PCF . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1. Problemas de valores singulares (eigenvalue problems)
6.1.2. Problema de la frontera libre . . . . . . . . . . . . . . .
6.2. Metodo del tiro simple . . . . . . . . . . . . . . . . . . . . . . .
6.2.1. Limitaciones del metodo de tiro simple . . . . . . . . . .
6.3. Metodo del tiro m
ultiple o tiro paralelo . . . . . . . . . . . . .

67
67
67
68
68
69
70

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

Captulo 1

Introducci
on
En este captulo presentamos muy brevemente algunos de los temas que iremos desarrollando
a lo largo del curso. Introducimos tanto problemas como metodos para poder resolverlos.

El Problema de Valor Inicial

y = f (x, y)
y(a) =

nos lo encontramos frecuentemente. Dicho problema es resoluble analticamente en contadas


ocasiones. Es por tanto esperable que se hayan investigado diversas tecnicas numericas para
abordarlo. Nuestro objetivo ser
a obtener una soluci
on numerica aproximada en el intervalo
[a, b].
Procederemos a discretizar el problema en el intervalo que queremos la soluci
on:
xn = x0 + nh donde x0 = a
Aqu h se conoce como paso y n = 0, 1 . . . , N . De esta forma observamos que N = ba
h y xN = b.
Mediante la aplicaci
on de alg
un metodo pasaremos de (xn , yn ) a (xn+1 , yn+1 ). Habitualmente
supondremos yn y(xn ), donde y(xn ) es la soluci
on exacta del PVI en el punto xn . Una vez
realizadas todas las iteraciones habremos obtenido un conjunto {yn : n = 0, 1 . . . , N }, que es el
que nos da la informaci
on sobre la funcion soluci
on del PVI inicial.

Los metodos que estudiaremos se nos presentan en forma de formulas recurrentes. Estas
formulas pueden ser explcitas, cuando en ellas no aparece la imagen por alguna funcion de
un punto desconocido o, en caso contrario, implcitas, cuando se involucra la imagen por una
funcion de alg
un punto que todava tenemos que determinar.
Ejemplo 1.1. Supongamos que tenemos y = f (x, y). Para aproximar la siguiente imagen en
nuestro PVI podemos utilizar el denominado metodo de Euler en su variante explcita o implcita.
Explcito:

yn+1 yn
f (xn , yn )
h
yn+1 = yn + hfn ,

donde fn = f (xn , yn )
5


CAPITULO 1. INTRODUCCION

6
Implcito:

yn+1

yn+1 yn
f (xn+1 , yn+1 )
h
= yn + hfn+1 , donde fn+1 = f (xn+1 , yn+1 )

Es corriente que los metodos implcitos presenten una serie de ventajas frente a los explcitos
(si no fuera as no habra motivo aparente para utilizarlos, puesto que con uno explcito la
resolucion del problema es m
as simple):
Mayor orden de convergencia.

Unicos
u
tiles para resolver sistemas stiff .
Estudiaremos dos tipos de sistemas de EDOs. Son los conocidos como stiff y los no stiff.
Los primeros son menos habituales pero nos enfrentan a mayores dificultades a la hora de
resolverlos. En este curso solo los introduciremos, y profundizaremos m
as en el caso no stiff.

Dependiendo del n
umero de puntos anteriores necesarios al que estamos calculando hablaremos de metodos multipaso. En estos ser
a necesario contar con m
as de un punto (recordemos
que el inmediantamente anterior es (xn , yn )) para calcular el siguiente. En un metodo de k pasos
deberemos tener la informaci
on de k puntos anteriores al que vamos a aproximar ahora.
)
(xnj , ynj )
Metodo
(xn+1 , yn+1 )
j = 0, 1 . . . k 1
Ejemplo 1.2. Metodo de dos pasos.
yn+2 yn
f (xn+1 , yn+1 )
2h

yn+2 = yn + 2hfn+1

En este caso se requieren dos valores iniciales: (x0 , y0 ), (x1 , y1 ).

Estudiaremos tambien un tipo distinto de metodos: los que pertenecen a la familia de los
metodos Runge-Kutta. Estos se caracterizan por evaluar la funcion f (x, y) en puntos diferentes
a los xn , n = 0, . . . , N .
Ejemplo 1.3. Metodo Runge-Kutta (un paso)
yn+1 = yn +

h
[f (xn , yn ) + f (xn + h, yn + hf (xn , yn ))]
2

Ejemplo 1.4. Metodo de Heun de orden 2 (un paso)


k1 = f (xn , yn ) = fn

k2 = f (xn+1 , yn + hk1 )


k1 + k2

yn+1 = yn + h
2

Tambien se conoce como Runge-Kutta de dos niveles explcito.

Captulo 2

Problemas de Condiciones Iniciales


(

y = f (x, y)

en x [a, b]. Queremos obtener una soluci


on aproximada
y(a) =
de dicho problema mediante un metodo numerico.
Los metodos que consideraremos son los denominados de discretizaci
on o de variable discreta.
Como hemos descrito brevemente en la introducci
on, estos metodos se basan en aproximar la
funcion soluci
on en N puntos.
Consideremos el PVI

2.1.

M
etodo de k pasos

Supongamos que tenemos yn , yn+1 . . . yn+k1 . En este caso nos interesara conocer el valor
aproximado de yn+k . Para ello utilizaremos un algoritmo de la siguiente forma:
k
X

j yn+j = h f (yn+k . . . yn , xn ; h)

j=0

donde h es el paso y k el n
umero de pasos del metodo. Habitualmente supondremos que
yj y(xj ), siendo yj el valor aproximado de la soluci
on que hemos obtenido en la iteraci
on
anterior y y(xj ) el valor exacto de tal soluci
on. Asimismo, notemos que xj = x0 + jh, de forma
que x0 = a y xN = b.
Los valores j son los pesos especficos que cada metodo en particular asigna a los valores
anteriores para obtener yn+k . Ocurre lo mismo con la funci
on de iteraci
on : esta funci
on
vara seg
un el metodo, y como la notaci
on indica, depende de f y de los puntos anteriores que
conocemos.

2.1.1.

Ejemplos

Acabamos de introducir los metodos de discretizacion en general. Para comprender mejor


como funcionan veamos algunos ejemplos de los algoritmos m
as conocidos y utilizados.
M
etodo de Euler
Es el m
as simple de todos: consiste en tomar f = f (xn , yn ). Observamos que se trata
de un metodo de un solo paso, con las ventajas de complejidad para la implementacion que
7

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

ello representa, pero con los inconvenientes de bajo orden de convergencia que probablemente
conlleve.
M
etodo Runge-Kutta Cl
asico
Se trata de un algoritmo con orden de convergencia igual a 41 . Consiste en aproximar el
punto yn+1 por:
h
yn+1 = yn + (k1 + 2k2 + 2k3 + k4 )
6
con
h
h
k1 = f (xn , yn )
k3 = f (xn + , yn + k2 )
2
2
h
h
k2 = f (xn + , yn + k1 ) k4 = f (xn + h, yn + hk3 )
2
2
Notemos que aqu la funci
on de iteraci
on es lineal en ki .
M
etodo Lineal Multipaso
Como su nombre sugiere, la funci
on de iteraci
on es lineal en f (xn+j , yn+j ) = fn+j . Tomamos
k
P
f =
j fn+j . Aplicando la expresi
on general que hemos presentado al inicio del captulo
j=1

tenemos que:

k
X
j=1

k
X
j fn+j ]
j yn+j = h[
j=1

con j , j R, k = 1 y |0 | + |0 | =
6 0. Cabe destacar que dependiendo del valor de k nos
encontraremos frente a un metodo explcito (k = 0) o implcito (k 6= 0).
P
P
Definici
on 2.1. Consideremos un metodo dado por la expresi
on kj=1 j yn+j = h kj=1 j fn+j ,
con k = 1. Entonces, su polinomio caracterstico es:
(r) =

k
X

j r j

j=0

Esta definicion nos permite denotar unvocamente un metodo por la pareja {(r), f }.

2.2.

Errores, Convergencia, Consistencia y Orden

Para poder comprender c


omo funcionan los metodos numericos es conveniente analizar las
diversas formas de error que estos inducen. Esto motiva las definiciones siguientes.
Definici
on 2.2. Funci
on tau del metodo
1

(x, h) = h

k
X

j y(x + jh) f (y(x + kh) . . . y(x), x; h)

j=0

Si tomamos xn [a, b], xn+j = xn + jh entonces en xn nos queda:


(xn , h) = h1

k
X

j y(xn+j ) f (y(xn+k ) . . . y(xn ), xn ; h)

j=0

En breve definiremos el concepto de orden de convergencia.

2.2. ERRORES, CONVERGENCIA, CONSISTENCIA Y ORDEN

Definici
on 2.3. El error local de discretizaci
on (ELD) es el error que resulta de aplicar el metodo por primera vez, partiendo de la soluci
on exacta. Veamos que est
a ntimamente relacionado
con la funci
on tau:
ELDn+1 = y(xn+k ) yn+k = h (xn , h)
yn+k =

k1
X

j y(xn+j ) + hf (y(xn+k ) . . . y(xn ), xn ; h)

j=0

En este calculo hemos supuesto que los valores calculados para puntos anteriores son exactos,
como ya hemos indicado.
Definici
on 2.4. El error global de discretizaci
on (EGD) en xn+k para una soluci
on numerica
}
es
e
=
y(x
)

y
.
Notemos
que
se
diferencia
de
la ELD por
{yn : n = 0 . . . N = ba
n+k
n+k
n+k
h
estar la soluci
on calculada a partir de los valores anteriormente hallados por el metodo.
Definici
on 2.5. El error global de discretizaci
on (EGD) de la soluci
on num`erica {yn : n =
0 . . . N = ba
}
se
calcula
a
partir
de
m
a
x
ky(x
)

y
k.
n
n
h
0nN

Ejemplo 2.6. Analisis del metodo yn+1 = yn + hf (xn , yn ).


Consideremos el ELD asociado al metodo:
h (x, h) = y(xn + h) yn hf (xn , y(xn ))
Aplicando la aproximacion de Taylor de orden 2 sobre y(xn + h) y suponiendola C [a, b] nos
queda:
h2
y (xn ) + O(h3 )
2
= h (xn , h) = y(xn+1 ) y(xn ) hf (xn , y(xn ))
h (xn , h) =

y(xn+1 ) yn+1

Respecto al error global, que podemos decir de y(xn+1 ) yn+1 ?


h2
y (x0 ) + O(h3 )
2
e2 = y(x2 ) y2 = [y(x1 ) + hf (x1 , y(x1 )) + h (x1 , h)] [y1 + hf (x1 , y1 )] =
()

e1 = y(x1 ) y1 =

= [y(x1 ) y1 ] + h[f (x1 , y(x1 )) f (x1 , y1 ) + (x1 , h)] =


{z
}
|
| {z }
e1

donde hemos aplicado:


()
()

e1 fy (x1 ,y1 )+O(e1 )


h2
= e1 + y (x1 ) + O(h ) = 2
y (x0 ) + O(h3 )
2
2
h2

3 ()

y(x0 ) = y(a) =
aplicando Taylor entorno a x0

Para obtener
el ierror global en la enesima iteraci
on se aplica
h 2
h 2 inducci
i on: suponemos que en
h
h
3
en = n 2 y (x0 ) + O(h ) y se deduce que en+1 = (n + 1) 2 y (x0 ) + O(h3 ).
a
. Por tanto,
Recordemos que xn+1 = x0 + (n + 1)h n + 1 = xn+1
h


xn+1 a
y (x0 ) + O(h2 )
en+1 = h
2

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

10

Observamos que ken+1 k = O(h), comportamiento que tambien presenta la funcion tau (x, h) =
O(h). Por u
ltimo, destacar que existe la posibilidad de escribir los sucesivos errores globales como
ecuaciones lineales en diferencias, introduciendo la sucesion de funciones n para tal objetivo.
e2 e1 = 1 (x1 , h)

en+1 en = n
Hasta ahora, algunos de los conceptos m
as importantes que hemos considerado son:
Los problemas (o PVI), definidos por:
y = f (x, y(x))
y(a) =

donde f cumple la condici


on Lipschitz para la existencia y unicidad de soluciones.
Los metodos de la forma {(r), f }, donde k = 1 y yi = i (h) para i = 0 k 1 son los
valores iniciales.
k
X
j yn+j = hf (yn+k . . . yn , x; h)
j=1

El error global de discretizacion asociado al metodo: EGD = m


ax ky(xn ) yn k.
0nN

Definici
on 2.7. Un metodo es convergente si para todo problema se cumple que EGD 0
h0

Definici
on 2.8. (Alternativa) Un metodo es convergente si para todo problema y toda soluci
on
numerica {yn , n = 0 N, N = ba
}
tal
que
l
m

(h)
=
y(x
)
se
cumple
que
n
l
m
y
=
y(x
i
0
n
n)
h
h0

con x = a + nh fijado.

h0

La funci
on del metodo induce la definicion de otra funcion ntimamente relacionada con la
consistencia del metodo que estemos analizando:
(h) =

m
ax

x[a,bkh]

(x, h) =

m
ax

x[a,bkh]

k
X

j y(x + jh) f (y(x + kh) . . . y(x), x; h)

j=0

Definici
on 2.9. Un metodo es consistente con el sistema y = f (x, y(x)) cuando lm (h) = 0
h0

Definici
on 2.10. Un metodo es (al menos) de orden p (p Z) si para todo problema tal que
y C p [a, b] se cumple que (h) = O(hp ). Si, adem
as (h) 6= 0(hp+1 ) se dice que el metodo es de
orden p exactamente (es de orden p).
Teorema 1. Sea (x, h) continua h 0, x [a, b]. Si 0 cuando h 0 puntualmente
para x [a, b] entonces:
1. (x, h) converge a cero uniformemente cuando h 0

x [a, b]

2. El metodo es consistente: lm (h) = 0


h0

3. Si (x, h) =

O(hp )

con x [a, b] entonces (h) = O(hp ) (el metodo es de orden p)

2.2. ERRORES, CONVERGENCIA, CONSISTENCIA Y ORDEN

11

Demostraci
on: Buscar en la bibliografia.
Teorema 2. Consideremos un metodo lineal multipaso {(r), f } tal que f es continua x
[a, b] y h 0. Si se cumplen:
1.

k
P

j = (1) = 0

j=0

2. f (y(x), . . . , x; 0) = (1)f (x, y(x))

x [a, b]

entonces el metodo es consistente. Si adem


as y(x) no es la funci
on cero entonces (1) y (2) son
condiciones necesarias para la consistencia del metodo.
Demostraci
on. Veamos para empezar que si se cumplen (1) y (2) entonces el metodo es consistente. Consideremos y C [a, b]. Sea
()

y(x + jh) = y(x) + jh


y (j )
()

Por el TVM, y (j ) = [1 y (1j ) . . . m y (mj )]T ,

tj [x, x + jh], t = 1 mo

Aplicamos este resultado a la funci


on tau:

k
k
X
X
(x, h) = h1
j y(x) + h1
jj h
y (j ) f (y(x + kh), . . . y(x), x; h)
j=0

j=0

Ahora, notemos que el lmite cuando h 0 converge uniformemente (por el teorema anterior).
Por tanto,
k
X
(j j)y (x) f (y(x) . . . y(x), x; h)
lm (x, h) =
h0

j=1

Por la hip
otesis (2) deducimos

lm (x, h) = 0

h0

lm (h) = 0

h0

que quiere decir que el metodo es consistente.


Ahora supongamos que tenemos un metodo consistente. Demostremos que se cumplen:
(1) = 0
(1)f (x, y(x)) = f (y(x), . . . y(x), x; 0),

x [a, b]

Tenemos la hip
otesis de lm h (x, h) = 0. Por otro lado,
h0

h (x, h) =

k
X
j=0

j y(x + jh) hf (y(x) . . . y(x), x; h)


|
{z
}
()

Observamos que () tiende a cero cuando h 0, y aprovechando que se trata de una funci
on
continua podemos separar la suma en dos lmites y obtenemos

k
k
X
X
j y(x),
j y(x + jh) =
x [a, b]
0 = lm = lm
h0

h0

j=0

j=0

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

12

Por tanto, si y(x) 6= 0 x [a, b], se deduce el primero de los resultados buscados.
Por otro lado,
(x, h) =

k
X
(j j)
y (j ) f (y(x + kh) . . . y(x), x; h)
j=0

k
X

lm (x, h) =

h0

()

(j j) y (x) f (y(x) . . . y(x), x; 0)

j=0

y () se cumple por consistencia del metodo, con lo que queda probado (2).
Teorema 3. Para todo metodo {(r), f } con f continua la consistencia es condici
on necesaria
para la convergencia del metodo.
Demostraci
on. Veremos que la convergencia implica los dos puntos del teorema anterior, que
a su vez implican la consistencia:
1.
k
X

j yn+j = 0 = hf (yn+k , . . . yn , x; h)

j=0

Notemos que lm

k
P

h0 j=0

j yn+j =

caso, si y es no nula se deduce

lm

h0

k
X

j yn+j = 0

j=0

P
k
k
P


etodo. En este

j=0 j y(xn ), por la convergencia del m

j = (1) = 0.

j=0

2.
k
X

j yn+j

k
X

j yn = hf (yn+k , . . . yn , xn ; h)

j=0

j=0

k
X
j=1

jj


yn+j yn
= f (yn+k , . . . yn , xn ; h)
jh

Tomando ahora el lmite para h tendiendo a cero:


lm

h0
xn =a+nh

lm

h0
xn =a+nh

f = f (y(xn ), . . . y(xn ), xn ; 0)

y(xn + jh) y(xn )


yn+j yn
= lm
= y (xn ) = f (xn , yn )
jh
jh
() h0
()xn+j = xn + jh

y para x = xn [a, b] se deduce la condici


on (2) de consistencia.

2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN)

2.3.

13

Ecuaciones Lineales en Diferencias (EDLin)

2.3.1.

Introducci
on a las EDLin

Antes de entrar a enunciar (y demostrar en algunos casos) los resultados relacionados con
la Ecuaciones Lineales en Diferencias, primero las definiremos de forma rigurosa para mejorar
la comprensi
on del resto del captulo. Tambien introduciremos algunos teoremas importantes
sobre su resolucion.
Definici
on 2.11. Sea F : Rm 7 Rn y k N. Una Ecuaci
on en Diferencias es una relaci
on
definida por la ecuaci
on:
yn+k = F (n, yn , yn+1 , . . . , yn+k )

n = 0, 1, . . .

Notemos pues que una ED tiene como soluci


on una succesion yn d
onde los yn cumplen la
ecuaci
on y {y0 , . . . , yk1 } son valores iniciales conocidos a priori. Hay dos maneras de encontrar
yn :
Por una parte, usar F de forma succesiva e ir generando valores de la sucesion soluci
on.
Por otra, una forma m
as pr
actica es encontrar una formula cerrada del tipo yn+k =
G(n, y0 , . . . , yk1 ).
En nuestro caso el objetivo ser
a usar esta segunda va. Nos centraremos en un tipo especfico de
ecuaci
on que definimos a continuaci
on:
Definici
on 2.12. Una ecuaci
on en diferencias lineal con coeficientes constantes de orden k, que
denotaremos por EDLin, es aquella relaci
on de la forma:
k
X

j yn+j = n ,

n N,

k = 1

j=0

donnde j R constantes y yn , n tienen la misma dimension.


Definici
on 2.13. Decimos que (r) = r k + k1 r k1 + . . . + 0 es el polinomio caracterstico
de la EDLin.
Por u
ltimo, introduciremos un par de teoremas b
asicos sobre EDLin.
Teorema 4. Toda EDLin de orden k con coeficientes constantes es equivalente a una EDLin
vectorial de primer orden de la forma:
zn+1 = Bzn + dn , n = 0, 1, . . .
Siendo zn = (yn+k1 , . . . , yn )T y dn = (n , 0, . . . , 0)T .

k1 k2

1
0

B=
.
..

Adem
as, la matriz B cumple:

Por otra parte:

. . . 0
...
0

..

.
1
0

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

14

1. () = det(B I) es el polinomio caracterstico de la EDLin inicial.


2. Si es un valor propio de B de multiplicidad algebraica m, entonces la forma can
onica
de Jordan de B solo tiene un u
nico bloque de Jordan asociado a que tiene dimensi
on
m m.
Teorema 5. La soluci
on general de una EDLin es la suma de una soluci
on particular y de la
soluci
on general de la EDLin homogenea asociada al problema. Si 1 , . . . , s son las races de
(), el polinomio caracterstico de la EDLin, y k1 , . . . , ks son sus respectivas multiplicidades,
entonces la soluci
on homogenea es combinaci
on lineal de:
n1 , nn1 , . . . , nk1 1 n1 , . . . , ns , .., nks 1 ns

2.3.2.

Algunos resultados sobre EDLin

El motivo de nuestro interes en las ecuaciones lineales en diferencias es el siguiente: cuando


tenemos un metodo que aplicamos con un paso h y hacemos tender h a cero, las soluciones
numericas yn que obtenemos se comportan como las soluciones de una EDLin homogenea,
k
X

j yn+j = 0

j=0

j y(x + jh) = hf + h (x, h)

j=0

k
X

k
X

j yn+j

j=0

= hf (yn+k , . . . yn , xn ; h)

Si consideramos en+j = y(x + jh) yn+j


k
X

j en+j = n ;

x xn

n 0, j = 0 k entonces,

n = h [f (sol. exacta) f (sol. numerica) + )]

j=0

Algunos resultados sobre normas matriciales


Antes de entrar en el estudio de la estabilidad de las EDLin, introduciremos definiciones y
teoremas importantes para la comprension del resto del captulo. Son teoremas b
asicos sobre
normas matriciales que usaremos para analizar las condiciones de estabilidad de las EDLin
(convenientemente transformadas a un sistema matricial) y que despues extenderemos para
razonar la estabilidad de los metodos.
Definici
on 2.14. Decimos que una matriz A es de clase M VAP de A tal que
|| = (A) entonces los bloques de Jordan asociados a son de tama
no 1 1.
Teorema 6. Sea A una matriz. Existe una norma subordinada tal que ||A|| = (A) A es
de clase M.
Teorema 7. Sea A una matriz.
lm Ak = 0 (A) < 1

Adem
as, se cumple que Ak acotada cuando k (A) < 1
o A es de clase M y (A) = 1.

2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN)

15

Estabilidad de EDLin
Consideremos una ecuaci
on en diferencias de primer orden:
zn+1 = G(zn , n),

zn Rm ,

G : Rm Rm

Definici
on 2.15. Una soluci
on {yn }n0 de la ecuaci
on anterior diremos que es:
Estable si dado > 0 existe > 0 tal que para {
yn } cualquier otra soluci
on de la ecuaci
on
con ky0 y0 k < entonces se tiene que kyn yn k < , con n > 0.
Asint
oticamente estable, si adem
as de ser estable se cumple que kyn yn k 0.
n+

Teorema 8. (estabilidad de EDLin de orden 1) Consideremos el siguiente sistema de ecuaciones:


zn+1 = Bzn + d, zn , d Rm , B Mm C
(2.1)
Entonces una soluci
on {yn }n1 es:
Estable

(B) < 1 o (B) = 1 y B de clase M.

Asint
oticamente estable

(B) < 1.

Demostraci
on. Sea {
yn }n0 otra soluci
on de la EDLin (2.1).
yn yn = wn = Bwn1 = B 2 wn2 = . . . = B n w0
(a) Primera parte:
Usando la segunda parte del teorema 7 sabemos que R tal que kB n k < .
Notemos que depende de n.
k
yn yn k = kB n w0 k kB n k kw0 k
Si kw0 k = k
y0 y0 k < = entonces > 0, n > 0 puedo encontrar = tal que si
k
y0 y0 k < k
yn yn k <
Supongamos que kB n k es no acotada cuando n . Entonces x Rn tal que
kB n xk . Esto se demuetra tomando JB = P 1 BP 1 y distinguiendo entre dos
posibles casos para 1 .
1. Si |1 | > 1,

(B) > 1 tomamos x = P 1 e1

2. Si |1 | = 1 y (B) = 1 tomamos x = P 1 e2 .,
ei = P 1 x,

B n = P JBn P 1

B n x = P JBn ei

En ambos casos B n x no es acotado, y tenemos k


yn yn k = kwn k = kB n w0 k. Sea x =
1
wn , R. Observamos que k
yn yn k = | | kB n xk, y cuando n kB n xk no
est
a acotado.
Por tanto, k
yn yn k no est
a acotado aunque kw0 k = k
y0 y0 k s lo este. En este caso
{yn }n0 no es estable.
(b) Segunda parte:
lm B n = 0
lm k
yn yn k = 0, y por tanto la soluci
on es asintoticamente

n
n
estable.
Supongamos que (B) 1. Dado que x Rm tal que kB n xk no est
a acotado

n
entonces lm k
y yn k =
6 0 {yn }n0 no es asintoticamente estable.
n

16

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

Definici
on 2.16. Dada la ecuaci
on en diferencias de orden k:
yn+k + k1 yn+k1 + . . . + 1 yn1 + 0 yn = d

(2.2)

diremos que una soluci


on {yn }n0 es
Estable si dada otra soluci
on {
yn }n0 se cumpe que > 0 > 0 tal que si |
yi yi |
i = 0, 1, . . . , k 1 entonces |
yn yn | < para n k.
Asint
oticamente estable si adem
as de lo anterior se cumple que lm |
yn yn | = 0.
n

Teorema 9. Sea (2.3) la EDLin de primer orden equivalente obtenida de (2.2) por el metodo
presentado en el teorema (4).

yn+k1

zn+1 = Bzn + , zn = ...


(2.3)


Estables
Las soluciones de (2.2) son
Asint
oticamente Estables


Estables
Asint
oticamente Estables

yn

las soluciones de (2.3) son

Definici
on 2.17. Un polinomio p(x) cumple la condici
on de la raz si:
1. Todas sus races son de m
odulo 1.
2. Todas sus races de m
odulo 1 son simples.
Teorema 10. (estabilidad de EDLin de orden k) La EDLin de orden k de la forma (2.2) tiene
soluciones estables si y solo si el polinomio caracterstico de la EDLin cumple la condici
on de
la raz.
Demostraci
on. Dada una EDLin podemos encontrar el sistema zn+1 = Bzn + dn . El polinomio
caracterstico asociado a este sistema es:
k
X
j r j = det(B rI)
(r) =
j=0

Entonces si (B) 1 todos los VAPs de B son de m


odulo 1 todas las races de (r)
son de m
odulo 1.
Por otro lado, si B es de clase M resulta que tiene bloques de Jordan 1 1. Ademas, B ha sido
obtenida a partir de transformaciones del sistema, de forma que tendremos solo un VAP por
bloque de Jordan. De esta forma queda demostrado que los VAPs de m
odulo 1 solo tienen un
bloque 1 1 en la forma de Jordan de B, que son races simples de det(B rI), que es lo mismo
que decir que las races de m
odulo 1 de (r) son simples.
Comentario 2.18. Recordemos las dos maneras que tenemos de escribir una EDLin:
k
X

j yn+k = n ,

k = 1

j=0

zn+1 = Bzn + dn ,

yn+k1

zn = ... ,
yn

(2.4)

n
0

dn = .
..
0

(2.5)

2.3. ECUACIONES LINEALES EN DIFERENCIAS (EDLIN)

17

Teorema 11. Sea una EDLin de la forma (2.5) tal que zn+1 = Bzn tiene una soluci
on nula
estable. Entonces existe una norma vectorial tal que
kzn k |kz0 k +

n1
X

kdj k

j=0

Demostraci
on.
zn = Bzn1 + dn1 = B[Bzn2 + dn2 ] + dn+1 =
= B 2 zn2 + Bdn2 + dn1 =
Por induccion se puede establecer
n

zn = B z0 +

k
X

B nj1 dj

j=0

Dado que la soluci


on es estable entonces podemos aplicar los resultados ya estudiados:
1. (B) < 1

kBk (B) + < 1, si tomamos suficientemente peque


no.

2. (B) = 1 y B de clase M . Existe una norma matricial subordinada tal que kBk = (B) = 1.
Tambien existe una norma vectorial k k cuya norma matricial subordinada satisface
kBk 1.

Por las propiedades de la norma matricial subordinada obtenemos


kzn k kBkn kz0 k +

n1
X

kBknj1 kdj k

j=0

kz0 k +

n1
X

kdj k

j=0

Teorema 12. Sea EDLin de la forma (2.4) cuyo polinomio caracterstico cumple la condici
on
de la raz. Entonces existe una constante c 1 tal que toda soluci
on {yn }n0 de la EDLin (2.5)
cumple

nk
X
|j | , yn R, n 0
ax |yi | +
|yn | c m
0ik1

j=0

Demostraci
on. De la condici
on de estabilidad de las soluciones de la EDLin de 1er orden
asociada a (2.4) deducimos
kzn k kz0 k +

n1
X
j=0

kdj k,

n1

(2.6)

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

18

Asimismo, por el teorema de equivalencia de normas c1 , c2 R c2 c1 > 0 tales que


c1 kzk kzk c2 kzk
kznk+1 k ckznk+1 k c m
ax |yi |,
0ik1

kz0 k +

k
X

ya que znk+1 =

kdj k c2 kz0 k + c2

n1
X

yn
..
.
ynk+1

|j |

j=0

j=0

Si cambiamos n por n k + 1 en la ecuaci


on anterior, entonces
c1 |yn | kznk+1 k c2 [ m
ax |yi | +
0ik1

nk
X

|j |]

j=0

Tomamos c = c2 /c1 y queda demostrado el teorema.

2.4.

Estabilidad y Condiciones de Convergencia

Definici
on 2.19. Un metodo dado por {(r), f } decimos que es cero estable (sin
onimo de
estabilidad) si las soluciones de la EDLin homogenea cuyo polinomio caracterstico es (r) son
estables.
Comentario 2.20. Un metodo es cero estable

(r) cumple la condici


on de la raz.

Condiciones sobre f
I) f 0 cuando f 0
, i = 0, . . . , k 1 del dominio y
II) Debe existir C independiente de h tal que yn+i , yn+i
f
xn [a, b], h 0

. . . yn , xn ; h)| C m
ax |yn+i yn+i
|
|f (yn+k . . . yn , xn ; h) f (yn+k
0ik1

(2.7)

Es decir, la funci
on f debe ser Lipschitz respecto a las condiciones iniciales.
Teorema 13 (acotaci
on del EGD). Sea el PVI y = f (x, y) y un metodo dado por {(r), f }.
etodo
Sea yn (h) la soluci
on numerica aproximada en xn = a + hn, n = 0, . . . , N = ba
h . Si el m
es cero estable entonces existen c1 , c2 independientes de h de forma que
|y(xn ) yn (h)| c1 r(h) + c2 (h)
donde r(h) = m
ax |y(xi ) yi (h)| es el m
aximo de los errores iniciales.
0ik1

Demostraci
on.
yn+k (h) + . . . + 0 yn (h) = hf (yn+k (h), . . . , yn (h), x; h)
y(x + kh) + . . . + 0 y(xn ) = hf (y(xn + kh), . . . , y(xn ), xn ; h) + (xn , h)
en+j = y(xn + jh) yn+j (h)
en+k + . . . + 0 en = n = h[f (sol. exacta) f (sol. numerica) + (xn , h)]

2.4. ESTABILIDAD Y CONDICIONES DE CONVERGENCIA

19

Usando el teorema 12 para EDLin, es decir, que el polinomio caracterstico de la EDLin del error
global es un polinomio de un metodo cero estable, podemos deducir

n
X
|j |
ax |ei | +
1 : |en+k | m
0ik1

r(h) + h

n 
X
j=0

()

()

j=0


C m
ax |ej+i | + (h)
0ik


r(h) + h(n + 1) C m
ax |ei | + (h)
condici
on II de f

0in+k

Definimos wn+k = m
ax |ei |, y observamos que {wn }n0 es una sucesion creciente. As, tene0in+k
mos que
m
ax |ei | = wn+k r(h) + Ch(n + 1)wn+k + h(n + 1) (h),

0in+k

donde C es independiente de h y su cumple que Ch(n + 1) > 0.


Ahora supongamos que para ciertas n y h se verifica
1 1 Ch(n + 1) 1/2.

(2.8)

En tal caso 1 [1 Ch(n + 1)]1 2. Entonces,


wn+k [1 Ch(n + 1)]1 [(n + 1)h (h)]

(2.9)

De acuerdo con las consideraciones anteriores escogemos h y n de forma que h(n + 1)


(2C)1 , que es independiente de h (puesto que y C lo son). As tendremos que, puesto
que Ch(n + 1) 1, entonces es cierta nuetra suposici
on de la existencia de n y h para que se
cumpla lo anterior.

,
Por otro lado, y basado en la misma desigualdad h(n + 1) , tambien se cumple que h < n+1
as que:
wn+k 2r(h) + 2 (h)
c1 r(h) + c2 (h)
con c1 , c2 independientes de h. Esta desigualdad es precisamente la que queramos demostrar.
Comentario 2.21. Notemos que en la demostracion anterior debamos asegurar que h(n + 1)
. Por tanto, la acotaci
on para el EGD que hemos demostrado est
a probada para el problema
y = f (x, y), y(a) = , x [a, b] u
nicamente en el subintervalo [a, a + ].
Si queremos extender la acotaci
on a [a, b] debemos proceder como sigue. Para empezar, tomamos
los k u
ltimos valores de la soluci
on numerica en [a, a + ]. Seguidamente continuamos calculando
la soluci
on numerica, y aplicando el mismo procedimiento de hasta entonces obtenemos en
[a + , a + 2] la siguiente acotaci
on:
wn+k 2[r2 (h) + (h)]
r2 (h) 2[r(h) + (h)]

wn+k 4 2 r(h) + 2(2 + 1) (h)


c1 r(h) + c2 (h)

Observamos que a medida que extendemos la acotacion esta puede volverse menos fina. A pesar
de esto, tiene la forma exigida por el teorema.

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

20

2.5.

Teora de Estabilidad Lineal

Consideremos el problema y = f (x, y). Si tomamos una aproximacion de primer orden


entonces podemos aproximar el sistema y = f (x, y) por un sistema y = Ay, con A Mm (R) y
y : R 7 Rm .
Sea C un VAP de la matriz A, Re() < 0 y consideremos el problema y = y,que es un
problema escalar.
Con este procedimiento conseguiremos establecer el comportamiento del metodo en funci
on
del paso que queramos utilizar de una forma bastante simple.
Por tanto, una vez obtenido el problema a analizar (y = y) y sabiendo que la soluci
on
y
exacta es de la forma y(x) = e , aplicamos ahora un metodo lineal multipaso al problema y
podremos establecer el comportamiento del mismo:
k
X

j yn+k = h

k
X

j (yn+j )

j=0

j=0

= h:
Escribimos la ecuaci
on en diferencias lineal homogenea con h
k
X
j )yn+j = 0
(j h

(2.10)

j=0

Notemos que para analizar las soluciones de la EDLin es necesario que consideremos el polinomio
caracterstico de la misma. De acuerdo con la ecuaci
on (2.10) el polinomio es:
= (r) h(r)

(r; h)

(2.11)

Denotaremos como polinomio de estabilidad absoluta del metodo a (r; h).


C si las soluciones de la EDLin
Definici
on 2.22. El metodo es absolutamente estable para h
(2.10) son asint
oticamente estables.

Proposici
on 2.1. Las soluciones de (2.10) son asint
oticamente estables si y solo si escogido h
entonces:
lm ||yn || 0
n

C/MLM es absolutamente estable}, la regi


Sea RA = {h
on de estabilidad absoluta del
metodo. Podemos establecer una representacion de RA en R2 de la siguiente manera:

1. Eje x Re(h)

2. Eje y Im(h)
Podramos tambien definir el conjunto como:
C | rt C, (rt , h)
= 0, |rt | < 1}
RA = {h
Ejemplo 2.23. Calcularemos los conjuntos RA de los metodos:
Metodo de Euler: yn+1 = yn + hfn
Metodo de Euler implcito: yn+1 = yn + hfn+1

(2.12)

2.5. TEORIA DE ESTABILIDAD LINEAL

21

Sus polinomios de estabilidad absoluta son:


rt = 1 + h
|rt | < 1 |1 + h| < 1. Por lo tanto nos define el
E (r; b) = r 1 h
interior de una circumferencia de radio 1 y centro (1, 0).
> 1. Nos define el exterior de
= r1
EI (r; h)
hr rt = 11 h |rt | < 1 |1 h|
una circumferencia de radio 1 y centro (1, 0).
De esta manera podemos escoger el paso adecuado sin tener que probar directamente el metodo.
Para finalizar, es necesario hacer un an
alisis para encontrar el margen de h. En el caso de Euler,
R.
considerando R con < 0 h
< 0 2 < h < 0 2 > h > 0.
Escogeramos, por el resultado anterior, 2 < h

> 0 2 < |h| > 0


En el caso complejo, C 2 > |h|
||
Hagamos ahora el an
alisis de los MLM de un paso convergentes:
yn+1 = yn + h(fn+1 + (1 )fn )
Calculamos ahora (r) = r 1. Por tanto, (1) = (1).
Comprobamos la consistencia del metodo: 1 = + (1 ) = 1.
El polinomio de estabilidad absoluta del metodo es
= r 1 h(r

B (r, h)
+ (1 )) = (1 h)r
+ (1 (1 )h)
Calculando las races obtenemos:
rt =

1 + (1 )h

1 h

Para hacer un an
alisis m
as simple del metodo, analizamos la frontera de RA , que denotaremos
por RA .
tales que (r, h)
admite races rt tales que rt = ei ,
RA estar
a formada por los valores de h
con [0, 2].
= p(r) h(r).

Sabemos de antes que (r, h)


Por lo tanto:
i
= 0 hf () = p(e )
(ei , h)
(ei)

(2.13)

La ecuaci
on (2.13) nos define RA como una curva uniparametrica en R2 .
Ejemplo 2.24. MLM de un paso convergente con = 12 , alternativamente denominado como
la regla del trapecio.
Tenemos yn+1 = yn + h2 (fn+1 + fn ), por lo tanto (r) = 12 (1 + r). Obtenemos como curva hf :
hf () =
Por lo tanto, obtenemos:

ei 1

= i(2 tan( ))
1 i
2
2 (e + 1)

C/Re(h)
= 0}
RA = {h

(2.14)

(2.15)

RA .
Una vez obtenida la frontera, podemos obtener por continuidad los puntos h
Notemos que, en general, que RA puede ser el conjunto , ya que su frontera no siempre es
una curva continua ni conexa.

CAPITULO 2. PROBLEMAS DE CONDICIONES INICIALES

22

RA /Im(h)
= 0}.
Definici
on 2.25. El intervalo de estabilidad absoluta IA RA es IA = {h
Recordemos que para un MLM se satisfaca:
|yn (h) y(xn )| C1 r(h) + C2 (h)
con C1 , C2 constantes. Por lo tanto, las condiciones suficientes de convergencia son:
Condicion II sobre f
Consistencia
Cero Estabilidad
Teorema 14. Si un metodo es convergente entonces es cero estable si para f 0 se tiene f = 0
(condici
on I).
P
Demostraci
on. Sea el problema y = 0, y(a) = . Para el metodo dado por (r) = kj=0 j r j
y f cualquiera. Aplicando el metodo al problema se obtiene una EDLin homogenea:
k
X

j yn+j = 0

(2.16)

j=0

Utilizaremos el argumento del contrarecproco para demostrar el teorema. Supongamos pues que
el metodo no es cero estable. Entonces existe una raz de (r) tal que || > 1 o bien || = 1 y
raz m
ultiple. Toda soluci
on numerica del problema tiene terminos de la forma n con || > 1 o
proporcional a n si || = 1. En general pues, la soluci
on general {yn } va a crecer arbitrariamente
cuando n . Por lo tanto, podemos asegurar que:
|y(x) yn |
n

(2.17)

Esto
se cumplira aunque los valores inicial usados en (2.16) tiendan a . Por lo tanto, tenemos
que el metodo no es convergente y queda demostrado por contrarecproco.
Observacion 2.26. Es importante notar que para la demostracion del teorema anterior es
b
asica la condici
on de f = 0 ya que en caso contrario no podramos obtener la formula (2.16).
P
Teorema 15. Sea un metodo de la forma kj=0 j yn+j = hf tal que cumpla las condiciones
(2.4) y (2.7). Entonces, se cumple que:
El metodo es convergente es consistente y cero-estable.
Adem
as, si el metodo es de orden p (i.e, (h) = O(hp )), suponiendo que el error de los valores
iniciales sea O(hq ) con q p entonces:
EDG = O(hp )
Demostraci
on. La demostracion del teorema anterior se sigue de todos los teoremas trabajados
en este captulo.

Captulo 3

M
etodos Lineales Multipaso
3.1.

M
etodos Lineales Multipaso y Teorema de Dahlquist

Como ya se ha visto a lo largo del captulo anterior, un metodo lineal de k pasos es


k
X

i yn+i = h

k
X

i fn+i

con k = 1

i=0

i=0

Este metodo tiene asociados dos polinomios de gran importancia:


(r) =

k
X

i r i ,

(r) =

k
X

i r i

i=0

i=0

Anteriormente se ha estudiado cu
ando un metodo lineal multipaso es estable y de que manera se
puede conocer su orden. Como el orden de un metodo est
a totalmente relacionado con el n
umero
de pasos, es necesario preguntarse cu
al puede ser el orden m
as grande posible de un metodo de
este tipo bajo la condici
on de estabilidad.
En este apartado nos centraremos en la relaci
on entre el paso h y el orden del metodo, en
el caso particular de los metodo lineales multipaso. Para establecer el orden p hay que imponer
que los coeficientes del desarrollo de Taylor de h (x, h) y h (h) se anulen, ya que son estos los
que nos indican el orden de convergencia:
Ci = 0,

i = 0 . . . p,

(3.1)

que da un total de p + 1 condiciones. El teorema que presentaremos a continuaci


on nos da una
cota superior del orden a partir del n
umero de pasos. Este teorema ser
a muy importante para
poder escoger el paso deseado en nuestro metodo:
Teorema 16 (de Dahlquist). Para un MLM de k pasos y orden p, si el metodo es cero estable
entonces
Si k es impar: p k + 1
Si k es par: p k + 2
Definici
on 3.1. Decimos que un metodo es
optimo cuando es cero estable de k pasos y orden
k + 2.
23


CAPITULO 3. METODOS
LINEALES MULTIPASO

24

Teorema 17. Un MLM de k pasos cero estable y de orden k+2 tiene un polinomio caracterstico
tal que todas sus races son de m
odulo 1 y simples.
Ejemplo 3.2. Consideremos el metodo de Simpson definido por yn+2 yn = h3 (fn+2 +4fn+1 +fn ),
i.e, (r) = r 2 1. Se puede comprobar que este metodo es optimo.

3.1.1.

Estabilidad Lineal

Consideremos la formula del polinomio de estabilidad:


= (r) h(r)

(r, h)
Si el metodo es convergente, se cumple que:

= (r)
lmh0 (r, h)
rt = 1 es raz de (r)
raz de (r, h)
tal que lm r1 (h)
= 1.
Por lo tanto existir
a r1 (h)
h0

Teorema 18. Para un MLM convergente de orden p se cumple:

= eh + O(h
p+1 )
r1 (h)
0.
en el lmite cuando h
Corolario. Para todo MLM existe tal que el conjunto de puntos {(x, 0) R2
no pertenecen nunca a la region de estabilidad.

x (0, )}

Demostraci
on. (del teorema)
h (x; h) = O(hp+1 ) con y = f (x, y)
P
P
Para y = y h (x, h) = kj=0 j y(x + jh) h kj=0 j y (x + jh). Con la condici
on inicial
x
y(0) = 1 se tiene que y(x) = e . Entonces:
k
X

j e(x+jh) h

j e(x+jh) = O(hp+1 )

j=0

j=0

k
X
j=0

<
Escogemos pues h

k
X

p+1 )
j (eh )j = O(h
j (eh )j h

{z

(eh
,h)=(eh
)h(e
)

k 6= 1 ya que el grado de es k. Ahora podemos tomar el


h


lmite h 0, con lo que tenemos que (eh , h)
= O(hp+1 ) implica que (eh , h)
0 debido a que

0. En tal caso se cumple ri (h)


6= 1 para i = 2, . . . , k. Esto

eh r1 (h)
sucede al ser el metodo
1.
convergente, la unidad es raz simple y r1 (h)
1
k

= O(h
p+1 )
eh r1 (h)

= eh + O(h
p+1 )
r1 (h)


3.2. METODOS
IMPLICITOS Y PREDICTOR-CORRECTOR

3.2.

25

M
etodos Implcitos y Predictor-Corrector

Definici
on 3.3. Un par predictor-corrector (P-C) de k pasos est
a formado por dos metodos
lineales multipaso, uno explcito llamado predictor (P) y otro implcito denominado corrector
(C). La expresi
on general de un P-C es la siguiente:
( P
Pk1
k
j fn+j
(P )
j yn+j = h j=0
j=0
Pk
Pk
(3.2)
(C)
j=0 j yn+j = h
j=0 j fn+j

donde k es siempre el n
umero de pasos del P, representado por la primera de las igualdades. En
la segunda, que representa el C, no se exige la condici
on |0 | + |0 | =
6 0, pero se sigue asumiendo
que k = k = 1. A continuaci
on se describen los pasos a seguir y las formulas que se utilizan
para calcular la soluci
on numerica de un PVI mediante un metodo P-C como el (3.2) en los
modos P (EC) E 1t , con t {0, 1}, donde t = 0 indica que se efectua la evaluaci
on final de f ,
mientras que t = 1 indica que no se efectua dicha evaluaci
on final.
Partiendo de los valores iniciales yj , j = 0 k 1, y para n 0:
[0]

yn+k = h

P :

k1
X

[t]

j fn+j

(EC) :
[+1]

yn+k +

k1
X

[]

j yn+j =

j=0

1t

[]

[]

j yn+j

j=0

j=0

[]
fn+k

k1
X

[]
f (xn+k , yn+k )
k1
X
[k+j]
[]
j fn+j
,
hk fn+k + h
j=0
[]

fn+k = f (xn+k , yn+k ),

=01

si t = 0.

Definici
on 3.4. Un MLM implcito de k pasos se caracteriza por tener el coeficiente k 6= 0.
k
X

i yn+i = h

k
X

i fn+i

i=0

i=0

Cada paso requiere resolver una ecuaci


on implcita:
yn+k = hk f (xn+k , yn+k ) + gn
[0]

donde gn es la soluci
on numerica en xn+j con j = 0, . . . , k 1. Dado yn+k , iteramos:
[l]

[l+1]

yn+k = hk f (xn+k , yn+k ) + gn


[l+1]

[l]

||yn+k yn+k || 0
l

l = 0, 1, . . .

[0]

yn+k si h|k |L < 1

donde L es la constante de Lipschitz de f . Entonces, para garantizar un buen comportamiento,


debemos escoger un paso tal que:
h<

1
|k |L

Si L 1 necesitamos 1 h. Estos casos se dan en problemas mal condicionados (sistemas stiff).


CAPITULO 3. METODOS
LINEALES MULTIPASO

26

En general, para acabar la iteraci


on, fijamos para detener la iteraciones con la condici
on
[l]
umero de iteracions a 1, en
yn+k || < . Alternativamente, podemos fijar el n
cada paso. El metodo resultante en este caso es un MLM explcito que se denomina Predictor[0]
Corrector cuando yn+k se obtiende de un MLM explcito.

[l+1]
||yn+k

3.3.

Criterio de Routh-Hurwitz

Este criterio puede resultar de gran utilidad cuando se analiza la estabilidad absoluta de un
metodo, concepto que introduciremos a lo largo del captulo.
Definici
on 3.5. Consideremos un polinomio de grado k, coeficientes reales y variable z C
P (z) = a0 z k + a1 z k1 + + ak1 z + ak ,
con a0 > 0. La matriz k k determinada

a1
a0

H =0

.
..
0

por
a3
a2
a1
a0
..
.

a5
a4
a3
a2
..
.

..
.

a2k1
a2k2

a2k3

a2k4

..
.
ak

tomando aj = 0 cuando j > k, se denomina matriz de Hurwitz de P (z).


Proposici
on 3.1. Las races de P (z) tienen parte real estrictamente negativa si y solo si todos
los menores principales de la matriz de Hurwitz de P (z) son estrictamente positivos.

Se entiende por menor principal de orden j de una matriz k k el determinante de la


submatriz obtenida con los elementos comunes de las j primeras filas y las j primeras columnas
de la matriz, siendo 1 j k. En general, el criterio anterior se traduce en un sistema de k
inecuaciones para los coeficientes de P (z).
Definici
on 3.6. Un polinomio de grado k con coeficientes reales de dice que es un polinomio
de Schur si todas sus races tienen m
odulo estrictamente inferior a al unidad, es decir, si todas
sus races se encuentran en el interior de la circunferencia unidad del plano complejo.
Dados r, z C el cambio de variable
r=

1+z
1z

define una aplicaci


on biyectiva entre {r C | |r| < 1} y {z C | Re(z) < 0}, subconjuntos de
C. Se deduce a partir de ella el siguiente criterio para que un polinomio sea de Schur:
Proposici
on 3.2. Un polinomio (r) con coeficientes reales y de grado k es de Schur si y solo
si el polinomio


1+z
k
P (z) = (1 z)
= a0 z k + a1 z k1 + + ak1 z + ak ,
1z
con a0 > 0, cumple el criterio de Routh-Hurwitz1 .
1
Si el polinomio no cumple que a0 > 0, deberemos multiplicarlo por 1 para obtener un polinomio que se
ajuste al exigido por el teorema.

DEL ELD PARA METODOS

3.4. ESTIMACION
DE 1 PASO

3.4.

27

Estimaci
on del ELD para m
etodos de 1 paso

La idea es estimar el ELD de un metodo como la diferencia entre el valor que arroja el
metodo y el valor que obtenemos del mismo metodo al dividir el paso por la mitad.
Consideremos el metodo yn+1 = yn + hfn . Sabemos que el ELD para este vale:
ELDn+1 = h (xn , h) =

y (xn ) 2
h + O(h3 )
2

donde definimos el termino principal como el primer coeficiento no nulo del desarrollo de Taylor
del ELD, que denotaremos por PELD. En nuestro caso, el termino principal es P ELDn+1 =
y (xn ) 2
h . Si tomamos como paso h entonces
2
xn
yn

Alternativamente, podemos escoger como paso


xn+ 1
2

yn+ 1
2

En el caso

h
2

tenemos:

h
2

h
2,

xn+1
yn+1 (h)

en cuyo caso el esquema nos queda as:

xn+1

yn+1

 
h
2

 
h
h
h
h
= yn+ 1 + f (xn + , yn+ 1 ) = yn+ 1 + fn+ 1
yn+1
2
2
2
2
2
2
2
2
h
yn+ 1 = yn + fn
2
2
i
h
hh
fn + fn+ 1
yn+1 ( ) = yn +
(equivalente al metodo Runge-Kutta)
2
2
2
h
yn+1 = yn + (k1 + k2 )
2

Con respecto al error local (Euler de dos pasos con paso h2 )


ELDn+1 = h [2] (xn , h) = y(xn , h) y(xn + h) =
h
h
= y(xn ) h[f (xn , y(xn )) + f (xn + , y(xn ) + f (xn , y(xn )))]
2
|
{z 2
}
()

() Taylor

h
h
f (xn , yn ) = fx + fy f + O(h2 ),
2
2

d
y (x) =
f = fx + fy f
dx


CAPITULO 3. METODOS
LINEALES MULTIPASO

28

De acuerdo con las expresiones anteriores,


y (xn ) h 2
h (xn , h) = 2
+ O(h3 )
2
2

h (xn , h) = y(xn+1 ) yn+1 (h)

 
=
h

h [2] (xn , h) = y(xn+1 ) yn+1

2


 

y (xn ) 2
h
h = 2 yn+1
yn+1 (h) + O(h3 )
P ELDn+1 =
2
2
[2]


Estimamos el P ELDn+1 usando 2[yn+1 h2 yn+1 (h)].
Esquema de control del ELD de la soluci
on numerica con el metodo de Euler:
2kyn+1 ( h2 ) yn+1 (h)k
< r
kyn+1 (h)k

r es la tolerancia relativa al error. Si r = 10l , entonces los l primeros dgitos de la soluci


on
numerica son correctos.

Generalizaci
on a m
etodos de 1 paso de orden p
Supongamos que tenemos un metodo de 1 paso, ahora de orden p. En este caso, el ELD
asociado a yn+1 con paso h es
ELDn+1 (h) = G(y(xn ))hp+1 + O(hp+2 ) = y(xn+1 ) yn+1 (h)
Procediendo de manera an
aloga a la anterior, veamos que ocurre si tomamos como paso

h
considerando yn+1 2 :
 
 p+1
 
h
h
h
p+2
+ O(h ) = y(xn+1 ) yn+1
= 2G(y(xn ))
ELDn+1
2
2
2

h
2,

Si restamos las dos ecuaciones anteriores obtenemos:


 


h
1
p+1
yn+1
yn+1 (h) = G(y(xn ))h
1 p + O(hp+2 ),
2
2

con lo que el PELD es

p+1

P ELDn+1 = G(y(xn ))h

1
= 1 p
2

1 


 
h
yn+1
yn+1 (h) + O(hp+2 )
2

Notamos que [1 21p ]1 1 cuando p 1. Si se cumple la condici


on del error escogida
continuamos el proceso. En caso contrario redefinimos h := h2 y observamos que ocurre con r .
Definici
on 3.7. Dado yn+1 (h) obtenida con un metodo de orden p, consideramos


 
h
1 1
[yn+1
yn+1 (h) = yn+1 (h) + 1 p
yn+1 (h)].
2
2

Dicho metodo se conoce como metodo de extrapolaci


on (local) asociado al metodo original.

DEL ELD CON METODOS

3.5. ESTIMACION
PREDICTOR-CORRECTOR

3.5.

29

Estimaci
on del ELD con m
etodos Predictor-Corrector

Supongamos que estamos tratando con un metodo predictor-corrector de la forma (3.3), para
el cual tenemos:
Predictor: p orden, Cp +1 constante de error.
Corrector: p orden, Cp+1 constante de error.
Cuando se usa el par P-C en el modo P (EC) E 1t con t {0, 1} en realidad se est
a utilizando un
metodo explcito. Es por ello que podemos analizar el correspondiente error local de truncacion
o discretizacion (ELD) de la forma habitual: examinaremos la diferencia y(xn+k ) yn+k , siendo
yn+k la aproximacion numerica en xn+k obtenida con el metodo cuando se toman valores exactos,
j =0k1

yn+j = y(xn+j ),

(3.3)

Para empezar, suponiendo y(x) suficientemente diferenciable, se tiene que


h (x, h) = Cp +1 hp

+1

y (p

+1)

p+1 (p+1)

h (x, h) = Cp+1 h

(x) + O(hp
p+2

(x) + O(h

+2

(3.4)

(3.5)

Por otro lado, a partir de la definicion de la funcion para el P, podemos escribir


y(xn+k ) +

k1
X

j y(xn+j ) = h

k1
X

j f (xn+j , y(xn+j )) + h (xn , h).

j=0

j=0

Si utilizamos (3.3) en la formula del P se obtiene


[0]
yn+k

k1
X

j y(xn+j )

=h

k1
X

j f (xn+j , y(xn+j )).

j=0

j=0

Restando las dos ecuaciones anteriores de deduce:


[0]

y(xn+k ) yn+k = Cp +1 hp

+1

y (p

+1)

(xn ) + O(hp

+2

(3.6)

Repetimos ahora el proceso para C. A partir de la definicion de (x, h) se tiene que


y(xn+k ) +

k1
X
j=0

j y(xn+j ) = h

k1
X

j f (xn+j , y(xn+j )) + h (xn , h).

j=0

y utilizando (3.3) en la formula del C para cada iteraci


on nos queda
[+1]

yn+k +

k1
X

[]

j y(xn+j ) = hk f (xn+k , yn+k ) + h

j=0

k1
X

j f (xn+j , y(xn+j )).

j=0

para = 0 1. Finalmente, restando las dos u


ltimas ecuaciones se deduce para 0 1
i
h
[]
[+1]
y(xn+k ) yn+k = hk f (xn+k , y(xn+k )) f (xn+k , yn+k ) + h (xn , h) =
= hk

f
[]
(xn+k , )[y(xn+k ) yn+k ] + Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 )
y

(3.7)


CAPITULO 3. METODOS
LINEALES MULTIPASO

30

con = 01. En la segunda igualdad se ha aplicado el teorema del valor medio para funciones
vectoriales, con v representado los distintos valores intermedios para cada componente de la
derivada parcial.
En funci
on de los
ordenes del P y el C (los valores de p y p respectivamente) se obtienen
los siguientes resultados:
1. Caso p p:
Sustituyendo (3.6) en la formula (3.7) para = 0 se deduce
[1]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ).


A su vez, esta igualdad puede sustituirse de nuevo en (3.7) para = 1 deduciendose:
[2]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ).


Repitiendo el proceso el n
umero necesario de veces se acaba demostrando que
[]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ).


Es decir, para todo 1 el orden del metodo P-C es igual al orden del C y adem
as el
PELD (termino principal del ELD) del P-C es identico al del C.
2. Caso p = p 1:
Siguiendo el mismo razonamiento que el presentado en el caso anterior, la primera sustituci
on de (3.6) en (3.7), con = 0, da lugar a


f (p)
[1]
(p+1)
(xn ) hp+1 + O(hp+2 ).
y(xn+k ) yn+k = k Cp y (xn ) + Cp+1 y
y
Sin embargo, si 2 las posteriores sustituciones en (3.7), con 1, conducen siempre
a la igualdad:
[]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ).


Por tanto, para todo 1 el orden del metodo P-C es igual al del C, aunque si = 1
entonces el PELD del P-C no coincide con el del C. En cambio, si 2 ambos PELD son
identicos.
3. Caso p = p 2:
En este caso, cuando sustituimos (3.6) en (3.7) obtenemos:
[1]

y(xn+k ) yn+k = k

f
C hp y (p1) (xn ) + O(hp+1 ).
y p1

Notamos que ahora si = 1 el orden del P-C es p 1, inferior en una unidad al orden del
C. Si 2, sustiyendo la ecuaci
on anterior en (3.7) con = 1 se deduce
#
"
2
f
[2]

Cp1
y (p1) (xn ) + Cp+1 y (p+1) (xn ) hp+1 + O(hp+2 ),
y(xn+k ) yn+k =
k
y
de modo que para = 2 el orden del metodo P-C es igual al del C, pero los PELD
de ambos metodos no coinciden. Sucesivas sustituciones en (3.7) conducen a la siguiente
formula, valida u
nicamente cuando 3
[]

y(xn+k ) yn+k = Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 ).


lo cual muestra que adem
as del mismo orden, el P-C y el C tienen el mismo PELD.

DEL ELD CON METODOS

3.5. ESTIMACION
PREDICTOR-CORRECTOR

31

Por tanto, queda claro que el orden y el PELD de un metodo P-C en el modo P (EC) E 1t dependen de la diferencia de los
ordenes del P y del C, as como del valor (n
umero de iteraciones)
del modo. El siguiente teorema enuncia el resultado general.
Teorema 19. En las condiciones anteriores, consideremos un metodo P-C definido por (3.3) y
utilizado en el modo P (EC) E 1t .
1. Si p p, o bien si p < p y > p p , entonces el metodo P-C y el corrector tienen el
mismo orden y el mismo PELD.
2. Si p < p y = p p , entonces el metodo P-C y el corrector tienen el mismo orden pero
diferentes PELD.
3. Si p < p y < pp , entonces el orden del P-C es igual a p + y siempre es estrictamente
inferior al orden del corrector.
Adem
as, los modos P (EC) E y P (EC) tienen el mismo orden y el mismo PELD.
Demostraci
on. Empezamos considerando la funcion h (xn , h), es decir:
[0]

h (xn , h) = y(xn+k ) yn+k = Cp +1 y p

+1

(xn )hp

+1

+ O(hp

+2

[]

h (xn , h) = y(xn+k ) yn+k = Cp+1 y p+1 (xn )hp+1 + O(hp+2 )


donde p es el orden del predictor y p el del corrector. Si tomamos la diferencia de las dos
expresiones anteriores tenemos:

[]
[0]
yn+k yn+k = Cp +1 y p +1 (xn )hp +1 Cp+1 y p+1 (xn )hp+1 + O(hp+2 )

(3.8)

Consideremos los posibles casos para valores de p y p :


Si p < p entonces
[0]

[]

Cp+1 y p+1 (xn )hp+1 = yn+k yn+k + O(hp

+1

Observamos que en este caso el resultado carece de sentido, as que no lo consideramos.


Si p > p entonces (3.8) como p + 1 p + 2 de manera que:
[0]

[]

Cp+1 y p+1 (xn )hp+1 = yn+k yn+k + O(hp+1 )


Para el Predictor-Corrector, el resultado final ser
a:
[0]

[]

P ELDn+k = yn+k yn+k


Si p = p entonces
Cp+1 y p+1 (xn )hp+1 =

Cp+1
[]
[0]
(
yn+k yn+k ) + O(hp+2 )

Cp+1 Cp+1
{z
}
|

Constante de Milne

Comentario 3.8 (Modos con extrapolacion local). Dado un P-C en modo P (EC) E 1t se
construye un nuevo metodo como soluci
on de:
Cp+1
[]
[]
[0]
[]
yn+k = yn+k +
(yn+k yn+k ).
Cp+1 Cp+1
[]

A partir de yn+k en modo P (EC) E 1t se pueden construir nuevos modos P-C del tipo P (ECL) E 1t
o del tipo P (EC) LE 1t .


CAPITULO 3. METODOS
LINEALES MULTIPASO

32

3.6.

Estabilidad lineal para m


etodos P-C

Ejemplo 3.9. Consideremos para fijar ideas el metodo:


h
(fn+2 + fn+1 ) C
2
h
= (3fn+1 fn ) P
2

yn+2 yn+1 =
yn+2 yn+1

Modo P (EC)E: Si en el ejemplo tomamos y = y, entonces


h
[0]
(yn+2 + yn+1 )
2
3h
h
h
yn+1 yn ) + yn+1
yn+2 yn+1 = (yn+1 +
2
2
2

y
3
h
h
n+1 + hy
n+1 yn ) yn+1 = 0
yn+2 yn+1 h(
2
4
2
2
yn+2 yn+1 =

La forma de los polinomios de estabilidad absoluta de los metodos P-C en este modo es:
= (r) h(r)

(r))
(r, h)
+ M (H)( (r) h
(
p, C
M (H) =

H (1 H)
,
1 H

p , P
(
k
H = h
donde
= k r k + k1 r k1 + + 0

Modo P (EC) : En este caso, la forma de los polinomios de estabilidad es


= k r k ((r) h(r))

(r, h)
+ M (H)( (r)(r) (r)(r))
= (r). En tal caso existe r1 (h)

Por lo tanto, si P y C son consistentes entonces lm (r, h)


h0
tal que lm r1 (h)
= 1. Finalmente, se establece
raz de (r, h)
h0


(eh , h)
= O(hp+1 )

donde p es el orden del metodo P-C. Luego, se deduce (utilizando el mismo razonamiento que
= eh + O(hp+1 ) cuando h 0. A modo de resumen, para los diferentes
para MLM) quer1 (h)
modos los polinomios de estabilidad son
P (EC) E :

P (EC) :

= (r) h(r)

(r)]
(r, h)
+ M (H)[ (r) h
= k r k [(r) h(r)]

(r, h)
+ M (H)[ (r)(r) (r) (r)]

donde
1,
r1 (h)
h0

M (H) =

H (1 H)
= O(h ),
1 H

H = k h

Por otro lado,

= O(h
p+1 )
(eh , h)

= eh + O(hp+1 )
r1 (h)

(3.9)
(3.10)

DE MLM POR INTERPOLACION

3.7. CONSTRUCCION

33

Si p es el orden del C y p es el orden del P con P y C convergentes entonces, para los modos
P (EC) E (se deduce de la ecuaci
on (3.9)) tenemos

(eh , h)
= O(hp+1 ),

si p + p,

Con respecto a los modos P (EC) , tenemos que para la ecuaci


on (3.10)
)
= O(hp +1 ) h
= O(hp +1 ) = O(hp +1 )
h
= O(hp+1 ) h
= O(hp+1 ) = O(hp+1 )
h

= O(hp+1 )

Dado que h 0 entonces eh 1 y adem


as:
(1) = (1) 6= 0
(1) = ( ) (1) 6= 0
Por tanto, teniendo en cuenta que los metodos son convergentes entonces, para los modos
P (EC) :

(eh , h)
= O(hp+1 )

3.7.

Construcci
on de MLM por Interpolaci
on

Consideremos un metodo de la forma


yn+1 yn =

xn+1

I(x)dx

xn

donde {yn } es la soluci


on numerica en xn = a + hn e I(x) es el polinomio interpolador de
f (x, y(x)). Si tomamos el caso:
j = 0, 1 . . . k 1

I(xnj ) = fnj
se obtiene
yn+1 yn = h

k1
X

j fn+1k+j

j=0

y observamos que se trata de un metodo expcito de k pasos. Esta familia de metodos se conoce
como metodos de Adams-Bashford.
Por otro lado, podemos considerar el caso
I(xn+1j ) = fn+1j

j = 0, 1 . . . k

del que se extrae la familia de metodos


yn+1 yn = h

k
X

j fn+1k

j=0

Cabe notar que se trata de un conjunto de metodos implcitos de k pasos, conocidos como metodos de Adams-Moulton.


CAPITULO 3. METODOS
LINEALES MULTIPASO

34

La formula de interpolaci
on de Newton nos servir
a para explicitar la forma de I(x). A
continuaci
on la presentamos.

(r) =
I(x) = Pk1

 
k1
X
r i
(1)i
fn+j
i
i=0

donde
r=

x xn
,
h

fn = fn fn1
2 fn = (fn ) = fn 2fn1 + fn2

Definimos ahora un operador denotado por E para facilitar la notaci


on.
Efn = fn+1
E 1 fn = fn1
de modo que podemos reescribir como = 1 E 1 . Modificando la notaci
on anterior por la
introducida con E nos queda:
i  
X
i
i
1 i
= (1 E ) =
E l
l
l=0
i  
X
i
i f n =
fnl
l
l=0


donde r
=
i
minados as:

1
i!

Qi1

l=0 (r

l). En resumen, los metodos anteriormente descritos quedan deter-

(r) donde r = xxk .


Adams-Bashfort: I(x) = Pk1
h
 i
Pk
Adams-Moulton: I(x) = Pk (r) = i=0 (1)i r
i fn+1 con r =

xxn+1
.
h

Notemos el uso intensivo del funcional E en la nueva formulaci


on de los metodos.

3.7.1.

M
etodos Adams-Bashfort de k pasos

Tenemos para este metodo la formula:


Z
Z xn+1

Pk1 (r)dx = h
yn+1 yn =
Z

Pk1 (r)hdr = h
0

xn
k1
X
j=0

i i fn ,

1
0

(r)dr
Pk1

= (1)

1


r
dr
i

Construimos una funci


on generatriz denotada por G (t):
!

Z 1  
Z 1 X



X
X
r
r
i
i
i
i

(t) dr =
(1)
i t =
dr t =
G (t) =
i
i
0
0
i=0
i=0
i=0

Z 1
(1 t)r 1
t
r
(1 t) dr =
=
= (1 t) ln(1 t)
ln(1

t)
0
0

DE MLM POR INTERPOLACION

3.7. CONSTRUCCION

35

As, tenemos que el funcional definido satisface la siguiente relaci


on:
G (t)

ln(1 t)
= (1 t)1
t

Si la desarrollamos en serie de potencias obtenemos:


(0 + 1 t + . . .)(1 +

t
+ . . .) = 1 + t + t2 + . . .
2

que nos aporta los las ecuaciones que deben satisfacer los coeficientes i :
i +

i1

+ ... + 0 = 1
2
i+1

i = 0, 1 . . . k 1

Observamos que puesto que para un metodo A-B de k pasos u


nicamente se requieren los valores

i para i = 0, 1 . . . k 1, entonces las ecuaciones anteriores lo determinan unvocamente.

3.7.2.

M
etodos Adams-Moulton de k pasos

Tenemos en el planteo del metodo:


yn+1 yn =

Pk (r)hdr = h
1

i =

(1)i

k
X

i i fn+1

i=0

r
dr
i

De nuevo construimos una funci


on generatriz, ahora denotada por G(t):
G(t) =

X
i=0

i ti =

t
ln(1 t)

G(t)

ln(1 t)
=1
t

En este caso la relaci


on que satisfacen las , una vez hecho el correspondiente desarrollo en serie
de potencias es:
0
+ 1 = 0 . . .
2
i1
0
i +
+ ... +
= 0, i = 0 k
2
i+1
0 = 1,

El metodo A-M de k pasos requiere i hasta i = 0 k. Una vez incorporadas y resueltas las
ecuaciones de las i obtenemos para el metodo A-M de k pasos:
yn+1 yn = h

k
X
i=0

i i fn+1

36

CAPITULO 3. METODOS
LINEALES MULTIPASO

Captulo 4

M
etodos Runge-Kutta
En este captulo analizaremos los metodos Runge-Kutta en su formulaci
on general, trataremos las condiciones de orden (seg
un la estrategia de Butcher), y por u
ltimo trabajaremos sobre
el an
alogo de la estabilidad lineal introducido en el tema anterior.

4.1.

Formulaci
on del m
etodo

Definici
on 4.1. Un metodo Runge-Kutta (RK) es un metodo de un paso dado por la ecuaci
on:
yn+1 yn = h

s
X

bi ki

i=1

donde
ki = f (xn + ci h, yi ),

yi = yn + h

s
X

aij kj

j=1

A estas definiciones se les impone una condici


on aparentemente arbitraria aunque estrechamente relacionada con el orden del metodo, conocida como condici
on suma-fila:
s
X

aij = ci ,

i =1s

j=1

Definici
on 4.2. Diremos que s es el n
umero de niveles del metodo.
Es habitual denotar los metodos RK mediante notaci
on matricial. Para ello introducimos:
Definici
on 4.3. La matrix de Butcher es


c A
0 bT

donde:
A = (aij )

c = [c1 . . . cs ]T
37

b = [b1 . . . bs ]T


CAPITULO 4. METODOS
RUNGE-KUTTA

38

En el caso en que A sea triangular inferior estricta (con aii = 0, i = 1 s), entonces el
metodo RK es explcito. Entonces tendra la estructura:
k1 = f (xn , yn ) = fn
k2 = f (xn + c2 h, yn + hc2 k1 )
k3 = f (xn + c3 h, yn + h(c3 a32 )k1 + ha32 k2 )
..
.
Ejemplo 4.4. De acuerdo con las definiciones anteriores, el metodo RK de un nivel es
yn+1 yn = hb1 fn
que solo converge en el caso b1 = 1, definiendo as, como habra apreciado el h
abil lector, el ya
conocido metodo de Euler.

4.2.

Convergencia de m
etodos RK

Veamos ahora que el metodo cumple:


Condicion (2.7) sobre f . Como tenemos:
f =

s
X

bi f (xn + ci h, yi )

i=1

Si f cumple la condici
on de Lipschitz, entonces f cumple la condici
on (2.7).
Cero estabilidad. Por ser (r) = r 1, los metodos siempre son cero estables.
Segunda condici
on de consistencia (Teorema 2 ):
?

f (y(x), x, 0) = (1)f (x, y(x)) = f (x, y(x))


En nuestro metodo tenemos:
f (y(x), x, 0) =

s
X

bi f (x, y(x)).

j=1

P
Por tanto, la condici
on de consistencia para los metodo RK es si=1 bi = 1, que nos da
tambien la convergencia junto con las otras condiciones verificadas.

4.2.1.

Error local de discretizaci


on

Consideremos el ELD asociado a metodos RK. De apartados anteriores conocemos que este
viene dado por:
h (x, h) = y(x + h) y(x) hf (y(x), x; h)
h (x, h) = y (x)h + O(h2 ) hf (y(x), x; 0) + O(h2 )
P
donde y (x) = f (x, y(x)) y hf (y(x), x; 0) = h i bi f (x, y(x)). Si el RK es convergente, al ser
consistente en general podremos afirmar que (x, h) = O(h), tiene orden 1 al menos.


4.2. CONVERGENCIA DE METODOS
RK

4.2.2.

39

M
etodos implcitos y semi-implcito

Aqu introduciremos un tipo particular de metodos implcitos.


Definici
on 4.5. Si A es matriz triangular inferior no estricta1 , el metodo RK se denomina
semi-implcito.
Definici
on 4.6. Decimos que el metodo es implcito cuando no es ni semi-implcito ni explcito.
k1 , . . . , ks se obtienen resolviendo un sistema de s ecuaciones acopladas e implcitas.

4.2.3.

Regi
on de estabilidad absoluta

Proposici
on 4.1. La formula general de la funci
on de estabilidad absoluta de los metodos R-K
es:
n
yn+1 = R(h)y
C| |R(h)|
< 1}
RA = {h
Analizemos ahora la forma general de R(b
h):

yn+1 = yn + h

s
X

bi ki

i=1

En el caso

y = y,

P
yn+1 = yn + b
h si=1 bi Yi , donde

Yi = y n + h

s
X
j=1

aij (Yj ) = yn + b
h

Y = [Y1 , . . . , Ys ]T

s
X

aij Yj

j=1

e = [1, . . . , 1]T Rs

Podemos reformular pues las condiciones anteriores de forma vectorial con el uso de el Y , la
matriz A, y el vector e:
Y = yn e + b
hAY
(Is b
hA)Y = yn e

Y = [(Is b
hA)1 e]yn

Condicion b
asica para que esto suceda es evidentemente que det(Is b
hA) 6= 0. Si el metodo Rk
es explcito, se comprueba que det(Is b
hA) = 1 b
h C.
Yn+1 = Yn + b
hbT (Is b
hA)1 eyn = (1 + b
hbT (Is b
hA)1 e)yn

Ademas R(b
h) es una funci
on polin
omica de grado s.

1
Definimos matriz triangular inferior no estricta como matriz triangular inferior cuya diagonal no es identicamente cero


CAPITULO 4. METODOS
RUNGE-KUTTA

40

Ejercicio. Calculemos ahora los metodo de orden s de s niveles.


b2
En el caso s = 2: b
hbT (Is b
hA)1 = RK de dos niveles explcto. R(b
h) = 1 + b
h + h2 .
b2
b3
En el caso s = 3: R(b
h) = R(b
h) = 1 + b
h + h2 + h6 .
Veamos ahora por que R coincide con la forma del desarrollo de la exponencial hasta orden
p. El ELD y(xn+1 ) yn+1 = O(hp+1 ), habiendo obtenido yn = y(xn ).
(h)p
yn + O(hp+1 )
p!
b
b
hp
h2
+ . . . + )yn + O(hp+1 )
= (1 + b
h+
2
p!

y(xn+1 ) = yn + (h)yn + . . . +
yn+1

yn+1 = R(b
h)yn para cualquier RK aplicado a y = y

Con las condiciones anteriores y la definicion de R(b


h), se tiene que R(b
h) no depende de yn sino
de la h y del metodo:
bp
En el caso p = s R(h) = 1 + b
h + . . . + hp! .
Ejercicio. Obtener los intervalos de estabilidad absoluta para RK explcito de orden igual al
del numero de niveles y ver como se obtiene la regi
on de estabilidad de un RK.

4.3.

Introducci
on al estudio del orden de los m
etodos RK

Para estudiar el orden hay que deteminar el desarrollo de Taylor de la funcion (x, h), que
en el caso de los metodos Runge-Kutta (RK) adopta la siguiente expresi
on:
h (x, h) = y(x, h) y(x) hf (y(x), x, h) = y(x + h) y(x) h

s
X

bi ki ,

i=1

siendo
ki = f (x + ci h, yi ),

yi = yn + h

s
X

aij kj ,

j=1

ci =

s
X

aij ,

i =1s

j=1

para un RK de s niveles y un PVI dado por un sistema y = f (x, y).


Recordemos que si consideramos metodos lineales, las derivadas de la funcion f se pueden

expresar en terminos de las derivadas de y(x). Esto


no es posible para los metodos RK, en
los que las derivadas de f se obtienen a partir de las derivadas de f (x, y). Por ello nos vemos
forzados a expresar tambien las derivadas de y(x) en terminos de las derivadas de f , complicando
considerablemente el estudio de las condiciones de orden.

4.3.1.

Orden de un RK explcito de 3 niveles para un PVI escalar

Consideremos el caso general de un PVI escalar, cuya EDO es y = f (x, y), con y(x) R, y
un metodo RK explcito de 3 niveles:
yn+1 = yn + h(b1 k1 + b2 k2 + b3 k3 )
k1 = f (xn , yn )
k2 = f (xn + hc2 , yn + hc2 k1 )
k3 = f (xn + hc3 , yn + h(c3 a32 )k1 + ha32 k2 )

AL ESTUDIO DEL ORDEN DE LOS METODOS

4.3. INTRODUCCION
RK

41

Desarrollamos en serie de Taylor hasta el termino h4 de:


h (x, h) = y(x, h) y(x) h(b1 k1 + b2 k2 + b3 k3 )
Para las derivadas de f se adopta la siguiente notaci
on (todas se evaluan en el mismo punto
(x, y(x)) y por ello no se especifica):
f : = f (x, y),

fx : =

f
,
x

fxy : =

2f
,
xy

fxx : =

2f
,
x2

etc.

El desarrollo de Taylor de y(x + h) (en torno a x) hasta O(h4 ) es:


1
1
y(x + h) = y(x) + hy (1) (x) + h2 y (2) (x) + h3 y (3) (x) + O(h4 )
2
6
donde y (i) es la derivada de orden i respecto a la variable x. Usando la regla de la cadena se
obtinenen las siguientes expresiones:
y (1) (x) = y = f
y (2) (x) = fx + fy y = fx + fy f F
y (3) (x) = fxx + 2f fxy + f 2 fyy + fy (fx + f fy ) G + fy F
Por otro lado, el desarrollo de f = b1 k1 + b2 k2 + b3 k3 hasta orden h3 requiere hacer el correspondiente desarrollo de k2 y k3 entorno a x (observad que k1 = f no requiere desarrollo). Si
reunimos los obtenidos para k2 y k3 y el calculado para y(x + h) nos queda:

1
b2 c2 b3 c3 F
h (x, h) = h(1 b1 b2 b3 )f + h
2




1
1 b2 c22 + b3 c23
+
b3 c2 a32 fy F +

G + O(h4 )
6
6
2
2

Se deducen los siguientes resultados sobre el orden de un RK explcito de 3 niveles:


b1 + b2 + b3 = 1
1
b2 c2 + b3 c3 =
2
1
b2 c22 + b3 c23 =
3
1
b3 c2 a32 =
6

orden 1 al menos,

y la anterior

y las anteriores

orden 2 al menos,

orden 3 al menos.

De hecho, examinando el termino de orden h4 se puede comprobar que si se cumplen las condiciones anteriores, el orden es exactamente 3 y no puede ser mayor.

4.3.2.

Algunos resultados generales

Para un metodo RK explcito de orden p y s niveles se puede demostrar que p s. Solo


existen metodos RK explcitos tales que p = s cuando s 4.
Para construir un RK explcito de orden 5 se requieren 6 niveles como mnimo. Si es de
orden 7 se requieren 9 niveles y si es de orden 8 se requieren 11 niveles como mnimo.


CAPITULO 4. METODOS
RUNGE-KUTTA

42

El m
aximo orden que puede alcanzarse con un metodo RK de s niveles es igual a 2s cuando
el metodo es implcito.
Existen metdodos RK que se comportan con orden diferente seg
un se apliquen a un problema escalar (aut
onomo o no) o a un sistema de EDOs. Considerar los siguientes enunciados
aplicados a un metodo RK cualquiera:
Enunciado A: El metodo tiene orden p para y = f (y), y(x) Rm , m > 1 (sistema de
EDOs, caso general).
Enunciado B: El metodo tiene orden p para y = f (y), y(x) R (problema escalar, caso
general).
Enunciado C: El metodo tiene orden p para y = f (y), y(x) R (problema escalar
aut
onomo).
Se conocen los siguientes resultados:
si 1 p 3,

4.4.

A B C,

si p = 4,

A B C,

pero C ; B,

si p 5,

A B C,

pero C ; B

y B ; A.

Herramientas para el estudio del orden de los m


etodos RK

Para estudiar a fondo el orden de los metodos RK en su caso m


as general (es decir, aplicados
a sistemas de ecuaciones diferenciales), tenemos que introducir nuevas herramientas que nos
ayudar
an a comprender el problema. Estas herramientas son:
la M-esima derivada de Frechet,
los diferenciales elementales, y
los arboles con raz.
Es en esta secci
on donde las introduciremos y estudiaremos con cierto nivel de detalle.
Sin perdida de generalidad, un sistema de EDOs siempre puede suponerse aut
onomo. As pues,
consideramos el caso general de un PVI
y = f (y),

y, f Rm , m > 1

y(a) = ,

Las primeras derivadas de y(x) en el caso escalar aut


onomo son:
y = f,

y (2) = fy f,

y (3) = fyy f 2 + fy2 f.

Para ver que estas expresiones pueden generalizarse de forma inmediata al caso de un sistema de
dimension m > 1 es suficiente considerar las mismas derivadas cuando m = 2, es decir, cuando
y = [1 y, 2 y]T ,
Introduciendo la notaci
on

componente f
i

fj :=

f = [1 f, 2 f ]T

derivada :

(if )
,
(jy)

fjk :=

2 (if )
,
(jy)(ky)

etc


4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK

43

a partir de diferenciar y = f componente a componente se obtiene:



 1 (2)  1
f1 1f2
y
(2)
f = (Df )f
y = 2 (2) = 2
f1 2f2
y
y tras cierta manipulacion se puede escribir
 1 (3)   T 2 1

f D ( f )f
y
(3)
y = 2 (3) =
+ (Df )2 f
f T D 2 (2f )f
y
siendo D 2 (if ) la matriz de derivadas parciales de segundo orden de la funcion if .

4.4.1.

Caso y = f (y)

En este caso consideramos el problema y = f (y) con y : R R. Buscamos los valores de F


y G.
Fx = fy f Gx = fyy f 2
y observamos que no se cumple fy Fx 6= G. En el caso y = f (x, y(x)) cuando calculamos y (4) (x)
nos aparecen dos terminos:
(fxx + f fyy )(fx + f fy ) (condici
on (1) de orden)

(4.1)

fy (fxx + 2f fxy + f 2 fyy ) (condici


o (2) de orden)

(4.2)

Notemos que si f no depende de x, entonces los terminos (4.1) y (4.2) se convierten en:
(4.1)

fy fyy f 2

(4.2)

fy fyy f 2

Notemos que los dos terminos quedan exactamente iguales. Por ese motivo, las dos condiciones
colapsan en una sola condici
on que denominaremos ((4.1) + (4.2)).

4.4.2.

La M-
esima derivada de Frechet

Sean z, f (z) Rm . La derivada M -esima de Frechet, que se denota f (M ) (z), es un operador


lineal cuyo dominio es el producto cartesiano Rm Rm (M veces) y que viene dado por la
expresi
on siguiente:

m
m
m
X
X
X
i

fj1 ...jM j1K1 jMKM ei

f (M ) (z)(K1 . . . KM ) =
i=1

j1 =1

jM =1

donde

ei , i = 1 m son los vectores de la base can


onica de Rm . De esta forma, la M -esima
derivada de Frechet evaluada en el argumento z constituye un vector de m componentes.
La expresi
on de la M -esima derivada de Frechet involucra todas las posibles derivadas
parciales de orden M de la funcion f respecto a las componentes de su argumento z:
i

fj1jM =

M (if (z))
(j1 z) (jM z)

Ki , i = 1 . . . M son los operandos de la derivada de Frechet. Hay M operandos si la derivada es de orden M. Cada uno de ellos representa una funcion vectorial de m componentes,
Ki = [iKi . . . mKi ]T . En particular, los operandos pueden ser a su vez derivadas de Frechet.


CAPITULO 4. METODOS
RUNGE-KUTTA

44

4.4.3.

Derivadas de Frechet de primer y segundo orden

A modo de ejemplo, consideremos el caso bidimensional, m = 2. La derivada de Frechet de


orden 1 se obtiene tomando M = 1 en la expresi
on general

 1 1

2
2
1f 2K
X
X
f
K
+
1
1
2
1
(1)
i
j
1

f (z)(K1 ) =
fji K1 ei = 2 1
f1 K1 + 2f2 2K1
i=1

j1 =1

Reemplazando el argumento z por y = y(x) y el operando K1 por f (y), siendo (para el caso
m = 2) y, f (y) R2 la expresi
on anterior adopta la forma:
 1 1

f f + 1f2 2f
f (1) (y)(f (y)) = 2 1 1
= D(f )f = y (2)
f1 f + 2f2 2f
Para simplificar la notaci
on se suprime el argumento y, de forma que la derivada segunda de y
se puede expresar como una derivada de Frechet de primer orden:
y (2) = f (1) (f ).

Tambien se puede expresar y (3) utilizando derivadas de Frechet hasta orden 2 como m
aximo. Si
de nuevo consideramos m = 2 y adoptamos M = 2 en la formula general, se obtiene:
 1 1 1

f11 K1 K2 + 1f12 1K1 2K2 + 1f21 2K1 1K2 + 1f22 2K1 2K2
(2)
f (z)(K1 , K2 ) = 2 1 1
f11 K1 K2 + 2f12 1K1 2K2 + 2f21 2K1 1K2 + 2f22 2K1 2K2
Reemplazamos z por y, tomando K1 = K2 = f y usando if12 = if21 se obtiene:
 1
  T 2 1

f (1f )2 + 21f12 (1f )(2f ) + 1f22 (2f )2
f D ( f )f
f (2) (f, f ) := f (2) (y)(f (y), f (y)) = 2 11 1 1 2
=
f11 ( f1 ) + 22f12 (1f )(2f ) + 2f22 (2f )2
f T D 2 (2f )f
que es el primer termino de la derivada tercera de y que se obtuvo al principio de la secci
on
2. El segundo termino de y (3) se puede comprobar que es tambien una derivada de Frechet, en
este caso de orden 1. Concretamente, si se toma K1 = f (1) (f ) como operando de la derivada de
Frechet de orden 1, se deduce:
f (1) (f (1) (f )) = (Df )2 f
Podemos escribir entonces para la derivada tercera:
y (3) = f (2) (f, f ) + f (1) (f (1) (f )),
que es posible generalizar para cualquier dimension m, y en particular, para el caso escalar
m = 1 se recupera la expresi
on habitual de la derivada tercera.
Comentario 4.7 (sobre la derivaci
on de una derivada de Frechet). Al derivar respecto a x,
y (x) = f (x), una derivada de Frechet de orden M con argumento y = y(x) cuyos M operandos
son derivadas de Frechet de orden menor a M , se obtiene una combinaci
on lineal de derivadas
de Frechet de orden M + 1 con argumentos y y operandos f o derivadas de Frechet de orden
M.
d i
[ fj1 ...jM , j1 K1 . . .jM KM ]
dx
di
fj ...j = f i fj1...jM ,jM +1
dx 1 M


4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK

4.4.4.

45

Diferenciales elementales

Los resultados de la secci


on anterior se generalizan del siguiente modo: y (p) se puede escribir
(en cualquier dimension) como una combinaci
on lineal de derivadas de Frechet de orden menor
o igual a p 1. Cada uno de los termino de dicha combinaci
on lineal es lo que se conoce como
un diferencial elemental de f .
Los diferenciales elementales son por tanto las unidades basicas para representar las derivadas
de cualquier orden de y, y finalmente, poder estudiar el orden de los metodos RK.
Definici
on 4.8. Los diferenciales elementales de la funcion f Rm son las funciones Fs : Rm
m
R determinadas recursivamente del modo siguiente:
(I) f es el u
nico diferencial elemental de orden 1.
(II) Si Fs , s = 1 M , son diferenciales elementales de orden rs , respectivamente, entonces la
derivada de Frechet de orden M
f (M ) (F1 . . . FM )
P
es un diferencial elemental de orden 1 + M
s=1 rs . No es necesario que los Fs sean todos
distintos, ni tampoco sus
ordenes. La notaci
on que adoptaremos para los diferenciales
elementales es:
{F1 F2 . . . FM } := f (M ) (F1 . . . FM )
donde se sobreentiende que las derivadas involucradas son las de f (y) respecto a las componentes de y Rm .
De acuerdo con la definicion anterior, para construir los diferenciales elementales de orden
p > 1, se tienen que utilizar derivadas de Frechet de orden M < p y los M operandos han
de ser diferenciales elementales de orden estrictamente inferior a p pero cuyos ordenes sumen
p 1. De la construccion de los diferenciales elementales hasta orden 4 obtenemos los siguientes
resultados:
Orden 1. Existe un u
nico diferencial elemental que por definicion es f .
Orden 2. Solo se puede tomar la derivada de Frechet de primer orden, M = 1, de un diferencial
elemental de orden 1. Por tanto, existe un u
nico diferencial de orden 2, que es f (1) (f ) = {f }.
Orden 3 Hay dos opciones: o bien tomar M = 2 y dos difereciales elementales de orden 1 (que
por tanto deben ser f ), o bien tomar M = 1 y un diferencial elemental de orden 2 (que
deber
a ser {f }.
Con la primera opci
on obtenemos {f, f } = f (2) (f, f ), que denotamos como {f 2 }.
Con la segunda opci
on se obtiene {{f }} = f (1) (f (1) (f )), que denotamos como {2 f }2 .
Orden 4. Existen 4 diferenciales elementales:
M = 3. El u
nico operando posible es f y se obtiene un u
nico diferencial elemental, {f 3 }.
M = 2. En este caso solo pueden usarse los operandos f y {f }, y el u
nico diferencial
elemental que se obtiene es {f {f }} = {{f }f }.


CAPITULO 4. METODOS
RUNGE-KUTTA

46

M = 1. Cada uno de los diferenciales elementales de orden 3 se puede usar como argumento, de modo que hay dos posibles resultados: {2 f 2 }2 y {3 f }3 .
De acuerdo con los resultados anteriores se comprueba que podemos escribir las primeras derivadas de y tal como indica la siguiente tabla:
i
1
2
3
4

y (i)
f
{f }
{f 2 } + {2 f }2
{f 3 } + 3{f {f }} + {2 f 2 }3 + {3 f }3

Observacion 4.9. f diferencial elemental de orden 1


2 f (1) (f (1) (f )) diferencial elemental de orden 3.

f (1) (f ) diferencial elemental de orden

Comentario 4.10. Para el caso de orden 4 y M = 1, entonces:


f (1) (f (2) (f, f )) {{f, f }} {2 f 2 }2
{3 f }3 f (1) (f (1) (f (1) (f )))
En el caso escalar y = f (y) tenemos un termino de y (1) (x), fy fy fy f .
En resumen, las derivadas de y se construyen utilizando los diferenciales elementales, pero
adem
as es necesario conocer:
1. Los coeficientes numericos de los diferenciales elementales cuya combinaci
on lineal permite
calcular con exactitud la expresi
on de las derivadas de y.
2. El n
umero total de diferenciales elementales que forman la combinaci
on lineal que se
identifica con la derivada de y (p) .
Estas dos cuestiones se pueden resolver utilizando resultados de combinatoria y teora de grafos
que se describen en la siguiente secci
on.

4.4.5.

Arboles
con raz

El objetivo de esta secci


on es introducir las herramientas necesarias para representar los
diferenciales elementales y las derivadas y (p) , ya que nos permitira formular las condiciones de
orden de los metodos RK. Comenzaremos con algunas nociones generales de teora de grafos.
Definici
on 4.11.
1. Sea V un conjunto finito. El par (V, A) se denomina grafo cuando A P2 (V ), siendo
P2 (V ) el conjunto de subconjuntos de cardinal 2 de V . Cuando A V V entonces el
par (V, A) se denomina grafo dirigido o digrafo. En ambos casos los elementos de V se
denominan vertices y los de A aristas.
2. Si (V, A) es un digrafo, su grafo subyacente es el grafo sin dirigir. Formalmente, ser
a el
tal que V = V y 2
par (V , A)
u, v V,
2

{u, v} A (u, v) A o (v, u) A.

Notemos que en el caso de grafos dirigidos, la arista la escribiremos como una pareja ordenada de vertices, es
decir, (a,b). En cambio, en los grafos no dirigidos, la arista es una pareja no ordenada. Por tanto, la escribiremos
como {a, b}.


4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK

47

3. Sea un grafo (V, A). Una sucesion de vertices diferentes v1 , . . . , vk con k 2, tal que
{vi , vi+1 } A para 1 i k 1 se conoce como un camino entre v1 y vk . Se dice que el
grafo (V, A) es conexo si entre cada par de vertices distintos de V existe un camino.
Definici
on 4.12. Un digrafo (V, E) es un
arbol con raz cuando cumple las siguientes condiciones:
(1) Su grafo subyacente es conexo.
(2) Los pares ordenados de E tienen componentes distintas: (a, b) E a 6= b.
(3) Existe un u
nico elemento de V , denominado raz, que nunca aparece en la segunda componente de los pares ordenados de E.
(4) Excepto la raz, todos los elementos de V aparecen exactamente una vez entre las segundas
componentes de los pares ordenados de E.
Definici
on 4.13.
Un grafo (V, A) es acclico si cumple las condiciones 3 y 4 anteriores. No posee caminos
cerrados o ciclos.
El n
umero de vertices de un
arbol con raz (y de un grafo en general) se denomina orden.
Dado el par (V, E) el orden del
arbol con raz es el cardinal del conjunto de vertices de V .
Comentario 4.14 (Representaci
on gr
afica). Los vertices se representan como puntos y las
aristas como segmentos de recta uniendo los vertices que las definen. Dada una arista (a, b) el
vertice a se representa por debajo del b: las aristas apuntan hacia arriba. La raz es el vertice
que figura en la parte inferior del diagrama.
Definici
on 4.15. Si (V, E) y (V , E ) son dos arboles con raz, se dice que son isomorfos cuando
existe una aplicaci
on biyectiva : V V tal queda
x, y V,

(x, y) E ((x), (y)) E

Todos los
arboles con raz isomorfos se representan con el mismo diagrama sin etiquetar
los vertices. En realidad, cuando no se usan etiquetas para los vertices el diagrama es una
representaci
on de toda una clase de equivalencia de arboles con raz definida por la relaci
on de
isomorfa.
Comentario 4.16. A menudo hablaremos de arbol para referirnos a un arbol con raz (a
pesar de que en la teora de grafos son dos objetos distintos). Ademas, consideraremos iguales
todos los arboles isomorfos entre s.
Es posible construir los distintos
arboles de un orden fijado de forma recursiva utilizando la
siguiente notaci
on:
Para orden 1, hay un u
nico
arbol con raz de un vertice (arbol trivial), que denotamos .
Dado un
arbol t, consideramos todos los vertices x de t tales que (v, x) es una arista de
t, siendo v la raz de t. En tal caso se dice que x es un hijo de la raz. Si suprimimos v
del conjunto de vertices de t, y todas las aristas que tengan como segunda componente a


CAPITULO 4. METODOS
RUNGE-KUTTA

48

vertices hijos de la raz, lo que queda es un conjunto de aroles t1 , t2 . . . tm (no necesariamente distintos), que no est
an conectados entre s por ning
un camino, y cuyas races son
los vertices hijos de v en el
arbol t. Utilizaremos la notaci
on
t = [t1 , t2 . . . tm ]
para representar el
arbol t. Notemos que el orden de los ti en la representacion anterior es
irrelevante, de modo que si hay arboles ti repetidos, se agrupan y se escribe un exponente
para indicar el n
umero de repeticiones. Por ejemplo:
[t1 t3 t2 t1 t2 t2 ] := [t21 t32 t3 ]
Mediante la notaci
on anterior se obtienen los siguientes arboles con raz distintos de cualquier
orden:
Orden 1. .
Orden 2. [ ].
Orden 3. [ 2 ],

[[ ]] := [2 ]2 .

Orden 4. [ 3 ],

[ [ ]],

[[ 2 ]] := [2 2 ]2 ,

[3 ]3 .

Notemos que el n
umero total de
arboles de un orden dado coincide con el n
umero de diferenciales
elementales del mismo orden que se obtuvo en la secci
on anterior. Observemos tambien que si
r(ti ) son los
ordenes de los
arboles ti , i = 1 . . . m, entonces el orden de t = [t1 . . . tm ] es
r(t) = 1 +

m
X

r(ti ),

i=1

lo mismo que sucede con la construccion de los diferenciales elementales que se describio en la
secci
on anterior. El siguiente teorema generaliza estas dos observaciones:
Teorema 20. Para p 1, el n
umero de
arboles con raz distintos de orden p coincide con el
n
umero de diferenciales elementales de orden p de f . Existe una aplicaci
on biyectiva F entre
el conjunto de
arboles distintos T y el conjunto de los distintos diferenciales elementales de f .
Esta aplicaci
on se define del siguiente modo:
1. F ( ) = f . Al
arbol trivial le corresponde el u
nico diferencial elemental de orden 1, f .
2. Si a los
arboles con raz ts de orden r(ts ), s = 1 M , les corresponden los diferenciales
elementales
F (ts ) de orden rs , s = 1 . . . M, entonces al
arbol con ra
z [t1 . . . tM ] de orden
P
P
M
r(t
)
le
corresponde
el
diferencial
elemental
de
orden
1
+
1+ M
s
s=1 rs .
s=1
F ([t1 . . . tM ]) = {F (t1 ) . . . F (tM )},

Ejemplo 4.17. Consideramos los


arboles , [ ], [ ], [ 2 ] y construimos el arbol:
t = [ [ ]2 [ 2 ]]
El orden, por la proposici
on enunciada anteriormente, es 1+(3+2+2+1) = 9. La representacio del
mismo arbol en notaci
on de derivada de Frechet es {f, {f 2 }, {f, f }}. En el caso escalar:
F (t) = fyyyy f (fy f )2 fyy f
que es uno de los terminos de f 9) (ya que tiene orden 9). En este caso, F (t) es uno de los terminos
de la derivada de orden 9, los otros se construirian a base de hacer todos los casos posibles de
arboles de orden 9.


4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK

4.4.6.

49

Funciones definidas sobre


arboles con raz

Volviendo a las dos cuestiones que quedaron planteadas al final de la secci


on 4.3, el teorema
anterior ha establecido que el n
umero de diferenciales elementales de orden n coincide con el
n
umero de
arboles con raz distintos de orden n. El siguiente teorema resuelve como contar
ambas cantidades:
Teorema 21. Sean an el n
umero de
arboles con raz distintos de orden n. Es decir, el n
umero de
diferentes clases de equivalencia bajo la relaci
on de isomorfa de
arboles con raz de n vertices.
Entonces, las cantidades a1 , a2 . . . satisfacen la siguiente identidad termino a termino:
a1 + a2 x + a3 x2 + = (1 x)a1 (1 x2 )a2 (1 x3 )a3 .
Por identidad termino a termino se entiende que tras sustituir cada factor del miembro
derecho de la igualdad por su serie de Taylor, el coeficiente que resulte para la potencia xk debe
coincidir con ak+1 .
Cabe recalcar que el coeficiente de la potencia en el miembro derecho de la igualdad solo depende
de a1 . . . ak . Por tanto, la identidad anterior establece una relaci
on recurrente para ak+1 , el cual,
para k > 0, se obtiene de los valores anteriores ai , i = 1 k.
Aplicando el teorema anterior se obtienen los valores ya conocidos a1 = 1, a2 = 1, a3 =
2, a4 = 4. El n
umero de diferenciales elementales crece significativamente con el orden, por
ejemplo, a5 = 9, y a8 = 115. Esto da una idea de lo complicado que puede llegar a ser dise
nar
metodos RK de orden elevado.
Por si fuera poco, todava necesitamos saber los coeficientes numericos de las combinaciones
de difereciales elementales que nos permiten obtener y (p) . Para resolver esta cuesti
on se introducen las siguientes funciones definidas sobre un arbol con raz y que pueden calcularse de forma
recursiva.
Definici
on 4.18. La densidad de un
arbol t, (t), es el producto del orden de todos los subarboles de t:
Y
rv = (t)
vV

tal que:
Donde entendemos que el subarbol v del arbol t es un la pareja (V , E)
V V,

E.
E

es un
(V , E)
arbol con raz.

v V V es la raz de (V , E).
El orden del subarbol v lo hemos denotado por rv .
Definici
on 4.19. Consideremos t = (V, E). Diremos que : V V es un automorfismo de t
si cumple
v, v V,

(v, v ) E

[(v), (v )] E

Definici
on 4.20. Decimos que el grupo de simetras de t es:
A(t) = { : V V | automorfismo de t}
El orden de A(t), (t), se conoce como simetra de t.


CAPITULO 4. METODOS
RUNGE-KUTTA

50

mk
1 m2
arboles con
Definici
on 4.21. Sea un
arbol con raz t = [tm
1 t2 . . . tk ] donde t1 , t2 . . . tk son
raz distintos 2 a 2. Entonces el orden r(t), la simetra (t), y la densidad (t) del arbol t se
definen de forma recursiva de acuerdo con las siguientes relaciones:

r(t) = 1 +

k
X

mi r(ti ),

i=1

(t) =

k
Y

mi ! ((ti ))mi ,

i=1

(t) = r(t)

k
Y

((ti ))mi

i=1

Y para el caso del


arbol trivial t = ,
r( ) = ( ) = ( ) = 1.
Finalmente, se define la cantidad (t) para un arbol t cualquiera como
(t) =

r(t)!
(t)(t)

Comentario 4.22. Observemos que (t) es el n


umero de formas que tenemos de etiquetar los
vertices de t con {1 . . . r(t)} de forma que:
1. A cada vertice le asigno una y solo una etiqueta.
2. Etiquetados equivalentes por automorfa cuentan como uno solo.
3. Si (i, j) es una arista tras etiquetar, entonces i < j.
Estas definiciones nos permiten enunciar el siguiente teorema:
Teorema 22. Sea y = y(x), y = f (y), y f : R R. Entonces,
X
y (q) =
(t)F (t)
r(t)=q

donde F (t) es la aplicaci


on biyectiva entre
arboles con raz y diferenciales elementales que se
introdujo anteriormente.
La siguiente table resume toda la informaci
on que se ha ido acumulando hasta ahora y que
permite obtenter las derivadas de y(x) hasta orden 4.
Con estos resultados se puede obtener el desarrollo en serie de Taylor de y(x+h). No obstante,
para obtener las condiciones de orden de un metodo RK se necesita el desarrollo de la funci
on
(x, h) al completo. Por tanto, hay que obtener el desarrollo de Taylor de la parte restante de
(x, h) que no se ha considerado hasta ahora. Esta parte es:

s
s
k
X
X
X
aij kj ,
aij = ci , i = 1 . . . s
bi ki , ki = f y(x) + h
y(h) := y(x) + h
i=1

j=1

j=1


4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK
Orden
1
2
3
3
4
4
4
4

Arbol (t)

[ ]
[ 2 ]
[2 ]2
[ 3 ]
[ [ ]]
[2 2 ]2
[2 ]2

F (t)
f
{f }
{f 2 }
{2 f }2
{f 3 }
{f {f }}
{2 f 2 }2
{3 f }3

r(t)
1
2
3
3
4
4
4
4

(t)
1
1
2
1
6
1
2
1

(t)
1
2
3
6
4
8
12
24

51

(t)
1
1
1
1
1
3
1
1

Ahora bien, el desarrollo de Taylor de y(x) se obtiene a partir del de los diferentes ki , que
coinciden con la funci
on f evaluada en los distintos puntos. Puesto que y = f en realidad
este desarrollo se puede expresar tambien en terminos de los diferenciales elementales de f . Por
tanto, el siguiente paso es determinar los coeficientes numericos de la combinaci
on de diferenciales
elementales que permiten obtener las derivadas de y(h). Estos coeficientes en principio no tienen
por que coincidir con los que ya se han obtenido al desarrollar directamente y(x). Comenzamos
por expresar formalmente el desarrollo de Taylor de y(h) entorno a x, (o equivalentemente
entorno a h = 0) del siguiente modo:


2


d
1
d
2

y

(h)
+ h
+
y(h) = y(0) + h y(h)

dh
2 dh2
h=0
h=0
A continuaci
on, adoptando la notaci
on

as+1,i := bi ,

i = 1...s

se introducen las funciones i , i = 1 . . . s + 1 cuyo dominio es el conjunto T de los distintos


(bajo isomorfismos)
arboles con raz, y cuyo recorrido es el conjunto de los reales. Es decir, son
aplicaciones i : T R definidas de forma recursiva de acuerdo con las siguientes reglas:

i ( ) =

s
X

aij = ci ,

j=1

si t1 , . . . , tM T,

([t1 . . . tM ]) =

s
X

aij j (t1 ) j (tM ).

j=1

Si denotamos (t) := s+1 (t), t T , podemos enunciar el siguiente resultado:


Teorema 23. Para un metodo RK de s niveles cuyas ecuaciones se han descrito anteriormente
y que se aplica al caso general de un sistema y = f (y) con y, f Rm , la expresi
on de las
derivadas de orden q 1 de y(h) viene dada por

X

dq
y(h)
=
(t)(t)(t)F (t), t T,
q
dh
h=0
r(t)=q

donde F (t) son diferenciales elementales de f (y) que est


an evaluados en y(x).


CAPITULO 4. METODOS
RUNGE-KUTTA

52

4.5.
4.5.1.

Orden de los m
etodos Runge-Kutta
Expresi
on de m
etodos RK

h (x, h) = y(x + h) y(h) =


p
X
hq
q=1

q!

Para un metodo de orden p se cumple:

p+1
X
h

h (x, h) = O(h(p+1) ) =
(p + 1)!

(q)

r(t)=p+1

donde el PELD es:

P ELDn+1 =

hp+1

(p + 1)!



dq
(x) q y(h)
+ O(hp+1 )
dh
h=0

(t)[1 (t)(t)]F (t) + O(hp+2 )

r(t)=p+1

(t)[1 (t)(t)]F (t)

y F (t) son las derivadas de Frechet de f (y, x(t)). La expresi


on anterior la hemos obtenido a
partir de:
y

(p+1)

(x) =



dp+1
y(h)
=
p+1
dq
h=0

(t)F (t);

r(t)=p+1

(t)(t)(t)F (t)

r(t)=p+1

y F es una biyecci
on entre derivadas de Frechet y diferenciales elementales.
Ejemplo 4.23. Determinar el PELD para RK explcito de 2 niveles y orden m
aximo.
0 0
c2 c2 0
b1 b2
donde se cumplen las condiciones:
b1 + b2 = 1
1
b2 c2 =
2
Los dos arboles que consideramos son: t1 = [[ ]], t2 = [ 2 ].
Para ellos se tiene:
F (t1 ) = {{f }} = f (1) (f (1) (f )) fy2 f (dimension 1)
F (t2 ) = {f 2 } = f (2) (f, f ) fyy f 2 (dimension 1)
Ademas, (t1 ) = 6, (t2 ) = 3 y (t1 ) = (t2 ) = 1.
Por otro lado, para los metodos sabemos que:
(t1 ) = bT Ac (t2 ) = bT c
Si imponemos que sea de dos niveles y explcito, entonces:
(t1 ) = 0,
Por tanto el PELD = (1 3b2 c22 )f (2) (f, f )

(t2 ) = b2 c22


4.5. ORDEN DE LOS METODOS
RUNGE-KUTTA

53

Teorema 24. Si un metodo RK es de orden p, entonces bT cq1 = 1q , q = 1 p.


Demostraci
on. Consideremos el
arbol con raz de orden q: [ q1 ], que existe q 1. Para
q = 1 tenemos el
arbol trivial.
i ([ q1 ]) =

X
j

i ([

q1

]) =

aij [j ( )]q1

aij cjq1

([

q1

]=

bj cjq1

La condici
on de orden q ser
a:
([

p+1

]) =

1
([ q1 ])

s
X

bj cjq1 =

j=1

1
q

Teorema 25. Un RK explcito de s niveles tiene orden s.


Demostraci
on. Sea un RK de orden p y t = [p1 ]p1 .
(t) = p (p 1) 2 1 = p!
s
X
bi i ([p2 ]p2 ) =
(t) =
=

i=1
s
X
i=1

bi

s
X

aij1 j1 ([p3 ]p3 ) =

j=1

bi aij1 aj1 j2 j2 ([p4 ]p4 ) =

i,j1 ,j2

bi aij1 aj1 j2 ajp3 jp2 jp2 ( )

i,j1 ,j2 ...jp2

donde jp2 = cjp2 .


Ademas, sabemos que para un metodo RK explcito aij = 0 si j i. Se cumple tambien
(t) = 0 excepto si existe una secuencia de enteros i, j1 , j2 . . . jp2 tal que i > j1 > j2 > >
jp2 > 1 ().
Utilizando () nos queda jp2 > 1 porque si jp1 = 1 cjp2 = c1 = 0.
De () se deduce que i p, y como i s entonces p s. Por tanto (t) 6= 0 si p s. Si
1
, con lo que llegamos a una contradicci
on.
p > s (t) = 0 6= (t)
Teorema 26. Un metodo RK explcito de s niveles tienen orden p < s si s > 4.

4.5.2.

Condici
on suma-fila

Al principio del captulo hemos visto que habitualmente exigamos la condici


on suma-fila, es
decir, que para un metodo de la famlia RK de s niveles se cumpliese que:
s
X
j=1

aij = ci ,

i=1s


CAPITULO 4. METODOS
RUNGE-KUTTA

54

En esta secci
on profundizaremos m
as en la justificaci
on de este hecho: estudiaremos dos ejemplos,
uno que cumple la condici
on suma-fila, y otro que no la cumple.
Llegaremos a la conclusion de que en general, la condici
on suma-fila permite alcanzar orden

mayor que 1 para el PCI y = f (x, y(x)).


Ejemplo 4.24 (Cumpliendo la condici
on suma-fila). Sea el metodo definido por:

k1 = f (xn , yn + h2 k1 )
k2 = f (xn + h, yn + h2 k1 )

De lo que se deriva que:


y(x + h) y(x) 1
(x, h) =
(k1 + k2 )
h
2
2
1
k1 2
h
h2
1
h
h + O(h3 ) = f + fy f + (fy2 f + fyy f ) + O(h3 )
k1 = f + fy k1 + fyy
2
2
2
2
4
2
h
h
k2 = f + fx h + fy k1 + O(h2 ) = f + fx h + fy f + O(h2 )
2
2
Por lo que, nos queda:
1
h
h
h
(k1 + k2 ) = f + fx + fy f + O(h2 ) = y(x) + y (2) (x) + O(h2 )
2
2
2
2
2
Es decir, tenemos (x, h) = O(h ). Desarrollando un orden m
as, obtenemos la expresi
on de
(x, h):
h2
1
h2
h2 (3)
y (x) (fy2 f + fyy f ) (fxx + fxx f ) + O(h3 )
(x, h) =
6
4
2
4
Por lo que, sabiendo que la tercera derivada tiene la expresi
on:
y (3) (x) = fy (fx + fy f ) + (fxx + 2fxy f + fyy f 2 )
Podemos concluir que (x, y) tiene un coeficiente de orden 3 no nulo, por lo que es orden 2
exacto.
Para generalizar este
RK:

ki

ki

k
i

ejemplo, podemos considerar las definiciones ya conocidas del metodo


P
= f (x + ci h, y(x) + h sj=1 aij kj )
P
= f (x, y(x)) + fx (ci h) + fy (h sj=1 aij f ) + O(h3 )
P
= f + h(ci fx + ( j aij )fy f ) + O(h2 )

Ejemplo 4.25 (Sin cumplir la condici


on suma-fila). Consideremos un metodo RK de un nivel,
en general, sin cumplir la condici
on suma fila.


1
1
k1 = f (x + ch, y + chk1 )
(x, h) = (y (x) bf ) + h(fx ( b
c) + fy f ( bc)) + O(h2 )
yn+1 = yn + hbk1
2
2
Notemos que para alcanzar orden mayor que 1 se tienen que cumplir las dos condiciones siguientes:
1
1
b
c = 0,
bc = 0.
(4.3)
2
2
Por ser b = 1 por motivos de convergencia, enconces la condici
on a cumplir es que c 6= c para que
el orden sea mayor que 1. La conclusion del ejercicio es que la condici
on suma fila es necesaria
para obtener ordenes mayor que 1 con los metodo RK, y a su vez facilita la formulaci
on de las
condiciones de orden.


4.5. ORDEN DE LOS METODOS
RUNGE-KUTTA

4.5.3.

55

Formulaci
on de las condiciones de orden de los m
etodos RK

Reuniendo los resultados anteriores podemos regresar a la expresi


on de la funcion (x, h) de
un metodo RK:
h (x, h) = y(x + h) y(x) hf (y(x), x, h) = y(x + h) y(h)
Para un metodo que sea de orden p al menos debe cumplirse
(x, h) = O(hp )
o lo que es equivalente,
y(x + h) y(h) = O(hp+1 ).
Por un lado se tiene
y(x + h) = y(x) + hy (x) +

h2 (2)
y (x) + . . .
2

siendo
y (q) =

(t)F (t),

tT

r(t)=q

con F (t) evaluado en y(x). Por otro lado se tiene:






1 2 d2
d


y

(h)
+ h
+ ...
y(h) = y(0) + h y(h)

dh
2 dh2
h=0
h=0

siendo y(0) = y(x) y


X

dq

y

(h)
=
(t)(t)(t)F (t),

dhq
h=0

t T,

r(t)=q

con F (t) evaluado en y(x). As pues, es inmediato enunciar el siguiente resultado.


Teorema 27 (Condiciones de orden de los metodos RK). Un metodo RK tiene orden p al menos
si:
Para todo
arbol con raz t T tal que r(t) p se verifica la igualdad (t) = 1/(t).
Si adem
as existe t T de orden p + 1 tal que (t) 6= 1/(t), entonces el metodo RK es de
orden p exactamente.
Por u
ltimo, cabe destacar algunos comentarios:
En la forma matricial, los coeficientes del metodo RK se agrupan de la forma convencional
para construir la correspondiente matriz de Butcher. Las potencias del vector c representan
m T
cm = [cm
1 . . . cs ] ,

m 0, c0 = [1 . . . 1]T .

La matriz D es de dimension s y se define como D = diag{c1 . . . cs }. Las potencias de las


matrices D y A se calculan mediante el producto matricial habitual.
Para que un metodo RK sea de orden 4 al menos deben verificarse un total de 8 condiciones.
Como ya se coment
o, el n
umero de arboles con raz va creciendo con el orden. Puesto que
hay 9
arboles de orden 5, el total de condiciones que debe cumplir un RK para alcanzar
orden 5 al menos es igual a 8 + 9 = 17.


CAPITULO 4. METODOS
RUNGE-KUTTA

56

4.6.

M
etodos RK imbricados

Un metodo RK imbricado es un conjunto de dos metodos RK que comparten gran parte de


los coeficientes. Los dos metodos tendran un orden distinto. Uno de ellos (el de menor orden)
servir
a para obtener la soluci
on numerica, y el otro (el de orden m
as grande), lo utilizaremos
para aproximar el ELD cometido:

yn = yn (metodo 1)
ELD yn (metodo 1) yn (metodo 2)
M
etodo 1 (explcito o semiimplcito) de orden p.
A
bT

de s niveles. Sirve para obtener soluciones numericas.


M
etodo 2 (explcito o semiimplcito) de orden p + 1 y s niveles con s s
A
bT

donde las s primeras componentes de c forman c y las s primeras filas y columnas de A


forman A.
Es decir, las ki , i = 1 s de los metodos 1 y 2 son iguales.
(1)
yn+1

yn(1)

(2)

yn+1 = yn(2) +

s
X

i=1
s
X

bi ki
bi ki

i=1

Si restamos ambas expresiones obtenemos:


(2)
yn+1

(1)
yn+1

s
X
(bi bi )ki ,
=h

si yn(1) = yn(2)

i=1

que nos da bi = 0 si i > s. Por otro lado,


(1)

y(xn+1 ) yn+1 = h (1) (x, h) = (1) (y(xn ))hp+1 + O(hp+2 )


(2)

y(xn+1 ) yn+1 = h (2) (x, h) = (2) (y(xn ))hp+2 + O(hp+2 )


(1)

(2)

donde yn+1 , yn+1 son las soluciones numericas obtenidas con los metodos 1 y 2, suponiendo
(1)

(2)

que yn = yn = y(xn ).
En particular, se cumple que
(2)

(1)

yn+1 yn+1 = (1) (y(xn ))hp+1 + O(hp+2 )


P ELDn+1 =

(1)

p+1

(y(xn ))h

(2)
yn+1

(1)
yn+1

=h

s
X

(bi bi )ki

i=s+1

4.7. PROBLEMAS

57

Comentario 4.26. Un metodo RK imbricado (p, p + 1) nos proporciona la soluci


on numerica
mediante el metodo 1, y el P ELD lo obtenemos gracias a la diferencia de soluciones de los
metodos 1 y 2. Por ello puede resultar interesante denotar los coeficientes de ambos metodos
mediante la siguiente matriz de Butcher adaptada:
A
bT
bT
ET

4.7.

Problemas

Problema 47. De acuerdo con el enunciado, consideremos el siguiente predictor-corrector:


[0]

P :

yn+1 = yn + hfn
h
yn+1 = yn + (fn + fn+1 )
2

C:
As, para la primera iteraci
on
[1]

yn+1 = yn +
donde

i
hh
[0]
fn + f (xn + h, yn+1 )
2
fn = k1

[0]

yn+1 = yn + hk1
Observamos que el orden del predictor es 1, y el del corrector es 2. El orden del metodo predictorcorrector se corresponde con el del corrector si 2 1 = 1. Al aplicar el metodo en modo
P ECE obtenemos un metodo de tipo Runge-Kutta:
yn+1 = yn +

h
(k1 + k2 )
2

k1 = fn
k2 = f (xn + h, yn + hk1 )

La matriz de Butcher para este caso es


0
1

0
0
1
0
1/2 1/2

que es un metodo RK de orden 2.


Supongamos que aplicamos el metodo en el modo P (EC)2 E. En este caso
[2]

yn+1 = yn +

i
h
hh
[1]
fn + f (xn + h, yn+1 ) = yn + (k1 + k3 )
2
2


CAPITULO 4. METODOS
RUNGE-KUTTA

58

Los valores para las ki del RK correspondiente son:


k1 = fn
k2 = f (xn + h, yn + hk1 )
h
h
k3 = f (xn + h, yn + k1 + k2 )
2
2
La matriz de Butcher para = 2 es
0
1
0
1/2 1/2 0
1/2 0 1/2

0
1
1

Discutimos el orden seg


un la matriz de Butcher:
1 1
+ =1
2 2
1
1
01+ 1=
2
2
1
1
1
0 12 + 12 = 6=
2
2
3

orden 1

orden 2

orden exactamente 2

Para un RK implcito de 3 niveles:


b1 + b2 + b3 = 1 = bT c0
donde
cl = [cl1 . . . cls ]T ,
c0 = [1 . . . 1]T ,

bT c =
bT c =

1
2

1
3

Intuimos que para terminos en hq aparece una condici


on de orden
bT cq1 =

1
q

As es. Una condici


on necesaria para que un RK alcance orden p es
bT cq1 ,

q =1p

No es una condici
on suficiente.
Problema 50. Consideremos un metodo con matriz de Butcher:
0
1

1/2 0
1/2 0
1/2 1/2

No podemos aplicar las condiciones de orden. Deberemos obtener el desarrollo de Taylor de


(x, h). Por otro lado, tampoco cumple la condici
on suma-fila.

4.7. PROBLEMAS

59

A partir de la matriz de Butcher sabemos que el metodo es


yn+1 = yn +

h
h
k1 + k2
2
2

donde
1
k1 = f (xn , yn + k1 ) (dem ejercicio 48)
2
h
k2 = f (xn + h, yn + k1 ) (caso particular k2 para un metodo explcito)
2
Problema 52. Se trata de un metodo de orden 3 en el caso general. Si tomamos y = f (y) en
dimension 1 entonces tiene orden 4:
t = [ [ ]]
t = [[ 2 ]]
Observamos que el orden es 3 para el caso general puesto que no se cumplen las dos condiciones
de orden 4:
1
12
1
bDAc =
8
bAc2 =

Hay dos terminos en potencia de h3 del desarrollo de Taylor de (x, h) que no se anulan:
t

f (2) (f, f (1) (f )) = fyy f (fy f ) = fyy fy f 2

f (1) (f (2) (f, f )) = fy (fyy f f ) = fyy fy f 2

y notamos que ambos terminos coinciden.


Podemos reescribir las condiciones de orden 4 del modo siguiente:
1 12bAc2 = 0
1 8bDAc = 0
de modo que
(t )[1 12bAc2 ] = 0
(t)[1 8bDAc] = 0
Con respecto a la funci
on :
s

(x, h) =

y(x + h) y(x) X
bi ki

h
i=1

Para este metodo la (x, h) posee en h3 esta expresi


on:
(x, h) = (t )[1 12bAc2 ]f (1) (f (2) (f, f ))

h3
h3
+ (t)[1 8bDAc]f (2) (f, f (1)(f ) ) + O(h4 )
4!
4!

donde la expresi
on anterior se corresponde con P ELDn+1 /h del metodo.


CAPITULO 4. METODOS
RUNGE-KUTTA

60

(t) es el n
umero de formas de etiquetar los vertices de t con {1, 2 . . . r(t)}
r(t) es el orden de t bajo las siguientes condiciones:
1. Cada vertice (i, j) cumple i < j.
2. Las aristas (i, j) cumplen i < j.
3. Etiquetados automorfos cuentan como uno solo.
Por tanto, tenemos los siguientes arboles:
t

(1 2, 2 3, 2 4),

( t) = 1

(1 2, 1 3, 3 4),

(1 3, 1 2, 2 4),

(1 4, 1 2, 2 3),

(t) = 3

(t )[1 12bAc2 ] + (t)[1 8bDAc] = 0,


(t ) = 1,

bAc2 = 0,

(t) = 3,

bDAc = 1/6

Y por tanto (x, h) = O(h4 ) para el caso escalar con un sistema aut
onomo.
Problema. (problema 4 Extra 7Juliol2010.pdf) El metodo de orden 3 es explcito y su matriz
de Butcher es:

1/2
1/2

1/2
0 1/2

b1

b2

b3

por lo que se trata de un metodo de 3 niveles.

b1 + b2 + b3 = 1,

b2 + b3 = 1 , orden 2
2
2
2

orden 1

Por otro lado, las condiciones de orden 3 son:

1
b2 b3
+
=
4
4
3
que es incompatible con las dos anteriores, y por tanto no puede construirse el RK (3,4) imbricado.
Problema. Consideremos el siguiente caso:
y = f (y),

f : Rm Rm

Para la derivada tercera:


y (3) = {f 2 } + {2 f }2
Se obtienen los siguientes
arboles de tercer orden:

4.7. PROBLEMAS

61

[2 ]2 , (1-2,2-3), = 6

3!
=1
61

([2 ]2 ) =
[ 2 ], (1-3,3-1), = 2

3!
=1
32
Introducimos las funciones i y las condiciones de orden que se obtienen a partir de estas:
([ 2 ]) =

Orden 1:
i ( ) =

s
X

i = 1s

aij = ci ,

j=1

( ) =

s
X

bi

i=1

( ) =

1
( )

bi = 1

Orden 2: [ ]
i ([ ]) =

aij j ( ) =

aij cj

() orden 1
X
X
([ ]) =
bj j ( ) =
bj cj
j

([ ]) =

1
([ ])

1
2

bj cj =

Orden 3:
1. [ 2 ]
i ([ 2 ]) =

aij (j ( ))2 =

([ 2 ]) =

aij c2j

bj c2j

([ 2 ]) = 3

bj c2j =

2. [2 ]2
i ([2 ]2 ) =

aij j ([ ]) =

([2 ]2 ) =

bj

([2 ]2 ) = 6

X
j

1
3

aij

aij ck

ajk ck

bj

X
k

ajk ck =

1
6


CAPITULO 4. METODOS
RUNGE-KUTTA

62

Problema. En este problema primero hemos comprobado que el metodo tiene orden 3. Una
vez hecho el an
alisis sobre un problema aut
onomo y no aut
onomo se descubre que el primero

tiene un comportamiento de orden 4. Esto


sucede debido a que:
k1 2
k4
+ k2 + )
6
3
6
Aplicado al PCIy1 = y0 + h(. . .)
yn+1 = yn + h(

k1 = y0 = 1
h
h
k2 = y0 + k1 = 1 +
2
2
3h
3
h
k2 = 1 h h2
k3 = 1 + k1
2
2
4
1
h3
4
k4 = y0 + hk2 hk3 = 1 + h + h2 +
3
3
4

Por lo que la soluci


on numerica en el primer paso es:
y1 = 1 + h +

h2 h3 h4
+
+
2
6
24

Como la soluci
on exacta es y(x) = ex , tenemos que:
y(h) y1 = O(h5 )
Por lo que el error general de discretizacion es que orden 4. Para el caso y = xy vamos a obtener
y(h) y1 = O(h4 ), por lo que el EGD es de orden 3, un orden inferior como queramos ver. No
entramos en c
alculos detallados.
Problema. Veamos ahora que los metodos RK no explcitos tienen zonas de estabilidad no
acotadas, contrariamente a los explcitos. Tenamos:
= 1 + hb
T (Is hA)
1 e
R(h)

Adj(Is hA)

de grado s 1.
sus coef son funciones polinomicas de h

de grado s. es
Si el metodo no es explcito det(Is hA)
6= 1 el det es un polinomio en h

una funcion racional en h.

= p(h)
R(h)

q(h)
Donde p, q son polinomios de grado s.
Problema 45. Comprobamos las condiciones de orden y obtenemos:
1 2
1
+ + = 1 orden 1
10 2 5
1
bT c = orden 2
2

4.7. PROBLEMAS

63

Veamos ahora si cumple las condiciones de orden 3:


(t1 ) = 1 = (t2 )
(t1 ) = 6
bT Ac =

(t2 ) = 3

1
1
cond de orden 3
b3 a32 c2 =
6
6
s
X
bi c2i
(t2 ) =

(4.4)
(4.5)
(4.6)
(4.7)

i=1

bT c2 =

1
3

Condicion de orden 3

(4.8)

Cumple la condici
on de orden 3 y 3 niveles y explcito. Rightarrow Orden 3 exacto.
Veamos ahora el termino principal del error:
P ELD =

h4 X
(t)(1 (t)(t))F (t)
4!
r(t)=4

F biyeccion arboles con raz y diferenciales elementales. Ahora haciendo calculos tenemos ya
que:
h4 (1 (1) (1)
f (f (f (f )))) + . . .
P ELD =
4!
Falta pues calcular la contribucion de los otros tres arboles: Para t2 , collita propia:
(t2 ) = 2
(t2 ) = 4!
(t2 )

64

CAPITULO 4. METODOS
RUNGE-KUTTA

Captulo 5

Introducci
on a los M
etodos para
Sistemas Rgidos
En este captulo presentaremos un tipo concreto de problema, caracterizado por las dificultades con a
nadidas con las que nos encontramos a la hora de resolverlo. El grueso del captulo
se encuentra en el fichero de Atenea stiffness.pdf.

5.0.1.

Determinaci
on de m
etodos A-estables

Para resolver sistemas stiff utilizaremos los siguientes metodos:


Metodos implcitos.
De un paso.
Es necesario que sean A0 -estables, aunque tambien es deseable que sean A-estables.
Utilizaremos metodos de un paso (RK o lineales).
n
Los aplicaremos al problema y = y, cuya soluci
on numerica cumple yn+1 = R(h)y
= 1 + hb
T (Is hA)1 e, que es de s niveles.
Para un metodo RK: R(h)
=
Para un metodo Lineal: R(h)

1+0
h
,
11
h

con yn+1 yn = h(1 fn+1 + 0 fn ).

es una funcion racional.


Son metodos implcitos, R(h)

y = y

y(x) = Ke( x)

y(xn+1 ) = y(xn + h) = e( h) y(xn )


Si el metodo es de orden p entonces:
p+1
R(h)]y(x

y(xn+1 ) yn+1 = [exp(h)


)
n ) = O(h
p+1
= exp(h)
+ O(h )
R(h)

65

A LOS METODOS

CAPITULO 5. INTRODUCCION
PARA SISTEMAS RIGIDOS

66

Definici
on 5.1. Sea RTS (q) funci
on racional, donde S es el grado del polinomio del numerador
y T es el grado del polinimio del denominador. Se dice que RTS (q), q C es una aproximacion
racional de orden p de la exponencial si y solo si
RTS (q) = exp(q) + O(q p+1 )
Teorema 28. Un metodo de un paso de orden p posee una funci
on de estabilidad absoluta que
h
= h.
es una aproximaci
on racional de orden p de exp(h),
Sea
RTS (q)

PS

= Pi=0
T

ai q i

i=0 bi q

Teorema 29. RTS es una aproximaci


on racional de orden p de exp(q) si y solo si:
1 + a1 q + . . . + aS q S (1 + b1 q + . . . + bT q T )(1 + q +

q2
+ . . .) = O(q p+1 )
2

Teorema 30. El m
aximo orden de una aproximaci
on racional RTS es S + T . La aproximaci
on
S
racional RT de m
aximo orden posible es u
nica y se denomina aproximaci
on de Pade de eq . Se
S .
denota R
T
Definici
on 5.2. Una aproximacion racional RTS se denomina:
A-aceptable si q C, Re(q) < 0 |RTS (q)| < 1.
A0 -aceptable si q R, q < 0 |RTS (q)| < 1.
L-aceptable si es A-aceptable y |RTS | 0 si Re(q) .
Comentario 5.3. Si RTS es una funcion de estabilidad absoluta de un metodo de un paso
entonces:
A-aceptable
A0 -aceptable
L-aceptable

metodo A-estable.
metodo A0 -estable.
metodo L-estable.

Resultados sobre aceptabilidad de funciones racionales


S es A-aceptable
1. La aproximacion de Pade R
T

T 2S T

S es L-aceptable.
2. Si S = T 2 o bien S = T 1 entonces R
T
3. RTS (q) es A-aceptable y T > S

RTS (q) es L-aceptable.

4. RTS (q) con S > T no puede ser A-aceptable.


S es la aproximacion de Pade y T S entonces R
S (q) es A0 -aceptable.
5. Si R
T
T

Captulo 6

Problemas de Condiciones de
Frontera
6.1.

Caso general: PCF



Sea y = f (x, y) Rm . Se busca la soluci
on y(x) tal que r y(a), y(b) = 0, donde se tiene que
r : Rm Rm 7 Rm es una funci
on que se anular
a si nuestra soluci
on cumple con las condiciones
de frontera.
Es decir, si exigimos que yexacta (a) = y1 , yexacta (b) = y2 , entonces nuestra funcion r podra
ser:
r(y(a), y(b)) = (y(a) y1 )2 + (y(b) y2 )2 .
Hay que tener en cuenta que el Problema de Condiciones Frontera:
Puede no tener soluci
on, o
puede admitir m
as de una soluci
on.
Condiciones de Frontera Separables
Son casos en los que tenemos: r1 (y(a)) = 0, y r2 (y(b)) = 0, donde r1 , r2 : Rm 7 Rm .
Ejemplo 6.1 (Condiciones de Frontera Separables).
r1 (y(a)) = y(a) ,

6.1.1.

r2 (y(b)) = y(b)

Problemas de valores singulares (eigenvalue problems)



Sea y = f (x, y; ), con r y(a), y(b); = 0, donde r : Rm Rm R 7 Rm+1 .

El problema consiste en determinar los valores de (valores singulares) para los cuales
existe una soluci
on y(x). Definimos para y(x) Rm , m+1 y(x) = , m+1 y (x) = 0 los siguientes
vectores:
h
it
~y = 1 y, . . . , m y, m+1 y
h it
f~ = f, 0
~y = f~(x, ~y )
67

CAPITULO 6. PROBLEMAS DE CONDICIONES DE FRONTERA

68

6.1.2.

Problema de la frontera libre

El problema en este
en determinar R tal que la soluci
on y(x) de y (x) =
 caso consiste

f (x, y) cumpla que r y(a), y() = 0.

Ejemplo 6.2.

x = a + t( a) = a + tzm+1 ,

0t1

dzm+1

= zm+1 = 0
dt

z(t) = y(a + tzm+1 )


Definimos el vector ~z(t) = [
z , zm+1 (t)]t , con lo que tenemos que:

d
z (t)
= z = zm+1 y (a + tzm+1 ) = zm+1 f (x, y)
dt

z = f~(t, z);

f~ = [zm+1 f (x, y), 0]t



Por tanto, r y(a), y() = 0 r(
z ) = 0, donde se tiene que cumplir que z(1) = 0.

6.2.

M
etodo del tiro simple

Ejemplo 6.3. Tenemos la ecuacion:

yy = 1 y 2 ,

y(0) = 1,

y(1) = 2

Para transformarlo en un sistema de primer orden, operamos de la siguiente manera:


y =

1 y 2

y
y

= z R2

De donde nos queda el sistema en z:




z1
z2

= z = f (z) =

y
y

z2
1z22
z1

Tenemos la condicion inicial y(0) = 1, y tambien nos exigen que y(1) = 2. Para resolverlo,
buscaremos la condici
on que debe cumplir y (0) para que la segunda restriccion sea cierta (o,
por lo menos, obtener una aproximacion suficientemente buena).
En nuestro caso, la soluci
on que obtenemos es y (0) = 5, es decir,
 
1
z(0) =
5
Para obtener este valor en la pr
actica (el valor que debe cumplir y (0)), podemos utilizar el
metodo del tiro simple. Este consiste en:
Plantear una ecuaci
on no lineal cuya raiz nos dar
a la soluci
on: Sea y(1, s) el valor de y(1)
dada la condici
on y (0) = s. Entonces, en nuestro caso particular la ecuaci
on no lineal a
minimizar ser
a F (s) = y(1, s) 2 0. Habra que dar una tolerancia .


6.2. METODO
DEL TIRO SIMPLE

69

Resolver la ecuaci
on no lineal: hay que minimizar una funcion, teniendo en cuenta que cada
punto en que evaluemos la funci
on F (1, s) se obtendra resolviendo una ecuaci
on diferencial
concreta (es decir, probablemente aplicando uno de los metodos estudiados anteriormente).
Se puede aplicar, por ejemplo, el metodo de la secante para aproximar el cero de F .


Si tenemos un PCF de la forma: y = f (x, y), r y(a), y(b) = 0, y queremos encontrar una
soluci
on de la ecuaci
on, podemos utilizar el metodo del tiro simple si f cumple la condici
on de
Lipschitz (ya que esto asegura que existira una soluci
on y(x; s)).
Sea s Rm . Consideramos el PCI:
y = f (x, y),

y(a) = s.

Entonces, obtenemos una soluci


on numerica aproximada en xn que es y(xn ; s) para n = 0, 1, . . . N, x0 =
a, xN = n.
Nuestro objetivo es buscar una soluci
on numerica tal que:




r y(a), y(b) = r s, y(xN ; s) = 0



Esto es equivalente a hallar la soluci
on s Rm de una ecuaci
on F (s) = r s, y(xn ; s) = 0,
donde F (s) en general es no lineal y no se puede calcular analticamente debido a que depende
de y(xn ; s).
Aplicando el metodo de Newton a F (s) = 0 (metodo para encontrar ceros de funciones), se
tiene:
e [0] = F (s[] )
JF (s[0] )s

Donde JF es la matriz jacobiana de F respecto a s y = 0, 1, . . .. Se tiene que:


e [] = s[+1] s[]
s

Cada iteraci
on del metodo requiere:

1. Calcular F (s[] ). Por tanto, tambien necesitamos calcular y(xN , s[] ), y, por tanto, necesitamos la soluci
on numerica aproximada de y = f (x, y), y(a) = s[] .
2. Calcular JF (s[] ). Este es el paso m
as costoso.
e [0] = F (s[] ).
3. Resolver el sistema lineal JF (S [0] )s

(s)
Observemos que en el caso m = 1, tenemos que JF (s) = dFds(s) F
s , con lo que obtener
la jacobiana no es demasiado costoso. Esto no es as en general para dimensiones superiores.

6.2.1.

Limitaciones del m
etodo de tiro simple

Una precision elevada en la soluci


on de F (s) = 0 no implica que ky(xN ; s)y(b; s)k = EGDN
sea lo suficientemente peque
na.
Teorema 31. Sea y = f (x, y), y(a) = s. Sean s1 , s2 dos condiciones iniciales posibles para
las cuales f es Lipschitz. Entonces,
ky(xN ; s1 ) y(xN ; s2 )k ks1 s2 keL|xn a|
Donde L es l constante de Lipschitz de f .

CAPITULO 6. PROBLEMAS DE CONDICIONES DE FRONTERA

70

Supongamos ahora que aplicamos el metodo del tiro simple a un problema en el que el
intervalo de integraci
on es muy grande, y con una funcion suave (esto es, con un buen comportamiento). Por ejemplo, tomemos b a = 100, L 1.
Sea s tal que y(x; s) es la soluci
on exacta del PCF. Entonces,
EGDn = ky(xN ; s) y(xN ; s)k k
s skeL|xn a|
Si al resolver F (s) = 0 la soluci
on se obtiene para s = s + , entonces:
k
s sk = , L 1, |xn a| 100 EGDn e100 103
Con lo que obtenemos una cota del error excesivamente grande.
Para evitar este problema, se subdivide el intervalo en trozos, y se aplica el metodo del tiro
libre en cada uno de ellos. Esta soluci
on es conocida como el metodo del tiro m
ultiple.

6.3.

M
etodo del tiro m
ultiple o tiro paralelo

Tenemos el problema:
(

= f (x, y)
y

r y(a), y(b) = 0

[a, b] R

Consideremos una partici


on: a = x1 < x2 < . . . < xN = b Ahora, dados s1 , s2 , . . . , sN ,
calculamos la soluci
on numerica de:

y = f (x, y)

y = f (x, y)
..


y = f (x, y)

y(x1 ) = y(a) = s1
y(x2 ) = s2

[x1 , x2 ]
[x2 , x3 ]

y(xN 1 ) = sN 1

[xN 1 , xN ]

En general, consideramos N 1 PCI:


y = f (x, y) y(xk ) = sk

[xk , xk+1 ],

k = 1, . . . , N 1

La idea consiste en ir ajustando los valores s1 , s2 , . . . , sN , de tal manera que se minimice


una cierta funci
on de error F (s1 , . . . , sN ). Esta funcion ser
a mnima cuando los N 1 PCI
cumplan la restriccion en la frontera, es decir, cuando
y = f (x, y) y(xk ) = sk

[xk , xk+1 ] sk+1 = y(xk+1 ),

k = 1, . . . , N 1

Notemos que en este momento, la soluci


on encajara, es decir, ser
a contnua, y se cumplira
el PCF requerido.
Para Y, f, r con recorrido Rn , si Rm i = 1, . . . , N , la expresi
on vectorial del problema
ser
a:

F1 (s1 , s2 )

F2 (s2 , s3 )

..
F (s) =
=0
.

FN 1 (sN 1 , sN )
FN (s1 , sN )

6.3. METODO
DEL TIRO MULTIPLE
O TIRO PARALELO

71

Las componentes se definen como:


Fi (si , si+1 ) = y(xi+1 ; {xi , si }) si+1 i = i, . . . , N 1


FN (s1 , sN ) = r(s1 , sN ) = r y(a), y(b)

Fi son funciones con recorrido en Rm . F : RmN 7 RmN


s = [sT1 , . . . , sTN ]T RmN

Utilizando el metodo de Newton para resolver F (s) = 0. Obtendremos la soluci


on iterando
la aproximacion con la siguiente formula:

=
JF (s[] )s

[]

F1
..
.

[]
FN (s1 , sN )

= 0, 1 . . .

1
s
.
[+1]
=
s[]
s
.. = s
N
s

Para k = 1, . . . , N 1 se tiene que:

Fk
y(xk+1 ; {xk , sk })
y(xk+1 ; {xk , sk + sk }) y(xk+1 ; {xk , sk })
=
=
= Gk Mmm
sk
sk
sk
Fk
= Im k = 1, . . . , N 1
sk+1
FN
r(s1 , sN )
=
= B Mmm
SN
sN
r(s1 , sN )
FN
=
= A Mmm
s1
s1
Tenemos, que la matriz Jf (s) acabar
a siendo de la forma:

s[]

G1 Im
0
0
G2 Im

..
..
..
JF (s) = .
.
.

0
0
...
A
0
...

s
F1

..
..
= JF (s) . = .

N
FN

...
...
..
.

0
0
..
.

GN 1 Im
0
B
1 s
2 = F1
G1 s
2 s
3 = F2
G2 s
..
.
N 1 s
N = FN 1
GN 1 s
1 + B s
N = FN
As

72

CAPITULO 6. PROBLEMAS DE CONDICIONES DE FRONTERA


De donde finalmente obtenemos las ecuaciones a resolver:

1 + F1
s2 = G1 s

s3 = G2 s2 + F2
..
.

N 1 + FN 1

s
= GN 1 s

N
N = FN
As1 + B s

Problema. Tenemos el problema:

y = f (x, y) = q(x)y g(x)


y(a) =

y(b) =

El metodo es el siguiente:
yn+1 2yn + yn1 = h2 fn
xn = a + hn n = 0, 1 . . . N + 1
yn+1 2yn + yn1 = h2 (q(xn )yn g(xn ))

n = 1...N

A partir de aqu, las ecuaciones que aparecen son:


y2 (2 + h2 q(x1 ))y1 + y0 = g(x1 )h2
y3 (2 + h2 q(x2 ))y2 + y0 = g(x2 )h2
..
.

Esto se puede resumir en la matriz A tal que Av = w:

2 + q1 h2
1
0
2
1
2 + q2 h 1

A=
0
1

..
..

.
.
0

...
...
..
.

0
0

1
1 2 + qN h2

También podría gustarte