Documentos de Académico
Documentos de Profesional
Documentos de Cultura
M Etodos Num Ericos III: Profesor Guillermo Gonz Alez Transcriptor: Bartomeu Kane Binimelis Primavera de 1708
M Etodos Num Ericos III: Profesor Guillermo Gonz Alez Transcriptor: Bartomeu Kane Binimelis Primavera de 1708
Indice general
1. Introducci
on
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
8
13
13
14
18
20
3. M
etodos Lineales Multipaso
3.1. Metodos Lineales Multipaso y Teorema de Dahlquist .
3.1.1. Estabilidad Lineal . . . . . . . . . . . . . . . .
3.2. Metodos Implcitos y Predictor-Corrector . . . . . . .
3.3. Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . .
3.4. Estimacion del ELD para metodos de 1 paso . . . . .
3.5. Estimacion del ELD con metodos Predictor-Corrector
3.6. Estabilidad lineal para metodos P-C . . . . . . . . . .
3.7. Construcci
on de MLM por Interpolacion . . . . . . . .
3.7.1. Metodos Adams-Bashfort de k pasos . . . . . .
3.7.2. Metodos Adams-Moulton de k pasos . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
24
25
26
27
29
32
33
34
35
4. M
etodos Runge-Kutta
4.1. Formulaci
on del metodo . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Convergencia de metodos RK . . . . . . . . . . . . . . . . . . . . .
4.2.1. Error local de discretizacion . . . . . . . . . . . . . . . . . .
4.2.2. Metodos implcitos y semi-implcito . . . . . . . . . . . . .
4.2.3. Regi
on de estabilidad absoluta . . . . . . . . . . . . . . . .
4.3. Introducci
on al estudio del orden de los metodos RK . . . . . . . .
4.3.1. Orden de un RK explcito de 3 niveles para un PVI escalar
4.3.2. Algunos resultados generales . . . . . . . . . . . . . . . . .
4.4. Herramientas para el estudio del orden de los metodos RK . . . . .
4.4.1. Caso y = f (y) . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.2. La M -esima derivada de Frechet . . . . . . . . . . . . . . .
4.4.3. Derivadas de Frechet de primer y segundo orden . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
38
38
39
39
40
40
41
42
43
43
44
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE GENERAL
4.4.5. Arboles
con raz . . . . . . . . . . . . . . . . . . . . . . . .
4.4.6. Funciones definidas sobre arboles con raz . . . . . . . . . .
4.5. Orden de los metodos Runge-Kutta . . . . . . . . . . . . . . . . . .
4.5.1. Expresion de metodos RK . . . . . . . . . . . . . . . . . . .
4.5.2. Condicion suma-fila . . . . . . . . . . . . . . . . . . . . . .
4.5.3. Formulaci
on de las condiciones de orden de los metodos RK
4.6. Metodos RK imbricados . . . . . . . . . . . . . . . . . . . . . . . .
4.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
45
46
49
52
52
53
55
56
57
5. Introducci
on a los M
etodos para Sistemas Rgidos
5.0.1. Determinaci
on de metodos A-estables . . . . . . . . . . . . . . . . . . . .
65
65
67
67
67
68
68
69
70
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Captulo 1
Introducci
on
En este captulo presentamos muy brevemente algunos de los temas que iremos desarrollando
a lo largo del curso. Introducimos tanto problemas como metodos para poder resolverlos.
y = f (x, y)
y(a) =
Los metodos que estudiaremos se nos presentan en forma de formulas recurrentes. Estas
formulas pueden ser explcitas, cuando en ellas no aparece la imagen por alguna funcion de
un punto desconocido o, en caso contrario, implcitas, cuando se involucra la imagen por una
funcion de alg
un punto que todava tenemos que determinar.
Ejemplo 1.1. Supongamos que tenemos y = f (x, y). Para aproximar la siguiente imagen en
nuestro PVI podemos utilizar el denominado metodo de Euler en su variante explcita o implcita.
Explcito:
yn+1 yn
f (xn , yn )
h
yn+1 = yn + hfn ,
donde fn = f (xn , yn )
5
CAPITULO 1. INTRODUCCION
6
Implcito:
yn+1
yn+1 yn
f (xn+1 , yn+1 )
h
= yn + hfn+1 , donde fn+1 = f (xn+1 , yn+1 )
Es corriente que los metodos implcitos presenten una serie de ventajas frente a los explcitos
(si no fuera as no habra motivo aparente para utilizarlos, puesto que con uno explcito la
resolucion del problema es m
as simple):
Mayor orden de convergencia.
Unicos
u
tiles para resolver sistemas stiff .
Estudiaremos dos tipos de sistemas de EDOs. Son los conocidos como stiff y los no stiff.
Los primeros son menos habituales pero nos enfrentan a mayores dificultades a la hora de
resolverlos. En este curso solo los introduciremos, y profundizaremos m
as en el caso no stiff.
Dependiendo del n
umero de puntos anteriores necesarios al que estamos calculando hablaremos de metodos multipaso. En estos ser
a necesario contar con m
as de un punto (recordemos
que el inmediantamente anterior es (xn , yn )) para calcular el siguiente. En un metodo de k pasos
deberemos tener la informaci
on de k puntos anteriores al que vamos a aproximar ahora.
)
(xnj , ynj )
Metodo
(xn+1 , yn+1 )
j = 0, 1 . . . k 1
Ejemplo 1.2. Metodo de dos pasos.
yn+2 yn
f (xn+1 , yn+1 )
2h
yn+2 = yn + 2hfn+1
Estudiaremos tambien un tipo distinto de metodos: los que pertenecen a la familia de los
metodos Runge-Kutta. Estos se caracterizan por evaluar la funcion f (x, y) en puntos diferentes
a los xn , n = 0, . . . , N .
Ejemplo 1.3. Metodo Runge-Kutta (un paso)
yn+1 = yn +
h
[f (xn , yn ) + f (xn + h, yn + hf (xn , yn ))]
2
k2 = f (xn+1 , yn + hk1 )
k1 + k2
yn+1 = yn + h
2
Captulo 2
y = f (x, y)
2.1.
M
etodo de k pasos
Supongamos que tenemos yn , yn+1 . . . yn+k1 . En este caso nos interesara conocer el valor
aproximado de yn+k . Para ello utilizaremos un algoritmo de la siguiente forma:
k
X
j yn+j = h f (yn+k . . . yn , xn ; h)
j=0
donde h es el paso y k el n
umero de pasos del metodo. Habitualmente supondremos que
yj y(xj ), siendo yj el valor aproximado de la soluci
on que hemos obtenido en la iteraci
on
anterior y y(xj ) el valor exacto de tal soluci
on. Asimismo, notemos que xj = x0 + jh, de forma
que x0 = a y xN = b.
Los valores j son los pesos especficos que cada metodo en particular asigna a los valores
anteriores para obtener yn+k . Ocurre lo mismo con la funci
on de iteraci
on : esta funci
on
vara seg
un el metodo, y como la notaci
on indica, depende de f y de los puntos anteriores que
conocemos.
2.1.1.
Ejemplos
ello representa, pero con los inconvenientes de bajo orden de convergencia que probablemente
conlleve.
M
etodo Runge-Kutta Cl
asico
Se trata de un algoritmo con orden de convergencia igual a 41 . Consiste en aproximar el
punto yn+1 por:
h
yn+1 = yn + (k1 + 2k2 + 2k3 + k4 )
6
con
h
h
k1 = f (xn , yn )
k3 = f (xn + , yn + k2 )
2
2
h
h
k2 = f (xn + , yn + k1 ) k4 = f (xn + h, yn + hk3 )
2
2
Notemos que aqu la funci
on de iteraci
on es lineal en ki .
M
etodo Lineal Multipaso
Como su nombre sugiere, la funci
on de iteraci
on es lineal en f (xn+j , yn+j ) = fn+j . Tomamos
k
P
f =
j fn+j . Aplicando la expresi
on general que hemos presentado al inicio del captulo
j=1
tenemos que:
k
X
j=1
k
X
j fn+j ]
j yn+j = h[
j=1
con j , j R, k = 1 y |0 | + |0 | =
6 0. Cabe destacar que dependiendo del valor de k nos
encontraremos frente a un metodo explcito (k = 0) o implcito (k 6= 0).
P
P
Definici
on 2.1. Consideremos un metodo dado por la expresi
on kj=1 j yn+j = h kj=1 j fn+j ,
con k = 1. Entonces, su polinomio caracterstico es:
(r) =
k
X
j r j
j=0
Esta definicion nos permite denotar unvocamente un metodo por la pareja {(r), f }.
2.2.
(x, h) = h
k
X
j=0
k
X
j=0
Definici
on 2.3. El error local de discretizaci
on (ELD) es el error que resulta de aplicar el metodo por primera vez, partiendo de la soluci
on exacta. Veamos que est
a ntimamente relacionado
con la funci
on tau:
ELDn+1 = y(xn+k ) yn+k = h (xn , h)
yn+k =
k1
X
j=0
En este calculo hemos supuesto que los valores calculados para puntos anteriores son exactos,
como ya hemos indicado.
Definici
on 2.4. El error global de discretizaci
on (EGD) en xn+k para una soluci
on numerica
}
es
e
=
y(x
)
y
.
Notemos
que
se
diferencia
de
la ELD por
{yn : n = 0 . . . N = ba
n+k
n+k
n+k
h
estar la soluci
on calculada a partir de los valores anteriormente hallados por el metodo.
Definici
on 2.5. El error global de discretizaci
on (EGD) de la soluci
on num`erica {yn : n =
0 . . . N = ba
}
se
calcula
a
partir
de
m
a
x
ky(x
)
y
k.
n
n
h
0nN
y(xn+1 ) yn+1
e1 = y(x1 ) y1 =
h2
= e1 + y (x1 ) + O(h ) = 2
y (x0 ) + O(h3 )
2
2
h2
3 ()
y(x0 ) = y(a) =
aplicando Taylor entorno a x0
Para obtener
el ierror global en la enesima iteraci
on se aplica
h 2
h 2 inducci
i on: suponemos que en
h
h
3
en = n 2 y (x0 ) + O(h ) y se deduce que en+1 = (n + 1) 2 y (x0 ) + O(h3 ).
a
. Por tanto,
Recordemos que xn+1 = x0 + (n + 1)h n + 1 = xn+1
h
xn+1 a
y (x0 ) + O(h2 )
en+1 = h
2
10
Observamos que ken+1 k = O(h), comportamiento que tambien presenta la funcion tau (x, h) =
O(h). Por u
ltimo, destacar que existe la posibilidad de escribir los sucesivos errores globales como
ecuaciones lineales en diferencias, introduciendo la sucesion de funciones n para tal objetivo.
e2 e1 = 1 (x1 , h)
en+1 en = n
Hasta ahora, algunos de los conceptos m
as importantes que hemos considerado son:
Los problemas (o PVI), definidos por:
y = f (x, y(x))
y(a) =
Definici
on 2.7. Un metodo es convergente si para todo problema se cumple que EGD 0
h0
Definici
on 2.8. (Alternativa) Un metodo es convergente si para todo problema y toda soluci
on
numerica {yn , n = 0 N, N = ba
}
tal
que
l
m
(h)
=
y(x
)
se
cumple
que
n
l
m
y
=
y(x
i
0
n
n)
h
h0
con x = a + nh fijado.
h0
La funci
on del metodo induce la definicion de otra funcion ntimamente relacionada con la
consistencia del metodo que estemos analizando:
(h) =
m
ax
x[a,bkh]
(x, h) =
m
ax
x[a,bkh]
k
X
j=0
Definici
on 2.9. Un metodo es consistente con el sistema y = f (x, y(x)) cuando lm (h) = 0
h0
Definici
on 2.10. Un metodo es (al menos) de orden p (p Z) si para todo problema tal que
y C p [a, b] se cumple que (h) = O(hp ). Si, adem
as (h) 6= 0(hp+1 ) se dice que el metodo es de
orden p exactamente (es de orden p).
Teorema 1. Sea (x, h) continua h 0, x [a, b]. Si 0 cuando h 0 puntualmente
para x [a, b] entonces:
1. (x, h) converge a cero uniformemente cuando h 0
x [a, b]
3. Si (x, h) =
O(hp )
11
Demostraci
on: Buscar en la bibliografia.
Teorema 2. Consideremos un metodo lineal multipaso {(r), f } tal que f es continua x
[a, b] y h 0. Si se cumplen:
1.
k
P
j = (1) = 0
j=0
x [a, b]
tj [x, x + jh], t = 1 mo
k
k
X
X
(x, h) = h1
j y(x) + h1
jj h
y (j ) f (y(x + kh), . . . y(x), x; h)
j=0
j=0
Ahora, notemos que el lmite cuando h 0 converge uniformemente (por el teorema anterior).
Por tanto,
k
X
(j j)y (x) f (y(x) . . . y(x), x; h)
lm (x, h) =
h0
j=1
Por la hip
otesis (2) deducimos
lm (x, h) = 0
h0
lm (h) = 0
h0
x [a, b]
Tenemos la hip
otesis de lm h (x, h) = 0. Por otro lado,
h0
h (x, h) =
k
X
j=0
Observamos que () tiende a cero cuando h 0, y aprovechando que se trata de una funci
on
continua podemos separar la suma en dos lmites y obtenemos
k
k
X
X
j y(x),
j y(x + jh) =
x [a, b]
0 = lm = lm
h0
h0
j=0
j=0
12
Por tanto, si y(x) 6= 0 x [a, b], se deduce el primero de los resultados buscados.
Por otro lado,
(x, h) =
k
X
(j j)
y (j ) f (y(x + kh) . . . y(x), x; h)
j=0
k
X
lm (x, h) =
h0
()
j=0
y () se cumple por consistencia del metodo, con lo que queda probado (2).
Teorema 3. Para todo metodo {(r), f } con f continua la consistencia es condici
on necesaria
para la convergencia del metodo.
Demostraci
on. Veremos que la convergencia implica los dos puntos del teorema anterior, que
a su vez implican la consistencia:
1.
k
X
j yn+j = 0 = hf (yn+k , . . . yn , x; h)
j=0
Notemos que lm
k
P
h0 j=0
j yn+j =
lm
h0
k
X
j yn+j = 0
j=0
P
k
k
P
etodo. En este
j = (1) = 0.
j=0
2.
k
X
j yn+j
k
X
j yn = hf (yn+k , . . . yn , xn ; h)
j=0
j=0
k
X
j=1
jj
yn+j yn
= f (yn+k , . . . yn , xn ; h)
jh
h0
xn =a+nh
lm
h0
xn =a+nh
f = f (y(xn ), . . . y(xn ), xn ; 0)
2.3.
13
2.3.1.
Introducci
on a las EDLin
Antes de entrar a enunciar (y demostrar en algunos casos) los resultados relacionados con
la Ecuaciones Lineales en Diferencias, primero las definiremos de forma rigurosa para mejorar
la comprensi
on del resto del captulo. Tambien introduciremos algunos teoremas importantes
sobre su resolucion.
Definici
on 2.11. Sea F : Rm 7 Rn y k N. Una Ecuaci
on en Diferencias es una relaci
on
definida por la ecuaci
on:
yn+k = F (n, yn , yn+1 , . . . , yn+k )
n = 0, 1, . . .
j yn+j = n ,
n N,
k = 1
j=0
k1 k2
1
0
B=
.
..
Adem
as, la matriz B cumple:
. . . 0
...
0
..
.
1
0
14
2.3.2.
j yn+j = 0
j=0
j=0
k
X
k
X
j yn+j
j=0
= hf (yn+k , . . . yn , xn ; h)
j en+j = n ;
x xn
n 0, j = 0 k entonces,
j=0
Adem
as, se cumple que Ak acotada cuando k (A) < 1
o A es de clase M y (A) = 1.
15
Estabilidad de EDLin
Consideremos una ecuaci
on en diferencias de primer orden:
zn+1 = G(zn , n),
zn Rm ,
G : Rm Rm
Definici
on 2.15. Una soluci
on {yn }n0 de la ecuaci
on anterior diremos que es:
Estable si dado > 0 existe > 0 tal que para {
yn } cualquier otra soluci
on de la ecuaci
on
con ky0 y0 k < entonces se tiene que kyn yn k < , con n > 0.
Asint
oticamente estable, si adem
as de ser estable se cumple que kyn yn k 0.
n+
Asint
oticamente estable
(B) < 1.
Demostraci
on. Sea {
yn }n0 otra soluci
on de la EDLin (2.1).
yn yn = wn = Bwn1 = B 2 wn2 = . . . = B n w0
(a) Primera parte:
Usando la segunda parte del teorema 7 sabemos que R tal que kB n k < .
Notemos que depende de n.
k
yn yn k = kB n w0 k kB n k kw0 k
Si kw0 k = k
y0 y0 k < = entonces > 0, n > 0 puedo encontrar = tal que si
k
y0 y0 k < k
yn yn k <
Supongamos que kB n k es no acotada cuando n . Entonces x Rn tal que
kB n xk . Esto se demuetra tomando JB = P 1 BP 1 y distinguiendo entre dos
posibles casos para 1 .
1. Si |1 | > 1,
2. Si |1 | = 1 y (B) = 1 tomamos x = P 1 e2 .,
ei = P 1 x,
B n = P JBn P 1
B n x = P JBn ei
n
n
estable.
Supongamos que (B) 1. Dado que x Rm tal que kB n xk no est
a acotado
n
entonces lm k
y yn k =
6 0 {yn }n0 no es asintoticamente estable.
n
16
Definici
on 2.16. Dada la ecuaci
on en diferencias de orden k:
yn+k + k1 yn+k1 + . . . + 1 yn1 + 0 yn = d
(2.2)
Teorema 9. Sea (2.3) la EDLin de primer orden equivalente obtenida de (2.2) por el metodo
presentado en el teorema (4).
yn+k1
Estables
Las soluciones de (2.2) son
Asint
oticamente Estables
Estables
Asint
oticamente Estables
yn
Definici
on 2.17. Un polinomio p(x) cumple la condici
on de la raz si:
1. Todas sus races son de m
odulo 1.
2. Todas sus races de m
odulo 1 son simples.
Teorema 10. (estabilidad de EDLin de orden k) La EDLin de orden k de la forma (2.2) tiene
soluciones estables si y solo si el polinomio caracterstico de la EDLin cumple la condici
on de
la raz.
Demostraci
on. Dada una EDLin podemos encontrar el sistema zn+1 = Bzn + dn . El polinomio
caracterstico asociado a este sistema es:
k
X
j r j = det(B rI)
(r) =
j=0
j yn+k = n ,
k = 1
j=0
zn+1 = Bzn + dn ,
yn+k1
zn = ... ,
yn
(2.4)
n
0
dn = .
..
0
(2.5)
17
Teorema 11. Sea una EDLin de la forma (2.5) tal que zn+1 = Bzn tiene una soluci
on nula
estable. Entonces existe una norma vectorial tal que
kzn k |kz0 k +
n1
X
kdj k
j=0
Demostraci
on.
zn = Bzn1 + dn1 = B[Bzn2 + dn2 ] + dn+1 =
= B 2 zn2 + Bdn2 + dn1 =
Por induccion se puede establecer
n
zn = B z0 +
k
X
B nj1 dj
j=0
2. (B) = 1 y B de clase M . Existe una norma matricial subordinada tal que kBk = (B) = 1.
Tambien existe una norma vectorial k k cuya norma matricial subordinada satisface
kBk 1.
n1
X
kBknj1 kdj k
j=0
kz0 k +
n1
X
kdj k
j=0
Teorema 12. Sea EDLin de la forma (2.4) cuyo polinomio caracterstico cumple la condici
on
de la raz. Entonces existe una constante c 1 tal que toda soluci
on {yn }n0 de la EDLin (2.5)
cumple
nk
X
|j | , yn R, n 0
ax |yi | +
|yn | c m
0ik1
j=0
Demostraci
on. De la condici
on de estabilidad de las soluciones de la EDLin de 1er orden
asociada a (2.4) deducimos
kzn k kz0 k +
n1
X
j=0
kdj k,
n1
(2.6)
18
kz0 k +
k
X
ya que znk+1 =
kdj k c2 kz0 k + c2
n1
X
yn
..
.
ynk+1
|j |
j=0
j=0
nk
X
|j |]
j=0
2.4.
Definici
on 2.19. Un metodo dado por {(r), f } decimos que es cero estable (sin
onimo de
estabilidad) si las soluciones de la EDLin homogenea cuyo polinomio caracterstico es (r) son
estables.
Comentario 2.20. Un metodo es cero estable
Condiciones sobre f
I) f 0 cuando f 0
, i = 0, . . . , k 1 del dominio y
II) Debe existir C independiente de h tal que yn+i , yn+i
f
xn [a, b], h 0
. . . yn , xn ; h)| C m
ax |yn+i yn+i
|
|f (yn+k . . . yn , xn ; h) f (yn+k
0ik1
(2.7)
Es decir, la funci
on f debe ser Lipschitz respecto a las condiciones iniciales.
Teorema 13 (acotaci
on del EGD). Sea el PVI y = f (x, y) y un metodo dado por {(r), f }.
etodo
Sea yn (h) la soluci
on numerica aproximada en xn = a + hn, n = 0, . . . , N = ba
h . Si el m
es cero estable entonces existen c1 , c2 independientes de h de forma que
|y(xn ) yn (h)| c1 r(h) + c2 (h)
donde r(h) = m
ax |y(xi ) yi (h)| es el m
aximo de los errores iniciales.
0ik1
Demostraci
on.
yn+k (h) + . . . + 0 yn (h) = hf (yn+k (h), . . . , yn (h), x; h)
y(x + kh) + . . . + 0 y(xn ) = hf (y(xn + kh), . . . , y(xn ), xn ; h) + (xn , h)
en+j = y(xn + jh) yn+j (h)
en+k + . . . + 0 en = n = h[f (sol. exacta) f (sol. numerica) + (xn , h)]
19
Usando el teorema 12 para EDLin, es decir, que el polinomio caracterstico de la EDLin del error
global es un polinomio de un metodo cero estable, podemos deducir
n
X
|j |
ax |ei | +
1 : |en+k | m
0ik1
r(h) + h
n
X
j=0
()
()
j=0
C m
ax |ej+i | + (h)
0ik
r(h) + h(n + 1) C m
ax |ei | + (h)
condici
on II de f
0in+k
Definimos wn+k = m
ax |ei |, y observamos que {wn }n0 es una sucesion creciente. As, tene0in+k
mos que
m
ax |ei | = wn+k r(h) + Ch(n + 1)wn+k + h(n + 1) (h),
0in+k
(2.8)
(2.9)
,
Por otro lado, y basado en la misma desigualdad h(n + 1) , tambien se cumple que h < n+1
as que:
wn+k 2r(h) + 2 (h)
c1 r(h) + c2 (h)
con c1 , c2 independientes de h. Esta desigualdad es precisamente la que queramos demostrar.
Comentario 2.21. Notemos que en la demostracion anterior debamos asegurar que h(n + 1)
. Por tanto, la acotaci
on para el EGD que hemos demostrado est
a probada para el problema
y = f (x, y), y(a) = , x [a, b] u
nicamente en el subintervalo [a, a + ].
Si queremos extender la acotaci
on a [a, b] debemos proceder como sigue. Para empezar, tomamos
los k u
ltimos valores de la soluci
on numerica en [a, a + ]. Seguidamente continuamos calculando
la soluci
on numerica, y aplicando el mismo procedimiento de hasta entonces obtenemos en
[a + , a + 2] la siguiente acotaci
on:
wn+k 2[r2 (h) + (h)]
r2 (h) 2[r(h) + (h)]
Observamos que a medida que extendemos la acotacion esta puede volverse menos fina. A pesar
de esto, tiene la forma exigida por el teorema.
20
2.5.
j yn+k = h
k
X
j (yn+j )
j=0
j=0
= h:
Escribimos la ecuaci
on en diferencias lineal homogenea con h
k
X
j )yn+j = 0
(j h
(2.10)
j=0
Notemos que para analizar las soluciones de la EDLin es necesario que consideremos el polinomio
caracterstico de la misma. De acuerdo con la ecuaci
on (2.10) el polinomio es:
= (r) h(r)
(r; h)
(2.11)
Proposici
on 2.1. Las soluciones de (2.10) son asint
oticamente estables si y solo si escogido h
entonces:
lm ||yn || 0
n
1. Eje x Re(h)
2. Eje y Im(h)
Podramos tambien definir el conjunto como:
C | rt C, (rt , h)
= 0, |rt | < 1}
RA = {h
Ejemplo 2.23. Calcularemos los conjuntos RA de los metodos:
Metodo de Euler: yn+1 = yn + hfn
Metodo de Euler implcito: yn+1 = yn + hfn+1
(2.12)
21
B (r, h)
+ (1 )) = (1 h)r
+ (1 (1 )h)
Calculando las races obtenemos:
rt =
1 + (1 )h
1 h
Para hacer un an
alisis m
as simple del metodo, analizamos la frontera de RA , que denotaremos
por RA .
tales que (r, h)
admite races rt tales que rt = ei ,
RA estar
a formada por los valores de h
con [0, 2].
= p(r) h(r).
(2.13)
La ecuaci
on (2.13) nos define RA como una curva uniparametrica en R2 .
Ejemplo 2.24. MLM de un paso convergente con = 12 , alternativamente denominado como
la regla del trapecio.
Tenemos yn+1 = yn + h2 (fn+1 + fn ), por lo tanto (r) = 12 (1 + r). Obtenemos como curva hf :
hf () =
Por lo tanto, obtenemos:
ei 1
= i(2 tan( ))
1 i
2
2 (e + 1)
C/Re(h)
= 0}
RA = {h
(2.14)
(2.15)
RA .
Una vez obtenida la frontera, podemos obtener por continuidad los puntos h
Notemos que, en general, que RA puede ser el conjunto , ya que su frontera no siempre es
una curva continua ni conexa.
22
RA /Im(h)
= 0}.
Definici
on 2.25. El intervalo de estabilidad absoluta IA RA es IA = {h
Recordemos que para un MLM se satisfaca:
|yn (h) y(xn )| C1 r(h) + C2 (h)
con C1 , C2 constantes. Por lo tanto, las condiciones suficientes de convergencia son:
Condicion II sobre f
Consistencia
Cero Estabilidad
Teorema 14. Si un metodo es convergente entonces es cero estable si para f 0 se tiene f = 0
(condici
on I).
P
Demostraci
on. Sea el problema y = 0, y(a) = . Para el metodo dado por (r) = kj=0 j r j
y f cualquiera. Aplicando el metodo al problema se obtiene una EDLin homogenea:
k
X
j yn+j = 0
(2.16)
j=0
Utilizaremos el argumento del contrarecproco para demostrar el teorema. Supongamos pues que
el metodo no es cero estable. Entonces existe una raz de (r) tal que || > 1 o bien || = 1 y
raz m
ultiple. Toda soluci
on numerica del problema tiene terminos de la forma n con || > 1 o
proporcional a n si || = 1. En general pues, la soluci
on general {yn } va a crecer arbitrariamente
cuando n . Por lo tanto, podemos asegurar que:
|y(x) yn |
n
(2.17)
Esto
se cumplira aunque los valores inicial usados en (2.16) tiendan a . Por lo tanto, tenemos
que el metodo no es convergente y queda demostrado por contrarecproco.
Observacion 2.26. Es importante notar que para la demostracion del teorema anterior es
b
asica la condici
on de f = 0 ya que en caso contrario no podramos obtener la formula (2.16).
P
Teorema 15. Sea un metodo de la forma kj=0 j yn+j = hf tal que cumpla las condiciones
(2.4) y (2.7). Entonces, se cumple que:
El metodo es convergente es consistente y cero-estable.
Adem
as, si el metodo es de orden p (i.e, (h) = O(hp )), suponiendo que el error de los valores
iniciales sea O(hq ) con q p entonces:
EDG = O(hp )
Demostraci
on. La demostracion del teorema anterior se sigue de todos los teoremas trabajados
en este captulo.
Captulo 3
M
etodos Lineales Multipaso
3.1.
M
etodos Lineales Multipaso y Teorema de Dahlquist
i yn+i = h
k
X
i fn+i
con k = 1
i=0
i=0
k
X
i r i ,
(r) =
k
X
i r i
i=0
i=0
Anteriormente se ha estudiado cu
ando un metodo lineal multipaso es estable y de que manera se
puede conocer su orden. Como el orden de un metodo est
a totalmente relacionado con el n
umero
de pasos, es necesario preguntarse cu
al puede ser el orden m
as grande posible de un metodo de
este tipo bajo la condici
on de estabilidad.
En este apartado nos centraremos en la relaci
on entre el paso h y el orden del metodo, en
el caso particular de los metodo lineales multipaso. Para establecer el orden p hay que imponer
que los coeficientes del desarrollo de Taylor de h (x, h) y h (h) se anulen, ya que son estos los
que nos indican el orden de convergencia:
Ci = 0,
i = 0 . . . p,
(3.1)
CAPITULO 3. METODOS
LINEALES MULTIPASO
24
Teorema 17. Un MLM de k pasos cero estable y de orden k+2 tiene un polinomio caracterstico
tal que todas sus races son de m
odulo 1 y simples.
Ejemplo 3.2. Consideremos el metodo de Simpson definido por yn+2 yn = h3 (fn+2 +4fn+1 +fn ),
i.e, (r) = r 2 1. Se puede comprobar que este metodo es optimo.
3.1.1.
Estabilidad Lineal
(r, h)
Si el metodo es convergente, se cumple que:
= (r)
lmh0 (r, h)
rt = 1 es raz de (r)
raz de (r, h)
tal que lm r1 (h)
= 1.
Por lo tanto existir
a r1 (h)
h0
= eh + O(h
p+1 )
r1 (h)
0.
en el lmite cuando h
Corolario. Para todo MLM existe tal que el conjunto de puntos {(x, 0) R2
no pertenecen nunca a la region de estabilidad.
x (0, )}
Demostraci
on. (del teorema)
h (x; h) = O(hp+1 ) con y = f (x, y)
P
P
Para y = y h (x, h) = kj=0 j y(x + jh) h kj=0 j y (x + jh). Con la condici
on inicial
x
y(0) = 1 se tiene que y(x) = e . Entonces:
k
X
j e(x+jh) h
j e(x+jh) = O(hp+1 )
j=0
j=0
k
X
j=0
<
Escogemos pues h
k
X
p+1 )
j (eh )j = O(h
j (eh )j h
{z
(eh
,h)=(eh
)h(e
)
eh r1 (h)
sucede al ser el metodo
1.
convergente, la unidad es raz simple y r1 (h)
1
k
= O(h
p+1 )
eh r1 (h)
= eh + O(h
p+1 )
r1 (h)
3.2. METODOS
IMPLICITOS Y PREDICTOR-CORRECTOR
3.2.
25
M
etodos Implcitos y Predictor-Corrector
Definici
on 3.3. Un par predictor-corrector (P-C) de k pasos est
a formado por dos metodos
lineales multipaso, uno explcito llamado predictor (P) y otro implcito denominado corrector
(C). La expresi
on general de un P-C es la siguiente:
( P
Pk1
k
j fn+j
(P )
j yn+j = h j=0
j=0
Pk
Pk
(3.2)
(C)
j=0 j yn+j = h
j=0 j fn+j
donde k es siempre el n
umero de pasos del P, representado por la primera de las igualdades. En
la segunda, que representa el C, no se exige la condici
on |0 | + |0 | =
6 0, pero se sigue asumiendo
que k = k = 1. A continuaci
on se describen los pasos a seguir y las formulas que se utilizan
para calcular la soluci
on numerica de un PVI mediante un metodo P-C como el (3.2) en los
modos P (EC) E 1t , con t {0, 1}, donde t = 0 indica que se efectua la evaluaci
on final de f ,
mientras que t = 1 indica que no se efectua dicha evaluaci
on final.
Partiendo de los valores iniciales yj , j = 0 k 1, y para n 0:
[0]
yn+k = h
P :
k1
X
[t]
j fn+j
(EC) :
[+1]
yn+k +
k1
X
[]
j yn+j =
j=0
1t
[]
[]
j yn+j
j=0
j=0
[]
fn+k
k1
X
[]
f (xn+k , yn+k )
k1
X
[k+j]
[]
j fn+j
,
hk fn+k + h
j=0
[]
=01
si t = 0.
Definici
on 3.4. Un MLM implcito de k pasos se caracteriza por tener el coeficiente k 6= 0.
k
X
i yn+i = h
k
X
i fn+i
i=0
i=0
donde gn es la soluci
on numerica en xn+j con j = 0, . . . , k 1. Dado yn+k , iteramos:
[l]
[l+1]
[l]
||yn+k yn+k || 0
l
l = 0, 1, . . .
[0]
1
|k |L
CAPITULO 3. METODOS
LINEALES MULTIPASO
26
[l+1]
||yn+k
3.3.
Criterio de Routh-Hurwitz
Este criterio puede resultar de gran utilidad cuando se analiza la estabilidad absoluta de un
metodo, concepto que introduciremos a lo largo del captulo.
Definici
on 3.5. Consideremos un polinomio de grado k, coeficientes reales y variable z C
P (z) = a0 z k + a1 z k1 + + ak1 z + ak ,
con a0 > 0. La matriz k k determinada
a1
a0
H =0
.
..
0
por
a3
a2
a1
a0
..
.
a5
a4
a3
a2
..
.
..
.
a2k1
a2k2
a2k3
a2k4
..
.
ak
1+z
1z
3.4. ESTIMACION
DE 1 PASO
3.4.
27
Estimaci
on del ELD para m
etodos de 1 paso
La idea es estimar el ELD de un metodo como la diferencia entre el valor que arroja el
metodo y el valor que obtenemos del mismo metodo al dividir el paso por la mitad.
Consideremos el metodo yn+1 = yn + hfn . Sabemos que el ELD para este vale:
ELDn+1 = h (xn , h) =
y (xn ) 2
h + O(h3 )
2
donde definimos el termino principal como el primer coeficiento no nulo del desarrollo de Taylor
del ELD, que denotaremos por PELD. En nuestro caso, el termino principal es P ELDn+1 =
y (xn ) 2
h . Si tomamos como paso h entonces
2
xn
yn
yn+ 1
2
En el caso
h
2
tenemos:
h
2
h
2,
xn+1
yn+1 (h)
xn+1
yn+1
h
2
h
h
h
h
= yn+ 1 + f (xn + , yn+ 1 ) = yn+ 1 + fn+ 1
yn+1
2
2
2
2
2
2
2
2
h
yn+ 1 = yn + fn
2
2
i
h
hh
fn + fn+ 1
yn+1 ( ) = yn +
(equivalente al metodo Runge-Kutta)
2
2
2
h
yn+1 = yn + (k1 + k2 )
2
() Taylor
h
h
f (xn , yn ) = fx + fy f + O(h2 ),
2
2
d
y (x) =
f = fx + fy f
dx
CAPITULO 3. METODOS
LINEALES MULTIPASO
28
y (xn ) h 2
h (xn , h) = 2
+ O(h3 )
2
2
=
h
2
y (xn ) 2
h
h = 2 yn+1
yn+1 (h) + O(h3 )
P ELDn+1 =
2
2
[2]
Estimamos el P ELDn+1 usando 2[yn+1 h2 yn+1 (h)].
Esquema de control del ELD de la soluci
on numerica con el metodo de Euler:
2kyn+1 ( h2 ) yn+1 (h)k
< r
kyn+1 (h)k
Generalizaci
on a m
etodos de 1 paso de orden p
Supongamos que tenemos un metodo de 1 paso, ahora de orden p. En este caso, el ELD
asociado a yn+1 con paso h es
ELDn+1 (h) = G(y(xn ))hp+1 + O(hp+2 ) = y(xn+1 ) yn+1 (h)
Procediendo de manera an
aloga a la anterior, veamos que ocurre si tomamos como paso
h
considerando yn+1 2 :
p+1
h
h
h
p+2
+ O(h ) = y(xn+1 ) yn+1
= 2G(y(xn ))
ELDn+1
2
2
2
h
2,
p+1
1
= 1 p
2
1
h
yn+1
yn+1 (h) + O(hp+2 )
2
3.5. ESTIMACION
PREDICTOR-CORRECTOR
3.5.
29
Estimaci
on del ELD con m
etodos Predictor-Corrector
Supongamos que estamos tratando con un metodo predictor-corrector de la forma (3.3), para
el cual tenemos:
Predictor: p orden, Cp +1 constante de error.
Corrector: p orden, Cp+1 constante de error.
Cuando se usa el par P-C en el modo P (EC) E 1t con t {0, 1} en realidad se est
a utilizando un
metodo explcito. Es por ello que podemos analizar el correspondiente error local de truncacion
o discretizacion (ELD) de la forma habitual: examinaremos la diferencia y(xn+k ) yn+k , siendo
yn+k la aproximacion numerica en xn+k obtenida con el metodo cuando se toman valores exactos,
j =0k1
yn+j = y(xn+j ),
(3.3)
+1
y (p
+1)
p+1 (p+1)
h (x, h) = Cp+1 h
(x) + O(hp
p+2
(x) + O(h
+2
(3.4)
(3.5)
k1
X
j y(xn+j ) = h
k1
X
j=0
j=0
k1
X
j y(xn+j )
=h
k1
X
j=0
j=0
y(xn+k ) yn+k = Cp +1 hp
+1
y (p
+1)
(xn ) + O(hp
+2
(3.6)
k1
X
j=0
j y(xn+j ) = h
k1
X
j=0
yn+k +
k1
X
[]
j=0
k1
X
j=0
f
[]
(xn+k , )[y(xn+k ) yn+k ] + Cp+1 hp+1 y (p+1) (xn ) + O(hp+2 )
y
(3.7)
CAPITULO 3. METODOS
LINEALES MULTIPASO
30
con = 01. En la segunda igualdad se ha aplicado el teorema del valor medio para funciones
vectoriales, con v representado los distintos valores intermedios para cada componente de la
derivada parcial.
En funci
on de los
ordenes del P y el C (los valores de p y p respectivamente) se obtienen
los siguientes resultados:
1. Caso p p:
Sustituyendo (3.6) en la formula (3.7) para = 0 se deduce
[1]
y(xn+k ) yn+k = k
f
C hp y (p1) (xn ) + O(hp+1 ).
y p1
Notamos que ahora si = 1 el orden del P-C es p 1, inferior en una unidad al orden del
C. Si 2, sustiyendo la ecuaci
on anterior en (3.7) con = 1 se deduce
#
"
2
f
[2]
Cp1
y (p1) (xn ) + Cp+1 y (p+1) (xn ) hp+1 + O(hp+2 ),
y(xn+k ) yn+k =
k
y
de modo que para = 2 el orden del metodo P-C es igual al del C, pero los PELD
de ambos metodos no coinciden. Sucesivas sustituciones en (3.7) conducen a la siguiente
formula, valida u
nicamente cuando 3
[]
3.5. ESTIMACION
PREDICTOR-CORRECTOR
31
Por tanto, queda claro que el orden y el PELD de un metodo P-C en el modo P (EC) E 1t dependen de la diferencia de los
ordenes del P y del C, as como del valor (n
umero de iteraciones)
del modo. El siguiente teorema enuncia el resultado general.
Teorema 19. En las condiciones anteriores, consideremos un metodo P-C definido por (3.3) y
utilizado en el modo P (EC) E 1t .
1. Si p p, o bien si p < p y > p p , entonces el metodo P-C y el corrector tienen el
mismo orden y el mismo PELD.
2. Si p < p y = p p , entonces el metodo P-C y el corrector tienen el mismo orden pero
diferentes PELD.
3. Si p < p y < pp , entonces el orden del P-C es igual a p + y siempre es estrictamente
inferior al orden del corrector.
Adem
as, los modos P (EC) E y P (EC) tienen el mismo orden y el mismo PELD.
Demostraci
on. Empezamos considerando la funcion h (xn , h), es decir:
[0]
+1
(xn )hp
+1
+ O(hp
+2
[]
[]
[0]
yn+k yn+k = Cp +1 y p +1 (xn )hp +1 Cp+1 y p+1 (xn )hp+1 + O(hp+2 )
(3.8)
[]
+1
[]
[]
Cp+1
[]
[0]
(
yn+k yn+k ) + O(hp+2 )
Cp+1 Cp+1
{z
}
|
Constante de Milne
Comentario 3.8 (Modos con extrapolacion local). Dado un P-C en modo P (EC) E 1t se
construye un nuevo metodo como soluci
on de:
Cp+1
[]
[]
[0]
[]
yn+k = yn+k +
(yn+k yn+k ).
Cp+1 Cp+1
[]
A partir de yn+k en modo P (EC) E 1t se pueden construir nuevos modos P-C del tipo P (ECL) E 1t
o del tipo P (EC) LE 1t .
CAPITULO 3. METODOS
LINEALES MULTIPASO
32
3.6.
yn+2 yn+1 =
yn+2 yn+1
y
3
h
h
n+1 + hy
n+1 yn ) yn+1 = 0
yn+2 yn+1 h(
2
4
2
2
yn+2 yn+1 =
La forma de los polinomios de estabilidad absoluta de los metodos P-C en este modo es:
= (r) h(r)
(r))
(r, h)
+ M (H)( (r) h
(
p, C
M (H) =
H (1 H)
,
1 H
p , P
(
k
H = h
donde
= k r k + k1 r k1 + + 0
(r, h)
+ M (H)( (r)(r) (r)(r))
= (r). En tal caso existe r1 (h)
(eh , h)
= O(hp+1 )
donde p es el orden del metodo P-C. Luego, se deduce (utilizando el mismo razonamiento que
= eh + O(hp+1 ) cuando h 0. A modo de resumen, para los diferentes
para MLM) quer1 (h)
modos los polinomios de estabilidad son
P (EC) E :
P (EC) :
= (r) h(r)
(r)]
(r, h)
+ M (H)[ (r) h
= k r k [(r) h(r)]
(r, h)
+ M (H)[ (r)(r) (r) (r)]
donde
1,
r1 (h)
h0
M (H) =
H (1 H)
= O(h ),
1 H
H = k h
= O(h
p+1 )
(eh , h)
= eh + O(hp+1 )
r1 (h)
(3.9)
(3.10)
3.7. CONSTRUCCION
33
Si p es el orden del C y p es el orden del P con P y C convergentes entonces, para los modos
P (EC) E (se deduce de la ecuaci
on (3.9)) tenemos
(eh , h)
= O(hp+1 ),
si p + p,
= O(hp+1 )
3.7.
Construcci
on de MLM por Interpolaci
on
xn+1
I(x)dx
xn
I(xnj ) = fnj
se obtiene
yn+1 yn = h
k1
X
j fn+1k+j
j=0
y observamos que se trata de un metodo expcito de k pasos. Esta familia de metodos se conoce
como metodos de Adams-Bashford.
Por otro lado, podemos considerar el caso
I(xn+1j ) = fn+1j
j = 0, 1 . . . k
k
X
j fn+1k
j=0
Cabe notar que se trata de un conjunto de metodos implcitos de k pasos, conocidos como metodos de Adams-Moulton.
CAPITULO 3. METODOS
LINEALES MULTIPASO
34
La formula de interpolaci
on de Newton nos servir
a para explicitar la forma de I(x). A
continuaci
on la presentamos.
(r) =
I(x) = Pk1
k1
X
r i
(1)i
fn+j
i
i=0
donde
r=
x xn
,
h
fn = fn fn1
2 fn = (fn ) = fn 2fn1 + fn2
donde r
=
i
minados as:
1
i!
Qi1
l=0 (r
xxn+1
.
h
3.7.1.
M
etodos Adams-Bashfort de k pasos
Pk1 (r)dx = h
yn+1 yn =
Z
Pk1 (r)hdr = h
0
xn
k1
X
j=0
i i fn ,
1
0
(r)dr
Pk1
= (1)
1
r
dr
i
X
X
r
r
i
i
i
i
(t) dr =
(1)
i t =
dr t =
G (t) =
i
i
0
0
i=0
i=0
i=0
Z 1
(1 t)r 1
t
r
(1 t) dr =
=
= (1 t) ln(1 t)
ln(1
t)
0
0
3.7. CONSTRUCCION
35
ln(1 t)
= (1 t)1
t
t
+ . . .) = 1 + t + t2 + . . .
2
que nos aporta los las ecuaciones que deben satisfacer los coeficientes i :
i +
i1
+ ... + 0 = 1
2
i+1
i = 0, 1 . . . k 1
3.7.2.
M
etodos Adams-Moulton de k pasos
Pk (r)hdr = h
1
i =
(1)i
k
X
i i fn+1
i=0
r
dr
i
X
i=0
i ti =
t
ln(1 t)
G(t)
ln(1 t)
=1
t
El metodo A-M de k pasos requiere i hasta i = 0 k. Una vez incorporadas y resueltas las
ecuaciones de las i obtenemos para el metodo A-M de k pasos:
yn+1 yn = h
k
X
i=0
i i fn+1
36
CAPITULO 3. METODOS
LINEALES MULTIPASO
Captulo 4
M
etodos Runge-Kutta
En este captulo analizaremos los metodos Runge-Kutta en su formulaci
on general, trataremos las condiciones de orden (seg
un la estrategia de Butcher), y por u
ltimo trabajaremos sobre
el an
alogo de la estabilidad lineal introducido en el tema anterior.
4.1.
Formulaci
on del m
etodo
Definici
on 4.1. Un metodo Runge-Kutta (RK) es un metodo de un paso dado por la ecuaci
on:
yn+1 yn = h
s
X
bi ki
i=1
donde
ki = f (xn + ci h, yi ),
yi = yn + h
s
X
aij kj
j=1
aij = ci ,
i =1s
j=1
Definici
on 4.2. Diremos que s es el n
umero de niveles del metodo.
Es habitual denotar los metodos RK mediante notaci
on matricial. Para ello introducimos:
Definici
on 4.3. La matrix de Butcher es
c A
0 bT
donde:
A = (aij )
c = [c1 . . . cs ]T
37
b = [b1 . . . bs ]T
CAPITULO 4. METODOS
RUNGE-KUTTA
38
En el caso en que A sea triangular inferior estricta (con aii = 0, i = 1 s), entonces el
metodo RK es explcito. Entonces tendra la estructura:
k1 = f (xn , yn ) = fn
k2 = f (xn + c2 h, yn + hc2 k1 )
k3 = f (xn + c3 h, yn + h(c3 a32 )k1 + ha32 k2 )
..
.
Ejemplo 4.4. De acuerdo con las definiciones anteriores, el metodo RK de un nivel es
yn+1 yn = hb1 fn
que solo converge en el caso b1 = 1, definiendo as, como habra apreciado el h
abil lector, el ya
conocido metodo de Euler.
4.2.
Convergencia de m
etodos RK
s
X
bi f (xn + ci h, yi )
i=1
Si f cumple la condici
on de Lipschitz, entonces f cumple la condici
on (2.7).
Cero estabilidad. Por ser (r) = r 1, los metodos siempre son cero estables.
Segunda condici
on de consistencia (Teorema 2 ):
?
s
X
bi f (x, y(x)).
j=1
P
Por tanto, la condici
on de consistencia para los metodo RK es si=1 bi = 1, que nos da
tambien la convergencia junto con las otras condiciones verificadas.
4.2.1.
Consideremos el ELD asociado a metodos RK. De apartados anteriores conocemos que este
viene dado por:
h (x, h) = y(x + h) y(x) hf (y(x), x; h)
h (x, h) = y (x)h + O(h2 ) hf (y(x), x; 0) + O(h2 )
P
donde y (x) = f (x, y(x)) y hf (y(x), x; 0) = h i bi f (x, y(x)). Si el RK es convergente, al ser
consistente en general podremos afirmar que (x, h) = O(h), tiene orden 1 al menos.
4.2. CONVERGENCIA DE METODOS
RK
4.2.2.
39
M
etodos implcitos y semi-implcito
4.2.3.
Regi
on de estabilidad absoluta
Proposici
on 4.1. La formula general de la funci
on de estabilidad absoluta de los metodos R-K
es:
n
yn+1 = R(h)y
C| |R(h)|
< 1}
RA = {h
Analizemos ahora la forma general de R(b
h):
yn+1 = yn + h
s
X
bi ki
i=1
En el caso
y = y,
P
yn+1 = yn + b
h si=1 bi Yi , donde
Yi = y n + h
s
X
j=1
aij (Yj ) = yn + b
h
Y = [Y1 , . . . , Ys ]T
s
X
aij Yj
j=1
e = [1, . . . , 1]T Rs
Podemos reformular pues las condiciones anteriores de forma vectorial con el uso de el Y , la
matriz A, y el vector e:
Y = yn e + b
hAY
(Is b
hA)Y = yn e
Y = [(Is b
hA)1 e]yn
Condicion b
asica para que esto suceda es evidentemente que det(Is b
hA) 6= 0. Si el metodo Rk
es explcito, se comprueba que det(Is b
hA) = 1 b
h C.
Yn+1 = Yn + b
hbT (Is b
hA)1 eyn = (1 + b
hbT (Is b
hA)1 e)yn
Ademas R(b
h) es una funci
on polin
omica de grado s.
1
Definimos matriz triangular inferior no estricta como matriz triangular inferior cuya diagonal no es identicamente cero
CAPITULO 4. METODOS
RUNGE-KUTTA
40
y(xn+1 ) = yn + (h)yn + . . . +
yn+1
yn+1 = R(b
h)yn para cualquier RK aplicado a y = y
4.3.
Introducci
on al estudio del orden de los m
etodos RK
Para estudiar el orden hay que deteminar el desarrollo de Taylor de la funcion (x, h), que
en el caso de los metodos Runge-Kutta (RK) adopta la siguiente expresi
on:
h (x, h) = y(x, h) y(x) hf (y(x), x, h) = y(x + h) y(x) h
s
X
bi ki ,
i=1
siendo
ki = f (x + ci h, yi ),
yi = yn + h
s
X
aij kj ,
j=1
ci =
s
X
aij ,
i =1s
j=1
4.3.1.
Consideremos el caso general de un PVI escalar, cuya EDO es y = f (x, y), con y(x) R, y
un metodo RK explcito de 3 niveles:
yn+1 = yn + h(b1 k1 + b2 k2 + b3 k3 )
k1 = f (xn , yn )
k2 = f (xn + hc2 , yn + hc2 k1 )
k3 = f (xn + hc3 , yn + h(c3 a32 )k1 + ha32 k2 )
4.3. INTRODUCCION
RK
41
fx : =
f
,
x
fxy : =
2f
,
xy
fxx : =
2f
,
x2
etc.
G + O(h4 )
6
6
2
2
orden 1 al menos,
y la anterior
y las anteriores
orden 2 al menos,
orden 3 al menos.
De hecho, examinando el termino de orden h4 se puede comprobar que si se cumplen las condiciones anteriores, el orden es exactamente 3 y no puede ser mayor.
4.3.2.
CAPITULO 4. METODOS
RUNGE-KUTTA
42
El m
aximo orden que puede alcanzarse con un metodo RK de s niveles es igual a 2s cuando
el metodo es implcito.
Existen metdodos RK que se comportan con orden diferente seg
un se apliquen a un problema escalar (aut
onomo o no) o a un sistema de EDOs. Considerar los siguientes enunciados
aplicados a un metodo RK cualquiera:
Enunciado A: El metodo tiene orden p para y = f (y), y(x) Rm , m > 1 (sistema de
EDOs, caso general).
Enunciado B: El metodo tiene orden p para y = f (y), y(x) R (problema escalar, caso
general).
Enunciado C: El metodo tiene orden p para y = f (y), y(x) R (problema escalar
aut
onomo).
Se conocen los siguientes resultados:
si 1 p 3,
4.4.
A B C,
si p = 4,
A B C,
pero C ; B,
si p 5,
A B C,
pero C ; B
y B ; A.
y, f Rm , m > 1
y(a) = ,
y (2) = fy f,
Para ver que estas expresiones pueden generalizarse de forma inmediata al caso de un sistema de
dimension m > 1 es suficiente considerar las mismas derivadas cuando m = 2, es decir, cuando
y = [1 y, 2 y]T ,
Introduciendo la notaci
on
componente f
i
fj :=
f = [1 f, 2 f ]T
derivada :
(if )
,
(jy)
fjk :=
2 (if )
,
(jy)(ky)
etc
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK
43
4.4.1.
Caso y = f (y)
(4.1)
(4.2)
Notemos que si f no depende de x, entonces los terminos (4.1) y (4.2) se convierten en:
(4.1)
fy fyy f 2
(4.2)
fy fyy f 2
Notemos que los dos terminos quedan exactamente iguales. Por ese motivo, las dos condiciones
colapsan en una sola condici
on que denominaremos ((4.1) + (4.2)).
4.4.2.
La M-
esima derivada de Frechet
m
m
m
X
X
X
i
f (M ) (z)(K1 . . . KM ) =
i=1
j1 =1
jM =1
donde
fj1jM =
M (if (z))
(j1 z) (jM z)
Ki , i = 1 . . . M son los operandos de la derivada de Frechet. Hay M operandos si la derivada es de orden M. Cada uno de ellos representa una funcion vectorial de m componentes,
Ki = [iKi . . . mKi ]T . En particular, los operandos pueden ser a su vez derivadas de Frechet.
CAPITULO 4. METODOS
RUNGE-KUTTA
44
4.4.3.
1 1
2
2
1f 2K
X
X
f
K
+
1
1
2
1
(1)
i
j
1
f (z)(K1 ) =
fji K1 ei = 2 1
f1 K1 + 2f2 2K1
i=1
j1 =1
Reemplazando el argumento z por y = y(x) y el operando K1 por f (y), siendo (para el caso
m = 2) y, f (y) R2 la expresi
on anterior adopta la forma:
1 1
f f + 1f2 2f
f (1) (y)(f (y)) = 2 1 1
= D(f )f = y (2)
f1 f + 2f2 2f
Para simplificar la notaci
on se suprime el argumento y, de forma que la derivada segunda de y
se puede expresar como una derivada de Frechet de primer orden:
y (2) = f (1) (f ).
Tambien se puede expresar y (3) utilizando derivadas de Frechet hasta orden 2 como m
aximo. Si
de nuevo consideramos m = 2 y adoptamos M = 2 en la formula general, se obtiene:
1 1 1
f11 K1 K2 + 1f12 1K1 2K2 + 1f21 2K1 1K2 + 1f22 2K1 2K2
(2)
f (z)(K1 , K2 ) = 2 1 1
f11 K1 K2 + 2f12 1K1 2K2 + 2f21 2K1 1K2 + 2f22 2K1 2K2
Reemplazamos z por y, tomando K1 = K2 = f y usando if12 = if21 se obtiene:
1
T 2 1
f (1f )2 + 21f12 (1f )(2f ) + 1f22 (2f )2
f D ( f )f
f (2) (f, f ) := f (2) (y)(f (y), f (y)) = 2 11 1 1 2
=
f11 ( f1 ) + 22f12 (1f )(2f ) + 2f22 (2f )2
f T D 2 (2f )f
que es el primer termino de la derivada tercera de y que se obtuvo al principio de la secci
on
2. El segundo termino de y (3) se puede comprobar que es tambien una derivada de Frechet, en
este caso de orden 1. Concretamente, si se toma K1 = f (1) (f ) como operando de la derivada de
Frechet de orden 1, se deduce:
f (1) (f (1) (f )) = (Df )2 f
Podemos escribir entonces para la derivada tercera:
y (3) = f (2) (f, f ) + f (1) (f (1) (f )),
que es posible generalizar para cualquier dimension m, y en particular, para el caso escalar
m = 1 se recupera la expresi
on habitual de la derivada tercera.
Comentario 4.7 (sobre la derivaci
on de una derivada de Frechet). Al derivar respecto a x,
y (x) = f (x), una derivada de Frechet de orden M con argumento y = y(x) cuyos M operandos
son derivadas de Frechet de orden menor a M , se obtiene una combinaci
on lineal de derivadas
de Frechet de orden M + 1 con argumentos y y operandos f o derivadas de Frechet de orden
M.
d i
[ fj1 ...jM , j1 K1 . . .jM KM ]
dx
di
fj ...j = f i fj1...jM ,jM +1
dx 1 M
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK
4.4.4.
45
Diferenciales elementales
CAPITULO 4. METODOS
RUNGE-KUTTA
46
M = 1. Cada uno de los diferenciales elementales de orden 3 se puede usar como argumento, de modo que hay dos posibles resultados: {2 f 2 }2 y {3 f }3 .
De acuerdo con los resultados anteriores se comprueba que podemos escribir las primeras derivadas de y tal como indica la siguiente tabla:
i
1
2
3
4
y (i)
f
{f }
{f 2 } + {2 f }2
{f 3 } + 3{f {f }} + {2 f 2 }3 + {3 f }3
4.4.5.
Arboles
con raz
Notemos que en el caso de grafos dirigidos, la arista la escribiremos como una pareja ordenada de vertices, es
decir, (a,b). En cambio, en los grafos no dirigidos, la arista es una pareja no ordenada. Por tanto, la escribiremos
como {a, b}.
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK
47
3. Sea un grafo (V, A). Una sucesion de vertices diferentes v1 , . . . , vk con k 2, tal que
{vi , vi+1 } A para 1 i k 1 se conoce como un camino entre v1 y vk . Se dice que el
grafo (V, A) es conexo si entre cada par de vertices distintos de V existe un camino.
Definici
on 4.12. Un digrafo (V, E) es un
arbol con raz cuando cumple las siguientes condiciones:
(1) Su grafo subyacente es conexo.
(2) Los pares ordenados de E tienen componentes distintas: (a, b) E a 6= b.
(3) Existe un u
nico elemento de V , denominado raz, que nunca aparece en la segunda componente de los pares ordenados de E.
(4) Excepto la raz, todos los elementos de V aparecen exactamente una vez entre las segundas
componentes de los pares ordenados de E.
Definici
on 4.13.
Un grafo (V, A) es acclico si cumple las condiciones 3 y 4 anteriores. No posee caminos
cerrados o ciclos.
El n
umero de vertices de un
arbol con raz (y de un grafo en general) se denomina orden.
Dado el par (V, E) el orden del
arbol con raz es el cardinal del conjunto de vertices de V .
Comentario 4.14 (Representaci
on gr
afica). Los vertices se representan como puntos y las
aristas como segmentos de recta uniendo los vertices que las definen. Dada una arista (a, b) el
vertice a se representa por debajo del b: las aristas apuntan hacia arriba. La raz es el vertice
que figura en la parte inferior del diagrama.
Definici
on 4.15. Si (V, E) y (V , E ) son dos arboles con raz, se dice que son isomorfos cuando
existe una aplicaci
on biyectiva : V V tal queda
x, y V,
Todos los
arboles con raz isomorfos se representan con el mismo diagrama sin etiquetar
los vertices. En realidad, cuando no se usan etiquetas para los vertices el diagrama es una
representaci
on de toda una clase de equivalencia de arboles con raz definida por la relaci
on de
isomorfa.
Comentario 4.16. A menudo hablaremos de arbol para referirnos a un arbol con raz (a
pesar de que en la teora de grafos son dos objetos distintos). Ademas, consideraremos iguales
todos los arboles isomorfos entre s.
Es posible construir los distintos
arboles de un orden fijado de forma recursiva utilizando la
siguiente notaci
on:
Para orden 1, hay un u
nico
arbol con raz de un vertice (arbol trivial), que denotamos .
Dado un
arbol t, consideramos todos los vertices x de t tales que (v, x) es una arista de
t, siendo v la raz de t. En tal caso se dice que x es un hijo de la raz. Si suprimimos v
del conjunto de vertices de t, y todas las aristas que tengan como segunda componente a
CAPITULO 4. METODOS
RUNGE-KUTTA
48
vertices hijos de la raz, lo que queda es un conjunto de aroles t1 , t2 . . . tm (no necesariamente distintos), que no est
an conectados entre s por ning
un camino, y cuyas races son
los vertices hijos de v en el
arbol t. Utilizaremos la notaci
on
t = [t1 , t2 . . . tm ]
para representar el
arbol t. Notemos que el orden de los ti en la representacion anterior es
irrelevante, de modo que si hay arboles ti repetidos, se agrupan y se escribe un exponente
para indicar el n
umero de repeticiones. Por ejemplo:
[t1 t3 t2 t1 t2 t2 ] := [t21 t32 t3 ]
Mediante la notaci
on anterior se obtienen los siguientes arboles con raz distintos de cualquier
orden:
Orden 1. .
Orden 2. [ ].
Orden 3. [ 2 ],
[[ ]] := [2 ]2 .
Orden 4. [ 3 ],
[ [ ]],
[[ 2 ]] := [2 2 ]2 ,
[3 ]3 .
Notemos que el n
umero total de
arboles de un orden dado coincide con el n
umero de diferenciales
elementales del mismo orden que se obtuvo en la secci
on anterior. Observemos tambien que si
r(ti ) son los
ordenes de los
arboles ti , i = 1 . . . m, entonces el orden de t = [t1 . . . tm ] es
r(t) = 1 +
m
X
r(ti ),
i=1
lo mismo que sucede con la construccion de los diferenciales elementales que se describio en la
secci
on anterior. El siguiente teorema generaliza estas dos observaciones:
Teorema 20. Para p 1, el n
umero de
arboles con raz distintos de orden p coincide con el
n
umero de diferenciales elementales de orden p de f . Existe una aplicaci
on biyectiva F entre
el conjunto de
arboles distintos T y el conjunto de los distintos diferenciales elementales de f .
Esta aplicaci
on se define del siguiente modo:
1. F ( ) = f . Al
arbol trivial le corresponde el u
nico diferencial elemental de orden 1, f .
2. Si a los
arboles con raz ts de orden r(ts ), s = 1 M , les corresponden los diferenciales
elementales
F (ts ) de orden rs , s = 1 . . . M, entonces al
arbol con ra
z [t1 . . . tM ] de orden
P
P
M
r(t
)
le
corresponde
el
diferencial
elemental
de
orden
1
+
1+ M
s
s=1 rs .
s=1
F ([t1 . . . tM ]) = {F (t1 ) . . . F (tM )},
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK
4.4.6.
49
tal que:
Donde entendemos que el subarbol v del arbol t es un la pareja (V , E)
V V,
E.
E
es un
(V , E)
arbol con raz.
v V V es la raz de (V , E).
El orden del subarbol v lo hemos denotado por rv .
Definici
on 4.19. Consideremos t = (V, E). Diremos que : V V es un automorfismo de t
si cumple
v, v V,
(v, v ) E
[(v), (v )] E
Definici
on 4.20. Decimos que el grupo de simetras de t es:
A(t) = { : V V | automorfismo de t}
El orden de A(t), (t), se conoce como simetra de t.
CAPITULO 4. METODOS
RUNGE-KUTTA
50
mk
1 m2
arboles con
Definici
on 4.21. Sea un
arbol con raz t = [tm
1 t2 . . . tk ] donde t1 , t2 . . . tk son
raz distintos 2 a 2. Entonces el orden r(t), la simetra (t), y la densidad (t) del arbol t se
definen de forma recursiva de acuerdo con las siguientes relaciones:
r(t) = 1 +
k
X
mi r(ti ),
i=1
(t) =
k
Y
mi ! ((ti ))mi ,
i=1
(t) = r(t)
k
Y
((ti ))mi
i=1
r(t)!
(t)(t)
s
s
k
X
X
X
aij kj ,
aij = ci , i = 1 . . . s
bi ki , ki = f y(x) + h
y(h) := y(x) + h
i=1
j=1
j=1
4.4. HERRAMIENTAS PARA EL ESTUDIO DEL ORDEN DE LOS METODOS
RK
Orden
1
2
3
3
4
4
4
4
Arbol (t)
[ ]
[ 2 ]
[2 ]2
[ 3 ]
[ [ ]]
[2 2 ]2
[2 ]2
F (t)
f
{f }
{f 2 }
{2 f }2
{f 3 }
{f {f }}
{2 f 2 }2
{3 f }3
r(t)
1
2
3
3
4
4
4
4
(t)
1
1
2
1
6
1
2
1
(t)
1
2
3
6
4
8
12
24
51
(t)
1
1
1
1
1
3
1
1
Ahora bien, el desarrollo de Taylor de y(x) se obtiene a partir del de los diferentes ki , que
coinciden con la funci
on f evaluada en los distintos puntos. Puesto que y = f en realidad
este desarrollo se puede expresar tambien en terminos de los diferenciales elementales de f . Por
tanto, el siguiente paso es determinar los coeficientes numericos de la combinaci
on de diferenciales
elementales que permiten obtener las derivadas de y(h). Estos coeficientes en principio no tienen
por que coincidir con los que ya se han obtenido al desarrollar directamente y(x). Comenzamos
por expresar formalmente el desarrollo de Taylor de y(h) entorno a x, (o equivalentemente
entorno a h = 0) del siguiente modo:
2
d
1
d
2
y
(h)
+ h
+
y(h) = y(0) + h y(h)
dh
2 dh2
h=0
h=0
A continuaci
on, adoptando la notaci
on
as+1,i := bi ,
i = 1...s
i ( ) =
s
X
aij = ci ,
j=1
si t1 , . . . , tM T,
([t1 . . . tM ]) =
s
X
j=1
CAPITULO 4. METODOS
RUNGE-KUTTA
52
4.5.
4.5.1.
Orden de los m
etodos Runge-Kutta
Expresi
on de m
etodos RK
p
X
hq
q=1
q!
p+1
X
h
h (x, h) = O(h(p+1) ) =
(p + 1)!
(q)
r(t)=p+1
P ELDn+1 =
hp+1
(p + 1)!
dq
(x) q y(h)
+ O(hp+1 )
dh
h=0
r(t)=p+1
(p+1)
(x) =
dp+1
y(h)
=
p+1
dq
h=0
(t)F (t);
r(t)=p+1
(t)(t)(t)F (t)
r(t)=p+1
y F es una biyecci
on entre derivadas de Frechet y diferenciales elementales.
Ejemplo 4.23. Determinar el PELD para RK explcito de 2 niveles y orden m
aximo.
0 0
c2 c2 0
b1 b2
donde se cumplen las condiciones:
b1 + b2 = 1
1
b2 c2 =
2
Los dos arboles que consideramos son: t1 = [[ ]], t2 = [ 2 ].
Para ellos se tiene:
F (t1 ) = {{f }} = f (1) (f (1) (f )) fy2 f (dimension 1)
F (t2 ) = {f 2 } = f (2) (f, f ) fyy f 2 (dimension 1)
Ademas, (t1 ) = 6, (t2 ) = 3 y (t1 ) = (t2 ) = 1.
Por otro lado, para los metodos sabemos que:
(t1 ) = bT Ac (t2 ) = bT c
Si imponemos que sea de dos niveles y explcito, entonces:
(t1 ) = 0,
Por tanto el PELD = (1 3b2 c22 )f (2) (f, f )
(t2 ) = b2 c22
4.5. ORDEN DE LOS METODOS
RUNGE-KUTTA
53
X
j
i ([
q1
]) =
aij [j ( )]q1
aij cjq1
([
q1
]=
bj cjq1
La condici
on de orden q ser
a:
([
p+1
]) =
1
([ q1 ])
s
X
bj cjq1 =
j=1
1
q
i=1
s
X
i=1
bi
s
X
j=1
i,j1 ,j2
4.5.2.
Condici
on suma-fila
aij = ci ,
i=1s
CAPITULO 4. METODOS
RUNGE-KUTTA
54
En esta secci
on profundizaremos m
as en la justificaci
on de este hecho: estudiaremos dos ejemplos,
uno que cumple la condici
on suma-fila, y otro que no la cumple.
Llegaremos a la conclusion de que en general, la condici
on suma-fila permite alcanzar orden
ki
ki
k
i
4.5. ORDEN DE LOS METODOS
RUNGE-KUTTA
4.5.3.
55
Formulaci
on de las condiciones de orden de los m
etodos RK
h2 (2)
y (x) + . . .
2
siendo
y (q) =
(t)F (t),
tT
r(t)=q
(h)
+ h
+ ...
y(h) = y(0) + h y(h)
dh
2 dh2
h=0
h=0
X
dq
y
(h)
=
(t)(t)(t)F (t),
dhq
h=0
t T,
r(t)=q
m 0, c0 = [1 . . . 1]T .
CAPITULO 4. METODOS
RUNGE-KUTTA
56
4.6.
M
etodos RK imbricados
yn(1)
(2)
yn+1 = yn(2) +
s
X
i=1
s
X
bi ki
bi ki
i=1
(1)
yn+1
s
X
(bi bi )ki ,
=h
si yn(1) = yn(2)
i=1
(2)
donde yn+1 , yn+1 son las soluciones numericas obtenidas con los metodos 1 y 2, suponiendo
(1)
(2)
que yn = yn = y(xn ).
En particular, se cumple que
(2)
(1)
(1)
p+1
(y(xn ))h
(2)
yn+1
(1)
yn+1
=h
s
X
(bi bi )ki
i=s+1
4.7. PROBLEMAS
57
4.7.
Problemas
P :
yn+1 = yn + hfn
h
yn+1 = yn + (fn + fn+1 )
2
C:
As, para la primera iteraci
on
[1]
yn+1 = yn +
donde
i
hh
[0]
fn + f (xn + h, yn+1 )
2
fn = k1
[0]
yn+1 = yn + hk1
Observamos que el orden del predictor es 1, y el del corrector es 2. El orden del metodo predictorcorrector se corresponde con el del corrector si 2 1 = 1. Al aplicar el metodo en modo
P ECE obtenemos un metodo de tipo Runge-Kutta:
yn+1 = yn +
h
(k1 + k2 )
2
k1 = fn
k2 = f (xn + h, yn + hk1 )
0
0
1
0
1/2 1/2
yn+1 = yn +
i
h
hh
[1]
fn + f (xn + h, yn+1 ) = yn + (k1 + k3 )
2
2
CAPITULO 4. METODOS
RUNGE-KUTTA
58
0
1
1
orden 1
orden 2
orden exactamente 2
bT c =
bT c =
1
2
1
3
1
q
q =1p
No es una condici
on suficiente.
Problema 50. Consideremos un metodo con matriz de Butcher:
0
1
1/2 0
1/2 0
1/2 1/2
4.7. PROBLEMAS
59
h
h
k1 + k2
2
2
donde
1
k1 = f (xn , yn + k1 ) (dem ejercicio 48)
2
h
k2 = f (xn + h, yn + k1 ) (caso particular k2 para un metodo explcito)
2
Problema 52. Se trata de un metodo de orden 3 en el caso general. Si tomamos y = f (y) en
dimension 1 entonces tiene orden 4:
t = [ [ ]]
t = [[ 2 ]]
Observamos que el orden es 3 para el caso general puesto que no se cumplen las dos condiciones
de orden 4:
1
12
1
bDAc =
8
bAc2 =
Hay dos terminos en potencia de h3 del desarrollo de Taylor de (x, h) que no se anulan:
t
(x, h) =
y(x + h) y(x) X
bi ki
h
i=1
h3
h3
+ (t)[1 8bDAc]f (2) (f, f (1)(f ) ) + O(h4 )
4!
4!
donde la expresi
on anterior se corresponde con P ELDn+1 /h del metodo.
CAPITULO 4. METODOS
RUNGE-KUTTA
60
(t) es el n
umero de formas de etiquetar los vertices de t con {1, 2 . . . r(t)}
r(t) es el orden de t bajo las siguientes condiciones:
1. Cada vertice (i, j) cumple i < j.
2. Las aristas (i, j) cumplen i < j.
3. Etiquetados automorfos cuentan como uno solo.
Por tanto, tenemos los siguientes arboles:
t
(1 2, 2 3, 2 4),
( t) = 1
(1 2, 1 3, 3 4),
(1 3, 1 2, 2 4),
(1 4, 1 2, 2 3),
(t) = 3
bAc2 = 0,
(t) = 3,
bDAc = 1/6
Y por tanto (x, h) = O(h4 ) para el caso escalar con un sistema aut
onomo.
Problema. (problema 4 Extra 7Juliol2010.pdf) El metodo de orden 3 es explcito y su matriz
de Butcher es:
1/2
1/2
1/2
0 1/2
b1
b2
b3
b1 + b2 + b3 = 1,
b2 + b3 = 1 , orden 2
2
2
2
orden 1
1
b2 b3
+
=
4
4
3
que es incompatible con las dos anteriores, y por tanto no puede construirse el RK (3,4) imbricado.
Problema. Consideremos el siguiente caso:
y = f (y),
f : Rm Rm
4.7. PROBLEMAS
61
[2 ]2 , (1-2,2-3), = 6
3!
=1
61
([2 ]2 ) =
[ 2 ], (1-3,3-1), = 2
3!
=1
32
Introducimos las funciones i y las condiciones de orden que se obtienen a partir de estas:
([ 2 ]) =
Orden 1:
i ( ) =
s
X
i = 1s
aij = ci ,
j=1
( ) =
s
X
bi
i=1
( ) =
1
( )
bi = 1
Orden 2: [ ]
i ([ ]) =
aij j ( ) =
aij cj
() orden 1
X
X
([ ]) =
bj j ( ) =
bj cj
j
([ ]) =
1
([ ])
1
2
bj cj =
Orden 3:
1. [ 2 ]
i ([ 2 ]) =
aij (j ( ))2 =
([ 2 ]) =
aij c2j
bj c2j
([ 2 ]) = 3
bj c2j =
2. [2 ]2
i ([2 ]2 ) =
aij j ([ ]) =
([2 ]2 ) =
bj
([2 ]2 ) = 6
X
j
1
3
aij
aij ck
ajk ck
bj
X
k
ajk ck =
1
6
CAPITULO 4. METODOS
RUNGE-KUTTA
62
Problema. En este problema primero hemos comprobado que el metodo tiene orden 3. Una
vez hecho el an
alisis sobre un problema aut
onomo y no aut
onomo se descubre que el primero
k1 = y0 = 1
h
h
k2 = y0 + k1 = 1 +
2
2
3h
3
h
k2 = 1 h h2
k3 = 1 + k1
2
2
4
1
h3
4
k4 = y0 + hk2 hk3 = 1 + h + h2 +
3
3
4
h2 h3 h4
+
+
2
6
24
Como la soluci
on exacta es y(x) = ex , tenemos que:
y(h) y1 = O(h5 )
Por lo que el error general de discretizacion es que orden 4. Para el caso y = xy vamos a obtener
y(h) y1 = O(h4 ), por lo que el EGD es de orden 3, un orden inferior como queramos ver. No
entramos en c
alculos detallados.
Problema. Veamos ahora que los metodos RK no explcitos tienen zonas de estabilidad no
acotadas, contrariamente a los explcitos. Tenamos:
= 1 + hb
T (Is hA)
1 e
R(h)
Adj(Is hA)
de grado s 1.
sus coef son funciones polinomicas de h
de grado s. es
Si el metodo no es explcito det(Is hA)
6= 1 el det es un polinomio en h
= p(h)
R(h)
q(h)
Donde p, q son polinomios de grado s.
Problema 45. Comprobamos las condiciones de orden y obtenemos:
1 2
1
+ + = 1 orden 1
10 2 5
1
bT c = orden 2
2
4.7. PROBLEMAS
63
(t2 ) = 3
1
1
cond de orden 3
b3 a32 c2 =
6
6
s
X
bi c2i
(t2 ) =
(4.4)
(4.5)
(4.6)
(4.7)
i=1
bT c2 =
1
3
Condicion de orden 3
(4.8)
Cumple la condici
on de orden 3 y 3 niveles y explcito. Rightarrow Orden 3 exacto.
Veamos ahora el termino principal del error:
P ELD =
h4 X
(t)(1 (t)(t))F (t)
4!
r(t)=4
F biyeccion arboles con raz y diferenciales elementales. Ahora haciendo calculos tenemos ya
que:
h4 (1 (1) (1)
f (f (f (f )))) + . . .
P ELD =
4!
Falta pues calcular la contribucion de los otros tres arboles: Para t2 , collita propia:
(t2 ) = 2
(t2 ) = 4!
(t2 )
64
CAPITULO 4. METODOS
RUNGE-KUTTA
Captulo 5
Introducci
on a los M
etodos para
Sistemas Rgidos
En este captulo presentaremos un tipo concreto de problema, caracterizado por las dificultades con a
nadidas con las que nos encontramos a la hora de resolverlo. El grueso del captulo
se encuentra en el fichero de Atenea stiffness.pdf.
5.0.1.
Determinaci
on de m
etodos A-estables
1+0
h
,
11
h
y = y
y(x) = Ke( x)
65
A LOS METODOS
CAPITULO 5. INTRODUCCION
PARA SISTEMAS RIGIDOS
66
Definici
on 5.1. Sea RTS (q) funci
on racional, donde S es el grado del polinomio del numerador
y T es el grado del polinimio del denominador. Se dice que RTS (q), q C es una aproximacion
racional de orden p de la exponencial si y solo si
RTS (q) = exp(q) + O(q p+1 )
Teorema 28. Un metodo de un paso de orden p posee una funci
on de estabilidad absoluta que
h
= h.
es una aproximaci
on racional de orden p de exp(h),
Sea
RTS (q)
PS
= Pi=0
T
ai q i
i=0 bi q
q2
+ . . .) = O(q p+1 )
2
Teorema 30. El m
aximo orden de una aproximaci
on racional RTS es S + T . La aproximaci
on
S
racional RT de m
aximo orden posible es u
nica y se denomina aproximaci
on de Pade de eq . Se
S .
denota R
T
Definici
on 5.2. Una aproximacion racional RTS se denomina:
A-aceptable si q C, Re(q) < 0 |RTS (q)| < 1.
A0 -aceptable si q R, q < 0 |RTS (q)| < 1.
L-aceptable si es A-aceptable y |RTS | 0 si Re(q) .
Comentario 5.3. Si RTS es una funcion de estabilidad absoluta de un metodo de un paso
entonces:
A-aceptable
A0 -aceptable
L-aceptable
metodo A-estable.
metodo A0 -estable.
metodo L-estable.
T 2S T
S es L-aceptable.
2. Si S = T 2 o bien S = T 1 entonces R
T
3. RTS (q) es A-aceptable y T > S
Captulo 6
Problemas de Condiciones de
Frontera
6.1.
Sea y = f (x, y) Rm . Se busca la soluci
on y(x) tal que r y(a), y(b) = 0, donde se tiene que
r : Rm Rm 7 Rm es una funci
on que se anular
a si nuestra soluci
on cumple con las condiciones
de frontera.
Es decir, si exigimos que yexacta (a) = y1 , yexacta (b) = y2 , entonces nuestra funcion r podra
ser:
r(y(a), y(b)) = (y(a) y1 )2 + (y(b) y2 )2 .
Hay que tener en cuenta que el Problema de Condiciones Frontera:
Puede no tener soluci
on, o
puede admitir m
as de una soluci
on.
Condiciones de Frontera Separables
Son casos en los que tenemos: r1 (y(a)) = 0, y r2 (y(b)) = 0, donde r1 , r2 : Rm 7 Rm .
Ejemplo 6.1 (Condiciones de Frontera Separables).
r1 (y(a)) = y(a) ,
6.1.1.
r2 (y(b)) = y(b)
Sea y = f (x, y; ), con r y(a), y(b); = 0, donde r : Rm Rm R 7 Rm+1 .
El problema consiste en determinar los valores de (valores singulares) para los cuales
existe una soluci
on y(x). Definimos para y(x) Rm , m+1 y(x) = , m+1 y (x) = 0 los siguientes
vectores:
h
it
~y = 1 y, . . . , m y, m+1 y
h it
f~ = f, 0
~y = f~(x, ~y )
67
68
6.1.2.
El problema en este
en determinar R tal que la soluci
on y(x) de y (x) =
caso consiste
f (x, y) cumpla que r y(a), y() = 0.
Ejemplo 6.2.
x = a + t( a) = a + tzm+1 ,
0t1
dzm+1
= zm+1 = 0
dt
d
z (t)
= z = zm+1 y (a + tzm+1 ) = zm+1 f (x, y)
dt
z = f~(t, z);
Por tanto, r y(a), y() = 0 r(
z ) = 0, donde se tiene que cumplir que z(1) = 0.
6.2.
M
etodo del tiro simple
yy = 1 y 2 ,
y(0) = 1,
y(1) = 2
1 y 2
y
y
= z R2
z1
z2
= z = f (z) =
y
y
z2
1z22
z1
Tenemos la condicion inicial y(0) = 1, y tambien nos exigen que y(1) = 2. Para resolverlo,
buscaremos la condici
on que debe cumplir y (0) para que la segunda restriccion sea cierta (o,
por lo menos, obtener una aproximacion suficientemente buena).
En nuestro caso, la soluci
on que obtenemos es y (0) = 5, es decir,
1
z(0) =
5
Para obtener este valor en la pr
actica (el valor que debe cumplir y (0)), podemos utilizar el
metodo del tiro simple. Este consiste en:
Plantear una ecuaci
on no lineal cuya raiz nos dar
a la soluci
on: Sea y(1, s) el valor de y(1)
dada la condici
on y (0) = s. Entonces, en nuestro caso particular la ecuaci
on no lineal a
minimizar ser
a F (s) = y(1, s) 2 0. Habra que dar una tolerancia .
6.2. METODO
DEL TIRO SIMPLE
69
Resolver la ecuaci
on no lineal: hay que minimizar una funcion, teniendo en cuenta que cada
punto en que evaluemos la funci
on F (1, s) se obtendra resolviendo una ecuaci
on diferencial
concreta (es decir, probablemente aplicando uno de los metodos estudiados anteriormente).
Se puede aplicar, por ejemplo, el metodo de la secante para aproximar el cero de F .
Si tenemos un PCF de la forma: y = f (x, y), r y(a), y(b) = 0, y queremos encontrar una
soluci
on de la ecuaci
on, podemos utilizar el metodo del tiro simple si f cumple la condici
on de
Lipschitz (ya que esto asegura que existira una soluci
on y(x; s)).
Sea s Rm . Consideramos el PCI:
y = f (x, y),
y(a) = s.
Esto es equivalente a hallar la soluci
on s Rm de una ecuaci
on F (s) = r s, y(xn ; s) = 0,
donde F (s) en general es no lineal y no se puede calcular analticamente debido a que depende
de y(xn ; s).
Aplicando el metodo de Newton a F (s) = 0 (metodo para encontrar ceros de funciones), se
tiene:
e [0] = F (s[] )
JF (s[0] )s
Cada iteraci
on del metodo requiere:
1. Calcular F (s[] ). Por tanto, tambien necesitamos calcular y(xN , s[] ), y, por tanto, necesitamos la soluci
on numerica aproximada de y = f (x, y), y(a) = s[] .
2. Calcular JF (s[] ). Este es el paso m
as costoso.
e [0] = F (s[] ).
3. Resolver el sistema lineal JF (S [0] )s
(s)
Observemos que en el caso m = 1, tenemos que JF (s) = dFds(s) F
s , con lo que obtener
la jacobiana no es demasiado costoso. Esto no es as en general para dimensiones superiores.
6.2.1.
Limitaciones del m
etodo de tiro simple
70
Supongamos ahora que aplicamos el metodo del tiro simple a un problema en el que el
intervalo de integraci
on es muy grande, y con una funcion suave (esto es, con un buen comportamiento). Por ejemplo, tomemos b a = 100, L 1.
Sea s tal que y(x; s) es la soluci
on exacta del PCF. Entonces,
EGDn = ky(xN ; s) y(xN ; s)k k
s skeL|xn a|
Si al resolver F (s) = 0 la soluci
on se obtiene para s = s + , entonces:
k
s sk = , L 1, |xn a| 100 EGDn e100 103
Con lo que obtenemos una cota del error excesivamente grande.
Para evitar este problema, se subdivide el intervalo en trozos, y se aplica el metodo del tiro
libre en cada uno de ellos. Esta soluci
on es conocida como el metodo del tiro m
ultiple.
6.3.
M
etodo del tiro m
ultiple o tiro paralelo
Tenemos el problema:
(
= f (x, y)
y
r y(a), y(b) = 0
[a, b] R
y = f (x, y)
..
y = f (x, y)
y(x1 ) = y(a) = s1
y(x2 ) = s2
[x1 , x2 ]
[x2 , x3 ]
y(xN 1 ) = sN 1
[xN 1 , xN ]
[xk , xk+1 ],
k = 1, . . . , N 1
k = 1, . . . , N 1
F1 (s1 , s2 )
F2 (s2 , s3 )
..
F (s) =
=0
.
FN 1 (sN 1 , sN )
FN (s1 , sN )
6.3. METODO
DEL TIRO MULTIPLE
O TIRO PARALELO
71
=
JF (s[] )s
[]
F1
..
.
[]
FN (s1 , sN )
= 0, 1 . . .
1
s
.
[+1]
=
s[]
s
.. = s
N
s
Fk
y(xk+1 ; {xk , sk })
y(xk+1 ; {xk , sk + sk }) y(xk+1 ; {xk , sk })
=
=
= Gk Mmm
sk
sk
sk
Fk
= Im k = 1, . . . , N 1
sk+1
FN
r(s1 , sN )
=
= B Mmm
SN
sN
r(s1 , sN )
FN
=
= A Mmm
s1
s1
Tenemos, que la matriz Jf (s) acabar
a siendo de la forma:
s[]
G1 Im
0
0
G2 Im
..
..
..
JF (s) = .
.
.
0
0
...
A
0
...
s
F1
..
..
= JF (s) . = .
N
FN
...
...
..
.
0
0
..
.
GN 1 Im
0
B
1 s
2 = F1
G1 s
2 s
3 = F2
G2 s
..
.
N 1 s
N = FN 1
GN 1 s
1 + B s
N = FN
As
72
s3 = G2 s2 + F2
..
.
N 1 + FN 1
s
= GN 1 s
N
N = FN
As1 + B s
y(b) =
El metodo es el siguiente:
yn+1 2yn + yn1 = h2 fn
xn = a + hn n = 0, 1 . . . N + 1
yn+1 2yn + yn1 = h2 (q(xn )yn g(xn ))
n = 1...N
2 + q1 h2
1
0
2
1
2 + q2 h 1
A=
0
1
..
..
.
.
0
...
...
..
.
0
0
1
1 2 + qN h2