Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tes Is Mae Stria
Tes Is Mae Stria
Universidad de La Habana
Tesis de Maestrı́a
presentada en opción del Tı́tulo Académico de
Julio, 2006
A mi madre,
por estar siempre a mi lado.
Agradecimientos.
Introducción 1
1. Preliminares 4
1.1. Algunos espacios básicos de procesos . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Semimartingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Integración estocástica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Procesos de Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6. Ecuaciones diferenciales estocásticas . . . . . . . . . . . . . . . . . . . . . . . 13
1.7. Procesos de Lévy alfa-estables . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.1. Distribuciones estables . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.2. Procesos de Lévy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4. Aspectos Computacionales 39
4.1. Cálculo del término recursivo . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2. Cálculo del término del ruido . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5. Estudio de Simulación 42
5.1. Consideraciones numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Conclusiones 52
Recomendaciones 53
Bibliografı́a 54
Introducción
Las ecuaciones diferenciales estocásticas (EDE) con respecto a procesos de Wiener han
sido muy utilizadas en disı́miles ramas. Por ejemplo, en filtraje de señales, fı́sica (modelos
de ruido Browniano, modelos de difusión, etc), finanzas (modelos estocásticos de tasas de
cambio, etc), control estocástico y en problemas de contorno asociados a ecuaciones en
derivadas parciales. Esto refleja su importancia en una gama extensa de aplicaciones.
Para hallar una solución numérica a este tipo de ecuaciones se han utilizado diversos
métodos. Entre los más populares están el método de Euler, el de Milstein y los métodos
de Runge Kutta (Kloeden y Platen [18], Burrage et al. [2], y Milstein [21]). El método de
Linealización Local (Ozaki [23], Biscay et al. [1], Jiménez y Carbonell [14]) es una alternativa
reciente a tales métodos clásicos. Resultados teóricos y de simulación han mostrado que
el enfoque LL tiene la ventaja de lograr buenas propiedades dinámicas (en particular, A-
estabilidad en caso de EDE con ruido aditivo) con relativamente bajo costo computacional.
Más especı́ficamente, el método LL supera a los otros métodos explı́citos de solución (como
el de Euler y el de Runge Kutta explı́citos) en cuanto a estabilidad numérica, y supera a los
métodos implı́citos en cuanto a tiempo de ejecución.
La idea básica del método LL es la solución explı́cita, mediante exponenciales matriciales,
de ecuaciones lineales que localmente aproximan a la ecuación original. En un principio un
serio inconveniente computacional de este enfoque fue el uso de exponenciales matriciales.
Pero a partir del desarrollo de nuevos algoritmos más eficientes y estables para su cómputo
(e.g., los basados en aproximaciones Padé con el algoritmo de escalamiento y potenciación,
en descomposiciones de Schur y en métodos de subespacios de Krylov; ver e.g. Higham [6] y
referencias citadas allı́), el método LL ha devenido mucho más factible.
El enfoque LL ha sido desarrollado también para ecuaciones diferenciales ordinarias
(Jiménez et al. [15]), ecuaciones diferenciales ordinarias con retardo y ecuaciones diferenciales
aleatorias (Carbonell et al. [3]). Sin embargo, el método LL no ha sido aún formulado para
el caso más general de EDE cuyos ruidos son procesos de Lévy. Esta extensión resultarı́a
interesante no sólo por ser una generalización natural de las EDE con ruidos de Wiener,
sino también por la importancia que han ido adquiriendo actualmente los procesos de Lévy
alfa-estables para modelar fenómenos relacionados con los mercados financieros – como por
ejemplo, los precios de las acciones de la bolsa, los tipos de interés y la volatilidad –, haciendo
posible que se incorporen en su análisis procesos con salto y procesos de varianza infinita.
La motivación inicial del presente trabajo fue la extensión del método LL al caso de
EDE cuyos ruidos son procesos de Lévy alfa-estables. A partir de este incentivo, la búsqueda
bibliográfica relacionada con el tema nos hizo manifiesto que existen pocas publicaciones
Introducción 2
que estudien la convergencia de integradores numéricos para EDE con respecto a procesos
de Lévy, y además sólo tratan ecuaciones particulares. Por otra parte, las EDE con ruidos
Lévy alfa-estables pueden estudiarse como un caso particular de las EDE con respecto a
semimartingalas, para las cuales existe un rico arsenal de herramientas teóricas elaboradas
(Protter [25] y Métivier [22]). Como es sabido, las semimartingalas incluyen a los procesos
de Lévy (en particular, el de Wiener y el de Poisson), y constituyen los procesos estocásticos
más generales que se han considerado como integradores estocásticos (Protter [25]).
Estas últimas consideraciones nos motivaron finalmente a abordar el problema de la
extensión del método LL a EDE cuyos ruidos son no sólo procesos de Lévy sino también en
general semimartingalas. Para este tipo de ecuaciones el único enfoque de solución numérica
que ha sido reportado hasta el momento es el método de Euler. Esto es ası́ tanto para
soluciones en sentido fuerte (Protter [24], Karandikar [17], Kohatsu-Higa y Protter [19],
Kurtz y Protter [20], Janicki et al. [10]), como para soluciones en sentido débil (Janicki y
Weron [12], Janicki et al. [9], Protter y Talay [26], Jacod y Protter [8], Jacod et al. [7]).
Especı́ficamente, nos planteamos en el presente trabajo los siguientes objetivos:
para martingalas de cuadrado integrable. Las demostraciones son organizadas con el apoyo
de varios lemas que facilitan su exposición y comprensión.
El Capı́tulo 4 discute aspectos computacionales de las discretizaciones asociadas a las
distintas variantes del método introducido. Se desarrollan distintas formas de cálculo de los
términos recursivos y de ruido involucrados en las discretizaciones LL.
El Capı́tulo 5 explora mediante simulaciones el comportamiento del método introducido
para el caso de EDE con ruidos Lévy alfa-estables. Se realiza un estudio comparativo de las
aproximaciones a las soluciones obtenidas por el método LL y por el método de Euler. Para
ello se utilizan ejemplos de EDE conocidos de la literatura, los cuales son difı́ciles de integrar
numéricamente debido a su compleja dinámica (en algunos casos “stiff”). A través de las
simulaciones se estudia la influencia del tamaño de paso, el nivel de ruido y el exponente de
estabilidad alfa en la calidad de las soluciones aproximadas.
Finalmente presentamos las conclusiones y recomendaciones de este trabajo.
Capı́tulo 1
Preliminares
Definición 1.1.2
Se dice que el espacio de probabilidad filtrado (Ω, F, F, P ) satisface las condiciones usuales
si F es càd y F0 contiene todos los conjuntos P -nulos de F. Salvo que se indique otra cosa,
siempre se supondrá que se cumplen las condiciones usuales.
Definición 1.1.3
Diremos que el proceso X es càd si c.s. sus trayectorias son continuas a la derecha, càg (del
francés continu à gauche) si sus trayectorias son continuas a la izquierda, càdlàg ( continu
à droite avec des limites à gauche) si sus trayectorias son continuas a la derecha y tienen
lı́mite a la izquierda, y càglàd si sus trayectorias son continuas por izquierda y tienen lı́mite
por derecha. Denotamos por D (resp., L) al espacio de los procesos adaptados y càdlàg
(respectivamente, càglàd).
X− = (Xt− )t∈R+
∆X = (∆Xt )t∈R+
donde:
Xt− = lı́m Xs
s%t
∆Xt = Xt − Xt−
Definición 1.1.4
Una variable aleatoria T : Ω 7→ [0, ∞] es un tiempo de parada si el evento {T ≤ t} ∈ Ft
para todo t, 0 ≤ t ≤ ∞.
Como caso particular, se puede verificar sin ninguna dificultad que T = c es un tiempo
de parada para toda constante c > 0. Si T y S son tiempos de parada, se puede definir el
intervalo:
[S, T [ = {(t, ω) : t ∈ R+ y T (ω) ≤ t < S (ω)}
y análogamente se definen [S, T ], ]S, T [ y ]S, T ].
Definición 1.1.5
Si X = (Xt )t≥0 es un proceso estocástico
y T es un tiempo de parada, entonces el proceso X
parado en T es el proceso X T = XtT t∈R+ definido como:
Definición 1.1.6
Sea A = (At )t≥0 un proceso càdlàg, diremos que A es un proceso creciente, si las tra-
yectorias de A : t 7→ At (ω) son no decrecientes para casi todo ω. El proceso A se dice de
variación finita, si casi todas las trayectorias de A son de variación finita sobre cada
compacto de R+ .
Diremos que un proceso X = (Xt )t≥0 cumple una propiedad localmente si existe una
sucesión de tiempos de parada Tn con Tn → ∞ c.s. tal que la dicha propiedad es satisfecha
por cada uno de los procesos XtTn 1{Tn >0} (t), t ≥ 0.
Definición 1.1.7
La σ-algebra predecible P es la menor σ-algebra sobre R+ × Ω que hace medibles a todos los
procesos de L. Un proceso se dice predecible si es P-medible.
Denotaremos por I a la clase de los procesos predecibles y localmente acotados.
Denotemos por V + (resp., V) a la clase de los procesos reales càdlàg adaptados A, con
A0 = 0, y de trayectorias no decrecientes (resp., de variación finita en cada intervalo finito
[0, t]).
Denotemos por A+ la clase de los procesos A de V + tales que E (A∞ ) < ∞, y por A la
de los procesos A de V tales que E (V ar(A)∞ ) < ∞, donde el proceso V ar(A)t , para cada
(ω, t) es igual a la variación de la trayectoria correspondiente a A· (ω) en el intervalo [0, t].
+
Sean además: Vloc , el espacio de los procesos localmente crecientes; Vloc , el espacio de los
procesos localmente de variación finita; A+ loc , el espacio de los procesos localmente crecientes
e integrables; y Aloc el espacio de los procesos localmente de variación integrable.
1.2. Martingalas
Definición 1.2.1
En un espacio de probabilidad filtrado (Ω, F, F, P ), donde la filtración F = (Ft )t≥0 es continua
por derecha, al proceso real y adaptado X se le llama martingala si cumple las siguientes
propiedades:
(i) E |Xt | < ∞.
(ii) Para todo s < t, E (Xt |Fs ) = Xs c.s
La clase M de las martingalas uniformemente integrables está formada por las martin-
galas X tales que: Z
lı́m sup Xt dP = 0,
n→+∞ t≥0 |Xt |≥n
2
y la clase H de las martingalas de cuadrado integrable está constituida por las martingalas
X tales que:
sup E Xt2 < ∞
t≥0
Definición 1.2.2
El proceso càdlàg y adaptado X es una martingala local si existe una sucesión creciente de
tiempos de parada, Tn , donde lı́mn→∞ Tn = ∞ c.s., tal que XTn ∧t 1{t>Tn } es una martingala
uniformemente integrable para cada n.
2
Denotaremos además por Mloc y Hloc a los espacios de las martingalas locales y de las
martingalas localmente de cuadrado integrable, respectivamente. Obviamente, M ⊂ Mloc y
2
H ⊂ Hloc .
1.3. Semimartingalas
La σ-algebra FT de un tiempo de parada T (con respecto a la filtración Ft , t ≥ 0) se
define como la σ-algebra de los eventos Λ de F tales que Λ ∩ {T ≤ t} ∈ Ft para todo t ≥ 0.
Definición 1.3.1
Un proceso H se dice que es predecible simple si H tiene la siguiente representación:
n
X
Ht = H0 1{0} (t) + Hi 1]Ti ,Ti+1 ] (t)
i=1
Definición 1.3.2
Un proceso X es una semimartingala total, si X es càdlàg, adaptado y el operador
IX : Su 7→ L0 es continuo. Diremos que un proceso X es una semimartingala si, para
cada t ∈ [0, ∞[, X t es una semimartingala total para todo t ≥ 0.
Definición 1.3.3
Un proceso real adaptado càdlàg X es una semimartingala en sentido clásico si es de
la forma:
Xt = X0 + Mt + At
1.4 Integración estocástica 8
De hecho se demuestra que un proceso estocástico es una semimartingala sı́ y solo sı́ es
una semimartingala en sentido clásico (teorema de Bichteler-Dellacherie), lo que hace que
las dos definiciones anteriores sean equivalentes.
A partir de las propiedades elementales de las semimartingalas, es posible comprobar
que muchos procesos, de los más comunes, son también semimartingalas. Entre ellos se
encuentran, los procesos de Poisson, el movimiento Browniano (o proceso de Wiener) y más
generalmente los procesos de Lévy. Nótese que toda martingala local (y por tanto, toda
martingala) es una semimartingala, ası́ como todo proceso de variación finita.
Definición 1.4.2
Para H ∈ S y X un proceso càdlàg, se define el operador lineal JX : S 7→ D, tal que:
n
X T
JX (H)t = H0 X0 + Hi (Xt i+1 − XtTi ),
i=1
Definición 1.4.3
Sea X una semimartingala, el operador lineal continuo JX : Lucp 7→ Ducp , obtenido como
una extensión de JX : S 7→ D se llama integral estocástica.
Teorema 1.4.1
Si X es una semimartingala, entonces para H ∈ L la integral estocástica H · X cumple las
siguientes propiedades:
(i) H · X es càdlàg y adaptado.
(iii) Si (H n )n∈N es una sucesión de procesos predecibles que converge puntualmente al pro-
P
ceso H, y |H n | ≤ K ∈ I, entonces H · X ∈ I y (H n · X)t → H · Xt cuando n → ∞,
para todo t ∈ R+ .
(vi) H · X0 = 0 y H · X = H · (X − X0 ).
Definición 1.4.4
Denotemos a Π como una sucesión finita de tiempos de parada:
0 = T0 ≤ T1 ≤ · · · ≤ Tk < ∞
Teorema 1.4.2
Sea X una semimartingala X y Y un procesos en L, sea además (Πn ) una sucesión de
particiones aleatorias que tiende a la identidad, entonces el proceso
Z t X Tn Tn
YsΠn dXs = YTin (Xt i+1 − Xt i )
0+ i
Covariación Cuadrática
Si A ∈ Aloc entonces existe un proceso predecible en Aloc , único salvo indistinguibilidad,
llamado compensador de A, y denotado por Ap , tal que A − Ap ∈ Mloc .
Definición 1.4.5
2
Si M, N ∈ Hloc existe un proceso predecible en V, único salvo indistinguibilidad, llamado
covariación cuadrática predecible de M y N , y denotado por hM, N i, tal que
M N − hM, N i ∈ Mloc .
Definición 1.4.6
Si X y Y son semimartingalas podemos definir el proceso covariación cuadrática de X
y Y , [X, Y ], como
[X, Y ] = XY − X0 Y0 − X · Y − Y · X
y el proceso [X] (variación cuadrática de X), se define como
Cálculo Estocástico
Los conceptos y resultados que hasta el momento hemos planteado han sido formulados
para procesos con valores en R, pero pueden extenderse de manera natural a procesos
Rd -valuados. En particular, una semimartingala d-dimensional se define como un proceso
Rd -valuado X = (X i )i=1,··· ,d tal que sus componentes X i son semimartingalas ( R-valuadas).
Análogamente el espacio Dd se define como la clase de procesos Rd -valuados tales que sus
componentes están en D1 = D. De forma similar se generaliza cada una de las clases de
procesos definidas anteriormente: Ld , Mdloc , etc.
El teorema fundamental del cálculo estocástico asociado con la integración con respecto
a semimartingalas es el siguiente teorema llamado de cambio de variable para las integrales
estocásticas, también conocido como la fórmula de Ito:
Teorema 1.4.3
Sea X una semimartingala d-dimensional y f ∈ C 2 Rd . Entonces f (X) es una semimar-
tingala d-dimensional y:
d Zt d Zt
X ∂f 1 X ∂ 2f
f (Xt ) − f (X0 ) = (Xs− )dXsi + (Xs− )d[X i , X j ]cs
i=1 0+
∂x i 2 i,j=1 0+
∂x i ∂x j
( d
)
X X ∂f
+ f (Xs ) − f (Xs− ) − (Xs− )∆Xis
0<s≤t i=1
∂x i
Un proceso A que cumpla las propiedades enunciadas en este lema se dice un proceso de
control asociado al proceso Z.
Teorema 1.5.1
Todo proceso Z adaptado y continuo por derecha es una semimartingala sı́ y solo sı́ admite
un proceso de control
1.6 Ecuaciones diferenciales estocásticas 13
Definición 1.6.1
Un proceso X definido en Rd satisface (en sentido fuerte) una ecuación diferencial estocástica
d-dimensional
dXt = f (t, Xt )dt + G(t, Xt )dZt .
si (c.s.) satisface la ecuación integral
Z t Z t
Xt = X0 + f (s, Xs− )ds + G(s, Xs− )dZs ,
0 0
En lo adelante necesitaremos trabajar con EDE cuyos coeficientes no son funciones sino
con, más generalidad, funcionales, como definiremos a continuación. Si se toma d ∈ N y
M = (M ij ) ∈ Ld×m , usaremos la notación
Z m Z
!
X
MdZt = Mtij dZtj .
j=1 1≤i≤d
d d d×m
Sea Jt un proceso en D y un operador F: D 7→ D . Entonces la EDE de la definición
anterior es un caso particular de la EDE con coeficientes funcionales del tipo
Z t
X t = Jt + F (X)s− dZs .
0
Definición 1.6.2
Diremos que una función f : R+ × Rn 7→ Rd es Lipschitz si existe una constante finita k
tal que:
i. kf (t, x) − f (t, y)k ≤ k kx − yk para cada t ∈ R+ .
Definición 1.6.3
Un funcional F de Dd en D es un funcional Lipschitz si para cualquier X y Y en Dd se
satisfacen las siguientes condiciones:
i. Para cualquier tiempo de parada T , XT − = YT − implica que F (X)T − = F (Y)T − .
ii. Y existe un proceso creciente y finito K = (Kt )t≥0 tal que
|F (X)t − F (Y)t | ≤ Kt sup kXs − Ys k para cada t ≥ 0.
0≤s≤t
tiene una solución única en Dd . Más aún, si J es una semimartingala, entonces X también
lo es.
Es fácil comprobar que una función autónoma con derivada acotada es Lipschitz por el
teorema del valor medio. Sin embargo si su derivada es continua pero no acotada, lo que
puede afirmarse es que es localmente Lipschitz, en el sentido siguiente.
Definición 1.6.4
Una función f : Rn 7→ R se dice que es Slocalmente Lipschitz si existe una secuencia
creciente de conjuntos abiertos Λj tal que j Λj = Rn y f es Lipschitz con constante Kj en
cada Λj .
Consideremos ahora el siguiente sistema de ecuaciones lineales:
m Z t
X
Xt = H t + Ajs− Xs− dZsj , (1.2)
j=1 0
Teorema 1.6.2
Bajo los supuestos anteriores, sea U la solución de (1.3) y Xxt la solución de (1.2) donde
Ht = x, x ∈ Rd . Entonces Xxt = Ut x y para casi todo ω, para todo t y x, la matriz Ut (ω) es
inversible.
Teorema 1.6.3
Bajo los supuestos anteriores, si U es la solución de (1.3) entonces la solución XH de (1.2)
está dada por
Z t Z t m
X
XH U−1 U−1 Ajs− d H, Z j s
t = Ut H0 + Ut s dHs − Ut s
0+ 0+ j=1
Definición 1.7.1
X es una variable aleatoria estable si tiene un dominio de atracción, i.e., existe una sucesión
de variables aleatorias i.i.d. {Yi }i∈N , una sucesión de números reales positivos {ai }i∈N y una
sucesión de números reales {bi }i∈N tales que:
n
1 X D
Yi − bn −→ X
an i=1
D
donde −→ denota convergencia en distribución.
Definición 1.7.2
La función caracterı́stica de una variable aleatoria estable X admite la siguiente forma:
exp(−σ α |t|α (1 − iβ sgn(t) tan πα2
) + iµt) para α 6= 1
ΦX (t) =
exp(−σ|t|(1 + iβ π2 sgn(t) log |t|) + iµt) para α = 1
Propiedades básicas
Algunas de las propiedades básicas de las variables aleatorias estables son las siguientes
β1 σ1α + β2 σ2α
β = ,
σ1α + σ2α
µ = µ1 + µ2 .
1.7 Procesos de Lévy alfa-estables 17
D 2
si α = 1 ⇒ X1 + X2 + · · · + Xn = nX1 + σβn log n
π
D
Aquı́ = denota igualdad en distribución.
3. Si X ∼ Sα (σ, β, µ) y a ∈ R entonces X + a ∼ Sα (σ, β, µ + a).
4. Si X ∼ Sα (σ, β, µ) y a ∈ R entonces:
Sα (|a|σ, sgn(a)β, aµ) para α 6= 1
aX ∼
S1 (|a|σ, sgn(a)β, aµ − π2 a(log |a|)σβ) para α = 1
(1 + β) α
lı́m xα P (X > x) = Cα σ
x→∞ 2
(1 − β) α
lı́m (−x)α P (X < x) = Cα σ
x→−∞ 2
7. Si α ∈ (0, 2) y X ∼ Sα (σ, β, 0) entonces E|X|p existe para 0 < p < α y E|X|p = ∞
para p ≥ α.
Notemos que las propiedades (3)- (6) permiten la interpretación de α como un parámetro
del grosor de la cola, β como un coeficiente de asimetrı́a, σ como un parámetro de escala y
µ como un parámetro de posición.
La representación de la función caracterı́stica vista en la Definición 1.7.2, denominada
S-parametrización, no es una función continua de los parámetros pues tiene discontinuidades
en los puntos donde α = 1 y β = 0. Aunque esta es la parametrización más usada, para ciertos
problemas resultan más convenientes otras alternativas. En Zolotarev [29] se comentan varias
de estas parametrizaciones. Una de ellas es la denominada S 1 . Una variable tiene distribución
Sα1 (σ2 , β2 , µ) si su función caracterı́stica es de la forma
exp(−σ2α |t|α exp(−iβ2 sgn(t) π2 K(α)) + iµt) para α 6= 1
ΦX (t) =
exp(−σ2 |t|( π2 + iβ2 sgn(t) ln |t|) + iµt) para α = 1
donde
α para α < 1
K(α) = α − 1 + sgn(1 − α) =
α − 2 para α > 1
1.7 Procesos de Lévy alfa-estables 18
A partir del teorema anterior se establece el siguiente algoritmo para generar variables
aleatorias Y con distribución Sα (σ, β, µ):
3. Si α 6= 1 calcular:
πα
arctan β tan 2
a) B(α, β) = α
πα 2α1
b) S(α, β) = (1 + β 2 tan2 2
)
! 1−α
α
sin α(U1 + B(α, β)) cos U1 − α(U1 + B(α, β)
c) X = S(α, β) 1
cos U1 α E
4. Si α = 1 calcular: π
2 π E cos U1
X= ( + βU1 ) tan U1 − β ln 2π
π 2 2
+ βU1
5.
σX + µ para α 6= 1
Y =
σX + π2 βσ ln σ + µ para α = 1
Un proceso de Lévy es càdlàg y por tanto el único tipo de discontinuidades que posee
son de tipo salto. Uno de los resultados más importantes de este tipo de procesos está dado
en el siguiente teorema:
Teorema 1.7.2
Sea Lt un proceso de Lévy, entonces Lt = Mt + At , donde M y A son procesos de Lévy, M
es una martingala de saltos acotados, Mt ∈ Lp , ∀ p ≥ 1 y A es un proceso de variación finita
sobre compactos.
A partir de este teorema es fácil verificar que el proceso de Lévy es una semimartingala.
Definición 1.7.4
Diremos que el proceso estocástico, adaptado Lt = {Lα (t, ω); t ≥ 0, ω ∈ Ω} es un proceso
de Lévy alfa-estable si es un proceso de Lévy y además Lt − Ls ∼ Sα ((t − s)1/α , β, 0). Si
además β = 0, se dice un proceso de Lévy simétrico.
Capı́tulo 2
1. Linealizar el drift f (s, x) a partir de las expresiones truncadas hasta primer orden de
su desarrollo de Taylor respecto a x en torno a la condición inicial XTn .
Para nuestro propósito de extender este enfoque al caso de EDE con respecto a semimar-
tingalas, conviene describir estos pasos con ayuda de la fórmula de variación de constantes
para EDE con respecto a semimartingalas.
2.2 Diferentes variantes del método de LL 21
donde
∂
Jn = J (Tn , XTn ) = f (Tn , XTn ) ,
Z ∂x Z
Hn,t = XTn + (f (s, Xs− ) − Jn Xs− )ds + G(s, Xs− )dZs .
]Tn ,t] ]Tn ,t]
Por la fórmula de la variación de la constante (ver, e. g., Teorema 1.6.3 y para más detalle
el Capı́tulo V en Protter [25]), la solución de (2.2) se puede expresar como
Z Z
(t−Tn )Jn (t−s)Jn
Xt = e XTn + e (f (s, Xs− ) − Jn Xs− )ds + e(t−s)Jn G(s, Xs− )dZs . (2.3)
]Tn ,t] ]Tn ,t]
Los pasos (1)-(2) descritos arriba equivalen a linealizar en esta última expresión f (s, Xs )
con respecto a x en torno a XTn , y calcular aproximadamente las integrales resultantes. Con
esto, en el caso de EDE autónoma y con ruido aditivo resulta que el miembro derecho de
la expresión (2.3) no depende de Xt , t > Tn , y por tanto pueden aproximarse fácilmente
las integrales que en ella aparecen (paso (3) arriba) y obtener ası́ una aproximación de la
solución Xt para ]Tn , Tn+1 ].
Generalizando lo anterior, en caso de EDE generales (2.1) con ruidos semimartingalas
consideraremos varias formas de aproximar el miembro derecho de (2.3) que involucran la
linealización del “drift” f (s, Xs ) con respecto a x, lo cual conduce a diferentes variantes del
método LL que introduciremos en la próxima Sección.
Variante LLa.
La definimos por
Z Z
(t−Tn )Jn (t−s)Jn
Yt = e YT n + e {fn − Jn YTn + dn (s − Tn )} ds + e(t−s)Jn G(s, YTn )dZs ,
]Tn ,t] ]Tn ,t]
(2.4)
2.2 Diferentes variantes del método de LL 22
∂ ∂
fn = f (Tn , YTn ) , Jn = f (Tn , YTn ) , dn = f (Tn , YTn ) .
∂x ∂t
Nótese que (2.4) se obtiene de (2.3) haciendo el desarrollo de Taylor de f (s, Y) con
respecto a s y Y alrededor del punto (Tn , YTn ) hasta primer orden y el desarrollo de Taylor
de G(s, Y) con respecto a Y alrededor del punto YTn hasta orden cero.
Por otra parte la identidad matricial
Z
(t−Tn )Jn
e YTn − e(t−s)Jn Jn YTn ds = YTn ,
]Tn ,t]
Variante LLb
Inclusive cuando Z es un proceso de Wiener, el cálculo de la segunda integral en (2.5) pue-
de ser complicado para algunas funciones G. Una aproximación más factible, especialmente
en el caso de un ruido de Wiener, está dada por
Z Z
(t−s)Jn
Yt = YTn + e {fn + dn (s − Tn )} ds + e(t−s)Jn Gbn (s)dZs , (2.7)
]Tn ,t] ]Tn ,t]
para t ∈ ]Tn , Tn+1 ]. Esta aproximación se obtiene de (2.5) linealizando la función G con
respecto a la variable s
d
Gbn (s) = G(Tn , YTn ) + G(Tn , YTn ) (s − Tn ) .
dt
Nótese que la aproximación Yt es la solución en ]Tn , Tn+1 ] de la ecuación lineal.
Z Z
Yt = YTn + {fn + Jn (Ys− − YTn ) + dn (s − Tn )} ds + Gbn (s)dZs . (2.8)
]Tn ,t] ]Tn ,t]
2.2 Diferentes variantes del método de LL 23
Variante LLc.
Una aproximación más sencilla a la segunda integral de (2.5) se obtiene si se considera
para todo s ∈ ]Tn , Tn+1 ] que:
o sea, se considera constante este integrando. Bajo este supuesto, (2.5) se convierte en la
aproximación siguiente, que solo requiere del cálculo del incremento de Z:
Z
Yt = YTn + e(t−s)Jn {fn + dn (s − Tn )} ds + e(t−Tn )Jn G (Tn , YTn ) (Zt − ZTn ) (2.9)
]Tn ,t]
Para uso posterior, nótese que esta aproximación Yt es la solución en ]Tn , Tn+1 ] de la
ecuación lineal.
Z Z
Yt = YTn + {fn + Jn (Ys− − YTn ) + dn (s − Tn )} ds + Gcn (s−) dZs . (2.10)
]Tn ,t] ]Tn ,t]
donde
Gcn (s) = e(s−Tn )Jn G(Tn , YTn )1[Tn ,Tn+1 [ (s).
Variante LLd.
Esta variante es la más sencilla de todas. Se obtiene haciendo en (2.9) los supuestos
simplificadores adicionales siguientes: a) exp(t − Tn ) se puede aproximar por la matrix
identidad, y b) la derivada con respecto al tiempo dn es cero. Esto conduce a la aproximación:
Z
Yt = YTn + e(t−s)Jn fn ds + G(Tn , YTn ) (Zt − ZTn ) . (2.11)
]Tn ,t]
La mayor ventaja de esta variante es que es más fácil de calcular para cualquier semi-
martingala Z.
Nótese que el segundo término de la expresión en (2.11) coincide con el término de
ruido de la aproximación por el método de Euler, pero el primer término se basa en una
linealización.
Nótese también que si f ∈ C 1 R+ × Rd , Rd y G ∈ C 1 R+ × Rd , Rd×m entonces todas
las aproximaciones están bien definidas por (2.5), (2.7), (2.9) y (2.11) en cada intervalo
(incluyendo el último, ]TkN , TkN +1 ] = ]TkN , ∞] se puede interpretar como ]TkN , ∞[), por lo
que tales aproximaciones se pueden considerar como semimartingalas sobre R+ .
En el Capı́tulo 4 se discutirán los aspectos computacionales de todas estas variantes de
aproximación por el método LL.
Capı́tulo 3
En este Capı́tulo presentaremos el resultado teórico más importante del presente trabajo.
En una primera parte demostraremos un teorema que asegura la convergencia del método
de Linealización Local LLa(que supone la simulación exacta del ruido) para ecuaciones di-
ferenciales estocásticas con ruido aditivo. En una segunda parte obtendremos un teorema
general de convergencia de todas las variantes LLa, LLb, LLc, LLd para EDE arbitrarias.
Aunque este último resultado incluye el de la primera parte, los distinguimos porque se
ofrecen demostraciones que utilizan distintas técnicas.
En lo que sigue del trabajo, k·k denotará la norma euclideana de vectores en Rd , y además
la norma inducida para matrices en Rd×m .
Para las demostraciones de los teoremas de convergencia del método de Linealización
Local (para ambos casos), definamos los procesos σ y η de la siguiente forma:
kN
X
σt = σtN = máx {Tn : Tn ≤ t, 0 ≤ n ≤ kN } = Tn 1[Tn ,Tn+1 [ (t),
n=0
N −1
kX
ηt = ηtN = Tn+1 1[Tn ,Tn+1 [ (t) + TkN 1[Tk ,∞[ (t).
N
n=0
Según (2.5) y (2.6), en caso de ruido aditivo la aproximación LLa está por
Z Z
(t−s)Jn
Y t = YT n + e {fn + dn (s − Tn )} ds + e(t−s)Jn G(s)dZs
]Tn ,t] ]Tn ,t]
3.1 Convergencia en caso EDE con ruido aditivo 25
donde
∂ ∂
f N (t, Y)s = f (σs , Y ◦ σs ) + f (σs , Y ◦ σs ) (Ys − Y ◦ σs ) + f (σs , Y ◦ σs ) (s − σs ).
∂y ∂t
Para demostrar la convergencia ucp de la aproximación LL supondremos que se satisfacen
las siguientes condiciones:
H1 f ∈ C 1,1 (R+ × Rd , Rd ) y G ∈ C 1 (R+ , Rd×m )
H2 X0 es F0 medible.
H3 Existe una constante K < ∞ tal que ∀ t ∈ R+ , x ∈ Rd
∂
f (t, x)
< K
∂x
H4 Para todo t0 ∈ R+ , existe una constante K1 = K1 (t0 ) < ∞ tal que ∀ t ∈ [t, t0 ] y para
todo x, y ∈ Rd
∂
f (t, x) − ∂ f (t, y)
< K1 kx − yk
∂t ∂t
H5
∂ 2f
(t, x) es continua
∂x2
Para su uso posterior, enunciaremos una variante muy sencilla del Lema de Gronwall que
nos será muy útil para la demostración del resultado que nos interesa en esta Sección.
Lema 3.1.1 (Lema de Gronwall)
Sea α(t) una función de R+ en R+ , si además cumple que
Z s
α(t) ≤ c + k α(u)du para 0 ≤ s ≤ t
0
Demostración
Por simplicidad escribamos Y en vez de YN . Para todo t ≥ 0 y a partir de la ecuación (3.2)
podemos asegurar que
Z Z
N
kYt k =
X0 + f (t, Y)s− ds + G(s)dZs
]0,t] ]0,t]
Z
Z
N
≤ kX0 k +
f (t, Y)s− ds +
G(s)dZs
.
]0,t] ]0,t]
≤ c0 + K kY ◦ σs− k ,
donde
Z
ζt = sup
G(s)dZs
0≤u≤t ]0,u]
3.1 Convergencia en caso EDE con ruido aditivo 27
Además, a partir del Teorema 1.4.1, podemos decir que Rβt es finito ya
que Yt es una semi-
martingala y ζt es una variable aleatoria finita por ser ]0,t] G(s)dZs una semimartingala,
que como sabemos es un proceso càdlàg.
Entonces usando el Lema de Gronwall en la ecuación (3.3)
βt ≤ (X0 + a0 + ζt ) eb0 t , ∀0 ≤ t ≤ t0 .
De hecho, ∀t0 ∈ R+ podemos encontrar una cota que no dependa de la partición:
βt0 ≤ (X0 + a0 + ζt0 ) eb0 t0 . (3.4)
Definamos los tiempos de parada
πjN = ı́nf {t ≥ 0 : kYt k > j} ,
para j = 1, 2, · · ·,. Entonces kYt k ≤ j para 0 < t < πjN . Además, para cualquier t0 ∈ R+ ,
Donde P (βt0 > j) tiende a cero cuando j tiende a infinito, de modo uniforme con respecto
a la partición N , ya que el miembro derecho de (3.4) es una variable aleatoria finita que no
depende de la partición N , por tanto lı́mj P πjN < t0 = 0 uniformemente en N y t0 ≥ 0 es
arbitrario y lı́mj πjN = ∞ en probabilidad uniformemente sobre N . 2
Ahora estamos en condiciones de enunciar el teorema de convergencia del método de LL
para ecuaciones diferenciales estocásticas cuando se asume simulación exacta del ruido
Teorema 3.1.1
Supongamos que se cumplen las condiciones (H1)-(H5). Entonces la aproximación LL YN ,
definida por (3.2) tiende a la solución exacta de la ecuación (3.1) cuando la partición
aleatoria N tiende a la identidad, en el sentido de convergencia ucp.
Demostración
I. Sea:
Z
f (s, Xs− ) − f N (t, Y)s− ds
X t − Yt =
Z]0,t] Z
f (s, Xs− ) − f N (t, X)s− ds + f N (t, X)s− − f N (t, Y)s− ds.
=
]0,t] ]0,t]
Por tanto
Z Z
N
kXt − Yt k ≤
f (s, Xs− ) − f N (t, X)s−
ds +
f (t, X)s− − f N (t, Y)s−
ds.
]0,t] ]0,t]
3.1 Convergencia en caso EDE con ruido aditivo 28
Si se define
ϕN
t = sup kXs − Ys k
0≤s≤t
se llega a
Z Z
N
ϕN
t ≤
f (s, Xs− ) − f N (t, X)s−
ds +
f (t, X)s− − f N (t, Y)s−
ds. (3.5)
]0,t] ]0,t]
Sea ahora t0 > 0 un tiempo arbitrario, y τ0j = πjN ∧ t0 ∧ ξj , donde ξj = ı́nf {t : kXt k > j}.
Como X es una semimartingala está localmente acotada, i.e., kXt k ≤ j, ∀ 0 < t < ξj y
lı́mj ξj = ∞ c.s.
Para todo s ≤ τ0j , utilizando la fórmula de los incrementos finitos, las condiciones (H3),
(H4) y (H5) se puede afirmar que
N
f (t, X)s− − f N (t, Y)s−
≤ 2K kX ◦ σs− − Y ◦ σs− k + K kXs− − Ys− k
A partir de esta desigualdad, de (3.5) y de la acotación para kXt k ≤ j, ∀ 0 < t < τ0j ,
podemos asegurar que existe una constante ρ0j tal que se cumple
Z Z
N N
ϕt ≤ ρ0j ϕs ds +
f (s, Xs− ) − f N (t, X)s−
ds. (3.6)
]0,t] ]0,τ0j ]
Definamos Z
N
R (τ0j ) =
f (s, Xs− ) − f N (t, X)s−
ds.
]0,τ0j ]
ϕN N
t ≤ R (τ0j )e
ρ0j t0
f (s, Xs− ) − f N (t, X)s−
≤ kf (s, Xs− ) − f (σs− , X ◦ σs− )k
Como X es una semimartingala, tiene lı́mite por la izquierda, entonces, para cada partición
aleatoria N , X ◦ σs− tiende a Xs− para cada s ∈ R+ y ω ∈ Ω. Además σs− tiende a s para
cada s ∈ R+ y ω ∈ Ω. Luego a partir de (H1), podemos decir que
f (s, Xs− ) − f N (t, X)s−
→ 0, cuando N → ∞
3.2 Convergencia en caso de EDE general 29
para cada s ∈ R+ y ω ∈ Ω.
Además como 0 < σs− ≤ s ≤ t0 y kXs− k ≤ j si s ≤ τ0j , entonces a partir de (H1) se
obtiene que existe una constante M0j tal que
f (s, Xs− ) − f N (t, X)s−
≤ M0j , ∀ 0 < s ≤ τ0j y ω ∈ Ω.
lı́m ϕN
τ0j = 0 c.s.,
N
P ϕN ≤ P ϕN
t0 > r t0 > r, τ0j > t0 + P (τ0j < t0 )
≤ P ϕN
τ0j > r + P (τ0j < t0 ) , (3.7)
Por el Lema 3.1.2 podemos asegurar que para j grande, uniformemente con respecto
a
N
N , P (τ0j < t0 ) tiende a cero. Y por lo demostrado en II, para cada j, P ϕτ0j > r tiende a
cero cuando N crece. Estos dos hechos y (3.7) implican que P ϕN t0 > r tiende a cero cuando
N crece. Como r es arbitraria, esto implica que ϕN t0 tiende a cero en probabilidad. Teniendo
en cuenta que t0 es arbitrario, esto completa la demostración de que YN converge ucp a X
cuando N tiende a infinito.2
donde
f N (t, Y)s = f (t ∧ ηs , s, Ys , σs , Y ◦ σs ),
(3.9)
N
G (Y)s = G(s, σs , Y ◦ σs )
para ciertas funciones continuas f : R2+ ×Rd ×R+ ×Rd 7→ Rd y G : R+ ×R+ ×Rd 7→ Rd×m .
Especı́ficamente de acuerdo a (2.6), (2.8), (2.10) y (2.11), las funciones f y G se puede
escribir de la siguiente forma en cada caso
3.2 Convergencia en caso de EDE general 30
c a
f (r, s, x, u, y) = f ,
c
G (s, u, y) = e(s−u)J(u,y) G(u, y).
d) Para la variante LLd :
d
f (r, s, x, u, y) = e(r−s)J(u,y) f (u, y) ,
d
G (s, u, y) = G(u, y),
donde
∂
J(u, y) =
f (u, y).
∂y
La convergencia uniforme en probabilidad sobre compactos (convergencia ucp) de las
aproximaciones LL a la solución exacta se demostrará como consecuencia de la convergencia
ucp de la aproximación dada en forma general por (3.8)-(3.9).
Como antes, aquı́ (Zt )t≥0 es una semimartingala m-dimensional, Z0 = 0 y X0 es un vector
aleatorio F0 -medible con valores en Rd .
Las siguientes condiciones se asumirán para los coeficientes f y G de esta ecuación:
A1. i. f ∈ C 2 R+ × Rd , Rd .
ii. G ∈ C 2 R+ × Rd , Rd×m .
A2. Existe una constante K < ∞ tal que
∂
i.
f (t, x)
≤ K,
∂x
∂
∂x G(t, x)
≤ K.
ii.
Lema 3.2.2
Supongamos que se cumplen las condiciones(B1)-(B3). Sea YN
la solución
de (3.8)-(3.9).
Entonces existen tiempos de parada πj (j, N = 1, 2, · · · ,) tal que Yt− ≤ j para 0 < t ≤ πjN
N
N
Demostración
Para simplificar las notaciones, escribiremos Y = YN . Para todo t ≥ 0,
Z Z
N N
kYt k =
X 0 + f (t, Y)s− ds + G (Y)s− dZs
]0,t] ]0,t]
Z
Z
N
N
≤ kX0 k +
f (t, Y)s−
ds +
G (Y)s− dZs
.
]0,t] ]0,t]
Entonces,
Z
Z
N
N
Yt
≤ M +
f (t, Y)s−
ηM ds +
G (Y)s− ηM dZs
.
e
]0,t] ]0,t]
Por (3.11), Aτj − ≤ j y por el Lema 1.5.1, para cualquier tiempo de parada τ ≤ τj ,
Z 2 Z
G (Y)s− ηM
2 dAs .
2
N
N
E (ϕτ − ) ≤ 4M + 4E sup
f (t, Y)s−
ηM ds + 4jE
t<τ ]0,t] ]0,τ ]
Fijemos t0 > 0 arbitrario, y sea τj0 = τj ∧ t0 . Sea τ un tiempo de parada tal que τ ≤ τj0 .
Por el supuesto de (B3), para todo s ≤ t ≤ τ ,
N
f (t, Y)s−
=
f (t ∧ ηs− , s, Ys− , σs− , Y ◦ σs− )
≤ a0 + K kYs− k + K kY ◦ σs− k ,
N
G (Y)s−
=
G(s, σs− , Y ◦ σs− )
≤ a0 + K kY ◦ σs− k .
donde la segunda desigualdad proviene del Lema 1.5.1. Por lo tanto, existen constantes finitas
C0 y C1 (dependientes de M y j pero no de N ) tales que
Z
E (ϕτ − ) ≤ C0 + C1 ϕs− dAs .
]0,τ ]
Como aquı́ los tiempos de parada τ ≤ τj0 son arbitrarios, el Lema 3.2.1 implica que
[2jC1 ]
X
(2jC1 )i .
E ϕτj0 − ≤ 2C0 (3.12)
i=0
Lema 3.2.3
Suponga que las condiciones (A1)-(A2) y (B1)-(B4) se satisfacen. Sean X y YN las
soluciones de las ecuaciones (2.1) y (3.8), respectivamente. Entonces YN converge a X
en sentido ucp cuando N tiende a ∞.
Demostración
La demostración está organizada a través de varios pasos. Por simplificar la notación,
escribiremos Y = YN .
a) Por (A1)-(A2), la solución X de (2.1) existe y es una semimartingala. Para todo t ≥ 0,
Z Z
N
N
kXt − Yt k =
f (s, X s− ) − f (t, Y)s− ds + G(s, X s− ) − G (Y) s− dZ s
]0,t] ]0,t]
Z
Z
N N
N N
≤
f (t, X)s− − f (t, Y)s− ds +
G (X)s− − G (Y)s− dZs
+
]0,t] ]0,t]
Z
Z
N
N
+
f (s, Xs− ) − f (t, X)s−
ds +
G (s, X s− ) − G (X) s− dZ s
.
]0,t] ]0,t]
(3.14)
cumplen que lı́mj γj = ∞ c.s. y kXt− k ≤ j para t ≤ γj . Por el Lema 3.2.2, los tiempos de
parada
πjN = ı́nf {t ≥ 0 : kYt k > j} ,
cumplen las condiciones kYt− k ≤ j para t ≤ πjN y lı́mj πjN = ∞ en probabilidad uniforme
en N . Definamos además los tiempos de parada
τj = ı́nf {t ∈ R+ : At > j} ,
N
Sea t0 > 0 una constante arbitraria y sea ξ0j = γj ∧ τj ∧ πjN ∧ t0 . Para s ≤ t ≤ ξ0j
N
, todas
las funciones t ∧ ηs− , s, σs− , Xs− y Ys− están acotadas uniformemente en N . Por tanto,
por el supuesto (B2) y la fórmula de los incrementos finitos, existen constantes C1 y C2
N
(dependientes de j y t0 pero no de N ) tales que, para todo s ≤ t ≤ ξ0j ,
N
f (t, X)s− − f N (t, Y)s−
=
f (t ∧ ηs− , s, Xs− , σs− , X ◦ σs− ) − f (t ∧ ηs− , s, Ys− , σs− , Y ◦ σs− )
=
G (s, σs− , X ◦ σs− ) − G(s, σs− , Y ◦ σs− )
N
Para s ≤ t ≤ ξ0j , las funciones t ∧ ηs− , s, σs− , Xs− y Ys− están acotadas uniformemente en
N . De esto y conjuntamente con los supuestos (B2), (B4) y la fórmula de los incrementos
finitos podemos decir que existen constantes C3 y C4 (dependientes de j y t0 pero no de N )
tales que
f (s, Xs− ) − f N (t, X)s−
=
f (s, Xs− ) − f (t ∧ ηs− , s, Xs− , σs− , X ◦ σs− )
y
G (s, Xs− ) − GN (X)
s−
=
G (s, Xs− ) − G (s, σs− , X ◦ σs− )
donde la última desigualdad proviene del Lema 1.5.1 y del hecho de que A es un proceso de
control para la semimartingala (t)t≥0 . Por (3.20) y
Z
dAs ≤ j,
]0,τ ]
donde Z
N 2
kXs− − X ◦ σs− k2 dAs .
R0j =E δN +E
] N
0,ξ0j ]
N
Como aquı́ el tiempo de parada τ ≤ ξ0j es arbitrario y Aξ0j N − ≤ j, la aplicación del Lema
b) Como X es un proceso con lı́mites finito por izquierda y por derecha c.s., entonces se
cumple que para cualquier s > 0:
N
Xs− − X ◦ σs− = Xs− − X ◦ σs− → 0 c.s. cuando N → ∞.
De hecho, para todo > 0 existe δ > 0 tal que kXu − Xs− k < para todo u ∈ [s − 2δ, s[.
Podemos asumir que s ≤ TkNN tomando N suficientemente grande. Supongamos que N es
tan
grande que δN
< δ. Entonces para todo u ∈ [s − 2δ, s[ se cumple que σuN ∈ [s − 2δ, s[, y
ası́
X ◦ σuN − Xs−
< y entonces
X ◦ σuN − Xu
≤
X ◦ σuN − Xs−
+ kXu − Xs− k < 2.
Por el paso (b) arriba, lı́mN (Xs− − X ◦ σs− ) = 0 c.s. para cualquier s > 0.
N
Además, kXs− − X ◦ σs− k ≤ 2j para todo s ≤ ξ0j . De esa manera, tomando en consideración
N
que ξ0j ≤ t0 y A es un proceso de variación finita, el teorema de convergencia dominada nos
asegura que Z
lı́m kXs− − X ◦ σs− k2 dAs = 0 c.s.
N
]0,ξ0j
N
[
Como Z Z
2
kXs− − X ◦ σs− k dAs ≤ (2j) 2
dAs ≤ (2j)2 j,
]0,ξ0j
N
[ ]0,ξ0j
N
[
otra nueva aplicación del teorema de la convergencia dominada nos conduce a
Z
lı́m E kXs− − X ◦ σs− k2 dAs = 0.
N
]0,ξ0j ]
N
3.2 Convergencia en caso de EDE general 38
N
Ası́ que lı́mN R0j = 0.
N
d) Fijando t0 > 0 y definiendo ξ0j igual que en el paso (b). Para cualquier r > 0,
1/2
1/2
ϕN ϕN N
P sup kXt − Yt k > r ≤ P t0 − >r ≤P N−
ξ0j > r + P ξ0j > t0
0≤t<t0
EϕN
ξN − N
0j
≤ + P ξ0j > t0 , (3.22)
r2
donde el último resultado proviene de la desigualdad de Markov.
El lı́mj τj = ∞ c.s., lı́mj γj = ∞ c.s. y P − lı́mj πjN = ∞ (uniformemente en N ) implican que
N
lı́m P ξ0j > t0 = 0 uniformemente en N,
j
además, por (3.21) y la conclusión del paso (c), para t0 y j fijos se cumple que
lı́m EϕN
ξN − = 0
N 0j
Teorema 3.2.1 Supongamos que las condiciones (A1)-(A3) se cumplen. Sea X la solución
de (2.1). Entonces cada una de las aproximaciones LLa, LLb, LLc y LLd definidas en la
Sección 2.1 convergen a X en sentido ucp cuando N → ∞.
Demostración
Es suficiente verificar que las funciones f y G que definen las aproximaciones LL (de acuerdo
con la ecuación (3.8)) cumplen las condiciones (B1)-(B4) del Lema 3.2.3.
La condición (B1) se garantiza por la existencia de la aproximación LL como solución de las
ecuación lineales a pedazos (2.6), (2.8), (2.10) y (2.11), respectivamente.
La condición (B2) se puede asegurar por (A1). Para el caso de la condición (B3 ii.) se
satisface porque estamos trabajando en todos los casos con ecuaciones diferenciales estocásti-
cas con ruido aditivo, es decir en las aproximaciones propuestas G (t, X) = G (t, XTn ).
La condición (B4) se puede verificar inmediatamente, por la evaluación de las funciones
envueltas en las definiciones para cada aproximación.
Finalmente, en cada caso, (B3 i.) sigue a partir de las definiciones de f y G y aplicando la
fórmula de los incrementos finitos y tomando en consideración los supuestos (A1)-(A3). 2
Capı́tulo 4
Aspectos Computacionales
Sea Yt , t ≥ 0, una de las aproximaciones LLa, LLb, LLc o LLd definidas por (2.5), (2.7),
(2.9) y (2.11), respectivamente. Las correspondientes discretizaciones están definidas por la
evaluación en los tiempos discretos t = Tn , n = 0, 1, · · · , kN .
Todas las discretizaciones se pueden descomponer de manera general en una parte recur-
siva vn y en un término de ruido ξn de la siguiente forma
YTn+1 = YTn + vn + ξn .
a) En el caso de la discretización LLa,
Z
vn = e(Tn −s)Jn {fn + dn (s − Tn )} s, (4.1)
Z]Tn ,Tn+1 ]
ξn = e(Tn −s)Jn G(s, YTn )dZs , (4.2)
]Tn ,Tn+1 ]
Los detalles sobre las evaluaciones de estas dos componentes en cada una de las discre-
tizaciones definidas antes se discuten en la siguientes Secciones.
Entonces, las ecuaciones (4.1), (4.3) y (4.5) se pueden obtener como un bloque de la
matriz exponencial exp {(Tn+1 − Tn )Cn } de acuerdo a la siguiente identidad:
F b vn
0 1 c = e(Tn+1 −Tn )Cn ,
0 0 1
donde F ∈Rd×d , b ∈ Rd y c ∈ R son ciertas matrices.
Igualmente, vn definida por (4.7) puede ser evaluada de la siguiente manera. Si
Jn f n
Cn = ∈ R(d+1)×(d+1)
0 0
entonces
F vn
= e(Tn+1 −Tn )Cn
0 1
donde el bloque F tiene dimensión d × d.
Existen un número de algoritmos disponibles para evaluar las matrices exponenciales
involucradas en estas expresiones, e.g. algunas basadas en las aproximaciones estables de
Padé con el método de escalamiento y potenciación, la descomposición de Schur, o el método
de los subespacios de Krylov. La elección de uno de ellos depende del tamaño y la estructura
de la matriz jacobiana Jn (ver por ejemplo Higham [6] y las referencias en él).
Luego la simulación de las ξn se puede realizar fácilmente en los casos en que se dispone
de una buena aproximación de esta integral. En Jiménez et al. [16] se discuten algoritmos
para esto en el caso en que α = 2 y G (s, YTn ) es un polinomio arbitrario con respecto a s.
En otras situaciones donde el cálculo de LLa y LLb es difı́cil, la discretización LLc ofrece
una alternativa más fácil de implementar. De hecho, cálculo de (4.6) requiere de dos cosas. Lo
primero es calcular el valor de exp{(Tn+1 − Tn )Jn }. Esta matriz es un subproducto del proce-
dimiento de cálculo del término recursivo explicado en la Sección anterior. Especı́ficamente,
ella coincide con el primer bloque matricial de:
F b vn
0 1 c = e(Tn+1 −Tn )Cn ,
0 0 1
es decir, e(Tn+1 −Tn )Jn = F.
Lo segundo es realizar simulaciones de los incrementos ZTn+1 − ZTn . Esto es fácil de
ejecutar para cualquier proceso de Lévy α-estable Z. En estecaso los incrementos son
1/α
variables aleatorias independientes con distribución α-estable Sα |Tn+1 − Tn | , β, 0 para
cierta constante β ∈ [−1, 1] (usualmente se supone que β = 0). Entonces, la simulación de
los incrementos se reduce a la generación de variables aleatorias independientes α-estables.
Para esto, existen un número de algoritmos disponibles (ver e. g. Samodorodnitsky y Taqqu
[27], Janicki y Weron [11]). En particular, hemos descrito un algoritmo general debido a
Weron (1996) en la Sección 1.7.1.
La discretización LLd es una alternativa aún más simple de implementar. De hecho, las
evaluaciones de (4.8) sólo requieren las simulaciones de los incrementos ZTn+1 − ZTn .
Capı́tulo 5
Estudio de Simulación
Definición 5.1.1
El método se dice que es estable si para cualquier ecuación (3.1) de tipo lineal estable, i.e.,
f (s, X) = AX donde A es una matriz constante cuyos valores propios tiene parte real
negativa, la aplicación del método a partir de dos condiciones iniciales X0 y X00 en t = 0 da
por resultado correspondientes soluciones Yt y Yt0 que satisfacen que Yt − Yt0 tiende a cero
(en probabilidad) cuando t → ∞.
Los métodos introducidos LLa, LLb, LLc y LLd son teóricamente estables para EDE con
ruido aditivo en este sentido.
La factibilidad y comportamiento práctico del enfoque LL lo estudiaremos a través de
simulaciones, comparándolo con el método de Euler. Motivado por su mayor simplicidad
computacional, usaremos en especı́fico siempre la variante LLc del método LL. Para las
simulaciones, consideraremos tres ejemplos de EDE con ruidos Lévy alfa-estables simétricos.
El primer ejemplo es una EDE con ruido aditivo cuyas soluciones exactas tienen una
dinámica muy simple: tienden a cero cuando el tiempo aumenta. En este caso, para un
paso h moderado, realizamos simulaciones para explorar cuánto el comportamiento de las
discretizaciones por ambos métodos reproducen dicha dinámica de punto lı́mite nulo. Se
consideran varios valores del parámetro alfa del ruido.
El segundo ejemplo es la bien conocida ecuación de Van der Pol (Hairer y Wanner [5])
con ruido aditivo, que es un sistema de los llamados “rı́gidos” (“stiff”) y cuyas soluciones
dinámicamente tienen la forma de un ciclo ruidoso. Este sistema depende de un parámetro
que determina el grado de rigidez. Aprovechamos que este ejemplo tiene una más compleja
dinámica sin dejar de ser fácilmente visualizable, para realizar un análisis más profundo y
completo de la comparación entre los dos métodos de discretización en variadas condiciones
de operación de los mismos. Esto incluyó la aplicación de los métodos con distintos valores
i) del tamaño del paso, ii) el parámetro que determina el grado de rigidez, iii) de alfa, y
5.2 Ejemplos 43
por último iv) del nivel de ruido (un parámetro escalar multiplicativo considerado en cada
ejemplo en G(s, x)).
El tercer ejemplo es la ecuación de Brusselator con ruido multiplicativo (Ehrhardt [4]).
Cuando el ruido no es aditivo, no hay garantı́a de que en algún sentido el método LL resulte
numéricamente estable. No obstante, este ejemplo resulta interesante precisamente porque
muestra que en algunos casos la discretización LL muestra estabilidad por simulaciones a
pesar de que el ruido sea multiplicativo. Esto se ilustra en este ejemplo para varios tamaños
de paso, niveles de ruido y tipos de procesos Lévy alfa-estable e intervalos de integración.
Para las simulaciones de los métodos en estos ejemplos y para construir las gráficas
correspondientes se elaboraron programas MATLAB. El método LLc se instrumentó según
los algoritmos descritos en el Capı́tulo 4 sobre aspectos computacionales. Se utilizó el al-
goritmo propuesto por Weron, que se ofrece en la Sección 1.7.1, para generar el vector de
incrementos de los procesos Lévy alfa-estables.
Tanto para el método de Euler como para el LLc, en todos los casos en que se muestra la
realización de la discretización con distintos tamaños de paso (h), se tuvo en cuenta mantener
la consistencia entre los incrementos del proceso de ruido correspondientes a distintos h
involucrados en el cálculo de las discretizaciones. Para esto, se simulan los incrementos del
proceso de ruido tomando el menor tamaño de paso, y por adición de estos se calculan los
incrementos del ruido asociados a valores mayores de h.
Además es muy conveniente que, para cualquier valor de alfa fijo, al efectuar compara-
ciones entre los resultados de los métodos al variar el nivel de ruido (y posiblemente tam-
bién algún parámetro de rigidez) del sistema, las discretizaciones mostradas en las figuras
correspondan a la misma realización del proceso de ruido. De este modo se evita que la varia-
ción aleatoria de las realizaciones resulte un factor de confusión en la comparación entre los
resultados correspondientes a distintos niveles de ruido, haciéndolos por tanto más compa-
rables. Con este fin en tales comparaciones se utilizó la misma realización de los incrementos
del proceso de ruido alfa-estable para el cálculo de todas las discretizaciones.
Veamos los resultados obtenidos en cada uno de los ejemplos.
5.2. Ejemplos
El Ejemplo 1 es la siguiente ecuación:
Las soluciones (exactas) de esta ecuación tienden a cero cuando el tiempo aumenta.
En la Figuras 5.1 y 5.2 se muestra discretizaciones obtenidas por ambos métodos: el de
Euler y el LL para cuatro valores de alfa.
En estas figuras se puede ver como, para el moderado paso usado h = 2−4 , las discretiza-
ciones LL reproducen el comportamiento dinámico de las soluciones exactas. Por el contrario,
las discretizaciones de Euler tienen un carácter explosivo en todos los casos.
5.2 Ejemplos 44
100 4
0
0
−2
−100
−4
−200 −6
−8
−300
−10
−12
−400
−14
−500 −16
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Time Time
3.5
1 3
2.5
0.5 2
1.5
0 1
0.5
−0.5 0
−0.5
−1 −1
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Time Time
El Ejemplo 2 es el conocido sistema “stiff” bidimensional de Van der Pol con ruido aditivo:
dX1 = X2 dt
dX2 = E 1 − X12 X2 − X1 dt + σdLt .
6 30
10
20
4
Euler
10 0
2
0
−10
0 −10
−2 −20 −20
0 2 4 −5 0 5 −5 0 5
174
x 10
20 20 20
10
10 10
0
LL
0 0
−10
−10 −10
−20
Resultados similares con respecto a la variación del paso se obtienen no obstante cuales
sean los valores fijados de los parámetros del sistema: la discretización de Euler se torna
explosiva para pasos mayores que un umbral para el cual por el contrario el método LL
muestra buena reconstrucción de la dinámica. Otra ilustración de esto se presenta en la
Figura 5.4, donde se fijó α = 1,78, E = 10 y σ = 5.
5.2 Ejemplos 46
209
x 10
15 20 20
10
10 10
0
Euler
5 0
−10
0 −10
−20
−5 −20 −30
0 10 −5 0 5 −5 0 5
208
x 10
30 20 20
20 10 10
10
0 0
LL
0
−10 −10
−10
183
x 10
20 40 10
8
10 20
6
Euler
0 0 4
2
−10 −20
0
−20 −40 −2
−5 0 5 −5 0 5 0 1 2
182
x 10
20 40 100
10
20 50
0
LL
0 0
−10
−20 −50
−20
20
0
10
10
0 −2
Euler
0
−10 −4
−20
−10
−6
−30
−20 −40 −8
−5 0 5 −5 0 5 −2 −1 0 1
220
x 10
20 30 30
20 20
10
10 10
0 0 0
LL
−20 −20
−20
−30 −30
10
0
10
0
−10 −1
Euler
0
−20 −2
−30
−10
−3
−40
−20 −50 −4
−5 0 5 −5 0 5 −10 −5 0 5
289
x 10
20 30 40
10 20 20
10 0
0
LL
0 −20
−10
−10 −40
−20 −20 −60
0 0
−2 −2
Euler
2
−4 −4
−6 −6
0 −8 −8
−4 −2 0 2 −5 0 5 10 −5 0 5 10
201
x 10
2 2 2
0 0 0
−2 −2 −2
LL
−4 −4 −4
−6 −6 −6
−8 −8 −8
−5 0 5 10 −5 0 5 10 −5 0 5 10
La variación de σ tiene gran influencia sobre la calidad de las discretizaciones por ambos
métodos. Para algunos valores crecientes de σ se observa un efecto similar al del caso adi-
tivo, i.e., valores mayores de σ conducen a peores aproximaciones por ambos métodos. La
Figura 5.9 ilustra esto para el caso α = 1,83, C1 = 2,5, h = 2−6 mediante los tres valores
σ = 0,1, σ = 0,5 y σ = 0,92. Para σ = 0,92 la aproximación por Euler muestra un carácter
explosivo mientras que la aproximación LL sólo tiene un comportamiento más ruidoso pero
sin explosiones. Por otra parte, otras simulaciones realizadas indican que la relación entre σ
y la calidad de las discretizaciones parece ser mucho más complicada que en el caso de ruido
aditivo estudiado en el Ejemplo 2, no simplemente monótona. Esto no es de extrañar tenien-
do en cuenta las complejidades dinámicas frecuentes en los sistemas de ruido multiplicativo.
No obstante, como quiera que sea esta relación, un hecho general en todas las simulaciones
fue que las discretizaciones LL mostraron más estabilidad numérica incluso en los casos en
5.2 Ejemplos 50
2.5
0 0
2
−2 −2 1.5
Euler
1
−4 −4
0.5
−6 −6 0
−0.5
−2 0 2 4 6 −2 0 2 4 6 −4 −2 0 2
282
x 10
2 2 2
0 0 0
−2 −2 −2
LL
−4 −4 −4
−6 −6 −6
−2 0 2 4 6 −2 0 2 4 6 −2 0 2 4 6
Como en el caso del Ejemplo 2 se realizó un estudio del comportamiento del parámetro α.
Los resultados fueron similares: al disminuir alfa se deterioran las discretizaciones de ambos
métodos, pero con la diferencia ahora de que esta influencia es más marcada. Este resultado
se ilustra en la Figura 5.10
Otro factor que influye en al calidad de las aproximaciones es el intervalo de integración
considerado. Para α = 1, utilizando la misma realización del ruido hasta T = 10 que en
la segunda columna de Figura 5.10, aumentamos el tamaño del intervalo de integración a
T = 15 y T = 20. Como se observa en la Figura 5.11, a medida que aumenta T las trayectorias
por Euler comienzan a alejarse, no son capaces de regresar y terminan siendo explosivas. No
ocurre ası́ con el método LL que se comporta acotadamente en todos los casos.
5.2 Ejemplos 51
137
x 10
3 3 8
2 2 6
1 1
4
Euler
0 0
2
−1 −1
−2 −2 0
−3 −3 −2
−2 0 2 −2 0 2 −10 −5 0 5
137
x 10
3 3
10
2 2
1 1 7
LL
0 0
3
−1 −1
−2 −2 0
−3 −3 −3
−2 0 2 −2 0 2 −10 −6 −2 2
2 2 0
1 1 −0.5
Euler
0 0 −1
−1 −1 −1.5
−2 −2 −2
−3 −3 −2.5
−4 −2 0 2 4 −4 −2 0 2 4 0 2 4
211
x 10
3 3
3
2 2
1 1
−3
LL
0 0
−1 −1
−9
−2 −2
−3 −3
−4 −2 0 2 4 −4 −2 0 2 4 −4 5 13
• Demostramos la convergencia (en sentido ucp) de todas las variantes del método LL
introducidas. En primer lugar, haciendo uso de técnicas elementales del análisis ma-
temático lo demostramos para una de dichas variantes en el caso de EDES con ruido
aditivo. En segundo lugar, haciendo uso de herramientas más profundas de la teorı́a
de semimartingalas lo demostramos para todas las variantes en el caso de una EDES
general.
• Todas las variantes del método LL para EDES introducidas son A-estables.
• El estudio de la simulación realizado muestra que el método LL para EDES tiene una
estabilidad considerablemente mayor que el método de Euler en una amplia variedad
de ejemplos de EDE con ruidos Levy alfa-estables, que incluyen distintos niveles de
ruido y valores del parámetro alfa, ası́ como diferentes tipos de dinámica (atractores
puntuales y ciclos, ecuaciones “stiff”).
Recomendaciones
• Elaborar un método LL para EDES con ruido multiplicativo que sea A-estable.
Bibliografı́a
[19] A. Kohatsu-Higa y P. Protter. The euler scheme for SDEs driven by semimartingales. In
Longman Scientific and Technical, editors, Stochastic Analysis on Infinite Dimensional
Spaces., volume 15, pages 141–151. H. H. Kuo (eds.), 1991.
[20] T. Kurtz y P. Protter. Wonk Zakai corrections, random evolutions and simulation
schemes for SDEs. In Stochastic Analysis Liber Amicorum for Moshe Zakai, volume 15,
pages 331–346. E. Mayer-Wolt et. al. (eds.), 1991.
[23] T. Ozaki. A bridge between nonlinear time series models and nonlinear stochastic
dynamical systems: a local linearization approach. Statistica Sinica, 2:113–135, 1992.
[26] P. Protter y D. Talay. The Euler scheme for Levy driven stochastic differential equations.
The Annals of Probability, 25:393–423, 1997.
[28] R. Weron. On the Chambers-Mallows-Stuck method for simulating skewed stable ran-
dom variables. Statistics and Probability Letters, 28:165–171, 1996.