Está en la página 1de 61

Facultad de Matemática y Computación

Universidad de La Habana

El método de Linealización Local para la


solución numérica de ecuaciones diferenciales
estocásticas con respecto a semimartingalas

Tesis de Maestrı́a
presentada en opción del Tı́tulo Académico de

Master en Ciencias Matemáticas


Mención de Estadı́sticas y Probabilidades

Autor: Lic. Luis Armando Salomón Hernández


Departamento de Matemática Aplicada
Facultad de Matemática y Computación
Universidad de La Habana.

Tutor: Dr. Rolando J. Biscay Lirio


Instituto de Cibernética, Matemática y Fı́sica
ICIMAF

Julio, 2006
A mi madre,
por estar siempre a mi lado.
Agradecimientos.

A mi tutor Rolando Biscay por su empeño en esta investigación,


su intuición matemática y su aporte en mi formación.
A Arlette por todo el amor que me entrega.
A Leipzig, por su apoyo infinito.
A mi padre por confiar en mı́.
A mis Colegas, por hacerme parte de ellos.
Y a Todos los que me ayudan a seguir.
“If we allow for some randomness in some of the coefficients
of a differential equation we often obtain a more realistic
mathematical model of the situation.”
Bernt Oksendal
Índice general

Introducción 1

1. Preliminares 4
1.1. Algunos espacios básicos de procesos . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Semimartingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Integración estocástica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Procesos de Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6. Ecuaciones diferenciales estocásticas . . . . . . . . . . . . . . . . . . . . . . . 13
1.7. Procesos de Lévy alfa-estables . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.1. Distribuciones estables . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7.2. Procesos de Lévy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2. Método de Linealización Local 20


2.1. Motivación del método de LL . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2. Diferentes variantes del método de LL . . . . . . . . . . . . . . . . . . . . . 21

3. Convergencia del Método 24


3.1. Convergencia en caso EDE con ruido aditivo . . . . . . . . . . . . . . . . . . 24
3.2. Convergencia en caso de EDE general . . . . . . . . . . . . . . . . . . . . . . 29

4. Aspectos Computacionales 39
4.1. Cálculo del término recursivo . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2. Cálculo del término del ruido . . . . . . . . . . . . . . . . . . . . . . . . . . 40

5. Estudio de Simulación 42
5.1. Consideraciones numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

Conclusiones 52

Recomendaciones 53

Bibliografı́a 54
Introducción

Las ecuaciones diferenciales estocásticas (EDE) con respecto a procesos de Wiener han
sido muy utilizadas en disı́miles ramas. Por ejemplo, en filtraje de señales, fı́sica (modelos
de ruido Browniano, modelos de difusión, etc), finanzas (modelos estocásticos de tasas de
cambio, etc), control estocástico y en problemas de contorno asociados a ecuaciones en
derivadas parciales. Esto refleja su importancia en una gama extensa de aplicaciones.
Para hallar una solución numérica a este tipo de ecuaciones se han utilizado diversos
métodos. Entre los más populares están el método de Euler, el de Milstein y los métodos
de Runge Kutta (Kloeden y Platen [18], Burrage et al. [2], y Milstein [21]). El método de
Linealización Local (Ozaki [23], Biscay et al. [1], Jiménez y Carbonell [14]) es una alternativa
reciente a tales métodos clásicos. Resultados teóricos y de simulación han mostrado que
el enfoque LL tiene la ventaja de lograr buenas propiedades dinámicas (en particular, A-
estabilidad en caso de EDE con ruido aditivo) con relativamente bajo costo computacional.
Más especı́ficamente, el método LL supera a los otros métodos explı́citos de solución (como
el de Euler y el de Runge Kutta explı́citos) en cuanto a estabilidad numérica, y supera a los
métodos implı́citos en cuanto a tiempo de ejecución.
La idea básica del método LL es la solución explı́cita, mediante exponenciales matriciales,
de ecuaciones lineales que localmente aproximan a la ecuación original. En un principio un
serio inconveniente computacional de este enfoque fue el uso de exponenciales matriciales.
Pero a partir del desarrollo de nuevos algoritmos más eficientes y estables para su cómputo
(e.g., los basados en aproximaciones Padé con el algoritmo de escalamiento y potenciación,
en descomposiciones de Schur y en métodos de subespacios de Krylov; ver e.g. Higham [6] y
referencias citadas allı́), el método LL ha devenido mucho más factible.
El enfoque LL ha sido desarrollado también para ecuaciones diferenciales ordinarias
(Jiménez et al. [15]), ecuaciones diferenciales ordinarias con retardo y ecuaciones diferenciales
aleatorias (Carbonell et al. [3]). Sin embargo, el método LL no ha sido aún formulado para
el caso más general de EDE cuyos ruidos son procesos de Lévy. Esta extensión resultarı́a
interesante no sólo por ser una generalización natural de las EDE con ruidos de Wiener,
sino también por la importancia que han ido adquiriendo actualmente los procesos de Lévy
alfa-estables para modelar fenómenos relacionados con los mercados financieros – como por
ejemplo, los precios de las acciones de la bolsa, los tipos de interés y la volatilidad –, haciendo
posible que se incorporen en su análisis procesos con salto y procesos de varianza infinita.
La motivación inicial del presente trabajo fue la extensión del método LL al caso de
EDE cuyos ruidos son procesos de Lévy alfa-estables. A partir de este incentivo, la búsqueda
bibliográfica relacionada con el tema nos hizo manifiesto que existen pocas publicaciones
Introducción 2

que estudien la convergencia de integradores numéricos para EDE con respecto a procesos
de Lévy, y además sólo tratan ecuaciones particulares. Por otra parte, las EDE con ruidos
Lévy alfa-estables pueden estudiarse como un caso particular de las EDE con respecto a
semimartingalas, para las cuales existe un rico arsenal de herramientas teóricas elaboradas
(Protter [25] y Métivier [22]). Como es sabido, las semimartingalas incluyen a los procesos
de Lévy (en particular, el de Wiener y el de Poisson), y constituyen los procesos estocásticos
más generales que se han considerado como integradores estocásticos (Protter [25]).
Estas últimas consideraciones nos motivaron finalmente a abordar el problema de la
extensión del método LL a EDE cuyos ruidos son no sólo procesos de Lévy sino también en
general semimartingalas. Para este tipo de ecuaciones el único enfoque de solución numérica
que ha sido reportado hasta el momento es el método de Euler. Esto es ası́ tanto para
soluciones en sentido fuerte (Protter [24], Karandikar [17], Kohatsu-Higa y Protter [19],
Kurtz y Protter [20], Janicki et al. [10]), como para soluciones en sentido débil (Janicki y
Weron [12], Janicki et al. [9], Protter y Talay [26], Jacod y Protter [8], Jacod et al. [7]).
Especı́ficamente, nos planteamos en el presente trabajo los siguientes objetivos:

1. Formular el método LL para EDE con ruidos semimartingalas.

2. Investigar teóricamente la convergencia del método.

3. Elaborar esquemas computacionales que instrumenten el método.

4. Estudiar mediante simulaciones las bondades del método en comparación con el de


Euler.

El presente trabajo tiene 5 Capı́tulos y está organizado de la siguiente forma.


En el Capı́tulo 1 se expone un breve resumen de los conceptos y propiedades básicas de
la teorı́a general de procesos estocásticos que resultan más relevantes como requisito para el
entendimiento claro del trabajo realizado, en especial las demostraciones de los teoremas de
convergencia obtenidos.
En el Capı́tulo 2 se introduce el método de Linealización Local para EDE con ruidos
semimartingalas. Se elaboran y describen distintas variantes de este método, caracterizadas
por diferentes aproximaciones que involucran variado grado de dificultad computacional.
La convergencia del método introducido se estudia en el Capı́tulo 3. La topologı́a usada
es en el sentido de convergencia uniforme sobre compactos en probabilidad, como es usual
al tratar soluciones de EDE con ruidos semimartingalas. En la Sección 3.1 se presenta un
teorema de convergencia cuya validez se restringe al caso de EDE con ruido aditivo, mien-
tras la Sección 3.2 trata acerca de la convergencia de las distintas variantes propuestas del
método LL en caso de EDE generales. Las demostraciones en la Sección 3.1 utilizan técnicas
clásicas del análisis matemático y de la teorı́a de ecuaciones diferenciales ordinarias (Lema
de Gronwall, etc), mientras que las de la Sección 3.2 utiliza sobre todo técnicas relacionadas
con procesos de control para semimartingalas y la generalización del Lema de Gronwall a
procesos estocásticos. Es de destacar que estas últimas técnicas difieren notablemente de las
utilizadas en el estudio de EDE con ruidos de Wiener, i.e., caen fuera del cálculo estocástico
Introducción 3

para martingalas de cuadrado integrable. Las demostraciones son organizadas con el apoyo
de varios lemas que facilitan su exposición y comprensión.
El Capı́tulo 4 discute aspectos computacionales de las discretizaciones asociadas a las
distintas variantes del método introducido. Se desarrollan distintas formas de cálculo de los
términos recursivos y de ruido involucrados en las discretizaciones LL.
El Capı́tulo 5 explora mediante simulaciones el comportamiento del método introducido
para el caso de EDE con ruidos Lévy alfa-estables. Se realiza un estudio comparativo de las
aproximaciones a las soluciones obtenidas por el método LL y por el método de Euler. Para
ello se utilizan ejemplos de EDE conocidos de la literatura, los cuales son difı́ciles de integrar
numéricamente debido a su compleja dinámica (en algunos casos “stiff”). A través de las
simulaciones se estudia la influencia del tamaño de paso, el nivel de ruido y el exponente de
estabilidad alfa en la calidad de las soluciones aproximadas.
Finalmente presentamos las conclusiones y recomendaciones de este trabajo.
Capı́tulo 1

Preliminares

Este Capı́tulo está constituido en su totalidad por un compendio de conceptos y teo-


remas conocidos de la teorı́a general de procesos estocásticos que serán necesarios para la
obtención y comprensión de los resultados del presente trabajo. Incluye en particular tópicos
sobre la teorı́as de martingalas, semimartingalas, procesos de Lévy, distribuciones estables
e integración estocástica con respecto a semimartingalas. Para mayor información acerca de
estos temas se pueden consultar Protter [25], Métivier [22] y Samodorodnitsky y Taqqu [27].
En todo este capı́tulo, (Ω, F, P ) es un espacio de probabilidad completo. Salvo que se
indique otra cosa, todos los procesos estocásticos los consideraremos indizados por tiempos
t ∈ R+ y con valores en R.

1.1. Algunos espacios básicos de procesos


Definición 1.1.1
Una familia F = (Ft )0≤t≤∞ de sub-σ-álgebras de F se dice una filtración si es creciente,
es decir, si Fs ⊂ Ft ⊂ F siempre que s ≤ t. Se dice entonces que la terna (Ω, F, F) es
un espacio filtrado. La cuaterna (Ω, F, F, P ) se denomina espacio de probabilidad
filtrado.

La filtración F se dice continua


T a la derecha (en adelante diremos simplemente càd, del
francés continu à droite) si Ft = s>t Fs . Definimos además las σ-álgebras:

F0 S  si t = 0
Ft− =
σ s<t Fs si t > 0

Definición 1.1.2
Se dice que el espacio de probabilidad filtrado (Ω, F, F, P ) satisface las condiciones usuales
si F es càd y F0 contiene todos los conjuntos P -nulos de F. Salvo que se indique otra cosa,
siempre se supondrá que se cumplen las condiciones usuales.

Diremos que un proceso X = (Xt )t≥0 es adaptado si Xt es Ft -medible para todo t ≥ 0.


1.1 Algunos espacios básicos de procesos 5

Definición 1.1.3
Diremos que el proceso X es càd si c.s. sus trayectorias son continuas a la derecha, càg (del
francés continu à gauche) si sus trayectorias son continuas a la izquierda, càdlàg ( continu
à droite avec des limites à gauche) si sus trayectorias son continuas a la derecha y tienen
lı́mite a la izquierda, y càglàd si sus trayectorias son continuas por izquierda y tienen lı́mite
por derecha. Denotamos por D (resp., L) al espacio de los procesos adaptados y càdlàg
(respectivamente, càglàd).

Cuando X es càdlàg definimos los siguientes procesos:

X− = (Xt− )t∈R+
∆X = (∆Xt )t∈R+

donde:

Xt− = lı́m Xs
s%t
∆Xt = Xt − Xt−

Nótese que siempre ∆X0 = 0, y que X− es càg.

Definición 1.1.4
Una variable aleatoria T : Ω 7→ [0, ∞] es un tiempo de parada si el evento {T ≤ t} ∈ Ft
para todo t, 0 ≤ t ≤ ∞.

Como caso particular, se puede verificar sin ninguna dificultad que T = c es un tiempo
de parada para toda constante c > 0. Si T y S son tiempos de parada, se puede definir el
intervalo:
[S, T [ = {(t, ω) : t ∈ R+ y T (ω) ≤ t < S (ω)}
y análogamente se definen [S, T ], ]S, T [ y ]S, T ].

Definición 1.1.5
Si X = (Xt )t≥0 es un proceso estocástico
 y T es un tiempo de parada, entonces el proceso X
parado en T es el proceso X T = XtT t∈R+ definido como:

XtT (ω) = XT (ω)∧t (ω)

donde a ∧ b denota mı́n (a, b).

No se debe confundir el proceso X T con la variable aleatoria XT , que no es más que


XT (ω) (ω). Intuitivamente, X T es un proceso idéntico a X antes de T y que se mantiene
constante a partir de T .
Por su utilidad para varios conceptos elementales definiremos los procesos de variación
finita: Este tipo de procesos son utilizados en la teorı́a de integración de Stieltjes, que a su
vez es un componente de la definición de la integración estocástica con respecto a semimar-
tingalas.
1.2 Martingalas 6

Definición 1.1.6
Sea A = (At )t≥0 un proceso càdlàg, diremos que A es un proceso creciente, si las tra-
yectorias de A : t 7→ At (ω) son no decrecientes para casi todo ω. El proceso A se dice de
variación finita, si casi todas las trayectorias de A son de variación finita sobre cada
compacto de R+ .
Diremos que un proceso X = (Xt )t≥0 cumple una propiedad localmente si existe una
sucesión de tiempos de parada Tn con Tn → ∞ c.s. tal que la dicha propiedad es satisfecha
por cada uno de los procesos XtTn 1{Tn >0} (t), t ≥ 0.
Definición 1.1.7
La σ-algebra predecible P es la menor σ-algebra sobre R+ × Ω que hace medibles a todos los
procesos de L. Un proceso se dice predecible si es P-medible.
Denotaremos por I a la clase de los procesos predecibles y localmente acotados.
Denotemos por V + (resp., V) a la clase de los procesos reales càdlàg adaptados A, con
A0 = 0, y de trayectorias no decrecientes (resp., de variación finita en cada intervalo finito
[0, t]).
Denotemos por A+ la clase de los procesos A de V + tales que E (A∞ ) < ∞, y por A la
de los procesos A de V tales que E (V ar(A)∞ ) < ∞, donde el proceso V ar(A)t , para cada
(ω, t) es igual a la variación de la trayectoria correspondiente a A· (ω) en el intervalo [0, t].
+
Sean además: Vloc , el espacio de los procesos localmente crecientes; Vloc , el espacio de los
procesos localmente de variación finita; A+ loc , el espacio de los procesos localmente crecientes
e integrables; y Aloc el espacio de los procesos localmente de variación integrable.

1.2. Martingalas
Definición 1.2.1
En un espacio de probabilidad filtrado (Ω, F, F, P ), donde la filtración F = (Ft )t≥0 es continua
por derecha, al proceso real y adaptado X se le llama martingala si cumple las siguientes
propiedades:
(i) E |Xt | < ∞.
(ii) Para todo s < t, E (Xt |Fs ) = Xs c.s
La clase M de las martingalas uniformemente integrables está formada por las martin-
galas X tales que: Z
lı́m sup Xt dP = 0,
n→+∞ t≥0 |Xt |≥n
2
y la clase H de las martingalas de cuadrado integrable está constituida por las martingalas
X tales que:
sup E Xt2 < ∞

t≥0

Como ya habı́amos mencionado el proceso X parado en T , podemos definir una martin-


gala local de la siguiente forma:
1.3 Semimartingalas 7

Definición 1.2.2
El proceso càdlàg y adaptado X es una martingala local si existe una sucesión creciente de
tiempos de parada, Tn , donde lı́mn→∞ Tn = ∞ c.s., tal que XTn ∧t 1{t>Tn } es una martingala
uniformemente integrable para cada n.
2
Denotaremos además por Mloc y Hloc a los espacios de las martingalas locales y de las
martingalas localmente de cuadrado integrable, respectivamente. Obviamente, M ⊂ Mloc y
2
H ⊂ Hloc .

1.3. Semimartingalas
La σ-algebra FT de un tiempo de parada T (con respecto a la filtración Ft , t ≥ 0) se
define como la σ-algebra de los eventos Λ de F tales que Λ ∩ {T ≤ t} ∈ Ft para todo t ≥ 0.

Definición 1.3.1
Un proceso H se dice que es predecible simple si H tiene la siguiente representación:
n
X
Ht = H0 1{0} (t) + Hi 1]Ti ,Ti+1 ] (t)
i=1

donde 0 = T1 ≤ · · · ≤ Tn+1 < ∞ es una sucesión finita de tiempos de parada, Hi es FTi -


medible, con |Hi | < ∞, c.s., 0 ≤ i ≤ n. A la familia de procesos predecibles simples se le
denotará por S.

Denotemos a Su al espacio S con la topologı́a definida por la convergencia uniforme y


a L0 como el espacio de variables aleatorias finitas dotado de la topologı́a definida por la
convergencia en probabilidad.
Dado un proceso estocástico X se puede definir un operador lineal IX : S 7→ L0 , que
satisfaga que:
n
X
IX (H) = H0 X0 + Hi (XTi+1 − XTi ),
i=1

donde H ∈ S tiene la representación dada en la definición anterior.


Existen varias definiciones equivalentes de semimartingala.

Definición 1.3.2
Un proceso X es una semimartingala total, si X es càdlàg, adaptado y el operador
IX : Su 7→ L0 es continuo. Diremos que un proceso X es una semimartingala si, para
cada t ∈ [0, ∞[, X t es una semimartingala total para todo t ≥ 0.

Definición 1.3.3
Un proceso real adaptado càdlàg X es una semimartingala en sentido clásico si es de
la forma:
Xt = X0 + Mt + At
1.4 Integración estocástica 8

donde X0 es una variable aleatoria finita y F0 -medible, A, con A0 = 0, es un proceso de


variación finita y M , es una martingala local con M0 = 0.

De hecho se demuestra que un proceso estocástico es una semimartingala sı́ y solo sı́ es
una semimartingala en sentido clásico (teorema de Bichteler-Dellacherie), lo que hace que
las dos definiciones anteriores sean equivalentes.
A partir de las propiedades elementales de las semimartingalas, es posible comprobar
que muchos procesos, de los más comunes, son también semimartingalas. Entre ellos se
encuentran, los procesos de Poisson, el movimiento Browniano (o proceso de Wiener) y más
generalmente los procesos de Lévy. Nótese que toda martingala local (y por tanto, toda
martingala) es una semimartingala, ası́ como todo proceso de variación finita.

1.4. Integración estocástica


Concepto de Integral Estocástica
Definición 1.4.1
Diremos que un proceso (H n )n≥1 converge a un proceso H uniformemente sobre com-
pactos en probabilidad (ucp) si para cada t > 0 se cumple que

sup |Hsn − H| → 0 en probabilidad.


0≤s≤t

Hasta el momento habı́amos hablado de Su como el espacio S con la topologı́a definida


por la convergencia uniforme. Nos hará falta en lo que sigue también considerar el espacio
Sucp obtenido al dotar a S de la topologı́a inducida por la convergencia ucp. Análogamente,
Lucp y Ducp denotarán los espacios L y D provistos de la topologı́a ucp. Además el espacio
S es denso en L bajo la topologı́a ucp. El espacio topológico Ducp es metrizable y resulta un
espacio métrico completo.
Al definir una semimartingala X, esta era inducida un operador lineal, IX de Su en L0 ,
que transforma procesos en variables aleatorias. Con la idea de extender el concepto de
integral estocástica en S, definiremos un operador inducido por IX que transforma procesos
en procesos (operador de integración estocástica). Por ese motivo ofrecemos la siguiente
definición.

Definición 1.4.2
Para H ∈ S y X un proceso càdlàg, se define el operador lineal JX : S 7→ D, tal que:
n
X T
JX (H)t = H0 X0 + Hi (Xt i+1 − XtTi ),
i=1

para todo proceso H en S. Al operador JX (H) se le llama integral estocástica de H con


respecto a X.
1.4 Integración estocástica 9

Se puede demostrar que si el proceso X es una semimartingala entonces el operador lineal


JX : Sucp 7→ Ducp es continuo. Y como además Sucp es denso en Lucp y Ducp es un espacio
métrico completo, entonces podemos extender el operador JX de S a L.

Definición 1.4.3
Sea X una semimartingala, el operador lineal continuo JX : Lucp 7→ Ducp , obtenido como
una extensión de JX : S 7→ D se llama integral estocástica.

Para el proceso JX (H) también se utiliza la siguiente notación:


Zt
JX (H)t = H · Xt = Hs dXs .
0

El concepto de integral estocástica con respecto a una semimartingala X también se


puede extender a integrandos H que no estén en L, sino para procesos más generales como
la clase de procesos predecibles.
El teorema siguiente resume algunas propiedades fundamentales de la integral estocástica.

Teorema 1.4.1
Si X es una semimartingala, entonces para H ∈ L la integral estocástica H · X cumple las
siguientes propiedades:
(i) H · X es càdlàg y adaptado.

(ii) H 7−→ H · X es lineal (salvo indistinguibilidad).

(iii) Si (H n )n∈N es una sucesión de procesos predecibles que converge puntualmente al pro-
P
ceso H, y |H n | ≤ K ∈ I, entonces H · X ∈ I y (H n · X)t → H · Xt cuando n → ∞,
para todo t ∈ R+ .

(iv) X 7−→ H · X es lineal en el espacio de las semimartingalas.

(v) H · X es una semimartingala, y más aún, si X ∈ Mloc , entonces H · X ∈ Mloc , y si


X ∈ V, entonces H · X ∈ V y coincide con la integral de Stieltjes.

(vi) H · X0 = 0 y H · X = H · (X − X0 ).

(vii) ∆ (H · X) = H∆X, por lo que si X es continuo, H · X también lo es.

(viii) Si K ∈ I, entonces K · (H · X) = (KH)


 · X, en particular, para todo tiempo de parada
T se cumple que (H · X)T = H1[0,T ] · X, ya que X T = X0 + 1[0,T ] · X.

Un resultado clásico de la teorı́a de integración y medida de Lebesgue, es que las funciones


medibles y acotadas en un intervalo determinado son integrables según Riemann, sı́ y solo
sı́ el conjunto de discontinuidades de la función tiene medida de Lebesgue cero. En el caso
de la integral estocástica, la expresión de la integral como un lı́mite de sumas no se cumple
1.4 Integración estocástica 10

a menos que el integrando cumpla ciertas condiciones adicionales de suavidad. El espacio L


está formado por procesos que a lo sumo tienen un conjunto numerable de saltos, y esto es
suficiente para formular un resultado similar al mencionado en la teorı́a de integración de
Lebesgue. Definamos para ello primero el concepto de partición estocástica.

Definición 1.4.4
Denotemos a Π como una sucesión finita de tiempos de parada:

0 = T0 ≤ T1 ≤ · · · ≤ Tk < ∞

A la sucesión Π se le llama partición aleatoria. Una sucesión Πn , de particiones aleatorias,

Πn : 0 = T0n ≤ T1n ≤ · · · ≤ Tknn < ∞

se dice que tiende a la identidad si satisface que:

(i) lı́mn supk Tknn = ∞, c.s.


n
(ii) kΠn k = supk Tk+1 − Tkn converge a cero c.s.

Si Y es un proceso y Π es una partición aleatoria, definamos el proceso Y Π de la siguiente


forma: X
Y Π ≡ Y0 1{0} + YTk 1]Tk ,Tk+1 ] .
k

Se puede verificar que


Z X
Π
Y ·X = YsΠ dXs = Y0 X0 + YTi (X Ti+1 − X Ti ),
i

para cualquier semimartingala X y cualquier proceso Y en L. Entonces podemos plantear


el siguiente resultado sobre la aproximación de la integral estocástica mediante sumas finitas.

Teorema 1.4.2
Sea X una semimartingala X y Y un procesos en L, sea además (Πn ) una sucesión de
particiones aleatorias que tiende a la identidad, entonces el proceso
Z t X Tn Tn
YsΠn dXs = YTin (Xt i+1 − Xt i )
0+ i

tiende a la integral estocástica (Y− ) · X en sentido ucp.


1.4 Integración estocástica 11

Covariación Cuadrática
Si A ∈ Aloc entonces existe un proceso predecible en Aloc , único salvo indistinguibilidad,
llamado compensador de A, y denotado por Ap , tal que A − Ap ∈ Mloc .

Definición 1.4.5
2
Si M, N ∈ Hloc existe un proceso predecible en V, único salvo indistinguibilidad, llamado
covariación cuadrática predecible de M y N , y denotado por hM, N i, tal que

M N − hM, N i ∈ Mloc .

Si M = N , se denota simplemente hM i = hM, M i ∈ V + .

Este tiene además las siguientes propiedades:

(i) h·, ·i es bilineal.

(ii) Si T es un tiempo de parada, entonces M T , N T = hM, N iT .



Definición 1.4.6
Si X y Y son semimartingalas podemos definir el proceso covariación cuadrática de X
y Y , [X, Y ], como
[X, Y ] = XY − X0 Y0 − X · Y − Y · X
y el proceso [X] (variación cuadrática de X), se define como

[X] = [X, X] = X 2 − X02 − 2X− · X

Si X y Y son semimartingalas se cumplen las siguientes propiedades:

(i) [X, Y ] ∈ V y [X] ∈ V + .

(ii) Si X, Y ∈ Mloc entonces XY − X0 Y0 − [X, Y ] ∈ Mloc .

(iii) [·, ·] es bilineal.

(iv) Si T es un tiempo de parada, entonces M T , N T = [M, N ]T .


 

(v) Si H ∈ I entonces [H · X, Y ] = H · [X, Y ].

Los procesos anteriormente definidos están relacionados por el siguiente teorema:


2
Proposición 1.4.1 Si X, Y ∈ Hloc entonces [X, Y ] ∈ Aloc , por lo que existe su compensador
[X, Y ]p , y en este caso [X, Y ]p = hX, Y i.
1.5 Procesos de Control 12

Cálculo Estocástico
Los conceptos y resultados que hasta el momento hemos planteado han sido formulados
para procesos con valores en R, pero pueden extenderse de manera natural a procesos
Rd -valuados. En particular, una semimartingala d-dimensional se define como un proceso
Rd -valuado X = (X i )i=1,··· ,d tal que sus componentes X i son semimartingalas ( R-valuadas).
Análogamente el espacio Dd se define como la clase de procesos Rd -valuados tales que sus
componentes están en D1 = D. De forma similar se generaliza cada una de las clases de
procesos definidas anteriormente: Ld , Mdloc , etc.
El teorema fundamental del cálculo estocástico asociado con la integración con respecto
a semimartingalas es el siguiente teorema llamado de cambio de variable para las integrales
estocásticas, también conocido como la fórmula de Ito:
Teorema 1.4.3 
Sea X una semimartingala d-dimensional y f ∈ C 2 Rd . Entonces f (X) es una semimar-
tingala d-dimensional y:
d Zt d Zt
X ∂f 1 X ∂ 2f
f (Xt ) − f (X0 ) = (Xs− )dXsi + (Xs− )d[X i , X j ]cs
i=1 0+
∂x i 2 i,j=1 0+
∂x i ∂x j
( d
)
X X ∂f
+ f (Xs ) − f (Xs− ) − (Xs− )∆Xis
0<s≤t i=1
∂x i

1.5. Procesos de Control


Los procesos de control son una de las herramientas claves que utilizaremos como técnica
de demostración de los resultados del presente trabajo. Amplia información sobre ellos se
puede ver en Métivier [22], Secciones 23-26. Nos limitaremos aquı́ a formular un resultado
básico a los que haremos referencia más adelante.
Lema 1.5.1
A cualquier semimartingala Z sobre Rm es posible asociarle algún proceso A (no único)
con valores reales, adaptado, continuo por derecha, no negativo y no decreciente tal que,
para cualquier tiempo de parada τ y cualquier proceso H con valores en Rd×m , Z-integrable,
entonces la siguiente desigualdad se cumple:
Z 2 !  Z 
2

E sup
0≤t<τ
≤ E Aτ −
Hs dZs kHs k dAs . (1.1)
]0,t] ]0,τ ]

Un proceso A que cumpla las propiedades enunciadas en este lema se dice un proceso de
control asociado al proceso Z.
Teorema 1.5.1
Todo proceso Z adaptado y continuo por derecha es una semimartingala sı́ y solo sı́ admite
un proceso de control
1.6 Ecuaciones diferenciales estocásticas 13

1.6. Ecuaciones diferenciales estocásticas


La teorı́a de EDE tuvo su principal origen en la representación de procesos de difusión,
para lo cual basta considerar EDE definidas mediante integrales de Ito con respecto a procesos
de Wiener. Esta teorı́a se puede extender a EDE definidas mediante integrales respecto a
semimartingalas.
Sea Z una semimartingala m-dimensional con componentes Z 1 , · · · , Z m , y sea X0 un
vector aleatorio F0 -medible.
Sean además dadas funciones f : R+ × Rd 7→ Rd y G : R+ × Rd 7→ Rd×m .

Definición 1.6.1
Un proceso X definido en Rd satisface (en sentido fuerte) una ecuación diferencial estocástica
d-dimensional
dXt = f (t, Xt )dt + G(t, Xt )dZt .
si (c.s.) satisface la ecuación integral
Z t Z t
Xt = X0 + f (s, Xs− )ds + G(s, Xs− )dZs ,
0 0

Al termino f (t, Xt ) se le llama drift y a G(t, Xt ) difusión. La función f se dice autónoma


si f (t, Xt ) = f (Xt ) para todo t ≥ 0. Cuando G(t, Xt ) = G(t) diremos que la ecuación tiene
ruido aditivo y en otro caso multiplicativo, es decir cuando depende tanto de t como de X.

En lo adelante necesitaremos trabajar con EDE cuyos coeficientes no son funciones sino
con, más generalidad, funcionales, como definiremos a continuación. Si se toma d ∈ N y
M = (M ij ) ∈ Ld×m , usaremos la notación
Z m Z
!
X
MdZt = Mtij dZtj .
j=1 1≤i≤d
d d d×m
Sea Jt un proceso en D y un operador F: D 7→ D . Entonces la EDE de la definición
anterior es un caso particular de la EDE con coeficientes funcionales del tipo
Z t
X t = Jt + F (X)s− dZs .
0

Existen varias condiciones suficientes para la existencia y unicidad de solución de una


EDE. Las más usadas suponen hipótesis de tipo Lipschitz acerca de los coeficientes.

Definición 1.6.2
Diremos que una función f : R+ × Rn 7→ Rd es Lipschitz si existe una constante finita k
tal que:
i. kf (t, x) − f (t, y)k ≤ k kx − yk para cada t ∈ R+ .

ii. Y además se cumple que t 7→ f (t, x) es càdlàg para cada x ∈ Rn .


1.6 Ecuaciones diferenciales estocásticas 14

Definición 1.6.3
Un funcional F de Dd en D es un funcional Lipschitz si para cualquier X y Y en Dd se
satisfacen las siguientes condiciones:
i. Para cualquier tiempo de parada T , XT − = YT − implica que F (X)T − = F (Y)T − .
ii. Y existe un proceso creciente y finito K = (Kt )t≥0 tal que
|F (X)t − F (Y)t | ≤ Kt sup kXs − Ys k para cada t ≥ 0.
0≤s≤t

Diremos que un operador F = (F ij ) : Dd 7→ Dd×m es un funcional Lipschitz si sus


componentes F ij son funcionales Lipschitz.
Teorema 1.6.1
Dada una semimartingala m-dimensional Z, Z0 = 0 y un proceso J ∈ Dd . Si el operador
F = (F ij ) : Dd 7→ Dd×m es Lipschitz, entonces el sistema de ecuaciones
Z t
Xt = J t + F(X)s− dZs
0

tiene una solución única en Dd . Más aún, si J es una semimartingala, entonces X también
lo es.
Es fácil comprobar que una función autónoma con derivada acotada es Lipschitz por el
teorema del valor medio. Sin embargo si su derivada es continua pero no acotada, lo que
puede afirmarse es que es localmente Lipschitz, en el sentido siguiente.
Definición 1.6.4
Una función f : Rn 7→ R se dice que es Slocalmente Lipschitz si existe una secuencia
creciente de conjuntos abiertos Λj tal que j Λj = Rn y f es Lipschitz con constante Kj en
cada Λj .
Consideremos ahora el siguiente sistema de ecuaciones lineales:
m Z t
X
Xt = H t + Ajs− Xs− dZsj , (1.2)
j=1 0

donde H = (H i )i≤d es un vector de d semimartingalas, X toma valores en Rd , y Aj ∈Dd×d


y Z j es una semimartingala continua para cada j = 1, · · · , m, con Z0 = 0.
Si definimos los operadores Fj en Dd de la siguiente forma:
Fj = Ajt Xt ,
entonces los Fj son operadores de Lipschitz. Consideremos el siguiente sistema:
m Z
X t
Ut = Id + Ajs− Us− dZsj , (1.3)
j=1 0

donde Id es la matriz identidad de tamaño d × d y U ∈ Dd×d . Entonces:


1.7 Procesos de Lévy alfa-estables 15

Teorema 1.6.2
Bajo los supuestos anteriores, sea U la solución de (1.3) y Xxt la solución de (1.2) donde
Ht = x, x ∈ Rd . Entonces Xxt = Ut x y para casi todo ω, para todo t y x, la matriz Ut (ω) es
inversible.

A partir del teorema anterior podemos plantearnos el siguiente resultado:

Teorema 1.6.3
Bajo los supuestos anteriores, si U es la solución de (1.3) entonces la solución XH de (1.2)
está dada por
Z t Z t m
X
XH U−1 U−1 Ajs− d H, Z j s
 
t = Ut H0 + Ut s dHs − Ut s
0+ 0+ j=1

1.7. Procesos de Lévy alfa-estables


Los procesos de Lévy han adquirido mucho auge por sus interesantes propiedades y
aplicaciones (sobre todo en finanzas y fı́sica), además de que son una fuente importante de
ejemplos para la teorı́a de integración estocástica con respecto a semimartingalas. Como
caso particular de estos procesos están el proceso de Poisson y el movimiento Browniano.
En el presente trabajo utilizamos los procesos de Lévy alfa-estables para el estudio de
simulación, motivados por tales razones y también porque son más fáciles de instrumentar
computacionalmente.
A continuación incluimos una breve información acerca de las variables aleatorias estables
y los procesos de Lévy alfa-estables.

1.7.1. Distribuciones estables


La familia de las distribuciones estables son una clase muy general de variables aleatorias,
las cuales incluyen no solo variables Gaussianas sino también variables cuyas distribuciones
tienen colas más pesadas. Amplia información sobre distribuciones estables se encuentra por
ejemplo en Samodorodnitsky y Taqqu [27] y Janicki y Weron [11].

Definiciones de una variable aleatoria estable


Existen varias definiciones equivalentes de las variables aleatorias estables, en especial
enunciaremos dos de ellas.
La primera de ellas caracteriza a las variables estables como lı́mites en distribución de
sumas de variables aleatorias independientes e idénticamente distribuidas (i.i.d.)
1.7 Procesos de Lévy alfa-estables 16

Definición 1.7.1
X es una variable aleatoria estable si tiene un dominio de atracción, i.e., existe una sucesión
de variables aleatorias i.i.d. {Yi }i∈N , una sucesión de números reales positivos {ai }i∈N y una
sucesión de números reales {bi }i∈N tales que:
n
1 X D
Yi − bn −→ X
an i=1

D
donde −→ denota convergencia en distribución.

La segunda definición caracteriza a las funciones caracterı́sticas de variables estables


mediante una representación que involucra cuatro parámetros α, σ, β y µ.

Definición 1.7.2
La función caracterı́stica de una variable aleatoria estable X admite la siguiente forma:

 exp(−σ α |t|α (1 − iβ sgn(t) tan πα2
) + iµt) para α 6= 1
ΦX (t) =
exp(−σ|t|(1 + iβ π2 sgn(t) log |t|) + iµt) para α = 1

donde los parámetros satisfacen las siguientes restricciones:


α ∈ (0, 2], σ ∈ R+
0 , β ∈ [−1, 1], µ ∈ R.

Se utiliza la notación: X ∼ Sα (σ, β, µ) para referirse a una variable aleatoria X que


distribuye estable con parámetros α, σ, β y µ. Una distribución estable Sα (σ, β, µ) se dice:
estable estándar si σ = 1 y µ = 0; estable simétrica si β = µ = 0; y totalmente asimétrica
cuando |β| = 1.
Algunos ejemplos notables: la Gaussiana S2 (σ, 0, µ) = N (µ, 2σ 2 ), la de Cauchy S1 (σ, 0, µ)
y la de Lévy S1/2 (σ, 1, µ).

Propiedades básicas
Algunas de las propiedades básicas de las variables aleatorias estables son las siguientes

1. Sean X1 y X2 dos variables aleatorias estables independientes, con Xi ∼ Sα (σi , βi , µi )


para i = 1, 2. Entonces X1 + X2 ∼ Sα (σ, β, µ) con
1
σ = (σ1α + σ2α ) α ,

β1 σ1α + β2 σ2α
β = ,
σ1α + σ2α

µ = µ1 + µ2 .
1.7 Procesos de Lévy alfa-estables 17

2. Si X1 , X2 ,· · · ,Xn variables aleatorias i.i.d. con distribución Sα (σ, β, µ) entonces


D
si α 6= 1 ⇒ X1 + X2 + · · · + Xn = n1/α X1 + µ(n − n1/α )

D 2
si α = 1 ⇒ X1 + X2 + · · · + Xn = nX1 + σβn log n
π

D
Aquı́ = denota igualdad en distribución.
3. Si X ∼ Sα (σ, β, µ) y a ∈ R entonces X + a ∼ Sα (σ, β, µ + a).
4. Si X ∼ Sα (σ, β, µ) y a ∈ R entonces:

 Sα (|a|σ, sgn(a)β, aµ) para α 6= 1
aX ∼
S1 (|a|σ, sgn(a)β, aµ − π2 a(log |a|)σβ) para α = 1

5. X ∼ Sα (σ, β, 0) y α ∈ (0, 2) entonces −X ∼ Sα (σ, −β, 0).


6. Si α ∈ (0, 2) y X ∼ Sα (σ, β, µ) entonces:

(1 + β) α
lı́m xα P (X > x) = Cα σ
x→∞ 2
(1 − β) α
lı́m (−x)α P (X < x) = Cα σ
x→−∞ 2
7. Si α ∈ (0, 2) y X ∼ Sα (σ, β, 0) entonces E|X|p existe para 0 < p < α y E|X|p = ∞
para p ≥ α.

Notemos que las propiedades (3)- (6) permiten la interpretación de α como un parámetro
del grosor de la cola, β como un coeficiente de asimetrı́a, σ como un parámetro de escala y
µ como un parámetro de posición.
La representación de la función caracterı́stica vista en la Definición 1.7.2, denominada
S-parametrización, no es una función continua de los parámetros pues tiene discontinuidades
en los puntos donde α = 1 y β = 0. Aunque esta es la parametrización más usada, para ciertos
problemas resultan más convenientes otras alternativas. En Zolotarev [29] se comentan varias
de estas parametrizaciones. Una de ellas es la denominada S 1 . Una variable tiene distribución
Sα1 (σ2 , β2 , µ) si su función caracterı́stica es de la forma

 exp(−σ2α |t|α exp(−iβ2 sgn(t) π2 K(α)) + iµt) para α 6= 1
ΦX (t) =
exp(−σ2 |t|( π2 + iβ2 sgn(t) ln |t|) + iµt) para α = 1

donde 
α para α < 1
K(α) = α − 1 + sgn(1 − α) =
α − 2 para α > 1
1.7 Procesos de Lévy alfa-estables 18

En Sα1 (σ2 , β2 , µ) los parámetros α y µ coinciden con los de la parametrización estándar


Sα (σ, β, µ) mientras que
πα 1
σ2 = σ(1 + β 2 tan2 ) 2α ,
2
πK(α) πα
tan(β2 ) = β tan
2 2
para α 6= 1, y
2
σ2 = σ,
π
β2 = β
para α = 1.
La parametrización S 1 es la base del algoritmo propuesto por Weron (ver por ejemplo
Weron [28]) para generar variables estables, el cual describiremos a continuación.

Simulación de variables aleatorias estables


La dificultad principal para generar este tipo de variables radica en la no existencia de
una expresión cerrada para las funciones de densidad estables, con la excepción de unas
pocas como la distribución normal, la de Cauchy y la de Lévy, que son casos particulares de
esta familia de distribuciones. Por este motivo los métodos clásicos de generación variables
aleatorias, como el método de la transformación inversa, no se pueden aplicar.
A lo largo de los años se han propuesto muchos métodos para simular variables aleatorias
estables, desde casos particulares hasta que Weron en 1996 desarrolló una técnica exacta
para simular variables aleatorias con una distribución estable arbitraria. Para esos fines se
apoyó en el siguiente resultado.

Teorema 1.7.1 (Weron(1996))


Sea U una variable aleatoria uniforme en (− π2 , π2 ), E una variable aleatoria exponencial de
media 1 independiente de U , y
π K(α)
U 0 = − β2 .
2 α
Entonces la variable aleatoria:
   1−α
sin α(U −U0 ) cos(U −α(U −U0 )) α
para α 6= 1


 (cos U ) α1
 E
X=
  
 ( π + β U ) tan U − β ln E cos U


2 2 2 π
+β2 U
para α = 1
2

es Sα1 (1, β2 , 0).

A partir del teorema anterior se establece el siguiente algoritmo para generar variables
aleatorias Y con distribución Sα (σ, β, µ):

1. Generar U1 ∼ U (− π2 , π2 ) y U2 ∼ U (0, 1).


1.7 Procesos de Lévy alfa-estables 19

2. E = − ln U2 (por el método de la transformación inversa E ∼ exp(1)).

3. Si α 6= 1 calcular:
 
πα
arctan β tan 2
a) B(α, β) = α
πα 2α1
b) S(α, β) = (1 + β 2 tan2 2
)

 ! 1−α
α
sin α(U1 + B(α, β)) cos U1 − α(U1 + B(α, β)
c) X = S(α, β) 1
cos U1 α E

4. Si α = 1 calcular: π
2 π E cos U1
X= ( + βU1 ) tan U1 − β ln 2π
π 2 2
+ βU1
5. 
 σX + µ para α 6= 1
Y =
σX + π2 βσ ln σ + µ para α = 1

1.7.2. Procesos de Lévy


Definición 1.7.3
Diremos que un proceso adaptado L = (Lt )t≥0 , con L0 = 0, c.s., es un proceso de Lévy si:
i) {Lt ; t ≥ 0} tiene incrementos independientes.

ii) {Lt ; t ≥ 0} tiene incrementos estacionarios.

iii) {Lt ; t ≥ 0} es continuo en probabilidad.

Un proceso de Lévy es càdlàg y por tanto el único tipo de discontinuidades que posee
son de tipo salto. Uno de los resultados más importantes de este tipo de procesos está dado
en el siguiente teorema:

Teorema 1.7.2
Sea Lt un proceso de Lévy, entonces Lt = Mt + At , donde M y A son procesos de Lévy, M
es una martingala de saltos acotados, Mt ∈ Lp , ∀ p ≥ 1 y A es un proceso de variación finita
sobre compactos.

A partir de este teorema es fácil verificar que el proceso de Lévy es una semimartingala.

Definición 1.7.4
Diremos que el proceso estocástico, adaptado Lt = {Lα (t, ω); t ≥ 0, ω ∈ Ω} es un proceso
de Lévy alfa-estable si es un proceso de Lévy y además Lt − Ls ∼ Sα ((t − s)1/α , β, 0). Si
además β = 0, se dice un proceso de Lévy simétrico.
Capı́tulo 2

Método de Linealización Local

2.1. Motivación del método de LL


Sea (Ft )t≥0 una filtración en un espacio de probabilidad completo (Ω, F, P ) bajo las
hipótesis usuales. Supongamos que existe una única solución (Xt )t≥0 de la ecuación diferencial
estocástica con ruido multiplicativo:
Z t Z t
Xt = X0 + f (s, Xs− )ds + G(s, Xs− )dZs , (2.1)
0 0

donde (Zt ) es una semimartingala m-dimensional respecto a (Ft ), Z0 = 0, X0 es un


vector aleatorio F0 -medible con valores en Rd , y f : R+ × Rd 7→ Rd , G : R+ × Rd 7→ Rd×m
son funciones reales con primera derivada continua.
Sea 0 = T0N ≤ T1N ≤ · · · ≤ TkNN , N = 1, 2, · · · , una sucesión de particiones aleatorias que
tiende a la identidad. Por simplicidad, TnN se denotará eventualmente como Tn .
El método de Linealización Local para el caso de EDE de Ito autónomas y con ruido
aditivo se basa en lo siguiente. Consecutivamente en cada intervalo ]Tn , Tn+1 ] (e.g. ver Biscay
et al. [1]):

1. Linealizar el drift f (s, x) a partir de las expresiones truncadas hasta primer orden de
su desarrollo de Taylor respecto a x en torno a la condición inicial XTn .

2. Expresar analı́ticamente la solución de la EDE lineal resultante mediante integrales de


exponenciales matriciales.

3. Aproximando las integrales que se obtienen en el paso anterior, calcular el valor de la


solución en el próximo instante, XTn+1 .

Para nuestro propósito de extender este enfoque al caso de EDE con respecto a semimar-
tingalas, conviene describir estos pasos con ayuda de la fórmula de variación de constantes
para EDE con respecto a semimartingalas.
2.2 Diferentes variantes del método de LL 21

Para t ∈ ]Tn , Tn+1 ] la ecuación (2.1) se puede también escribir


Z
Xt = Hn,t + Jn Xs− ds, (2.2)
]Tn ,t]

donde

Jn = J (Tn , XTn ) = f (Tn , XTn ) ,
Z ∂x Z
Hn,t = XTn + (f (s, Xs− ) − Jn Xs− )ds + G(s, Xs− )dZs .
]Tn ,t] ]Tn ,t]

Por la fórmula de la variación de la constante (ver, e. g., Teorema 1.6.3 y para más detalle
el Capı́tulo V en Protter [25]), la solución de (2.2) se puede expresar como
Z Z
(t−Tn )Jn (t−s)Jn
Xt = e XTn + e (f (s, Xs− ) − Jn Xs− )ds + e(t−s)Jn G(s, Xs− )dZs . (2.3)
]Tn ,t] ]Tn ,t]

Los pasos (1)-(2) descritos arriba equivalen a linealizar en esta última expresión f (s, Xs )
con respecto a x en torno a XTn , y calcular aproximadamente las integrales resultantes. Con
esto, en el caso de EDE autónoma y con ruido aditivo resulta que el miembro derecho de
la expresión (2.3) no depende de Xt , t > Tn , y por tanto pueden aproximarse fácilmente
las integrales que en ella aparecen (paso (3) arriba) y obtener ası́ una aproximación de la
solución Xt para ]Tn , Tn+1 ].
Generalizando lo anterior, en caso de EDE generales (2.1) con ruidos semimartingalas
consideraremos varias formas de aproximar el miembro derecho de (2.3) que involucran la
linealización del “drift” f (s, Xs ) con respecto a x, lo cual conduce a diferentes variantes del
método LL que introduciremos en la próxima Sección.

2.2. Diferentes variantes del método de LL


Las diferentes variantes del método LL que introduciremos serán llamadas LLa, LLb, LLc
y LLd. Estas corresponden a diferentes aproximaciones de los dos términos integrales que
aparecen en (2.3). Cada una está recursivamente definida en los consecutivos intervalos de
tiempo de la partición.
Para esto fijamos n ≤ kN − 1, y supondremos que la aproximación Y está definida en
]Ti , Ti+1 ] para i = 0, · · · , n, comenzando en YT0 = Y0 = X0 . Entonces, Y está definida sobre
]Tn , Tn+1 ] en cada variante como sigue:

Variante LLa.
La definimos por
Z Z
(t−Tn )Jn (t−s)Jn
Yt = e YT n + e {fn − Jn YTn + dn (s − Tn )} ds + e(t−s)Jn G(s, YTn )dZs ,
]Tn ,t] ]Tn ,t]
(2.4)
2.2 Diferentes variantes del método de LL 22

para t ∈ ]Tn , Tn+1 ], donde

∂ ∂
fn = f (Tn , YTn ) , Jn = f (Tn , YTn ) , dn = f (Tn , YTn ) .
∂x ∂t
Nótese que (2.4) se obtiene de (2.3) haciendo el desarrollo de Taylor de f (s, Y) con
respecto a s y Y alrededor del punto (Tn , YTn ) hasta primer orden y el desarrollo de Taylor
de G(s, Y) con respecto a Y alrededor del punto YTn hasta orden cero.
Por otra parte la identidad matricial
Z
(t−Tn )Jn
e YTn − e(t−s)Jn Jn YTn ds = YTn ,
]Tn ,t]

nos permite escribir (2.4) también de la siguiente forma equivalente:


Z Z
(t−s)Jn
Yt = YTn + e {fn + dn (s − Tn )} ds + e(t−s)Jn G(s, YTn )dZs . (2.5)
]Tn ,t] ]Tn ,t]

Nótese que esta aproximación Yt es la solución de la ecuación lineal


Z Z
Y t = YT n + {fn + Jn (Ys− − YTn ) + dn (s − Tn )} ds + G(s, YTn )dZs . (2.6)
]Tn ,t] ]Tn ,t]

para t ∈ ]Tn , Tn+1 ].

Variante LLb
Inclusive cuando Z es un proceso de Wiener, el cálculo de la segunda integral en (2.5) pue-
de ser complicado para algunas funciones G. Una aproximación más factible, especialmente
en el caso de un ruido de Wiener, está dada por
Z Z
(t−s)Jn
Yt = YTn + e {fn + dn (s − Tn )} ds + e(t−s)Jn Gbn (s)dZs , (2.7)
]Tn ,t] ]Tn ,t]

para t ∈ ]Tn , Tn+1 ]. Esta aproximación se obtiene de (2.5) linealizando la función G con
respecto a la variable s
d
Gbn (s) = G(Tn , YTn ) + G(Tn , YTn ) (s − Tn ) .
dt
Nótese que la aproximación Yt es la solución en ]Tn , Tn+1 ] de la ecuación lineal.
Z Z
Yt = YTn + {fn + Jn (Ys− − YTn ) + dn (s − Tn )} ds + Gbn (s)dZs . (2.8)
]Tn ,t] ]Tn ,t]
2.2 Diferentes variantes del método de LL 23

Variante LLc.
Una aproximación más sencilla a la segunda integral de (2.5) se obtiene si se considera
para todo s ∈ ]Tn , Tn+1 ] que:

e(t−s)Jn G(s−, YTn ) ' e(t−Tn )Jn G(Tn , YTn ).

o sea, se considera constante este integrando. Bajo este supuesto, (2.5) se convierte en la
aproximación siguiente, que solo requiere del cálculo del incremento de Z:
Z
Yt = YTn + e(t−s)Jn {fn + dn (s − Tn )} ds + e(t−Tn )Jn G (Tn , YTn ) (Zt − ZTn ) (2.9)
]Tn ,t]

Para uso posterior, nótese que esta aproximación Yt es la solución en ]Tn , Tn+1 ] de la
ecuación lineal.
Z Z
Yt = YTn + {fn + Jn (Ys− − YTn ) + dn (s − Tn )} ds + Gcn (s−) dZs . (2.10)
]Tn ,t] ]Tn ,t]

donde
Gcn (s) = e(s−Tn )Jn G(Tn , YTn )1[Tn ,Tn+1 [ (s).

Variante LLd.
Esta variante es la más sencilla de todas. Se obtiene haciendo en (2.9) los supuestos
simplificadores adicionales siguientes: a) exp(t − Tn ) se puede aproximar por la matrix
identidad, y b) la derivada con respecto al tiempo dn es cero. Esto conduce a la aproximación:
Z
Yt = YTn + e(t−s)Jn fn ds + G(Tn , YTn ) (Zt − ZTn ) . (2.11)
]Tn ,t]

La mayor ventaja de esta variante es que es más fácil de calcular para cualquier semi-
martingala Z.
Nótese que el segundo término de la expresión en (2.11) coincide con el término de
ruido de la aproximación por el método de Euler, pero el primer término se basa en una
linealización.  
Nótese también que si f ∈ C 1 R+ × Rd , Rd y G ∈ C 1 R+ × Rd , Rd×m entonces todas
las aproximaciones están bien definidas por (2.5), (2.7), (2.9) y (2.11) en cada intervalo
(incluyendo el último, ]TkN , TkN +1 ] = ]TkN , ∞] se puede interpretar como ]TkN , ∞[), por lo
que tales aproximaciones se pueden considerar como semimartingalas sobre R+ .
En el Capı́tulo 4 se discutirán los aspectos computacionales de todas estas variantes de
aproximación por el método LL.
Capı́tulo 3

Convergencia del Método

En este Capı́tulo presentaremos el resultado teórico más importante del presente trabajo.
En una primera parte demostraremos un teorema que asegura la convergencia del método
de Linealización Local LLa(que supone la simulación exacta del ruido) para ecuaciones di-
ferenciales estocásticas con ruido aditivo. En una segunda parte obtendremos un teorema
general de convergencia de todas las variantes LLa, LLb, LLc, LLd para EDE arbitrarias.
Aunque este último resultado incluye el de la primera parte, los distinguimos porque se
ofrecen demostraciones que utilizan distintas técnicas.
En lo que sigue del trabajo, k·k denotará la norma euclideana de vectores en Rd , y además
la norma inducida para matrices en Rd×m .
Para las demostraciones de los teoremas de convergencia del método de Linealización
Local (para ambos casos), definamos los procesos σ y η de la siguiente forma:
kN
X
σt = σtN = máx {Tn : Tn ≤ t, 0 ≤ n ≤ kN } = Tn 1[Tn ,Tn+1 [ (t),
n=0
N −1
kX
ηt = ηtN = Tn+1 1[Tn ,Tn+1 [ (t) + TkN 1[Tk ,∞[ (t).
N
n=0

3.1. Convergencia en caso EDE con ruido aditivo


La ecuación (2.1) se dice de tipo ruido aditivo si el coeficiente G(s, x) no depende de x
(o sea, G(s, x) = G(s)), de modo que la ecuación tiene la forma
Z t Z t
Xt = X0 + f (s, Xs− )ds + G(s)dZs . (3.1)
0 0

Según (2.5) y (2.6), en caso de ruido aditivo la aproximación LLa está por
Z Z
(t−s)Jn
Y t = YT n + e {fn + dn (s − Tn )} ds + e(t−s)Jn G(s)dZs
]Tn ,t] ]Tn ,t]
3.1 Convergencia en caso EDE con ruido aditivo 25

para t ∈ ]Tn , Tn+1 ], y es la solución de la ecuación


Z Z
Y t = YT n + {fn + Jn (Ys− − YTn ) + dn (s − Tn )} ds + G(s)dZs .
]Tn ,t] ]Tn ,t]

Esta última ecuación puede también escribirse de la siguiente forma:


Z Z
N
Yt = X0 + f (t, Y)s− ds + G(s)dZs , t ≥ 0, (3.2)
]0,t] ]0,t]

donde
∂ ∂
f N (t, Y)s = f (σs , Y ◦ σs ) + f (σs , Y ◦ σs ) (Ys − Y ◦ σs ) + f (σs , Y ◦ σs ) (s − σs ).
∂y ∂t
Para demostrar la convergencia ucp de la aproximación LL supondremos que se satisfacen
las siguientes condiciones:
H1 f ∈ C 1,1 (R+ × Rd , Rd ) y G ∈ C 1 (R+ , Rd×m )
H2 X0 es F0 medible.
H3 Existe una constante K < ∞ tal que ∀ t ∈ R+ , x ∈ Rd


f (t, x) < K
∂x

H4 Para todo t0 ∈ R+ , existe una constante K1 = K1 (t0 ) < ∞ tal que ∀ t ∈ [t, t0 ] y para
todo x, y ∈ Rd

f (t, x) − ∂ f (t, y) < K1 kx − yk

∂t ∂t

H5
∂ 2f
(t, x) es continua
∂x2
Para su uso posterior, enunciaremos una variante muy sencilla del Lema de Gronwall que
nos será muy útil para la demostración del resultado que nos interesa en esta Sección.
Lema 3.1.1 (Lema de Gronwall)
Sea α(t) una función de R+ en R+ , si además cumple que
Z s
α(t) ≤ c + k α(u)du para 0 ≤ s ≤ t
0

donde c y k son dos constantes. Entonces, α(t) ≤ cekt .


Para facilitar la demostración de la convergencia utilizaremos el lema siguiente.
Lema 3.1.2
Supongamos que se cumplen las condiciones (H1)-(H5). Sea YN la solución de (3.2).
Entonces existen tiempos de parada πjN (j, N = 1, 2, · · · ,) tal que Yt−
N
≤ j para 0 < t ≤ πjN
N
y lı́mj πj = ∞ en probabilidad, uniformemente en N .
3.1 Convergencia en caso EDE con ruido aditivo 26

Demostración
Por simplicidad escribamos Y en vez de YN . Para todo t ≥ 0 y a partir de la ecuación (3.2)
podemos asegurar que

Z Z
N

kYt k =
X0 + f (t, Y)s− ds + G(s)dZs

]0,t] ]0,t]
Z Z
N
≤ kX0 k + f (t, Y)s− ds +
G(s)dZs
.
]0,t] ]0,t]

De la definición de f N (t, Y)s se obtiene que



f (t, Y)s− ≤ kf (σs− , Y ◦ σs− )k + ∂ f (σs− , Y ◦ σs− ) kYs − Y ◦ σs− k +
N
∂y


+ f (σs− , Y ◦ σs− )

ks − σs− k .
∂t

Utilizando las condiciones (H1) y (H3) podemos decir que:

kf (σs− , Y ◦ σs− )k ≤ kf (σs− , 0)k + kf (σs− , Y ◦ σs− ) − f (σs− , 0)k

≤ c0 + K kY ◦ σs− k ,

con 0 ≤ s ≤ t0 , para un cierto t0 fijo. Utilizando un razonamiento similar, pero a partir de


las condiciones (H1) y (H4) podemos asegurar que:


f (σs− , Y ◦ σs− ) ≤ c1 + K1 kY ◦ σs− k .
∂t

Y por (H3) se tiene además que:




f (σs− , Y ◦ σs− ) ≤ K.
∂y

A partir de las desigualdades anteriores y a partir de un t0 > 0, podemos asegurar que


existen constantes b01 , b02 y b03 , tales que si definimos βt = sup0≤s≤t kYs k, entonces:
Z
βt ≤ kX0 k + (b01 + b02 ks − σs− k + b03 βs ) ds + ζt .
]0,t]

donde Z

ζt = sup G(s)dZs

0≤u≤t ]0,u]
3.1 Convergencia en caso EDE con ruido aditivo 27

Por lo que para ciertas constantes a0 y b0 se cumple que


Z
βt ≤ kX0 k + a0 + b0 βs ds + ζt . (3.3)
]0,t]

Además, a partir del Teorema 1.4.1, podemos decir que Rβt es finito ya
 que Yt es una semi-
martingala y ζt es una variable aleatoria finita por ser ]0,t] G(s)dZs una semimartingala,
que como sabemos es un proceso càdlàg.
Entonces usando el Lema de Gronwall en la ecuación (3.3)
βt ≤ (X0 + a0 + ζt ) eb0 t , ∀0 ≤ t ≤ t0 .
De hecho, ∀t0 ∈ R+ podemos encontrar una cota que no dependa de la partición:
βt0 ≤ (X0 + a0 + ζt0 ) eb0 t0 . (3.4)
Definamos los tiempos de parada
πjN = ı́nf {t ≥ 0 : kYt k > j} ,
para j = 1, 2, · · ·,. Entonces kYt k ≤ j para 0 < t < πjN . Además, para cualquier t0 ∈ R+ ,

P πjN < t0 ≤ P (βt0 > j) .




Donde P (βt0 > j) tiende a cero cuando j tiende a infinito, de modo uniforme con respecto
a la partición N , ya que el miembro derecho de (3.4) es una variable aleatoria finita que no
depende de la partición N , por tanto lı́mj P πjN < t0 = 0 uniformemente en N y t0 ≥ 0 es
arbitrario y lı́mj πjN = ∞ en probabilidad uniformemente sobre N . 2
Ahora estamos en condiciones de enunciar el teorema de convergencia del método de LL
para ecuaciones diferenciales estocásticas cuando se asume simulación exacta del ruido

Teorema 3.1.1
Supongamos que se cumplen las condiciones (H1)-(H5). Entonces la aproximación LL YN ,
definida por (3.2) tiende a la solución exacta de la ecuación (3.1) cuando la partición
aleatoria N tiende a la identidad, en el sentido de convergencia ucp.

Demostración
I. Sea:
Z
f (s, Xs− ) − f N (t, Y)s− ds

X t − Yt =
Z]0,t] Z
f (s, Xs− ) − f N (t, X)s− ds + f N (t, X)s− − f N (t, Y)s− ds.
 
=
]0,t] ]0,t]

Por tanto
Z Z
N
kXt − Yt k ≤ f (s, Xs− ) − f N (t, X)s− ds + f (t, X)s− − f N (t, Y)s− ds.
]0,t] ]0,t]
3.1 Convergencia en caso EDE con ruido aditivo 28

Si se define
ϕN
t = sup kXs − Ys k
0≤s≤t

se llega a
Z Z
N
ϕN
t ≤ f (s, Xs− ) − f N (t, X)s− ds + f (t, X)s− − f N (t, Y)s− ds. (3.5)
]0,t] ]0,t]

Sea ahora t0 > 0 un tiempo arbitrario, y τ0j = πjN ∧ t0 ∧ ξj , donde ξj = ı́nf {t : kXt k > j}.
Como X es una semimartingala está localmente acotada, i.e., kXt k ≤ j, ∀ 0 < t < ξj y
lı́mj ξj = ∞ c.s.
Para todo s ≤ τ0j , utilizando la fórmula de los incrementos finitos, las condiciones (H3),
(H4) y (H5) se puede afirmar que
N
f (t, X)s− − f N (t, Y)s− ≤ 2K kX ◦ σs− − Y ◦ σs− k + K kXs− − Ys− k

+K0 kX ◦ σs− − Y ◦ σs− k kXs− − X ◦ σs− k

+K1 kX ◦ σs− − Y ◦ σs− k ks − σs− k

A partir de esta desigualdad, de (3.5) y de la acotación para kXt k ≤ j, ∀ 0 < t < τ0j ,
podemos asegurar que existe una constante ρ0j tal que se cumple
Z Z
N N

ϕt ≤ ρ0j ϕs ds + f (s, Xs− ) − f N (t, X)s− ds. (3.6)
]0,t] ]0,τ0j ]

Definamos Z
N

R (τ0j ) = f (s, Xs− ) − f N (t, X)s− ds.
]0,τ0j ]

Entonces por el Lema de Gronwall y por la ecuación (3.6) se obtiene que:

ϕN N
t ≤ R (τ0j )e
ρ0j t0

II. Por otra parte ∀ s ∈ R+ se cumple que


f (s, Xs− ) − f N (t, X)s− ≤ kf (s, Xs− ) − f (σs− , X ◦ σs− )k

+K kXs− − X ◦ σs− k + K1 ks − σs− k

Como X es una semimartingala, tiene lı́mite por la izquierda, entonces, para cada partición
aleatoria N , X ◦ σs− tiende a Xs− para cada s ∈ R+ y ω ∈ Ω. Además σs− tiende a s para
cada s ∈ R+ y ω ∈ Ω. Luego a partir de (H1), podemos decir que

f (s, Xs− ) − f N (t, X)s− → 0, cuando N → ∞
3.2 Convergencia en caso de EDE general 29

para cada s ∈ R+ y ω ∈ Ω.
Además como 0 < σs− ≤ s ≤ t0 y kXs− k ≤ j si s ≤ τ0j , entonces a partir de (H1) se
obtiene que existe una constante M0j tal que

f (s, Xs− ) − f N (t, X)s− ≤ M0j , ∀ 0 < s ≤ τ0j y ω ∈ Ω.

Entonces por el Teorema de la Convergencia Dominada de Lebesgue se cumple que: RN (τ0j )


tiende a cero c.s. cuando la partición se hace más fina (N tiende a la identidad). Luego
podemos afirmar que, para cada j,

lı́m ϕN
τ0j = 0 c.s.,
N

cuando N tiende a la identidad.


III. Además, para cualquier constante r > 0,

P ϕN ≤ P ϕN
 
t0 > r t0 > r, τ0j > t0 + P (τ0j < t0 )

 
≤ P ϕN
τ0j > r + P (τ0j < t0 ) , (3.7)

Por el Lema 3.1.2 podemos asegurar que para j grande, uniformemente  con respecto
 a
N
N , P (τ0j < t0 ) tiende a cero. Y por lo demostrado en II, para cada j, P ϕτ0j > r tiende a

cero cuando N crece. Estos dos hechos y (3.7) implican que P ϕN t0 > r tiende a cero cuando
N crece. Como r es arbitraria, esto implica que ϕN t0 tiende a cero en probabilidad. Teniendo
en cuenta que t0 es arbitrario, esto completa la demostración de que YN converge ucp a X
cuando N tiende a infinito.2

3.2. Convergencia en caso de EDE general


Todas las aproximaciones introducidas en el Capı́tulo anterior para la solución de la
ecuación general (2.1) se pueden escribir como la solución de una ecuación integral cuya
expresión del tipo
Z Z
N
Yt = X 0 + f (t, Y)s− ds + GN (Y)s− dZs , t ≥ 0, (3.8)
]0,t] ]0,t]

donde

f N (t, Y)s = f (t ∧ ηs , s, Ys , σs , Y ◦ σs ),
(3.9)
N
G (Y)s = G(s, σs , Y ◦ σs )

para ciertas funciones continuas f : R2+ ×Rd ×R+ ×Rd 7→ Rd y G : R+ ×R+ ×Rd 7→ Rd×m .
Especı́ficamente de acuerdo a (2.6), (2.8), (2.10) y (2.11), las funciones f y G se puede
escribir de la siguiente forma en cada caso
3.2 Convergencia en caso de EDE general 30

a) Para la variante LLa:


a ∂ ∂
f (r, s, x, u, y) = f (u, y) + f (u, y) (x − y) + f (u, y) (s − u),
∂x ∂t
a
G (s, u, y) = G(s, y)
para todo r, s, u ∈ R+ y x, y ∈ Rd .
b) Para la variante LLb:
b a
f = f ,
b d
G (s, u, y) = G (u, y) + G(u, y)(s − u).
dt
c) Para la variante LLc:

c a
f (r, s, x, u, y) = f ,

c
G (s, u, y) = e(s−u)J(u,y) G(u, y).
d) Para la variante LLd :
d
f (r, s, x, u, y) = e(r−s)J(u,y) f (u, y) ,

d
G (s, u, y) = G(u, y),
donde

J(u, y) =
f (u, y).
∂y
La convergencia uniforme en probabilidad sobre compactos (convergencia ucp) de las
aproximaciones LL a la solución exacta se demostrará como consecuencia de la convergencia
ucp de la aproximación dada en forma general por (3.8)-(3.9).
Como antes, aquı́ (Zt )t≥0 es una semimartingala m-dimensional, Z0 = 0 y X0 es un vector
aleatorio F0 -medible con valores en Rd .
Las siguientes condiciones se asumirán para los coeficientes f y G de esta ecuación:

A1. i. f ∈ C 2 R+ × Rd , Rd .

ii. G ∈ C 2 R+ × Rd , Rd×m .
A2. Existe una constante K < ∞ tal que



i. f (t, x) ≤ K,

∂x


∂x G(t, x) ≤ K.
ii.

para todo t ∈ R+ , x ∈Rd .


3.2 Convergencia en caso de EDE general 31

A3. Para cada t0 ∈ R+ existe una constante K0 < ∞ tal que




f (t, x) ≤ K0
∂t

para todo t ∈ [0, t0 [ y x ∈Rd .


La condición (A2) asegura que f y G sean funciones Lipschitz, a partir de los teoremas
estándar de existencia y unicidad, existe una única semimartingala que (en sentido fuerte)
resuelve la ecuación (2.1) (ver, e.g., Teorema 7 en Protter [25]).
Más aún, las siguientes condiciones se le imponen a las funciones f y G:
B1. La ecuación (3.8) tiene una solución (fuerte) en Rd .
 
B2. f ∈ C 1 R2+ × Rd × R+ × Rd , Rd y G ∈ C 1 R+ × R+ × Rd , Rd×m .
B3. Para cada t0 ∈ R+ existen constantes 0 ≤ a0 , K0 < ∞ tales que

i. f (r, s, x, u, y) ≤ a0 + K0 (kxk + kyk)

ii. G(s, u, y) ≤ a0 + K0 kyk
para todo 0 ≤ u ≤ s ≤ r ≤ t0 y x, y ∈ Rd .
B4. Para todo 0 ≤ s ≤ t y x ∈Rd ,
f (s, s, x, s, x) = f (s, x),
G(s, s, x) = G(s, x).

Nuestra técnica de demostración estará basada principalmente en el uso de los procesos


de control para semimartingalas.
Para futuras referencias enunciaremos aquı́ un Lema de “tipo Gronwall” tomado de Méti-
vier [22] (Lema 29.1).
Lema 3.2.1
Sea A un proceso con valores reales, adaptado, continuo por derecha, no negativo y no decre-
ciente definido en el intervalo estocástico [0, τ [, tal que supt<τ At ≤ C para cierta constante
C ∈ R+ . Sea Φ un proceso con valores reales, adaptado, no decreciente tal que para cualquier
tiempo de parada σ ≤ τ ,
Z 
E (Φσ− ) ≤ K + ρE Φs− dAs ,
[0,σ[

donde K y ρ son dos constantes. Entonces,


[2ρC]
X
E (Φτ − ) ≤ 2K (2ρC)i ,
i=0

donde [r] denota la parte entera de r ≥ 0.


3.2 Convergencia en caso de EDE general 32

Los coeficientes de la ecuación aproximada (3.8) no son procesos de Lipschitz. Esto


imposibilita la aplicación directa de los resultados estándar de estabilidad en las ecuacio-
nes diferenciales estocásticas con coeficientes de Lipschitz (como se presenta en Protter [25],
Capı́tulo. V) para demostrar la convergencia ucp de la correspondiente aproximación YN .
N
Sin embargo, el siguiente lema muestra que Y− está localmente acotada, uniformemente con
respecto a N . Esto nos permitirá tratar con este tipo de coeficientes como operadores que
son localmente Lipschitz.

Lema 3.2.2
Supongamos que se cumplen las condiciones(B1)-(B3). Sea YN la solución de (3.8)-(3.9).
Entonces existen tiempos de parada πj (j, N = 1, 2, · · · ,) tal que Yt− ≤ j para 0 < t ≤ πjN
N N

y lı́mj πjN = ∞ en probabilidad, uniformemente en N .

Demostración
Para simplificar las notaciones, escribiremos Y = YN . Para todo t ≥ 0,
Z Z
N N

kYt k = X 0 + f (t, Y)s− ds + G (Y)s− dZs


]0,t] ]0,t]
Z Z
N N

≤ kX0 k + f (t, Y)s− ds +
G (Y)s− dZs
.
]0,t] ]0,t]

Sea M > 0 una constante arbitraria. Definamos


2
ηM = 1{kX0 k≤M } , Y
e t = Yt ηM , ϕt = sup Y s .
e
0≤s≤t

Entonces,
Z Z
N N

Yt ≤ M + f (t, Y)s− ηM ds + G (Y)s− ηM dZs
.
e

]0,t] ]0,t]

A partir de esto y de la desigualdad elemental

(a1 + · · · + aq )2 ≤ 2q−1 a21 + · · · + a2q ,



(3.10)

podemos decir que para cualquier tiempo de parada τ ,


 2 2
  Z
Z 
2 N N
E (ϕτ − ) ≤ 4M + 4E sup f (t, Y)s− ηM ds + 4E sup G (Y)s− ηM dZs .

t<τ 
 
 t<τ
]0,t] ]0,t]
(3.11)
Sea A un proceso de control para ambas semimartingalas Z y (t)t≥0 . Definamos los siguientes
tiempos de parada
τj = ı́nf {t ∈ R+ : At > j, j = 1, · · · , } .
3.2 Convergencia en caso de EDE general 33

Por (3.11), Aτj − ≤ j y por el Lema 1.5.1, para cualquier tiempo de parada τ ≤ τj ,
Z 2 Z
G (Y)s− ηM 2 dAs .
2
N N
E (ϕτ − ) ≤ 4M + 4E sup f (t, Y)s− ηM ds + 4jE
t<τ ]0,t] ]0,τ ]

Fijemos t0 > 0 arbitrario, y sea τj0 = τj ∧ t0 . Sea τ un tiempo de parada tal que τ ≤ τj0 .
Por el supuesto de (B3), para todo s ≤ t ≤ τ ,
N
f (t, Y)s− = f (t ∧ ηs− , s, Ys− , σs− , Y ◦ σs− ) ≤ a0 + K kYs− k + K kY ◦ σs− k ,

N
G (Y)s− = G(s, σs− , Y ◦ σs− ) ≤ a0 + K kY ◦ σs− k .

A partir de las desigualdades anteriores se obtiene que


Z   2 Z  2
2 1/2 1/2
E (ϕτ − ) ≤ 4M + 4E sup a0 + 2Kϕs− ds + 4jE a0 + 2Kϕs− dAs
t<τ ]0,t] ]0,τ ]
Z  2
2 1/2
≤ 4M + 8jE a0 + 2Kϕs− dAs ,
]0,τ ]

donde la segunda desigualdad proviene del Lema 1.5.1. Por lo tanto, existen constantes finitas
C0 y C1 (dependientes de M y j pero no de N ) tales que
Z
E (ϕτ − ) ≤ C0 + C1 ϕs− dAs .
]0,τ ]

Como aquı́ los tiempos de parada τ ≤ τj0 son arbitrarios, el Lema 3.2.1 implica que
[2jC1 ]
X
(2jC1 )i .

E ϕτj0 − ≤ 2C0 (3.12)
i=0

Además, para cualquier constante r > 0,


   
1/2
P sup kYt k > r ≤ P ϕt0 − > r + P (kX0 k > M )
t<t0
 
1/2
≤ P ϕτj0 − > r + P (τj0 < t0 ) + P (kX0 k > M )

E ϕτj0 −
≤ + P (τj0 < t0 ) + P (kX0 k > M ) , (3.13)
r2
donde la última expresión se deduce de la desigualdad de Markov.
La suposición de que X0 es un vector aleatorio finito implica que P (kX0 k > M ) → 0 cuando
M → ∞. Como A tiene lı́mite por izquierda y por derecha c.s., lı́mj τj = ∞ c.s., y también
lı́mj P (τj0 < t0 ) = 0. Además, (3.12) implica que para cada j fijo, pero uniformemente
en N , que E ϕτj0 − /r2 → 0 cuando r → ∞. De esto y de (3.13) podemos decir que,
P supt<t0 kYt k > r → 0 (uniformemente en N ) cuando R → ∞.
3.2 Convergencia en caso de EDE general 34

Finalmente, por el supuesto (B1), los tiempos de parada

πjN = ı́nf {t ≥ 0 : kYt k > j} ,

están bien definidos, y kYt− k ≤ j para 0 < t ≤ π j N . Además, para cualquier t0 ∈ R+ ,


 
N

P πj < t0 ≤ P sup kYt k > j .
t<t0

Por tanto lı́mj P πjN < t0 = 0 uniformemente en N y t0 ≥ 0 es arbitrario, entonces
lı́mj πjN = ∞ en probabilidad uniformemente sobre N . 2

Lema 3.2.3
Suponga que las condiciones (A1)-(A2) y (B1)-(B4) se satisfacen. Sean X y YN las
soluciones de las ecuaciones (2.1) y (3.8), respectivamente. Entonces YN converge a X
en sentido ucp cuando N tiende a ∞.

Demostración
La demostración está organizada a través de varios pasos. Por simplificar la notación,
escribiremos Y = YN .
a) Por (A1)-(A2), la solución X de (2.1) existe y es una semimartingala. Para todo t ≥ 0,
Z Z
N
 N

kXt − Yt k = f (s, X s− ) − f (t, Y)s− ds + G(s, X s− ) − G (Y) s− dZ s


]0,t] ]0,t]
Z Z
N N
N N

≤ f (t, X)s− − f (t, Y)s− ds +
G (X)s− − G (Y)s− dZs +
]0,t] ]0,t]
Z Z
N
N

+ f (s, Xs− ) − f (t, X)s− ds + G (s, X s− ) − G (X) s− dZ s
.

]0,t] ]0,t]
(3.14)

Como X es una semimartingala, X− está localmente acotada. Los tiempos de parada

γj = ı́nf {t ≥ 0 : kXt k > j} j = 1, 2, · · · ,

cumplen que lı́mj γj = ∞ c.s. y kXt− k ≤ j para t ≤ γj . Por el Lema 3.2.2, los tiempos de
parada
πjN = ı́nf {t ≥ 0 : kYt k > j} ,
cumplen las condiciones kYt− k ≤ j para t ≤ πjN y lı́mj πjN = ∞ en probabilidad uniforme
en N . Definamos además los tiempos de parada

τj = ı́nf {t ∈ R+ : At > j} ,

donde A es un proceso de control para ambas semimartingalas Z y (t)t≥0 .


3.2 Convergencia en caso de EDE general 35

N
Sea t0 > 0 una constante arbitraria y sea ξ0j = γj ∧ τj ∧ πjN ∧ t0 . Para s ≤ t ≤ ξ0j
N
, todas
las funciones t ∧ ηs− , s, σs− , Xs− y Ys− están acotadas uniformemente en N . Por tanto,
por el supuesto (B2) y la fórmula de los incrementos finitos, existen constantes C1 y C2
N
(dependientes de j y t0 pero no de N ) tales que, para todo s ≤ t ≤ ξ0j ,
N
f (t, X)s− − f N (t, Y)s−


= f (t ∧ ηs− , s, Xs− , σs− , X ◦ σs− ) − f (t ∧ ηs− , s, Ys− , σs− , Y ◦ σs− )

≤ C1 (kXs− − Ys− k + kX ◦ σs− − Y ◦ σs− k) , (3.15)


y
N
G (X)s− − GN (Y)s−


= G (s, σs− , X ◦ σs− ) − G(s, σs− , Y ◦ σs− )

≤ C2 kX ◦ σs− − Y ◦ σs− k . (3.16)


Definamos
2
ϕN
t = sup kXs − Ys k .
0≤s≤t
N
Sea τ ≤ ξ0j un tiempo de parada arbitrario. Por (3.14), (3.15) y (3.10) se obtiene que
Z 2
N

Eϕτ − ≤ 8E sup C 1 (kX s− − Y s− k + kX ◦ σs− − Y ◦ σ s− k) ds

t<τ ]0,t]
Z 2
N N

+8E sup
G (X)s− − G (Y)s− dZs
t<τ ]0,t]
Z 2

+8E sup f (s, Xs− ) − f N (t, X) ds
s−
t<τ ]0,t]
Z 2
N

+8E sup
G (s, Xs− ) − G (X)s− dZs
.
t<τ ]0,t]

Por esto y el Lema 1.5.1,


Z
EϕN
τ− ≤ 8jE C12 (kXs− − Ys− k + kX ◦ σs− − Y ◦ σs− k)2 dAs
]0,τ ]
Z
G (X)s− − GN (Ys− ) 2 dAs
N
+8jE
]0,τ ]
Z 2

+8E sup f (s, Xs− ) − f N (t, X) ds
s−
t<τ ]0,t]
Z
G (s, Xs− ) − GN (X) 2 dAs .

+8jE s− (3.17)
]0,τ ]
3.2 Convergencia en caso de EDE general 36

N
Para s ≤ t ≤ ξ0j , las funciones t ∧ ηs− , s, σs− , Xs− y Ys− están acotadas uniformemente en
N . De esto y conjuntamente con los supuestos (B2), (B4) y la fórmula de los incrementos
finitos podemos decir que existen constantes C3 y C4 (dependientes de j y t0 pero no de N )
tales que

f (s, Xs− ) − f N (t, X)s−


= f (s, Xs− ) − f (t ∧ ηs− , s, Xs− , σs− , X ◦ σs− )

≤ C3 (|t ∧ ηs− − s| + |s − σs− | + kXs− − X ◦ σs− k) (3.18)

y

G (s, Xs− ) − GN (X)
s−


= G (s, Xs− ) − G (s, σs− , X ◦ σs− )

≤ C4 (|s − σs− | + kXs− − X ◦ σs− k) . (3.19)


N
Denotemos por δN = máxn Tn+1 − TnN . Podemos asumir que TkNN ≥ t0 tomando N sufi-
N
cientemente grande. Entonces, |s − σs− | ≤ δN y |t ∧ ηs− − s| ≤ δN para todo s ≤ t ≤ ξ0j .
Teniendo en cuenta estas acotaciones, cuando sustituimos las estimaciones (3.16), (3.18) y
(3.19) en (3.17), y usando (3.10), se obtiene que
Z Z 2
N 2 2
 N 2

Eϕτ − ≤ 16j C1 + C2 E ϕs− dAs + 8t0 C3 E sup (2δN + kXs− − X ◦ σs− k) ds

]0,τ ] t<τ ]0,t]
Z
+16jC42 E 2
+ kXs− − X ◦ σs− k2 dAs

δN
]0,τ ]
Z Z
2 2 N 2 2
+ kXs− − X ◦ σs− k2 dAs
 
≤ 16j C1 + C2 E ϕs− dAs + 16jt0 C3 E 4δN
]0,τ ] ]0,τ ]
Z
+16jC42 E 2
+ kXs− − X ◦ σs− k2 dAs ,

δN (3.20)
]0,τ ]

donde la última desigualdad proviene del Lema 1.5.1 y del hecho de que A es un proceso de
control para la semimartingala (t)t≥0 . Por (3.20) y
Z
dAs ≤ j,
]0,τ ]

existen constantes K1 y K2 (no dependientes de N ) tales que


Z
N
ϕN N N

Eϕτ − ≤ K1 E s− dA s + K 2 R 0j ξ0j ,
]0,τ ]
3.2 Convergencia en caso de EDE general 37

donde Z
N 2
kXs− − X ◦ σs− k2 dAs .

R0j =E δN +E
] N
0,ξ0j ]
N
Como aquı́ el tiempo de parada τ ≤ ξ0j es arbitrario y Aξ0j N − ≤ j, la aplicación del Lema

3.2.1 nos lleva a


[2jK1 ]
X
N N
EϕξN − ≤ 2C2 R0j (2jK1 )i . (3.21)
0j
i=0

b) Como X es un proceso con lı́mites finito por izquierda y por derecha c.s., entonces se
cumple que para cualquier s > 0:
N
Xs− − X ◦ σs− = Xs− − X ◦ σs− → 0 c.s. cuando N → ∞.

De hecho, para todo  > 0 existe δ > 0 tal que kXu − Xs− k <  para todo u ∈ [s − 2δ, s[.
Podemos asumir que s ≤ TkNN tomando N suficientemente grande. Supongamos que N es
tan grande que δN < δ. Entonces para todo u ∈ [s − 2δ, s[ se cumple que σuN ∈ [s − 2δ, s[, y
ası́ X ◦ σuN − Xs− <  y entonces

X ◦ σuN − Xu ≤ X ◦ σuN − Xs− + kXu − Xs− k < 2.

Tomando lı́mite en esta desigualdad cuando u ↑ s nos conduce a


N

X ◦ σs− − Xs− < 2

para N suficientemente grande. Esto completa la demostración cuando  es arbitrario.


c) Podemos asumir que δN ≤ t0 tomando N suficientemente grande. Además, lı́mN δN = 0
c.s. por suposición. Por lo tanto, por el teorema de la convergencia dominada
2

lı́m E δN = 0.
N

Por el paso (b) arriba, lı́mN (Xs− − X ◦ σs− ) = 0 c.s. para cualquier s > 0.
N
Además, kXs− − X ◦ σs− k ≤ 2j para todo s ≤ ξ0j . De esa manera, tomando en consideración
N
que ξ0j ≤ t0 y A es un proceso de variación finita, el teorema de convergencia dominada nos
asegura que Z
lı́m kXs− − X ◦ σs− k2 dAs = 0 c.s.
N
]0,ξ0j
N
[
Como Z Z
2
kXs− − X ◦ σs− k dAs ≤ (2j) 2
dAs ≤ (2j)2 j,
]0,ξ0j
N
[ ]0,ξ0j
N
[
otra nueva aplicación del teorema de la convergencia dominada nos conduce a
Z
lı́m E kXs− − X ◦ σs− k2 dAs = 0.
N
]0,ξ0j ]
N
3.2 Convergencia en caso de EDE general 38

N
Ası́ que lı́mN R0j = 0.
N
d) Fijando t0 > 0 y definiendo ξ0j igual que en el paso (b). Para cualquier r > 0,
     1/2 
1/2
ϕN ϕN N

P sup kXt − Yt k > r ≤ P t0 − >r ≤P N−
ξ0j > r + P ξ0j > t0
0≤t<t0

EϕN
ξN − N
0j

≤ + P ξ0j > t0 , (3.22)
r2
donde el último resultado proviene de la desigualdad de Markov.
El lı́mj τj = ∞ c.s., lı́mj γj = ∞ c.s. y P − lı́mj πjN = ∞ (uniformemente en N ) implican que
N

lı́m P ξ0j > t0 = 0 uniformemente en N,
j

además, por (3.21) y la conclusión del paso (c), para t0 y j fijos se cumple que

lı́m EϕN
ξN − = 0
N 0j

Por consiguiente, (3.22) converge a 0 cuando N → ∞. Como t0 y r son arbitrarios, esto


completa la demostración del lema. 2
El lema que acabamos de demostrar, nos permite derivar la convergencia en sentido ucp
para todas las aproximaciones LL establecidas anteriormente, en el siguiente teorema.

Teorema 3.2.1 Supongamos que las condiciones (A1)-(A3) se cumplen. Sea X la solución
de (2.1). Entonces cada una de las aproximaciones LLa, LLb, LLc y LLd definidas en la
Sección 2.1 convergen a X en sentido ucp cuando N → ∞.

Demostración
Es suficiente verificar que las funciones f y G que definen las aproximaciones LL (de acuerdo
con la ecuación (3.8)) cumplen las condiciones (B1)-(B4) del Lema 3.2.3.
La condición (B1) se garantiza por la existencia de la aproximación LL como solución de las
ecuación lineales a pedazos (2.6), (2.8), (2.10) y (2.11), respectivamente.
La condición (B2) se puede asegurar por (A1). Para el caso de la condición (B3 ii.) se
satisface porque estamos trabajando en todos los casos con ecuaciones diferenciales estocásti-
cas con ruido aditivo, es decir en las aproximaciones propuestas G (t, X) = G (t, XTn ).
La condición (B4) se puede verificar inmediatamente, por la evaluación de las funciones
envueltas en las definiciones para cada aproximación.
Finalmente, en cada caso, (B3 i.) sigue a partir de las definiciones de f y G y aplicando la
fórmula de los incrementos finitos y tomando en consideración los supuestos (A1)-(A3). 2
Capı́tulo 4

Aspectos Computacionales

Sea Yt , t ≥ 0, una de las aproximaciones LLa, LLb, LLc o LLd definidas por (2.5), (2.7),
(2.9) y (2.11), respectivamente. Las correspondientes discretizaciones están definidas por la
evaluación en los tiempos discretos t = Tn , n = 0, 1, · · · , kN .
Todas las discretizaciones se pueden descomponer de manera general en una parte recur-
siva vn y en un término de ruido ξn de la siguiente forma
YTn+1 = YTn + vn + ξn .
a) En el caso de la discretización LLa,
Z
vn = e(Tn −s)Jn {fn + dn (s − Tn )} s, (4.1)
Z]Tn ,Tn+1 ]
ξn = e(Tn −s)Jn G(s, YTn )dZs , (4.2)
]Tn ,Tn+1 ]

b) Para la discretización LLb,


Z
vn = e(Tn −s)Jn {fn + dn (s − Tn )} (4.3)
]Tn ,Tn+1 ]
Z
ξn = e(Tn −s)Jn Gbn (s)dZs , (4.4)
]Tn ,Tn+1 ]

c) Para la discretización LLc,


Z
vn = e(Tn −s)Jn {fn + dn (s − Tn )} , (4.5)
]Tn ,Tn+1 ]

ξn = e(Tn+1 −Tn )Jn G (Tn , YTn ) ZTn+1 − ZTn .



(4.6)
d) Para la discretización LLd,
Z
vn = e(Tn −s)Jn fn ds, (4.7)
]Tn ,Tn+1 ]

ξn = G (Tn , YTn ) ZTn+1 − ZTn . (4.8)
4.1 Cálculo del término recursivo 40

Los detalles sobre las evaluaciones de estas dos componentes en cada una de las discre-
tizaciones definidas antes se discuten en la siguientes Secciones.

4.1. Cálculo del término recursivo


La integral vn en (4.1), (4.3) y (4.5) se pueden calcular de manera explı́cita por medio
de matrices exponenciales (ver proposición 1 en Jiménez [13]). Especı́ficamente, definamos
 
Jn dn fn
Cn =  0 0 1  ∈ R(d+2)×(d+2) .
0 0 0

Entonces, las ecuaciones (4.1), (4.3) y (4.5) se pueden obtener como un bloque de la
matriz exponencial exp {(Tn+1 − Tn )Cn } de acuerdo a la siguiente identidad:
 
F b vn
 0 1 c  = e(Tn+1 −Tn )Cn ,
0 0 1
donde F ∈Rd×d , b ∈ Rd y c ∈ R son ciertas matrices.
Igualmente, vn definida por (4.7) puede ser evaluada de la siguiente manera. Si
 
Jn f n
Cn = ∈ R(d+1)×(d+1)
0 0
entonces  
F vn
= e(Tn+1 −Tn )Cn
0 1
donde el bloque F tiene dimensión d × d.
Existen un número de algoritmos disponibles para evaluar las matrices exponenciales
involucradas en estas expresiones, e.g. algunas basadas en las aproximaciones estables de
Padé con el método de escalamiento y potenciación, la descomposición de Schur, o el método
de los subespacios de Krylov. La elección de uno de ellos depende del tamaño y la estructura
de la matriz jacobiana Jn (ver por ejemplo Higham [6] y las referencias en él).

4.2. Cálculo del término del ruido


Las discretizaciones LLa y LLb requieren de la la simulación de la integral estocástica
(4.2) y (4.4). Esto sólo es posible en algunos casos especı́ficos. En particular, si Z es un
proceso de Wiener (estándar) multidimensional, entonces los ξn son vectores Gaussianos
independientes de media cero y matrices de covarianza
Z Tn+1
Σn = exp ((Tn − s) Jn ) G (s, YTn ) GT (s, YTn ) exp ((Tn − s) Jn ) ds.
Tn
4.2 Cálculo del término del ruido 41

Algoritmos para aproximar estas covarianzas se discuten en Jiménez et al. [16]. Si Z un


proceso de Lévy α-estable simétrico entonces las ξn definidas por (4.2) son variables aleatorias
independientes, con distribución estable Sα (σn , 0, 0), donde
Z Tn+1 1/α
α
σn = exp ((Tn − s)Jn ) |G (s, YTn )| ds .
Tn

Luego la simulación de las ξn se puede realizar fácilmente en los casos en que se dispone
de una buena aproximación de esta integral. En Jiménez et al. [16] se discuten algoritmos
para esto en el caso en que α = 2 y G (s, YTn ) es un polinomio arbitrario con respecto a s.
En otras situaciones donde el cálculo de LLa y LLb es difı́cil, la discretización LLc ofrece
una alternativa más fácil de implementar. De hecho, cálculo de (4.6) requiere de dos cosas. Lo
primero es calcular el valor de exp{(Tn+1 − Tn )Jn }. Esta matriz es un subproducto del proce-
dimiento de cálculo del término recursivo explicado en la Sección anterior. Especı́ficamente,
ella coincide con el primer bloque matricial de:
 
F b vn
 0 1 c  = e(Tn+1 −Tn )Cn ,
0 0 1
es decir, e(Tn+1 −Tn )Jn = F.
Lo segundo es realizar simulaciones de los incrementos ZTn+1 − ZTn . Esto es fácil de
ejecutar para cualquier proceso de Lévy α-estable Z. En estecaso los incrementos  son
1/α
variables aleatorias independientes con distribución α-estable Sα |Tn+1 − Tn | , β, 0 para
cierta constante β ∈ [−1, 1] (usualmente se supone que β = 0). Entonces, la simulación de
los incrementos se reduce a la generación de variables aleatorias independientes α-estables.
Para esto, existen un número de algoritmos disponibles (ver e. g. Samodorodnitsky y Taqqu
[27], Janicki y Weron [11]). En particular, hemos descrito un algoritmo general debido a
Weron (1996) en la Sección 1.7.1.
La discretización LLd es una alternativa aún más simple de implementar. De hecho, las
evaluaciones de (4.8) sólo requieren las simulaciones de los incrementos ZTn+1 − ZTn .
Capı́tulo 5

Estudio de Simulación

5.1. Consideraciones numéricas


Para EDE con ruido aditivo (3.1) se adoptará la siguiente definición de estabilidad de un
método numérico de integración (ver Kloeden y Platen [18]).

Definición 5.1.1
El método se dice que es estable si para cualquier ecuación (3.1) de tipo lineal estable, i.e.,
f (s, X) = AX donde A es una matriz constante cuyos valores propios tiene parte real
negativa, la aplicación del método a partir de dos condiciones iniciales X0 y X00 en t = 0 da
por resultado correspondientes soluciones Yt y Yt0 que satisfacen que Yt − Yt0 tiende a cero
(en probabilidad) cuando t → ∞.

Los métodos introducidos LLa, LLb, LLc y LLd son teóricamente estables para EDE con
ruido aditivo en este sentido.
La factibilidad y comportamiento práctico del enfoque LL lo estudiaremos a través de
simulaciones, comparándolo con el método de Euler. Motivado por su mayor simplicidad
computacional, usaremos en especı́fico siempre la variante LLc del método LL. Para las
simulaciones, consideraremos tres ejemplos de EDE con ruidos Lévy alfa-estables simétricos.
El primer ejemplo es una EDE con ruido aditivo cuyas soluciones exactas tienen una
dinámica muy simple: tienden a cero cuando el tiempo aumenta. En este caso, para un
paso h moderado, realizamos simulaciones para explorar cuánto el comportamiento de las
discretizaciones por ambos métodos reproducen dicha dinámica de punto lı́mite nulo. Se
consideran varios valores del parámetro alfa del ruido.
El segundo ejemplo es la bien conocida ecuación de Van der Pol (Hairer y Wanner [5])
con ruido aditivo, que es un sistema de los llamados “rı́gidos” (“stiff”) y cuyas soluciones
dinámicamente tienen la forma de un ciclo ruidoso. Este sistema depende de un parámetro
que determina el grado de rigidez. Aprovechamos que este ejemplo tiene una más compleja
dinámica sin dejar de ser fácilmente visualizable, para realizar un análisis más profundo y
completo de la comparación entre los dos métodos de discretización en variadas condiciones
de operación de los mismos. Esto incluyó la aplicación de los métodos con distintos valores
i) del tamaño del paso, ii) el parámetro que determina el grado de rigidez, iii) de alfa, y
5.2 Ejemplos 43

por último iv) del nivel de ruido (un parámetro escalar multiplicativo considerado en cada
ejemplo en G(s, x)).
El tercer ejemplo es la ecuación de Brusselator con ruido multiplicativo (Ehrhardt [4]).
Cuando el ruido no es aditivo, no hay garantı́a de que en algún sentido el método LL resulte
numéricamente estable. No obstante, este ejemplo resulta interesante precisamente porque
muestra que en algunos casos la discretización LL muestra estabilidad por simulaciones a
pesar de que el ruido sea multiplicativo. Esto se ilustra en este ejemplo para varios tamaños
de paso, niveles de ruido y tipos de procesos Lévy alfa-estable e intervalos de integración.
Para las simulaciones de los métodos en estos ejemplos y para construir las gráficas
correspondientes se elaboraron programas MATLAB. El método LLc se instrumentó según
los algoritmos descritos en el Capı́tulo 4 sobre aspectos computacionales. Se utilizó el al-
goritmo propuesto por Weron, que se ofrece en la Sección 1.7.1, para generar el vector de
incrementos de los procesos Lévy alfa-estables.
Tanto para el método de Euler como para el LLc, en todos los casos en que se muestra la
realización de la discretización con distintos tamaños de paso (h), se tuvo en cuenta mantener
la consistencia entre los incrementos del proceso de ruido correspondientes a distintos h
involucrados en el cálculo de las discretizaciones. Para esto, se simulan los incrementos del
proceso de ruido tomando el menor tamaño de paso, y por adición de estos se calculan los
incrementos del ruido asociados a valores mayores de h.
Además es muy conveniente que, para cualquier valor de alfa fijo, al efectuar compara-
ciones entre los resultados de los métodos al variar el nivel de ruido (y posiblemente tam-
bién algún parámetro de rigidez) del sistema, las discretizaciones mostradas en las figuras
correspondan a la misma realización del proceso de ruido. De este modo se evita que la varia-
ción aleatoria de las realizaciones resulte un factor de confusión en la comparación entre los
resultados correspondientes a distintos niveles de ruido, haciéndolos por tanto más compa-
rables. Con este fin en tales comparaciones se utilizó la misma realización de los incrementos
del proceso de ruido alfa-estable para el cálculo de todas las discretizaciones.
Veamos los resultados obtenidos en cada uno de los ejemplos.

5.2. Ejemplos
El Ejemplo 1 es la siguiente ecuación:

dXt = −t2 Xt dt + (3/2) exp (−(t3 − t30 )/3)/(t + 1)dLt


t0 = 1 T = 10 Xt0 = 1

Las soluciones (exactas) de esta ecuación tienden a cero cuando el tiempo aumenta.
En la Figuras 5.1 y 5.2 se muestra discretizaciones obtenidas por ambos métodos: el de
Euler y el LL para cuatro valores de alfa.
En estas figuras se puede ver como, para el moderado paso usado h = 2−4 , las discretiza-
ciones LL reproducen el comportamiento dinámico de las soluciones exactas. Por el contrario,
las discretizaciones de Euler tienen un carácter explosivo en todos los casos.
5.2 Ejemplos 44

100 4

0
0

−2
−100

−4

−200 −6

−8

−300
−10

−12
−400

−14

−500 −16
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Time Time

Figura 5.1: Soluciones aproximadas utilizando el esquema del LL (lı́nea continua) y el de


Euler (lı́nea discontinua) con paso h = 2−4 , para el Ejemplo 1 con ruidos Lévy estables con
α = 0.18 (panel izquierdo) y α = 0. 68 (panel derecho) .
1.5 4

3.5

1 3

2.5

0.5 2

1.5

0 1

0.5

−0.5 0

−0.5

−1 −1
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Time Time

Figura 5.2: Soluciones aproximadas utilizando el esquema del LL (lı́nea continua) y el de


Euler (lı́nea discontinua) tomando paso h = 2−4 , para el Ejemplo 1 con α = 1,23 (panel
izquierdo) y α = 1,68 (panel derecho) .

El Ejemplo 2 es el conocido sistema “stiff” bidimensional de Van der Pol con ruido aditivo:

dX1 = X2 dt
dX2 = E 1 − X12 X2 − X1 dt + σdLt .
 

Este sistema es usado frecuentemente para evaluar la calidad de la integración numérica


de métodos numéricos. La solución exacta de este sistema sin ruido (σ = 0) es un ciclo
lı́mite. Aquı́ E es un parámetro escalar; valores grandes del mismo conducen a mayor grado
5.2 Ejemplos 45

de “rigidez” de este sistema, y por tanto a más dificultad de su integración numérica. El


parámetro escalar σ controla el nivel de ruido. Y L es un proceso de Lévy α-estable simétrico.
Como valor de referencia del parámetro E consideraremos E = 10. Para este valor la
integración numérica del sistema de Van der Pol sin ruido no se considera difı́cil (Hairer y
Wanner [5]) para pasos relativamente grandes h < 2−4 .
La Figura 5.3 presenta simulaciones de este ejemplo con E = 10, σ = 0,001 y el parámetro
de cola α = 0,2. El método de Euler y la discretización LLc se muestran para tres tamaños
de paso h = 2−4 , h = 2−6 y h = 2−12 . Como era de esperar, para un tamaño de paso
muy pequeño h = 2−12 ambas aproximaciones son similares y cercanas a la solución exacta.
Sin embargo, para el tamaño de paso más grande h = 2−4 la discretización de Euler es
explosiva debido a la falta de estabilidad numérica, mientras que la aproximación LL no
explota, e incluso conserva la apariencia de ciclo. Para el tamaño de paso intermedio h = 2−6
la discretización de Euler no es explosiva, pero muestra una pobre reconstrucción de la
verdadera dinámica del sistema en comparación con la aproximación LL.
175
x 10
8 40 20

6 30
10
20
4
Euler

10 0
2
0
−10
0 −10

−2 −20 −20
0 2 4 −5 0 5 −5 0 5
174
x 10

20 20 20

10
10 10

0
LL

0 0
−10

−10 −10
−20

−30 −20 −20


−5 0 5 −5 0 5 −5 0 5

Figura 5.3: Soluciones aproximadas utilizando el esquema de LL y el de Euler para el Ejemplo


2 con α = 0,2, σ = 0,001, E = 10 . Las columnas de izquierda a derecha corresponden a
pasos h = 2−4 , h = 2−6 y h = 2−12 .

Resultados similares con respecto a la variación del paso se obtienen no obstante cuales
sean los valores fijados de los parámetros del sistema: la discretización de Euler se torna
explosiva para pasos mayores que un umbral para el cual por el contrario el método LL
muestra buena reconstrucción de la dinámica. Otra ilustración de esto se presenta en la
Figura 5.4, donde se fijó α = 1,78, E = 10 y σ = 5.
5.2 Ejemplos 46

209
x 10
15 20 20

10
10 10

0
Euler

5 0
−10

0 −10
−20

−5 −20 −30
0 10 −5 0 5 −5 0 5
208
x 10

30 20 20

20 10 10
10
0 0
LL

0
−10 −10
−10

−20 −20 −20

−30 −30 −30


−5 0 5 −5 0 5 −5 0 5

Figura 5.4: Soluciones aproximadas utilizando el esquema de LL y el de Euler para el Ejemplo


2 con α = 1,78, σ = 5, E = 10. Las columnas de izquierda a derecha corresponden a pasos
h = 2−4 , h = 2−6 y h = 2−12 .

A continuación estudiaremos el efecto del parámetro E, es decir del grado de rigidez


del sistema, en la calidad de las discretizaciones. Para esto mantengamos fijas todas las
condiciones de simulación de los resultados de la columna intermedia de la Figura 5.4, es
decir, α = 1,78, σ = 5, h = 2−6 y E = 10, excepto que variaremos E a valores mayores
E = 20 y E = 50. Los resultados de simulaciones con estos valores se muestran en la Figura
5.5. Se observa que resulta más difı́cil captar el comportamiento de la dinámica del sistema
a medida que aumenta su “rigidez” E. Esta deterioro es mayor para el método de Euler, el
cual conduce a discretizaciones explosivas para valores grandes de E para los cuales el LL
muestra aún buena aproximación que reproducen la apariencia cı́clica de la dinámica.
Un efecto similar tiene el aumento del nivel del ruido σ. La reproducción de la dinámica
del Ejemplo 2 por método de Euler tiende a ser notablemente peor que la del método LL
cuando σ aumenta, llegando antes a tener un carácter explosivo. Esto lo podemos apreciar
con más claridad en la Figura 5.6. Obsérvese de paso que, curiosamente, en las trayectorias
la variabilidad se concentra sobre todo en torno a dos puntos ubicados en una recta paralela
al eje de las abscisa, algo que es una peculiaridad del Ejemplo 2.
También un efecto similar tiene la disminución de alfa, es decir, el aumento de las colas
de la distribución del ruido: al disminuir alfa resulta notablemente más difı́cil aproximar
correctamente las trayectorias del sistema, y el deterioro del método de Euler es rápidamente
mayor que el del método LL. La Figura 5.7 muestra este hecho mediante discretizaciones
obtenidas por ambos métodos fijando σ = 1, E = 10, h = 2−6 y (en las columnas de izquierda
a derecha) variando α = 1,78, α = 1 y α = 0,7. Como se puede apreciar, a medida que alfa
disminuye a ambos métodos les resulta más complicado ofrecer una buena solución. Aún ası́,
5.2 Ejemplos 47

183
x 10
20 40 10

8
10 20
6
Euler

0 0 4

2
−10 −20
0

−20 −40 −2
−5 0 5 −5 0 5 0 1 2
182
x 10

20 40 100

10
20 50

0
LL

0 0
−10

−20 −50
−20

−30 −40 −100


−5 0 5 −5 0 5 −5 0 5

Figura 5.5: Soluciones aproximadas utilizando el esquema de LL y el de Euler para el Ejemplo


2 fijando α = 1,78, σ = 5, h = 2−6 y variando E = 10, E = 20 y E = 50 (columnas de
izquierda a derecha).
221
x 10
20 30 2

20
0
10
10

0 −2
Euler

0
−10 −4
−20
−10
−6
−30

−20 −40 −8
−5 0 5 −5 0 5 −2 −1 0 1
220
x 10

20 30 30

20 20
10
10 10
0 0 0
LL

−10 −10 −10

−20 −20
−20
−30 −30

−30 −40 −40


−5 0 5 −5 0 5 −5 0 5

Figura 5.6: Soluciones aproximadas utilizando el esquema de LL y el de Euler para el Ejemplo


2 fijando α = 1,78, E = 10, h = 2−6 y variando (en columnas de izquierda a derecha) el nivel
de ruido según σ = 5, σ = 20 y σ = 30.
5.2 Ejemplos 48

el método LL supera al de Euler en un rango de valores bajos de α. (Para mejor visualización,


en la Figura 5.7 se ha usado σ = 1 en lugar del nivel mayor σ = 5 usado en otras figuras
previas, pues para este último nivel las trayectorias por Euler resultan demasiado malas
aproximaciones con todos α ≤ 1 para ser de interés su graficación. Además al interpretar
esta figura téngase en cuenta que sus paneles son comparables solamente dentro de cada
columna, pues para cada valor de alfa se genera una distinta realización del ruido Lévy
alfa-estable en la simulación).
291
x 10
20 20 1

10
0
10
0

−10 −1
Euler

0
−20 −2
−30
−10
−3
−40

−20 −50 −4
−5 0 5 −5 0 5 −10 −5 0 5
289
x 10

20 30 40

10 20 20

10 0
0
LL

0 −20
−10
−10 −40
−20 −20 −60

−30 −30 −80


−5 0 5 −5 0 5 −5 0 5

Figura 5.7: Soluciones aproximadas utilizando el esquema de LL y el de Euler fijando σ = 1,


E = 10, h = 2−6 y (en las columnas de izquierda a derecha) variando α = 1,78, α = 1 y
α = 0,7.

El Ejemplo 3 es el sistema de Brusselator con ruido multiplicativo (Ehrhardt [4]):

dX1 = (C1 − 1)X1 + C1 X12 + X2 (X1 + 1)2 dt + σX1 [X1 + 1]dLt


dX2 = (X1 + 1)[−C1 X1 − (X1 + 1)X2 ]dt − σX1 [X1 + 1]dLt .
t0 = 0 T = 10 X0 = [−0,5 0]

Este es un caso interesante porque es un sistema de ecuaciones diferenciales estocásticas


con ruido no aditivo. El parámetro C1 está asociado a la dinámica del sistema, cuando
C1 < 2 el sistema se acerca a un punto fijo, y cuando C1 > 2 tiene un comportamiento
de tipo cı́clico. Nosotros trabajaremos este último caso. Nótese que en este caso de ruido
multiplicativo el parámetro σ puede también considerarse como la escala del ruido pero no
es un “nivel de ruido” en el sentido en que lo es el nivel de un ruido aditivo sino que tiene
influencia más intrincada, no lineal, sobre la dinámica de la solución. Esto convierte a este
sistema en un caso más complicado que el Ejemplo 2.
5.2 Ejemplos 49

A continuación exploraremos el efecto sobre la calidad de las aproximaciones por Euler


y por método LL para este Ejemplo 3 cuando varı́an h, σ y α. Nos limitaremos a presentar
figuras ilustrativas, sin pretender hacer un estudio de simulación tan exhaustivo como para
el realizado para el caso de ruido aditivo del Ejemplo 2.
En la Figura 5.8 se muestra el comportamiento de las discretizaciones del Ejemplo 3 con
α = 0,75, C1 = 2,5, σ = 0,2 cuando se varı́a el tamaño del paso. Al igual que en el Ejemplo
2, para un valor de h pequeño (h = 2−12 ) la dinámica del sistema se capta bien por ambos
esquemas numéricos; sin embargo para pasos mayores el método Euler comienza a tener un
carácter explosivo notablemente antes que el método LL.
201
x 10
4 2 2

0 0

−2 −2
Euler

2
−4 −4

−6 −6

0 −8 −8
−4 −2 0 2 −5 0 5 10 −5 0 5 10
201
x 10

2 2 2

0 0 0

−2 −2 −2
LL

−4 −4 −4

−6 −6 −6

−8 −8 −8
−5 0 5 10 −5 0 5 10 −5 0 5 10

Figura 5.8: Soluciones aproximadas utilizando el esquema de LL y el de Euler para el Ejemplo


3 fijando α = 0,75, C1 = 2,5, σ = 0,2 y variando h = 2−4 , h = 2−6 y h = 2−12 (columnas de
izquierda a derecha).

La variación de σ tiene gran influencia sobre la calidad de las discretizaciones por ambos
métodos. Para algunos valores crecientes de σ se observa un efecto similar al del caso adi-
tivo, i.e., valores mayores de σ conducen a peores aproximaciones por ambos métodos. La
Figura 5.9 ilustra esto para el caso α = 1,83, C1 = 2,5, h = 2−6 mediante los tres valores
σ = 0,1, σ = 0,5 y σ = 0,92. Para σ = 0,92 la aproximación por Euler muestra un carácter
explosivo mientras que la aproximación LL sólo tiene un comportamiento más ruidoso pero
sin explosiones. Por otra parte, otras simulaciones realizadas indican que la relación entre σ
y la calidad de las discretizaciones parece ser mucho más complicada que en el caso de ruido
aditivo estudiado en el Ejemplo 2, no simplemente monótona. Esto no es de extrañar tenien-
do en cuenta las complejidades dinámicas frecuentes en los sistemas de ruido multiplicativo.
No obstante, como quiera que sea esta relación, un hecho general en todas las simulaciones
fue que las discretizaciones LL mostraron más estabilidad numérica incluso en los casos en
5.2 Ejemplos 50

que las de Euler se tornaron explosivas.


282
x 10
2 2 3

2.5
0 0
2

−2 −2 1.5
Euler

1
−4 −4
0.5

−6 −6 0

−0.5
−2 0 2 4 6 −2 0 2 4 6 −4 −2 0 2
282
x 10

2 2 2

0 0 0

−2 −2 −2
LL

−4 −4 −4

−6 −6 −6

−2 0 2 4 6 −2 0 2 4 6 −2 0 2 4 6

Figura 5.9: Soluciones aproximadas utilizando el esquema de LL y el de Euler, con α = 1,83,


C1 = 2,5, h = 2−6 y las columnas de izquierda a derecha corresponden a σ = 0,1, σ = 0,5 y
σ = 0,92.

Como en el caso del Ejemplo 2 se realizó un estudio del comportamiento del parámetro α.
Los resultados fueron similares: al disminuir alfa se deterioran las discretizaciones de ambos
métodos, pero con la diferencia ahora de que esta influencia es más marcada. Este resultado
se ilustra en la Figura 5.10
Otro factor que influye en al calidad de las aproximaciones es el intervalo de integración
considerado. Para α = 1, utilizando la misma realización del ruido hasta T = 10 que en
la segunda columna de Figura 5.10, aumentamos el tamaño del intervalo de integración a
T = 15 y T = 20. Como se observa en la Figura 5.11, a medida que aumenta T las trayectorias
por Euler comienzan a alejarse, no son capaces de regresar y terminan siendo explosivas. No
ocurre ası́ con el método LL que se comporta acotadamente en todos los casos.
5.2 Ejemplos 51

137
x 10
3 3 8

2 2 6
1 1
4
Euler

0 0
2
−1 −1

−2 −2 0

−3 −3 −2
−2 0 2 −2 0 2 −10 −5 0 5
137
x 10

3 3
10
2 2

1 1 7
LL

0 0
3
−1 −1

−2 −2 0

−3 −3 −3
−2 0 2 −2 0 2 −10 −6 −2 2

Figura 5.10: Soluciones aproximadas utilizando el esquema de LL y el de Euler para el


Ejemplo 3, fijando C1 = 2,5, σ = 0,2, h = 2−6 y variando α = 1,77, α = 1 y α = 0,69 (las
columnas de izquierda a derecha).
211
x 10
3 3 0.5

2 2 0

1 1 −0.5
Euler

0 0 −1

−1 −1 −1.5

−2 −2 −2

−3 −3 −2.5
−4 −2 0 2 4 −4 −2 0 2 4 0 2 4
211
x 10

3 3
3
2 2

1 1
−3
LL

0 0

−1 −1
−9
−2 −2

−3 −3
−4 −2 0 2 4 −4 −2 0 2 4 −4 5 13

Figura 5.11: Soluciones aproximadas utilizando el esquema de LL y el de Euler, con C1 = 2,5,


σ = 0,2, h = 2−6 , α = 1 y las columnas de izquierda a derecha corresponden a T = 10, T = 15
y T = 20.
Conclusiones

• Hemos generalizado el método LL para el caso de ecuaciones diferenciales estocásticas


en las que la integración es con respecto a semimartingalas (EDES). Se elaboraron
cuatro variantes de este método que ofrecen una gama de integradores numéricos con
distinta complejidad computacional.

• Se elaboraron algoritmos numéricos para la instrumentación computacional del método


LL para EDES.

• Demostramos la convergencia (en sentido ucp) de todas las variantes del método LL
introducidas. En primer lugar, haciendo uso de técnicas elementales del análisis ma-
temático lo demostramos para una de dichas variantes en el caso de EDES con ruido
aditivo. En segundo lugar, haciendo uso de herramientas más profundas de la teorı́a
de semimartingalas lo demostramos para todas las variantes en el caso de una EDES
general.

• Todas las variantes del método LL para EDES introducidas son A-estables.

• El estudio de la simulación realizado muestra que el método LL para EDES tiene una
estabilidad considerablemente mayor que el método de Euler en una amplia variedad
de ejemplos de EDE con ruidos Levy alfa-estables, que incluyen distintos niveles de
ruido y valores del parámetro alfa, ası́ como diferentes tipos de dinámica (atractores
puntuales y ciclos, ecuaciones “stiff”).
Recomendaciones

• Aplicar el método introducido a problemas concretos (modelos estocásticos en finanzas,


climatologı́a, etc.).

• Estudio de la razón de convergencia del método LL para EDES.


Problema difı́cil. No existen aún resultados generales sobre la razón de convergencia
del método de Euler. Pudiera ser imprescindible considerar subclases convenientes de
EDES.

• Elaborar un método LL para EDES con ruido multiplicativo que sea A-estable.
Bibliografı́a

[1] R. J. Biscay, J. C. Jiménez, J. Riera, y P. Valdés. Local linearization method for


the numerical solution of stochastic differential equations. Annals of the Institute of
Statistical Mathematics, 48:631–644, 1996.
[2] K. Burrage, P. M. Burrage, y T. Tian. Numerical Methods for Strong Solutions of
Stochastic Differential Equations: an Overview. Proceedings of the Royal Society of
London. Series A, 460:373–402, 2004.
[3] F. Carbonell, J. C. Jiménez, R. J. Biscay, y H. De la Cruz. The local linearization method
for numerical integration of random differential equations. BIT Numerical Mathematics,
45:1–14, 2005.
[4] M. Ehrhardt. Invariant probabilities for systems in a random environment with appli-
cations to the brusselator. Bull. Math. Biol., 45:579–590, 1983.
[5] E. Hairer y G. Wanner. Solving Ordinary Differential Equations II. Stiff and
Differential-Algebraic Problems. Springer-Verlag, Berlin, 3th edition edition, 1996.
[6] D. J. Higham. The scaling and squaring method for the matrix exponential revisited.
Report 452, Manchester Centre for Computational Mathematics, 2004.
[7] J. G. Jacod, T. G. Kurtz, S. Meleard, y P. Protter. The approximate Euler method
for Levy driven stochastic differential equations. Ann. I. H. Poincaré-PR, 41:523–558,
2005.
[8] J. G. Jacod y P. Protter. Asymptotic error distributions for the euler method for
stochastic differential equations. The Annals of Probability, 26:267–307, 1998.
[9] A. Janicki, Z. Michna, y A. Weron. Approximations of stochastic differential equations
driven by alpha-stable Levy motion. Applicationes Mathematicae, 24:149–168, 1996.
[10] A. Janicki, K. Podgórski, y A. Weron. Computer simulation of α-stable Ornstein-
Uhlenbeck process. In Springer-Verlag, editor, Stochastic Processes. A Festschrift in
Honour of Gopinath Kallianpur, volume 41, pages 161–170. S. Cambanis et. al. (eds.),
1993.
[11] A. Janicki y A. Weron. Simulation and Chaotic Behavior of α-stable Stochastic Proces-
ses. Marcel Dekker, Inc: NY., 1994.
BIBLIOGRAFÍA 55

[12] A. Janicki y A. Weron. Computer investigation of chaotic behavior of stationary alpha-


stable process. Probability and Mathematical Statistics, 15:385–395, 1995.

[13] J. C. Jiménez. A Simple Algebraic Expression to Evaluate the Local Linearization


Schemes for Stochastic Differential Equations. Applied Mathematics Letters, 15:775–
780, 2002.

[14] J. C. Jiménez y F. Carbonell. Rate of convergence of local linearization schemes for


initial-value problems. Applied Mathematics and Computation, 171:1282–1295, 2005.

[15] J. C. Jiménez, C. M. Mora, y R. J. Biscay. Properties of a Local Linearization scheme


for the numerical integration of ordinary differential equations. Applied Mathematics
and Computation, 126:63–80, 2002.

[16] J. C. Jiménez, P. Valdés, J. Riera, R. J. Biscay, y L. Rodrı́guez. Computing the noi-


se covariance matrix of the LL scheme for the numerical solution of SDEs. Applied
Mathematical Letters, 11:19–23, 1998.

[17] R. L. Karandikar. An almost sure convergence of modified Euler-Peano approximation


of solution to an SDE driven by semimartingales. In Springer-Verlag, editor, Seminaire
de Probabilites XXV, pages 113–120. J. Azema et al. (eds.), 1991.

[18] P. E. Kloeden y E. Platen. Numerical Solution of Stochastic Differential Equations.


Springer-Verlag, Berlin, second edition, 1995.

[19] A. Kohatsu-Higa y P. Protter. The euler scheme for SDEs driven by semimartingales. In
Longman Scientific and Technical, editors, Stochastic Analysis on Infinite Dimensional
Spaces., volume 15, pages 141–151. H. H. Kuo (eds.), 1991.

[20] T. Kurtz y P. Protter. Wonk Zakai corrections, random evolutions and simulation
schemes for SDEs. In Stochastic Analysis Liber Amicorum for Moshe Zakai, volume 15,
pages 331–346. E. Mayer-Wolt et. al. (eds.), 1991.

[21] G. N. Milstein. Numerical Integration of Stochastic Differential Equations. Kluwer


Academic Publishers, 1995.

[22] M. Métivier. Semimartingales. A Course on Stochastic Processes. Walter de Gruyter:


Berlin-New York, 1982.

[23] T. Ozaki. A bridge between nonlinear time series models and nonlinear stochastic
dynamical systems: a local linearization approach. Statistica Sinica, 2:113–135, 1992.

[24] P. Protter. Approximations of solutions of stochastic differential equation driven by


semimartingales. The Annals of Probability, 13:716–743, 1985.

[25] P. Protter. Stochastic Integration and Differential Equations. A New Approach.


Springer-Verlag:Berlin, 1995.
BIBLIOGRAFÍA 56

[26] P. Protter y D. Talay. The Euler scheme for Levy driven stochastic differential equations.
The Annals of Probability, 25:393–423, 1997.

[27] G. Samodorodnitsky y M. S. Taqqu. Stable Non-Gaussian Random Processes. Stochastic


Models with Infinite Variance. Chapman & Hall: NY-London, 1994.

[28] R. Weron. On the Chambers-Mallows-Stuck method for simulating skewed stable ran-
dom variables. Statistics and Probability Letters, 28:165–171, 1996.

[29] V. M. Zolotarev. One-dimensional stable distribution. Amer. Math. Soc. Transl. of


Math. Monographs, 65, 1986.

También podría gustarte