Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Integraci
on Estoc
astica
Geronimo Uribe Bravo
Instituto de Matematicas
Universidad Nacional Autonoma de Mexico
Contenido
Captulo 1. Preliminares
1. Funciones de variaci
on acotada y la integral de Lebesgue-Stieltjes
2. Espacios de Hilbert y proyecciones ortogonales
3. Preliminares de procesos estoc
asticos
4. Martingalas a tiempo continuo
1
1
7
10
15
Captulo 2. Integraci
on estoc
astica respecto del movimiento browniano
1. El movimiento browniano y su variaci
on cuadratica
2. Ejemplo de una filtraci
on que satisface las condiciones habituales
3. La integral estoc
astica respecto del movimiento browniano
4. Ecuaciones diferenciales estoc
asticas conducidas por el movimiento
browniano
20
21
24
25
Captulo 3. Integraci
on estoc
astica respecto de semi-martingalas continuas
1. Martingalas continuas y su variaci
on cuadr
atica
2. La integral estoc
astica respecto de martingalas continuas cuadrado
integrables
2.1. Construcci
on directa de la integral estoc
astica
2.2. Construcci
on de la integral estoc
astica mediante el teorema de
representaci
on de Riesz
3. La integral estoc
astica respecto de semimartingalas
4. La f
ormula de It
o
45
45
34
54
57
62
62
65
iv
Captulo 5. Integral estoc
astica respecto de semimartingalas
1. Integrales de Lebesgue-Stieltjes respecto de procesos de Poisson
2. Medidas de Poisson aleatorias
3. Procesos de Levy y la descomposici
on de Levy-Ito
4. La descomposici
on de Doob-Meyer
5. La integral estoc
astica y sus propiedades
102
102
103
106
106
111
Bibliografa
112
CAPITULO 1
Preliminares
1. Funciones de variaci
on acotada y la integral de Lebesgue-Stieltjes
n. Decimos que una funci
Definicio
on f : [0, ) R es de variaci
on acotada en el intervalo [0, t] si
X
|f (ti ) f (ti1 )| < ,
sup
={0=t0 <<tn =t}
donde el supremo es sobre todas las particiones de [0, t]. Denotaremos por Vt (f )
al supremo anterior.
Diremos que f tiene variaci
on localmente acotada si Vt (f ) < para toda
t 0 y que f tiene variaci
on acotada si limt Vt (f ) < .
Si f es una funci
on de variaci
on localmente acotada, la celebre descomposicion
de Jordan nos afirma que la podemos escribir como diferencia de dos funciones no
decrecientes. En efecto, es f
acil verificar que
Vt (f ) + f (t) Vt (f ) f (t)
t 7
,
2
2
son no decrecientes y su suma es f (t). Una forma intuitiva de entender la descomposici
on de Jordan se obtiene de definir la variaci
on positiva o negativa de una
funci
on de variaci
on acotada como
X
sup
|f (ti ) f (ti1 )| Vt (f ) <
={0=t0 <<tn =t}
y notar que ambas funciones son no decrecientes. Por otra parte, se tienen las
descomposiciones
Vt (f ) + f (t) f (0)
Vt (f ) f (t) + f (0)
Vt+ (f ) =
y Vt (f ) =
.
2
2
A
un m
as, notemos que si f es tambien continua por la derecha entonces f se
puede escribir como la diferencia de dos funciones no-decrecientes continuas por la
derecha. En efecto, basta notar que si f es continua por la derecha en t entonces su
variaci
on tambien es continua en t. Esto implica tambien la existencia de lmites por
la izquierda. Puesto que cada una de estas funciones no decrecientes esta asociada
a una medida, vemos que existe una medida con signo tal que f (t) = ([0, t]).
Si g : [0, ) R es localmente acotada y medible, podemos entonces definir a
1
1. Funciones de variaci
on acotada y la integral de Lebesgue-Stieltjes
Rt
0
g df
El teorema siguiente nos afirma que las funciones de variacion acotada aparecen naturalmente al tratar de considerar integrales elementales y extenderlas por
continuidad. Si nuestra funci
on f es funci
on continua por la derecha y n es una
sucesi
on de particiones de [0, t] que se refinan y cuyo paso tiende a cero, definamos
X
S n (h) =
h(ti ) (f (ti+1 ) f (ti )) .
n
Si h es continua y f es de variaci
on acotada en [0, t] entonces S n (h)
Rt
0
h df .
(por ejemplo al imponer que h(ti ) = sgn(f (ti ) f (ti1 )) e interpolar linealmente).
Por lo tanto,
Vt (f ) sup kS n k.
n
1. Funciones de variaci
on acotada y la integral de Lebesgue-Stieltjes
An
alogamente a como se defini
o la noci
on de variacion de una funcion, podemos definir el de p-variaci
on para p > 0. Este concepto sera de utilidad al estudiar las propiedades trayectoriales del movimiento browniano (y otros procesos
estoc
asticos).
n. Sean f : [0, ) R y p > 0. Se define la p-variacion de f en
Definicio
[0, t] como
X
|f (ti ) f (ti1 )| p .
sup
={0=t0 <<tn =t}
Como f es continua, el m
aximo del lado derecho tiende a cero, mientras que la
suma del lado derecho tiene un lmite finito. Por lo tanto, el lado izquierdo tiende
a cero. Un razonamiento an
alogo prueba la afirmacion restante.
Concluimos la secci
on con algunas propiedades de la integral de LebesgueStieltjes que contrastaremos con propiedades de la integral estocastica. Comenzamos con la regla de asociatividad, la f
ormula de integracion por partes y la regla
de la cadena.
La regla de asociatividad nos dice que, como funcion del intervalo de integraci
on, una integral de Lebesgue-Stieltjes es de variacion acotada y permite reexpresar la integral respecto de ella. Formalmente:
n 1.2. Sea f una funci
Proposicio
on de variaci
on localmente acotada, g una
funci
on medible y acotada y definamos
Z t
h(t) =
g df.
0
Entonces h es de variaci
on localmente acotada y si g es medible y acotada entonces
Z t
Z t
g dh =
gg df.
0
1. Funciones de variaci
on acotada y la integral de Lebesgue-Stieltjes
Con la notaci
on h = g f , podemos escribir la f
ormula de manera compacta:
g (g f ) = (
g g) f.
Pasemos ahora a la f
ormula de integraci
on por partes.
n 1.3. Sean f y g dos funciones de variaci
Proposicio
on localmente acotada.
Para toda t > 0 se tiene que
Z t
Z t
f (t) g(t) = f (0) g(0) +
g df +
f dg.
0
La f
ormula de integraci
on por partes admite la siguiente forma mas simetrica:
Z t
Z t
X
f (t) g(t) = f (0) g(0) +
f dg +
g df +
f (s) g(s) .
0
st
v
alido cuando f es continua y de variaci
on localmente acotada.
Ejercicio 1.2. Probar que si f es una funci
on continua de variacion acotada
entonces g satisface
Z t
g(t) = x +
g(s) f (ds)
0
si y s
olo si
g(t) = xef(t) .
Sugerencia: utilice integraci
on por partes para ver que gef es constante.
Aunque el siguiente resultado admite una versi
on para funciones discontinuas,
nos concentraremos en el caso continuo.
1. Funciones de variaci
on acotada y la integral de Lebesgue-Stieltjes
entonces
Z
f (t) F f (t) =
Id (F 0 f ) + F f df.
st
f(s)6=0
1. Funciones de variaci
on acotada y la integral de Lebesgue-Stieltjes
Al tomar nfimos, concluimos que f 1 (t) = limn f 1 (tn ). En efecto, es claro que
on de f 1 (t), vemos que para toda > 0
f 1 (t) limn f 1 (tn ) y por definici
t < f f 1 (t) + ,
por lo cual
tn < f f 1 (t) +
Por definici
on de f 1 (t), si > 0 se satisface
f f 1 (t) + > t
y por continuidad por la derecha de f obtenemos
f f 1 (t) t.
Si f 1 (s) > t entonces f (t) s. Por otra parte, si > 0, al ser f continua por
la derecha, vemos que existe una vecindad derecha de t en la cual f f (t) + .
Por lo tanto f 1 (f (t) + ) > t y as vemos que
f (t) = inf s 0 : f 1 (s) > t .
Finalmente, si f es continua y no decreciente, entonces es sobre. Si (xn ) decrece
estrictamente a x, existe (tn ) estrictamente decreciente (digamos con lmite t) tal
que f (tn ) = xn . Por continuidad, se sigue que f (t) = x y que a la derecha de t
f > x. Vemos que entonces f 1 (x) = t y que f f 1 (x) = f (t) = x.
Ahora podemos enunciar la f
ormula de cambio de variable.
n 1.6. Si g : [0, ) [0, ) es Borel-medible y f es no-decreciente
Proposicio
entonces
Z
Z
g df =
g f 1 1f 1 < d.
[0,)
[0,)
|f | = hf, f i
es una norma sobre H.
m,n
La sucesi
on (gn ) es por lo tanto una sucesi
on de Cauchy y por completitud se sigue
que converge. Sea g = limn gn . Entonces
d(f, g) = lim d(f, gn ) = d(f, M ) .
n
y hf, gi = 0
10
(h)
.
(f )
Por lo tanto:
hh f, f i = 0
o equivalentemente:
h(f ) f, hi = (h) .
Se concluye que (f ) f es un vector que satisface la conclusion del teorema.
Para mostrar la unicidad, notemos que si f y f son tales que (h) = hf, hi =
11
Por ejemplo, dos movimientos brownianos siempre tienen las mismas distribuciones
finito-dimensionales. La simetra del movimiento browniano implica que si B es un
movimiento browniano entonces B tambien lo es. As, esta nocion no distingue
mucho entre procesos cuyas trayectorias pueden ser muy distintas.
Diremos que X es una modificaci
on de Y si P(Xt = Yt ) = 1 para toda t I.
Por ejemplo, si U es una variable aleatoria uniforme en [0, 1], Xt = 0 para toda
t 0 y Yt = 1U =t , entonces P(Xt = Yt ) = P(U 6= t) = 1. As, X es modificacion de
Y . Es decir, el concepto de modificaci
on ya permite distinguir entre procesos con
trayectorias distintas: B no es una modificaci
on de B. Sin embargo, el concepto
de modificaci
on no es tan bueno para distinguir entre trayectorias discontinuas.
Un concepto a
un m
as fuerte es el de indistinguibilidad. Decimos que X y Y
son indistinguibles si Xt = Yt para toda t 0 casi seguramente. Es decir, existe N F tal que P(N ) = 0 para el cual Xt () = Yt () para toda t 0 si
N c . En el ejemplo de dos procesos que son modificacion, vemos que 0 y 1U =t
ya no son indistinguibles. Sin embargo, cuando las trayectorias de dos procesos estoc
asticos son regulares, entonces los conceptos de modificacion e indistinguibilidad
son equivalentes.
n 1.8. Sean X y Y dos procesos estoc
Proposicio
asticos cuyas trayectorias son
casi-seguramente continuas por la derecha. Si X es modificaci
on de Y entonces X
y Y son indistinguibles.
Tambien bastara tener trayectorias continuas por la izquierda casi seguramente.
n. Sea S I denso y numerable y N1 el complemento de
Demostracio
{Xt = Yt t S}. Por -subaditividad, vemos que
X
P(N1 )
P(Xt 6= Yt ) = 0.
tS
st,sS
12
Utilizaremos el par
ametro temporal para introducir el flujo del tiempo en el
espacio de probabilidad. Esto se hace a partir del concepto de filtracion. Una
filtraci
on es una colecci
on (Ft , t I) de sub-
algebras de F tales que si t1
t2 I entonces Ft1 Ft2 . A la -
algebra Ft se le interpreta como la informacion
disponible al tiempo t. Decimos que la filtraci
on es continua por la derecha si
\
Ft =
Ft+ .
>0
13
A =
A = {t 0 : Xt A} y HA =
.
inf A A 6=
A HA se le conoce como tiempo de arribo de X al conjunto A. Introduciremos
ahora la convenci
on inf = . Co esta convenci
on, escribimos de manera mas
compacta la definici
on de HA como sigue:
HA = inf {t 0 : Xt A} .
n 1.10. Si X tiene trayectorias continuas y A es cerrado entonces
Proposicio
HA es un tiempo de paro respecto de FtX , t 0 . Si X tiene trayectorias continuas
por la derecha, A es un conjunto abierto, la filtraci
on (Ft ) es continua por la
derecha y X es adaptado entonces HA es un tiempo de paro.
n. En toda generalidad podemos escribir
Demostracio
{HA t} = {HA = t} {s t : Xs A} ,
donde adem
as
{HA = t} = {Xs 6 As < t, > 0t [t, t + ], Xt A} .
Por lo tanto, el hecho de que HA sea tiempo de paro se debe a que, con hipotesis
adecuadas, se pueden discretizar las uniones e intersecciones.
En el primer caso vemos que {HA = t} {Xt A} por lo que:
{HA t}
= {s t : Xs A}
\
=
{s t : d(Xs , A) < 1/n}
n1
n1 s[0,t]Q
14
Un resultado a
un mucho m
as profundo, aunque muchsimo mas difcil de demostrar es el siguiente:
Teorema 1.3. Si A es Borel medible y X es un proceso progresivo respecto de
una filtraci
on c`
ad y completa (Ft , t 0) entonces HA es un tiempo de paro.
n 1.11. Si S y T son tiempos de paro entonces S T , S T y S +T
Proposicio
son tiempos de paros. Si Tn , n 1 es una sucesi
on de tiempos de paro entonces
supn Tn es un tiempo de paro y si la sucesi
on es creciente entonces limn Tn es un
tiempo de paro.
n. Ejercicio.
Demostracio
15
16
Teorema 1.4. Sea (Mt , t 0) una martingala cerrada (con trayectorias continuas por la derecha en el caso de tiempo continuo) respecto de (Ft , t 0) con
u
ltimo elemento M . Si S T son tiempos de paro entonces
E( MT | FS+ ) = MS .
Ejercicio 1.7. En el contexto del teorema anterior, pruebe que E( MT | FS ) =
MS . Pruebe que obviamente MtT es una FtT -martingala pero que de hecho M T
es martingala respecto a la filtraci
on (Ft ).
n. Se supondr
Demostracio
a el resultado cuando I = N y lo demostraremos
cuando I = [0, ) y la martingala M tiene trayectorias c`ad. Definimos a
S n = d2n Se/2n
y T n = d2n T e/2n .
Entonces S n y T n son dos tiempos aleatorios que toman valores en los racionales
di
adicos de orden n. Son
as tiempos de paro respecto de la filtracion a tiempo
adem
discreto Fk/2n , k N y se tiene que S n T n , S n a S y T n decrece a T . Puesto
que Mk/2n , k N es una martingala respecto a la filtracion a tiempo discreto que
hemos definido vemos que
E( MT n | FS n ) = MS n .
Puesto que M es uniformemente integrable, al ser cerrada, la continuidad por la
derecha de las trayectorias de M nos dice que MT n MT casi seguramente y
en L1 . Por otra parte, la colecci
on decreciente de -algebras (FS n , n N) tiene
intersecci
on igual a FS+ . Por el teorema de convergencia hacia abajo de Levy se
sigue entonces que
lim E( MT n | FS n ) = E M T FS+
n
Si a < b son dos racionales, veamos cuantas veces cruzan hacia arriba los
puntos x0 , x1 , . . . a [a, b], cantidad que denotamos por U[a,b] (x0 , x1 , . . .) y cuyo
c
alculo procedemos a explicar: sean
A1 = {k N : xk a} ,
(
min A1 si A1 6=
T1 (x0 , x1 , . . .) =
si A1 =
17
si A2j =
A2j+1 = {k N : T2j k, xk a}
(
min A2j+1 si A2j+1 6=
T2j+1 (x0 , x1 , . . .) =
.
si A2j+1 =
A partir de las anteriores cantidades, definimos
U[a,b] (x0 , . . . , xn ) = sup {k N : k 1, A2k 6= }
= sup {k N : k 1, T2k < } ,
que es la cantidad de cruces hacia arriba de la sucesi
on en [a, b] pues si que T2k <
entonces la sucesi
on ha cruzado [a, b] hacia arriba de menos k veces, por definicion
de T2k .
Lema 1. El lmite inferior de la sucesi
on (xn )nN coincide con el lmite superior de la misma si y s
olo si para cualquier pareja de racionales a < b, la cantidad
U[a,b] (x0 , x1 , . . .) es finita. Si (Xn , n N) es una martingala entonces
1
+
n
E (a Xn ) .
E U[a,b]
ba
A la desigualdad entre esperanzas se le conoce como la desigualdad de cruces
de Doob.
Teorema 1.5 (Teorema fundamental de convergencia de martingalas). Si
(Xn ) es una martingala acotada en L1 entonces (Xn )nN converge casi seguramente a una variable aleatoria X que pertenece a L1 .
Ahora daremos una extensi
on adicional del teorema de convergencia de martingalas y probaremos el teorema de regularizaci
on de martingalas. Este u
ltimo es
u
til a la construcci
on de una gran familia de procesos estocasticos entre los cuales
se encuentran los procesos de Feller y en particular los procesos de Levy. Nos
centraremos en procesos a tiempo continuo.
Extenderemos ahora la noci
on de cantidad de cruces de una funcion f : [0, )
R: recordemos que si F [0, ) es finito, ya tenemos definida la nocion de la cantidad de cruces hacia arriba de (f (t))tF en el intervalo [a, b], llamemosle UF (f, a, b).
Si T R es arbitrario, podemos definir
UT (f, a, b) =
sup
UF (f, a, b) .
F T,F finito
18
t [u, v)
f (t) = lim
t (u, v]
st,sT
y
st,sT
(y son reales) si y s
olo si UT (f, a, b) < para cualquier pareja de racionales a < b.
Teorema 1.6 (Desigualdad de cruces de Doob). Si (Xt )t0 es una (Ft )-supermartingala c`
ad entonces
E(UT (X)) sup E (a Xt ) .
tT
19
y por el teorema de convergencia de Levy hacia abajo, vemos que casi seguramente
y en L1 :
t = lim Xs = lim E( Xt | Fs ) = E( Xt | Ft + ) = E( Xt | Ft ) = Xt ,
X
1
es una modificaci
por lo que X
on de X.
Consideremos ahora t1 < t2 y sn una sucesi
on de racionales que decrezcan a t2 .
t , como vimos en el parrafo
Puesto que Xsn converge casi seguramente y en L1 a X
2
anterior, el teorema de convergencia dominada para la esperanza condicional nos
dice que
t = E( Xs | Ft ) E X
t Ft ,
X
1
n
1
2
1
es una Ft -martingala.
por lo que X
Ahora veremos un criterio sencillo para verificar que una martingala converge
no s
olo en L1 sino tambien en Lp para alg
un p > 1. Para esto, estudiaremos
al m
aximo valor que toma una martingala. Al contar con una cota adecuada
para su esperanza m
aximo, se puede entonces simplemente aplicar convergencia
dominada para verificar la convergencia en Lp de la martingala en cuestion. Sea
M = (Mt , t T ) una (Ft )-submartingala c`
ad. Definamos a
+
M t = sup Ms+ .
st
CAPITULO 2
Integraci
on estoc
astica respecto del movimiento
browniano
En este captulo se introducir
a el ejemplo fundamental y mas sencillo de integraci
on estoc
astica: la integral estoc
astica respecto del movimiento browniano.
Adem
as, se introducir
an y recordar
an algunos conceptos de la teora general de
procesos estoc
asticos y de martingalas a tiempo continuo.
El proceso estoc
astico m
as importante en estas notas es el movimiento browniano. Recordemos su
n. Un movimiento browniano es una coleccion de variables aleatoDefinicio
rias B = (Bt , t 0) tales que:
(1)
(2)
(3)
(4)
B comienza en cero
B tiene trayectorias continuas
B tiene incrementos independientes y estacionarios
La distribuci
on de Bt es normal centrada de varianza t.
o equivalentemente
ct = x +
(cs ) ds + Bt .
0
21
(Xs ) dBs .
b(Xs ) ds +
Xt =
Sin embargo, surge inmediatamente el problema de interpretar a la integral respecto del movimiento browniano. Puesto que, como veremos, las trayectorias de
B tienen variaci
on infinita en cualquier intervalo, entonces no se puede interpretar
como una integral de Lebesgue-Stieltjes. Como veremos, aunque no sea posible
definir a la integral estoc
astica como lmite de sumas de Riemann trayectoria por
trayectoria, s se le puede definir como lmite en probabilidad para una clase adecuada de integrandos (que no ven el futuro). La contribucion de Ito fue darse
cuenta de esto y entonces profundizar en el estudio de las similitudes y diferencias
entre la integral usual y la integral estoc
astica. Al reinterpretar el artculo de Ito,
algunos otros probabilistas como Doob se dieron cuenta de la similitud existente
entre la integral estoc
astica y la transformada de martingala a tiempo discreto, lo
cual marc
o el desarrollo posterior del c
alculo estoc
astico como una teora apoyada
fundamentalmente en las martingalas.
La integral estoc
astica respecto del movimiento browniano fue introducida
en [It
o87]. En este artculo, It
o introduce la integral estocastica respecto del
movimiento browniano con la idea de utilizarla para darle sentido a ecuaciones
diferenciales estoc
asticas (para las cuales da un teorema de existencia y unicidad)
y utilizar a estas para dar construcciones de procesos de Markov con trayectorias
continuas. Seguiremos de cerca este artculo, comenzando con algunos preliminares
del movimiento browniano.
1. El movimiento browniano y su variaci
on cuadr
atica
Consideremos una caminata aleatoria
simple y simetrica S = (Sn , n N). El
teorema lmite central afirma que Sn / n converge debilmente a una variable normal est
andar. Una manera de interpretar al movimiento browniano es como una
extensi
on multidimensional (inclusive infinito-dimensional o funcional) del teorema
lmite central. En efecto, si S se extiende por interpolacion lineal en cada
intervalo
[n, n + 1] y consideramos al proceso estoc
astico S n dado por Stn = Snt / n, vemos
que Stn converge debilmente a una normal de media 0 y varianza t. Por otra parte,
como S tiene incrementos independientes y estacionarios (cuando nos restringimos
a instantes de tiempo naturales) entonces si 0 = t0 < t1 < < tm entonces para
n suficientemente grande los incrementos Stni Stni1 , con 1 i m son independientes. Por lo tanto, vemos que dichos incrementos convergen debilmente a un
vector aleatorio con entradas gaussianas independientes de varianzas respectivas
ti ti1 para 1 i m. El movimiento browniano es justamente un proceso
estoc
astico que recoge este comportamiento lmite de las caminatas aleatorias.
n. Un movimiento browniano en ley es un proceso estocastico
Definicio
B = (Bt , t 0) tal que:
22
(1) B0 = 0
(2) B tiene incrementos independientes: si 0 = t0 < t1 < < tm entonces
Bti Bti1 , 1 i m son independientes
(3) B tiene incrementos estacionarios: Bt+s Bt tiene la misma distribucion
que Bs y
(4) la distribuci
on de Bt es normal de media 0 y varianza t.
Un movimiento browniano es un movimiento browniano en ley que tiene trayectorias continuas.
No es trivial que el movimiento browniano exista. P. Levy dio una demostracion
muy elegante de este hecho basada en propiedades de la distribucion Gaussiana. Sin
embargo, hay herramientas de aplicaci
on m
as general y que permitan probar la existencia del movimiento browniano. En efecto, al aplicar el teorema de extension de
Kolmogorov, es f
acil verificar la existencia de un espacio de probabilidad en el que
est
a definido un movimiento browniano en ley. Al utilizar el criterio de continuidad
de Kolmogorov se puede entonces encontrar una modificacion del browniano en ley
que sea un movimiento browniano. Ahora abordaremos otra prueba de existencia
del browniano basado en el teorema de regularizacion de martingalas. No es una
prueba ni tan corta ni tan elegante como las dos esbozadas anteriormente, pero
est
an basadas en desarrollos que necesitaremos en el curso. En efecto, la prueba
se basa en el siguiente hecho:
n 2.1. Sea B un movimiento browniano en ley. Para toda t 0,
Proposicio
si n es una sucesi
on de particiones de [0, t] cuya norma tiende a cero, entonces
la sucesi
on de variables aleatorias
X
2
Bti Bti1
ti n
converge en L2 a t.
De hecho, para probar la proposici
on anterior, se verifica que
h
i2
X
2
Bti Bti1 (ti ti1 )
ti n
es una martingala y
converge a cero en L2 . Un movimiento browniano en ley B
por lo tanto le podemos asociar una modificaci
on c`
adl`ag B a partir del teorema de
regularizaci
on de martingalas. (De revisar la demostracion del teorema de regularizaci
on, se ve que no es necesario suponer que la filtracion sea c`ad o debilmente
completa, lo que no se puede afirmar entonces es que Bt sea Ft -medible.) Recordemos que una funci
on c`
adl`
ag admite una cantidad a lo mas numerable de discon se ve que B tambien es un movimiento
tinuidades. Por ser B una modificaci
on de B,
browniano en ley y por lo tanto, existe una sucesi
on de particiones n (y podemos
23
suponer que las particiones se refinan) cuya norma tiende a cero tal que
i2
X h
2
Bti Bti1 (ti ti1 ) 0
ti n
ti n
st
!2
!
2
X
X
2
2
E
Bti Bti1 t = E
Bti Bti1 (ti ti1 )
i
=E
Xh
Bti Bti1
2
i2
(ti ti1 )
!
,
donde la u
ltima igualdad se justifica pues las variables
2
Bti Bti1 (ti ti1 )
son independientes
y tienen media cero. Si ahora utilizamos el hecho de que
E X 4 = 3 2 si X tiene distribuci
on N (0, 2 ), entonces
2
X
X
2
2
E
Bti Bti1 (ti ti1 )
=2
(ti ti1 )
i
2 |n | t 0,
lo cual demuestra la afirmaci
on de la proposici
on.
24
la Proposici
on 2.1 nos ayudar
a a construir una teora de integracion basada en la
transformada de martingala.
2. Ejemplo de una filtraci
on que satisface las condiciones habituales
En esta secci
on se introduce un ejemplo (fundamental e importante) de una
filtraci
on que satisface las condiciones habituales. Sea (, F , P) un espacio de
probabilidad completo en el que est
a definido un movimiento browniano B. Sea
N la clase de los conjuntos P-nulos y definamos
Ft = (Bs : s t) N .
n 2.2. B es un (Ft )-movimiento browniano y la filtraci
Proposicio
on (Ft , t 0)
satisface las hip
otesis habituales.
n. Notemos que N es independiente de cualquier -algebra.
Demostracio
Adem
as, la independencia de los incrementos de B permite ver que si
A (Bs : s t)
y C (Bt+s Bt : s 0)
Ft F n = Ft+1 .
n1
En efecto, s
olo debemos mostrar que si s (t, t+1] entonces Bs es medible respecto
de la -
algebra del lado izquierdo. Sin embargo, puesto que las trayectorias de B
son continuas, vemos que Bs = limn Bt + Bs Bt+1/n . Finalmente, utilizamos
el teorema de convergencia de Levy, mediante el que obtenemos la igualdad casi
segura
lim P( A | Ft , F n ) = P( A | F1 ) = 1A
n
3. La integral estoc
astica respecto del movimiento browniano
25
3. La integral estoc
astica respecto del movimiento browniano
26
la Proposici
on 2.1 implica que
X
B2 t
Bti1 Bti Bti1 t
2
n
max (ti i ) .
1in1
Teorema 2.1. Para toda , > 0, existe > 0 tal que si d() , d(0 ) <
entonces
0
P Ys Ys > < .
La forma en que It
o escribe el teorema anterior es que Y converge en probabilidad conforme d() 0.
n. Sea una sucesi
Demostracio
on con instantes de evaluacion consistente
de la partici
on s0 , . . . , sm y de los instantes de evaluacion 1 , . . . m .
Si t0 , . . . , tn es un refinamiento de s0 , . . . , sm definamos
j = i
si
(tj1 , tj ) (si1 , si ) .
3. La integral estoc
astica respecto del movimiento browniano
27
Notemos que
d(0 ) = max tj+1 j max si+1 i = d() ,
por lo que 0 es una especie de refinamiento de la particion con evaluadores.
son dos particiones con evaluadores distintas, podemos entonces
Si y
YY =
(Hi Hi ) Bti Bti+1 .
i
Como H tiene trayectorias continuas, entonces para toda , > 0 existe > 0 tal
que
P(|Ht Hs | < si |t s| , s, t 1) > 1 .
(Raz
on: se puede discretizar al evento anterior al considerar s, t racionales y utilizar
la continuidad uniforme en elintervalo
[0, 1].)
Hi | < ,
por lo que
X
!
X
P
Ci Bti Bti1 > T
i
y por lo tanto
P Y Y > + .
3. La integral estoc
astica respecto del movimiento browniano
28
Mr dr.
s
st
n. Se probar
Demostracio
a el resultado cuando s = 0. Sea (n ) una sucesion
cuyo paso tiende a cero y tal que la sucesi
on de integrales estocasticas elementales
X
In =
Hti1 Bti Bti1
n
3. La integral estoc
astica respecto del movimiento browniano
29
Rt
converge casi seguramente a la integral estoc
astica 0 Hr dBr . Entonces, por el
lema de Fatou:
Z t
2 !
Z t
X
2
Hr dBr
lim inf E [In ] lim inf
Mr dr
E
Mti1 (ti ti1 ) =
n
Csn = Hs Hsn
ser continua.
Hs Hsn
< Hs Hsn < .
Hs Hsn
Puesto que
st
Csn
, se sigue que
Z t
Z t
2 !
1
n
n
Cs dBs
P
Cs dBs E
t.
0
0
Por lo tanto
Z t
Z t
n
n
P
Hs Bs
Hs dBs > + P sup |Hs Hs | > + t
st
0
Para cada partici
on evaluadora definamos
X
Yt =
Hi Btti Btti1 .
Esta sera una versi
on discreta de la integral indefinida. Su principal caracterstica
es ser un proceso con trayectorias continuas y una martingala.
n 2.6. Para toda , > 0, existe > 0 tal que si d() , d(0 ) <
Proposicio
entonces
0
P sup Ys Ys > < .
st
m
n. Sean s1 , s2 , . . . densos en [0, 1] y sean tm
Demostracio
1 , . . . , tn los puntos
Yt Yt =
(Hi Hi ) Btm
Btm
.
i
i1
3. La integral estoc
astica respecto del movimiento browniano
30
lo cual implicar
a que
+ .
P sup Yt
m Ytm >
i
I
i
P sup Ys Ys > + ,
s1
st
y vemos por el lema de Borel-Cantelli que casi seguramente existe N tal que para
toda n N se tiene que
sup Ysn Ysn+1 n .
st
Se sigue entonces que la sucesi
on Y n , n 1 es casi seguramente de Cauchy uniforme en [0, t] y por lo tanto converge uniformemente a un proceso Y = (Ys , s [0, t])
con trayectorias continuas.
Rs
Por unicidad casi segura del lmite en probabilidad se sigue que Ys = 0 Hr dBr
casi seguramente.
Una propiedad importante de la integral estoc
astica respecto de su parametro,
que ya se ha utilizado implcitamente es su car
acter de martingala.
n 2.7. Si H es adaptado, continuo y existe M > 0 tal que E Ht2
Proposicio
M entonces H B es una martingala cuadrado integrable con trayectorias continuas.
3. La integral estoc
astica respecto del movimiento browniano
31
Rt
y que
Z t
E
Hr dBr
s
Fs = lim E( In | Fs ) = 0.
n
Pasemos ahora a la f
ormula de It
o, que nos da una clase muy grande y u
til de
ejemplos de integrales estoc
asticas. Se trata de la version estocastica del teorema
de cambio de variable.
Teorema 2.2. Sea f : R R una funci
on de clase C2 . Entonces
Z
Z t
1 t 00
0
f (Bs ) ds.
f (Bt ) = f (B0 ) +
f (Bs ) dBs +
2 0
0
La heurstica de la prueba es sencilla: para cualquier particion 0 = t0 < <
tn = t suficientemente fina, al realizar una expansion de Taylor de orden 2 se
obtiene
1
2
f (Bti ) f Bti1 f 0 Bti1 Bti Bti1 + f 00 Bti1 Bti Bti1 .
2
Al sumar sobre i se obtiene
X
2
X 1 00
f Bti1 Bti Bti1 .
f (Bt ) f (Bt0 ) =
f 0 Bti1 Bti Bti1 +
2
i
i
El primer sumando del lado derecho converge a la integral estocastica
Z t
f 0 (Bs ) dBs
0
3. La integral estoc
astica respecto del movimiento browniano
32
Puesto que f 00 es continua en [M, M ], dada > 0 existe > 0 tal que
|f (y) f 00 (x)| < si x, y [M, M ] y |y x| < .
Puesto que las trayectorias de B son uniformemente continuas, existe > 0
tal que
00
Por lo tanto, si
0 =
|ts| <
s1
0s,t1
Et = f 00 (Bt ) 1 |f 00(Bt )| R
|f (x)|. Notemos que en 0 , si s < t < s + entonces
1
f (Bt ) f (Bs ) = f 0 (Bs ) (Bt Bs ) + f 00 (Bs ) (t s)
2
i
1
1 h
2
2
+ Cs,t (Bt Bs ) + Es (Bt Bs ) (t s) .
2
2
3. La integral estoc
astica respecto del movimiento browniano
33
y
!
Z 1
X 1
00
00
f Bti1 (ti ti1 )
P
f (Bs ) ds > < .
2
0
i
Por otra parte, por definici
on de Ct vemos que
!
X 1
2
E
Ct ,t Bti Bti1 .
2 i1 i
i
Si adem
as imponemos que |ti ti1 | < /R2 entonces
!
X 1
h
i
2
Eti1 Bti Bti1 (ti ti1 ) 2
E
2
i
R2 X
2
2 (ti ti1 ) .
4 i
2
P
Cti1 ,ti Bti Bti1 > <
2
i
y
!
X 1
h
i
2
P
Et
Bti Bti1 (ti ti1 ) > .
2 i1
i
Por lo tanto, si < 1:
Z t
Z
1 t 00
0
f (Bs ) ds > 3 2 + 2.
P f (Bt ) f (B0 )
f (Bs ) dBs
2 0
0
34
35
si y s
olo si
g(t) = xef(t) .
Sugerencia: utilice integraci
on por partes para ver que gef es constante.
El caso del browniano es un tanto distinto.
Ejercicio 2.3. Pruebe que Xt = xeBt t/2 satisface la ecuacion (2). Sugerencia: Aplique la f
ormula de It
o para procesos del tipo f (t, Bt ). Note que para
obtener una conclusi
on de unicidad como la del caso de variacion finita, hace falta
una f
ormula de integraci
on por partes para integrales estocasticas.
Una manera de resolver ecuaciones diferenciales ordinarias es mediante el
metodo de Picard. Esta misma idea funciona para ecuaciones diferenciales estoc
asticas, como hizo notar It
o. Para simplificar el enunciado del teorema de
existencia y unicidad, haremos un supuesto de Lipschitz global en los coeficientes
y b de la ecuaci
on (1).
Teorema 2.3. Suponga que y b son continuas y que existen constantes K y
t 0 tal que para toda x, y R se tiene que
|(t, y) (t, x)| K |y x|
Entonces
36
es continuo, adaptado y
(2) Si X
Z t
Z t
t = x +
s dBs +
s ds.
X
s, X
b s, X
0
son indistinguibles.
entonces X y X
La prueba utilizar
a fuertemente el siguiente resultado conocido como la desigualdad (o lema) de Gronwall.
Lema 2. Sea T > 0 y g : [0, T ] [0, ) medible y acotada. Si existen
constantes A, B 0 tales que
Z t
g(t) A + B
g(s) ds para toda t [0, T ]
0
entonces
g(t) AeBt para toda t [0, T ].
Note que en particular, si A = 0 entonces g = 0.
n. Al iterar la desigualdad, vemos que
Demostracio
Z t
Z t1
Z t
g(t) A + B
A+
Bg(t2 ) dt2 dt1 = A + ABt + B
g(t2 ) (t t2 ) dt2
0
X
B n tn
g(t)
A
= AeBt .
n!
n=0
Es ilustrativo hacer el argumento de existencia y unicidad en el caso determinstico.
Prueba del Teorema 2.3 si = 0. Como veremos en la prueba del caso
general, podemos suponer que existe una constante K 0 tal que |b(t, x)| K 0 +K |x|
(aunque sea en conjuntos acotados del par
ametro temporal).
Para la existencia, sea Xt0 = x y para n 0 definimos recursivamente
Z t
n+1
Xt
=x+
b(s, Xsn ) ds.
0
37
y puesto que
1
Xt Xt0
K 0 + K |x| ds = K 00 t,
se sigue que
tn
sup Xsn+1 Xsn K 00 .
n!
st
Podemos concluir entonces que
X
n
sup Xsn+1 Xsn <
st
t = 0 para toda t.
lo cual implica, por el lema de Gronwall, que Xt X
Prueba del Teorema 2.3. Trabajaremos en el intervalo fijo [0, 1]. Notemos
que existe una constante K 0 tal que |(s, y)| K |y| + K 0 para s 1 y y R
(y an
alogamente para b). En efecto, puesto que es continua entonces K 0 =
sups1 |(s, 0)| < . La hip
otesis Lipschitz global implica que
|(s, y)| |(s, 0)| + K |y| .
Probemos primero la unicidad. Se asumir
a primero que y b son acotadas,
dos procesos continuos y adaptados que satisfacen
digamos por M . Sean X y X
la ecuaci
on (1). Sea
s .
g(t) = E sup Xs X
st
38
st
2 2
tT
Se tiene que
lim P(K ) 1.
b(t, y) M
M
bM (t, y) = b(t, y) M b(t, y) M
M
b(t, y) M
satisfacen la ecuacion
y analogamente se define a M . Puesto que en K , X y X
t casi
diferencial estoc
astica con coeficientes acotados BM y M , entonces Xt = X
seguramente en K . As:
t 1 P(K ) K 0.
P Xt 6= X
39
y por desigualdad L2 de Doob aplicada a la integral estocastica (que es una martingala) y la cota para el segundo momento de la integral estocastica
Z s
2 !
E sup
r, Xr0 dBr
4M 2 t.
st
La desigualdad (a + b) 2 a2 + b2 implica entonces que
1
0 2
E sup Xs Xs
10M 2 t.
st
Un argumento an
alogo, que adem
as utiliza la hip
otesis de Lipschitz global, muestra
que
Z t
2
2
10K 2
E sup Xsn+1 Xsn
E sup Xrn Xrn1
ds
st
rs
n
Xtn
s1
converge en L2 a
Xt = x +
Xtn Xtn1
n=1
y que adem
as
"
2 !#
X
1
P sup |Xtn Xt | > 2
E sup |Xtn Xt |
n 0.
t1
t1
k=n+1
40
41
42
43
x
Xt+s
= Xt t .
Esto se puede escribir como una propiedad de flujo de la funcion F : (t, x) 7 Xtx :
F (t + s, x) = F (t, F (s, x)) .
Algo similar ocurre en el caso estoc
astico; sin embargo, como las funciones Ft
tambien dependen del azar, debemos tambien pensar en cuestiones de medibilidad.
Prueba del Teorema 2.4. Dada una funci
on medible y acotada f : R
on, probaremos que si Ft =
R, definimos Pt f (x) = E(f (Xtx )). A continuaci
(Bs : s t) entonces
x
Fs = Pt f (Xsx ) .
(3)
E f Xt+s
Puesto que X x es adaptado a (Fs ), la ecuaci
on (3) implica que X x es un proceso
de Markov con semigrupo (Pt ).
Para probar (3), se requieren algunos preliminares. Sea Bts = Bt+s Bs .
Entonces B s es un movimiento browniano independiente de Fs . Sea por otra
x el u
parte X
nico proceso continuo y adaptado a la filtracion canonica de B s que
resuelve la ecuaci
on diferencial estoc
astica
Z t
Z t
x
x
s
sx dr.
Xt = x +
(r, Xr ) dBr +
b r, X
0
x
Fs = E( f (Ft (Xsx , )) | Fs ) = Pt f (Xsx ) .
E f Xt+s
puesto
44
Pasamos a un fen
omeno con el que se debe tener cuidado al tratar de aproximar
ya sea integrales estoc
asticas o ecuaciones diferenciales ordinarias al aproximar al
browniano por un proceso de variaci
on finita. Un ejemplo de esto sera el substituir
al browniano por la sucesi
on de procesos gaussianso lineales por pedazos como lo
hace Paul Levy. El fen
omeno que ilustraremos a continuacion se conoce con el
nombre de Wong-Zakai quienes lo introdujeron en [WZ65]. Supongamos que B n
es una sucesi
on de procesos estoc
asticos cuyas trayectorias tienen casi seguramente
variaci
on finita y B0n = 0. Entonces, por la regla de la cadena, se sigue que
Z t
n 2
(Bt ) = 2
Bsn dBsn .
0
Bsn
dBsn
Bt2
Z
6=
Bs dBs .
0
El siguiente teorema no es m
as que una elaboraci
on de esta idea.
Teorema 2.5. Sea f : R R con derivada continua y Bn una sucesi
on de
procesos con trayectorias de variaci
on finita que comienzan en cero y convergen
casi seguramente al movimiento browniano adem
as de ser casi seguramente uniformemente acotados en compactos. Entonces
Z
Z t
Z t
1 t 0
f (Bs ) ds.
lim
f (Bn (s)) Bn (ds) =
f (Bs ) dBs
n 0
2 0
0
De igual manera, tenemos la versi
on para ecuaciones diferenciales estocasticas.
Teorema 2.6. Suponga que y b no dependen de la variable temporal, que
es derivable y que tanto , b como 0 son globalmente Lipschitz. Suponga adem
as
que existe > 0 tal que . Sea Bn una sucesi
on de procesos con trayectorias de variaci
on acotada que comienzan en cero y convergen casi seguramente al
movimiento browniano uniformemente en compactos. Sea Xn la u
nica soluci
on a
la ecuacion diferencial ordinaria
Z t
Z t
Xn (t) = x +
(Xn (s)) Bn (ds) +
b(Xn (s)) ds.
0
CAPITULO 3
Integraci
on estoc
astica respecto de
semi-martingalas continuas
En el captulo anterior desarrollamos la teora de la integral estocastica respecto del movimiento browniano y estudiamos algunas de sus propiedades. Esta
integral se define de manera muy natural como lmite de sumas de Riemann y sin
embargo, presenta tanto similitudes con la integral de Lebesgue-Stieltjes (como un
teorema de continuidad) y diferencias importantes (por ejemplo en el teorema de
cambio de variable). Sin embargo propiedades como la asociatividad o la formula
de integraci
on por partes no las hemos podido analizar en su forma estocastica
pues nuestros integradores se encuentran reducidos al movimiento browniano. En
un inicio, quisieramos integrar respecto de integrales estocasticas (brownianas);
resulta ser que el espacio de integradores se puede agrandar a
un mas sin mayor
problema al de martingalas continuas. La herramienta principal sera construir
una variaci
on cuadr
atica para martingalas continuas. La existencia de la variacion
cuadr
atica se puede hacer de diversas maneras: se puede estudiar directamente,
como en [Kal02, RY99, RW00], o a traves de la descomposicion de Doob-Meyer
como en [KS91]. La u
ltima alternativa se basa en un resultado mas general y mas
difcil de demostrar. Es por esto que verificaremos la existencia de la variacion
cuadr
atica directamente.
46
sup
|s2 s1 |
s1 ,s2 t
!
X
2
=E
Mti Mti1
!
E Vt
sup
|Ms2 Ms1 |
|s1 s2 |
47
h
i
X
2
0
2
E It It
= E
Hj2 Mtj1 Mtj .
j
48
Si el m
aximo de las normas de las particiones || |0 | esta acotado por entonces
max Hj2
j:j t
max
|s2 s1 |
s1 ,s2 t
|Ms2 Ms1 | 2 .
Denotemos por C,t a la cota del lado derecho y notemos que, al ser M continua y
acotada (digamos por K), lim0 Ct 0 y Ct 4K 2 . Con estas definiciones se
obtiene la cota
h
h
i
i 1/2
1/2
0 2
0 2
0
2
E It It
E C,t Tt E C,T
E Tt
.
1/2
2
Por el teorema de convergencia acotada, vemos que E C,T
0 conforme
0. Mostraremos ahora que
h
i2
0
sup E Tt
< ,
,0
2
X
X
4
2
2
E Tt
= E
Mti Mti1 + 2
Mti Mti1
Mtj Mtj1 .
i
i<j
Por otra parte, al condicionar por Fti y utilizar la ortogonalidad de los incrementos
de una martingala vemos que
X
2
2
E2
Mti Mti1
Mtj Mtj1
i<j
X
2
2
= E2
Mti Mti1 [Mt Mti ]
i<j
2
8K E Tt
= 8K 2 E Mt2 .
Se concluye entonces que
h
i2
0
E Tt
12K 2 E Mt2 12K 4
y por lo tanto
lim
|||0 |0
h
i2
0
E It It
= 0.
49
st
st
casi seguramente por lo que para cada s t, la sucesion Isn converge casi seguramente a
X
0
Isn+1 Isn .
Is = Is +
n=0
Se cumple adem
as la desigualdad
X
sup Is Ism
sup Isn+1 Isn ,
st
nm
st
nm
50
st
st
0
+ P sup Is n Isn > /2
st
=0
puesto que
0
0
2
P sup Is n Isn > /2 E sup Is n Isn 0.
st
st
0
La demostraci
on anterior es una simplificaci
on de la encontrada en la prueba
del Teorema IV.1.3 de [RY99]. La simplificaci
on se basa en la idea de Ito de
comparar dos sumas de Riemman respecto de particiones distintas al considerar
su uni
on. Como veremos en este captulo, el teorema anterior abre la puerta hacia
una teora de la integraci
on estoc
astica para martingalas continuas. En [RW00],
tambien podemos encontrar una prueba simple de un resultado similar al teorema
anterior que es suficiente para construir la integral estocastica (cf. el Teorema
30.1 en la p
agina 53). Finalmente, la prueba de la existencia de la variacion
cuadr
atica es mucho m
as simple en el caso de trayectorias continuas que en el
caso de trayectorias c`
adl`
ag. La u
ltima se basa en la celebre descomposicion de
Doob-Meyer (propuesta por Doob y probada por Meyer en [Mey62] y [Mey63])
cuya demostraci
on inicial requera herramientas muy profundas de la teora general
de procesos estoc
asticos. El propio Meyer se lamentaba de que para poder ense
nar
c
alculo estoc
astico respecto de semimartingalas c`
adl`ag se requiere un curso de un
semestre... nada m
as para las definiciones. Cabe mencionar que recientemente
se ha publicado una prueba m
as sencilla de la descomposicion de Doob-Meyer en
[BSV12]. Tal vez esta prueba pueda reducir el tiempo necesario para un curso
de c
alculo estoc
astico respecto de semimartingalas c`adl`ag. Mientras eso se decide,
seguiremos con la presentaci
on del caso de las (semi)martingalas continuas, que es
al que m
as aplicaciones se le han dado.
El Teorema 3.1 podra parecer limitado pues, al imponer que la martingala
sea acotada, deja fuera incluso al movimiento browniano. Una sencilla tecnica,
llamada de localizaci
on, nos permite extender el teorema anterior a las llamadas
martingalas locales y a las semimartingalas. Recordemos que si T es un tiempo
aleatorio y X es un proceso estoc
astico entonces X T denota al proceso X detenido
T
en T , dado por Xt = XtT .
n 3.2. Si M es una martingala continua y acotada y T es un
Proposicio
(Ft )-tiempo de paro entonces hM T i = hM iT .
51
52
T S
X
S
T
S
T
=
P t [Sn Tn , Sn+1 Tn+1 ), Bt n+1 n+1 6= At n+1 n+1
n
= 0.
Finalmente, sea n una sucesi
on de particiones sin punto de acumulacion
cuyo paso tiende a cero. Sea Tn , n 1 una sucesion creciente de tiempos de
paro que crece a infinito y tal que cada Tn reduce a M . Sea ademas Sn =
inf {t 0 : hM i n}. Consideremos a > 0 y n tal que
P(Sn Tn t) < .
Sea adem
as m0 tal que si m m0 entonces
P sup T m M Sn Tn hM Sn Tn i > .
st
Entonces
P sup T m hM i >
st
m
+ P sup T
(M ) hM i > , t Sn Tn
st
2.
53
n. Si es una partici
Demostracio
on sin puntos de acumulacion entonces
X
2
Tt =
Xti t Xti1 t
X
2
=
Mti Mti1 t
+2
X
Mti t Mti1 t Ati t Ati1 t
X
2
+
Ati t Ati1 t .
s1 ,s2 t
donde el lado derecho converge a cero uniformemente en compactos casi seguramente conforme 0 gracias a la continuidad de las trayectorias de M .
Ahora pasaremos a la construcci
on de la covariacion entre dos martingalas
2
locales continuas. Para esto, recordemos la f
ormula de polarizaci
on (a + b)
2
(a b) = 4ab. Sean M y N dos martingalas locales continuas y definamos la
covariaci
on entre M y N , denotada hM, N i por medio de la formula
hM, N i =
hM + N i hM N i
.
4
54
2. La integral estoc
astica respecto de martingalas continuas cuadrado
integrables
Pasemos ahora al estudio de una clase intermedia entre las martingalas continuas y acotadas y las martingalas locales continuas. Esta clase sera fundamental
para la construcci
on de la integral estoc
astica. Consideremos al conjunto H2 que
consta de las martingalas continuas M acotadas en L2 , esto es, tales que
sup E Mt2 < .
t
55
Hay dos maneras de construir la integral estocastica: la manera directa mediante un argumento de densidad y la manera abstracta basada en el teorema de
representaci
on (de funcionales lineales continuas en un espacio de Hilbert) de Riesz.
Para ambas requerimos las desigualdades de Kunita-Watanabe que introducimos
a continuaci
on.
Teorema 3.2 (Desigualdades de Kunita-Watanabe, [KW67]). Sean M y N
dos martingalas locales continuas y H y K dos procesos medibles. Entonces
Z
Z
Z
|Ks Hs | d |hM, N is |
Hs2 dhM is
Ks2 dhN is .
0
n. Utilicemos la notaci
Demostracio
on hM, N its = hM, N it hM, N is para
s t.
Notemos primero que casi seguramente, para cualquier pareja de racionales
no-negativos s, t con s < t se tiene que
2
hM, N its hM its hN its .
En efecto, basta utilizar la desigualdad de Cauchy para verificar que
hX
i2 hX
2 i hX
2 i
Mti Mti1 Nti Nti1
Mti Mti1
Nti Nti1
y tomar el lmite sobre particiones en [s, t] cuya norma tiende a cero.
Por lo anterior, vemos que
Z t
p
|dhM, N ir | hM its hN its .
s
56
sup
hX
= hM its
hM ittii1
1/2
i2 hX
hN its
1/2
hN ittii1
i2
Generalizaremos el p
arrafo anterior de la siguiente manera: para todo A boreliano de R+ se tiene la desigualdad
Z
1/2 Z
1/2
Z
|dhM, N i|
dhM i
dhN i
.
A
En efecto, si A es la uni
on ajena finita de los intervalos (si , ti ], entonces se deduce
de la desigualdad del p
arrafo anterior y la desigualdad de Cauchy que
Z
X Z ti
|dhM, N i| =
|dhM, N i|
A
si
Xq
hM itsii hN itsii
Z
1/2 Z
1/2
dhM i
dhN i
.
La clase de uni
on ajena finita de intervalos de la forma (s, t] es un algebra que
genera a BR+ y hemos mostrado que est
a contenida dentro de la clase
(
Z
Z
)
Z
1/2
M =
A BR+ :
|dhM, N i|
A
1/2
dhM i
A
dhN i
57
del p
arrafo anterior y la de Cauchy obtenemos
Z
Z
X
i i
|dhM, N i|
Hr Kr |dhM, N ir | =
Ai
2i
Ai
#1/2 "
Z
|dhM i|
Ai
2i
Hr |dhM ir |
#1/2
|dhN i|
Ai
1/2 Z
Z
=
|dhM i|
Ai
1/2
|dhM i|
i i
"
1/2 Z
Z
1/2
Kr |dhN ir |
58
Por lo tanto hM i L1 ,
2
E(hM i ) = E M
y
Z
2
E
Hr dhM ir C 2 E(hM i ) < ,
por lo que H L2 (M ).
n 3.4. Si M H2 entonces E es denso en L2 (M ).
Proposicio
n. Recordemos que L2 (M ) es un espacio de Hilbert, por lo que
Demostracio
para probar la densidad de E basta probar que si K L2 (M ) es ortogonal a E
entonces H = 0.
Sea
Z t
Xt =
Ks dhM is .
0
n. Sea M H2 . Se define la integral estoc
Definicio
astica
Pn elemental
respecto de M como la asignaci
on de E L2 (M ) en H2 que a H = i=1 i 1(ti1 ,ti ]
le asigna la martingala continua H M dada por
(H M )t =
n
X
i Mtti Mtti1 .
i=1
59
= 0.
De hecho, podemos calcular exctamente la norma de H M en H2 : notemos
que, por ortogonalidad de los incrementos de las martingalas cuadrado integrables
2
kH M k2H2 = E (H M )
"
#2
n
X
= E
i Mti Mti1
i=1
=E
n
X
!
2i
Mti Mti1
2
i=1
Al utilizar aditividad de la esperenza, podemos calcular cada sumando al condicionar por Fti1 , notando que
2
E Mti Mti1 Fti1 = E Mt2i Mt2i1 Fti1
= E hM iti hM iti1 Fti1 .
Se concluye que
kH
M k2H2
=E
n
X
2i
!
Z
hM iti hM iti1
=E
Hs dhM is
= kHkL2(M ) .
i=1
60
Al utilizar el car
acter martingala de M se obtiene:
(
0
E Ntj Nti l Mtl Mtl1 Fti =
E Ntj l Mtl Mtl1 Fti
li
.
i<lj
As:
j
X
E Ntj H Mtj Nti H Mti Fti =
E Ntj l Mtl Mtl1 Fti .
l=i+1
j
X
F ti =
E( l hM, N itl | Fti )
l=i+1
= E H hM, N itj H hM, N iti Fti .
Teorema 3.3. La asignaci
on H 7 H M se extiende a una isometra de
L2 (M ) en el subespacio de los elementos de H2 que comienzan en cero. Adem
as
H M es u
nico elemento de H2 nulo en cero tal que para toda N H2
hH M, N i = H hM, N i.
2
61
h(H M ) , N i = hH M, N iT = H hM, N iT = H hM T , N i,
T
3. La integral estoc
astica respecto de semimartingalas
62
[0,)
2.2. Construcci
on de la integral estoc
astica mediante el teorema de
representaci
on de Riesz.
3. La integral estoc
astica respecto de semimartingalas
En esta secci
on extenderemos en dos etapas el resultado de existencia de la integral estoc
astica al caso de las semimartingalas (pasando primero por martingalas
locales) mediante el metodo de localizaci
on.
Sea M una martingala local continua y
Tn = inf {t 0 : |Mt | n
o hM it n} .
Tn
Notemos que M H2 .
Comencemos con la definici
on del espacio de integrandos.
n. El espacio Lloc
Definicio
asticos
2 (M ) se define como la clase de procesos estoc
progresivamente medibles K para los cuales existe una sucesion de tiempos de paro
(Sn ) tal que Sn Sn+1 , Sn casi seguramente y
!
Z Sn
2
E
Ks dhM is < .
0
3. La integral estoc
astica respecto de semimartingalas
63
Sn
3. La integral estoc
astica respecto de semimartingalas
64
en probabilidad.
n. Las primeras 3 propiedades son validas para ambas inteDemostracio
grales por lo que lo son para la integral estoc
astica respecto de semimartingalas.
Supongamos que Hn H uniformemente en compactos en probabilidad y que
|Hn | K. Sea
Sn = inf {s 0 : Ks n/2
o hM is n o |Ms | n} t.
Notemos que limn Sn = t. Fijemos > 0 y sea n tal que
P(Sn < t)
y notemos que |Hm (s) H(s)| n para toda m si s Sn . Puesto que M Sn H2
S
y (H Hm ) n L2 M Sn vemos que
!
Z Sn
2
2
E sup |(H M )s (Hm M )s |
4E
|H Hm | s dhM is m 0
sSn
Puesto que
P sup |(H M )s (Hm M )s |
st
P(Snm
1
< t) + 2 E
!
sup |(H M )s (Hm M )s |
m
sSn
4. La f
ormula de It
o
65
vemos que
lim sup P sup |(H M )s (Hm M )s |
m
st
que est
a acotada por H.
4. La f
ormula de It
o
En esta secci
on probaremos una versi
on estoc
astica de la regla de la cadena
para la integral de Riemann-Stieltjes. De hecho, ya hemos probado una version para
el movimiento browniano, misma que generalizaremos a martingalas continuas. La
demostraci
on que daremos no ser
a una generalizacion de la que ya vimos para
el movimiento browniano sino que, como en el caso de la integral de RiemannStieltjes, nos basaremos en (una versi
on estoc
astica de) la formula de integracion
por partes.
Teorema 3.6 (F
ormula de integraci
on por partes). Sean X y Y semimartingalas continuas. Entonces
XY = X0 Y0 + X Y + Y X + hX, Y i.
2
En particular, X = 2X X + hXi.
Si M y N son dos martingalas locales continuas, ya sabamos que M N hM, N i
es una martingala local continua. Lo que nos da la formula de integracion por
partes es una representaci
on explcita de dicha martingala en terminos de integrales
estoc
asticas.
n. Se har
Demostracio
a por aproximaci
on. Sea n una sucesion de particiones de [0, t] cuyo paso tiende a cero. Puesto que
X
Xt Yt X0 Y0 =
Xti Yti Xti1 Yti1
n
Yti1 Xti Xti1 + Xti1 Yti Yti1
+ Xti Xti1
Yti Yti1 ,
4. La f
ormula de It
o
66
Si X = X 1 , . . . , X d es un proceso estoc
astico con valores en Rd tal que cada
componente es una semimartingala continua, decimos que X es una semimartingala vectorial. Si F : Rd R es dos veces diferenciable y ei Re denota al
i-esimo vector de la base can
onica que tiene todas las entradas iguales a cero salvo
la i-esima igual a 1, denotaremos por Di F a la derivada de F en la direccion ei .
La notaci
on Di,j F se utilizar
a para Dj (Di F ), misma que se abreviara como Di2
cuando i = j. Cuando d = 1, se utiliza la notaci
on D y D2 .
Teorema 3.7 (F
ormula de It
o). Sea X = X 1 , . . . , X d una semimartingala
vectorial y F : Rd R de clase C2 . Entonces el proceso F (X) = (F (Xt ))t0 es
una semimartingala real con descomposici
on
F (X) = F (X0 ) +
d
X
i=1
Di F (Xs ) X i +
d
1 X
Di,j F (X) hX i , X j i.
2 i,j=1
Esta descomposici
on de F (X) se conoce con el nombre de formula de Ito y
usualmente se escribe de la siguiente manera:
d Z
d Z t
X
1 X t F
F
i
(Xs ) dXs +
(Xs ) dhX i , X j is .
F (Xt ) = F (X0 ) +
x
2
x
x
i
i
j
0
0
i,j=1
i=1
n. Haremos primero el caso d = 1. Primero notamos que si la
Demostracio
f
ormula de It
o se satisface para F y , R entonces se satisface para F + y
para la funci
on G : R R dada por
G(x) = xF (x)
Supongamos que
1
F (X) = F (X0 ) + DF (X) X + D2 F (X) hXi.
2
La f
ormula de integraci
on por partes nos dice que
XF (X) = X0 F (X0 ) + X F (X) + F (X) X + hX, F (X)i.
Al utilizar la descomposici
on que hemos supuesto para F (X), vemos que
1
G(X) = X0 F (X0 ) + XDF (X) X + XD2 F (X) hXi + F (X) X + hX, F (X)i
2
1
= G(X0 ) + DG(X) X + D2 G(X) hXi.
2
Por lo tanto, la f
ormula de It
o se satisface para G y entonces la formula de Ito se satisface para polinomios. Sea I R un intervalo compacto y T = inf {t 0 : Xt 6 I}.
Entonces TI es un tiempo de paro y X I es una semimartingala continua que permanece en I. Puesto que F C2 , existe una sucesion de polinomios pk , k 1
tal que D2 pk , Dpk y pk convergen uniformemente en I conforme k hacia
D2 F, DF y F . Al utilizar el teorema de convergencia acotada para la integral de
4. La f
ormula de It
o
67
CAPITULO 4
Se tiene la f
ormula explcita
1
E (M )t = eMt 2 hM it .
1
2. El teorema de caracterizaci
on de Levy
69
Entonces la f
ormula de integraci
on por partes nos permite deducir que
Z t
1
1
Xt E (M )t = 1 +
Xs E (M )s (dhM is Ms )
0
Z t
Z t
1
1
+
Xs E (M )t dMs
Xs E (M )t dhM is
0
= 1.
Por lo tanto, concluimos que X = E (M ).
2. El teorema de caracterizaci
on de L
evy
En esta secci
on haremos una primera aplicaci
on de la formula de Ito a los
procesos estoc
asticos. Recordemos que un proceso de Levy es un proceso con
trayectorias c`
adl`
ag que comienza en cero y que tiene incrementos independientes
y estacionarios. Como en el caso browniano, se prueba que si el proceso de Levy
est
a definido en un espacio de probabilidad completo entonces su filtracion completada satisface las hip
otesis habituales. El problema que nos plantearemos es el
de caracterizar a todos los procesos de Levy con trayectorias continuas. Sea X un
tal proceso de Levy. Ahora veremos que entonces Xt Lp para toda p 1 y que
por lo tanto E(Xt ) = t donde = E(X1 ), que Var(Mt ) = t 2 donde 2 0 y
que por lo tanto el proceso M dado por Mt = Xt t es una martingala continua
con variaci
on cuadr
atica hM it = 2 t. El teorema de caracterizacion de Levy, que
enunciaremos a continuaci
on nos permite entonces verificar que si > 0 entonces
M/ es un movimiento browniano. As, todos los procesos de Levy con trayectorias continuas tienen la forma Bt + t donde B es un movimiento browniano.
Probemos ahora que Xt Lp para toda p 1. En efecto, sean
T0 = t y
Entonces T1 > 0 casi seguramente pues X tiene trayectorias continuas. Por otra
parte, la propiedad de Markov fuerte de X nos dice que las variables T1 T0 , T2
T1 , . . . son independientes e identicamente distribuidas. As, si definimos
= E eT1 ,
se tiene que [0, 1) (pues = 1 dira que T1 = 0 casi seguramente) y
E eTn = n .
Por otra parte, notemos que por definici
on X Tn n y por lo tanto
P(|Xt | n) P(Tn t) et n .
Finalmente, puesto que para p 1,
Z
X
p1 t n
p
E(|Xt | ) =
pxp1 P(|Xt | x)
p (n + 1)
e < .
0
n0
2. El teorema de caracterizaci
on de Levy
70
t/2
que es una martingala local compleja. Es decir, su parte real y su parte imaginaria
son martingalas locales como se puede verificar facilmente. Por tener trayectorias
acotadas en compactos, vemos que E (iuM ) es una martingala compleja (y no solo
local). Por lo tanto, se sigue que para s < t:
2
2
E eiuMt +u t/2 Fs = eiuMs +u s/2 ,
por lo cual para todo A Fs
2
E 1A eiu(Mt Ms ) = E(1A ) eu (ts)/2 .
Se sigue que si P(A) > 0, entonces bajo la medida P( | A), Mt Ms tiene la misma
funci
on caracterstica que una variable gaussiana centrada de varianza t s y por
lo tanto la misma distribuci
on. As, para todo C BR :
P(A, Mt Ms C) = P(A) P(Bts C) .
Notemos que la f
ormula anterior sigue siendo v
alida si P(A) = 0. Se concluye que
Mt Ms es independiente de Fs y que M es un (Ft )-movimiento browniano.
71
>0
Puesto que C es continuo por la derecha, si A Ft+ para toda > 0 entonces
[
A {Ct < s} =
A Ct+1/n < s .
n=1
Por continuidad por la derecha de (Fs ), se sigue que A {Ct s} Fs por lo que
A Ft . Se concluye que (Ft ) es continua por la derecha.
Ahora veremos c
omo se transforman las martingalas locales continuas y las
integrales estoc
asticas ante cambios de tiempo. Para esto, notemos que una martingala local continua M no necesariamente se convierte en otra ante cambios de
tiempo. Por ejemplo, si Ct = inf {s 0 : Ms t} (donde M es una martingala
local continua que oscila como el movimiento browniano, para que Ct < casi
seguramente) vemos que MCt = t. Este u
ltimo proceso claramente no es una martingala. Es m
as, puesto que los cambios de tiempo en general son discontinuos,
vemos que el proceso M C podra serlo tambien. La siguiente condicion tecnica,
que evita estas dos situaciones, resulta ser suficiente para que una martingala local
continua se convierta en otra ante cambios de tiempo.
72
hM i. Si H es un elemento de L2 (M ) entonces H L2 (M ) y
M
=H
\
H
M.
es un proceso
n. Puesto que M es C-continua se sigue que M
Demostracio
estoc
astico continuo y adaptado. Si T es un (Ft )-tiempo de paro que acota a M ,
definamos a
T = inf {t 0 : Ct > T } .
Puesto que M T es una martingala local continua y acotada, se sigue que es una
martingala continua y acotada por lo que
E MCt T Fs = MCs T .
Puesto que M es C-continua se sigue que M es constante en el intervalo [CT , CT ]
que contiene a [T, CT ]. Vemos que entonces
MCs T = MCsT .
T es una martingala acotada y que por lo tanto M
es una
Se concluye que M
martingala local continua.
Si N y M son martingalas locales continuas y C-continuas entonces M N es
C-continuo. Como los intervalos de constancia de M coinciden con los de hM i,
vemos que hM i es C-continua. Por el mismo argumento hN i es C-continua y por la
f
ormula de polarizaci
on, hM, N i es C-continua. As, la martingala local continua
M N hM, N i es C-continua. Por la conclusi
on del parrafo anterior, vemos que
\
\
N
hM,
,N
i = hM,
M
N i es una martingala local continua. Se concluye que hM
N i.
2
(M
).
Puesto
que
hH
M
i
=
H
hM
i,
vemos
que
Finalmente, sea H Lloc
2
H M es constante en cualquier intervalo en el que hM i lo sea. Por lo tanto,
\
H M es C-continua. Concluimos que H
M es una Ft -martingala local continua
con variaci
on cuadr
atica H\
hM i. Si (Tn ) es una sucesion de tiempos de paro que
crece casi seguramente a y tales que
!
Z Tn
E
H 2 dhM i < ,
0
73
Como CT1
es un tiempo de paro respecto de (Ft ) (pues esta filtracion es continua
n
por la derecha y
1
CTn < s = {Tn < Cs } FCs = Fs )
Lloc (M
).
y CT1
puesto que Ct < para toda t 0, concluimos que H
2
n
Por otra parte, vemos que
M
i = H
hH
i = H
hH \
\
\
hH
M, H
M, M
M, M i
di = H
di.
H\
H
hM
2 hM
=H
hM i = H
M
es una (Ft )-martingala local continua de
\
Vemos entonces que H
M H
M
son indistinguibles.
\
variaci
on cuadr
atica nula y se concluye que H
M y H
Teorema 4.4 (Dambis-Dubins-Schwarz, [DS65, Dam65]). Sea M una martingala local continua nula en cero y tal que hM i = . Entonces existe un
movimiento browniano tal que Mt = hM it .
n. Puesto que hM i = , su inverso continuo por la derecha
Demostracio
hM i1 es finito casi-seguramente. Ya que M y hM i tienen los mismos intervalos de
constancia y que [hM i1
t , hM it ] es un intervalo de constancia de hM
i,se sigue que
1
M es hM i -continua. Concluimos del Teorema 4.3 que es una Ft -martingala
local continua de variaci
on cuadr
atica hM i hM i1 . Puesto que hM i es continuo,
1
entonces hM i hM i y por lo tanto es un movimiento browniano como afirma
el Teorema de Caracterizaci
on de Levy. Adem
as, se afirma que M = hM i. En
efecto, notemos que hM i = M hM i1 hM i. Por otra parte, como [t, hM i1
hM it ]
es un intervalo de constancia para hM i (por ser no-decreciente), tambien lo es para
M y por lo tanto:
Mt = MhM i1 = hM it .
hM it
El teorema anterior es la clave para ver que ciertos procesos de interes son
soluciones a ecuaciones diferenciales estoc
asticas. (Posteriormente, analizaremos a
profundidad la ecuaci
on diferencial estoc
astica satisfecha por la norma al cuadrado
del movimiento browniano en dimensi
on .) Tambien hay una version del teorema
anterior que no utiliza la hip
otesis de que la variacion cuadratica sea infinita. Sin
embargo, el movimiento browniano se encuentra entonces en una extension de
nuestro espacio de probabilidad. Adem
as, hay una version multidimensional del
teorema anterior conocido como Teorema de Knight.
Teorema 4.5 ([Kni71]). Sean M 1 , . . . , M n martingalas locales continuas tales
que hM i i = y hM i , M j i = 0. Entonces existe un movimiento browniano ndimensional = 1 , . . . , n tal que M i = i hM i i1 .
Para comprender la complicaci
on de este teorema sobre el de Dambis-DubinsSchwarz, notemos que si para cada i definimos a i = M i hM i i1 y a Gti =
74
FhM i i1 , entonces i es un Gti -movimiento browniano. Lo que no queda claro es
t
si hay alguna filtraci
on (Gt ) para la cual sea un (Gt )-movimiento browniano o si al
menos 1 , . . . , n son independientes. Sin embargo, hay un caso mas sencillo en el
que podemos dar una prueba similar a la del teorema de Dambis-Dubins-Schwarz:
Corolario 5 (Kunita-Watanabe, [KW67]). Sean M 1 , . . . , M n martingalas
locales continuas tales que hM i i = , hM i , M j i = 0 y hM i i = hM j i. Entonces
existe un movimiento browniano n-dimensional = 1 , . . . , n tal que M i =
i hM i i1 .
Aunque la hip
otesis parezca demasiado restrictiva, este teorema es u
til pues
ayuda a estudiar la liga entre el movimiento browniano en el plano y el analisis
complejo.
Prueba del teorema de Knight (Teorema 4.5). Analizaremos la prueba
de [CY80].
Definimos a
i = M hM i i1 ;
sabemos por el teorema DDS que cada i es un movimiento browniano. Ahora
veremos que son independientes. Para esto consideraremos una particion 0 = t0 <
< tm y mostraremos que
P P
Pn Pm
j
m
k
k
2
i n
21
k
(tj tj1 )
(
)
k=1
j=1 k tj tj1
j
k=1
j=1
e
=E e
.
Esto muestra que 1 , . . . , n son independientes.
Para realizar el c
alculo de la esperanza denotemos por Ak a hM k i y consideramos a
m
X
fk (t) =
kj 1(tj1 ,tj ] ,
j=1
as como a
N =E i
n
X
!
f k Ak M k
k=1
al utilizar la hip
otesis sobre la covariaci
on de M i con M j , vemos que
Nt = e i
Pn
Rt
k=1
k
1
fk(Ak
s ) dMs 2
Rt
0
k
fk(Ak
s ) dhM is
fk Aks
75
dhM is =
fk (s) ds.
0
Se concluye que
N = e
Pn
k=1
Pm
j=1
jk tk tk
j
j1
Pn Pm
k 2
+ 12
k=1
j=1 (j ) (tj tj1 )
d
X
xi + Bti
2
i=1
Al aplicar la f
ormula de It
o con la funci
on f (~y ) = k~x + ~y k2 a la semimartingala
vectorial B, vemos que
d Z t
X
Zt = f (Bt ) = x +
2 xi + Bsi dBsi + dt
0
i=1
2
d Z
X
i=1
2 xi + Bsi dBsi .
76
lo hace. Sean
0<r<x<R
y definamos a Tr,R como la primera vez que B sale
del anillo ~x : r < k~xk2 < R . En otras palabras, definamos a
Tr = inf {t 0 : Zt r} ,
T R = inf {t 0 : Zt R}
Tr,R = Rr T R .
2
Notemos que Tr,R < casi seguramente puesto que las variables
kBn+1 Bn k
2
son independientes e identicamente distribuidas y P kB1 k > 2R > 0. Por BorelCantelli, casi seguramente existe n tal que kBn+1 Bn k2 > 2R y para dicha n
forzosamente se sigue que
Tr,R n.
Puesto que h Z Tr,R es una martingala local continua acotada, es una martingala uniformemente integrable y por lo tanto
h(x) = E(h(Z0 )) = E h ZTr,R = h(r) p+h(R) (1 p) donde p = P(Tr < TR ) .
Se sigue que
P(Tr < TR ) =
1/2 1/2
R
x
R1/2 r1/2
6= 2
log R/x
=2
log R/r
77
78
para Z en la ecuaci
on diferencial ordinaria
Zt = x + BR t 4Zs ds + t,
0
Rt
ecuaci
on diferencial estoc
astica respecto del movimiento browniano = 1/2 Z B.
Este metodo no nos permite fijar al browniano desde el inicio, por lo que solo
produce soluciones debiles.
n. Sea B un movimiento browniano. Consideremos, para x 0
Demostracio
y > 0 a la ecuaci
on diferencial ordinaria
(5)
Zt = x + B4 R t Zs ds + t,
0
79
x + 4KCj +
.
n n
n n
j<k
j<k
x + 4KCsn t ds.
[x + BCs + s] ds.
0
As, vemos que C es no decreciente y derivable, por lo que su derivada es nonegativa, podemos omitir los valores absolutos y concluir que C satisface (5). Por
80
La derivada de C, digamos Z, es la u
nica soluci
on a (5). Ademas, puesto que
un movimiento
C es estrictamente creciente, entonces Z es no-negativo. Sea B
browniano independiente de B y consideremos al proceso
1Z6=0
= B 4C + 1Z=0 B.
2 Z
Entonces
1
hi = 1Z6=0
4C + 1Z=0 Id = Id
4Z
y por el teorema de caracterizaci
on de Levy es un movimiento browniano.
Adem
as, por definici
on, tenemos que
Z = x + 2 Z + Id,
por lo que Z satisface E(x, ) y por lo tanto, hay existencia debil para E(x, ).
Para mostrar unicidad debil para E(x, ), sea Z una solucion a dicha ecuacion
conducida por el browniano :
Z t p
Zt = x +
2 Zs ds + t.
0
Rt
B 1 = B 2 vemos que Z 1 = Z 2 .
81
a I:
n
o
x0 = sup x x1 : Ix Ix .
Puesto que C es continuamente diferenciable y estrictamente creciente, lo mismo
le pasa a I e
Z y
1
Iy =
ds.
x
+
B
+ Is
4s
0
Debe de existir z [x0 , x1 ] tal que Iz0 e Iz0 existen y Iz0 < Iz0 . Para este valor de z
tenemos que
1
1
Iz = x + B4z .
x + B4z = 0 Iz >
Iz
Iz
Por lo tanto I = I y C = C.
82
83
sea una martingala local compleja. Sin embargo, notemos que si utilizamos la
definici
on de producto complejo, entonces
X
2
hZi = P lim
Zti Zti1 .
||0
ti
84
n. Podemos utilizar la f
Demostracio
ormula de Ito a f (B) para escribir
f (B) = f (B0 ) + Df (B) B,
puesto que
D2 f (B) hBi = 0.
Ejercicio 4.2. Probar la f
ormula anterior al utilizar la definicion de integral
estoc
astica respecto de una martingala local compleja y la formula de Ito en el caso
real. Sugerencia: Las ecuaciones de Cauchy-Riemann seran u
tiles.
Intuitivamente, dicha f
ormula debe valerse al utilizar Taylor a orden 2 como
en el caso del movimiento browniano y utilizando el hecho de que la variacion
cuadr
atica del browniano complejo se anula. Ahora, puesto que hDf (B) Bi =
2
Df (B) hBi = 0, vemos que f (B) es una martingala local conforme.
Para aplicar el teorema DDS y construir al movimiento browniano , primero
mostraremos que la variaci
on cuadr
atica de Re f (B) tiende a infinito en infinito.
Notemos que
hRe f (B)i = kDf (B) k2 Id .
Puesto que Df no es constante, existe z C y r > 0 tal que Df no se anula en
Br (z); sea > 0 el mnimo de kDf k2 en dicho compacto. Vemos entonces que
Z
Z
2
kDf (Bs ) k ds
1Bs Br(z) ds.
0
y
T2n+2 = inf {t T2n+1 : kBt zk r} .
Hemos visto que el movimiento browniano no es acotado casi seguramente. Por
lo tanto, T0 < y T2n+1 < si T2n < (al utilizar la propiedad de Markov
fuerte). Por la recurrencia en el sentido de las vecindades hemos visto que si
T2n < entonces T2n+1 < . Por lo tanto Tn < para toda n casi seguramente.
La propiedad de Markov fuerte del movimiento browniano y su invarianza ante
rotaciones nos dice que las variables BTn z son uniformes en {k
z zk = r/2}
para n par y en {k
z zk = r} para n impar. Por la propiedad de Markov fuerte
de nuevo, vemos que las variables
Z T2n+2
1rkBt zkR dt
T2n+1
85
1kBt zkr =
0
casi seguramente.
Podemos entonces utilizar el teorema de Kunita-Watanabe para deducir que
existe un movimiento browniano tal que
f (B) = f (0) + hRe f (B)i.
86
g(Bs ) ds
0
para toda x D.
R
n. Sea Mt = u BtS + 0tS g(Bs ) ds. Al utilizar la formula de
Demostracio
It
o, vemos que
Z
Z tS
X Z tS
1 tS
Mt = u(x) +
Di u(Bs ) dBsi +
u(Bs ) ds +
g(Bs ) ds
2 0
0
0
i
X Z tS
= u(x) +
Di u(Bs ) dBsi ,
i
donde la u
ltima igualdad se deduce pues u satisface la ecuacion de Poisson.
As, M es una martingala local. Puesto que u es continua y D es acotado, se
sigue que u es acotada. Por lo tanto M es una martingala acotada. Ademas, al ser
D acotado, se sigue que S < casi seguramente y por lo tanto
Z S
Z S
Mt u(BS ) +
g(Bs ) ds = f (BS ) +
g(Bs ) ds,
0
87
!
g(Bs ) ds .
88
(B(x))
7. La f
ormula de Feynman-Kac
89
es la u
nica soluci
on al problema de Dirichlet para la ecuaci
on de Laplace en D con
condici
on a la frontera f .
Por supuesto, es necesario un criterio para la regularidad de la frontera. Sin
embargo, dado lo que conocemos sobre el movimiento browniano no es demasiado
difcil probar lo siguiente:
si x (D) es tal que existen y Rd \ {0},
r >0 y
d
(0, ) tal que z R : |(z x) y| kz xkkyk cos() , kzk r Rd \ D
entonces z es regular. La u
ltima condici
on es la llamada condici
on de cono de
Zaremba.
7. La f
ormula de Feynman-Kac
La f
ormula de Feynman-Kac es introducida por Kac en [Kac49] para calcular
la distribuci
on Ft de la variable aleatoria
Z t
At =
v(Bs ) ds
0
entonces
Z
z(s, ) =
(x, s, ) dx
7. La f
ormula de Feynman-Kac
90
lim (x, s, ) = 0,
D1 u(t r, Br ) dr +
0
1
2
u(t r, Br ) dr,
0
7. La f
ormula de Feynman-Kac
91
max
kxkM
tT,kxkM
v(t , x ) 0.
(pues supusimos que f es acotada) y al tomar el lmite conforme M , concluimos que u es acotada.
Sea (0, t). Puesto que u es acotada y satisface la ecuacion de calor entonces
u(s, Bts ) es una martingala en [0, t ] y no s
olo una martingala local. Por lo
tanto
Ex (u(, Bt )) = Ex (u(t, B0 )) = u(t, x) .
7. La f
ormula de Feynman-Kac
92
12 u = u
u(0, x) = f (x)
u
t
En un caso m
as general, consideremos a
Rt
u(t, x) = Ex f (Bt ) e 0 v(Bs ) ds .
La interpretaci
on es que consideramos la esperanza de un Browniano matado a
tasa v(x) cuando se encuentra en el estado x. Si f es continua y acotada y v es
no-negativa entonces u es continua y acotada. Al utilizar la propiedad de Markov
vemos que
Rt
Rs
Ex f (Bt ) e 0 v(Bs ) ds Fs = e 0 v(Br ) dr u(t s, Bs )
7. La f
ormula de Feynman-Kac
93
para s t. Definamos
t = e
Rt
0
v(Bs ) ds
Denotaremos a la anterior esperanza por F (x) (que por supuesto depende tambien
de y ) y sean
Z t
As
s = e
y St =
es s ds,
0
por lo que
F (x) = Ex (S ) .
Ahora entontraremos una ecuaci
on diferencial satisfecha por F . En efecto, por la
propiedad de Markov aplicada al tiempo t, vemos que
Ex ( S | Ft ) = St + et t F (Bt ) ,
7. La f
ormula de Feynman-Kac
94
por lo que el proceso del lado derecho es una martingala. Supongamos que F es
de clase C2 . Al aplicar la f
ormula de It
o, vemos que
dSt + det t F (Bt )
= et t dt + F (Bt ) et t 1Bt >0 et t dt
1
+ et t F 0 (Bt ) dBt + F 00 (Bt ) dt .
2
As, es natural buscar a F entre las soluciones a
1 00
F (x) + 1 = F (x) ( + v(x)) .
2
Kac trata el caso particular v(x) = x2 . Sin embargo, podemos hacer algunas
consideraciones generales: primero, existe a lo m
as una solucion acotada F a la
ecuaci
on anterior. En efecto, si F es una soluci
on acotada entonces
St + et t F (Bt )
es una martingala acotada y por lo tanto
Ex (S ) = F (x) .
Por otra parte, si v es adem
as Lipschitz continua y con valores entre 0 y 1, entonces
adem
as existe una soluci
on acotada. Utilizaremos el siguiente argumento, puesto
que
1
F F 00 + 1 ( + ) F
2
entonces se sigue que si F (0) > 0 y F 0 (0) > 0 entonces
F 0 (0)
F 0 (0)
+ e x F (x)
F (0)
2
2
"
#
F 0 (0)
F 0 (0)
F (0) p
+p
e (+)x .
2 ( + )
2 ( + )
As, F ser
a acotada en (, 0). Para construir soluciones acotadas en (0, )
s
olamente notamos que si F (x) = F (x) entonces F (x) satisface la misma ecuacion
diferencial salvo que F pero
F (0) = F (0) y F 0 (0) = F (0) .
Finalmente, podemos pegar dos soluciones F y G, la primera acotada en (, 0)
y la segunda en (0, ) siempre y cuando se satisfagan las relaciones
F (0) = G(0) > 0, F 0 (0) = G0 (0) > 0.
En este caso, la soluci
on resultante ser
a acotada y de clase C2 pues v es continua.
Cuando v = 1(0,) , las soluciones a la ecuaci
on
1 00
F (x) + 1 = F (x) ( + 1x>0 )
2
7. La f
ormula de Feynman-Kac
95
(
Aex 2 + 1
x<0
F (x) =
.
1
x 2(+)
+ + x > 0
Be
Si queremos que dicha funci
on sea de clase C1 necesitamos que se cumpla el sistema
de ecuaciones
(
1
A + 1 = B + +
p
2A = 2 ( + )B.
Vemos que entonces
1
.
F (0) =
+
Por lo tanto:
Z
E
1
.
etAt dt =
+
0
Por otra parte, se puede comprobar directamente que
Z
Z t
1
e
t
p
=
e
,
+
0
0 (t )
por lo que se deduce que At /t tiene distribuci
on Beta de parametros 1/2 y 1/2.
Sin embargo falta ver por que Ex (S ) = F (0). Esto se deduce por aproximacion:
sea vn una sucesi
on de funciones Lipschitz continuas con valores en [0, 1] y que
decrecen a 1[0,) . Entonces
Z
Z
Rs
Rs
Ex
es 0 vn(Br ) dr Ex
es 0 1Br 0 dr
0
conforme n . Sea Fn la u
nica soluci
on acotada y no-negativa a
1 00
F + 1 = Fn v n .
2 n
Puesto que 0 Fn 1/( + ) entonces Fn00 es uniformemente acotada y por lo
tanto Fn0 y Fn son uniformemente acotadas y equicontinuas en compactos. Si nk
es una subsucesi
on tal que Fn0 k y Fnk convergen uniformemente en compactos con
lmite F entonces
1 00
F (x) + 1 F (x) 1x0
2 n
para x 6= 0. Por lo tanto, F es de clase C2 en R \ {0} y satisface
1 00
F (x) + 1 = F (x) 1x0
2
8. El teorema de Girsanov
96
8. El teorema de Girsanov
La f
ormula de It
o nos dice que la clase de semimartingalas es invariante ante
composici
on con funciones de clase C2 . Ahora examinaremos otra propiedad de
invariancia de las semimartingalas: la invariancia ante cambios de medida (localmente) absolutamente continuos. Si P y Q son medidas de probabilidad absolutamente continuas y X es una semimartingala al utilizar la medida de probabilidad
entonces el celebre teorema de Girsanov nos ayudar
a a encontrar la descomposicion
de semimartingala de X cuando se utiliza la medida Q.
Sea (, F , P) un espacio de probabilidad dotado de una filtracion (Ft , t 0)
que satisface las condiciones habituales. Recordemos que una medida de probabilidad Q en (, F ) es absolutamente continua respecto de P, denotado Q P,
si para todo A F con P(A) = 0 se tiene que Q(A) = 0.
n. Decimos que Q es localmente absolutamente continua reDefinicio
specto de P, y lo denotamos por Q C P, si para cada t 0, la restriccion Q|Ft de
Q a Ft es absolutamente continua respecto de P|Ft .
Analizaremos ahora una construcci
on de medidas localmente absolutamente
continuas. Sea M una martingala (en (, F , (Ft ) , P)) no-negativa que comienza
en 1. Para cada t 0, podemos definir una medida Qt en Ft mediante la formula
Qt (A) = E(1A Mt ) .
La propiedad de martingala de M nos dice que si A Fs con s t entonces
Qt (A) = Qs (A) .
Si M es una martingala uniformemente integrable, entonces Mt converge casi seguramente y en L1 conforme n a una variable integrable M y se tiene
que
Qt (A) = E(1A M ) ,
por lo que en este caso, existe una medida Q tal que
Q|Ft = Qt .
Sin embargo, esto es v
alido a
un cuando M no sea uniformemente integrable. En
efecto, por la propiedad de martingala podemos definir una funcion Q : t Ft
[0, ) tal que
Q|Ft = Qt .
8. El teorema de Girsanov
97
A veces, Q se puede extender a una medida Q en F = (Ft : t 0) (por ejemplo, si nuestro espacio de probabilidad es un espacio de Borel estandar, como en
[Par05]). Por esta raz
on, asumiremos en esta secci
on que F = F y es claro que
entonces Q C P.
De hecho, la construcci
on anterior se puede modificar en caso de que M sea
una martingala local continua no-negativa. Si (Tn ) es una sucesion de tiempos de
paro que localice a M , se puede definir
Qn (A) = E(1A MTn )
para A FTn .
dP|FT
.
dQ|FT
dP|FT
.
dQ|FT
8. El teorema de Girsanov
98
E L . Entonces
1=D
1
1
= E (L) = eLL .
D
E L
Ds1 dDs ,
entonces
Z
hLit =
Ds2 dhDis ,
por lo que
1
log(Dt ) = Lt hLit
2
y por lo tanto
1
Dt = exp Lt hLit = E (L)t .
2
8. El teorema de Girsanov
99
s +
Ds dM
s dDs + hM
, Di
M
Z t
Z t
Z t
= D0 M0 +
Ds dMs +
Ms dDs
Ds dhM, Lis + hM, Di
0
0
0
Z t
Z t
0 +
s dDs .
= D0 M
Ds dMs +
M
0
Por lo tanto DM
es una Q-martingala local continua.
Uno de los ejemplos tpicos de aplicaci
on del teorema de Girsanov es al movimiento
browniano con deriva. En efecto, si B es un movimiento browniano bajo P y
2
Qt (A) = EP 1A eBt t/2 ,
para A F , entonces Qt es una medida de probabilidad absolutamente continua
respecto de P y equivalentemente a ella en Ft . Por lo tanto, bajo Qt el proceso
B Id es un browniano en [0, t]; equivalentemente, bajo Qt , B es un browniano con
8. El teorema de Girsanov
100
2
= eb e |b| 2+ .
En particular, vemos que
P(Tb (B + Id) < ) = lim E eTb(B+ Id) = eb |b| =
0
= 1 sgn(b) = sgn
.
< 1 otro caso
Una extensi
on de la idea anterior permite resolver el siguiente problema.
Ejercicio 4.4. Sea B un movimiento browniano que comienza en cero y R.
Sea
T = inf {t 0 : |Bt + t| = 1} .
(1) Pruebe que si = 0 entonces T y BT son independientes.
(2) Al utilizar el teorema de Girsanov muestre la independencia entre T y
BT cuando 6= 0.
Otro ejemplo de aplicaci
on es el siguiente. Notemos que
Bt
E f sup Bs + s
= E f sup Bs e
.
st
st
En particular
2
P sup Bs + s dx, Bt dy = P sup Bs dx, Bt dy ey t/2 .
st
st
X0 = x
8. El teorema de Girsanov
101
Note que X resuelve enentonces (Bt )t1 sea un movimiento browniano bajo P.
tonces la ecuaci
on diferencial estoc
astica (7); esta solucion es llamada solucion por
transformaci
on de deriva.
CAPITULO 5
Integral estoc
astica respecto de semimartingalas
1. Integrales de Lebesgue-Stieltjes respecto de procesos de Poisson
Sea (, F , P) un espacio de probabilidad y (Ft , t 0) una filtracion estandar.
Al considerar a los procesos estoc
asticos como definidos en [0, ) R, pensamos
a los procesos como funciones aleatorias.
n. La -
Definicio
algebra previsible, denotada P, es la generada en R+
por los procesos estoc
asticos continuos por la izquierda y adaptados a (Ft ).
n 5.1. La -
Proposicio
algebra previsible coincide con la generada por:
(1) Los conjuntos de la forma A (s, t] donde 0 s < t < y A Fs .
(2) Los procesos adaptados elementales.
(3) Los procesos continuos y adaptados.
Pasaremos ahora a los procesos de Poisson y de Poisson compuesto.
n. Un (Ft )-proceso de Poisson es un proceso c`ad, adaptado,
Definicio
que comienza en cero y tal que para s < t y k N se tiene que
k
[ (t s)]
.
k!
En otras palabras, la distribuci
on condicional del incremento Nt Ns dada Fs
es Poisson de par
ametro (t s).
P( Nt Ns = k | Fs ) = e(ts)
103
n
X
Hi () 1t(ti1 ,ti ]
i=1
n
X
Hi Mti t Mti1 t .
i=1
Puesto que M es martingala y Hi es Fti1 -medible, vemos que Z M es una martingala. Si Z es un proceso previsible que satisface la condicion de integrabilidad
enunciada.
Notemos que la afirmaci
on anterior en realidad es valida si M es una martingala
de variaci
on finita
2. Medidas de Poisson aleatorias
n. Sea (S, S ) un espacio medible. Una medida aleatoria es una
Definicio
aplicaci
on : S [0, ] tal que
(1) para toda la aplicaci
on A 7 (, A) es una medida en S y
(2) para toda A S la aplicaci
on 7 (, A) es una variable aleatoria.
n. Sea (S, S ) un espacio medible y una medida. Una medida
Definicio
aleatoria es una medida de Poisson aleatoria de medida de intensidad si
(1) para todo A S la variable (A) tiene distribucion Poisson de parametro
(A) y
(2) si A1 , . . . , An S son ajenos por pares entonces (A1 ) , . . . , (An ) son
independientes.
Teorema 5.1. Sea una medida -finita en el espacio medible (S, S ). Entonces existe (un espacio de probabilidad en el que est
a definida) la medida de
Poisson aleatoria con medida de intensidad .
n 5.4. Sea una medida -finita en (S, S ) una medida de Poisson
Proposicio
aleatoria con medida de intensidad .
104
(1) (F
ormula exponencial) Si f : S R+ es medible entonces la integral de
f respecto de , denotada por f , es una variable aleatoria y
R
f
E ef = e (1e ) d .
(2) La variable aleatoria f es casi seguramente
finita o casi seguramente
R
infinita de acuerdo a si la integral 1 f d es finita o no.
Consideremos un par
ametro de intensidad > 0 y una distribucion de salto
en R. Sea N un proceso de Poisson de par
ametro > 0 independientemente de la
sucesi
on iid X1 , X2 , . . . donde Xi tiene distribuci
on . Sabemos que el proceso de
Poisson compuesto se construye como
X
Xt =
Xi .
iNt
Una interpretaci
on en terminos de medidas aleatorias es la siguiente: sean T1 <
T2 < los instantes de salto del proceso N y consideremos a la medida
X
=
(Tn ,Xn ) .
n
105
se tiene que
f =
n
X
i Xti Xti1
i=1
y por lo tanto:
Pn
R
Pn
i x
) (dx)
E e i=1 i (Xti Xti1 ) = e i=1 (ti ti1 ) (1e
Al utilizar j = 0 si j 6= i nos damos cuenta de que
R
i x
) (dx)
E ei (Xti Xti1 ) = e(ti ti1 ) (1e
y que por lo tanto los incrementos de X son independientes y estacionarios. Claramente X comienza en cero, por lo que resta probar que X tiene trayectorias
c`
adl`
ag.
R
Corolario
Se tiene que E(Xt ) = t x (dx). Si dicha cantidad es finita,
R 10.
2
Var(Xt ) = t 0 x (dx).
Ahora veremos como el fen
omeno de compensacion de medidas aleatorias nos
ayuda a extender la construcci
on de subordinadores a procesos de Levy con trayectorias que no sean mon
otonas. Sea una medida en [1, 1] \ {0} tal que
Z
x2 (dx) < .
4. La descomposici
on de Doob-Meyer
106
0
Var Xt Xt = t
x2 (dx) .
I0 \I
Por la hip
otesis sobre se sigue que
0
lim sup Var Xt Xt = 0.
0 0
st
3. Procesos de L
evy y la descomposici
on de L
evy-It
o
4. La descomposici
on de Doob-Meyer
En esta secci
on mostraremos el resultado en el que se puede basar una teora
de integraci
on estoc
astica para martingalas c`
adl`
ag: la descomposicion de DoobMeyer.
n. Un proceso estoc
Definicio
astico adaptado X = (Xt , t 1) es de clase D
si la familia
{X : es tiempo de paro acotado por 1}
es uniformemente integrable.
Teorema 5.2. Sea S una submartingala c`
adl`
ag en [0, 1] de clase D. Entonces
existe una martingala M y un proceso predecible no decreciente A que comienza en
cero tal que
S = M + A.
4. La descomposici
on de Doob-Meyer
107
S
=0
k A k+1 + A k F k
n
n
n
n
n
2
por definici
on de An . As, vemos que S = M n + An sobre Pn . El detalle delicado
es pasar al lmite conforme n . Esto se lograra mediante un resultado de
espacios de Hilbert llamado Lema de Komlos.
n 5.7. Sea (fn ) una sucesi
Proposicio
on acotada en un espacio de Hilbert.
Entonces existe gn en la envolvente convexa de {fn , fn+1 , . . .} tal que gn converge
en H.
n. Sea A = supn1 inf {kgk : g conv(fn , fn+1 , . . .)}. Entonces
Demostracio
A < al ser la sucesi
on (fn ) acotada. Por lo tanto, para cada n se puede escoger
gn conv(fn , fn+1 , . . .) tal que kgn k A + 1/n. Si n, m son suficientemente
4. La descomposici
on de Doob-Meyer
108
A partir del teorema anterior podemos obtener lmites casi seguros de sucesiones uniformemente integrables m
odulo la consideracion de envolventes convexas.
n 5.8. Sea X1 , X2 , . . . variables aleatorias uniformemente inteProposicio
grables. Entonces existen variables aleatorias Yi conv(Xi , Xi+1 , . . .) tales que
(Yi ) converge en L1 .
1, X
2 , . . . converge a X
en L1 y
n. Primero
Demostraci
o
notamos que si X
n, X
n+1 , . . . entonces Yn converge a X
en L1 . En efecto, si Yn =
Yn conv X
PNn n
P
Nn
Xk donde Nn n, n 0 y
n = 1 entonces
k=1
E Yn X
Nn
X
k=1
n E X
k X sup E Xk X 0.
kn
k=1
Para cada i, n definamos a Xni = Xn 1 |Xn | i . Puesto que Xn1 , n esta acotada
1,n
1
en L2 , existen una combinaci
on convexa 1,n
n , . . . N 1 (con Nn n) tal que
n
1
Nn
1
1,n
k Xk
k=n
converge en L2 y en L1 .
Ahora aplicamos la Proposici
on 5.7 a la sucesi
on
1
Nn
X
1,n Xk2 , n 1
k
k=n
2,n , . . . ,
2,n2 (con N 2 n) tales que
para obtener combinaciones convexas
n
n
N
n
2
Nn
X
k=n
Nk1
2,n
2
1,k
j Xj =
Xj2
j=n
j=k
converge en L2 y en L1 . Si definimos
2,n
=
j
X
k
2,n 1,k ,
j
k
2,n 1,k
j
k
4. La descomposici
on de Doob-Meyer
109
2,n
y a Nn2 como el m
aximo k tal que 2,n
6= 0 entonces 2,n
2 es una combin , . . . , Nn
j
P 2,n i
naci
on convexa tal que n k Xk converge para i = 1, 2. Obviamente, este proj,n
cedimiento se puede generalizar para construir combinaciones convexas j,n
n , . . . , N j
n
P
i
para las cuales k 2,n
en L1 para 1 i j.
k Xk converge
PNnn n,n i
Se afirma ahora que k=n
k Xk converge para toda i. En efecto, esto sucede
pues
i
n
Nn
Nn
X
X
n,n i
i,n
k Xk conv
k Xki : i n
k=n
k=m
Por lo tanto:
n
Nn
X i
lim sup E
Xk Xk = 0.
i n
k=n
PNnn n,n
Por esta raz
on, la sucesi
on k=n k Xk , n 1 es de Cauchy.
Aplicaremos la Proposici
on 5.8 a la sucesi
on de martingalas M n . Antes que
nada, puesto que la filtraci
on es est
andar, podemos escoger una extension c`adl`ag de
on probamos el siguiente resultado.
M n al poner Mtn = E( M1n | Ft ). Para esta versi
Lema 4. Las variables aleatorias M1n , n 1 son uniformemente integrables.
n. Puesto que S1 = An1 + M1n , es equivalente mostrar que la
Demostracio
n
familia A1 es uniformemente integrable. Para verificar esto, definimos
n
o
rn = min k/2n : Ank/2n > r 1.
Entonces, puesto que las trayectorias de An son no-decrecientes y por muestreo
opcional obtenemos
1
E An1 1An1 >2r E [An1 An1 r] 1An1 >2r
2
E(An1 An1 r)
E An1 Anrn
= E S1 Srn
= E S1 Srn 1rn <1 .
4. La descomposici
on de Doob-Meyer
110
r n
Puesto que las variables aleatorias S1n Srn son uniformemente integrables al ser
S de clase D, vemos que
lim sup E An1 1An1 >r = 0.
r n
Gracias al Lema 4, podemos aplicar la Proposicion 5.8 para garantizar la existencia de combinaciones convexas n1 , . . . , nNn con N n n tales que
nn M1n + + nNn M1Nn
converge en L1 a una variable aleatoria M1 . Al definir Mt = E( M1 | Ft ) (escogiendo una versi
on c`
adl`
ag) la desigualdad de Jensen nos permite ver que
nn Mtn + + nNn MtNn Mt
en L1 conforme n . Para cada n 1, extendemos a An a [0, 1] al hacerlo
constante por pedazos en cada (k/2n , (k + 1)/2n ] (para que sea continuo por la
izquierda) y notamos que al definir
An = nn An + + nN ANn ,
n
As, la ecuaci
on (8) s
olo podra ser falsa en las discontinuidades de A. Sin embargo,
puesto que A tiene una cantidad finita de saltos de tama
no mayor a 1/k para cada
5. La integral estoc
astica y sus propiedades
111
lim inf E(A ) lim inf E A lim sup E A E lim sup A E(A ) .
n
Por lo tanto, basta probar que limn E(An ) = E(A ). Si n = d 2n e/2n , entonces
n es un tiempo de paro que decrece a conforme n . Al usar que S es de
clase D y que sus trayectorias son c`
adl`
ag obtenemos E(Sn ) E(S ). Por otra
parte:
E(An ) = E Ann = E(Sn ) E(M0 ) E(S ) E(M0 ) = E(A ) .
5. La integral estoc
astica y sus propiedades
Bibliografa
[BSV12] Mathias Beiglb
ock, Walter Schachermayer, and Bezirgen Veliyev, A short proof of
the Doob-Meyer theorem, Stochastic Process. Appl. 122 (2012), no. 4, 12041209.
MR 2914749
[CY80] C. Cocozza and M. Yor, D
emonstration dun th
eor`
eme de F. Knight a
` laide de martingales exponentielles, Seminar on Probability, XIV (Paris, 1978/1979) (French), Lecture
Notes in Math., vol. 784, Springer, Berlin, 1980, pp. 496499. MR 580150 (82h:60085)
` Dambis, On decomposition of continuous submartingales, Teor. Verojatnost. i
[Dam65] K. E.
Primenen. 10 (1965), 438448. MR 0202179 (34 #2052)
[Dav79] Burgess Davis, Brownian motion and analytic functions, Ann. Probab. 7 (1979), no. 6,
913932. MR 548889 (80j:30001)
[Doo84] J. L. Doob, Classical potential theory and its probabilistic counterpart, Grundlehren der
Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences],
vol. 262, Springer-Verlag, New York, 1984. MR 731258 (85k:31001)
[DS65] Lester E. Dubins and Gideon Schwarz, On continuous martingales, Proc. Nat. Acad.
Sci. U.S.A. 53 (1965), 913916. MR 0178499 (31 #2756)
[EK46] P. Erd
os and M. Kac, On certain limit theorems of the theory of probability, Bull. Amer.
Math. Soc. 52 (1946), 292302. MR 0015705 (7,459b)
[EK47] P. Erd
os and M. Kac, On the number of positive sums of independent random variables,
Bull. Amer. Math. Soc. 53 (1947), 10111020. MR 0023011 (9,292g)
[It
o87] Kiyosi It
o, Differential equations determining a Markoff process, Selected papers
(Daniel W. Stroock and S.R.S Varadhan, eds.), Springer-Verlag, New York, 1987, Translated from the 1942 Japanese original.
[Kac49] M. Kac, On distributions of certain Wiener functionals, Trans. Amer. Math. Soc. 65
(1949), 113. MR 0027960 (10,383b)
[Kal02] Olav Kallenberg, Foundations of modern probability, second ed., Probability and
its Applications (New York), Springer-Verlag, New York, 2002. MR MR1876169
(2002m:60002)
[Kni71] Frank B. Knight, A reduction of continuous square-integrable martingales to Brownian
motion, Martingales (Rep. Meeting, Oberwolfach, 1970), Springer, Berlin, 1971, pp. 19
31. Lecture Notes in Math., Vol. 190. MR 0370741 (51 #6967)
[KS91] Ioannis Karatzas and Steven E. Shreve, Brownian motion and stochastic calculus, second ed., Graduate Texts in Mathematics, vol. 113, Springer-Verlag, New York, 1991.
MR 1121940 (92h:60127)
[KW67] Hiroshi Kunita and Shinzo Watanabe, On square integrable martingales, Nagoya Math.
J. 30 (1967), 209245. MR 0217856 (36 #945)
[L
ev39] Paul L
evy, Sur certains processus stochastiques homog`
enes, Compositio Math. 7 (1939),
283339. MR 0000919 (1,150a)
[Mey62] P. A. Meyer, A decomposition theorem for supermartingales, Illinois J. Math. 6 (1962),
193205. MR 0159359 (28 #2576)
112
113
[Mey63] P.-A. Meyer, Decomposition of supermartingales: the uniqueness theorem, Illinois J.
Math. 7 (1963), 117. MR 0144382 (26 #1927)
[Par05] K. R. Parthasarathy, Probability measures on metric spaces, AMS Chelsea Publishing,
Providence, RI, 2005, Reprint of the 1967 original. MR 2169627 (2006d:60004)
[PS78] Sidney C. Port and Charles J. Stone, Brownian motion and classical potential theory,
Academic Press [Harcourt Brace Jovanovich Publishers], New York, 1978, Probability
and Mathematical Statistics. MR 0492329 (58 #11459)
[RW00] L. C. G. Rogers and David Williams, Diffusions, Markov processes, and martingales.
Vol. 2, Cambridge Mathematical Library, Cambridge University Press, Cambridge,
2000, It
o calculus, Reprint of the second (1994) edition. MR 1780932 (2001g:60189)
[RY99] Daniel Revuz and Marc Yor, Continuous martingales and Brownian motion, third
ed., Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of
Mathematical Sciences], vol. 293, Springer-Verlag, Berlin, 1999. MR MR1725357
(2000h:60050)
[Sim05] Barry Simon, Functional integration and quantum physics, second ed., AMS Chelsea
Publishing, Providence, RI, 2005. MR 2105995 (2005f:81003)
[Ste01] J. Michael Steele, Stochastic calculus and financial applications, Applications of
Mathematics (New York), vol. 45, Springer-Verlag, New York, 2001. MR 1783083
(2001i:60080)
[SW73] Tokuzo Shiga and Shinzo Watanabe, Bessel diffusions as a one-parameter family of
diffusion processes, Z. Wahrscheinlichkeitstheorie und Verw. Gebiete 27 (1973), 3746.
MR 0368192 (51 #4433)
[WZ65] Eugene Wong and Moshe Zakai, On the convergence of ordinary integrals to stochastic
integrals, Ann. Math. Statist. 36 (1965), 15601564. MR 0195142 (33 #3345)