Está en la página 1de 226

Notas de Clase

Procesos Estoc asticos


Versi on Preliminar
NOTAS DE CLASE
PROCESOS ESTOC

ASTICOS
Versi on Preliminar
NORMAN GIRALDO G

OMEZ
Profesor Asociado
Escuela de Estadstica
Universidad Nacional de Colombia
Medelln
Universidad Nacional de Colombia
Medelln
Copyright c 2006 Universidad Nacional de Colombia.
Profesor Norman Diego Giraldo Gmez.
Publicado por Editorial ...
ISBN 000-000-000-0
No est permitido reproducir esta publicacin o transmitirla por cualquier forma o medio, electrnico, mecnico, fotocopiado, escaneo
de otro tipo excepto para citas cortas, sin el permiso de la Editorial.
Biblioteca Leopoldo Guerra Portocarrero U.N.:
Procesos Estoc asticos / Norman Diego Giraldo G omez.
p. cm.(Colecci on Notas de Clase)
Universidad Nacional de Colombia."
Incluye refereciasl bibliogr acas e ndice.
ISBN 0-000-00000-0(pbk.)
1. ProbabilidadesTeora. 2. Matem aticas
CienciasInvestigaci onTeora. I. Giraldo, Norman D. II. Series.
519.2
G887c
Diagramacin en LaTeX.
Impresin:
Editorial ...

Indice general
1. Teora de Probabilidades 1
1.1. Deniciones de la Teora de Probabilidades. . . . . . . . . . . . . . . . . . . . . 1
1.2. Esperanza Condicional. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1. Propiedades de la Esperanza Condicional . . . . . . . . . . . . . . . . . 9
1.3. Procesos de Ramicaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Marcha Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5. El Proceso Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.1. Modelo de Riesgo Colectivo . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6. Martingalas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2. Desigualdades y Modos de Convergencia 29
2.1. Desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. Modos de Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
v
vi
2.2.1. Propiedades de la Convergencia en Distribuci on. . . . . . . . . . . . . . 36
2.2.2. Propiedades de la Convergencia en Media Cuadr atica. . . . . . . . . . . 38
2.3. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3. Procesos Estoc asticos 45
3.1. Denici on de Proceso Estoc astico . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2. Procesos Estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3. Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4. Causalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4.1. Ergodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5. Ejemplos de Procesos Estacionarios en Covarianza . . . . . . . . . . . . . . . . 57
3.6. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.8. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4. Procesos Estoc asticos Lineales 63
4.1. Procesos ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2. An alisis Estadstico de Procesos ARMA . . . . . . . . . . . . . . . . . . . . . . 71
4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.5. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5. C alculo en Media Cuadr atica 89
5.1. Continuidad en Media Cuadr atica . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2. Derivada en Media Cuadr atica . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3. Integral en Media Cuadr atica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.4. Ecuaciones Diferenciales Lineales . . . . . . . . . . . . . . . . . . . . . . . . . 102
vii
5.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.6. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6. Procesos Gaussianos y Procesos de Wiener. 109
6.1. Procesos Gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2. Procesos Estacionarios Gaussianos. Derivadas e Integrales . . . . . . . . . . . . 119
6.3. Procesos con Incrementos Independientes . . . . . . . . . . . . . . . . . . . . . 123
6.4. Procesos Gaussianos con Incrementos Independientes . . . . . . . . . . . . . . . 123
6.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.6. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7. Procesos de Markov 129
7.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.2. Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.3. Relaci on entre Procesos de Markov y Procesos Gaussianos . . . . . . . . . . . . 136
7.4. Procesos de Difusi on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
7.4.1. Soluci on de la Ecuaci on Prospectiva . . . . . . . . . . . . . . . . . . . . 144
7.4.2. Proceso Ornstein-Uhlenbeck. . . . . . . . . . . . . . . . . . . . . . . . 146
7.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
7.6. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8. C alculo de Ito. 149
8.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.2. Soluci on de la Ecuaci on Lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3. Propiedades de las soluciones de las EDE Lineales . . . . . . . . . . . . . . . . 159
8.4. Soluciones de las EDE como procesos de Markov . . . . . . . . . . . . . . . . . 164
8.5. EDE Lineales de orden n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.5.1. El Caso n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
viii
8.6. Notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
8.7. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
8.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
A. Variables Aleatorias Normales Multivariadas. 187
A.1. Distribuci on Normal Multivariada . . . . . . . . . . . . . . . . . . . . . . . . . 187
A.1.1. Procedimientos de Factorizaci on . . . . . . . . . . . . . . . . . . . . . . 199
A.2. Distribuciones Marginales y Condicionales . . . . . . . . . . . . . . . . . . . . 201
B. Notas 209

Indice de guras
1.1. Realizaci on en forma de arbol de un proceso Galton-Watson . . . . . . . . . . . 13
1.2. Trayectoria de un proceso Poisson con = 6/10 . . . . . . . . . . . . . . . . . 21
1.3. Trayectorias de procesos de riesgo . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1. Gr aca del Sism ografo del terremoto de Kobe(Jap on) . . . . . . . . . . . . . . . 52
3.2. Ejemplos de Procesos Estacionarios confunciones de autocovarianza que decrecen
a cero con velocidades distintas . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1. An alisis de la Serie de aceleraciones verticales del sismo de Kobe . . . . . . . . 77
7.1. Gr aca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
ix
x
CAP

ITULO 1
Teora de Probabilidades
"He who loves practice without theory is like the sailor who boards ship without a rudder and
compass and never knows where he may be cast.- Leonardo da Vinci, 1452-1519
1.1. Deniciones de la Teora de Probabilidades.
Denici on 1.1.1. Espacio Muestral es el conjunto de todos los resultados w de un experimento
aleatorio.
es un resultado
Denici on 1.1.2. Una - algebra T sobre es una colecci on de subconjuntos de que satisfacen
las siguientes condiciones:
1. T
2. A T A
c
T
3. Si A
1
, A
2
, es una sucesi on de elementos de T entonces
n

i=1
A
i
T.
1
2
Los subconjuntos de que est an en T se llaman eventos. Luego A T equivale a armar que
A es un evento y A .
Denici on 1.1.3. Una probabilidad P(.) es una funci on P : T [0, 1] que cumple las condi-
ciones:
1. P() = 1
2. P() = 0
3. Si A
1
, A
2
, es una sucesi on de eventos mutuamente disjuntos, es decir,
A
i
A
j
= , para i ,= j, entonces:
P
_

_
i=1
A
i
_
=

i=1
P(A
i
).
Algunas propiedades de las probabilidades se enuncian a continuaci on.
Proposici on 1.1.1. Suponga que P es una probabilidad sobre una - algebra T y que toda A es
un evento, entonces las siguientes propiedades son consecuencia de las propiedades anteriores.
1. P(A
c
) = 1 P(A).
2. Si A
1
A
2
entonces P(A
1
) P(A
2
).
3. P(

i=1
A
i
)

i=1
P(A
i
).
4. Si A
n
, n = 1, 2, . . . es una sucesi on creciente de eventos, A
n
A
n+1
, entonces se cumple
que P(

i=1
A
i
) = lm
n
P(A
n
).
5. Si A
n
, n = 1, 2, . . . es una sucesi on decreciente de eventos, A
n
A
n+1
, entonces se
cumple que P(

i=1
A
i
) = lm
n
P(A
n
).
Los tres elementos (, T, P) se asumen dados. Es evidente que T T(), donde T() es el
conjunto de partes de , sin embargo la - algebra no se toma en general igual a T() sino que
se asume que es un conjunto m as peque no, concretamente se asume que contiene solamente los
eventos que interesan con respecto al experimento aleatorio en consideraci on.
Ejemplo 1.1.1. Pueden haber varias - algebra sobre un mismo conjunto .
1. Si A T entonces la colecci on /
1
= , , A, A
c
es una - algebra que est a contenida
en T.
3
2. Si A, B T la colecci on
/
2
= , , A, B, A
c
, B
c
, A B, AB, A
c
B
c
, A
c
B
c
, A
c
B, A
c
B, AB
c
, A B
c

es una - algebra contenida en T


Note que /
1
/
2
T y que /
1
es la menor - algebra que contiene la colecci on A, y /
2
es
la menor - algebra que contiene la colecci on A, B.
Teorema 1.1.1. Dada una colecci on de eventos / = A, B, T siempre existe una
- algebra mnima que la contiene, la - algebra generada por /, (/).
Denici on 1.1.4 ( - algebra de Borel en R ). Si tomamos = R y la colecci on de subconjuntos
es / = (, a] : a R es decir la colecci on de todos los semi intervalos cerrados a la
derecha, entonces la - algebra generada por esta colecci on se denomina - algebra de Borel, y
se denota por B
1
= ((, a]; a R)
N otese que se cumple lo siguiente:
1. R B
1
, B
1
2. Si a < b, entonces (, a] , (, b] B
1
luego (, a]
c
= (a, ) B
1
y (a, )
(, b] = (a, b] B
1
3. Cualquier intervalo real est a en B
1
Denici on 1.1.5 ( - algebra de Borel en R
2
). Si tomamos = R
2
y
/ = (, a] (, b] : a, b R
entonces la - algebra generada por / se llama la - algebra de Borel en R
2
y se denota por
B
2
= ((, a] (, b] : a, b R).
Tenemos que se cumple: R
2
B
2
y tambi en (, a] R B
2
Denici on 1.1.6 ( - algebra de Borel en R
n
). Si tomamos = R
n
y
/ = (, a
1
] (, a
n
] : a
1
, a
n
R
entonces la - algebra generada por /se denomina la - algebra de Borel en R
n
y se denota por
B
n
= ((, a
1
] (, a
n
] : a
1
, a
n
R).
Se cumple R
n
B
n
y adem as tambi en conjuntos de la forma (, a] R
n1
, a R.
Denici on 1.1.7. Si A T y P(A) = 0 se dice que A es un evento nulo. Si A T y P(A) = 1
se dice que A es un evento casi seguro.
4
Se asumir a siempre que si A es un evento nulo y B A entonces B T y como P(B) P(A),
se debe cumplir que P(B) = 0.
Denici on 1.1.8. La notaci on X : R se reere a una funci on con dominio y rango
X() R. Si B R la notaci on X
1
(B) dene el subconjunto de dado por
X
1
(B) = : X() B
Denici on 1.1.9 ( Variable Aleatoria ). Una funci on X : R se dice variable aleatoria si
para cada B B
1
se cumple que X
1
(B) T.
En particular, si B = (, a] entonces X
1
(B) es el evento : X() a y se indica
por (X a).
Proposici on 1.1.2. Si X : R es una variable aleatoria entonces la colecci on de eventos
_
X
1
(B) : B B
1
_
= X
1
(B
1
) es una - algebra, denotada por (X), y se denomina la
informaci on generada por X, y satisface:
1. A (X) existe B B
1
tal que X
1
(B) = A
2. (X a) (X) a R
Demostraci on Como R B
1
y = X
1
(R) entonces (X). Adem as, si A (X)
existe B
A
B
1
tal que A = X
1
(B
A
), pero entonces A
c
= X
1
(B
c
A
) por propiedades de las
im agenes inversas. Luego A
c
(X).
Si A
1
, A
2
, es una sucesi on de eventos en (X) entonces existe una sucesi on de eventos en B
1
llamados B
1
, B
2
, tal que A
i
= X
1
(B
i
) , i = 1, 2, y entonces

_
i=1
A
i
=

_
i=1
X
1
(B
i
) = X
1
_

_
i=1
B
i
_
= X
1
(B)
donde B =

i=1
B
i
B
1
luego

i=1
A
i
(X).
Denici on 1.1.10 (Funci on de Distribuci on). Como para cada x R , (X x) T, entonces
puede calcularse su probabilidad, esta es una funci on de x, y se denota F
X
(x) = P(X x).
Esta funci on tiene las siguientes propiedades:
1. F
X
(x) es mon otona creciente con F
X
(x) 0 , x y F
X
(x) 1 , x .
2. F
X
(x) es continua a la derecha. Signica entonces que
F
X
(a) = lm
xa
F
X
(x) = F
X
(a+)
5
El lmite a izquierda es
lm
xa
F
X
(x) = F
X
(a) = P(X < a)
En general P(X < a) P(X a). La funci on F
X
(x) frecuentemente toma dos formas:
1. F
X
(x) constante excepto por saltos en una serie de puntos En este caso los saltos son iguales
a la diferencia F
X
(x
i
) F
X
(x
i
) = P(X x
i
) P(X < x
i
), y la variable aleatoria se
dice discreta. Los valores de los saltos son las probabilidades P(X = x
i
).
2. F
X
(x) =
x
_

f
X
(u)dupara una funci onf
X
(u) que es positiva e integrable, con

f
X
(u)du =
1. Si f
X
(u) es continua en x se tiene F

X
(x) = f
X
(x).
Denici on 1.1.11. Una variable aleatoria bidimensional (X
1
, X
2
) es una funci on
(X
1
, X
2
) : R
2
tal que para cada B B
2
se cumple que (X
1
, X
2
)
1
(B) T donde
(X
1
, X
2
)
1
(B) = : (X
1
(), X
2
()) B
2

Un conjunto en B
2
es B = (, a] (, b]. Entonces
(X
1
, X
2
)
1
(B) = : X
1
() a , X
2
() b
se denota por (X
1
a , X
2
b) y es igual a (X
1
a) (X
2
b)
Denici on 1.1.12 ( Informaci on generada por (X
1
, X
2
)). Es la - algebra generada por la
colecci on de eventos / =
_
(X
1
, X
2
)
1
(B) : B B
2
_
y se denota por (X
1
, X
2
).
Nota 1.1.1. En (X
1
, X
2
) est an por ejemplo todos los eventos de la forma
(X
1
a , X
2
b). Tambi en (X
1
, X
2
) = (X
1
, X
2
)
1
(B
2
) es la im ageninversa de la - algebra
B
2
. Adem as (X
1
, X
2
) T y se tiene (X
1
) (X
1
, X
2
) y (X
2
) (X
1
, X
2
)
Denici on 1.1.13 ( La funci on de distribuci on conjunta de (X
1
, X
2
) ).
Para (X
1
, X
2
) R
2
, el evento (X
1
x
1
, X
2
x
2
) est a en T y su probabilidad depende de
(x
1
, x
2
). La funci on que se determina se denota por
F
X1,X2
(x
1
, x
2
) = P(X
1
x
1
, X
2
x
2
)
y es la funci on de distribuci on conjunta de (X
1
, X
2
).
Denici on 1.1.14 (Vector Aleatorio (X
1
, X
2
, , X
n
)).
Vector Aleatorio (X
1
, X
2
, , X
n
) es una funci on
(X
1
, X
2
, , X
n
) : R
n
6
que cumple
(X
1
, X
2
, , X
n
)
1
(B) T para cada B B
n
donde
(X
1
, X
2
, , X
n
)
1
(B) = : (X
1
(), X
2
(), , X
n
()) B
Denici on 1.1.15 ( Informaci on generada por por (X
1
, X
2
, , X
n
) ).
Informaci on generada por (X
1
, X
2
, , X
n
) es la - algebra generada por la colecci on de
eventos en T
/ =
_
(X
1
, X
2
, , X
n
)
1
(B) : B B
n
_
y se denota por (X
1
, X
2
, , X
n
).
Note que en esta - algebra est an los conjuntos de la forma (X
1
x
1
, , X
n
x
n
) para
x
1
, , x
n
R
Denici on 1.1.16 ( Funci on de distribuci on conjunta de (X
1
, X
2
, , X
n
)).
Como(X
1
x
1
, X
2
x
2
, , X
n
x
n
) es unevento, suprobabilidaddepende de (x
1
, x
2
, , x
n
)
y la funci on as denida se denomina funci on de distribuci on conjunta y se denota por
F
X1,X2, ,Xn
(x
1
, x
2
, , x
n
) = P(X
1
x
1
, X
2
x
2
, , X
n
x
n
)
Si X
1
, X
2
, es una sucesi on de vectores aleatorios que representa los sucesivos estados de
un sistema, entonces (X
1
, X
2
, , X
n
) es todo lo que puede suceder hasta n. Es el conjunto
de todos los resultados de inter es. Si se tiene una sucesi on de vectores aleatorios X
1
, X
2
, ,
entonces se cumple que
(X
1
) (X
1
, X
2
) (X
1
, X
2
, X
3
)
Ejemplo 1.1.2. Si n = 18 entonces A = (X
i
3.1 , i = 1, , 18) y por tanto A
(X
1
, X
2
, , X
18
)
Ejemplo 1.1.3. Si A = (X
10
> 7) entonces A (X
1
, X
2
, , X
10
) pero
A / (X
1
, X
2
, . . . , X
9
)
1.2. Esperanza Condicional.
El objetivoes denir yestablecer las propiedades de la esperanza condicional E(Y [ X
1
, X
2
, X
n
).
Denici on 1.2.1. Si (X, Y ) son dos variables aleatorias con fdp conjunta f(x, y) donde (x, y)
G R
2
, y
f
X
(x) :=
_

f(x, y)dy
7
f
Y
(y) :=
_

f(x, y)dx
son las fdp marginales, la fdp condicional de Y dado X = x, se dene como
f
Y
(y [ X = x)) := f(x, y)/f
X
(x)
siempre que f
X
(x) ,= 0, y la esperanza condicional de Y dado X = x se dene como
E(Y [ X = x) =
_

yf
Y
(y [ X = x)dy
Ejemplo 1.2.1 (La Normal Bivariada). El vector (X
1
, X
2
) se distribuye Normal Bivariado,
(X
1
, X
2
) N
2
__

2
_
,
_

2
1

1

2

2
2
__
donde E(X
i
) =
i
, V ar(X
i
) =
2
i
, Cov(X
1
, X
2
) =
1

2
, si la fdp conjunta est a dada por:
f(x
1
, x
2
) =
1
2
1

2
_
1
2
exp
_

1
2(1
2
)
_
_
x
1

1
_
2
+
_
x
2

2
_
2
2
_
x
1

1

1
__
x
2

2

2
___
para (x
1
, x
2
) R
2
.
Para calcular la fdp condicional de X
2
dado X
1
= x
1
, utilizamos completaci on de cuadrados para
escribir la conjunta de la forma siguiente:
f(x
1
, x
2
) =
1

2
1
exp
_

1
2
_
x
1

1

1
_
2
_

2
2
_
1
2
exp
_

1
2
_
x
2

2
(
2
1
)(x
1

1
)

2
_
1
2
_
2
_
luego, integrando con respecto a x
2
entre e , y aplicando la indentidad:

2
e

1
2
(
xu

)
2
dx =
obtenemos
f
X1
(x
1
) =
1

2
e

1
2
_
x
1

1
_
2
8
por tanto,
f
X2
(x
2
[ X
1
= x
1
) =
f(x
1
, x
2
)
f
X1
(x
1
)
=
1

2
2
_
1
2
exp
_

1
2
_
x
2

2

2
1
(x
1

1
)

2
_
1
2
_
2
_
de donde
X
2
[ X
1
= x
1
N(
2
+

1
(x
1

1
) ,
2
2
(1
2
))
N otese que
2
1
=
Cov(X1,X2)
V ar(X1)
.
Ejemplo 1.2.2. Supongamos que
1
= 1 ,
2
= 2 ,
1
= 1 ,
2
= 4 , = 0.4. Encuentre
P(X
2
> 1 [ X
1
= 1).
Soluci on. X
2
[ X
1
= 1 N(2 +
0.4(4)
1
(1 1), 4
2
(1 0.4
2
)) = N(2, 4
2
(1 0.4
2
)) =
N(2, 13.44) luego
P(X
2
> 1 [ X
1
= 1) = P(N(2, 13.44) > 1) = 1 (
1 2

13.44
) = 1 (0.272) = 0.60
Denici on 1.2.2. Si (X
1
, X
2
, , X
n
) es un vector aleatorio con fdp conjunta
f(x
1
, x
2
, , x
n
) , para (x
1
, x
2
, , x
n
) G R
n
la fdp marginal de (X
1
, X
2
, , X
n1
) se dene como
f
X1,X2, ,Xn1
(x
1
, x
2
, , x
n1
) =
_

f(x
1
, x
2
, , x
n
)dx
n
,
y la fdp condicional de X
n
dados X
1
= x
1
, X
2
= x
2
, , X
n1
= x
n1
se dene por
f
Xn
(x
n
[ X
1
= x
1
, X
2
= x
2
, , X
n1
= x
n1
) =
f(x
1
, x
2
, , x
n
)
f
X1,X2, ,Xn1
(x
1
, x
2
, , x
n1
)
,
siempre que el denominador sea diferente de cero.
Ejercicio 1.2.1. Suponga que el vector (X, Y, Z) tiene fdp conjunta dada por
f(x, y, z) =
1

3
e

para > 0 y 0 < x < y < z.


Compruebe que
1. f
X,Y
(x, y) =
1

2
e

, 0 < x < y
9
2. f
Z
(z [ X = x, Y = y) =
1

zy

, 0 < x < y < z


3. E(Z [ X = x, Y = y) = +y
Denici on 1.2.3 (Variables Aleatorias Independientes). Las variables aleatorias X
1
, X
2
,
se dicen independientes si se cumple que para todo n 1 , x
1
, x
2
, , x
n
reales
P(X
1
x
1
, X
2
x
2
, , X
n
x
n
) = P(X
1
x
1
)P(X
2
x
2
) P(X
n
x
n
)
Tambi en, se dice que X
1
, X
2
, . . . , X
n
y Y son independientes si se cumple
P(X
1
x
1
, . . . , X
n
x
n
, Y y) = P(X
1
x
1
, . . . , X
n
x
n
)P(Y y)
1.2.1. Propiedades de la Esperanza Condicional
La esperanza condicional E(Y [ X = x) se puede escribir E(Y [ X). En el caso E(Y [ X = x) es
una funci on de x. En el caso E(Y [ X) es una funci on de X, y por tanto, es una variable aleatoria.
Puede escribirse por ejemplo E(E(Y [ X)) y calcularse como la esperanza de una funci on de X,
g(X). Si f
X
(x) es la fdp de X entonces
E(E(Y [ X)) =
_

E(Y [ X = x)f
X
(x)dx
Igualmente
E(Y [ X
1
= x
1
, X
2
= x
2
, , X
n
= x
n
)
es una funci on de (x
1
, x
2
, , x
n
) y E(Y [ X
1
, X
2
, , X
n
) es una funci on real del vector
(X
1
, X
2
, , X
n
) y es una variable aleatoria.
La esperanza condicional tiene las siguientes propiedades
Propiedades
1. Si Y es independiente de (X
1
, X
2
, , X
n
) entonces
E(Y [ X
1
, X
2
, , X
n
) = E(Y )
2. Si Y es funci on de (X
1
, X
2
, , X
n
), de la forma Y = f(X
1
, X
2
, , X
n
) entonces
E(Y [ X
1
, X
2
, , X
n
) = Y
Ejemplo 1.2.3. Como Y = X
1
es funci on de (X
1
, X
2
, , X
n
) entonces
E(X
1
[ X
1
, X
2
, , X
n
) = X
1
10
Ejemplo 1.2.4. Si Y = c = cte entonces es funci on de (X
1
, X
2
, , X
n
) y
E(c [ X
1
, X
2
, , X
n
) = c
3. E(E(Y [ X)) = E(Y ). La demostraci on, en el caso continuo, es simple.
Demostraci on.
E(E(Y [ X)) =
_

E(Y [ X = x)f
X
(x)dx
=
_

yf
Y
(y [ X = x)f
X
(x)dydx
pero f
Y
(y [ X = x)f
X
(x) = f(x, y) luego
E(E(Y [ X)) =
_

yf(x, y)dydx
=
_

y
_

f(x, y)dxdy
=
_

yf
Y
(y)dy = E(Y )
4. E(E(Y [ X
1
, X
2
, , X
n
) = E(Y )
5. Si 1 k < n entonces
E(E(Y [ X
1
, X
2
, , X
n
) [ X
1
, , X
2
, , X
k
) = E(Y [ X
1
, X
2
, , X
k
)
Obs ervese que el caso
E(E(Y [ X
1
, X
2
, , X
k
) [ X
1
, X
2
, , X
n
) = E(Y [ X
1
, X
2
, , X
k
)
es v alido, a partir de la propiedad 2 ya que E(Y [ X
1
, X
2
, , X
k
) es una funci on de
(X
1
, X
2
, , X
k
) y por tanto es funci on de (X
1
, X
2
, , X
n
). En ambos casos se puede
resumir diciendo que el resultado nal depende siempre de la menor de las informaciones.
6. Si g(x) es una funci on tal que E(g(X) [ Y ) existe y es nita, entonces
E(g(X)Y [ X) = g(X)E(Y [ X)
adem as
E(g(X)Y [ X = x) = g(x)E(Y [ X = x)
11
Denici on 1.2.4. La varianza condicional de Y dado X se dene como
V ar(Y [ X) = E((Y E(Y [ X))
2
[ X) (1.1)
N otese que si se desarrolla el cuadrado en el t ermino de la derecha, en la denici on anterior,
obtenemos:
E((Y E(Y [ X))
2
[ X) = E(Y
2
2Y E(Y [ X) + E
2
(Y [ X) [ X)
= E(Y
2
[ X) 2 E(Y E(Y [ X) [ X) +E(E
2
(Y [ X) [ X)
Pero si g(X) = E(Y [ X) entonces
E(Y E(Y [ X) [ X) = E(Y g(X) [ X) = g(X)E(Y [ X) = E
2
(Y [ X)
por la propiedad 6), adem as, por la propiedad 2)
E(E
2
(Y [ X) [ X) = E(g
2
(X) [ X) = g
2
(X) = E
2
(Y [ X)
por tanto
V ar(Y [ X) = E(Y
2
[ X) E
2
(Y [ X)
que es otra expresi on equivalente para la esperanza condicional de Y dado X.
Ejercicio 1.2.2. En el Ejercicio (1.2.1) se propone probar: E(Z [ X, Y ) = + Y . A partir de
este resultado compruebe:
1. E(Z [ X) = + E(Y [ X).
2. E(Z) = + E(Y ).
Proposici on 1.2.1. Para cualesquier variables aleatorias X, Y , se cumple la siguiente identidad.
V ar(Y ) = E(V ar(Y [ X)) + V ar(E(Y [ X)) (1.2)
Demostraci on. N otese que E(V ar(Y [ X)) = E(E(Y
2
[ X)) E(E
2
(Y [ X)). Luego, usando
la propiedad 3) tenemos E(E(Y
2
[ X)) = E(Y
2
), por tanto
E(V ar(Y [ X)) = E(Y
2
) E(E
2
(Y [ X)) (1)
tambi en V ar(E(Y [ X)) = E(E
2
(Y [ X)) E
2
(E(Y [ X)).
Pero E
2
(E(Y [ X)) = E
2
(Y ), luego
V ar(E(Y [ X)) = E(E
2
(Y [ X)) E
2
(Y ) (2)
Sumando (1) y (2) se tiene
E(V ar(Y [ X)) +V ar(E(Y [ X)) = E(Y
2
) E
2
(Y ) = V ar(Y )
12
obteniendo la identidad general
V ar(Y ) = E(V ar(Y [ X)) + V ar(E(Y [ X))
En algunos problemas se dene la fdp condicional directamente, por ejemplo, se d a la expresi on
para f
Y
(Y [ X = x). Entonces se denota
Y [ X = x f
Y
(Y [ X = x)
Ejemplo 1.2.5. De la distribuci onExponencial de par ametro sabemos que si Y ExP(), >
0 entonces f
Y
(y) = (1/)e
y/
, y 0, E(Y ) = , V ar(Y ) =
2
. Suponga que X U[
1
3
,
1
3
]
y Y [ X ExP(3X + 1). Entonces
f
Y
(y [ X = x) =
1
3x + 1
e

y
3x+1
y tenemos E(Y [ X) = 3X +1 y V ar(Y [ X) = (3X +1)
2
por lo tanto, aplicando propiedades
de esperanza condicional:
E(Y ) = E(E(Y [ X)) = 3E(X) + 1 = 1
V ar(Y ) = E(V ar(Y [ X)) +V ar(E(Y [ X)) = E((3X + 1)
2
) +V ar(3X + 1)
= E(9X
2
+ 6X + 1) + 9V ar(X) = 9E(X
2
) + 6E(X) + 1 + 9V ar(X) = 1 + 2/3.
1.3. Procesos de Ramicaci on
Introducci on. Los procesos de Ramicaci on o de Galton-Watson, son modelos para sistemas de
partculas que, despu es de un perodo de tiempo jo, se subdividen o reproducen en un n umero
aleatorio de nuevas partculas, para luego desaparecer, dando lugar a la evoluci on del sistema. Los
textos de Lange (Lange 2003) y Medhi (Medhi 1978), contienen m as informaci on y ejemplos de
aplicaciones sobre los procesos Galton-Watson.
Denote por X
n
, n = 0, 1, 2, el n umero de individuos de la generaci on n- esima con X
n

0, 1, 2, y X
0
es el n umero inicial de individuos. Cada miembro de la generaci on n- esima
d a lugar a un n umero de descendientes que pertenecen a la generaci on n + 1. Denote por Z
j
(n),
para n = 0, 1, 2, , j = 1, 2, 3, el total de descendientes del j- esimo individuo de la
generaci on n- esima. Suponemos que Z
j
(n) 0, 1, 2, , son independientes id enticamente
distribudas, iid.
Denici on 1.3.1. El proceso Galton-Watson (X
n
, n = 0, 1, 2, ) es un proceso estoc astico
denido en 0, 1, mediante la ecuaci on recursiva
X
n+1
=
Xn

j=1
Z
j
(n) , n = 0, 1, 2,
13
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Generaciones = 9
Figura 1.1: Realizaci on en forma de arbol de un proceso Galton-Watson
Las variables Z
j
(n) , j = 0, 1, 2, se asumen independientes id enticamente distribudas disc-
retas con valores en 0, 1, 2, , con fdp com un P(Z
j
(n) = k) = p
k
, k = 0, 1, 2, , y donde
se asume que p
0
+ p
1
< 1.
Note que si p
1
= 1 entonces X
n
= X
0
, n 1, ya que P(Z
j
(n) = 1) = 1 y X
n+1
=
Xn

j=1
Z
j
(n) = X
n
, n = 0, 1, 2, . Denote = E(Z
j
(n)) ,
2
= V ar(Z
j
(n)). Los casos
< 1, = 1, > 1 se denominan sub-crtico, crtico y super-crtico.
Ejemplo 1.3.1. En la gura (1.1) se muestra un ejemplo de una realizaci on de un proceso GW,
asumiendo X
0
= 1, y la distribuci on de las variables Z
j
(n) dada por p
k
= 0.3, 0.3, 0.2, 0.1, 0.1,
para k = 0, 1, 2, 3, 4. El programa para gracaci on en Matlab es de R.Gaigalas e I.Kaj
1
.
Ahora calculamos la esperanza y la varianza del proceso X
n
, utilizandoalgunas de las propiedades
de la esperanza condicional.
1. C alculo de E(X
n
). Sabemos que E(X
n+1
) = E(E(X
n+1
[ X
n
)) pero
E(X
n+1
[ X
n
) = E
_
Xn

j=1
Z
j
(n) [ X
n
_
= X
n
E(Z
j
(n) [ X
n
) = X
n

luego
E(X
n+1
) = E(E(X
n+1
[ X
n
)) = E(X
n
) n = 0, 1, 2,
por tanto
E(X
n
) =
n
E(X
0
)
1
http://www.math.uu.se/ ikaj/courses/matlab/
14
2. C alculo de V ar(X
n
). Utilizando V ar(Y ) = E(V ar(Y [ X)) + V ar(E(Y [ X)) con
Y = X
n+1
, X = X
n
obtenemos
V ar(X
n+1
[ X
n
) = V ar
_
Xn

j=1
Z
j
(n) [ X
n
_
=
2
X
n
y
E(X
n+1
[ X
n
) = E
_
Xn

j=1
Z
j
(n) [ X
n
_
= X
n
luego
E(V ar(X
n+1
[ X
n
)) =
2
E(X
n
)
y
V ar(E(X
n+1
[ X
n
)) =
2
V ar(X
n
)
luego
V ar(X
n+1
) =
2
E(X
n
) +
2
V ar(X
n
)
=
2

n
E(X
0
) +
2
V ar(X
n
)
luego

2
n+1
=
2

2
n
+
2

n
E(X
0
) , n = 0, 1,

2
n
=
2

2
n1
+
2

n1
E(X
0
) , n = 1, 2,
Utilizando x
n
= ax
n1
+ b
n
, n = 1, 2, de donde x
n
= a
n
_
x
0
+
n

j=1
a
j
b
j
_
, n =
1, 2, obtenemos

2
n
=
2n
_

2
0
+
2
E(X
0
)
n

j=1

2j

j1
_
=
2n
_

2
0
+
2
E(X
0
)
n

j=1

j1
_
En este punto es necesario considerar los casos ,= 1 y = 1.
3. Caso ,= 1.
n

j=1

j1
=
1
n

j=1

j
=
1
_

(n+1)
1
1
_
15
=
1
_
1
n
1
_
=
(n+1)
_

n
1
1
_
luego

2
n
=
2n

2
0
+
2
E(X
0
)
n1
_

n
1
1
_
Suponga P(X
0
= 1) = 1, es decir E(X
0
) = 1 , V ar(X
0
) =
2
0
= 0 entonces
2
n
=

n1
_

n
1
1
_
, ,= 1. En Conclusi on, si P(X
0
= 1) = 1 y ,= 1 entonces
E(X
n
) =
n
V ar(X
n
) =
2

n1
_

n
1
1
_
, n = 1, 2,
4. Caso u = 1. En este caso E(X
n
) = 1 y
2
n
=
2
n1
+
2
, n 1 luego

2
1
=
2

2
2
= 2
2
.
.
.

2
n
= V ar(X
n
) = n
2
n 1
Si < 1 entonces
n
0 cuando n por tanto E(X
n
) 0 cuando n y V ar(X
n
) 0
cuando n y si k > 0 es un n umero positivo cualquiera, entonces
P(X
n
k) <
E(X
n
)
k
=

n
k
0 , n
locual indicara que la poblaci onse extingue con probabilidad1. La denici onformal de Extinci on
de un proceso GW es la siguiente.
Denici on 1.3.2. . Se dene el evento Extinci on y su correspondiente probabilidad, como:

0
= P(Extinci on) = P
_

_
n=1
(X
n
= 0)
_
= lm
n
P(X
n
= 0)
La probabilidad de que P(X
n
= 0) es la probabilidad de que el proceso termine en un tiempo
menor o igual a n tambi en P(X
1
= 0) = p
0
. Si p
0
= 0 no hay extinci on.
El problema de determinar
0
lo plante o en 1889 Francis Galton, con relaci on al problema de la
extinci on de apellidos.
16
1. si < 1 entonces
0
= 1 ( proceso subcrtico )

n
= E(X
n
) =

j=1
jP(X
n
= j)

j=1
P(X
n
= j) = P(X
n
1)
luego, como
n
0 , P(X
n
1) 0 , n por tanto P(X
n
= 0) 1 , n
.
2. Si = 1 se puede probar que
0
= 1
3. Si > 1

0
= P(E) =

j=1
P(E [ X
1
= j)P(X
1
= j)
y
X
1
=
X0

j=1
Z
j
(0) = Z
1
(0)
luego
P(X
1
= j) = P(Z
1
(0) = j) = p
j
por tanto

0
=

j=1
P(E [ X
1
= j)p
j
(ver (Medhi 1978) pag. 247) Dado X
1
= j la poblaci on se extingue si y solo si cada una
de las j familias iniciadas por los miembros de la primera generaci on se extinguen. Se
asumi o que las familias evolucionan independientemente, luego
P(E [ X
1
= j) =
j
0
entonces

0
=

j=1
p
j

j
0
Si se dene la funci on P() =

j=0
p
j

j
la funci on generadora de probabilidad de Z
j
(n) entonces

0
es una raz de la ecuaci on = P() con [0, 1]. Note que = 1 es raz. Se puede probar
que en el caso > 1 solo hay una raz
0
(0, 1) de = P().
Ejemplo 1.3.2. Suponga que las variables aleatorias Z
j
(n) 0, 1, 2 con p
0
=
1
9
p
1
=
4
9
, p
2
=
4
9
entonces

0
=

j=0

j
0
p
j
17
=
1
9
+
0
4
9
+
2
0
4
9
9
0
= 1 + 4
0
+ 4
2
0
0 = 4
2
0
5
0
+ 1
de donde
0
= 1 o
0
= 0.25
Ejemplo 1.3.3. Sea p
k
= (1 p)p
k
, k = 0, 1, 2, entonces
=

k=0
k(1 p)p
k
=
p
1 p
, p (0, 1)
por tanto

0
=

j=0

j
0
p
j
=

j=0

j
0
(1 P)p
j
= (1 p)

j=0
(
0
p)
j
= (1 p)
1
1
0
p
(1
0
p)
0
= 1 p
0 = p
2
0

0
+ 1 p
de donde obtenemos que
0
= 1 o
0
=
1 p
p
Si
0
=
q
p
< 1 es porque
p
q
> 1 es decir > 1.
Por ejemplo si p =
3
4
entonces =
p
1p
=
3
4
1
4
= 3 > 1 entonces
0
=
1p
p
=
1
3
Ejemplo 1.3.4. Supongamos que p
k
=
e

k
k!
, k = 0, 1, 2, = > 1 entonces

0
=

j=0

j
0
p
j
= e

j=0

j
0
j!
= e

j=0
(
0
)
j
j!
= e

e
0
= e
(10)
18
Por ejemplo si = 3 , x = e
3(1x)
la soluci on aproximada es x =
0
= 0.0595
Teorema 1.3.1. (ver Medhi (1978), pag. 248 ) Para n, r = 0, 1, 2, E(X
n+r
[ X
n
) = X
n

r
.
Demostraci on. Si r = 1 , n 0 entonces E(X
n+1
[ X
n
) = X
n
.
Supongamos que es v alida para r = k entonces para r = k + 1 se tiene
E(X
n+k+1
[ X
n
) = E(E(X
n+k+1
[ X
n
, X
n+1
, , X
n+k
) [ X
n
)
= E(E(X
n+k+1
[ X
n+k
) [ X
n
)
= E(X
n+k
[ X
n
)
=
k+1
X
n
por tanto el resultado es v alido para r = k + 1 y por el principio de inducci on el resultado es
v alido para cualquier r 1.
Nota 1.3.1. Por la denici on de X
n
se tiene que
P(X
n+1
= k [ X
n
= k
n
, X
n1
= k
n1
, , X
1
= k
1
) = P(X
n+1
= k [ X
n
= k
n
)
y por tanto
E(X
n+1
[ X
n
= k
n
, X
n1
= k
n1
, , X
1
= k
1
) = E(X
n+1
[ X
n
= k
n
)
1.4. Marcha Aleatoria
Denici on 1.4.1. Suponga una sucesi on de variables aleatorias i.i.d, (X
n
, n = 1, 2, . . .), con
valores en 1, 1, y tales que P(X
j
= 1) = p y P(X
j
= 1) = q = 1 p, donde p (0, 1).
Y dena el proceso (Z
n
, n = 0, 1, . . .), como Z
0
= 0, Z
n
= X
1
+ . . . +X
n
, n 1. El proceso
Z
n
se denomina Marcha Aleatoria no Restringida.
Denici on 1.4.2. Un proceso Z
n
, n = 1, 2, . . . se dice que tiene incrementos independientes si
para cualesquier 0 < n
1
< . . . < n
k
enteros positivos se cumple que las variables:
Z
0
, Z
n1
Z
0
, Z
n3
Z
n2
, . . . , Z
nk
Z
nk1
son independientes.
Denici on 1.4.3. Un proceso Z
n
, n = 1, 2, . . . se dice de Markov si para cualesquier 0 < n
1
<
. . . < n
k
enteros positivos se cumple
P(Z
nk
y [ Z
0
, Z
n1
, Z
n2
, . . . , Z
nk1
= x) = P(Z
nk
y [ Z
nk1
= x)
Proposici on 1.4.1. Cualquier proceso con incrementos independientes es Markov.
19
Demostraci on.
P(Z
nk
y[Z
0
, Z
n1
, Z
n2
, . . . , Z
nk1
= x) =
P(Z
nk
Z
nk1
y x[Z
0
, Z
n1
Z
0
, Z
n2
Z
n1
, . . . , Z
nk1
Z
nk2
) =
P(Z
nk
Z
nk1
y x) =
P(Z
nk
Z
nk1
y x[Z
nk1
Z
0
, Z
0
) =
P(Z
nk
y[Z
nk1
= x)
Ejercicio 1.4.1. Compruebe que la Marcha Aleatoria no Restringida tiene incrementos indepen-
dientes y por tanto es un proceso Markov.
Ejercicio 1.4.2. Si Z
n
Marcha Aleatoria no Restringida, aplique las propiedades anteriores para
resolver lo siguiente:
1. Compruebe: Z
n
= Z
n1
+X
n
, n = 1, 2, . . ..
2. Compruebe que si se dene R
j
= (X
j
+1)/2 y R
n
=

n
j=1
R
j
entonces R
n
Bin(n, p).
Adem as, compruebe que se tiene R
n
= (Z
n
+n)/2 y E(Z
n
) = n(p q).
3. Calcule P(Z
5
= 1, Z
7
= 3, Z
13
= 9). Sugerencia: esta probabilidad es igual a: P(Z
5
=
1, Z
7
Z
5
= 31, Z
13
Z
7
= 93). Aplique la propiedadde incrementos independientes
y transforme con R
n
.
4. Calcule E(Z
5
Z
8
).
5. Calcule E(Z
11
[Z
5
).
El modelo de marcha aleatoria anterior tiene varias aplicaciones.
1. La difusi on de mol eculas en un gas, asumiendo que hay independencia de los desplaza-
mientos entre colisiones.
2. Las partculas que se diluyen dentro de un medio realizan marchas aleatorias entre los
atomos.
1.5. El Proceso Poisson
El proceso Poisson homog eneo
_
N
t
, t 0
_
es un proceso con espacio de estados E = 0, 1, . . .
en tiempo continuo t 0, denido de la siguiente manera.
20
Denici on 1.5.1. Un proceso N
t
, t 0 se dice que es un proceso de conteo si N
t
mide el n umero
de ocurrencias de un fen omeno aleatorio en el intervalo [ 0, t ]. Si h > 0, la variable N
t+h
N
t
es el n umero de ocurrencias en el intervalo ( t , t + h]. El proceso de Poisson se dene como un
proceso de conteo que satisface las siguientes condiciones.
1. N
0
= 0.
2. Si 0 < t
1
< t
2
< t
3
< t
4
entonces N
t4
N
t3
y N
t2
N
t1
son independientes.
3. Si h > 0 , N
t+h
N
t
Poisson(h) para cierto > 0 es decir
P( N
t+h
N
t
= k ) = e
h
( h)
k
k!
k = 0, 1,
Se pueden demostrar las siguientes propiedades del proceso Poisson.
1. P(N
t
= k) = e
t
( t )
k
k!
2. P( N
t+h
N
t
2)/h 0 si h 0+
3. E( N
t
) = V ar( N
t
) = t , E( N
2
t
) = t +
2
t
2
4. Si 0 < t
1
< t
2
< t
3
< t
4
entonces
E
_
( N
t4
N
t2
) ( N
t3
N
t1
)
_
=
2
( t
4
t
2
) ( t
3
t
1
) + ( t
3
t
2
)
5. E( N
t1
N
t2
) =
2
t
1
t
2
+ mn( t
1
, t
2
) t
1
, t
2
0. La demostraci on se basa en la
propiedad 4), colocando que t
1
= t
2
= 0, t
4
= t
1
, t
3
= t
2
,, y luego t
2
t
1
de donde
E( N
t1
N
t2
) =
2
t
1
t
2
+ t
2
=
2
t
1
t
2
+ mn ( t
1
, t
2
).
6. Cov(N
t1
, N
t2
) = E(N
t1
N
t2
) E(N
t1
)E(N
t2
) = mn(t
1
, t
2
).
7. Las trayectorias muestrales de N
t
son funciones escalonadas, continuas a derecha, con
saltos de magnitud 1 en ciertos tiempos T
j
, j = 1, 2, por la propiedad 2).
8. Se puede probar que si T
1
T
2
, es la sucesi on de tiempos en los que que ocurren los
saltos, entonces las variables T
1
, T
2
T
1
, T
3
T
2
, son independientes e id enticamente
distribudas Exp(1/). Entonces E( T
j
T
j1
) =
1

, V ar( T
j
T
j1
) =
1

2
y P( T
j

T
j1
> t ) = e

, por propiedades de la distribuci on Exponencial.


9. Al sumar T
1
+ ( T
2
T
1
) + + ( T
k
T
k1
) = T
k
se obtiene una suma de k variables
exponenciales independientes, Luego T
k
Gamma
_
k ,
1

_
y
E( T
k
) =
k

V ar( T
k
) =
k

2
21
Figura 1.2: Trayectoria de un proceso Poisson con = 6/10
10. La fgm de N
t
Poisson( t ) es
M
Nt
( ) = E
_
e
Nt
_
= e
t( e

1 )
R
11.
M
Tk
( t ) =
_
1
1
t

_
k
=
_

t
_
k
para t <
12. Identidad N
t
k T
k
t
Ejemplo 1.5.1. (ver Parzen (1972), Ejemplo 3c, pag. 47 y Ross (1989) pag. 216) Considere una
componente, por ejemplo, una l ampara, que se utilizahasta que falla y entonces se reemplaza por
otra nueva. Las vidas Y
1
, Y
2
, de las componentes sucesivas forman una sucesi on de variables
aleatorias i.i.d. distribudas Exponencial con media . Para cada t > 0 denimos N
t
como el
n umero de componentes que han falladohasta t, es decir, N
t
= Max j : Y
1
+Y
2
+ +Y
j
t,
donde Y
j
Exp(). Entonces N
t
Poisson( t ).
Suponga que Y
j
Exp() con = 1000 horas, donde P( Y
j
> t ) = e
t
= e
1000t
. Luego
P( N
t
= k ) =
e

1
t
(
1
t )
k
k!
k = 0, 1, 2,
Por ejemplo,
P( N
5000
= 3 ) = e

5000
1000
_
5000
1000
_
3
1
3!
=
e
5
5
3
3!
= 0.14
E( N
5000
) = 5
22
Nota 1.5.1. Si los tiempos de entre-arribo Y
j
no son exponenciales pero son iid y se denen las
variables siguientes:
1. S
0
= 0 , S
n
=
n

j=1
Y
j
, n 1.
2. N
t
= Maxn : S
n
t =

j=1
I( S
j
t ), t 0
donde I(A) es la funci on indicadora del evento A, igual a 1 cuando A es cierto e igual a 0 en
caso contrario, entonces el proceso (N
t
, t 0) se denomina Proceso de Renovaci on .
Nota 1.5.2. Si Y Exp( ) entonces E( Y ) = , V ar( Y ) =
2
de donde el coeciente de
variaci on CV = E(Y )/
_
V ar(Y ) = 1. Aunque no es una prueba formal se puede calcular el
cociente Y /s
Y
y ver si es aproximadamente igual a uno para suponer que las variables Y se
distribuyen Exponencial.
1.5.1. Modelo de Riesgo Colectivo
Un tipo de proceso estoc astico que ha demostrado ser particularmente util en aplicaciones es el
denominado Modelo de Riesgo Colectivo. Sus aplicaciones son principalmente en el dise no de
seguros de bienes o seguros generales. Su denici on se basa en la de suma aleatoria de variables
aleatorias.
Denici on1.5.2. Si N es unavariable aleatoriadiscretaconvalores en0, 1, 2, y X
1
, X
2
,
es una sucesi on de variables aleatorias iid denidas en [0, ), independientes de N, entonces la
variable aleatoria Y =
N

j=1
X
i
, con Y = 0 si N = 0, se dene como la suma aleatoria de N
variables aleatorias independientes.
Proposici on 1.5.1. Denote por p
n
= P(N = n), n = 0, 1, la fdp de N y
N
= E(N),

2
N
= V ar(N), F(x) = P(X x), la fda de X y
X
= E(X),
2
X
= V ar(X), entonces
E(Y ) = E(N
X
) =
N

X
, (1.3)
V ar(Y ) =
N

2
X
+
2
X

2
N
. (1.4)
Demostraci on. 1. E(Y ) = E(E(Y [ N)) = E(E(

N
j=1
X
j
[ N)). Pero E(Y [ N) =
E(

N
j=1
X
j
[ N) = NE(X
j
[ N) = NE(X
j
) = N
X
. V ar(Y [ N) = V ar(

N
j=1
X
j
[
N) = NV ar(X
j
[ N) = N
2
X
.
2. V ar(Y ) = E(V ar(Y [ N)) + V ar(E(Y [ N)). Pero E(V ar(Y [ N)) = E(N
2
X
)
V ar(N
X
) y V ar(E(Y [ N)) =
N

2
X
+
2
X

2
N
.
23
El modelo b asico de Riesgo Colectivo se dene a apartir de un proceso Poisson homog eneo
(N
t
, t 0) con tasa , y una sucesi on de variables aleatorias iid, (X
j
)
j=1,2,...
con fda F(x) =
P(X
j
x), independientes de N
t
. Con estas variables se denen dos procesos estoc asticos: un
proceso S(t) =

Nt
j=1
X
j
, que es una suma aleatoria de variables aleatorias, y el proceso de
Riesgo Colectivo denido como R(t) = s + t S(t), t 0, donde s, > 0 son constantes
dadas.
La interpretaci on del modelo es como sigue.
(N(t), t 0) : es el n umero de reclamos hasta el tiempo t.
(X
j
)
j=1,2,...
: es el costo de cada reclamo, con = E(X
j
).
S(t) =

Nt
j=1
X
j
: es el costo total acumulado hasta el tiempo t.
R(t) = s + t S(t): es el super avit en el tiempo t
De las relaciones anteriores se concluye que el valor s, al ser R(0) = s, es el super avit inicial, o
mejor, la reserva inicial de capital. Tambi en, es el valor de la prima anual que pagan quienes
adquieren el seguro, al inicio de la vigencia en t = 0, pero se asume que los pagos se hacen
continuamente de tal forma que t es el total pagado hasta el tiempo t. Si en alg un tiempo t > 0
se obtiene R(t) < 0 se habla de un super avit negativo en t, o ruina. Se tienen los siguientes
resultados.
1. E(R(t)) = E(s + t S(t)) = s + ( )t.
2. Evento Ruina: (R(t) < 0, en alg un t 0).
3. Probabilidad de ruina: (s) = P(R(t) < 0, en alg un t 0), s 0.
4. Si se dene el valor A > 0 que es soluci on de la ecuaci on 1 +A/ = E(e
AXj
) entonces
se cumple la Cota Cramer-Lundberg: (s) e
As
. Para la validez de este resultado se
requiere que los siniestros denominados de baja severidad, lo cual se interpreta como que
las X
j
cumplen E(e
tXj
) < para t < , > 0 y E(e
tXj
) cuando t .
Ejemplo de Ruina La gr aca (1.3) muestra una trayectoria del proceso R(t) = s + ct S(t),
S(t) =

N(t)
j=1
X
j
, con X
j
Exp(5), N(t) Poisson(t), con = 1, con s = 30, P = 6,
para t [0, 50]. Es este caso la probabilidad de ruina es (30) = P(R(t) < 0, en alg un t
0) = 0.306.
El modelo se desarrolla escogiendo distribuciones particulares para las variables N y X
j
. Por
ejemplo N = Poison , Binomial Negativa y X
j
= Gamma , LogNormal , Pareto.
24
Figura 1.3: Trayectorias de procesos de riesgo
1.6. Martingalas.
Denici on 1.6.1. Un proceso estoc astico en tiempo discreto (S
n
, n = 1, 2, ) es una martin-
gala con respecto a la sucesi on (X
n
, n = 1, 2, ) si para todo n 1
1. E([S
n
[) <
2. E(S
n+1
[ X
1
, X
2
, , X
n
) = S
n
Ejemplo 1.6.1. (ver (Medhi 1978) pag. 248 ) Suponga que X
n
es el proceso Galton-Watson tal
que
X
n+1
=
Xn

j=1
Z
j
(n) , n = 0, 1, 2,
entonces
E(X
n+1
[ X
1
, X
2
, , X
n
) = E(X
n+1
[ X
n
) = X
n
y E(X
n
) =
n
Denamos S
n
=
X
n

n
entonces
E(S
n+1
[ X
1
, X
2
, , X
n
) = E
_
X
n+1

n+1
[ X
1
, X
2
, , X
n
_
=
X
n

n+1
=
X
n

n
= S
n
luego
E(S
n+1
[ X
1
, X
2
, , X
n
) = S
n
y (S
n
, n = 1, 2, )
es una martingala con respecto a (X
n
, n 1).
Proposici on 1.6.1. Si (S
n
, n = 1, 2, ) es una martingala entonces E(S
n
) = c para todo
n 0
25
Si n 2 entonces
E(S
n
) = E(E(S
n
[ X
1
, 2, , S
n1
) = E(S
n1
)
luego
E(S
n
) = c
Proposici on 1.6.2. Si (S
n
, n 1) es martingala entonces para 1 n m se tiene
E(S
m
[ X
1
, X
2
, , X
n
) = S
n
Demostraci on. Para m = n + 1 es v alida por denici on.
Para m = n + 2
E(S
n+2
[ X
1
, X
2
, , X
n
) = E(E(S
n+2
[ X
1
, X
2
, , X
n+1
) [ X
1
, X
2
, , X
n
)
= E(S
n+1
[ X
1
, X
2
, , X
n
) = S
n
de igual manera se prueban los casos m = n + 3 , m = n + 4 ,
1.7. Problemas
1. Suponga que X
1
Poisson(2) y X
2
[X
1
Bin(3 + 2X
1
, 1/2)
Encuentre:
a) E(X
2
[X
1
) y V ar(X
2
[X
1
)
b) E(X
2
) y V ar(X
2
)
c) El rango y la fdp conjunta de (X
1
, X
2
)
2. Si Y [X Exp(2 +X) y X U(2, 4), encuentre:
a) E(Y [X), V ar(Y [X)
b) E(Y ), V ar(Y )
c) E(Y
X
[X = 3)
d) El rango y la fdp conjunta de (X,Y).
3. Suponga que la variable Y es discreta con valores 0,1 tal que P(Y = 1[X = x) =
e
1+2x
/(1 + e
1+2x
), donde X es una variable discreta con fdp dada por: P(X = x) =
1/3, x = 0, 1, 2.
a) Encuentre P(Y = 1).
26
b) Encuentre E(Y ).
4. Si (X, Y, Z) tienen fdp conjunta dada por:
f
X,Y,Z
(x, y, z) =
_
e
z/

3
si 0 < x < y < z
0 en otro caso
Compruebe
a) Resuelva el Ejercicio 1.2.2, pag. 11.
b) E(Z [ Y ) = + Y
c) E(Y [ X) = +X.
5. Consideremos un proceso de Galton-Watson (X
n
, n = 0, 1, . . .) denido de manera recur-
siva por medio de la relaci on:
X
n+1
=
Xn

j=1
Z
j
(n), n = 0, 1, 2, . . .
donde las variables aleatorias Z
j
(n), n = 0, 1, . . . , j = 1, 2, . . . se asumen i.i.d, con valores
en 0, 1, 2, . . ., con funci on de densidad p
k
= P(Z
j
(n) = k) < 1, k = 0, 1, 2, . . . , p
0
>
0. Denotemos por y por
2
, el valor esperado y la varianza, respectivamente de una
cualquiera de las Zs. En el an alisis siguiente se asumir a que ,= 1.
a) Utilice el resultado del Teorema (1.3.1), pag. 18, para comprobar que se cumple
E(X
n
X
n+r
) =
r
E(X
2
n
).
b) Calcule Cov(X
n
, X
n+r
) y Corr(X
n
, X
n+r
).
c) Si se asume que Z
j
(n) Poisson() encuentre una expresi on para P(X
n+1
=
r[X
n
= m), donde r, m son enteros con r 0, m > 0.
d) Si se asume que Z
j
(n) Geo(p) encuentre una expresi on para P(X
n+1
= r[X
n
=
m), donde r, m son enteros con r 0, m > 0.
e) Asuma que Z
j
(n) tiene una distribuci ondiscreta con valores en 0, 1, 2, 3, y distribu-
ci onde probabilidades dada por el vector (p
k
, k = 0, 1, 2, 3) = (3/16, 5/16, 6/16, 2/16),
donde p
0
= P(Z = 0) = 3/16. Encuentre ,
2
. Encuentre la probabilidad de ex-
tinci on resolviendo al ecuaci on g() = , donde g(x) =

k=0
x
k
p
k
. En clase se
mencion o que, para procesos GW con > 1, llamados supercrticos", se cumple
que:
P(Extinci on) + P( lm
n
X
n
= +) = 1
Es decir, un proceso supercrticos o se extingue o diverje a innito. Cu al es la proba-
bilidad de este ultimo evento en este ejemplo?.
27
6. Suponga que N y X
j
tienen medias y varianzas dadas por

N
= E(N) = 230 ,
N
= 30 ,
X
= E(X
j
) = 1 mill on ,
X
= 0.3 (300.000)
entonces
E(Y ) = 230 1 = 230.000.000

Y
=
_
V ar(Y ) =
_
[230(0.3)
2
+ 1
2
(30)
2
] = 30.34 millones
Suponga que fuera v alida la armaci on siguiente:
Z =
Y E(Y )
_
V ar(Y )
N(0, 1)
entonces P(Z > 1.645) = 0.05 y por tanto
Y u
Y

Y
> 1.645 implica Y > u
Y
+1.645
Y
.
Entonces el intervalo [u
Y
+ 1.645
Y
, ) = [279.9, ) = [280, ), es un intervalo con
una probabilidad de contener los costos totales en un 5 % de los casos. En otras palabras,
los costos no superaran los 280 millones con un 95 % de probabilidad.
Adicionalmente, la prima neta se puede denir como
=
E(Y )
n
Suponga que hay n = 6.000 p olizas de forma que
230
6.000
=
23
600
= 0.038. La prima neta
sera =
230
6.000
= 0.038 millones por asegurado.
1.8. Soluciones
1. a) Como X Bin(n, p) entonces E(X) = np, luego E(X
2
[X
1
) = (3 + 2X
1
)(1/2).
Adem as, comoV ar(X) = np(1p) entonces V ar(X
2
[X
1
) = (3+2X
1
)(1/2)(1/2) =
(3 + 2X
1
)/4
b) Utilizando la identidad E(E(X[Y )) = E(X) tenemos
E(X
2
) = E(E(X
2
[X
1
)) = E((3 + 2X
1
)/2) = 3/2 + (1/2)E(X
1
)
Como E(X
1
) = 2 entonces E(X
2
) = 3/2 + 1. Utilizando la identidad V ar(X) =
V ar(E(Y [X))+E(V ar(Y [X)) se tiene que V ar(E(X
2
[X
1
)) = V ar((3+2X
1
)/2) =
V ar(X
1
) = 2, adem as, E(V ar(X
2
[X
1
)) = E((3 + 2X
1
)/4) = (3 + 4)/4. Luego
V ar(X
2
) = 7/4 + 2
c) Como una binomial tiene rango de 0 a n, y X
2
[X
1
Bin(3 + 2X
1
, 1/2) la variable
X
2
[X
1
tiene un rango que depende de X
1
, dado por 0, 1, . . . , 3 + 2X
1
. Como
28
X
1
Poisson(2) entonces su rango es 0, 1, . . . . Luego el rango conjuntoes (i, j) :
i = 0, 1, . . . , j = 0, 1, . . . , 3+2i. La fdp conjunta se encuentra haciendo el producto
f
X2
(j[X
1
= i).f
X1
(i) =
e
2
2
(3+i)
i!
_
3 + 2i
j
_
para i = 0, 1, . . . , j = 0, 1, . . . , 3 + 2i.
2. Ejercicio.
3. Ejercicio. Utilice las f ormulas sobre probabilidad total en las Notas.
4. a) Aplicando la propiedad 5) de esperanza condicional, con k = 1 y n = 2, tenemos
E(E(Z [ X, Y ) [ X) = E(Z [ X) = + E(Y [ X).
Para la segunda identidad, utilizando la propiedad 3) tenemos: E(E(Z [ X, Y )) =
E(Z) = E( + E(Y [ X)) = +E(Y ).
b) Ejercicio.
c) Ejercicio.
5. a) Utilice E(X
n
X
n+r
) = E(E(X
n
X
n+r
[X
n
)) y aplique el resultado anterior.
b) Para la covarianza utilizamos Cov(X
n
, X
n+r
) = E(X
n
X
n+r
) E(X
n
)E(X
n+r
).
Todos estos valores se conocen y solo falta reemplazarlos. Igual para la correlaci on.
c) Use la propiedad de sumas i.i.d de Poisson.
d) Use la propiedad de sumas i.i.d de Geom etricas.
e) Ejercicio.
CAP

ITULO 2
Desigualdades y Modos de Convergencia
2.1. Desigualdades
Las desigualdades son utiles para establecer cotas superiores o inferiores para probabilidades, o
para la soluci on de un problema de convergencia. Las desigualdades m as utiles son las siguientes:
1. Si E([X[) < entonces [E(X)[ E([X[)
2. Desigualdad Triangular
E([X Y [) E([X[) + E([Y [)
adem as
[E(X) E(Y )[ E([X Y [) E([X[) + E([Y [)
3. Desigualdad Triangular General
E([X + Y [
r
)
1
r
E([X[
r
)
1
r
+ E([Y [
r
)
1
r
para r 1
tambi en se tiene otra versi on de esta desigualdad, dada por
E([X + Y [
r
) C
r
(E([X[
r
) +E([Y [
r
)) para r > 0
29
30
donde C
r
= 1 si r 1 y C
r
= 2
r1
si r 1.
4. Desigualdad de Markov
Si para alg un r > 0 se tiene E([X[
r
) < entonces, para todo a > 0 se cumple
P([X[
r
a)
E([X[
r
)
a
r
Ejemplo 2.1.1. Si Y =
N

j=1
X
j
es suma aleatoria de variables aleatorias independientes
con X
j
positivas y N 0, 1, 2, entonces
a) P(Y 0) = 1 ya que por teorema de probabilidad total
P(Y 0) =

n=0
P(Y 0 [ N = n)P(N = n)
= p
0
+

n=1
P
_
n

j=1
X
j
0
_
P(N = n)
pero
P
_
n

j=1
X
j
0
_
= 1 n 1
luego
P(Y 0) =

n=0
p
n
= 1
b) Para todo a > 0
P([Y [ a) = P(Y > a)
E(Y )
a
luego como E(Y ) =
N

X
entonces
P([Y [ a)

N

X
a
Como Ejemplo si
N
= 230 y
X
= 1 mill on y Y son los costos totales entonces
P(Y 280 millones )
E(Y )
280
=
230
280
= 0.821
con la aproximaci on normal
P(Y 280) = 0.05 < 0.821
5. Desigualdad de Chebyshev
Si V ar(X) < entonces colocando r = 2 y X E(x) en lugar de X en la desigualdad
de Markov se obtiene
P([X
X
[ a)
V ar(X)
a
2
a > 0
31
Recu erdese que [x
X
[ a x
X
a o x
X
+ a.
Si X N(
X
,
2
X
) y a = 1.645 entonces
P([X
X
[ 1.645
X
)

2
X
1.645
2

2
X
= 0.369
pero
P([X
X
[ 1.645
X
) = 1 P([X
X
[ 1.645
X
) = 1 0.95 = 0.05
6. Desigualdad de Cauchy-Schwarz
[E(XY )[ E([XY [)
_
E(X
2
)
_
E(Y
2
)
Ejemplo 2.1.2. Como Cov(X, Y ) = E((X
X
)(Y
Y
)) entonces
[Cov(X, Y )[ E([X
X
[[Y
Y
[)
_
E((X
X
)
2
)
_
E((Y
Y
)
2
) =
X

Y
luego
[
XY
[ 1
Denici on 2.1.1. La esperanza E(X
r
) , r = 1, 2, se llama momento de orden r, y
E([X[
r
) se llama momento absoluto de orden r.
7. Desigualdad de Lyapunov
Si 0 < s r entonces
_
E([X[
s
)
_1
s

_
E([X[
r
)
_ 1
r
.
Ejemplo 2.1.3. Si X es variable aleatoria en R y s = 1 , r = 2 entonces
E([X[) [E((X
2
))]
1
2
es decir E
2
([X[) E(X
2
) y como [E(X)[ E([X[) entonces
E
2
(X) E
2
([X[) E(X
2
)
de donde
E(X
2
) E
2
(X) = V ar(X) 0
8. Identidad La siguiente identidad es util para calcular momentos de una variable aleatoria.
E([X[
r
) = r
_

0
x
r1
P([X[ > x)dx +, r = 1, 2, . . .
Ejercicio 2.1.1. Si X es una variable aleatoria en [0, ) con fda P(X x) = 1
_

+x
_

, > 0 , > 0, se dice que se distribuye Pareto(, ). Compruebe que si > 1


entonces E(X) =

1
y, si = 2, entonces E(X
2
) = +.
32
Demostraci on. Usando la identidad anterior con r=2 tenemos:
E(X
2
) = 2
_

0
x
_
1

2
( + x)
2
_
dx
=
t(t
2
+ t + 2
2
)
t +
2
2
ln(1 +
t

) , t
luego E(X
2
) = +.
9. Desigualdad de Jensen
Una funci on f(x) se dice convexa en [a, b] si la lnea que une los puntos (a, f(a)), (b, f(b))
est a siempre por encima de la gr aca (x, f(x)). Una condici on suciente para que f sea
convexa es que exista f

(x) y cumpla f

(x) > 0 en ese intervalo. En este caso, si X es una


variable aleatoria, f es convexa en el rango de X, y E(f(X)) existe, entonces se cumple:
f(E(X)) E(f(X))
Una funci on f(x) se dice c oncava en [a, b] si la lnea que une los puntos (a, f(a)), (b, f(b))
est a siempre por debajo de la gr aca (x, f(x)). Una condici on suciente para que f sea
c oncava es que exista f

(x) y cumpla f

(x) < 0 en un intervalo. En este caso, si X es una


variable aleatoria, f es c oncava y E(f(X)) existe, entonces se cumple:
E(f(X)) f(E(X))
Ejemplo 2.1.4. a) Si f(x) = 1/x, x > 0, entonces f

(x) = 2/x
3
> 0, x > 0. Por
tanto, f es convexa en (0, ). Si X es una variable aleatoria con valores en (0, )
aplicando la desigualdad obtenemos 1/E(X) E(1/X).
b) Si f(x) = ln(x) entonces f

(x) < 0, x > 0. Por tanto, f es c oncava. Si X es una


variable aleatoria con valores en (0, ) entonces se cumple E(ln(X)) ln(E(X)).
Ejemplo 2.1.5. Suponga que X
1
y X
2
son variables aleatorias con medias 0 varianzas 1 y
correlaci on > 0. Comprobar que
E(max(X
2
1
, X
2
2
)) 1 +
_
1
2
Utilizandola desigualdad de Cauchy-Schwarz y las identidades: max(a, b) =
1
2
(a+b +[ab[),
a
2
b
2
= (a + b)(a b).
Aplicando las identidades anteriores tenemos
2E(max(X
2
1
, X
2
2
)) = E(X
2
1
) +E(X
2
2
) +E([X
2
1
X
2
2
[)
= E(X
2
1
) + E(X
2
2
) + E([X
1
X
2
[[X
1
+ X
2
[)
33
E(X
2
1
) + E(X
2
2
) +
_
E((X
1
+X
2
)
2
)E((X
1
X
2
)
2
)
= E(X
2
1
) + E(X
2
2
) +
_
E(X
2
1
) +E(X
2
2
) + 2E(X
1
X
2
)
1
2
.
_
E(X
2
1
) +E(X
2
2
) 2E(X
1
X
2
)
1
2
= 2 +
_
2 + 2
_
2 2
= 2 + 2
_
1
2
de donde E(max(X
2
1
, X
2
2
)) 1 +
_
1
2
.
Ejemplo2.1.6. Para cualquier par de variables aleatorias X
1
, X
2
con coeciente de correlaci on
y para cualquier > 0
P([X
1

1
[
1
) (([X
2

2
[
2
)
1

2
(1 +
_
1
2
)
P(A) = P
_
[X
1

1
[

1

_

2
E
_
_
X
1

1

1
_
2
_
P(B) = P
_
[X
2

2
[

2

_

2
E
_
_
X
2

2

2
_
2
_
P(A B) P(A) + P(B)

2
E
_
max
_
_
X
1

1

1
_
2
,
_
X
2

2
_
2
__
1 +
_
1
2
cov
_
X
1

1

1
,
X
2

2
_
=
cov(X
1
, X
2
)

2
=
2.2. Modos de Convergencia
Se trata de denir la convergencia de una sucesi on de variables aleatorias (X
n
)
n=0,1,2,
. Hay
cinco modos b asicos de convergencia de X
n
a un lmite X cuando n que son
1. Con probabilidad 1.
2. En media r , r = 1, 2,
3. En Media cuadr atica.
4. En Probabilidad.
5. En Distribuci on.
34
Denici on 2.2.1 (Convergencia con Probabilidad 1 ). X
n
converge a X con probabilidad 1,
indicada por X
n
cp1
X cuando n si se cumple que
P( lm
n
X
n
= X) = 1
Lo anterior signica que X
n
converge a X como si fuera una sucesi on de n umeros, excepto en un
evento N que tiene probabilidad cero, donde N = w : lm
n
X
n
,= X. .
Denici on2.2.2(ConvergenciaenMediar = 1, 2, . . . ). Si r es unenteropositivor = 1, 2, 3,
se dice que X
n
converge a X en media r, indicado por
X
n
r
X , n
si se cumple
1. E([X
n
[
r
) < para n = 1, 2,
2. E([X
n
X[
r
) 0 cuando n
Denici on 2.2.3 (Convergencia en Media Cuadr atica). Es la convergencia en media r con
r = 2, y es el caso m as util en la pr actica, o el que m as va a utilizarse. X
n
converge a X en media
cuadr atica, denotados por
X
n
2
X , n
si se cumple
1. E(X
2
n
) < , n = 1, 2,
2. E([X
n
X[
2
) 0 , n
Denici on 2.2.4 (Convergencia en Probabilidad). X
n
converge a X en probabilidad, denotada
por
X
n
p
X , n
si
> 0 P([X
n
X[ ) 0 cuando n
Denici on 2.2.5 (Convergencia en Distribuci on). X
n
converge a X en distribuci on, denotado
por
X
n
d
X , n
si x F
X
(t) continua en x
F
Xn
(x) F(x) n
35
Las relaciones entre los modos de convergencia est a dado por las siguientes implicaciones; estas
establecen un orden de prioridad entre los cinco modos de convergencia.
Proposici on 2.2.1.
X
n
cp1
X X
n
p
X X
n
d
X
X
n
r
X X
n
p
X X
n
d
X
Otras implicaciones como por ejemplo
X
n
cp1
X X
n
r
X
X
n
p
X X
n
cp1
X
requieren condiciones adicionales para ser v alidas. Es decir, no siempre se cumplen. Por ejemplo,
no es cierto en general que X
n
p
X X
n
cp1
X, sin embargo, si X
n
p
X existe una
sub-sucesi on (n
k
) tal que X
nk
cp1
X.
Ejemplo 2.2.1. Es f acil comprobar que
X
n
1
X = X
n
p
X
utilizando la desigualdad de Markov.
Demostraci on. Si > 0 y se asume que E([X
n
X[) 0 entonces
P([X
n
X[ )
E([X
n
X[)

0 cuando n
luego X
n
p
X.
Ejemplo 2.2.2. Si X
n
2
X = X
n
p
X
Demostraci on. Utilizando la desigualdad de Lyapunov con s = 1 , r = 2
E([X
n
X[)
_
E([X
n
X[
2
)
luego si > 0
P([X
n
X[ )
E([X
n
X[)


_
E((X
n
X)
2
)

de donde si E((X
n
X)
2
) 0 entonces X
n
P
X cuando n
Teorema 2.2.1. (Teorema de Convergencia Mon otona) Suponga que X
n
, n = 0, 1, 2 . . . es una
sucesi on de variables aleatorias, mon otonas no decrecientes y no negativas cp1, 0 X
0
X
1

X
2
. . ., que converge cp1 a X. Entonces se cumple que
lm
n
E(X
n
) = E(X). (2.1)
36
Teorema 2.2.2. (La Ley D ebil de Grandes N umeros) Suponga que X
n
, n = 0, 1, 2 . . . es una
sucesi on de variables aleatorias i.i.d. con media E(X
n
) = y varianza nita V ar(X
n
) =
2
<
, entonces se cumple que

X
n
= (1/n)

n
j=1
X
j
converge en probabilidad a .
Demostraci on. Aplicando la desigualdad de Chebyshev a la variable

X
n
= (1/n)

n
j=1
X
j
,
tenemos que, para > 0, P([

X
n
[ ) V ar(

X
n
)/
2
. Pero V ar(

X
n
) = nV ar(X
1
)/n
2
=

2
/n. Entonces
lm
n
P([

X
n
[ ) lm
n

2
n
2
= 0
es decir,

X
n
p
, n .
Teorema 2.2.3. (La Ley Fuerte de Grandes N umeros) Suponga que X
n
, n = 0, 1, 2 . . . es una
sucesi on de variables aleatorias i.i.d. con media nita E([X
n
[) = , entonces se cumple que

X
n
= (1/n)

n
j=1
X
j
converge cp1 a .
2.2.1. Propiedades de la Convergencia en Distribuci on.
Denici on 2.2.6 (Funci on Generadora de Momentos). Si X es una variable aleatoria, suponga
que existe h > 0 tal que para cada t , h < t < h existe la esperanza E(e
tX
), entonces la
correspondiente funci on de t se denota por M
X
(t) y es la fgm de X. Luego
M
X
(t) =

j
e
tj
P(X = j) si X es discreta
=
_

e
tx
f
X
(x)dx si X es continua
Es evidente que M
X
(0) = 1.
Proposici on 2.2.2.
d
k
M
X
(t)
dt
k

t=0
= E(X
k
) k = 1, 2,
Ejemplo 2.2.3. La fgm de una Normal. Si X N(,
2
) entonces M
X
(t) = exp(t +
1
2
t
2

2
)
luego M

X
(t) = ( + t
2
)M
X
(t). Por tanto, M

X
(t)[
t=0
= . Adem as, M

X
(t) =
2
M
X
(t) +
( + t
2
)
2
M
X
(t) y M

X
(t)[
t=0
=
2
+
2
= E(X
2
).
N otese que si se dene Y = e
X
, es decir, Y es una variable Lognormal, entonces existen todos
los momentos de orden k de Y, E(Y
k
) = E(e
kX
) = M
X
(k), sin embargo, la fgm de Y no existe,
M
Y
(t) = E(exp(te
X
)) = +para todo t ,= 0
Ejemplo 2.2.4. La fgm de una Poisson. Si N Poison(), > 0, entonces P(N = k) =
e

k
k!
k = 0, 1, 2, , y M
N
(t) = E(e
tN
) =

k=0
e
tk
e

k
k!
= e

k=0
(e
t
)
k
k!
=
e

e
e
t
= e
(e
t
1)
. Luego, M

X
(t) = e
t
M
N
(t), por tanto M
X
(t)[
t=0
= . Adem as, M

X
(t) =
e
t
M
N
(t) + (e
t
)
2
M
N
(t) y M

X
(t)[
t=0
= +
2
, luego E(N
2
) = +
2
y V ar(N) = .
37
Ejemplo 2.2.5. La fgm de una Exponencial. Si X Exp() , > 0 entonces f
X
(x) =
1

x 0 y M
X
(t) =
1
1 t
para t <
1

.
Ejemplo 2.2.6. La fgm de una Gamma. Si X Gamma(, ) , , > 0 entonces f
X
(x) =
x
1
e

k
()
, x 0 y M
X
(t) =
_
1
1t
_

para t <
1

.
Teorema2.2.4. Si X
1
, X
2
, , X
n
sonvariables aleatorias independientes confgmM
Xj
(t) , j =
1, 2, , n para h < t < h entonces X = X
1
+ X
2
+ + X
n
tiene fgm M
X
(t) =
M
X1
(t)M
X2
(t) M
Xn
(t) e inversamente, si la fgmM
X
(t) se puede expresar como el producto
de las fgm de las X
j
entonces estas son independientes.
Teorema 2.2.5. Si (Y
n
)
n=1,2,
es una sucesi on de variables aleatorias tales que tienen fgm
M
Yn
(t) para h < t < h y existe una variable aleatoria Y con fgm M
Y
(t) para [t[ h
1
< h
tal que M
Yn
(t) M
Y
(t) n entonces
Y
n
d
Y cuando n
Ejemplo 2.2.7. Suponga que Y
n
Bin(n, p
n
) tal que p
n
=

n
para n = 1, 2, donde > 0
es una constante. Entonces
M
Yn
(t) = E(e
tYn
) = (1 p
n
+ p
n
e
t
)
n
=
_
1 +
(e
t
1)
n
_
n
Utilizando el resultado
_
1 +

n
_
n
e

cuando n
se obtiene
M
Yn
(t) exp((e
t
1))
Como para Y Poison() se tiene M
Y
(t) = e
(e
t
1)
entonces
Y
n
d
Y cuando n
Nota 2.2.1. Usualmente se utiliza el resultado de que si X Bin(n, p) con p <<
1
2
y n
grande, por ejemplo, n > 100, entonces X
a
Poisson(np), donde el smbolo
a
" signica
aproximadamente distribudo como", lo que se denomina Aproximaci on Poison a la Binomial.
Proposici on 2.2.3. (Teorema del Lmite Central, TLC) Si (X
n
, n = 1, 2, . . .) es una sucesi on
de variables aleatorias i.i.d. con E(X
i
) = y V ar(X
i
) =
2
entonces la sucesi on Y
n
=

n(

X
n
)/, donde

X
n
= (1/n)

n
j=1
X
j
, converge en distribuci ona una variable aleatoria
Y N(0, 1) es decir Y
n
d
Y, n .
En la pr actica si n > 30 se coloca Y
n
a
N(0, 1).
38
Ejercicio 2.2.1. 1. Compruebe que si Y U(0, 1) entonces
M
Y
(t) =
_
e
t
1
t
para t ,= 0
1 para t = 0
2. Encuentre M
Y
(t) si Y U0, 1, , 9
3. Considere (Y
n
)
n=1,2,
con Y
n
iid U0, 1, 2, , 9 y X
n
=
n

j=1
10
j
Y
j
.
Encuentre
M
Xn
(t) =
1
10
n
1 e
t
1 e
t10
n
t ,= 0
= 1 t = 0
4. Compruebe que M
Xn
(t)
e
t
1
t
t ,= 0 recuerde que
lm
n
10
n
(1 e
t10
n
) = t lm
h0
1 e
h
h
= t
5. Concluya que X
n
d
X X U(0, 1)
2.2.2. Propiedades de la Convergencia en Media Cuadr atica.
Sabemos que
X
n
2
X si n E((X
n
X)
2
) 0 si n
por tanto si
1. X
n
2
X cuando n entonces
a) E(X
n
) E(X) cuando n
b) E(X
2
n
) E(X
2
) cuando n
Demostraci on.
a) Por Lyapunov con s = 1 , r = 2 tenemos
E([X
n
X[)
_
E([X
n
X[
2
)
adem as
[E(X
n
) E(X)[ E([X
n
X[)
_
E([X
n
X[
2
)
39
luego como E((X
n
X)
2
) 0 cuando n se tiene
E(X
n
) E(X) cuando n
b) La siguiente desigualdad es v alida
0
_
_
E(X
2
n
)
_
E(X
2
)
_
2
E((X
n
X)
2
)
ya que desarrollando ambos miembros de la desigualdad obtenemos
E(X
2
n
) + E(X
2
) 2
_
E(X
2
n
)E(X
2
) E(X
2
n
) +E(X
2
) 2E(X
n
X)
que a su vez equivale a
E(X
n
X)
_
E(X
2
n
)E(X
2
)
la cual es cierta por c. s.
E(X
n
X) E([X
n
X[)
_
E(X
2
n
)E(X
2
)
Nota 2.2.2. Es evidente que X
n
2
X entonces V ar(X
n
) V ar(X)
2. (ver Parzen (1972) p ag. 112 Teo 4B ) Si X
n
N(
n
,
2
n
) y X
n
2
X entonces
X N(,
2
) con = lm
n

n
y
2
= lm
n

2
n
.
Demostraci on.
Si X
n
2
X entonces
n
= E(X) y
2
n

2
= V ar(X) adem as la fgm de X
n
es
M
Xn
(t) = e
nt+
1
2

2
n
t
2
t R
luego M
Xn
(t) M(t) cuando n donde
M(t) = e
t+
1
2

2
t
2
, t R
lo cual signica que X
n
converge en distribuci on a una variable aleatoria distribuda
N(,
2
). Pero como
X
n
2
X =X
n
D
X
esta variable debe ser X, por tanto X N(,
2
).
3. Si X
n
2
X cuando n y E(X
2
n
) < para todo n 1 entonces E(X
2
) < .
40
Demostraci on.
Utilizando la desigualdad triangular general
E([X + Y [
r
)
1
r
E([X[
r
)
1
r
+ E([Y [
r
)
1
r
para r 1
con X
n
= X , Y = X X
n
, r = 2 se tiene
_
E(X
2
)
_
E(X
2
n
) +
_
E((X X
n
)
2
)
como E((X
n
X)
2
) 0 cuando n y E(X
2
n
) < para todo n 1 entonces
E(X
2
) < .
4. Si se considera el conjunto
L
2
= X , E(X
2
) <
entonces se cumple que
a) c R , X L
2
=cX L
2
b) X , Y L
2
= X +Y L
2
c) X , Y ) = E(XY ) satisface
1) X , Y ) = Y , X)
2) X +Y , Z) = X , Z) + Y , Z)
3) cX , Y ) = cX , Y )
4) X , X) 0 X , X) = 0 X = 0
d) Si |X| =
_
E(X
2
) entonces
1) |X| 0 |X| = 0 X = 0
2) |X + Y | |X| +|Y |
3) |cX| = [c[|X|
e) Si X
n
, n = 1, 2, . . . es una sucesi on de variables aleatorias en L
2
, tales que |X
n

X
m
| 0, n, mentonces existe X tal que X
n
2
X, n .
5. Si X
n
2
X , Y
n
2
Y entonces E(X
n
Y
n
) E(XY ) cuando n
Demostraci on.
[E(X
n
Y
n
) E(XY )[ E([X
n
Y
n
XY [) = E([(X
n
X)Y + (Y
n
Y )X
n
[)
E([(X
n
X)Y [) +E([(Y
n
Y )X
n
[)

_
E((X
n
X)
2
)E(Y
2
)
1
2
+
_
E((Y
n
Y )
2
)E(X
2
n
)
1
2
Como E(Y
2
) < se cumple que si n entonces la ultima expresi on tiende a
cero.
41
6. X
n
2
X c R tal que E(X
n
X
m
) c para n , m
Demostraci on.
[ = ]
Si E(X
n
X
m
) c entonces
E((X
n
X
m
)
2
) = E(X
2
n
) +E(X
2
m
) 2E(X
n
X
m
) c + c 2c = 0
y (X
n
) es una sucesi on de Cauchy en L
2
[ =]
Si X
n
2
X entonces E(X
n
X
m
) E(X
2
) = c cuando n
7. Si X
n
2
X y Y
n
2
Y entonces aX
n
+bY
n
2
aX +bY
8. Si X
n
2
X y a
n
a entonces a
n
X
n
2
aX
Proposici on 2.2.4. El conjunto L
2
con |X Y | =
_
E(X Y )
2
y X , Y ) = E(XY ) es un
espacio de Hilbert que adem as es completo.
Proposici on 2.2.5. ( ver Grimmett and Stirzaker (1994), pag 309, teo 7.8.1. ) Si (S
n
, n =
1, 2, ) es una martingala con E(S
2
n
) < M < para alg un M y para todo n, entonces existe
una variable aleatoria S tal que S
n
S casi en todas partes y en media cuadr atica.
Ejemplo 2.2.8. Considere X
n
el proceso Galton-Watson con > 1 y S
n
=
X
n

n
para n 1.
Entonces S
n
es martingala con respecto a X
n
.
E
_
X
2
n

2n
_
=
V ar(X
n
) + E
2
(X
n
)

2n
V ar(X
n
) =
2

n1
_

n
1
1
_
E(X
n
) =
n
E(S
2
n
) =
1

2n
_

2n
+

2

2n
(1
n
)
( 1)
_
= 1 +

2
(1
n
)
( 1)
< 1 +

2
( 1)
= M
luego existe S tal que S
n
2
S si n .
42
2.3. Problemas
1. Suponga que N Poisson(), y > 0 es una constante. Se dene la variable X =

N
j=0
e
j
. Utilice el resultado: E(e
tN
) = e
(e
t
1)
y la desigualdad de Markov para
encontrar una cota superior para la probabilidad P(X > a), a > 0.
2. (ver Parzen (1972), pag 33. problema 1C), generalizaci on a dos dimensiones de la de-
sigualdad de Chebyshev). Sean X
1
y X
2
variables aleatorias con medias 0, varianzas 1 y
coeciente de correlaci on . Demostrar que:
E[Max(X
2
1
, X
2
2
)] 1 +
_
1
2
Sugerencia: utilice la identidad: Max(a, b) = (a + b + [a b[)/2, y la desigualdad de
Cauchy-Schwarz. Recuerde que a
2
b
2
= (a b)(a + b).
3. Suponga una sucesi on de variables Normales, X
n
N(0,
2
n
), n = 1, 2, . . ., tales que

2
n
0, n .
a) Compruebe que X
n
2
0, n .
b) Si aceptamos que es v alida la operaci on
d
dt
E(e
tXn
) = E(
d
dt
e
tXn
), compruebe que
d
dt
M
Xn
(t)[
t=1
= E(X
n
e
Xn
) =
2
n
e

2
n
/2
.
c) Compruebe que |e
Xn
1 X
n
|/|X
n
| 0, n .(Nota: El desarrollo de Taylor
de orden 1alrededor de x = 0 de la funci onf(x) = e
x
est a dado por e
x
= 1+x+r(x),
donde r(x) es el residuo que cumple lm
x0
[r(x)/x[ = 0. El problema propuesto
puede verse como una generalizaci on estoc astica de este resultado de c alculo).
4. Suponga que X
n
2
X y Y
n
2
Y . Si a, b son constantes y (a
n
) es una sucesi on que
converge a a. Compruebe que:
a) aX
n
+ bY
n
2
aX +bY . Use la desigualdad triangular.
b) a
n
X
n
2
aX. Use la desigualdad tringular.
c) Corr(X
n
, Y
n
) Corr(X, Y ).
5. Resolver los puntos del Ejercicio (2.2.1), pag. 38.
6. (Tema parcial 1 semestre 01/2001). Suponga el proceso estoc astico (X
n
, n = 0, 1, . . .),
denido por las siguientes condiciones:
i) X
0
ExP(1/

2)
ii) X
n
[X
n1
ExP(X
n1
/

2), n = 1, 2, . . .
a) Encuentre E(X
n
[X
n1
). Y luego E(X
n
) en funci on de E(X
n1
). Compruebe que:
E(X
n
) = 2
(n+1)/2
(2.2)
43
b) Encuentre V ar(X
n
[X
n1
). Y luego V ar(X
n
) en funci on de V ar(X
n1
). Com-
pruebe que:
V ar(X
n
) = 1 2
(n+1)
(2.3)
c) Con los resultados anteriores encuentre E(X
2
n
), y utilcelo para encontrar una cota
superior para E(X
10
X
20
) y una para E((X
10
X
20
)
2
)
d) Utilice la desigualdad de Markov para comprobar que el proceso converge en proba-
bilidad a cero: X
n
p
0, n . Se puede decir que converge en media cuadr atica a
cero: X
n
2
0 ?. Explique.
2.4. Soluciones
1. Primero utilizamos la identidad para la suma de una serie geom etrica:

n
j=0
r
j
= (1
r
n+1
)/(1 r), para 0 < r < 1. Entonces X = (1 e
(N+1)
)/(1 e

). Aplicando la
desigualdad de Markov tenemos: P(X > a) E(X)/a. Ahora desarrollamos la esperanza
E(X) y sustitumos en la desigualdad anterior:
E(X) = E
_
(1 e
(N+1)
)/(1 e

)
_
= (1 E(e
(N+1)
))/(1 e

)
= (1 e

E(e
N
))/(1 e

)
= (1 e
(+)+ exp()
)/(1 e

)
2. Ejercicio.
3. a) La sucesi on X
n
converge a cero en m.c. porque |X
n
|
2
=
2
n
0, n 0.
b) De las notas se tiene que para X
n
N(0,
2
n
) entonces la fgm es M
Xn
(t) =
exp(t
2

2
n
/2). Derivandoconrespectoa t yevaluandoent = 0 se obtiene E(X
n
e
Xn
) =

2
n
exp(
2
n
/2).
c) Desarrolle: |e
Xn
1 X
n
|
2
= E((e
Xn
1 X
n
)
2
). Luego divida por |X
n
| y
encuentre el lmite.
4. Ejercicio.
5. Ejercicio.
6. Ejercicio.
44
CAP

ITULO 3
Procesos Estoc asticos
3.1. Denici on de Proceso Estoc astico
Denici on 3.1.1. Considere un espacio de probabilidades (, T, P), y un n umero , <
, y el intervalo T = [, ) , y para cada t T suponga que X
t
es una variable aleatoria que
satisface
1. X
t
: R
2. a R , ( X
t
a ) T
El conjunto X = (X
t
: t T) se denomina proceso estoc astico.
El conjunto T se denomina conjunto de tiempos. Si X
t
E R para todo t T, entonces el
conjunto E se denomina el espacio de estados. Algunos ejemplos de combinaciones de conjunto
de tiempos y espacio de estados son:
1. X
n
, n = 0, 1, . . . , X
n
E = 0, 1, . . .. El proceso X
n
es de tiempo discreto y sus valores
son tambi en discretos.
2. X
n
, n = 0, 1, . . ., X
n
E = R. El proceso X
n
es de tiempo discreto pero sus valores son
n umero reales.
45
46
3. X
t
, t 0, X
t
E = 0, 1, 2 . . .. El proceso X
t
es de tiempo continuo y sus valores
son discretos.
4. X
t
, t 0, X
t
E = R. El proceso X
t
es de tiempo continuo y sus valores son n umeros
reales.
Como t T , X
t
es una funci on de en R entonces el proceso se puede re-denir como una
funci on de dos variables ( t, )
X : T R
( t, ) X( t, ) = X
t
( ).
Entonces, para cada jo , X
t
( ) es una funci on de t, denominada trayectoria muestral .
Denici on 3.1.2. Sea (X
t
, t T) un proceso estoc astico real y T
n
= t
1
, t
2
, . . . , t
n
T una
colecci on nita de tiempos en T, entonces las variables aleatorias X
t1
, . . . , X
tn
tienen una
funci on de distribuci on conjunta dada por:
F
Tn
= F
t1...tn
(x
1
, . . . , x
n
) = P(X
t1
x
1
, . . . , X
tn
x
n
). (3.1)
A la funci on F
Tn
se la denomina funci on de distribuci on nito dimensional del proceso X
t
. La
distribuci on de cada variable X
t
se denomina distribuci on marginal.
El conjunto de distribuciones nito dimensionales F
Tn
satisface dos condiciones, denominadas
de simetra y de consistencia, dadas por
(i) (Simetra) F
tk
1
,...,tkn
(x
k1
, . . . , x
kn
) = F
t1,...,tn
(x
1
, . . . , x
n
) para cualquier permutaci on
k
1
, . . . , k
n
de 1, 2, . . . , n.
(ii) (Consistencia) Para cualquier 1 k n y x
1
, . . . , x
k
R se satisface:
F
t1,...,tk
(x
1
, . . . , x
k
) = F
t1,...,tn
(x
1
, . . . , x
k
, , . . . , ).
Un teorema importante debido a A. N. Kolmogorov establece que, dada un conjunto de dis-
tribuciones nito dimensional que cumpla las condiciones de simetra y consistencia, siempre se
podr a asociar un proceso cuyas distribuciones nito dimensionales coincidan con las de tal con-
junto. Puesto de otra forma, para que un proceso estoc astico est e bien denido sus distribuciones
nito dimensionales deben satisfacer las condiciones de simetra y consistencia.
Teorema 3.1.1. (Teorema de Consistencia de Kolmogorov) Suponga que F
Tn
es un conjunto
de funciones de distribuciones nito dimensionales para cada T
n
= t
1
, t
2
, . . . , t
n
T, que
satisfacen las condiciones de asimetra y consistencia, entonces existe un proceso estoc astico
(X
t
, t T) de valor real cuyas distribuciones nito dimensionales est an dadas por F
Tn
.
47
Existen distintas maneras de denir un proceso estoc astico. Por ejemplo, a partir de relaciones
recursivas, como en los procesos de ramicaci on. O mediante una formulaci on axiom atica de
ciertas funciones de intensidad, como en el proceso Poisson. Otros tipos de procesos, como los
gaussianos solamente requieren que se especiquen las caractersticas de segundo orden, media y
covarianza. Otros, como los markovianos requieren especicar una funci on de transici on.
Para desarrollar la teora de procesos es necesario hacer supuestos, que son propiedades que
se asume posee cada proceso considerado. Dar propiedades aumenta las posibilidades de aplicar,
realizar c alculos y desarrollar la teora. Las propiedades iniciales tienen que ver con la continuidad
del proceso.
Denici on 3.1.3. Un proceso X = ( X
t
, t T ) se dice
1. Continuo con probabilidad uno si t T
P( lm
h0
X
t+h
= X
t
) = 1.
2. En media si para alg un r = 1, 2, se cumple E( [ X
t+h
X
t
[
r
) 0 , h 0. En
particular es importante el caso r = 2. Si E( ( X
t+h
X
t
)
2
) 0 , h 0 , X se dice
continuo en media cuadr atica .
3. En probabilidad si > 0, P( [ X
t+h
X
t
[ ) 0 , h 0.
Ejemplo 3.1.1. Considerando un proceso Poisson homog eneo N
t
Poisson(t), por la
propiedad (5), pag. 20, E(N
t1
N
t2
) =
2
t
1
t
2
+mn(t
1
, t
2
). Entonces, reemplazando t
1
= t > 0
y t
2
= t +h > 0, se tiene:
E(N
2
t
) =
2
t
2
+mn(t, t) =
2
t
2
+ t,
E(N
2
t+h
) =
2
(t + h)
2
+ mn(t +h, t +h) =
2
(t +h)
2
+ (t + h),
E(N
t+h
N
t
) =
2
t(t + h) +mn(t + h, t),
luego
E
_
(N
t+h
N
t
)
2
_
= E(N
2
t+h
) +E(N
2
t
) 2E(N
t+h
N
t
),
=
2
h
2
+ (t +h + t) 2mn( t +h, t ),
=
2
h
2
+ (t +h + t) (t + h +t [t +h t[),
=
2
h
2
+ [h[ 0 , h 0,
de donde N
t
es continuo en media cuadr atica en todo t 0. En la simplicaci on se utiliz o la
identidad siguiente, v alida para todo a, b R:
2 mn(a, b) = a +b [a b[.
N otese que, sin embargo, las trayectorias de N
t
son discontinuas con probabilidad 1, ya que son
funciones escalonadas con saltos unitarios, continuas a derecha.
48
Proposici on 3.1.1. Un proceso X = ( X
t
, t T ) continuo en media r 1 es continuo en
probabilidad.
Demostraci on. Si > 0 entonces para cualquier r 1
P( [ X
t+h
X
t
[ )
E( [ X
t+h
X
t
[ )


_
E( [ X
t+h
X
t
[
r
)
_ 1
r

por las desigualdades de Markov y Lyapunov, luego si E


_
[ X
t+h
X
t
[
r
) 0 , h 0 entonces
P( [ X
t+h
X
t
[ ) 0 , h 0.
Suponga que se quiere calcular la probabilidad P( X
t
x , t [ 0, 1 ] ). El conjunto
( X
t
x , t [ 0, 1 ] ) =

0t1
( X
t
x )
es la intersecci on de un n umero no contable de eventos y el axioma 3 de probabilidades dice
solamente que si A
1
, A
2
, es una sucesi on de eventos entonces

i=1
A
i
es un evento luego
_

_
i=1
A
i
_
c
=

i=1
A
c
i
es un evento.
El axioma 3 garantiza que la intersecci on de un n umero contable de eventos es un evento, pero
no garantiza que la intersecci on de un n umero no contable sea un evento. Luego no se puede
garantizar que
_
X
t
x , t [ 0, 1 ]
_
= A sea un evento , A T.
Si observamos la sucesi on a
n, k
=
k
n
para n = 1, 2, , k = 0, 1, 2, , n, entonces a
n, k

[ 0, 1 ]. La colecci on de eventos
_
Xk
n
x
_
= A
n , k
es una sucesi on contable o numerable con
dos contadores luego

n=1
n

k=0
A
n, k
=

n=1
n

k=0
_
Xk
n
x
_
es un evento y en principio se puede calcular su probabilidad.
Proposici on 3.1.2. Si
_
X
t
, t T
_
es continuo en probabilidad en T entonces
1. Los conjuntos de la forma
_
X
t
x , t [ a, b ]
_
son eventos. Adem as
P
_
X
t
x , t [ a, b ]
_
= P
_

n=1
n

k=0
_
X
a+( ba)
k
n
x
__
2. Se pueden denir las integrales sobre las trayectorias muestrales:
_
b
a
X
t
() dt.
3. Se puede denir la integral Z =
_
b
a
X
t
dt como una variable aleatoria y E(Z) =
_
b
a
E(X
t
)dt.
49
3.2. Procesos Estacionarios
En algunos casos es necesario considerar procesos estoc asticos con valores complejos. Si X
t,i
, i =
1, 2 son dos procesos con valores reales se puede denir el proceso de valor complejo X
t
=
X
t,1
+ iX
t,2
, con i
2
= 1. Sin embargo, si no se menciona lo contrario, todos los procesos
considerados en adelante se asumir an de valor real.
Denici on 3.2.1. Un proceso (X
t
, t T) se dice de segundo orden si E(X
2
t
) < para todo
t T.
Los procesos de segundo orden tienen varias propiedades
1. Si X
t
, Y
t
son procesos de segundo orden y a, b R entonces aX
t
+ bY
t
tambien es de
segundo orden pues basta observar que
E
_
( aX
t
+ bY
t
)
2
_

__
E
_
( aX
t
)
2
_
+
_
E
_
( bY
t
)
2
_
_
2
<
2. [ E( X
t
Y
t
) [ < ya que [ X
t
Y
t
[
1
2
X
2
t
+
1
2
Y
2
t
siempre, luego E( [ X
t
Y
t
[ ) < .
El conjuntode los procesos de segundo orden es un espacio vectorial sobre los reales, con producto
interno X
t
, Y
t
) := E(X
t
Y
t
) y norma [[X
t
[[ :=
_
E(X
2
t
) (ver pag. 40).
Denici on 3.2.2. Para un proceso de segundo orden (X
t
, t T) se denen las siguientes
funciones:
Media: (t) = E(X
t
).
Autocovarianza: R(s, t) = Cov(X
s
, X
t
).
Autocorrelaci on: (s, t) =
R(s, t)
_
R(s, s) R(t, t)
.
En el caso de un proceso de valores complejos la funci on de autocovarianza se dene como
R(s, t) = E[(X
s
(s)))(X
t
(t))].
Propiedades de las funciones de Autocovarianza R(s, t)
1. Desigualdad de Schwarz. [R(s, t)[ = [Cov(X
s
, X
t
)[
_
V ar(X
s
)
_
V ar(X
t
) luego
[R(s, t)[
_
R(s, s) R(t, t)
2. Simetra. R(s, t) = R(t, s). En el caso de X
t
complejo es R(s, t) = R(t, s).
50
3. Semi-denida positiva. Una funci on R(s, t) real o compleja, denida en T T, se dice
que es denida positiva si para cualquier vector (a
1
, a
2
, . . . , a
n
)

C
n
, y t
1
, t
2
, . . . , t
n
conjunto de tiempos en T se cumple que
n

j=1
n

k=1
a
j
a
k
R(t
j
, t
k
) 0. (3.2)
Si R(s, t) es la funci on de autocovarianza de un proceso X
t
entonces es semi-denida
positiva. E inversamente, si R(s, t) es funci on semi-denida positiva entonces siempre
existe un proceso de segundo orden X
t
con R(s, t) su funci on de autocovarianza.
4. Cerrada bajo multiplicaci on. Si R
1
(s, t) y R
2
(s, t) son dos funciones de autocovarianza
entonces su producto es nuevamente una funci on de autocovarianza, es decir, R(s, t) =
R
1
(s, t)R
2
(s, t) es sim etrica y denida positiva.
5. Cerrada bajo suma. La suma de dos funciones de autocovarianza R
1
(s, t) + R
2
(s, t) es
nuevamente una funci on de autocovarianza, es decir, es sim etrica y denida positiva.
6. Sumas positivas. Una constante C positiva es una funci on de autocovarianza. Por tanto, si
R
j
(s, t), j = 1, . . . , n son funciones de autocovarianza y C
j
, j = 1, . . . , n son constantes
positivas entonces R(s, t) =

n
j=1
C
j
R
j
(s, t) es nuevamente una funci on de autocovari-
anza.
7. Lmites. Si R
j
(s, t), j = 1, 2, . . . es una sucesi on de funciones de autocovarianza que
convergen a R(s, t) cuando j , para cada (s, t) T T, entonces R(s, t) es una
funci on de autocovarianza.
8. Formas bilineales. Si (t) es una funci on entonces R(s, t) = (s)(t) es una fun-
ci on de autocovarianza. Basta denir X
t
= (t)X con X N(0, 1) porque entonces
Cov(X
s
, X
t
) = E(X
2
)(s)(t) = (s)(t).
Ejercicio3.2.1. Si X
t
, Y
t
sonprocesos de segundoordenconfunciones de covarianzaR
X
( s , t ) , R
Y
( s , t )
y se dene la covarianza cruzada de X
t
y Y
t
como la funci on
R
XY
( s , t ) = Cov( X
s
, Y
t
)
Compruebe que
R
X+Y
( s , t ) = R
X
( s , t ) +R
Y
( s , t ) +R
XY
( s , t ) +R
Y X
( s , t )
Ejemplo 3.2.1. Considerando un proceso Poisson homog eneo N
t
Poisson(t), su funci on de
autocovarianza se obtuvo en (6), pag. 20, Cov(N
t1
, N
t2
) = mn(t
1
, t
2
).
Una clase muy importante de procesos estoc asticos es la de procesos estacionarios. Esta clase se
divide en dos subclases:
51
1. Procesos Estacionarios Estrictos.
2. Procesos Estacionarios en Covarianza o Estacionarios de Segundo Orden.
Denici on 3.2.3. Un proceso (X
t
, t T) se dice que es Estacionario Estricto si para todo
n 1 y t
1
, . . . , t
n
T, t
1
+ h, . . . , t
n
+ h T, se cumple que la distribuci on conjunta de
(X
t1
, . . . , X
tn
) es igual a la distribuci on conjunta de (X
t1+h
, . . . , X
tn+h
). De otra forma, un
proceso es Estacionario Estricto si cualquiera de sus distribuciones conjuntas de dimensi on nita
es invariante por translaciones en el tiempo.
Ejemplo 3.2.2. Dos ejemplos de procesos estacionarios estrictos son:
1. Una sucesi on de variables iid.
2. Suponga un proceso estacionario estricto (X
t
, t T) y una funci on real g(.) continua
denida en el espacio de estados de X
t
. Entonces Y
t
= g(X
t
) es estacionario estricto. Si
se tiene que E([g(X
t0
)[) < , para alg un t
0
T. Entonces E(g(X
t
)) no depende de t.
Denici on 3.2.4. Un proceso (X
t
, t T) de segundo orden se dice que es Estacionario en
Covarianza si cumple:
1. E(X
t
) = c, t T. Es decir, la media es constante.
2. Existe una funci on R(r), r R, par, es decir R(r) = R(r), con R(0) > 0 tal que
Cov(X
s
, X
t
) = R(t s). Es decir, la covarianza entre X
s
y X
t
depende unicamente de
[t s[
Si X
t
es estacionario en covarianza entonces la funci on de autocovarianza se puede escribir
R(s, t) = R(t s). Adem as, V ar(X
t
) = R(0) y Corr(s, t) = R(t s)/R(0). X
t
estacionario
en covarianza equivale a decir que X
t
y X
t+h
tienen la misma media y la misma covarianza, y
son nitas. N otese que para que un proceso estacionario estricto sea estacionario en covarianza es
suciente que tenga varianza nita. Sin embargo, no necesariamente un proceso estacionario en
covarianza es estacionario estricto.
En la gura (3.1) siguiente se muestra una trayectoria de un proceso que corresponde a las
aceleraciones verticales del terremoto de Kobe. M as adelante se comprueba que corresponde a un
proceso estacionario en covarianza.
Algunos ejemplos de funciones de autocovarianza para procesos estacionarios en covarianza se
muestran a continuaci on.
1. R(h) =
2
e
|h|
, > 0.
2. R(h) =
2
e
|h|
cos (h), > 0, R
52
Figura 3.1: Gr aca del Sism ografo(aceleraci on vertical, nm/sq.sec) del terremoto de Kobe(Jap on),
grabado en la Universidad de Tasmania, Hobart, Australia el 16 de Enero de 1995 empezando
a las 20:56:51 (GMT) y continuando por 51 minutos a intervalos de 1 segundo. Fuente: Data
management centre, Washington University
3. R(h) =
2
e
|h|
( cos (h) +

sin([h[)), > 0, R
4. R(h) = 2
2
(1 2h
2
)e
h
2
, > 0
5. R(h) =
2
e

2
h
2
, > 0
6. R(h) =
2
e
|h|
(1 + [h[ +
2
h
2
/3), > 0
Denici on 3.2.5 (Fluctuaci on cuadr atica media). Dado un proceso estacionario en covarianza
X
t
se dene la funci on uctuaci on cuadr atica media como:
V ( h) = | X
t+h
X
t
|
2
= E
_
( X
t+h
X
t
)
2
_
= E( X
2
t+h
) +E( X
2
t
) 2 E( X
t
X
t+h
)
= 2
_
R( 0 ) R( h)
_
Como E( X
t
) = c entonces E( X
t+h
X
t
) = 0, por tanto V ar( X
t+h
X
t
) = E
_
( X
t+h

X
t
)
2
_
= V ( h).
Algunas caractersticas de las funci on de autocorrelaci on y uctuaci on media cuadr atica est an
relacionadas con las trayectorias del proceso. Suponga un proceso X
t
, t T estacionario en
covarianza con funci on de autocovarianza R(h) tal que tiende lentamente a cero cuando h
(ver las guras de la parte superior de la Figura 3.2. Entonces R(h) R(0) para valores de
h cercanos a cero, y (h) 1, con lo cual el proceso tiene alta autocorrelaci on positiva. Sus
trayectorias muestrales deben mostrar uctuaciones lentas, o sea frecuencias bajas. La funci on de
autocovarianza es relativamente ancha.
53
Figura 3.2: Ejemplos de Procesos Estacionarios con funciones de autocovarianza que decrecen a
cero con velocidades distintas
Inversamente, si R(h) decrece r apidamente a cero entonces V (h) = 2
_
R( 0 ) R( h)
_

2 R( 0 ) r apidamente cuando t . La interpretaci on es que al aumentar h la autocorrelaci on
disminuye y aumenta V ( h) = | X
t+h
X
t
|
2
lo cual se puede tomar como un aumento en las
oscilaciones del proceso.
Seg un (Franks 1986) pag. 200, Si un proceso presenta uctuaciones r apidas ( frecuencias elevadas
) las muestras correspondientes a separaciones en el tiempo relativamente peque nas rendr an una
correlaci on peque na".
Ejemplo 3.2.3. ((Svesnikov 1968), pags. 184, 313 ) Compruebe que si f(t) es una funci on de t no
aleatoria y R(t, s) es la funci on de autocovarianza del proceso X
t
, entonces la autocovarianza
del proceso Y
t
= f(t) + X
t
es tambi en R(t, s).
Demostraci on. Como E( Y
t
) = f( t ) +E( X
t
) entonces
E( Y
t
Y
t+k
) = E( f( t ) +X
t
)
_
f(t + k) + X
t+k
)
_
= E
_
f
t
f(t +k) + f
t
X
t+k
+f(t +k) X
t
+ X
t
X
t+k
_
= f
t
f(t +k) + f
t
E( X
t+k
) +f(t + k) E( X
t
) +E( X
t
X
t+k
)
luego
Cov( Y
t
, Y
t+k
) = f
t
f(t + k) + f
t
E( X
t+k
) + f(t + k) E( X
t
) +E( X
t
X
t+k
)
f
t
f(t + k) f
t
E( X
t+k
) f(t +k) E( X
t
) E( X
t
) E( X
t+k
)
= Cov( X
t
, X
t+k
)
54
Ejemplo 3.2.4. Si Y
t
= Z +X
t
, Z independiente de X
t
entonces
Cov( Y
t
, Y
s
) = V ar( Z ) +Cov( X
t
, X
s
)
pues
E
_
( Z + X
t
)( Z + X
s
)
_
= E( Z
2
) + E( X
t
X
s
) +E( Z )
_
E( X
t
) + E( X
s
)
_
3.3. Densidad Espectral
La densidad espectral o espectro de potencia es una de las caractersticas m as importantes de un
proceso estacionario estricto o estacionario en covarianza.
3.4. Causalidad
En esta secci on se desarrollan algunos conceptos utiles para an alisis posteriores. El concepto de
causalidad y el teorema de Wold son herramientas para establecer el car acter estacionario de
algunos procesos. El concepto de ruido blanco es b asico.
Denici on 3.4.1 (Ruido Blanco). Un proceso (Z
n
, n Z ) se denomina Ruido Blanco ( White
Noise ) en tiempo discreto, si cumple
1. E( Z
n
) 0.
2. V ar( Z
n
)
2
.
3. Cov( Z
n
, Z
n+m
) = 0, n, m Z, m ,= 0.
Un proceso de ruido blanco se denotar a por Z
n
RB(0,
2
).
En el caso de ser Z
n
N(0,
2
) se denomina ruido blanco gaussiano. N otese que si E( Z
n
) = 0
la condici on 3) es E( Z
n
Z
n+m
) = 0, m ,= 0. Un proceso Z
n
ruido blanco es estacionario en
covarianza ya que en este caso R( m) = 0 para todo m ,= 0 y R( 0 ) =
2
. Una sucesi on de
variables aleatorias i.i.d. con media cero es un ejemplo de ruido blanco. Varios ejemplos de ruido
blanco que no son sucesiones i.i.d. son los procesos tipo GARCHque se introducen en el captulo
siguiente.
El concepto de ruido blanco es una abstracci on de ciertos fen omenos fsicos. Concretamente,
en fsica existe el ruido termal producido en resistencias en circuitos, por efecto del movimiento
browniano de mol eculas ionizadas. Es un ruido que no puede ser eliminado. De manera semejante,
existe un ruido producido por el ujo de electrones en un campo el ectrico, como el generado en
semiconductores, denominado granalla".
55
Denici on3.4.2. SeaZ
n
RB(0,
2
) unprocesoruidoblanco. Unprocesoestoc astico(X
n
, n
Z) se dice causal ( o funci on causal de un ruido blanco) si existe una sucesi on de n umeros reales
(
j
, j = 0, 1, . . .), que cumple

j=0
[
j
[ < , tal que
X
n
=

j=0

j
Z
nj
. (3.3)
Bajo ciertas condiciones, todo proceso que pueda representarse de la forma (3.3) es estacionario
en covarianza. Concretamente se tiene el siguiente resultado.
Proposici on3.4.1. Si (
j
, j = 0, 1, . . .) es unasucesi onde n umeros reales que cumple

j=0
[
j
[ <
, y (Z
j
, j Z) es una sucesi on de variables aleatorias que cumplen E([Z
j
[) < M, j, para
cierta constante M > 0, entonces la serie

j=0

j
Z
nj
converge absolutamente, con probabil-
idad uno.
Demostraci on. Para cada n = 0, 1, . . . dena la sucesi on X
(n)
m
=

m
j=0
[
j
[[Z
nj
[. Esta suce-
si on cumple 0 X
(n)
0
X
(n)
1
X
(n)
2
. . ., con probabilidad uno. Adem as, converge con
probabilidad uno a la suma X
n
=

j=0
[
j
[[Z
nj
[. Se puede aplicar el Teorema de Convergen-
cia Mon otona (ver Teo 2.2.1, pag. 35), que permite intercambiar lmite con esperanza y obtener
lm
m
E(X
(n)
m
) = E(X
n
), es decir
lm
n
E(
n

j=0
[
j
[[Z
nj
[) = E(

j=0
[
j
[[Z
nj
[).
Pero
E(
n

j=0
[
j
[[Z
nj
[) =
n

j=0
[
j
[E([Z
nj
[) M
n

j=0
[
j
[ M

j=0
[
j
[ < ,
luego E(

j=0
[
j
[[Z
nj
[) < . Este resultado implica que el evento(

j=0
[
j
[[Z
nj
[ = +)
debe tener probabilidad cero porque de tener probabilidad positiva el valor esperado sera innito.
Luego P(

j=0
[
j
[[Z
nj
[ < ) = 1 y la serie converge absolutamente con probabilidad uno.
De esto se concluye que la serie

j=0

j
Z
nj
tambi en converge con probabilidad uno.
El resultado anterior se puede aplicar al caso de (Z
n
) un proceso estacionario en covarianza
porque al ser E(Z
2
n
) = c, n, entonces E([Z
n
[)

c y se puede denir el proceso X
n
=

j=0

j
Z
nj
, n Z, para (
j
) sucesi on de n umeros reales con

j=0
[
j
[ < . El proceso X
n
resulta tambi en estacionario en covarianza. El caso Z
n
RB(0,
2
) queda obviamente includo.
Proposici on3.4.2. Si (
j
, j = 0, 1, . . .) es unasucesi onde n umeros reales que cumple

j=0
[
j
[ <
, y (Z
j
, j Z) es un proceso estacionarioen covarianza, con funci on de autocovarianzar
Z
(h),
56
entonces el proceso X
n
=

j=0

j
Z
nj
es estacionario en covarianza, con funci on de autoco-
varianza
r
X
(h) =

j=0

k=0

k
r
Z
(h j +k) (3.4)
En el caso de ser Z
j
RB(0,
2
) en la expresi on anterior (3.4) se tiene que, si h 0,
r
Z
(h j +k) =
2
si k + h = j, y r
Z
(h j + k) = 0 si j ,= k + h, por lo que se reduce a
r
X
(h) =
2

j=0

j+h
(3.5)
El resultado siguiente puede verse como un recproco, aunque parcial, del anterior (3.4.2). Si
un proceso es estacionario en covarianza y no contiene componente determinstica puede rep-
resentarse de la forma X
n
=

j=0

j
Z
nj
, n Z, solo que no se cumple la condici on

j=0
[
j
[ < , sino

j=0

2
j
< . Se puede demostrar que

j=0
[
j
[ <

j=0

2
j
< .
Sin embargo, la recproca no es v alida.
Teorema 3.4.1. (Teorema de Wold) Sea (X
n
, n Z) un proceso estoc astico sin componente
determinstica. Entonces es estacionario en covarianza si y solo si existe una sucesi on de n umeros
reales (
j
, j = 0, 1, . . .),
0
= 1, tales que

j=0

2
j
< y tales que X
n
=

j=0

j
Z
nj
, donde
Z
j
RB(0,
2
) es ruido blanco.
Es decir, todo proceso estacionario en covarianza que no tenga componente determinstica se
puede representar como un proceso lineal de la forma

j=0

j
Z
nj
, pero no necesariamente
es causal. Solo cuando se cumple

j=0
[
j
[ < , es causal.
Pron osticos con Procesos Estacionarios. Se deni o el espacio vectorial L
2
de todas las v.a.
X con E(X
2
) < . Suponga que (X
n
, n Z) es un proceso estacionario en covarianza de
media cero y funci on de autocovarianza R(h). Considere el subespacio lineal de L
2
generado por
X
1
, . . . , X
n
, /
n
=

n
j=1

j
X
j
,
j
R. La proyecci on de una v.a. Y en L
2
sobre /
n
se
dene como T
M
(Y ) =

n
j=1

j
X
j
, para cierto vector de coecientes = (
1
, . . . ,
n
)

. Y si
Y = X
n+k
, k = 1, 2, . . ., entonces la proyecci on de X
n+k
sobre /
n
se denomina el pron ostico
en el perodo n + k,

X
n+k
. Es decir,

X
n+k
=

n
j=1

j
X
j
. Denote R
n
= [R(i j)]
n
i,j=1
, la
matriz de va-rianzas y covarianzas de X
1
, . . . , X
n
, y
n
= (R(1), . . . , R(n))

, entonces, en el
caso de que R
n
sea no-singular, se cumple (
n
, . . . ,
1
)

= R
1
n

n
57
3.4.1. Ergodicidad
La ergodicidad de un proceso estoc astico es una propiedad relacionada con las leyes de grandes
n umeros (2.2.2, 2.2.3), solamente que en lugar de sucesiones i.i.d. se considera un proceso
estoc astico (X
n
, n Z), es decir, una sucesi on de variables con un grado de dependencia dado.
Un proceso en tiempo discreto se dice erg odico si cumple una ley de grandes n umeros. En este
caso erg odico podra asimilarse a asint oticamente i.i.d.. O, equivalentemente, un proceso
no-erg odico correspondera a un proceso con una fuerte dependencia, tanta como para que no
sea v alida una ley de grandes n umeros.
Denici on 3.4.3. Un proceso estoc astico estacionario estricto (X
n
, n Z) se dice erg odico
si para toda funci on h : R
k
R continua acotada, para k 1, se cumple que la sucesi on
n
1

n
j=1
h(X
j
, . . . , X
j+k1
) converge con probabilidad uno a E(h(X
1
, . . . , X
k
)).
Proposici on 3.4.3. 1. Toda sucesi on de variables aleatorias iid es erg odica.
2. Si g : R

R es una funci on continua, y Z


t
es un proceso erg odico entonces X
t
=
g(Z
t
, Z
t1
, . . .) es erg odico.
3.5. Ejemplos de Procesos Estacionarios en Covarianza
En esta secci on se muestran ejemplos de procesos estacionarios en covarianza. El enfasis en
los ejemplos es calcular la funci on de autocovarianza. En el captulo siguiente se introducen
los modelos ARMA que comprenden una clase muy amplia y muy utilizada en la denici on
de modelos estacionarios en muchas areas. Igualmente se introducen modelos no lineales tipo
GARCH, los cuales amplan los modelos de ruido blanco y permiten, en vista del teorema de
Wold, ampliar mucho la clase de procesos estacionarios.
Ejemplo 3.5.1. Si X
n
=
Xn1

n=1
Z
j
( n 1 ) , n 1 , k > 0 entonces
E( X
n
X
n+k
) = E( X
n
E( X
n+k
[ X
n
))
= E( X
2
n

k
)
=
k
E( X
2
n
)
luego
Cov( X
n
, X
n+k
) =
k
E( X
2
n
) E( X
n
) E( X
n+k
)
pero E( X
n+k
) =
k
E( X
n
) luego
Cov( X
n
, X
n+k
) =
k
V ar( X
n
)
58
pero V ar( X
n
) =
2

n1
_

n
1
1
_
si ,= 1, y V ar( X
n
) = n
2
si = 1, por lo que el
proceso de Galton - Watson no es estacionario en covarianza.
Ejemplo 3.5.2. Una Martingala no es necesariamente un proceso estacionario en covarianza
pues aunque tiene media constante (cf. Proposicion 1.6.2), para la covarianza se tiene que si
k 1
E( X
n
X
n+k
) = E( X
n
E( X
n+k
[ X
n
) ),
pero E( X
n+k
[ X
n
) = E
_
E( X
n+k
[ X
1
, , X
n
) [ X
n
_
= E( X
n
[ X
n
) = X
n
, luego
E( X
n
X
n+k
) = E( X
2
n
) y Cov( X
n
, X
n+k
) = V ar( X
n
)
pero no necesariamente V ar( X
n
) cte.
Ejemplo3.5.3. La marcha aleatoriasin restricciones. Es unproceso Z
n
, n = 0, 1, 2, denido
por Z
n
= X
1
+X
2
+ +X
n
, n 1, y Z
0
= 0, donde las variables aleatorias X
1
, X
2
, , son
i.i.d. distribudas con valores 1, 1 tales que P(X
j
= 1) = p, P(X
j
= 1) = 1 p = q. Se
puede ver que Z
n
= Z
n1
+X
n
, n = 1, 2, . Es Z
n
estacionario en covarianza?. Examinando
la media tenemos:
E( Z
n
) = nE( X
1
) = n( p q ) = n( 2p 1 )
por tanto, para que se cumpla E( Z
n
) se debe tener p = q =
1
2
. En este caso E( Z
n
) 0.
Para la covarianza, en el caso p =
1
2
tenemos que Cov(Z
n
, Z
n+m
) = E(Z
n
Z
n+m
). Suponga
m > 0. LuegoZ
n+m
= Z
n
+X
n+1
+. . .+X
n+m
y Z
n
Z
n+m
= Z
n
( Z
n
+X
n+1
+. . .+X
n+m
) =
Z
2
n
+ Z
n
X
n+1
+ + Z
n
X
n+m
. Entonces E( Z
n
Z
n+m
) = E( Z
2
n
) + E( Z
n
X
n+1
) + +
E( Z
n
X
n+m
). Pero, debido a la independencia de las variables X
n
, puede colocarse
E( Z
n
X
n+1
) = E( Z
n
) E( X
n+2
) = . . . = E(Z
n
X
n+m
) = 0,
de donde Cov(Z
n
, Z
n+m
) = E(Z
2
n
) = V ar(Z
n
) = nV ar(X
1
), con lo cual Z
n
no es Suponga
m > 0 y nm > 0 entonces Cov( Z
nm
, Z
n
) = E( Z
nm
Z
n
) pero Z
n
= Z
nm
+X
nm+1
+
+X
n
luego Z
n
no es estacionario en covarianza.
E( Z
nm
Z
n
) = E( Z
2
nm
) + E
_
Z
nm
( X
nm+1
+ +X
n
)
_
= E( Z
2
nm
)
En los casos anteriores se concluye que Cov( Z
n
, Z
n+m
) no depende de m, no es estacionario.
En este caso R( x ) no est a denida por no ser estacionario.
Ejercicio 3.5.1. Si X
t
= Z
1
cos ( t ) + Z
2
sen( t ) , Z
1
, Z
2
N( 0 ,
2
) independientes
estacionario en Cov con R( h) =
2
cos ( h) adem as
| X
t+h
X
t
| =

2( 1 cos ( h) )
1
2
59
Ejemplo 3.5.4 (Proceso Incremento Poisson). Dena el proceso X
t
= N
t+h
N
t
, h > 0 jo,
t 0 y s > 0 entonces E(X
t
) h y
E( X
t
X
t+s
) = E
_
( N
t+h
N
t
) ( N
t+s+h
N
t+s
)
_
= E( N
t+h
N
t+s+h
N
t+h
N
t+s
N
t+s+h
N
t
+ N
t
N
t+s
)
=
2
( t + h) (t +h +s ) +( t +h)
2
( t + h) ( t +s )
( t + s h)
2
( t + h + s ) t t +
2
t (t +s ) +t
=
2
h
2
+( h s h)
=
2
h
2
+( h s )
+
,
utilizando las propiedades del proceso Poisson junto con min(s, h) = s h, la funci on parte
positiva x
+
= x si x > 0, y x
+
= 0 si x 0, y la identidad (que se comprueba de manera
inmediata): h, s R, h = s h + ( h s )
+
. Luego Cov(X
t
, X
t+s
) = (h s)
+
. Se puede
comprobar, con un procedimiento similar que, para s < 0, Cov(X
t
, X
t+s
) = (h + s)
+
. Luego
Cov(X
t
, X
t+s
) = R(s) = (h [s[)
+
.
Es f acil comprobar que la gr aca de R(s) es un tri angulo de base [h, h] y altura en s = 0 de
longitud h, es decir, es una funci on par. Por tanto, X
t
es estacionario en covarianza.
3.6. Aplicaciones
En esta secci on se muestran algunas aplicaciones de los procesos considerados en este captulo.
3.7. Problemas
1. Si (X
t
, t R) es un proceso estacionario de 2do orden, y se dene el proceso Y
t
=
X
t
X
t1
, compruebe que Y
t
tambi en es estacionario de 2do orden.
2. Si (X
t
, t R) es un proceso estacionario de 2do orden, y se dene el proceso Y
t
=
a +bt + X
t
, para a, b constantes, compruebe que Y
t
Y
t1
es estacionario de 2do orden.
3. Si (X
t
, t R) es un proceso estacionario con funci on de autocovarianza R(t). Utilice la
desigualdad de Chebyshev para comprobar que si M > 0 es una constante entonces:
P([X
t+h
X
t
[ M)
2(R(0) R(h))
M
2
4. Sean Z
1
, Z
2
variables aleatorias independientes distribudas N(0,
2
), y R una con-
stante real. Dena el proceso X
t
= Z
1
cos(t) +Z
2
sen(t), t R. Compruebe que es un
proceso estacionario en covarianza y encuentre la media y la funci on R(h).
60
5. Sea Z
n
, n Z un proceso ruido blanco, y Z una variable aleatoria independiente de las
Z
n
. Dena el proceso Y
n
= Z +Z
n
, n Z. Compruebe que es un proceso estacionario en
covarianza, encuentre la media y la funci on de autocovarianza.
6. Justique si cada una de las siguientes funciones
n
, n Z puede ser la funci on de
autocorrelaci on de un proceso estacionario en covarianza X
n
, n Z.
1)
n
= e
n
2
,
2)
n
=
_

_
1, si n = 0
0.7, si n = 1, 1
0, en otro caso,
3)
n
=
_
10 [n[, si n = 0, 1, . . . , 10
0, en otro caso.
7. El proceso se nal telegr aca se dene como X
t
= (1)
Nt
, t 0, donde N
t
es un Proceso
Poisson homog eneo con E(N
t
) = t. Es evidente que X
t
solamente toma dos valores -1,
1 y X
0
= 1. Compruebe las siguientes propiedades del proceso.
a) P(X
t
= 1) = e
t
cosh(t), P( X
t
= 1 ) = e
t
senh( t ).
b) E(X
t
) = e
2t
.
c) Compruebe las siguientes identidades:
P( X
t1
= 1 , X
t2
= 1 ) = P( X
t2
= 1 [ X
t1
= 1 )P( X
t1
= 1 )
= e

cosh( ) e
t1
cosh( t
1
),
P( X
t1
= 1 , X
t2
= 1 ) = e

cosh( ) e
t1
senh( t
1
),
P( X
t1
= 1 , X
t2
= 1 ) = e

senh( ) e
t1
senh( t
1
),
P( X
t1
= 1 , X
t2
= 1 ) = e

senh( ) e
t1
cosh( t
1
), t
2
> t
1
> 0.
d) E( X
t1
X
t2
) = e
2| t2t1 |
t
1
, t
2
0.
e) Cov( X
t
, X
t+h
) = e
2| h|
e
2(2t+h)
. Esta expresi on depende de t y h por lo
que X
t
no es estacionario en covarianza. N otese que E(X
t
) y V ar(X
t
) = 1 e
4t
no son constantes.
f ) Si t compruebe los siguientes lmites:
Cov(X
t
, X
t+h
) e
2| h|
,
E(X
t
) 0,
V ar(X
t
) 1.
Luego si t es grande, se puede armar que X
t
es aproximadamente estacionario en
covarianza.
61
3.8. Soluciones
1. Ejercicio.
2. Ejercicio.
3. Ejercicio.
4. Ejercicio.
5. Ejercicio.
6. Las dos primeras cumplen con la condici on de ser funciones pares y satisfacen (0) = 1. La
tercera aunque es par no cumple esta ultima condici on por lo que no puede ser una funci on
de autocorrelaci on.
7. El proceso se nal telegr aca"X
t
= (1)
Nt
, t 0, satisface: X
0
= 1 y toma solamente
dos valores: -1,1.
a)
P(X
t
= 1) = P(N
t
par ) = P((N
t
= 0) (N
t
= 2) )
=

k=0
P( N
t
= 2k ) =

k=0
e
t
( t )
2k
( 2k )!
= e
t
cosh( t )
ya que
cosh(t ) =
e
t
+ e
t
2
=
1
2

k=0
_
( t )
k
k!
+
( t )
k
k!
_
=

k=0
( t )
2k
( 2k!
adem as
P(X
t
= 1) = 1 P( X
t
= 1 ) = 1 e
t
cosh( t )
= e
t
_
e
t
cosh( t )
_
=
e
t
2
_
2e
t
e
t
e
t
_
= e
t
_
e
t
e
t
2
_
= e
t
senh( t )
b) E( X
t
) = 1 P( X
t
= 1 ) 1 P( X
t
= 1 ) = e
t
_
cosh( t ) senh( t )
_
= e
t
_
e
t
_
= e
2t
62
c) Sabemos que P( X
t1
= 1 ) = e
t1
cosh( t
1
) y
P( X
t2
= 1 [ X
t1
= 1 ) = P( N
t2t1
par )
= e

cosh( ), = t
2
t
1
> 0,
luego
P( X
t1
= 1 , X
t2
= 1 ) = P( X
t2
= 1 [ X
t1
= 1 )P( X
t1
= 1 )
= e

cosh( ) e
t1
cosh( t
1
).
Similarmente
P( X
t1
= 1 , X
t2
= 1 ) = e

cosh( ) e
t1
senh( t
1
),
P( X
t1
= 1 , X
t2
= 1 ) = e

senh( ) e
t1
senh( t
1
),
P( X
t1
= 1 , X
t2
= 1 ) = e

senh( ) e
t1
cosh( t
1
).
d)
E( X
t1
X
t2
) = 1 P( X
t1
= 1 , X
t2
= 1 ) + 1 P( X
t1
= 1 , X
t2
= 1 )
1 P( X
t1
= 1 , X
t2
= 1 ) 1 P( X
t1
= 1 , X
t2
= 1 )
= e

cosh( )e
t1
e
t1
e

senh( )e
t1
e
t1
= e

_
cosh( ) senh( )
_
= e
2
= e
2(t2t1)
si t
2
> t
1
,
por tanto
E( X
t1
X
t2
) = e
2| t2t1 |
t
1
, t
2
0.
e)
E( X
t
X
t+h
) = e
2| h|
,
E(X
t
)E(X
t+h
) = e
2t2(t+h)
= e
2(2t+h)
,
luego
Cov( X
t
, X
t+h
) = e
2| h|
e
2(2t+h)
f ) Es inmediato.
CAP

ITULO 4
Procesos Estoc asticos Lineales
Los procesos Autorregresivos de Media M ovil o ARMAson modelos b asicos mediante los cuales
se pueden denir otros modelos m as complejos, como los modelos ARIMA y los modelos de
Transferencia, capaces de describir adecuadamente muchas clases de fen omenos en varias areas.
Se denominan tambi en modelos de caja negra, debido a que sirven para modelar se nales para
las cuales no se especica un modelo determinado. La teora y aplicaciones sobre estos modelos
se puede ampliar en Brockwell and Davis (1987). Un concepto util para denir estos modelos es
el de operador rezago.
Denici on 4.0.1. (Operador Rezago) Si X
n
es un proceso, el operador rezago L (L : Lag,
rezago en ingl es), se dene como L( X
n
) = X
n1
, y el operador L
k
se dene como L
k
(X
n
) =
L(L
k1
(X
n
)) = X
nk
, k = 1, 2, , con L
0
= I el operador identidad. Entonces se puede
utilizar este operador para denir varios procesos. N otese que en Matlab el operador rezago L
se denota por q
1
, y que en varios textos se usa la letra B en lugar de L.
4.1. Procesos ARMA
Denici on 4.1.1. (Procesos ARMA(p,q)) Si p, q son enteros no negativos, se dene un proceso
ARMA(p,q) como un proceso X
n
, n Z, de media cero, que satisface la relaci on recursiva:
X
n
=
1
X
n1
+. . . +
p
X
np
+ Z
n
+
1
Z
n1
+
2
Z
n2
+ +
q
Z
nq
, (4.1)
63
64
donde Z
n
RB(0,
2
).
Utilizando la notaci on con rezagos, se denen los operadores
(L) = I
1
L . . .
p
L
p
(L) = I +
1
L +. . . +
q
L
q
se escribe el modelo de la forma m as compacta (L)X
n
= (L)Z
n
.
Si q = 0, p 1 un proceso ARMA(p,0) se denomina proceso autorregresivo de orden p, y se
denota por AR(p). En este caso el proceso satisface la relaci on
X
n
=
1
X
n1
+ . . . +
p
X
np
+Z
n
. (4.2)
Si p = 0 q 1 un proceso ARMA(p,0) se denomina proceso de Media M ovil de orden q, y se
denota por MA(q). En este caso el proceso satisface la relaci on
X
n
= Z
n
+
1
Z
n1
+
2
Z
n2
+ +
q
Z
nq
. (4.3)
Un proceso ARMA(p,q) puede verse como un proceso autorregresivo AR(p) con un ruido del
tipo media m ovil, MA(q) , de manera que un ARMA(p,q) se diferencia de un AR(p) en que su
t ermino de error es un ruido d ebilmente autocorrelacionado, en el sentido de que la funci on de
autocorrelaci on del MA(q) es cero a partir del rezago q+1, como se comprueba a continuaci on.
Para establecer las condiciones para que un proceso ARMA(p,q), X
n
sea estacionario en covari-
anza se consideran los polinomios (z) = 1 z . . .
p
z
p
, (z) = 1 +
1
z + . . . +
q
z
q
,
para z C. (z) es el polinomio autorregresivo.
Teorema 4.1.1. (ver Fan and Yao (2003), pag. 31, Theorem 2.1) Suponga que X
n
es un proceso
ARMA(p,q) para el cual los polinomios (z) y (z) no tienen races comunes. Entonces X
n
es
estacionario en covarianza si
(z) ,= 0, z C, [z[ 1. (4.4)
Demostraci on. Sean z
1
, . . . , z
p
las races de (z) = 0. Entonces [z
j
[ > 1 y se puede escribir
(z) =

n
j=1
(1 z/z
j
). Pero (1 z/z
j
)
1
=

k=0
(z/z
j
)
k
, [z[ < 1, por desarrollo en serie
de Taylor de (1 z)
1
. Luego (z)
1
=

p
j=1
_

k=0
(z/z
j
)
k
_
. Un producto de p series es
nuevamente una serie, por lo que se puede escribir (z)
1
=

j=0
c
j
z
j
, [z[ < 1. Pero

j=0
[c
j
[
p

j=1
_

k=0
1/[z
j
[
k
_
=
p

j=1
(1 1/[z
j
[)
1
<
65
De la identidad (z)
1
(z) 1 se sigue X
n
= (L)
1
(L)X
n
= (L)
1
(L)Z
n
. Pero
(z)
1
(z) =
_

j=0
c
j
z
j
_
(1 +
1
z + . . . +
q
z
q
) es de nuevo una serie de potencias, por
ejemplo,

j=0
d
j
z
j
, y puede justicarse que

j=0
[d
j
[ < . Entonces, se puede representar
X
n
como un proceso causal, de la forma X
n
=

j=0
d
j
Z
nj
. Por el Teorema 3.4.2, (pag. 55),
se concluye que X
n
es estacionario en covarianza.
La condici on (4.4) se expresa como: las races del polinomio autorregresivos est an por fuera del
crculo unitario. Puede demostrarse que en todo proceso ARMA(p,q), X
n
, la condici on (4.4) es
equivalente ser X
n
causal (ver Brockwell and Davis (1987, pag. 85)). Pero ser X
n
estacionario
en covarianza, de media cero, implica, por el teorema de Wold (ver Teo. (3.4.1), 56), que es de la
forma X
n
=

j=0

j
Z
nj
, con

j=0

2
j
< . Pero no es necesariamente causal y por tanto,
ser estacionario en covarianza no implica la condici on (4.4).
Nota 4.1.1. Se deni o un proceso X
n
ARMA(p, q) para n Z. En caso de ser estacionario,
al denirlo para n = 0, 1, . . . puede dejar de serlo si se dene X
0
de manera arbitraria. En el
caso de asumir Z
n
un ruido blanco gaussiano y ser X
n
estacionario, colocando X
0
N(0,
2
X
),
con
2
X
= V ar(X
n
), se garantiza que X
n
es estacionario para n = 0, 1, . . ..
En esta secci on se analizan los casos de procesos ARMAsiguientes: MA(q), AR(1) y ARMA(1,1).
El enfasis es en calcular la funci on de autocovarianza. Hay al menos tres m etodos diferentes para
calcular autocovarianzas en este tipo de procesos (ver Brockwell and Davis (1987, pag. 91)).
1) M etodo directo. Calcular directamente Cov(X
n
, X
n+m
).
2) M etodo con base en la representaci on causal. Si un proceso ARMA(p,q), satisface la
condici on (4.4) entonces se puede expresar como X
n
= (L)Z
n
=

j=0

j
Z
nj
, donde
(z) = (z)/(z) =

j=0

j
z
j
, [z[ < 1. Adem as, la funci on de autocovarianza de X
n
est a dada por (3.5), pag. (56),
R
X
(h) =
2

j=0

j+h
, h = 0, 1, . . . (4.5)
Para determinar los
j
se coloca (z) = (z)(z) en la forma
1 +
1
z +
2
z
2
+. . . +
q
z
q
= (1
1
z . . .
p
z
p
)(
0
+
1
z +
2
z
2
+ . . .)
y se igualan los coecientes de potencias iguales de z en ambos miembros de la ecuaci on anterior.
Por ejemplo,

0
= 1,

1
=
1
+
1
,

2
=
2
+
2
+
1

1
+
2
1
, (4.6)
66
. . .
Una vez que se determinan los
j
, j = 0, 1, . . . se reemplazan en (4.5).
3) M etodo con base en una f ormula recursiva. A partir de la representaci on (L)X
n
= (L)Z
n
se multiplica a ambos lados de esta ecuaci on por X
nk
, para k 0, y se toma valor esperado.
Entonces se obtiene
E(X
n
X
nk
)
1
E(X
n1
X
nk
) . . .
p
E(X
np
X
nk
) =
E(Z
n
X
nk
) +
1
E(Z
n1
X
nk
) + . . . +
q
E(Z
nq
X
nk
). (4.7)
Luego
E(X
n
X
nk
)
1
E(X
n1
X
nk
) . . .
p
E(X
np
X
nk
) =
R
X
(k)
1
R
X
(k 1) . . .
p
R
X
(k p). (4.8)
Adem as, no es difcil comprobar el siguiente resultado, para i = 0, 1, . . . , q
E(Z
ni
X
nk
) =
_

ik
, si k = 0, 1, . . . , q,
0, si k = q + 1, . . .
(4.9)
Por lo que reemplazando (4.8) y (4.9) en (4.7) se obtiene
R
X
(k)
p

j=1

j
R
X
(k j) =
_

q
i=k

i

ik
, si k = 0, 1, . . . , q,
0, si k = q + 1, . . .
(4.10)
En (4.10) aparecen algunos valores
j
que es necesario calcular con el M etodo 2). El resultado
en (4.10) muestra que R
X
(k) se puede calcular recursivamente a partir de q +1 valores iniciales.
Procesos MA(q)
Proposici on 4.1.1. Un proceso MA(q) dado por X
n
=

q
j=0

j
Z
nj
,
0
= 1, n Z, con
Z
j
RB(0,
2
), es estacionario en covarianza para todo vector de par ametros (
1
, . . . ,
q
)


R
q
. Adem as, se cumple que
1. E(X
n
) = 0, n Z.
2. V ar(X
n
) =
2
(1 +
2
1
+ +
2
q
), n Z,
3.
R
X
(m) =
_

2
q| m|

j=0

j

j+| m|
para [m[ q
0 para [m[ > q
(4.11)
67
Demostraci on. Se puede representar X
n
comounprocesocausal, de la forma X
n
=

j=0
d
j
Z
nj
,
con d
j
=
j
, 0 j q, d
j
= 0, j q + 1. Por el Teorema 3.4.2, (pag. 55), se concluye que
X
n
es estacionario en covarianza. E(X
n
) = 0, n Z, es inmediato pues E(Z
j
) = 0, j.
Ahora, V ar(X
n
) = V ar
_

q
j=0

j
Z
nj
_
=

q
j=0

2
j
V ar( Z
nj
) =
2

q
j=0

2
j
, por la in-
correlaci on de las Z
j
. Para la funci on de autocovarianza R
X
(m), con m 0, tenemos
R
X
(m) = Cov(X
n
, X
n+m
) = E(X
n
X
n+m
)
= E
_
_
q

i=0

i
Z
ni
__
q

j=0

j
Z
n+mj
_
_
=
q

i=0
q

j=0

i
E( Z
ni
Z
n+mj
) (4.12)
Si ni = n+mj entonces E( Z
ni
Z
n+mj
) =
2
, cero en otro caso. Pero ni = n+mj
equivale a i = j m, y la doble sumatoria (4.12) se convierte en sumatoria simple. Como i > 0
entonces j m y como j q los lmites de la sumatoria son m j q, luego
E( X
n
X
n+m
) =
q

i=0
q

j=0

j
E( Z
ni
Z
n+mj
) =
2
q

j=m

j

jm
=
2
qm

j=0

j

j+m
para 0 m q. Luego el proceso es estacionario en covarianza con
R
X
(m) =
_

2
q|m|

j=0

j

j+|m|
para [m[ q
0 para [m[ > q
.
Ejemplo 4.1.1. Considere el proceso X
n
, n Z un proceso media m ovil de orden 2 donde
Z
n
( 0 , 9 ) dado por X
n
= Z
n
0.4Z
n1
+ 0.4Z
n2
con n Z entonces
1
= 0.4 y

2
= 0.4 por tanto
R
X
( m) = 9
2| m|

j=0

j

j+| m|
para [ m[ 2
R
X
( 0 ) = 9
2

j=0

2
j
= 9( 1 + 2(0.4
2
) ) = V ar( X
n
) = 11.88
R
X
( 1 ) = 9
21

j=0

j

j+1
= 9
1

j=0

j

j+1
= 9(
0

1
+
1

2
) = 9( 0.4 0.4
2
) = 5.04
R
X
( 2 ) = 9(
0

2
) = 9(0.4) = 3.6
68
Luego la funci on de autocorrelaci on FAC es

X
(m) =
R( m)
R( 0 )
=
_

_
1 para m = 0

5.04
11.88
= 0.42 para m = 1
3.6
11.88
= 0.30 para m = 2
0 en otro caso
Proceso AR(1)
Proposici on 4.1.2. Para un proceso AR(1) estacionario en covarianza X
n
=
1
X
n1
+Z
n
, n
Z y 1 <
1
< 1, con Z
n
RB(0,
2
), las funciones de autocovarianza y autocorrelaci on son:
R
X
(m) =

2

| m|
1
1
2
1
, (4.13)

X
(m) =
| m|
1
, m Z. (4.14)
Adem as, es v alida la representaci on causal X
n
=

j=0

j
1
Z
nj
, (con probabilidad uno y en
m.c.).
Demostraci on. Iterando k + 1 veces en la ecuaci on X
n
=
1
X
n1
+Z
n
obtenemos
X
n
= Z
n
+
1
(
1
X
n2
+Z
n1
)
= Z
n
+
1
Z
n2
+
2
1
X
n2
= Z
n
+
1
Z
n1
+
2
1
Z
n2
+
3
1
X
n3
.
.
.
=
k

j=0

j
1
Z
nj
+
k+1
1
X
nk1
.
Veamos que la sucesi on S
k
=

k
j=0

j
1
Z
nj
, k = 0, 1, 2, , converge en media cuadr atica.
Utilizamos el criterio 6, para convergencia en m.c. (ver pag. 41): Si existe una constante c tal que
E(S
n
S
m
) c, m, n , entonces converge. Pero
E(S
n
S
m
) = E
_
n

j=0
m

s=0

j+s
1
Z
nj
Z
ns
_
=
n

j=0
m

s=0

j+s
1
E
_
Z
nj
Z
ns
_
.
69
Si n j = n s es decir si j = s se tiene E( Z
nj
Z
ns
) =
2
, en el caso j ,= s se tiene
E( Z
nj
Z
ns
) = 0, luego
E(S
n
S
m
) =
2
nm

j=0

2j
1
c =

j=0

2j
1
< , m, n .
Como X
n
es estacionario en covarianza se tiene E( X
2
n
) = | X
n
|
2
= (cte) luego
| X
n

j=0

j
1
Z
nj
|
2
=
2(k+1)
1
| X
nk1
|
2
0 si k ,
y por tanto
k

j=0

j
1
Z
nj
2
X
n
si k ,
o sea

j=0

j
1
Z
nj
= X
n
en media cuadr atica
Si

j=0

j
1
Z
nj
= X
n
en media cuadr atica entonces
E( X
n
) =

j=0

j
1
E( Z
nj
) = 0
Cov( X
n
, X
n+m
) = E( X
n
X
n+m
) = E
_

j=0

j
1
Z
nj

s=0

s
1
Z
n+ms
_
=

j=0

s=0

j+s
1
E( Z
nj
Z
n+ms
)
=
2

s=m

2sm
1
si n j = n + m s, es decir j = s m 0
=
2

s=0

2(s+m)m
1
=
2

s=0

2s+m
1
=

2

m
1
1
2
1
para m 0.
De donde R
X
(m) =

2

| m|
1
1
2
1
y
X
(m) =
| m|
1
, m Z.
Si utilizamos el operador rezago obtenemos (I
1
L)(X
n
) = Z
n
, de donde
X
n
=
1
1
1
L
(Z
n
).
70
Pero
1
1
1
=

j=0

j
1
si 1 <
1
< 1,
luego
1
1
1
L
=

j=0
(
1
L)
j
=

j=0

j
1
L
j
,
de donde
X
n
=

j=0

j
1
Z
nj
.
Proceso ARMA(1,1) Un proceso autorregresivo de orden 1, de media m ovil de orden 1,
(X
n
, n Z), con media cero, est a denido mediante la relaci on: X
n
=
1
X
n1
+Z
n
+
1
Z
n1
,
donde 1 <
1
< 1 es el par ametro autorregresivo, 1 <
1
< 1 es el par ametro de media
m ovil y Z
n
RB(0,
2
).
Proposici on4.1.3. EnunprocesoARMA(1,1) lafunci onde autocovarianzaR
X
(m), m = 0, 1, . . .
est a dada por
R
X
(0) =
2
(1 +
2
1
+ 2
1

1
)
1
2
1
, (4.15)
R
X
(m) =
2

m1
1
(
1
+
1
)(1 +
1

1
)
1
2
1
, m 1. (4.16)
Demostraci on. Aplicamos el M etodo 2. Primero se calculan los coecientes
j
, j = 0, 1, . . .
con (4.6). El proceso ARMA(1,1) se escribe con el operador rezago como (I
1
L)X
n
=
(I +
1
L)Z
n
. Consideramos el desarrollo en serie de Taylor alrededor de z = 0, para [z[ < 1:
1 +
1
z
1
1
z
=
0
+
1
z +
2
z
2
+ .
Entonces 1+
1
z = (
0
+
1
z+
2
z
2
+ )(1
1
z). Luego, igualandocoecientes obtenemos:

0
= 1

1
=
1
+
1

2
=
1

1
=
1
(
1
+
1
)

3
=
2

1
=
2
1
(
1
+
1
)
.
.
.
71
por lo que
j
=
j1
1
(
1
+
1
), j 1. Una vez obtenida la sucesi on
j
se reemplaza en la
expresi on general para la funci on de autocovarianza del proceso, (4.5). Obtenemos, para m > 1
y m = 0
R
X
(m) =
2

j=0

j+m
=
2

m
+
2

j=1

j+m
=
2

m1
1
(
1
+
1
) +
2

j=1

2(j1)+m
1
(
1

1
)
2
=
2

m1
1
(
1
+
1
)
_
_
1 +
1
(
1
+
1
)

j=0

2j
1
_
_
=
2

m1
1
(
1
+
1
)
_
1 +

1
(
1
+
1
)
1
2
1
_
=
2

m1
1
(
1
+
1
)(1 +
1

1
)
1
2
1
,
R
X
(0) =
2

j=0

2
j
=
2
(1 + (
1
+
1
)
2

j=0

2j
1
) =
2
_
1 +
(
1
+
1
)
2
1
2
1
_
=
2
(1 +
2
1
+ 2
1

1
)
1
2
1
.
4.2. An alisis Estadstico de Procesos ARMA
En esta secci on se dene un estimador de la funci on de autocorrelaci on de un proceso estacionario
en covarianza con base en una muestra del mismo. Tambi en se dene la funci onde autocorrelaci on
parcial y un estimador de la misma, y un estimador de la uctuaci on cuadr atica media, conocido
como variograma.
Denici on 4.2.1 (Funci on de Autocorrelaci on Muestral). Suponga un proceso (X
n
, n Z)
estacionario en covarianza y funci on de autocovarianza R(k), k = 0, 1, . . . y una muestra de
tama no N de X
n
, X
1
, X
2
, , X
N
. Se dene un estimador de R(k), como el estadstico:

R(k) =
1
N
Nk

j=1
( X
j
X )( X
j+k
X ) k = 0, 1,
y un estimador de la funci on de autocorrelaci on como el estadstico
(k) =

Nk
j=1
( X
j
X )( X
j+k
X )

Nk
j=1
( X
j
X )
2
k = 0, 1,
72
Note que

R(0) =
1
N
N

j=1
( X
j
X )
2
=
2
La gr aca de (k, (k)), k = 1, 2, . . . , m se denomina correlograma". El valor m es el n umero
de rezagos que se utilizanen la gr aca. No hay una regla precisa para escoger m. Una gua puede
ser m igual a la parte entera de N/4.
Nota 4.2.1. Con respecto al Ejemplo (3.2.3), si f(t) es una funci on de t no aleatoria, y R(h)
es la funci on de autocovarianza del proceso estacionario en covarianza X
t
, entonces el proceso
Y
t
= f(t) + X
t
tambi en tiene autocovarianza R(s). Sin embargo, Y
t
no es estacionario en
covarianza. Y, aunque se cumpla
X
(k) =
Y
(k), la fac muestral no cumple

X
( k ) =
Y
( k )
y

T
t=k+1
( Y
t
Y )( Y
tk
Y )

T
t=1
( Y
t
Y )
2
,=

T
t=k+1
( X
t
X )( X
tk
X )

T
t=1
( X
t
X )
2
Y =
1
T
T

t=1
Y
t
=
1
T
T

t=1
f( t ) +X
t
=
1
T
T

t=1
f( t ) +X = f + X
porque el proceso no cumple que E( Y
t
) = cte.
Denici on 4.2.2 (Variograma). Un estimador de la uctuaci on media cuadr atica es el variogra-
ma, denido como el estadstico:

V (k) =

R(0)

R(k)

R(0)

R(1)
=
1 (k)
1 (1)
, k = 0, 1, , m.
Seg un Box and Luce no (2002), pag. 114-115, el variograma permite identicar cu ando un pro-
ceso X
n
es estacionario en covarianza. El variograma tiene la ventaja de que puede representar
tambi en el comportamiento de muchas series de tiempo no estacionarias. Si R(k) converge a cero
r apidamente cuando k entonces

V (k) es un estimador de
V
k
=
R( 0 ) R( k )
R( 0 ) R( 1 )

R( 0 )
R( 0 ) R( 1 )
, k ,
por eso, la gr aca de

V (k) en el caso estacionario debe mostrar que se acerca a un valor constante.
En caso de mostrar una gr aca que tiene pendiente positiva constante sera un indicador de no
estacionariedad. En la teora de series de tiempo existen varias pruebas de hip otesis, denominadas
pruebas de raiz unitaria, que tienen como hip otesis nula la no estacionariedad del proceso.
73
Denici on 4.2.3. Dado un proceso X
n
, n Z, estacionario en covarianza, la funci on de
autocorrelaci on parcial (k) , k = 1, 2, se dene como
1. (1) = Corr( X
1
, X
2
)
2. ( k ) = Corr(
k
,
1
) k 2, donde
k
= X
k+1
E( X
k+1
[ X
2
, , X
k
) y
1
=
X
1
E( X
1
[ X
2
, , X
k
)
Denici on 4.2.4. (Matriz de Toeplitz) Dado un vector A = (a
0
, a
1
, . . . , a
k1
), la matriz de
Toeplitz asociada a A se dene como
_

_
a
0
a
1
a
2

3

k1

1
a
0
a
1
a
2

k2
a
2

1

0
a
1

k3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
k1
a
k2
a
k3
a
k4
a
0
_

_
(4.17)
N otese que es una matriz sim etrica.
Considere un proceso estacionario en covarianza X
n
, con funci on de autocovarianza R(h),
y el vector X
n
= (X
1
, . . . , X
n
)

. La matriz de varianzas-covarianzas de X
n
es una matriz
sim etrica nxn con n elementos distintos dados por la matriz de Toeplitz asociada al vector
(R(0), R(1), . . . , R(n 1)). La matriz de correlaciones es igual a esta matriz dividida por R(0).
Con esta matriz se puede denir la funci on de autocorrelaci on parcial mediante el siguiente
resultado.
Teorema 4.2.1. Para un proceso X
n
estacionario en covarianza la funci on de autocorrelaci on
parcial (k) =
kk
satisface el siguiente sistema lineal:
_

0

1

2

3

k1

1

0

1

2

k2

2

1

0

1

k3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

k1

k2

k3

k4

0
_

_
_

k1

k2

k3
.
.
.

kk
_

_
=
_

3
.
.
.

k
_

_
k = 1, 2, (4.18)
y
j
= Corr( X
n
, X
n+j
) = R( j )/R( 0 )
Denici on 4.2.5. La funci on de autocorrelaci on muestral
k
se obtiene reemplazando
j
por
j
en el sistema lineal anterior (4.18).
Si k = 1 [
0
]
11
=
1
, luego (1) =
1
pues
0
= 1. Se coloca (0) = 1 usualmente.
74
An alisis con Matlab
Matlab posee varios Toolbox para an alisis de se nales y series de tiempo . En esta secci on se
introducen algunas funciones que permiten implementar dos pasos b asicos en el an alisis de
procesos ARMA: i) identicaci on de los ordenes p y q, y ii) estimaci on del modelo y vericaci on
del ajuste. Se incluye tambi en una funci on que permite la simulaci on de procesos ARMA.
1. Funciones para identicaci on:
a) autocorr: calcula y graca la funci on de autocorrelaci on estimada.
b) parrcorr: calcula y graca la funci on de autocorrelaci on parcial estimada.
2. Funciones para estimaci on y ajuste:
a) armabat: funci on para identicar la pareja (p,q) que produce el modelo con menor
criterio de informaci on de Akaike (AIC). Es una funci on escrita por H. Hurd.
1
b) armax: funci on que estima los par emetros del modelo ARMA(p,q). Matlab provee
varias funciones para estimaci on de modelos pero solamente se considerar a esta.
c) resid: funci onpara calcular los residuos del modelo con el n de poder realizar pruebas
de hip otesis para determinar si es ruido blanco, como la prueba de Ljung-Box.
d) lbt: funci on para realizar la prueba de Ljung-Box.
e) compare: funci on para examinar la calidad de los pron osticos que se pueden hacer con
el modelo ajustado con el n de determinar su adecuaci on.
Notaci on Matlab. En lugar de la letra L, Matlab utiliza q
1
, luego q
1
(X
n
) = X
n1
. Por ejemplo,
un modelo ARMA(4,2) se expresa en Matlab as:
A(q
1
)X
n
= B(q
1
)Z
n
A(q
1
) = 1 0.8875q
1
+ 0.6884q
2
0.8956q
3
+ 0.7022q
4
B(q
1
) = 1 + 0.2434q
1
+ 0.4649q
2
Pasos para el an alisis con las funciones de Matlab
1. Gracar la trayectoria del proceso, la FAC estimada, la FACP estimada y el Variograma.
Las instrucciones a continuaci on muestran c omo hacerlo.
figure(1)
subplot(2,2,1), plot(x);
1
http://www.stat.unc.edu/faculty/hurd/stat185Data/progdoc.html
75
ylabel(Xn)
title(Trayectoria)
[fac_y,m]=autocorr(x,[],2);
subplot(2,2,2), autocorr(x,[],2)
title(fac);
[facp_y, mp] = parcorr(x,[],2);
subplot(2,2,3), parcorr(x,[],2)
title(facp);
v = (fac_y(1)-fac_y)/(fac_y(1)-fac_y(2));
subplot(2,2,4), stem(m,v);
grid
title(Variograma)
2. En un proceso AR(p) la facp muestral debe mostrar las primeras p autocorrelaciones par-
ciales por fuera de las bandas de Bartlett, es decir, deben ser signicativamente diferentes
de cero. La fac muestral debe mostrar una forma decreciente a cero.
En un proceso MA(q) la fac muestral debe mostrar las primeras q autocorrelaciones por
fuera de las bandas de Bartlett, es decir, deben ser signicativamente diferentes de cero. La
facp muestral debe exhibir un patr on decreciente a cero.
Despu es de una posible identicaci on del tipo de proceso se procede a especicar los
ordenes p y q del proceso. En caso de no ser posible identicar un AR o un MA, se toma
inicialmente el rango p, q = 1, 2, 3, 4, 5, 6, y se corre la funci on armabat como se indica
a continuaci on. Esta funci on busca la pareja (p,q), en el rango establecido, que minimiza el
criterio de informaci on de Akaike.
Antes de aplicar la funci on es conveniente restar la media para obtener un proceso de media
cero, asumiendo que el proceso es estacionario en covarianza: xt = x - mean(x);.
% eliminar la media
xt = x -mean(x);
% explora el orden
pvec = [1 2 3 4 5 6];
qvec = [1 2 3 4 5 6];
[mbest,minaic,pbest,qbest]=armabat(xt,pvec,qvec);
pbest
qbest
En las variables pbest y qbest est an los valores de los ordenes p y q que mejor describen
el proceso.
3. Estimaci on los par ametros del modelo ARMA(p,q). Para esto se utiliza la funci on armax
con la pareja (p, q) escogida en el punto anterior con la instrucci on, por ejemplo, arma42
= armax(xt,[4 2]);", la cual corresponde a un proceso ARMA(4,2). Esta instrucci on crea un
objeto de nombre arma42 que contiene varios campos con informaci on sobre el modelo
76
estimado. Para expresar la ecuaci on del modelo estimado de la forma A(L)X
n
= B(L)Z
n
,
se obtienen los vectores de coecientes estimados arma42.a = (1,
1
, . . . ,
p
).
arma42 = armax(xt,[pbest qbest]);
present(arma42)
arma42.a
arma42.c
4. Pruebas de signicaci on de los Par ametros. La instrucci on
tcrit = arma42.ParameterVector./sqrt(diag(arma41.CovarianceMatrix))
calcula un vector de cocientes t
j
=

j
/S

j
, donde S

j
es la desviaci on est andar del
coeciente

j
.
Cada valor t
j
es el valor de un estadstico t de Student que sirve para probar la hip otesis de
que los coecientes son signicativamente diferentes de cero, es decir, se acepta la hip otesis
H
o
:
j
= 0 al nivel de 5 % si observamos que [t
j
[ < 1.96; en caso contrario se rechaza.
Tambi en se puede calcular el valor estimado de la varianza del ruido blanco,
2
, mediante
la instrucci on: arma42.NoiseVariance.
5. Para completar el an alisis es necesario chequear si los residuos del modelo ajustado son
ruido blanco. Los residuos son valores estimados del proceso Z
n
. La forma de hacerlo
es calculando la fac y la fac parcial con los residuos. Si los residuos resultan ruido blanco
ambas funciones deben mostrar todos los valores dentro de las bandas de Bartlett. El c alculo
de los residuos se puede hacer con los siguientes comandos.
dato = iddata(xt);
rarma42 = resid(arma42,dato);
et = rarma42.OutputData;
figure(3)
subplot(2,2,1), plot(et);
title(Residuos)
[fac_x,m] = autocorr(et,30,[],2);
subplot(2,2,2), autocorr(et,30,[],2);
title(fac muestral)
subplot(2,2,3), parcorr(et,30,[],2);
title(facp muestral)
v = (fac_x(1)-fac_x)/(fac_x(1)-fac_x(2));
subplot(2,2,4), stem(m,v);
grid
title(Variograma)
6. Una manera de chequear si el modelo propuesto ajust o bien los datos es ajustar el modelocon
la primera mitad de los datos y utilizar la parte restante para comparar con los pron osticos
a un paso: se compara X
n
con el pron ostico de X
n
realizado con el modelo. La funci on
compare de Matlab hace este c alculo.
77
500 1000 1500 2000 2500 3000
3
2
1
0
1
2
3
4
x 10
4 Trayectoria
0 5 10 15 20 25 30
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Lag
S
a
m
p
le
A
u
to
c
o
r
r
e
la
tio
n
fac muestral
0 5 10 15 20 25 30
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Lag
S
a
m
p
le
P
a
r
tia
l A
u
to
c
o
r
r
e
la
tio
n
s
facp muestral
0 5 10 15 20 25 30
0
2
4
6
8
10
12
14
Variograma
Figura 4.1: An alisis de la Serie de aceleraciones verticales del sismo de Kobe
figure(4)
% uso de la funcion "compare"
mitad = floor(length(xt)/2);
ye = xt(1:mitad);
yv = xt(mitad+1:end);
model= armax(ye,[pbest qbest]);
compare(yv,model,1);
Ejemplo 4.2.1. En la gura (4.1) se aprecian la fac y la fac parcial estimadas. Seg un lo explicado
acerca de la identicaci on de modelos tipo ARMA, corresponden a un proceso autorregresivo
AR(p) con p entre 15 y 20. La estimaci on se realiz o de acuerdo a las indicaciones anteriores y
se obtuvo un modelo AR(16). Antes de estimar el modelo se elimina la media, que tiene un valor
= 2.6456e + 003. El modelo ajustado para la serie X
n
es:
Discrete-time IDPOLY model: A(q)y(t) = e(t)
A(q) = 1 - 3.999 (+-0.01792) q-1 + 9.588 (+-0.0735) q-2 - 17.46 (
+-0.1841) q-3 + 26.05 (+-0.3536) q-4 - 33.53 (+-0.5615) q-5
+ 38.26 (+-0.7725) q-6 - 39.16 (+-0.9453) q-7 + 36.47 (
+-1.042) q-8 - 30.87 (+-1.041) q-9 + 23.72 (+-0.9451) q-10
- 16.43 (+-0.7722) q-11 + 10.06 (+-0.5611) q-12 - 5.337 (
+-0.3533) q-13 + 2.342 (+-0.1839) q-14 - 0.7668 (+-0.07339) q-15 +
0.1638 (+-0.01789) q-16.
78
El residuo o error, indicado en Matlab con e(t) corresponde a un ruido blanco Z
n
con varianza
estimada dada por

2
= 2.2193e+005. La comprobaci on de que los residuos e(t) son ruido blanco
se realiza con la prueba Ljung-Box. En este caso no se rechaza la hip otesis de incorrelaci on de
e(t). Adem as, todos los coecientes resultan signicativamente diferentes de cero. Los n umeros
que aparecen entre par entesis con +- son las desviaciones est andar s

j
de los coecientes

j
.
En este caso, como se explic o, se puede ver que la dividir el coeciente por su desviaci on se
obtiene un valor mayor de 1.96 en valor absoluto por lo que se puede considerar que todos son
signicativamente diferentes de cero. Este modelo podra servir por ejemplo, para simular las
aceleraciones de un sismo sobre una estructura.
Ejemplo 4.2.2. Suponga que X
n
= Z
n
0.4Z
n1
+ 0.4Z
n2
n Z, con Z
n
una sucesi on
i.i.d. N(0,
2
). Para simular con Matlab una trayectoria de X
n
y calcular la fac muestral, se
utilizan los siguientes comandos.
n = 100;
t = (1:n);
z = normrnd(0,2,n,1);
x = filter([1 -0.4 0.4],[1],z);
autocorr(x,20,[],2);
[r, k] = autocorr(x, 20, [\ ], 2);
v = (r(1)-r)/(r(1)-r(2));
stem(k,v)
produce una gr aca del variograma

V (k) que muestra el proceso estacionario del proceso. La
gr aca de autocorr es la gr aca de
X
( k ) , k = 0, 1, 2, , 20. N otese que en este caso se
conocen los valores de la fac
X
( 0 ) = 1,
X
( 1 ) = 0.42 ,
X
( 2 ) = 0.3 ,
X
( k ) = 0 para
k 3.
4.3. Aplicaciones
En esta secci on se relacionan algunas aplicaciones de los procesos considerados en este captulo.
Son aplicaciones de Series de Tiempo. Esta area tiene aplicaciones en neurosiologa, astrofsica,
economa, biologa, control, procesamiento de se nales y comunicaciones.
1. Nota sobre las aplicaciones de los procesos AR(1). Los procesos AR(1) forman parte
de un tipo de procesos m as general, de la forma X
n
= A
n
X
n1
+ Y
n
, n = 1, 2, . . ..
Seg un Vervaat (1979), Estos modelos aparecen en economa, fsica, biologa y sociologa.
En todas las aplicaciones X
n
representa un n umero de unidades de un cierto objeto en el
tiempo n, Y
n
es la cantidad a nadida inmediatamente antes del tiempo n ( o retirada, en el
caso Y
n
< 0), y el factor A
n
representa la tasa de incremento o decremento de la cantidad
X
n1
entre los tiempos n-1 y n. Un ejemplo de aplicaci on consiste en asumir que X
n
es
79
el saldo en pesos de una cuenta en alg un fondo de inversiones, Y
n
es un dep osito o retiro,
realizado antes del tiempo n, y A
n
es un factor que representa el capital m as intereses
generados entre los tiempos n-1 y n, por una unidad de capital".
2. Ingeniera. En el artculo (Nowicka-Zagrajek and Weron (2002)), los autores desarrollaron
un modelo para calcular pron osticos de la demanda de energa el ectrica en California
(EUA). Los datos correspondan a la demanda de energa en cada hora durante el perodo
entre abril 1 de 1998 y diciembre 31 de 2000. Debido a que los datos presentaban una fuerte
componente peri odica diaria, se gener o una serie diaria que comprenda dos a nos completos,
entre enero 1 de 1999 y diciembre 31 de 2000, para 730 datos. Esta serie a un presentaba
una componente estacional semanal y otra anual, las cuales se removieron. Los datos des-
estacionalizados, con media cero, se ajustaron a un modelo ARMA de la forma (4.1, pag.
63). El modelo escogido, entre varios examinados, fu e un ARMA(1,6) con
4
=
5
= 0,
dado por:
X
n
= 0.332776X
n1
+ Z
n
0.383245Z
n1
0.12908Z
n2
0.149307Z
n3
0.0531862Z
n6
Cuando los autores examinaron los residuos Z
n
estimados encontraron que no tenan una
distribuci on Normal sino una de tipo Hiperb olico,Hyp(, , , ). La funci on de densidad
de una distribuci on Hiperb olica est a dada por:
f(x) =
_

2

2
2K
1
(
_

2
)
exp(
_

2
+ (x )
2
),
donde > 0, Ry 0 [[ < . La funci on K
1
(.) es la funci on modicada de Bessel de
ndice 1. Los valores estimados de los par ametros fueron: = 1.671304,

= 0.09879,

= 0.298285, = 0.076975. Los autores compararon los pron osticos obtenidos con
el modelo ARMA(1,6)-Hyp versus los pron osticos provistos por la entidad ocial CAISO
(California SystemOperator) y concluyeronque los obtenidos por el modeloeran superiores,
utilizando un error MAPE porcentual. El modelo presentaba un valor 1.24 mientras que
CAISO un valor 1.70. Los autores se nalan: Es relativamente f acil obtener pron osticos de
demanda con valores MAPE porcentual cercanos a 10.0. Sin embargo, los costos nancieros
de un error son tan grandes que la investigaci on est a dedicada a reducir estos valores a un
en algunos puntos porcentuales.(ver Nowicka-Zagrajek and Weron (2002), pag. 1904).
3. Ingeniera. En el artculo (Reed and Scanlan (1983)), los autores utilizaron un modelo
ARMA para analizar las series de tiempo correspondientes a las cargas de viento sobre
torres de enfriamiento de forma circular. Una de las aplicaciones de este modelo fu e la
simulaci on de cargas de viento. Adem as, utilizaron modelos que relacionan la velocidad
con un diferencial de presi on del viento.
4. Ingeniera.Vibration control of a exible beam with integrated actuators and sensors W J
Manning et al 2000 Smart Mater. Struct. 9 932-939 doi:10.1088/0964-1726/9/6/325
80
Abstract. The use of system identication to determine linear Auto Regressive Moving Av-
erage eXogenous inputs (ARMAX) models for smart structures has been scarcely reported
in the literature. However, these models can be used as a basis for a linear discrete-time
controller design. This work presents a smart structure vibration control scheme developed
using an ARMAX model of the structure and compares its performance to an empirically
designed velocity feedback controller. The smart structure is comprised of piezoceramic
(such as PZT) actuators and straingauge sensors attached to a cantilever beamand interfaced
to a PC, which provides the control software platform. System identicationis carried out in
three phases: data collection, model characterization and parameter estimation. Input-output
data are collected by stimulating the piezoactuators with a bipolar square wave signal and
monitoring the strain gauge response. The model is characterized with second-order plant
dynamics and a least-squares estimation algorithm calculates the model parameters. The
controller is designed using pole placement to achieve the desired closed-loop response.
The ARMAX model is used to calculate the pole placement controllers by solution of the
Diophantine equation for the prescribed closed-loop pole positions. Results show that the
pole placement controller can match the performance of a velocity feedback controller and
maintain this performance when the sampling rate is greatly reduced.
4.4. Problemas
1. Suponga que (X
n
, n = 0, 1, . . .), es un proceso AR(1) denido para n 1, en lugar de
n Z, mediante las relaciones siguientes:
a) X
0
tiene media y varianza dados por: (0,

2
1
2
).
b) X
n
= X
n1
+ Z
n
, n = 1, 2, . . ..
donde Z
n
, n = 1, 2, . . . es ruido blanco con V ar(Z
n
) =
2
, X
0
se asume independiente
de las variables Z
n
, y (1, 1) es un par ametro.
a) Encuentre E(X
n
) utilizando la f ormula x
n
= a
n
_
x
0
+

n
j=1
a
j
b
j
_
de la soluci on
de la ecuaci on recursiva lineal de primer orden: x
n
= ax
n1
+b
n
, n 0, x
0
dado.
b) Encuentre E(X
n
X
m
)
c) Encuentre E(X
n
[X
n1
).
d) Encuentre

X
3
= E(X
3
[X
1
= 2.2, X
2
= 1.3), asumiendo que = 0.8 y
2
= 3.
2. Modelo AR(2) (Proceso de Yule). Suponga que (Z
n
, n Z) es ruido blanco. Un proceso
(X
n
, n Z), de media cero, se denomina AR(2) si cumple:
X
n
=
1
X
n1
+
2
X
n2
+ Z
n
, n Z, (4.19)
donde
1
y
2
son par ametros.
81
La condici on para que X
n
sea estacionario en covarianza es que 1
1
z
2
z
2
,= 0, para
todo z C tal que [z[ 1. Esta condici on a su vez es equivalente a la siguiente:
[
1
[ < 1,
2
+
1
< 1,
2

1
< 1. (4.20)
Entonces, por el teorema de Wold (Teo 3.4.1, pag. 56), si se cumple (4.20), se cumple la
identidad (entendida como lmite en media cuadr atica):
X
n
=

j=0

j
Z
nj
(4.21)
donde

j=0

2
j
< .
a) Utilice la identidad (4.21) para comprobar que se cumple E(Z
n
X
nk
) = 0 para
k = 1, 2, . . . .
b) Multipliquela ecuaci on (4.19) por X
nk
y utilice el resultado anterior para comprobar
que la funci on de autocovarianza R(k) del proceso X
n
satisface la ecuaci on en
diferencias:
R(k) =
1
R(k 1) +
2
R(k 2), k = 1, 2, . . . (4.22)
c) Multiplicando la ecuaci on (4.19) por X
n
se comprueba que se cumple la ecuaci on
R(0) =
1
R(1) +
2
R(2) +
2
(4.23)
donde
2
es la varianza del ruido blanco Z
n
. Utilice la ecuaci on (4.22) para obtener
R(1) y R(2) en funci on de R(0) y R(1). Estas ecuaciones junto con la (4.23) confor-
man un sistema de tres ecuaciones y tres inc ognitas, tal que al resolverlo se obtienen
expresiones para R(0), R(1) y R(2). Compruebe que
R(0) = V ar(X
n
) =
(1
2
)
2
(1 +
2
)((1
2
)
2

2
1
)
(4.24)
d) Decida si el proceso X
n
= 1.3X
n1
0.4X
n2
+ Z
n
, n Z es estacionario en
covarianza.
e) Adem as, eval ue las cantidades [[X
n+k
X
n
[[, k = 1, 2.
3. El modelo MA(1). Suponga un proceso Media M ovil, MA(1), (X
n
, n Z), denido por la
relaci on:
X
n
= Z
n
+ Z
n1
, n Z (4.25)
donde R es un par ametro y (Z
n
, n Z) es ruido blanco de varianza
2
.
a) Compruebe que la funci on de autocovarianza de X
n
, R
X
(m), m Z, est a dada por:
R
X
(0) =
2
(1 +
2
), R
X
(1) =
2
, R
X
(m) = 0, m 2.
82
b) Se puede probar que la FACP de un proceso MA(1) est a dada por la expresi on

k
= ()
k+1
(1
2
)/(1
2(k+1)
), para k = 1, 2, . . .. Compruebe esta f ormula
calculando directamente los casos
k
, k = 1, 2.
c) Considere el proceso Y
n
= X
n
X
n1
. Debe ser tambi en estacionario en covarianza
(por qu e?). Encuentre la funci onde autocovarianza. Compruebe que R
Y
(0) > R
X
(0).
Qu e indica este resultado?.
4. Encuentre la funci on de autocovarianza y autocorrelaci on de los procesos
a) X
n
= Z
n

1
2
Z
n1

1
2
Z
n2
b) X
n
= Z
n
+ 0.6Z
n1
0.3Z
n2
0.1Z
n3
5. (ver Brockwell and Davis (1987), pag. 92) Utilice el M etodo 2 para encontrar la funci on de
autocovarianza del proceso (I L + (1/4)L
2
)X
n
= (I + L)Z
n
, con Z
n
RB(0,
2
).
6. Suponga que Z
n
, n Z es una sucesi on i.i.d. N(
1
,
2
). Dena el proceso
X
0
= Z
1
X
n
= Z
n
+ ( 1 )X
n1
para n = 1, 2,
Compruebe que
a)
X
n
= ( 1 )
n
Z
1
+
n

j=1
( 1 )
nj
Z
j
= ( 1 )
n
Z
1
+
n1

j=0
( 1 )
j
Z
nj
b) Encuentre E( X
n
) , V ar( X
n
) y compruebe que V ar( X
n
) <
2
7. El modelo ARCH(1), auto-regresivo condicionalmente heteroced astico, es un modelo que
hace parte de una familia m as amplia y se utiliza para modelar fen omenos que no tienen
car acter gaussiano. Se dene mediante la relaci on:
X
n
= + (a
0
+ a
1
(X
n1
)
2
)
1/2
Z
n
, n = 1, 2, . . . (4.26)
donde R, a
0
> 0, a
1
(0, 1) y la sucesi on (Z
n
), n = 1, 2, . . . es una sucesi on
de variables independientes, con Z
n
independiente de X
n1
, id enticamente distribudas
N(0, 1). Encuentre V ar(X
n
) y compruebe que lm
n
V ar(X
n
) = a
0
/(1 a
1
).
8. Considere un proceso ARMA(1,1), X
n
=
1
X
n1
+ Z
n
+
1
Z
n1
, para n = 1, 2, . . ..
Suponga que X
0
es independiente de Z
j
, j 0, tal que E(X
0
) = 0 y V ar(X
0
) = R
X
(0)
para R
X
(0) dada en (4.15):
R
X
(0) =
2
(1 +
2
1
+ 2
1

1
)
1
2
1
.
83
Denote U
n
= Z
n
+
1
Z
n1
.
a) Compruebe las identidades
X
n
=
n
1
_
X
0
+
n

j=1

j
1
U
j
_
. (4.27)
X
n+m
=
m
1
_
X
n
+
m

j=1

j
1
U
j+n
_
, m 1. (4.28)
b) Compruebe que E(X
n
) = 0, n 0.
c) Con base en (4.27) compruebe que V ar(X
n
) = E(X
2
n
) = R
X
(0).
d) Reemplazando m = 1 en (4.28), compruebe:
R
X
(1) = E(X
n
X
n+1
) =
1

2
0
+
1

2
=

2
(
1
+
1
)(1 +
1

1
)
1
2
1
Sugerencia: al evaluar E(X
n
X
n+1
) se requieren dos resultados: E(X
n
Z
n+1
) = 0 y
E(X
n
Z
n
) =
2
.
e) Verique que R
X
(m + 1) =
1
R
X
(m), m 2.
4.5. Soluciones
1. a) Utilizando la f ormula
x
n
= a
n
_
x
0
+
n

j=1
a
j
b
j
_
obtenemos
X
n
=
n
X
0
+
n

j=1

nj

j
y por tanto
E( X
n
) =
n
E( X
0
) +
n

j=1

nj
0 =
n
E( X
0
)
Si asumimos que E( X
0
) = 0 entonces E( X
n
) = 0
b) Cov( X
n
, X
n+m
) para n, m 0
Suponga que m > 0 y Cov( X
n
, X
n+m
) = E( X
n
X
n+m
) pero si
X
n
=
n
_
X
0
+
n

j=1

j
_
84
tambi en
X
n+m
=
n+m
_
X
0
+
n+m

j=1

j
_
=
m
_

n
X
0
+
n+m

j=1

nj

j
_
=
m
_

n
X
0
+
n

j=1

nj

j
+
n+m

j=n+1

nj

j
_
=
m
_
X
n
+
n+m

j=n+1

nj

j
_
=
m
_
X
n
+
m

j=1

n+j
_
y por tanto
X
n
X
n+m
=
m
_
X
2
n
+
m

j=1

j
X
n

n+j
_
E( X
n
X
n+m
) =
m
_
E( X
2
n
) +
m

j=1

j
E( X
n

n+j
)
_
pero si E( X
n

n+j
) = 0 para j 1 ya que las
j
son no correlacionadas entonces
E( X
n
X
n+m
) =
m
E( X
2
n
) y por tanto
E( X
2
n
) = V ar( X
n
) = V ar
_

n
_
X
0
+
n

j=1

j
_
_
=
2n
_
V ar( X
0
) +
n

j=1

2j

2
_
=
2n
_

2
0
+
2

2

2(n+1)
1
2
_
=
2n
_

2
0

2
1
2n
1
2
_
Si escogemos
2
0
=

2
1
2
entonces
V ar( X
n
) = E( X
2
n
) =

2
1
2

2n
_
1 ( 1
2n
)
_
=

2
1
2
= cte
c) Para la esperanza condicional se tiene:
E(X
n
[X
n1
) = E(X
n1
+Z
n
[X
n1
)
85
= X
n1
+E(Z
n
[X
n1
)
Obs ervese que E(Z
n
[X
n1
) no puede simplicarse porque la expresi on para X
n1
=

n1
(X
0
+

n1
j=1

j
Z
j
), depende de las Z
j
para j = 1, . . . , n1, y solamente se
asume que las Z
j
son incorrelacionadas pero no independientes. Podemos decir que
E(Z
n
[X
n1
) es una variable de media cero porque E(E(Z
n
[X
n1
)) = E(Z
n
) = 0,
pero nopodemos conclur que E(Z
n
[X
n1
) = 0. M as adelante en el cursose ver a que,
si se asume que las Z
j
son i.i.d. Normales, entonces E(X
n
[X
n1
) = X
n1
d) Utilizando la Nota sobre la denici on de pron osticos en procesos estacionarios en
covarianza, tenemos que calcular

X
3
=
1
X
1
+
2
X
2
, donde (
2
,
1
)

= R
1
2

2
.
Tenemos, de las deniciones en la Nota y el proceso AR(1):
R
2
=
_
R(0) R(1)
R(1) R(0)
_
=

2
1
2
_
1
1
_
R
1
2
=
1

2
_
1
1
_
,
2
=
_
R(1)
R(2)
_
=

2
1
2
_

2
_
luego (
2
,
1
)

= R
1
2

2
= (, 0)

, y por tanto,

X
3
= X
2
= 0.8(1.3) = 1.04.
2. Ejercicio.
3. Ejercicio.
4. Ejercicio.
5. De la identidad 1 +z = (1 z + z
2
/4)(w
0
+ w
1
z + w
2
z
2
+ . . .), al igualar coecientes
de las potencias de z se obtiene w
0
= 1, w
1
= 2 y la ecuaci on recursiva w
j
= w
j1

(1/4)w
j2
, j 2. La soluci on de este tipo de ecuaciones en diferencias est a en la secci on
de Notas de este captulo. Finalmente se obtiene R
X
(m) =
2
2
m
(32/3 + 8m), m 2.
6. Ejercicio.
7. Ejercicio.
8. N otese que si U
n
= Z
n
+
1
Z
n1
entonces U
n
es un MA(1).
a) La identidadX
n
=
n
1
_
X
0
+

n
j=1

j
1
U
j
_
se obtiene de la soluci on de la ecuaci on
recursiva x
n
= ax
n1
+ b
n
, n = 1, 2, . . . , dada por: x
n
= a
n
(x
0
+

n
j=1
a
j
b
j
).
La otra identidad X
n+m
=
m
1
_
X
n
+

m
j=1

j
1
U
j+n
_
, se obtiene de la anterior
cambiando n por n +m y reemplazando la expresi on para X
n
.
b) E(X
n
) =
n
1
_
E(X
0
) +

n
j=1

j
1
E(U
j
)
_
= 0
86
c) Desarrollar el cuadrado:
X
2
n
=
2n
1
_
X
0
+
n

j=1

j
1
U
j
_
2
=
2n
1
_
X
2
0
+ 2X
0
n

j=1

j
1
U
j
+
n

i=1
n

j=1

(j+i)
1
U
j
U
i
_
,
luego E( X
2
n
) =
2n
1
_

2
0
+0 +

n
i=1

n
j=1

(j+i)
1
E( U
j
U
i
)
_
. Pero E(U
j
U
i
) es
la covarianza de un proceso media m ovil MA(1), luego, utilizando la f ormula (4.11),
pag. 66,
E(U
i
U
j
) = R
U
(i j) =
2
1|ij|

s=0

s

s+|ij|
.
Si i = j entonces R
U
(0) =
2
(1 +
2
1
), y si [i j[ = 1 entonces R
U
(1) =
2

1
.
Luego se tiene que
n

i=1
n

j=1

(j+i)
1
E(U
j
U
i
) =
n

i=1
n

j=1

(j+i)
1
R
U
(i j)
=
2
(1 +
2
1
)
n

j=1

2j
1
+ 2
2

1
n

i=1

2i
1
=

2
(1 +
2
1
+ 2
1

1
)(1
2n
1
)
1
2
1
,
utilizando

n
i=1

2i
1
=
1
2n
1
1
2
1
. Luego
E( X
2
n
) =
2n
1
_

2
0


2
(1 +
2
1
2
1

1
)
1
2
1
+

2
(1 +
2
1
2
1

1
)
1
2
1

2n
1
_
reemplazamos
R
X
(0) =
2
0
=

2
(1 +
2
1
+ 2
1

1
)
1
2
1
y obtenemos V ar( X
n
) = R
X
(0) =
2
0
, n = 0, 1, 2, .
d) Reemplazando m = 1 en (4.28) obtenemos
X
n
X
n+1
=
1
_
X
2
n
+
1
1
X
n
U
n+1
_
y E( X
n
X
n+1
) =
1
E( X
2
n
) +E( X
n
U
n+1
)
=
1

2
0
+E
_
X
n
( Z
n+1
+
1
Z
n
)
_
pero
E( X
n
Z
n+1
) =
n
1
E( X
0
Z
n+1
) +
n

j=1

nj
1
E( U
j
Z
n+1
)
87
=
n

j=1

nj
1
E( Z
j
Z
n+1
+
1
Z
j1
Z
n+1
) = 0,
E( X
n
Z
n
) =
n
1
E( X
0
Z
n
) +
n

j=1

nj
1
E( U
j
Z
n
)
=
n

j=1

nj
1
E( Z
j
Z
n
+
1
Z
j1
Z
n
) =
2
.
Luego
E( X
n
X
n+1
) =
1

2
0
+
1

2
y
R
X
( 1 ) =
1

2
0
+
1

2
=

2
(
1
+
1
)( 1 +
1

1
)
1
2
1
9. Para m 2 se tiene
X
n
X
n+m
=
m
1
_
X
2
n
+
m

j=1

j
1
X
n
U
j+n
_
E( X
n
X
n+m
) =
m
1
_

2
0
+
m

j=1

j
1
E( X
n
U
j+n
)
_
E( X
n
X
n+m+1
) =
m+1
1
_

2
0
+
m+1

j=1

j
1
E( X
n
U
j+n
)
_
=
m+1
1
_

2
0
+
(m+1)
1
E( X
n
U
n+m+1
) +
m

j=1

j
1
E( X
n
U
j+n
)
_
=
1
E( X
n
X
n+m
) + E( X
n
U
n+m+1
)
peroU
n+m+1
= Z
n+m+1
+
1
Z
n+m
yX
n
depende de Z
j
+
1
Z
j1
, j = 1, 2, , n, por lo
que E( X
n
U
n+m+1
) = 0, y obtenemos nalmente que R
X
( m+1 ) =
1
R
X
( m), m 2.
88
CAP

ITULO 5
C alculo en Media Cuadr atica
El c alculo en Media Cuadr atica consiste en una serie de resultados que permiten extender algunas
de las operaciones del C alculo diferencial e integral a procesos en tiempo continuo. La aplicaci on
de estas operaciones en procesos permite transformar ciertas ecuaciones diferenciales ordinar-
ias en ecuaciones diferenciales con procesos estoc asticos, lo cual permite formular modelos de
fen omenos fsicos sujetos a condiciones aletorias. En este caso un modelo especicado a partir
de alguna condici on te orica se denominara modelo de caja blanca en oposici on a los modelos
tipo ARMA de la secci on anterior, que podran denominarse modelos de caja negra. El c alculo
en media cuadr atica es util pero tiene algunas limitaciones relacionadas con las reglas de difer-
enciaci on de un producto y la regla de la cadena cuando los procesos son de tipo ruido blanco.
En el captulo 5 se introduce el C alculo de Ito, que es una generalizaci on del c alculo en media
cuadr atica y en el cual se superan tales limitaciones.
En la denici on 3.1.3 se introdujo la continuidad en media cuadr atica de un proceso: Un proceso
X = ( X
t
, t T ) se dice continuo en media cuadr atica en T si t T, E( [ X
t+h
X
t
[
2
)
0 , h 0..
89
90
5.1. Continuidad en Media Cuadr atica
Proposici on 5.1.1. (cf. Cramer, Leadbetter Cram er and Leadbetter (1968) pag. 83) El proceso
( X
t
, t T ) es continuo en media cuadr atica en T si y solo si E( X
t1
X
t2
) es continua en cada
( t , t ) T T es decir,
lm
( t1 , t2 )( t , t )
E( X
t1
X
t2
) = E( X
2
t
)
para cada ( t , t ) T T. Si E( X
t1
X
t2
) es continua en cada ( t , t ) T T entonces es
continua en todo T T.
Demostraci on. 1) [= ]
Suponga que E( X
t1
X
t2
) E( X
2
t
) cuando t
1
t y t
2
t, entonces se debe probar que
X
t
X
s
cuando t s, es decir que
E
_
( X
t
X
s
)
2
_
0 cuando t s
pero
E
_
( X
t
X
s
)
2
_
= E
_
X
t
)
2
_
+E
_
X
s
)
2
_
2E
_
X
t
X
s
_
y
E
_
X
2
t
_
E
_
X
s
)
2
_
y E
_
X
t
X
s
_
E
_
X
2
s
_
cuando t s
luego
E
_
( X
t
X
s
)
2
_
0 cuando t s
[=]
Si X
t
es continua en media cuadr atica en T y ( t
1
, t
2
) T T y t T veamos que
E( X
t1
X
t2
) E( X
2
t
) cuando t
1
t y t
2
t
pero
[ E( X
t1
X
t2
) E( X
t
X
t
) [ =

E
_
( X
t1
X
t
) X
t2
+ ( X
t2
X
t
) X
t
_

E
_
[ ( X
t1
X
t
) X
t2
+ ( X
t2
X
t
) X
t
[
_
E
_
[ ( X
t1
X
t
) X
t2
[
_
+E
_
[ ( X
t2
X
t
) X
t
[
_

_
E
_
( X
t1
X
t
)
2
_
X
2
t2
+
_
E
_
( X
t2
X
t
)
2
E( X
2
t
)
Pero X
t
es continuo en media cuadr atica lo que implica que
E
_
( X
t1
X
t
)
2
_
0 y E
_
( X
t2
X
t
)
2
_
0 si t
1
t y t
2
t
Adem as E( X
2
t2
) E( X
2
t
) si t
2
t luego
E( X
t1
X
t2
) E( X
2
t
) cuando t
1
t y t
2
t
91
En el caso de ser T = Z = , 1, 0, 1, o de ser T = N
0
= 0, 1, 2, la funci on de
covarianza es R( n, m). En este caso el proceso ( X
n
, n T ) es un proceso entiempo discreto
y no aplica la denici on de continuidad en media cuadr atica que es solamente para procesos en
tiempo continuo con T = ( , ) , T = [ 0, ) , T = [ 0 , 1 ] etc.
Ejemplo 5.1.1. Si X
t
es tal que E( X
t
) = 0 para todo t T y E( X
s
X
t
) = e
( t2t1 )
2
es
continua en todo ( t , t )
Ejemplo 5.1.2. Si ( N
t
, t 0 ) es el proceso Poisson se tiene
E( N
t1
N
t2
) = t
1
t
2
+mn( t
1
, t
2
) Cov( N
t1
, N
t2
) = mn( t
1
, t
2
)
Si t
1
t , t
2
t entonces
E( N
t1
N
t2
) t
2
+t = E( N
2
t
),
luego es continuo en media cuadr atica. N otese que ya se haba probado la continuidad en media
cuadr atica cuando se vi o que:
lm
h0
E
_
( N
t+h
N
t
)
2
_
= 0.
5.2. Derivada en Media Cuadr atica
Denici on 5.2.1. Si X
t
, t T es un proceso de segundo orden en tiempo continuo, se dice
derivable en media cuadr atica en t T si existe un proceso Z
t
tal que
X
t+h
X
t
h
2
Z
t
si h 0
lo cual equivale a decir que para cada t T se cumple
_
_
_
_
X
t+h
X
t
h
Z
t
_
_
_
_
0 si h 0
entonces Z
t
se denomina la derivada en media cuadr atica de X
t
en t o sea que X

t
= Z
t
.
Una condici on necesaria y suciente para que exista X

t
es la siguiente:
Teorema 5.2.1. Si X
t
, t T es un proceso de segundo orden, una condici on necesaria y
suciente para que exista X

t
es que exista el lmite
lm
(u, r )( 0 , 0 )
E
_ _
X
t+h
X
t
h
__
X
t+r
X
t
r
__
= c( t )
92
Demostraci on. La demostraci on se basa en una adaptaci on de la condici on necesaria y suciente
para que una sucesi on X
n
converja en media cuadr atica dada por:
X
n
converge en media cuadr atica a una variable aleatoria X cuando n si y solo si
E( X
n
X
m
) c c = cte cuando n y m
X
n
( t ) converge en media cuadr atica a X
t
cuando h h
0
si y solo si existe c( t ) funci on tal que
E( X
n
( t ) X
r
( t ) ) c( t ) h h
0
r h
Luego aplicando esta condici on a
X
n
( t ) =
X
t+h
X
t
h
y X
r
( t ) =
X
t+r
X
t
r
tenemos que
X
t+h
X
t
h
converge a una variable aleatoria Z
t
cuando h 0 si y solo si
E
_
X
t+h
X
t
h
.
X
t+r
X
t
r
_
c( t ) h 0 r 0
Nota 5.2.1. De la teora de C alculo en varias variables, se sabe que si existe el lmite
lm
( x, y )( x0 , y0 )
F( x , y ) = L
y si existen los lmites
lm
xx0
F( x , y ) lm
yy0
F( x , y )
entonces se cumple
lm
xx0
_
lm
yy0
f( x , y )
_
= lm
yy0
_
lm
xx0
f( x , y )
_
= L
Que estos lmites existan no implica que existe
lm
( x, y )( x0 , y0 )
F( x , y )
Ejemplo 5.2.1. Suponga que E( X
s
X
t
) = e
(ts)
2
, > 0 , t , s R para un proceso
( X
t
, t R). Entonces
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
=
1
hr
_
E(X
t+h
X
t+r
) E(X
t+h
X
t
) E(X
t
E
t+r
) + E(X
2
t
)
_
93
=
1
hr
_
e
(rh)
2
e
h
2
e
r
2
+ 1
_
Suponga que ( h, r ) ( 0 , 0 ) con

h
2
+ r
2
< , > 0 peque no entonces usando e

1 +
para peque no
1
hr
_
e
(rh)
2
e
h
2
e
r
2
+ 1
_
=
1
hr
_
1 (r h)
2
(1 h
2
) (1 r
2
) + 1
_
=

hr
_
h
2
+r
2
( r h)
2
_
= 2
luego
lm
(h,r)(0,0)
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
= 2
Si existe un proceso X
t
, t R tal que E( X
t
X
s
) = e
(ts)
2
entonces tiene derivada en media
cuadr atica X

t
en cada t.
Ejemplo 5.2.2. Si existe un proceso X
t
, t R tal que para > 0 E( X
s
X
t
) = e
| ts|
entonces, no tiene derivada en media cuadr atica en cualquier t.
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
=
1
hr
_
e
| hr |
e
| h|
e
| r |
_
si

h
2
+ r
2
< entonces h 0 , r 0 luego
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
=

hr
_
[ h r [ + [ h[ +[ r [
_
entonces
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
=

hr
_
r + h +h +r
_
=
( 2h)
hr
=
2
r
luego
lm
( h, r )( 0 , 0 )
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
= +
y por tanto el lmite no es igual a una constante.
Teorema 5.2.2.
Sea X
t
estacionario en covarianza. Si existe R

(0) entonces X
t
es derivable en media cuadr atica.
N otese que una condici on m as genera es si R(h) tiene segunda derivada en todo h.
Demostraci on.
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
=
1
hr
_
E(X
t+h
X
t+r
) E(X
t+h
X
t
) E(X
t
E
t+r
) + E(X
2
t
)
_
=
1
hr
_
R(h r) R(h) R(t) +R(0)
_
94
Si existe R

(0), por desarrollo de Maclaurin de R(t) alrededor de t = 0 se tiene R(t)


R(0) + R

(0)t + R

(0)t
2
/2, luego
1
hr
_
R(h r) R(h) R(t) + R(0)
_
2rR

(0) hrR

(0)
pero R

(0) = lim
t0
R(t)R(t)
2t
= 0, por ser R(t) funci on par, luego
lm
h0,r0
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
= lm
h0,r0
1
hr
_
hrR

(0)
_
= R

(0)
por tanto X
t
es derivable en media cuadr atica.
Ejemplo 5.2.3. X
t
es estacionario en covarianza con R(h) =
2
e
h
2
, > 0 entonce es
derivable en media cuadr atica. Ocurre lo mismo con
R(h) =
2
e
| h|
(1 + [ h[) y R(h) =
2
e
| h|
_
cos (t) +

sen([ h[)
_
Teorema 5.2.3. Si (X
t
, t R) es derivable en media cuadr atica en t, entonces es continuo en
media cuadr atica en t.
Demostraci on. E
_
(X
t+h
X
t
)
2
_
= h
2
E
_
_
Xt+hXt
h
_
2
_
Si X
t
es derivable entonces
Xt+hXt
h
converge en media cuadr atica a la variable aleatoria X

t
,
que es un proceso de segundo orden cuando h 0 luego
E
_
_
X
t+h
X
t
h
_
2
_
E
_
(X

t
)
2
_
< cuando h 0
y por tanto
h
2
E
_
_
X
t+h
X
t
h
_
2
_
0 E
_
(X

t
)
2
_
= 0 cuando h 0
luego X
t
es continuo en t.
Teorema 5.2.4. Si X
t
es derivable en media cuadr atica entonces m(t) = E(X
t
) es derivable y
d
dt
m(t) =
d
dt
E(X
t
) = E(X

t
)
Demostraci on.
d
dt
E(X
t
) = lm
h0
X
t+h
X
t
h
= lm
h0
E
_
X
t+h
X
t
h
_
pero se vi o que si X
n
2
X cuando n entonces E(X
n
) E(X) cuando h 0 y como
X
t+h
X
t
h
2
X

t
95
entonces
E
_
X
t+h
X
t
h
_
E(X

t
) cuando h 0
luego
d
dt
E(X
t
) = E(X

t
)
Teorema 5.2.5. Si X
t
y Y
t
son derivables en media cuadr aticay a , b son n umeros reales entonces
aX
t
+ bY
t
es derivable en media cuadr atica y
_
aX
t
+ bY
t
_

= aX

t
+bY

t
Nota 5.2.2. Si X
t
es derivable en media cuadr atica y f(t) es derivable entonces Y
t
= f(t) +X
t
es derivable en media cuadr atica y
Y

t
= f

(t) + X

t
Teorema 5.2.6. Si X
t
y Y
t
son derivables en media cuadr atica entonces
1. E(X

s
Y
t
) =

s
E(X
s
Y
t
)
2. E(X
s
Y

t
) =

t
E(X
s
Y
t
)
3. E(X

s
Y

t
) =

2
s t
E(X
s
Y
t
)
Demostraci on. Como la demostraci on de las dos primeras es similar haremos solamente la primera
y la tercera.
1). Utilizando X
n
2
X, entonces E(X
n
Y ) E(X Y ) pues
[ E(X
n
Y ) E(X Y ) [ E
_
[ (X
n
X)Y [
_
| X
n
X | | Y | 0
aplicando a
X
s+h
X
s
h
Y
t
. Como
X
s+h
X
s
h
2
X

s
cuando h 0 entonces
E
_
X
s+h
X
s
h
Y
t
_
E
_
X

s
Y
t
) cuando h 0
luego
E(X

s
Y
t
) = lm
h0
E
_
X
s+h
X
s
h
Y
t
_
= lm
h0
E(X
s+h
Y
t
) E(X
s
Y
t
)
h
=

s
E(X
s
Y
t
)
96
3).
E(X

s
Y

t
) = lm
h0
E
_
X
s+h
X
s
h
Y

t
_
=

s
E(X
s
Y

t
)
=

s
_
lm
h0
E
_
X
s
X
t+k
Y
t
k
__
=

2
s t
E(X
s
Y
t
)
Teorema 5.2.7. Si X
t
es derivable en media cuadr atica y es estacionario en covarianza entonces
X

t
es estacionario en covarianza. Adem as, si R
X
(t) es la funci on de covarianza de X
t
, entonces
existe R

X
(t) y es la funci on de covarianza de X

t
.
Demostraci on. Sabemos que E(X

t
) = 0 y si Y
t
= X
t
entonces
E
_
X

s
X

s+t
_
=

2
R
X
(t
2
t
1
)
t
2
t
1

t
1
= s
t
2
= s +t
= R

X
(t) = R
X
(t)
Teorema 5.2.8. Si X
t
es derivable en media cuadr atica en [a , b] entonces
t [a , b] X

t
= 0 X
t
= Z
siendo Z una variable aleatoria.
=.
Si X
t
= Z t [a , b] entonces
X
t+h
X
t
h
=
Z Z
h
= 0
luego X

t
= 0.
[ =]
Si X

t
= 0 t [a , b] entonces

s
E(X
s
X
t
) = E(X

s
X
t
) = 0 y

t
E(X
s
X
t
) = E(X
s
X

t
) = 0
luego E(X
s
X
t
) = C (s , t) [a , b]
2
luego para cualquier t

[a , b]
E
_
(X
t
X
t
)
2
_
= E(X
2
t
) 2E(X
t
X
t
) + E(X
2
t
)
97
= C 2C + C = 0
de donde X
t
= X
t
, t , t

[a , b] ya que si X

t
= 0 entonces

t
E(X
t
) = 0 y por tanto
E(X
t
) = k , t [a , b] luego
E
_
(X
t
X
t
)
2
_
= V ar(X
t
X
t
) = 0
lo que implica que X
t
X
t
= 0 o sea que X
t
= X
t
= Z , t , t

[a , b]
Teorema 5.2.9. Si X
t
, t [a , b] es derivable en media cuadr atica en t y g(t) : [a , b] R es
una funci on derivable en t entonces g(t)X
t
es derivable en media cuadr atica en t y
_
g(t) X
t
_

= g

(t) X
t
+ g(t) X

t
Demostraci on.
g(t +h)X
t+h
g(t)X
t
h
=
g(t +h) g(t)
h
X
t+h
+ g(t)
X
t+h
X
t
h
2
g

(t) X
t
+g(t) X

t
cuando h 0
luego
_
_
_
_
g(t +h)X
t+h
g(t)X
t
h
g

(t) X
t
g(t) X

t
_
_
_
_
=
_
_
_
_
g(t)
_
X
t+h
X
t
h
X

t
_
+
_
g(t +h) g(t)
h
g

(t)
_
X
t+h
+ +g

(t)
_
X
t+h
X
t
_
_
_
_
_
[ g(t) [ A
n
+

g(t + h) g(t)
h
g

(t)

| X
t+h
|
+[g

(t)[ |X
t+h
X
t
| 0 cuando h 0
con A
n
=
_
_
_
Xt+hXt
h
X

t
_
_
_ = 0 cuando h 0
Teorema 5.2.10. Si (t) es funci on real derivable para todo t R y X
t
es derivable en media
cuadr atica y adem as se cumple que
1. E
_

2
(X
t
)
_
< para todo t.
2. E
_
_

(X
t
) X

2
_
< para todo t.
3. E
_
(X
t+h
) (X
t
)
h
_
2
< para todo t y todo h ,= 0.
98
4. E
_
Xt+hXt
h

(X
t
)
_
2
< para todo t y todo h ,= 0.
entonces (X
t
) es derivable en media cuadr atica y
_
(X
t
)
_

(X
t
) X

t
Ejemplo 5.2.4. El procesos Poisson no es derivable en media cuadr atica. Se requiere probar que
E
_
N
t+h
N
t
h
N
t+r
N
t
r
_
converge a un lmite si h , r 0
1
hr
E
_
N
t+h
N
t+r
N
t
N
t+h
N
t
N
t+r
+N
2
t
_
=
1
hr
_

2
(t +h)(t +r) +(t +r)
_

2
t(t + h) +t
_

2
t(t + r) + t
_
+
2
t
2
+ t
_
=
_
1
hr
(
2
hr + r ) =
2
h
si 0 < r < h
1
hr
(
2
hr + t) =
2
+

h
si 0 < h < r
luego el lmite no existe y el proceso Poisson no es derivable en media cuadr atica.
Nota 5.2.3. Aunque el Proceso Poisson no es derivable en m.c. se puede denir su derivada de
manera formal como el proceso N

t
=

Nt
j=1
(t T
j
), donde T
j
, j = 1, 2, ... es la sucesi on de
tiempos de arribo del proceso Poisson y (.) es la funci on Delta de Dirac.
5.3. Integral en Media Cuadr atica.
En este captulo se dene la integral
b
_
a
g(t) X
t
dt donde ( X
t
, t R) es un proceso y g(t) es una
funci on real o compleja.
El proceso ( X
t
) se asume de segundo orden, continuo en media cuadr atica. Por un resultado
anterior, para que X
t
sea continuo en media cuadr atica es suciente ( y necesario ) que
E( X
t1
X
t2
) E( X
2
t
) cuando ( t
1
, t
2
) ( t , t ) t T
La integral
b
_
a
g(t) X
t
dt se dene de manera similar a una integral de Riemann, como el lmite de
una suma.
Denici on 5.3.1. En el intervalo [ a, b ] se toma una partici on dada por
a = t
1
< t
2
< t
3
< < t
n
< t
n+1
= b
99
tal que si n aumenta entonces max
1jn
t
j+1
t
j
0. Se forma la sucesi on de variables
aleatorias
S
n
=
n

j=1
g( t
j
) X
tj
( t
j+1
t
j
).
Si existe una variable aleatoria Z tal que S
n
2
Z cuando n es decir, si existe Z tal que
E
_
( S
n
Z )
2
_
0 cuando n entonces se dice que existe la integral
b
_
a
g(t) X
t
dt en
media cuadr atica y Z se indica con el smbolo integral
Z =
_
b
a
g(t) X
t
dt
La siguiente es una condici on suciente para la existencia de la integral en media cuadr atica.
Proposici on 5.3.1. (Cram er and Leadbetter (1968), pag. 86) Si ( X
t
, t [a, b] ) es continuo en
media cuadr atica y la funci on g(t) : [a, b] R es continua en [a, b], entonces existe la integral
b
_
a
g(t) X
t
dt en media cuadr atica.
Demostraci on. Considere dos particiones de [a, b], dadas por
a = t
1
< t
2
< t
3
< < t
n
< t
n+1
= b y a = u
1
< u
2
< u
3
< u
n
< u
n+1
= b
Sean S
(t)
n
y S
(u)
n
las sumas correspondientes, entonces
E
_
( S
(t)
n
S
(u)
n
)
_
= E
_
m

j=1
n

k=1
g(t
j
) g(u
k
) X
tj
X
uk
(t
j+1
t
j
) (u
k+1
u
k
)
_
=
m

j=1
n

k=1
g(t
j
) g(u
k
) E( X
tj
X
uk
) (t
j+1
t
j
) (u
k+1
u
k
)
Si m , n entonces la suma anterior tiende a la integral
_
b
a
_
b
a
g(t) g(s) E( X
t
X
s
) dt ds
que existe debido a que E( X
t
X
s
) y g(t) g(s) son funciones continuas en [a.b] [a, b]. Por lo
tanto, aplicando el criterio para convergencia en media cuadr atica de una sucesi on de variables
aleatorias X
n
, dada por ( propiedad 7 ) X
n
converge en media cuadr atica cuando n
E( X
n
X
m
) C cuando n , m para una C constante; colocando
C =
_
b
a
_
b
a
g(t) g(s) E( X
t
X
s
) dt ds
tenemos que S
n
converge en media cuadr atica a una variable aleatoria Z; esta variable Z se denota
por
b
_
a
g(t) X
t
dt.
100
Nota 5.3.1. X
t
continua en media cuadr atica = E( X
t1
X
t2
) continua en ( t, t ) =
E( X
t1
X
t2
) es continua en T T ( parte b) del criterio de continuidad en media cuadr atica )
Propiedades de la Integral
b
_
a
g(t) X
t
dt.
1. E
_
b
_
a
g(t) X
t
dt
_
=
b
_
a
g(t) E( X
t
) dt
2. E
_
_ _
b
a
g(t) X
t
dt
_
2
_
=
b
_
a
b
_
a
g(t) g(s) E(X
t
X
s
) dt ds
3. V ar
_ b
_
a
g(t) X
t
dt
_
=
_
b
a
_
b
a
g(t) g(s) R(s, t) ds dt
4. E
_ b
_
a
g(t) X
t
dt
d
_
c
g(s) X
s
ds
_
=
_
b
a
_
d
c
g(t) g(s) E( X
t
X
s
) ds dt
5. Cov
_ b
_
a
g(t) X
t
dt ,
d
_
c
g(s) X
s
ds
_
=
_
b
a
_
d
c
g(t) g(s) R( s , t )) ds dt
6. Si a < b < c entonces
_
c
a
g(t)X
t
dt =
_
b
a
g(t)X
t
dt +
_
c
b
g(t)X
t
dt.
7. [[
_
b
a
g(t)X
t
dt[[
_
b
a
[g(t)[ [[X
t
[[dt (b a)Max
{atb}
[g(t)[ [[X
t
[[
8. Teorema Fundamental del C alculo (TFC). Si X
t
, t 0, es un proceso de segundo orden
continuo en media cuadr atica en (0, ), Z es una variable aleatoria y se dene Y
t
=
Z +
_
t
0
X
s
ds, entonces Y
t
es derivable en media cuadr atica y se cumple Y

t
= X
t
.
Demostraci on.
1. Como S
n
2

b
_
a
g(t) X
t
dt cuando n , entonces E( S
n
) E
_
b
_
a
g(t) X
t
dt
_
cuando n pero
E( S
n
) =
n

j=1
g(t
j
) E( X
tj
) (t
j+1
t
j
)
y esta suma converge a la integral
b
_
a
g(t) X
t
dt luego
E
_
_
b
a
g(t) X
t
dt
_
=
_
b
a
g(t) E(X
t
) dt
0
Obviamente 5). = 3).
101
2. Si g(t) , X
t
son reales, entonces tambi en como S
n
2

b
_
a
g(t) X
t
dt se tiene que
E
_
S
2
n
_
E
_
_
_
b
a
g(t) X
t
dt
_
2
_
cuando n
Adem as E
_
S
2
n
_
= E( S
n
S
n
). Utilizando el resultado de la prueba de la proposici on
anterior
E( S
n
S
n
)
_
b
a
_
b
a
g(t) g(s) E( X
t
X
s
) dt ds
luego
E
_
_
_
b
a
g(t) X
t
dt
_
2
_
=
_
b
a
_
b
a
g(t) g(s) E( X
t
X
s
) dt ds
3. Sabemos que
V ar
_
b
_
a
g(t) X
t
dt
_
= E
_
_
_
b
a
g(t) X
t
dt
_
2
_
E
2
_
_
b
a
g(t) X
t
dt
_
=
_
b
a
_
b
a
g(t) g(s) E( X
t
X
s
) dt ds

_
b
a
_
b
a
g(t) g(s) E( X
t
) E( X
s
) dt ds
=
_
b
a
_
b
a
g(t) g(s) R( s , t ) dt ds
4. Utilizando S
(1)
n
2

b
_
a
y S
(2)
m
2

b
_
a
cuando n , m dos sumas que aproximan en
media cuadr atica las integrales, entonces utilizando una propiedad de la convergencia en
media cuadr atica tenemos
E
_
S
(1)
n
S
(2)
m
_
E
_
_
b
a
_
d
c
_
cuando n
pero
E
_
S
(1)
n
S
(2)
m
_
= E
_
m

j=1
n

k=1
g(t
j
) g(u
k
) X
tj
X
uk
(t
j+1
t
j
) (u
k+1
u
k
)
_
=
n

j=1
m

k=1
g(t
j
) g(u
k
) E( X
tj
X
uk
) (t
j+1
t
j
) (u
k+1
u
k
)
que tiende a
_
b
a
_
d
c
g(t) g(s) E( X
t
X
s
) ds dt cuando n
igualando los t erminos se tiene la prueba.
102
5. Es inmediata.
Nota 5.3.2. En el caso de que g(t) y X
t
sean complejos se tiene
1. E
_

b
_
a
g(t) X
t
dt

2
_
=
b
_
a
b
_
a
g(t) g(s) E( X
t
X
s
) dt ds
2. E
_
b
_
a
g(t) X
t
dt
d
_
c
g(s) X
s
ds
_
=
b
_
a
d
_
c
g(t) g(s) E( X
t
X
s
) dt ds
Se pueden considerar otros tipos de integrales en media cuadr atica tales como
b
_
a
X
t
dG(t) y
b
_
a
G(t) dX
t
denominadas integrales RS ( Riemann - Stieltj` es )
Denici on 5.3.2. ( Denici on de
b
_
a
G(t) dX
t
) Si X

t
existe y es continua en media cuadr atica y
G

(t) existe y es continua en [a, b] entonces se dene


_
b
a
G(t) dX
t
= G(t) X
t

b
a

_
b
a
X

t
g(t) dt donde g(t) = G

(t)
La denici on anterior se aplicar a m as adelante en conexi on con el proceso de Wiener.
5.4. Ecuaciones Diferenciales Lineales
Sea X
t
un proceso en tiempo continuo con t R, derivable en media cuadr atica con X

t
continua
en media cuadr atica. Sean a(t) , b(t) , t R funciones reales continuas, y Y
t
, t R proceso
continuo en media cuadr atica. Suponga que X
t
, X

t
, Y
t
satisfacen la ecuaci on diferencial
estoc astica
X

t
= a(t) X
t
+ b(t) Y
t
t 0
X
0
= variable aleatoria independiente de Y
t
t 0
entonces
X

t
a(t) X
t
= X

t
e

_
t
0
a(s) ds
a(t) e

_
t
0
a(s) ds
X
t
=
_
X
t
e

_
t
0
a(s) ds
_

103
entendiendo la derivada en media cuadr atica, luego
_
X
t
e

_
t
0
a(s) ds
_

= b(t) e

_
t
0
a(s) ds
Y
t
aplicando el TFC e integrando en [0, t] obtenemos
X
t
e

_
t
0
a(s) ds
X
0
=
_
t
0
b(s) e

_
s
0
a(u) du
Y
s
ds
de donde
X
t
= e
_
t
0
a(s) ds
_
X
0
+
_
t
0
b(s) e

_
s
0
a(u) du
Y
s
ds
_
es la soluci on de la ecuaci on diferencial.
Utilizando propiedades de la integral
E(X
t
) = e
_
t
0
a(s) ds
E(X
0
) +
_
t
0
b(s) e
_
t
s
a(u) du
E(Y
s
) ds
y
V ar(X
t
) = e
2
_
t
0
a(s) ds
_
V ar(X
0
) +
_
t
0
_
t
0
G(s
1
) G(s
2
) Cov(Y
s1
, Y
s2
) ds
1
ds
2
_
con
G(s) = b(s) e

_
s
0
a(u) du
Ejemplo 5.4.1. (Boyce and DiPrima (1983), problema No 20, pag. 87)
Un cuarto de volumen V contiene aire libre de CO
2
en t = 0. En ese momento se introduce aire a
una velocidad v, el cual tiene una concentraci on de CO
2
variable con el tiempo, seg un el proceso
r
t
, t 0. El aire ingresa al cuarto, se circula y vuelve a salir a la misma velocidad. Sea y
t
la
cantidad de CO
2
en el cuarto, en el tiempo t.
Asumiendo que y
t
es un proceso estoc astico derivable en m.c. que satisface la siguiente ecuaci on
diferencial:
y

t
= v(r
t

y
t
V
), t 0 (5.1)
y
0
= 0
y que el proceso r
t
es estacionario con media E(r
t
) = r, y covarianza Cov(r
s
, r
t
) = R
r
(ts) =

2
e
(ts)
2
, donde > 0 y > 0 son par ametros conocidos. A continuaci on se desarrolla un
an alisis del proceso denido por la soluci on de (5.1).
1. La soluci on de la ecuaci on (5.1) se obtiene directamente con la f ormula de soluci on de
ecuaciones lineales de primer orden. Entonces
y
t
= ve
vt/V
_
t
0
e
vs/V
r
s
ds. (5.2)
104
2. Para la media del proceso y
t
tenemos: (t) = E(y
t
) = ve
vt/V
_
t
0
e
vs/V
E(r
s
)ds. Reem-
plazando E(r
s
) = r obtenemos m(t) = rV (1 e
vt/V
). Adem as, lm
t
(t) = rV , lo
cual se interpreta como que el porcentaje de CO
2
en el cuarto, despu es de transcurrir un
tiempo sucientemente largo, debe ser r.
3. Para la varianza y la covarianza encontramos las integrales correspondientes a V ar(y
t
) y
Cov(y
s
, y
t
). Para la varianza
V (y
t
) = V ar(ve
vt/V
_
t
0
e
vs/V
r
s
ds)
= v
2
e
2vt/V
V ar
__
t
0
e
vs/V
r
s
ds
_
= v
2
e
2vt/V
_
t
0
_
t
0
e
v(x+y)/V
Cov(r
x
, r
y
)dxdy
=
2
v
2
e
2vt/V
_
t
0
_
t
0
e
v(x+y)/V (xy)
2
dxdy.
La covarianza Cov(y
s
, y
t
) es similar, colocando
_
s
0
_
t
0
en lugar de
_
t
0
_
t
0
, y e
v(s+t)/V
en
lugar de e
2vt/V
.
Cov(y
s
, y
t
) =
2
v
2
e
v(s+t)/V
_
s
0
_
t
0
e
v(x+y)/V (xy)
2
dxdy. (5.3)
Para encontrar la expresi on de la integral en un t cualquiera se pueden utilizar programas
como Maple o Derive. Es una expresi on algebr aicamente complicada. Sin embargo, tambi en
se puede comprobar que
lm
t
V ar(y
t
) =
2
vV e
v
2
4V
2
_

_
1
_
v
2

V
__
, (5.4)
donde (z) es el valor de la distribuci on acumulada de la Normal Est andar. Asumiendo los
valores siguientes de los par ametros: r = 0.04 %CO
2
/m
3
, V = 32m
3
, v = 0.25 m
3
/min,
= 0.013 %CO
2
/m
3
, = 10, el valor de lm
t
V ar(y
t
) es 9.4(10
5
), por lo que la
desviaci on est andar es 0.0097. Como la desviaci on est andar del contenido de CO
2
que
ingresa es 0.013, el resultado obtenido indica que la variabilidad del contenido de CO
2
en
el cuarto es menor.
4. Finalmente, encontramos expresiones para E(y

t
) y V ar(y

t
), y para los lmites respectivos
cuando t . A partir de la ecuaci on (5.1), se obtiene la expresi on para la media y la
varianza de y

t
:
E(y

t
) = v(E(r
t
) E(y
t
)/V ) = vre
vt/V
y V ar(y

t
) = v
2
(V ar(r
t
) + V ar(y
t
)/V
2
(2/V )Cov(r
t
, y
t
)). Pero V ar(r
t
) =
2
, y la
expresi on para V ar(y
t
) se indic o anteriormente. Para encontrar Cov(r
t
, y
t
) utilizamos
Cov(r
t
, y
t
) = E(r
t
y
t
) rm(t)
105
= ve
vt/V
_
t
0
e
vs/V
E(r
t
r
s
)ds ve
vt/V
_
t
0
e
vs/V
E(r
t
)E(r
s
)ds
= ve
vt/V
_
t
0
e
vs/V
Cov(r
t
, r
s
)ds
=
2
ve
vt/V
_
t
0
e
vs/V (ts)
2
ds
La expresi on para V ar(y

t
) es poco util porque no tiene una expresi on manejable, pero se
podra tomar lmite cuando t y reemplazar los valores de los par ametros. El resultado
es aprox. 10
5
.
5.5. Problemas
1. Considere un proceso estacionario (X
t
, t R) con funci on de covarianza R(x) = (1 +
[x[)e
|x|
, x R.
a) Compruebe que X
t
es derivable en m.c.
b) Encuentre E(X

t
), V ar(X

t
) y Cov(X

t
, X

t+h
).
c) Compruebe que X
t
y X

t
tienen covarianza nula.
2. (ver Papoulis (1965), problema 9.16, pag. 334). El proceso (Y
t
, t 0) es tal que Y
0
= 1,
y Y

t
+ 2Y
t
= X
t
, t > 0, donde X
t
es un proceso estacionario con E(X
t
) 2 y R
X
() =
4 + 2e
||
. Encuente E(Y
t
) y Cov(Y
t
, Y
s
).
3. Sea (N
t
, t 0) un proceso Poisson de par ametro . Dena Y
t
mediante la ecuaci on
diferencial: Y

t
= Y
t
+ N
t
, t > 0, con > 0 una constante dada, y Y
0
= 0. Encuentre
E(Y
t
) y V ar(Y
t
).
4. Suponga dos procesos Z
1,t
, Z
2,t
, t 0 con media cero, varianzas constantes iguales a
2
,
autocorrelaciones y correlaciones constantes iguales a . Considere el sistema de ecuaciones
diferenciales:
Y

t
= aY
t
+Z
1,t
X

t
= bX
t
+Z
2,t
, t > 0
donde a > 0, b > 0 son constantes dadas y X
0
= Y
0
= 0. Encuentre la correlaci on entre
X
t
y Y
t
, y el lmite de esta cuando t .
5. Considere una partcula de masa unidad suspendida en un lquido y suponga que, debido
al lquido, existe una fuerza viscosa que retarda la velocidad de la partcula a una tasa
106
proporcional a la velocidad V

t
= V
t
. Suponga que adicionalmente la velocidad cambia
de acuerdo a un m ultiplo constante de la derivada del proceso Y
t
, Y

t
. Entonces
V

t
= V
t
+Y

t
Compruebe que
V
t
= V
0
e
t
+
t
_
0
e
(ts)
Y

s
ds
V
t
= V
0
e
t
+
_
X
t

_
t
0
X
s
e
(ts)
ds
_
6. La alimentaci on intravenosa con glucosa es una t ecnica m edica importante. Se dene X
t
como la cantidad de glucosa presente en la sangre de un paciente en el tiempo t. Se supone
que la glucosa se suministra al sistema sanguneo a una tasa constante de k gramos por
minuto y que al mismo tiempo la glucosa se transforma a una tasa > 0 proporcional a la
cantidad de glucosa presente. La funci on X
t
satisface entonces la ecuaci on diferencial de
primer orden:
X

t
= k X
t
, t 0, X
0
= c (5.5)
La ecuaci on (5.5) se puede transformar en una ecuaci on diferencial estoc astica en media
cuadr atica cambiando la constante k por k + Y
t
, asumiendo que Y
t
, t R es estacionario
en covarianza con media cero y funci on de autocovarianza R
Y
(h) = 2e
0.001h
8
.
a) Escriba y Resuelva la ecuaci on estoc astica resultante.
b) Encuentre E(X
t
) y lm
t
E(X
t
). Interprete el resultado.
c) Calcule Corr(Y
t
, Y
t+k
) para k = 1 y k = 4. Interprete asumiendo que el tiempo t es
en minutos.
7. Suponga un cuerpo con temperatura X
t
en el tiempo t 0. El cuerpo est a en un medio
con temperatura variable dada por el proceso estoc astico (Y
t
, t 0). La relaci on entre X
t
y Y
t
se expresa mediante la ecuaci on diferencial en m.c. siguiente (ley de enfriamiento de
Newton) :
X

t
= k(X
t
Y
t
), t 0 (5.6)
donde k > 0 es una constante dada, relacionada con la conductividad termal del cuerpo,
y (Y
t
, t 0) es un proceso estacionario en covarianza con E(Y
t
) = y Cov(Y
s
, Y
t
) =

2
e
|ts|
.
a) Compruebe que la soluci on de la ecuaci on (5.6) est a dada por X
t
= X
0
e
kt
+ Z
t
,
donde asumimos que X
0
es una constante conocida (no una variable aleatoria) y
Z
t
= ke
kt
_
t
0
e
ks
Y
s
ds (5.7)
Encuentre E(X
t
) y lm
t
E(X
t
).
107
b) Se puede comprobar que Cov(X
t
, X
t+h
) = Cov(Z
t
, Z
t+h
). Encuentre una expresi on
para Cov(Z
t
, Z
t+h
) en forma de integral. No se requiere calcularla. Es posible resolver
esta integral y llegar a la f ormula:
Cov(X
t
, X
t+h
) =

2
ke
kh

2
k
2
( ( +k)e
2kt
+
+ ke
(+k)t
+ke
(+k)t+(k)h
ke
(k)h
).
Compruebe que lm
t
Cov(X
t
, X
t+h
) es una funci on r(h).
c) Denamos el estado estacionario"de la ecuaci on (5.6) como el proceso X
(e)
t
, esta-
cionario de 2do orden con media igual a lm
t
E(X
t
) y covarianza igual a r(h).
Compruebe que V ar(X
(e)
t
) < V ar(Y
t
). Qu e explicaci on podra darse a esta desigual-
dad?.
5.6. Soluciones
1. a) Por el criterio de derivabilidad para procesos estacionarios, X

t
existe si existe la
segunda derivada de R(h) = (1 + [h[)e
|h|
. Pero
R

(h) = (1 [h[)e
|h|
Esto se puede comprobar calculando la derivada para h positivo y ne-gativo y com-
probando que se obtiene esta expresi on. Observemos que R

(h) = he
|h|
. Luego
X

t
es estacionario en covarianza con funci on de autocovarianza R
X
(h) = R

(h).
b) Es inmediato que E(X

t
) = 0, V ar(X

t
) = R

(0) = 1 y Cov(X

t
, X

t+h
) =
R

(h).
c) Para comprobar que la covarianza de X
t
y X

t
es cero tenemos que probar que
E(X

t
X
t
) = 0. Utilizando la identidad:
E(X

u
X
v
) =

u
E(X
u
X
v
)

u=v=t
=

u
R
X
(u v)

u=v=t
= R

X
(0) = 0
2. Aplicar directamente la f ormula de soluci onde las ecuaciones lineales de primer orden. Para
Cov(Y
t
, Y
s
) solamente plantear la integral. Utilice Cov(a+bX, c +dY ) = bdCov(X, Y ).
3. Aplicar directamente la f ormula de soluci on de las ecuaciones lineales de primer orden.
Cuando se calcula la varianza de Y
t
resulta una integral doble sobre el rect angulo [0, t]x[0, t]
108
en el plano. Dividiendo este rect angulo en dos tri angulos con la diagonal e integrando sobre
cada uno de estos se puede resolver la integral observando que Cov(N
u
, N
v
) = u si
u < v (tri angulo inferior) y Cov(N
u
, N
v
) = v si u > v (tri angulo superior). La integral
se puede simplicar con la f ormula:
_
se
s
ds =
e
s

2
((s 1) + 1)
4. Ejercicio.
5. Ejercicio.
6. Ejercicio.
7. Ejercicio.
CAP

ITULO 6
Procesos Gaussianos y Procesos de Wiener.
6.1. Procesos Gaussianos
Una clase importante de procesos estoc asticos son los procesos Gaussianos. En su denici on se
utiliza el concepto de vector de variables distribudo normal multrivariado.
Denici on 6.1.1. Un proceso (X
t
, t T) es un proceso Gaussiano si para cualquier entero n y
un subconjunto cualquiera t
1
, t
2
, , t
n
de T, el vector X = (X
t1
, , X
tn
)

se distribuye
normal multivariado.
De acuerdo a las deniciones de normal multivariada la denici on anterior es equivalente a
armar que para cualesquier conjunto
1
,
2
, ,
n
de n umeros reales la variable aleatoria
X =
n

j=1

j
X
tj
es una variable aleatoria normal.
La fgm de X = (X
t1
, , X
tn
) es de la forma
M
X
(t
1
, t
n
) = exp(t

E(X) +
1
2
t

Rt)
= exp
_
_
n

j=1
t
j
E(X
tj
) +
1
2
n

j=1
n

k=1
t
j
t
k
Cov(X
tj
, X
tk
)
_
_
109
110
donde
R =
_
Cov(X
tj
, X
tk
)

= R(t
1
, t
2
, , t
n
) = R(t

)
En conclusi on, para denir un proceso Gaussiano (X
t
, t T), en tiempo discreto o continuo, es
suciente denir
1. Su media, m(t) = E(X
t
).
2. Su funci on de auto-covarianza R(s, t) = Cov(X
s
, X
t
), tal que para tiempos cualesquiera
t
1
, . . . , t
k
T se cumpla que la matriz [R(t
i
, t
j
)] sea denida positiva.
La distribuci on de X = (X
t1
, , X
tn
)

es Normal Multivariada con


R = E
_
(X E(X) ) (X E(X )

_
= [Cov(X
tj
, X
tk
) ] = [R(t
j
, t
k
) ]
Algunos resultados de la teora de la distribuci onNormal Multivariada (ver Ap endice A) se pueden
aplicar directamente a los procesos Gaussianos.
Suponga que (X
t
, t R) es Gaussiano, entonces para n 1 y t
1
, t
2
, , t
n
R, el vector
X =
_
X
t1
, , X
tn
_

tiene una distribuci on normal multivariada entonces


1. X
tj
[ X
tk
N
_
E(X
tj
[ X
tk
) , V ar(X
tj
[ X
tk
)
_
con
E(X
tj
[ X
tk
) =
j
+

j , k

k
_
X
tk

k
_
V ar(X
tj
[ X
tk
) =
2
j
_
1
2
j , k
_

2
j
= Cov(X
tj
, X
tj
) = R(t
j
, t
j
)

j , k
= Cov(X
tj
, X
tk
)/
j

k
2. Se dene la matriz Q = R
1
, R = [ Cov(X
tj
, X
tk
) ]
nn
con j , k = 1, 2, , n
entonces
X
tn
[ X
t1
, X
t2
, X
tn1
N
_
,
2
_
donde
= E
_
X
tn
[ X
t1
, , X
tn1
_
=
n
+
n1

j=1
a
j
(X
tj

j
)

2
= Q
1
nn
= V ar
_
X
tn
[ X
t1
, , X
tn1
_
a
j
=
Q
jn
Q
nn

j
= E(X
tj
)
111
3. Si se dene
Y = X
tn
E
_
X
tn
[ X
t1
, , X
tn1
_
= X
tn

n

n1

j=1
a
j
(X
tj

j
)
entonces
a) Y es independiente de las variables X
t1
, , X
tn1
b) Si se tuviera Y = X
tn
Z, con Y independiente de las variables X
t1
, , X
tn1
y
normal, entonces
Z = E
_
X
tn
[ X
t1
, , X
tn1
_
Ejemplo 6.1.1. Suponga un proceso estoc astico X
t
, t 0, con media cero E(X
t
) 0 y funci on
de autocovarianza
R(t, s) = e
3(t
2
+s
2
)+2 ts
.
Un ejemplo muy importante de proceso Gaussiano en tiempo continuo es el proceso de Wiener.
Denici on 6.1.2. (Proceso de Wiener o Movimiento Browniano)
Un proceso (W
t
, t 0) Gaussiano se denomina proceso de Wiener si
1. E(W
t
) = 0 para todo t 0
2. E(W
t
W
s
) = mn(s , t) = s t s , t 0
Nota 6.1.1. (Wong and Hajek (1971), pag. 68 ) El proceso de Wiener es m as que un ejemplo de
proceso Gaussiano. Posee una gran cantidad de propiedades ... Adem as, a partir de este proceso
se pueden denir muchos otros, que siguen poseyendo algunas de sus propiedades, y que pueden
ser utilizados como modelos de fen omenos fsicos y econ omicos.
Proposici on 6.1.1. (Grimmett and Stirzaker (1994), pag. 212)
Sean 0 < t
1
< < t
n
entonces la matriz R igual a
R = [R(t
j
, t
k
)] = [ mn(t
j
, t
k
)]
es denida positiva y por tanto det(R) ,= 0.
Demostraci on. Si Z
1
, , Z
n
son n n umeros complejos y 0 = t
0
< t
1
< < t
n
. Hay que
probar que
n

j=1
n

k=1
Z
j
Z
k
R(t
j
, t
k
) > 0
112
pero R(t
j
, t
k
) = mn(t
j
, t
k
) luego
n

j=1
n

k=1
Z
j
Z
k
R(t
j
, t
k
) =
n

j=1
n

k=1
Z
j
Z
k
(t
j
t
k
)
= Z
1
Z
1
t
1
+ Z
1
Z
2
t
1
+ + Z
1
Z
n
t
1
+Z
2
Z
1
t
1
+Z
2
Z
2
t
2
+ + Z
2
Z
n
t
2
+Z
3
Z
1
t
1
+Z
3
Z
2
t
2
+ + Z
3
Z
n
t
3
.
.
.
+Z
n
Z
1
t
1
+Z
n
Z
2
t
2
+ + Z
n
Z
n
t
n
=
n

j=1
t
j
Z
j
Z
j
+t
j
Z
j
n

k=j+1
Z
k
+ t
j
Z
j
n

k=j+1
Z
k
= diag + triangular superior + triangular inferior
=
n

j=1
t
j
_
[Z
j
[
2
+Z
j
n

k=j+1
Z
k
+ Z
j
n

k=j+1
Z
k
_
pero
Z
j
Z
j
+Z
j
n

k=j+1
Z
k
+ Z
j
n

k=j+1
Z
k
=
_
n

k=j+1
Z
k
+Z
j
__
n

k=j+1
Z
k
+ Z
j
_

_
n

k=j+1
Z
k
__
n

k=j+1
Z
k
_
=

k=j+1
Z
k

k=j+1
Z
k

2
luego
n

j=1
n

k=1
Z
j
Z
k
(t
j
t
k
) =
n

j=1
t
j
_

k=j+1
Z
k

k=j+1
Z
k

2
_
=
n

j=1
t
j
(a
j
a
j+1
) con a
n+1
= 0
=
n

j=1
t
j
a
j

n

j=1
t
j
a
j+1
=
n

j=1
t
j
a
j

n

j=1
a
j
t
j1
con t
0
= 0
=
n

j=1
(t
j
t
j1
) a
j
113
=
n

j=1
(t
j
t
j1
)

k=j+1
Z
k

2
> 0
Nota 6.1.2. Este resultado garantiza la existencia del proceso Wiener y tambi en la funci on de
densidad del vector (X
t1
, , X
tn
)

.
Propiedades del Proceso de Wiener
Proposici on 6.1.2. Varias propiedades del proceso Wiener se dan a continuaci on.
1. V ar(W
t
) = E(W
2
t
) = t , t 0
Demostraci on. E(W
2
t
) = Cov(W
t
, W
t
) = t
2. El proceso de Wiener tiene incrementos independientes. W
tj
W
sj
, j = 1, 2, , n son
independientes siempre que los intervalos (s
j
, t
j
] sean disjuntos.
Demostraci on. Suponga 0 u v s t. Como W
t
es Gaussiano los incrementos
W
v
W
u
y W
t
W
s
tienen una distribuci on normal bivariada porque cualquier combinaci on
lineal es normal. Adem as
E
_
(W
v
W
u
)(W
t
W
s
)
_
= R(v , t) R(v , s) + R(u , s) R(u , t)
= v v +u u = 0
Pero esto implica que W
v
W
u
y W
t
W
s
son incorrelacionadas y por ser variables con
distribuci on normal conjunta deben ser independientes. Por tanto, W
t
tiene incrementos
independientes.
3. El proceso de Wiener tiene incrementos estacionarios es decir, la distribuci on de W
t
W
s
depende de t s solamente.
Demostraci on. La variable W
t
W
s
tiene distribuci on normal con media cero. Adem as
E
_
(W
t
W
s
)
2
_
= R(t , t) 2R(t , s) +R(s , s) = t 2s + s = t s
Luego la distribuci on de W
t
W
s
N(0 , t s) depende de t s solamente.
4. El proceso Wiener no es estacionario en covarianza ya que, aunque E(W
t
) = 0 constante,
para todo t se tiene
R(s, t) = mn(s, t) =
1
2
(s + t [t s[)
para s, t > 0 y no se cumple que R(s, t) sea una funci on par de t s.
114
5. P(W
0
= 0) = 1.
Demostraci on. Como W
0
N(0, 0) entonces se puede tomar W
0
como una variable
aleatoria concentrada en el valor cero tal que P(W
0
= 0) = 1
6. W
t
es continuo en media cuadr atica pues E
__
W
t
W
s
_
2
_
0 si t s ya que
E
__
W
t
W
s
_
2
_
= E(W
2
t
) 2E(W
t
W
s
) +E(W
2
s
)
= t 2(s t) + s
= [ t s [
utilizando
s t =
1
2
_
t + s [t s[
_
y [t s[ 0 si t s
Nota 6.1.3. W
t
es por tanto continuoen probabilidad. Adem as, las trayectorias muestrales
del proceso W
t
, como funciones de t tienen la propiedad de ser continuas pero no derivables,
un hecho notable en el an alisis matem atico, cuya demostraci on se debe a Norbert Wiener,
de quien tom o el nombre el proceso. El proceso W
t
tambi en se denomina movimiento
browniano o marcha aleatoria.
7. W
t
no es derivable en media cuadr atica. Utilizando el criterio visto X
t
es derivable en
media cuadr atica en t T si y solo si para r , h tales que t +h , t +r T t entonces
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
converge cuando h, r 0 independientemente.
Utilizando h = r > 0 tenemos
1
hr
E
_
_
W
t+h
W
t
__
W
t+r
W
t
_
_
=
1
h
2
E
_
_
W
t+h
W
t
_
2
_
=
h
h
2
=
1
h
pero
1
h
no converge si h 0. Luego W
t
no es derivable en media cuadr atica.
8. Sea T
a
el primer tiempo en el cual W
t
= a, para a > 0. Entonces P(T
a
) =
2(1 (a/)).
9. Dena M

= Max(W
s
, 0 s ). Entonces P(M
t
a) = P(T
a
).
Utilizando estas propiedades se puede encontrar la fdp conjunta de (W
t1
, , W
tn
)

para 0 <
t
1
< t
2
< < t
n
considerando la transformaci on
X
1
= W
t1
115
X
2
= W
t2
W
t1
X
3
= W
t3
W
t2
.
.
.
X
n
= W
tn
W
tn1
entonces
(X
1
, , X
n
)

=
_

_
1 0 0 0
1 1 0 0
0 1 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
_

_
_

_
W
t1
W
t2
W
t3
.
.
.
W
tn
_

_
o sea X = PW luego
f
W
(w
1
, , w
n
) = f
X
(P w) [ det(P) [ = f
X
(P w),
pero la fdp de X, teniendo en cuenta que las variables X
1
, , X
n
son independientes y X
j

N(0 , t
j
t
j1
), entonces
f
X
(P w) = f
X1
(x
1
) f
X2
(x
2
x
1
) f
Xn
(x
n
x
n1
)
=
1

2 t
1
e

1
2
x
2
1
t
1

1
_
2 (t
2
t
1
)
e

1
2
(x
2
x
1
)
2
t
2
t
1

1
_
2(t
n
t
n1
)
e

1
2
(xnx
n1
)
2
tnt
n1
=
e

1
2
_
x
2
1
t
1
+
(x
2
x
1
)
2
t
2
t
1
++
(xnx
n1
)
2
tnt
n1
_
(2)
n
2
_
t
1
(t
2
t
1
) (t
n
t
n1
)
_1
2
= f
Wt
1
Wtn
(x
1
, , x
n
)
= f
Wt
1
Wt
2
t
1
Wtnt
n1
(x
1
, x
2
x
1
, , x
n
x
n1
)
= f
Wt
2
(x
1
) f
Wt
2
Wt
1
(x
2
x
1
) f
Wtn
Wt
n1
(x
n
x
n1
)
Ejemplo 6.1.2. Para s < t y W
t
= b, la fdp condicional de W
s
dado W
t
= b se obtiene como
f
Ws
(x [ W
t
= b) =
f
Ws Wt
(x , b)
f
Wt
(b)
=
f
Ws
(x) f
Wts
(b x)
f
Wt
(b)
=
1

2s
e

1
2
x
2
s

1

2(ts)
e

1
2
(bx)
2
ts
1

2 t
e

1
2
b
2
t
116
=
1
_
2 s
_
1
s
t
_
e

1
2
_
x
bs
t
_
2
s
_
1
s
t
_
con lo cual W
s
[ W
t
= b N
_
bs
t
, s
_
1
s
t
__
, 0 < s < t, as
E(W
s
[ W
t
= b) =
bs
t
y V ar(W
s
[ W
t
= b) = s
_
1
s
t
_
Denici on 6.1.3. Si g(t) tiene derivada continuaen [0, t) en mediacuadr aticaentonces laintegral
t
_
0
g(s) dW
s
se dene por
_
t
0
g(s) dW
s
= g(s) W
s

t
0

_
t
0
g

(s) W
s
ds
y la integral de la derecha existe siempre.
Proposici on 6.1.3. Si g(t) es continua existe la integral
b
_
a
g(t) dW
t
.
La demostraci on no es posible darla en este momento. En un captulo posterior se dene la integral
b
_
a
X
t
dW
t
donde X
t
es un proceso, y se considera la integral
b
_
a
g(t) dW
t
como un caso particular.
Algunas propiedades de la integral
b
_
a
g(t) dW
t
se dan a continuaci on.
1. Si g(t) tiene derivada continua en [a, b) entonces
E
_
_
t
0
g(s) dW
s
_
= 0
Demostraci on.
E
_
_
t
0
g(s) dW
s
_
= E
_
g(s) W
s

t
0
_

_
t
0
E(W
s
) g

(s) ds = 0
2. E
_
_ t
_
0
g(s) dW
s
_
2
_
=
t
_
0
g
2
(s) ds
Demostraci on. Veamos que si f(t) y g(t) son funciones con derivadas continuas entonces
E
__
t
0
f(s) dW
s
_
t
0
g(s) dW
s
_
=
_
t
0
f(s) g(s) ds
si se demuestra esto, entonces colocando f = g se obtiene b)
117
De las relaciones
_
t
0
f(s) dW
s
= f(t) W
t

_
t
0
f

(s) W
s
ds
_
t
0
g(s) dW
s
= g(t) W
t

_
t
0
g

(s) W
s
ds
E
__
t
0
f(s) dW
s
_
t
0
g(s) dW
s
_
= E
_
f(t) g(t) W
2
t
_
E
_
f(t) W
t
_
t
0
g(s) W
s
ds
_
E
_
g(t) W
t
_
t
0
f

(s) W
s
ds
_
+E
_
_
t
0
f

(s) W
s
ds
_
t
0
g

(s) W
s
ds
_
= f(t) g(t) t f(t)
_
t
0
g

(s) s ds g(t)
_
t
0
f

(s) s ds
+
_
t
0
_
t
0
f

(u) g

(v) E
_
W
u
W
v
_
du dv
= f(t) g(t) t f(t)
_
tg(t)
_
t
0
g(s) ds
_
g(t)
_
tf(t)
_
t
0
f(s) ds
_
+
_
t
0
_
t
0
f

(u) g

(v) mn(u , v )du dv


pero
_
t
0
_
t
0
f

(u) g

(v) mn(u , v )du dv =


_
t
0
f

(u)
__
t
0
g

(v) mn(u , v )dv


_
du
y
_
t
0
g

(v) mn(u , v )dv =


_
t
0
g

(v) v dv +
_
t
0
g

(v) u dv
= ug(u)
_
u
0
g(v) dv + u
_
g(t) g(u)
_
= ug(t)
_
u
0
g(v) dv
luego
_
t
0
f

(u)
__
t
0
g

(v) mn(u , v )dv


_
du =
_
t
0
f

(u)
_
ug(t)
_
t
0
g(v) dv
_
du
= g(t)
_
t
0
uf

(u) du
_
t
0
f

(u)
_
u
0
g(v) dv du
118
= g(t)
_
tf(t)
_
t
0
f(s) ds
_
f(t)
_
t
0
g(s) ds
+
_
t
0
f(u) g(u) du
al reemplazar esta expresi on obtenemos
E
__
t
0
f(s) dW
s
_
t
0
g(s) dW
s
_
=
_
t
0
f(s) g(s) ds
con lo cual
V ar
__
t
0
g(s) dW
s
_
=
_
t
0
g
2
(s) ds
3. Suponga 0 a b c d entonces
E
__
b
a
f(s) dW
s
_
d
c
g(s) dW
s
_
= 0
4.
E
__
t1
a
f(s) dW
s
_
t2
a
g(s) dW
s
_
=
_
mn(t1 , t2)
a
f(s) g(s) ds
Proposici on 6.1.4. El proceso Z
t
=
t
_
0
g(s) dW
s
satisface
1. Es gaussiano
2. E(Z
t
) = 0 , V ar(Z
t
) =
t
_
0
g
2
(s) ds , Cov(Z
s
, Z
t
) =
mn(s , t)
_
0
g
2
(x) dx
Demostraci on.
Z
t
= g(t) W
t

t
_
0
g

(s) W
s
ds pero
S
n
= s
_
s
0
e

n
j=1
g

(tj) Wt
j
(tj+1tj)+g(tn+1)Wt
n+1
con t
n+1
= t para todo n 1 es normal y
S
n

_
t
0
g

(s) W
s
ds + g(t) W
t
cuando n
luego Z
t
es gaussiano.
Ejemplo 6.1.3. Se dene el proceso X
t
mediante la expresi on
X
t
=
_
t
0
e
(ts)
dW
s
para t 0 > 0
entonces X
t
cumple
119
1. E(X
t
) = 0
2.
V ar(X
t
) = E
_
_
e
t
_
t
0
e
s
dW
s
_
2
_
= e
2t
E
_
_
_
t
0
e
s
dW
s
_
2
_
= e
2t
_
t
0
e
2s
ds = e
2t
e
2s
2

t
0
=
e
2t
2
_
1 e
2t
_
=
1
2
_
e
2t
1
_
3.
Cov(X
s
, X
t
) = E(X
s
X
t
) = E
_
e
s
_
s
0
e
u
dW
u
e
t
_
t
0
e
v
dW
v
_
= e
(s+t)
E
__
s
0
e
u
dW
u
_
t
0
e
v
dW
v
_
= e
(s+t)
_
st
0
e
2u
du
= e
(s+t)
e
2u
2

st
0
=
e
(s+t)
2
_
1 e
2(st)
_
=
1
2
_
e
(s+t)
e
|ts|
_
s , t 0
utilizando la identidad: 2(s t) = s +t [t s[.
6.2. Procesos Estacionarios Gaussianos. Derivadas e Integrales
Si (X
t
, t R) es un proceso estacionario en covarianza Gaussiano, con funci on de autoco-
varianza R(h) y media entonces basta especicar estas cantidades para obtener la distribuci on
multivariada de cualquier vector X = (X
t1
, , X
tn
)

, t
i
R , i = 1, 2, , n, es decir,
el proceso queda completamente denido. Algunas propiedades de los procesos estacionarios
gaussianos se dan a continuaci on.
Proposici on 6.2.1. 1. X
t
es continuo en media cuadr atica si y solo si R(h) es continua en
h = 0.
2. Si existe R

(h) entonces X
t
es derivable en media cuadr atica. Adem as, X

t
es Gaussiano
estacionario en covarianza con
E(X

t
) = 0
V ar(X

t
) = R

(0)
R
X
(h) = R

(h) = Cov(X

t
, X

t+h
) = E(X
t
X
t+h
)
120
3. Si X
t
es continuo en media cuadr atica y g(t) es funci on continua entonces
Z
t
=
_
t
0
g(s) X
s
ds t R
es Gaussiano con

t
= E
_
_
t
0
g(s) X
s
ds
_
=
X
_
t
0
g(s) ds
X
= E(X
t
)

2
t
= V ar
_
_
t
0
g(s) X
s
ds
_
=
_
t
0
_
t
0
g(u) g(v) R(u v) du dv
Cov(Z
s
, Z
t
) =
_
t
0
_
s
0
g(u) g(v) R(u v) du dv
Demostraci on.
1. La demostraci on es inmediata a partir del criterio para continuidad en media cuadr atica.
2. Dena S
n
=
n

j=1
g(t
j
) X
tj
(t
j+1
t
j
) entonces S
2
n
2
I =
b
_
a
g(t) X
t
dt cuando n
pero para cada n , S
n
=
n

j=1
a
j
X
tj
es normal porque X = (X
t1
, , X
tn
)

es normal
multivariado ya que X
t
es Gaussiano. Luego si S
n
2
I , n se cumple que
I N(
I
,
2
I
). Las expresiones para
t
y
2
t
se siguende propiedades vistas anteriormente,
al igual que Cov(Z
s
, Z
t
)
3. Sabemos que
X
t+h
X
t
h
2
X

t
cuando h 0 pero
X
t+h
X
t
h
para h ,= 0 es normal
debido a que X
t
es Gaussiano, luego X

t
es Gaussiano
Nota 6.2.1. Aunque X
t
sea estacionario en covarianza Z
t
no es necesariamente estacionario en
covarianza
V ar
_
_
b
a
_
=
_
b
a
_
b
a
h(s) h(t) R(t s) ds dt
Cov
_
_
b
a
h(u) X
u
du ,
_
d
c
h(v) X
v
dv
_
=
_
b
a
_
d
c
h(u) h(v) R(u v) dv du
121
Ejemplo 6.2.1. Si X
t
= Z
1
cos (t)+Z
2
sen(t) , t R, Z
1
, Z
2
N(0 ,
2
) independientes,
entonces X
t
estacionario con R
X
(u) =
2
cos (t). Adem as es Gaussiano. Entonces Z
t
=
t
_
0
X
s
ds es Gaussiano con
E(Z
t
) = 0
Cov(Z
s
, Z
t
) =
2
_
t
0
_
s
0
cos ((x y)) dx dy
=
1

2
_
cos ((t s)) cos (s) cos (t) + 1
_
V ar(Z
t
) =
2

2
(1 cos (t))
luego Z
t
no es estacionario en covarianza.
Ejemplo 6.2.2. Suponga Z
t
=
t
_
0
X
u
du con (X
t
, t 0) un proceso estacionario de segundo
orden con
E(X
t
) =
R(s , t) = R(t s) =
2
e
(ts)
2
> 0
Encontrar
1. E(Z
t
)
2. V ar(Z
t
)
3. Si Y
t
= e
Zt
encuentre E(Y
t
)
Demostraci on. 1. E(Z
t
) =
t
_
0
E(X
u
) du = t t 0
2. V ar(Z
t
) =
t
_
0
t
_
0
R(u v) du dv y podemos usar la siguiente identidad:
Si R() es una funci on par entonces R(x) = R(x)
Entonces
_
T
0
_
T
0
R(t s) dt ds = 2
_
T
0
(T u) R(u) du
luego
_
t
0
_
t
0
R(u v) du dv = 2
_
t
0
(t u) R(u) du = 2
2
_
t
0
(t u) e
u
2
du
122
por tanto
V ar(Z
t
) = 2
2
_
t
0
(t u) e
u
2
du = 2
2
t
_
t
0
e
u
2
du 2
2
_
t
0
ue
u
2
du
pero
_
t
0
ue
u
2
du =
1
2
_
t
0
(2u)e
au
2
du =
1
2
e
u
2

t
0
=
1
2
_
1 e
t
2
_
Usando la identidad
_
t
0
1

2
e

u
2
2
2
du = P
_
0 N(0 ,
2
) t
_
=
_
t

1
2
y utilizando
_
b
a
f(x) dx = k
_ b
k
a
k
f(kx) dx =
1
c
_
cb
ca
f
_
x
c
_
dx
entonces
_
t
0
e
u
2
du =
1

2
_
t

2
0
e

u
2
2/
du
=
1

2
_
1/

2
_
1/
_
t

2
0
e

u
2
2/
du
=
_

P
_
0 N
_
0 ,
1

_
t

2
_
=
_

_
(t

2 )
1
2
_
luego
_
t
0
e
u
2
du =
_

_
(t

2 )
1
2
_
y por tanto
V ar(Z
t
) = 2
2
t
_

_
(t

2 )
1
2
_

_
1 e
t
2
_
Cov(Z
s
, Z
t
) =
_
s
0
_
t
0
R(u v) du dv =
2
_
s
0
_
t
0
e
a(uv)
2
du dv
3. Encontrar E
_
e
Zt
_
.
Como Z
t
N
_
t , V ar(Z
t
)) para cada t 0 y como X N(,
2
_
implica
E
_
e
tX
_
= e
t+
t
2

2
2
tenemos
E
_
e
Zt
_
= e
t+
1
2
V ar(Zt)
123
Observaci on grande implica V ar(Z
t
) 0 y E
_
e
Zt
_
e
t
Ejemplo 6.2.3. Supongamos se tiene s = 5 , t = 10 , = 2 ,
2
= 4 y = 1 entonces
Cov(Z
5
, Z
10
) = 4(6.016)
E(Z
10
) = (10) = 10
E(Z
5
) = 5
V ar(Z
5
) = 4(5.766)
Cov(Z
5
, Z
10
) = 4(6.016)
E(Z
10
[ Z
5
= 3) = E(Z
10
) +
Cov(Z
5
, Z
10
)
V ar(Z
5
)
(Z
5
E(Z
5
) )
= 10 +
6.016
5.766
(3 5) = 7.913
6.3. Procesos con Incrementos Independientes
Denici on 6.3.1. Un proceso estoc astico (X
t
, t 0) tiene Incrementos Independientes si para
cualquier subconjuntonitot
0
, . . . , t
n
[0, +) con 0 t
0
< t
1
< . . . < t
n
los incrementos
X
t0
, X
t1
X
t0
, X
t2
X
t1
, . . . , X
tn
X
tn1
son v.a. independientes.
Observaci on Si el conjunto de ndices es discreto, digamos T = 0, 1, 2, . . . entonces un
proceso con incrementos independientes es simplemente una sucesi on de v.a. independientes
Z
0
= X
0
; Z
1
= X
1
X
0
; . . . , Z
n
= X
n
X
n1
, . . . con n = 1, 2, . . .
Denici on 6.3.2. Decimos que el proceso estoc astico real X
t
, t 0 tiene incrementos esta-
cionarios si la distribuci on de los incrementos X
t+h
X
t
depende s olo de la longitud h del
intervalo.
Es decir, si X
t
, t 0 tiene incrementos estacionarios entonces
X
t2+h
X
t1+h
= X
t2
X
t1
,

t
1
< t
2
, h > 0. (6.1)
6.4. Procesos Gaussianos con Incrementos Independientes
Los procesos gaussianos con incrementos estacionarios sirven como modelos en teora de teleco-
municaciones para el tr aco en escalas de tiempo grandes.
Denici on 6.4.1. Un proceso (X
t
, t R) gaussianotiene incrementos estacionarios si se cumple
que X
0
= 0 y para cualquier t
0
R los procesos X
t
y X
t0+t
X
t0
tienen las mismas
distribuciones
124
Un ejemplode proceso gaussianocon incrementos estacionarios es el proceso de Wiener fraccional
o movimiento Browniano fraccional (FBM). El proceso FBMtiene varianza v(t) = t
2H
, donde el
par ametro de autosimilaridad es H (0, 1). Su propiedad m as importante es la autosimilaridad:
los procesos Z
at
y aHZ
t
tienen la misma distribuci onpara todo a > 0. Si H > 1 el proceso FBM
tiene dependencia de rango extendido.
6.5. Problemas
1. Suponga que X
1
y X
2
son dos variables aleatorias distribudas conjuntamente Normal,
con medias
1
,
2
, varianzas
2
1
,
2
2
, respectivamente, y correlaci on . Dena (Z
j
)
jZ
una
sucesi on i.i.d de variables Normales N(0,
2
), independientes de X
1
y de X
2
. Dena el
proceso Y
t
= X
1
+tX
2
+ Z
t
, t Z.
a) Compruebe que Y
t
es un proceso Gaussiano.
b) Encuentre la distribuci on de Y
t
[Y
s
para s < t.
2. Si X
t
= t + a(W
t
+ W
(t)
), t 0, donde , a R son constantes dadas y (t) =
(1 e
2t
)/2, encuentre V ar(X
t
).
3. Suponga que X
t
, t R es un proceso gaussiano de media cero y funci on de autocovarianza
R(s, t) = E(X
s
X
t
) =
s,t
. Dena el proceso Y
t
= X
2
t
.
a) Encuentre la media y la covarianza de Y
t
.
b) Aplique el resultado para encontrar la media y la covarianza de
_
1
0
W
2
t
dt, donde W
t
es el proceso de Wiener.
c) Consider un proceso ruido blanco con varianza
2
, Z
n
, n Z. Aplique el resultado
para comprobar que Z
2
n
es un proceso incorrelacionado.
d) Si X
n
es un proceso AR(1) estacionario en covarianza de media cero, entonces si las
distribuciones marginales son variables distribudas normal, compruebe que X
2
n
es un
proceso que tiene funci on de autocovarianza similar a la de un AR(1).
4. Suponga unprocesogaussiano(X
j
, j Z) tal que E(X
j
) = exp(1/j) yCov(X
i
, X
j
) =
R(i, j) =
2
exp([1/i 1/j[), donde y se asumen conocidos.
a) Encuentre E(X
n
X
m
).
b) Considere el siguiente resultado: Un proceso X
n
converge en media cuadr atica a una
variable X, X
n
2
X, si y solo si E(X
n
X
m
) converge a una constante c cuando
n, m.
Compruebe que para el proceso que se est a considerando se cumple: E(X
n
X
m
)
c, n, m, y encuentre la constante c.
125
c) Encuentre la distribuci on de la variable X a la cual converge el proceso X
n
. Note que
cada variable X
n
est a distribuda normal.
d) Se dene el proceso (Y
j
: j = 0, 1, . . .) mediante la ecuaci on recursiva siguiente:
Y
n
= Y
n1
+ X
n
, n = 1, 2, . . .
donde (1, 1), y Y
0
N(,
2
), es independiente de X
n
, n = 1, 2, . . ..
Encuentre Y
n
utilizando la f ormula de la soluci on de ecuaciones de la forma
x
n
= ax
n1
+b
n
.
e) Encuentre una expresi on para V ar(Y
n
). Utilice la varianza de variables de la forma:

X, R
n
, dada por V ar(

X) =

i

j

i

j
R
i,j
f ) Se puede probar que Y
n
2
Y , para cierta variable Y . Encuentre Y a partir de la
ecuaci on recursiva Y
n
= Y
n1
+X
n
. (Utilice el resultado: aX
n
+bY
n
2
aX+bY ).
5. Suponga el siguiente resultado auxiliar:
Lema 6.5.1. Si X
1
, X
2
son dos variables aleatorias distribudas Normal con media cero
y varianzas
2
1
,
2
2
, independientes, entonces la variable X = X
1
X
2
/
_
X
2
1
+ X
2
2
se
distribuye Normal con media cero y varianza
2
1

2
2
/(
1
+
2
)
2
.
Dena el proceso estoc astico X
n
como la sucesi on que cumple la relaci on recursiva:
X
n
=
X
n1
Z
n
_
X
2
n1
+Z
2
n
, n = 1, 2, . . . (6.2)
con X
0
N(0, 1) y Z
n
i.i.d. N(0, 1), independientes de X
0
. Compruebe que cada X
n
es una variable aleatoria Normal, pero (X
n
, n = 1, 2, . . .) no es un proceso Gaussiano (
1
) .
6. Suponga un proceso gaussianoestacionario en covarianza, X
t
, t R, con media E(X
t
) =
y funci on de autocovarianza Cov(X
t
, X
t+h
) =
2
exp(h
2
), > 0. Dena Y
t
=
Y
0
+
_
t
0
X
s
ds, donde Y
0
es una variable aleatoria y C
t
= E(exp(Y
t
)[Y
0
). Encuentre
C
1
, utilizando
_
1
0
_
1
0
exp(
2
(u v)
2
)dudv = (e

2
1)/
2
+

(() 1/2)/
La cantidad C
1
se puede interpretar como un an alogo de c
1
= 1 + i, donde i (0, 1) es
una tasa de inter es para capitalizaci on en un perodo [0, 1]. C
1
es un factor de capitalizaci on
estoc astica esperado.
1
P. Chigansky en http://www.eng.tau.ac.il/ pavelm/Public/Random Processes/rp.html
126
6.6. Soluciones
1. a) Para comprobar que Y
t
es gaussiano se toman k n umeros reales a
i
y k tiempos t
i
Z,
i = 1, . . . , k, y se determina si

k
i=1
a
i
Y
ti
es una variable Normal. Reemplazando en
la sumatoria anterior Y
t
por su denici on se obtiene:
k

i=1
a
i
Y
ti
=
k

i=1
a
i
(X
1
+ t
i
X
2
+ Z
ti
) = X
1
k

i=1
a
i
+X
2
k

i=1
a
i
t
i
+
k

i=1
a
i
Z
ti
.
Entonces, por ser X
1

k
i=1
a
i
+ X
2

k
i=1
a
i
t
i
una combinaci on lineal de un vec-
tor (X
1
, X
2
) Normal bivariado, se distribuye como una variable Normal. Adem as,

k
i=1
a
i
Z
ti
es una combinaci on lineal de variables independientes Normales por lo
que se distribuye Normal. Finalmente, la suma de estas dos variables Normales in-
dependientes debe distriburse Normal, con lo cual se comprueba que el proceso es
gaussiano.
b) Como (Y
s
, Y
t
) se distribuye normal bivariado, por propiedad de las distribuciones
Normales multivariadas se cumple que la variable condicionada Y
t
[Y
s
se distribuye
Normal, con media y varianza dadas por:
E(Y
t
[Y
s
) = E(Y
t
) +
Cov(Y
t
, Y
s
)
V ar(Y
s
)
(Y
s
E(Y
s
))
V ar(Y
t
[Y
s
) = V ar(Y
t
)(1 Corr(Y
t
, Y
s
)
2
).
Las distintas cantidades que intervienen en las expresiones anteriores se calculan con
f ormulas est andar de la teora. Para la media: E(Y
t
) = E(X
1
+tX
2
+Z
t
) =
1
+t
2
.
Luego
Cov(Y
t
, Y
s
) = E(Y
t
Y
s
) (
1
+t
2
)(
1
+s
2
).
Desarrollando E(Y
t
Y
s
), tenemos
E(Y
s
Y
t
) = E((X
1
+ sX
2
+Z
s
)(X
1
+tX
2
+ Z
t
))
= E(X
2
1
+ tX
1
X
2
+ X
1
Z
t
+sX
1
X
2
+ stX
2
2
+sX
2
Z
t
+
Z
s
X
1
+ tX
2
Z
s
+ Z
s
Z
t
)
= E(X
2
1
) +tE(X
1
X
2
) + 0 +sE(X
1
X
2
) +stE(X
2
1
) + 0 + 0 + 0 + 0
= E(X
2
1
) + (t + s)E(X
1
X
2
) +stE(X
2
1
).
Luego
Cov(Y
s
, Y
t
) = E(X
2
1
) + (t +s)E(X
1
X
2
) + stE(X
2
1
) (
1
+t
2
)(
1
+ s
2
)
=
2
1
+ st
2
2
+ (s +t)
1,2
Adem as, V ar(Y
t
) =
2
1
+t
2

2
2
+2t
1,2
. La expresi on para Corr(Y
s
, Y
t
) se obtiene de
las cantidades anteriores, lo mismo que V ar(Y
t
[Y
s
) = V ar(Y
t
)(1 Corr(Y
t
, Y
s
)
2
).
127
2. De las deniciones tenemos V ar(X
t
) = a
2
(t+(t)+2Cov(W
t
, W
(t)
)). Podemos calcular
la covarianza escribiendo W
t
=
_
t
0
dW
s
y W
(t)
=
_
t
0
e
s
dW
s
. Entonces,
Cov(W
t
, W
(t)
)) = E(
_
t
0
dW
s
.
_
t
0
e
s
dW
s
)
=
_
t
0
e
s
ds
reemplazando se tiene V ar(X
t
) = a
2
(3 +t 2e
t
(1/2)e
2t
).
3. Tenemos: E(Y
t
) = E(X
2
t
) = V ar(X
t
) = R(t, t) =
2
t
. Para la covarianza se tiene:
Cov(Y
s
, Y
t
) = E(X
2
s
X
2
t
)
2
s

2
t
. Ahora, E(X
2
s
X
2
t
) = E(E(X
2
s
X
2
t
[X
s
)), por propiedades
de la esperanza condicional, y
E(X
2
s
X
2
t
[X
s
) = X
2
s
E(X
2
t
[X
s
) = X
2
s
(V ar(X
t
[X
s
) +E
2
(X
t
[X
s
))
= X
2
s
_

2
t
(1
2
s,t
) +
_
0 +
R(s, t)
R(s, s)
(X
s
0)
_
2
_
= X
2
s
(
2
t

2
s,t
/
2
s
+
2
s,t
X
2
s
/
4
s
),
donde
s,t
=
s,t
/(
s

t
) es la correlaci on. Utilizando E(X
4
s
) = 3
4
s
, se obtiene
E(X
2
s
X
2
t
) = E(E(X
2
s
X
2
t
[X
s
))
= E(X
2
s
(
2
t

2
s,t
/
2
s
+
2
s,t
X
2
s
/
4
s
))
=
2
s

2
t

2
s,t
+ 3
2
s,t
.
Simplicando se llega a Cov(Y
s
, Y
t
) = E(X
2
s
X
2
t
)
2
s

2
t
= 2
2
s,t
= 2R(s, t)
2
.
4. Veamos que X
1
Normal. Como X
1
=
X0Z1

X
2
0
+Z
2
1
y X
0
, Z
1
son variables distribudas
Normal con media cero ambas e independientes, entonces por el resultado auxiliar X
1
se distribuye Normal con media cero ( y varianza 1/4). Repitiendo este razonamiento se
prueba que X
2
se distribuye Normal con media cero, y por medio de un razonamiento por
inducci on se concluye que X
n
se distribuye Normal con media cero para todo n = 1, 2, . . ..
Considere ahora la variable bidimensional (X
0
, X
1
). Si se supone que (X
n
) es un proceso
Gaussiano entonces (X
0
, X
1
) se distribuye Normal bivariada. Pero E(X
0
X
1
) = 0 porque
E(X
0
X
1
) = E
_
X
0
X
0
Z
1
_
X
2
0
+ Z
2
1
_
= E
_
E
_
X
2
0
Z
1
_
X
2
0
+Z
2
1
[X
0
__
= E
_
X
2
0
E
_
Z
1
_
X
2
0
+Z
2
1
[X
0
__
= 0.
La raz on por la cual se concluye que la ultima expresi on es cero es porque la esperanza
condicional E
_
Z1

X
2
0
+Z
2
1
[X
0
_
se calcula reemplazando el valor de X
0
y luego quitando
128
el condicional porque X
0
y Z
1
son independientes, y nalmente observando que es la
esperanza de una funci on impar de una variable Normal de media cero, por lo cual debe
ser nula. Finalmente, si X
1
y X
0
son independientes se debe cumplir que E(X
2
1
[X
0
) no
debera depender de X
0
. Sin embargo, se puede comprobar que E(X
2
1
[X
0
= 0) = 0 y
E(X
2
1
[X
0
= 1) ,= 0 (ejercicio!).
CAP

ITULO 7
Procesos de Markov
7.1. Deniciones
La teora de procesos de Markov, iniciada por A. A. Markov en 1906, se basa en el principio de
que en ciertos fen omenos el futuro es independiente del pasado cuando se conoce el presente. Este
principio se denomina en fsica el principio de causalidad. Un ejemplo es un sistema descrito por
una ecuaci on diferencial y

t
= f(t , y
t
) , y
0
= dado , t 0 en el cual para conocer y
t
, t > 0 es
suciente la condici on inicial y
0
y la regla en la cual evoluciona el sistema. Por eso y
t
es funci on
de y
0
. La informaci on acerca de y
s
, para s < 0 no se requiere para encontrar y
t
, t > 0.
La propiedad de Markov para un proceso X
t
es la traducci on estoc astica del principio de causali-
dad.
Denici on 7.1.1. Un proceso estoc astico (X
t
, t T) , T [0, ) se dice proceso de Markov
si se cumple que para n 1 y 0 t
1
< t
2
< < t
n
< t en T , x R
P
_
X
t
x [ X
t1
, , X
tn
_
= P
_
X
t
x [ X
tn
_
Un proceso de Markov cumple con la siguiente propiedad
Proposici on 7.1.1. Si T
t
=
_
X
s
, 0 s t
_
es la informaci on hasta t y t
1
< t < t
2
y
129
130
A
1

_
X
s
, 0 s t
1
) , A
2

_
X
s
, t
2
s
_
entonces
P
_
A
1

A
2
[ X
t
_
= P
_
A
1
[ X
t
_
P
_
A
2
[ X
t
_
Denici on 7.1.2. Para el caso de ser X
t
variables aleatorias continuas, la funci on
F
_
s , x ; t , y
_
= P
_
X
t
y [ X
s
= x
_
0 s t
tal que
F
_
s , x ; s , y
_
= I(y x
_
=
_
1 si y x
0 si y > x
se denomina funci on de transici on del proceso de Markov X
t
. Si existe una funci on de densidad ,
es decir, si existe f
Xt
_
u [ X
s
= x
_
tal que, para s < t
P
_
X
t
y [ X
s
= x
_
=
_
y

f
Xt
_
u [ X
s
= x
_
du
entonces f
Xt
_
u [ X
s
= x
_
se denomina densidad de transici on. Se debe cumplir
d
dy
P
_
X
t
y [ X
s
= x
_
= f
Xt
_
y [ X
s
= x
_
Para el caso en el que X
t
sean variables aleatorias discretas las deniciones son similares.
Teorema 7.1.1 (Ecuaci on Chapman - Kolmogorov ). Para 0 < s u t , x , y R se tiene
P
_
X
t
y [ X
s
= x
_
=
_

P
_
X
t
y [ X
u
= v
_
f
Xu
(v [ X
s
= x
_
dv
=
_

F
_
u , v ; t , y
_
f
Xu
_
v [ X
s
= x
_
dv
Demostraci on. Sabemos que
P
_
X
t
y [ X
s
_
= P
_
X
t
y [ (X
s
)
_
y como s u t entonces
_
X
s
_

_
X
s
, 0 s u
_
y
P
_
X
t
y [ X
s
_
= E
_
I(X
t
y) [ X
s
= x
_
= E
_
E
_
I(X
t
y) [ X
s
, 0 s u
_
[ X
s
= x
_
= E
_
P
_
X
t
y [ X
s
, 0 s u
_
[ X
s
= x
_
= E
_
P
_
X
t
y [ X
u
_
[ X
s
= x
_
=
_
R
P
_
X
t
y [ X
u
= v
_
d
dv
P
_
X
u
v [ X
s
= x
_
dv
131
luego
P
_
X
t
y [ X
s
= x
_
=
_
R
P
_
X
t
y [ X
u
= v
_
d
dv
P
_
X
u
v [ X
s
= x
_
dv
Ejemplo 7.1.1. 1. Proceso de ramicaci on.
2. Proceso Wiener.
3. Proceso Poisson.
Ejemplo 7.1.2. La siguiente expresi on es una funci on de transici on para un proceso X
t
, t 0
con X
t
R. f(s, x; t, y) = ce
uv
(v/u)
q/2
I
q
(2

uv), donde u = cxe


2
, v = cy, q =
2
2

1
/
2
3
1, y I
q
(.) es lafunci onde Bessel de primera clase de orden q. Corresponde aun proceso
descrito por una ecuaci on diferencial estoc astica de la forma X

t
=
2
(
1
X
t
) +
3

X
t
W

t
,
una ecuaci on diferencial de Ito,
Nota 7.1.1. La ecuaci on de Chapman - Kolmogorov con densidad de transici on
P
_
X
t
y [ X
s
= x
_
=
_
R
P
_
X
t
y [ X
s
= x
_
d
dv
P
_
X
u
v [ X
u
= v
_
dv
derivando con respecto a y obtenemos
f
Xt
_
y [ X
s
= x
_
=
_
R
f
Xt
_
y [ X
u
= v
_
f
Xu
_
v [ X
s
= x
_
dv,
para s < u < t.
Nota 7.1.2. Suponga que se conoce la distribuci on de la posici on inicial del proceso, es decir,
P
_
X
0
x
_
y f
X0
(x) =
d
dx
P
_
X
0
x
_
y se conoce F(s , x ; t , y) , 0 s t entonces
utilizando el teorema de probabilidad total tenemos
P
_
X
t
y
_
=
_
R
P
_
X
t
y [ X
0
= x
_
f
X0
(x) dx
=
_
R
F
_
0 , x ; t , y) f
X0
(x) dx
Proposici on 7.1.2. Dada una fda F(x) y una funci on de transici on F
_
s , x ; t , y) para s , t 0,
entonces siempre se puede suponer que existe un proceso de Markov (X
t
, t 0) tal que
P
_
X
t
y [ X
s
= x
_
coincide con F(s , x ; t , y) y tal que X
0
F(x).
Denici on 7.1.3. Un proceso de Markov se dice homog eneo si se cumple que
P
_
X
t+h
y [ X
s+h
= x
_
= P
_
X
t
y [ X
s
= x
_
132
para todos s t y h tal que 0 s + h t + h. Luego si X
t
es homog eneo y s t
P
_
X
t
y [ X
s
= x
_
= P
_
X
ts
y [ X
0
= x
_
luego la funci on de transici on F(s , x ; t , y) depende de t s , x , y, y se puede escribir como
F(t s , x , y) luego
P
_
X
t
y [ X
s
= x
_
= F(t s , x , y)
Denici on 7.1.4. El proceso X
t
se dice que posee una distribuci on invariante G(x) si X
0
G
implica X
t
G para todo t > 0.
Es decir, si G(x) es invariante se debe cumplir que, si en la identidad
F
Xt
(x) =
_
R
F(0 , x ; t , y) f
X0
(x) dx
se reemplaza f
X0
(x) por g(x) = G

(x) entonces
F
Xt
(x) =
_
R
F(0 , x ; t , y) g(x) dx = G(x)
es decir X
0
G implica X
t
G , t > 0.
Proposici on 7.1.3. Una condici on suciente para que un proceso de Markov sea estacionario en
covarianza es que
1. X
t
sea homog eneo.
2. Existe una distribuci on invariante F
X
.
Demostraci on. Si se escoge F
X0
como la distribuci on invariante F
X
, es decir, si X
0
F
X
entonces X
t
F
X
, t 0. Luego E(X
t
) = c
1
, constante y V ar(X
t
) = c
2
, constante. Asumiendo
t
1
< t
2
se tiene f
Xt
1
, Xt
2
(x
1
, x
2
) = f
Xt
2
_
x
2
[ X
t1
= x
1
_
f
Xt
1
(x
1
). Pero f
Xt
2
_
x
2
[ X
t1
=
x
1
_
depende de t
2
t
1
, x
1
, x
2
y como se asume que X
0
F
X
la distribuci on invariante,
entonces f
Xt
1
(x
1
) no depende de t
1
por tanto E(X
t1
X
t2
) depende solamente de t
2
t
1
. En el
caso t
1
> t
2
el razonamiento es el mismo, condicionando X
t1
con respecto a X
t2
, con lo cual
E(X
t1
X
t2
) depende de t
1
t
2
. Es decir, E(X
t1
X
t2
) depende de [t
2
t
1
[, por lo que el proceso
es estacionario de segundo orden.
7.2. Cadenas de Markov
Denici on 7.2.1 (Cadena de Markov). Una Cadena de Markov se dene como un proceso
estoc astico de Markov, en tiempo discreto, (X
n
, n = 0, 1, . . .), con espacio de estados un
conjunto contable E. La cadena se denomina nita si E es nito, y se coloca por simplicidad
E = 1, , d.
133
Si X
n
= i E se dice que el proceso est a en el estado i en el tiempo t = n. La cadena se dene a
partir de una matriz P = [P
i,j
], con 0 P
ij
1, i, j E, tal que P
i,j
representa la probabilidad
de transici on del estado i al estado j en un paso, denida por:
P
i,j
= P(X
n+1
= j [ X
n
= i)
= P(X
n+1
= j [ X
n
= i, X
n1
= i
n1
, . . . , X
1
= i
1
, X
0
= i
0
)
A partir de esta denici on se deduce que, para cada i E,

jE
P
i,j
=

jE
P(X
n+1
= j [ X
n
= i)
= P(X
n+1
E [ X
n
= i) = 1
Es decir, la matriz P tiene entradas no negativas y cada la suma uno.
Ejemplo 7.2.1. Suponga una cadena de Markov (X
n
, n = 0, 1, . . .), denida en E = 1, 2, 3, 4
con matriz de transiciones P dada por
P =
_

_
0.7 0 0.3 0
0 0.5 0.5 0
0 0.4 0 0.6
0 0.2 0 0.8
_

_
En la gura 7.1 siguiente se puede ver un diagrama que muestra c omo est an interconectados los
estados. Un ejemplo de evento en esta cadena es
P
_
X
0
= 4 , X
1
= 2 , X
2
= 3, X
3
= 4 , X
4
= 2
_
(7.1)
La propiedad de Markov de lacadena se puede utilizar para calcular probabilidades. Por ejemplo,
para calcular (7.1), se procede aplicandouna regla de probabilidadelemental para desarrollar la
probabilidadde laintersecci onde neventos, P(A
1
A
2
. . .A
n
) = P(A
1
)P(A
2
[A
1
) . . . P(A
n
[A
1

. . . A
n1
). Concretamente,
P(X
0
= 4 , X
1
= 2 , X
2
= 3, X
3
= 4 , X
4
= 2
_
= P
_
X
0
= 4
_
P
_
X
1
= 2 [ X
0
= 4
_
P
_
X
2
= 3 [ X
1
= 2 , X
0
= 4
_
P
_
X
3
= 4 [ X
2
= 3 , X
1
= 2 , X
0
= 4
_
P
_
X
4
= 2 [ X
3
= 4, X
2
= 3, X
1
= 2, X
0
= 4
_
= P
_
X
0
= 4)(0.2)(0.5)(0.6)(0.2)
= 0.012 P
_
X
0
= 4
_
.
Si el proceso arranca en X
0
= 4 con probabilidad 1, la probabilidad es 0.012.
Ejemplo 7.2.2 (Cadena de Ehrenfest, ver Hoel et al. Hoel, Port, and Stone (1972),sec. 1.3).
134
Figura 7.1: Gr aca
Ejemplo 7.2.3 (Ruina del Jugador).
Ejemplo 7.2.4 (Colas M/M/1).
colocar ejemplo de la funcion de transicion modelo erhrenfest de difusion, otros en librito de
ejercicios de tackas
Denici on 7.2.2. La probabilidad P
(m)
ij
= P
_
X
n+m
= j [ X
n
= i
_
se dene como la
probabilidad de transici on de i a j en m pasos, m 1 , n 0 , i , j 0
Nota 7.2.1. Note que P
(m)
= [P
(m)
ij
] es una matriz d d de Markov.
La ecuaci on de Chapman-Kolmogorov en tiempo continuo para variables continuas es
P
_
X
t
y [ X
s
= x
_
=
_
R
P
_
X
t
y [ X
u
= v
_
d
dv
P
_
X
u
v [ X
s
= x
_
dv
Se puede colocar t = n + m , s = 0 , u = n , y = j , x = i , v = k y reemplazar
P
_
X
t
y [ X
s
= x
_
por P
_
X
n+m
= j [ X
0
= i
_
P
_
X
t
y [ X
u
= v
_
por P
_
X
n+m
= j [ X
n
= k
_
P
_
X
u
v [ X
s
= x
_
por P
_
X
n
= k [ X
0
= i
_
donde
P
_
X
n+m
= j [ X
0
= i
_
=
d

k=0
P
_
X
n+m
= j [ X
n
= k
_
P
_
X
n
= k [ X
0
= i
_
135
luego
P
(n+m)
ij
=
d

k=0
P
(m)
kj
P
(n)
ik
es la ecuaci on de Chapman Kolmogorov, pero esta ecuaci on es similar al elemento
(AB)
ij
=
n

k=1
A
ik
B
kj
luego, la ecuaci on de Chapman-Kolmogorov equivale a P
(n+m)
=
P
(n)
P
(m)
con n, m 0. De aqui se concluye que P
(m)
= P
m
entendida esta como la potencia
m- esima de P ya que como P
(1)
= P entonces P
(2)
= P P = P
2
y en general P
(n)
= P
n
lo
cual dice que P
(n)
ij
= P
n
ij
.
Ejemplo 7.2.5. Si
P
2
=
_

_
0.49 0.12 0.21 0.18
0.35 0.2 0.15 0.3
0.2 0.12 0.2 0.48
0.1 0.16 0.1 0.64
_

_
entonces por ejemplo, P
2
13
= P
(2)
13
= P
_
X
n+2
= 3 [ X
n
= 1
_
= 0.21.
Conclusi on. Al denir
P
(m)
ij
= P
_
X
n+m
= j [ X
n
= i
_
se establece que la cadena de Markov X
n
es un proceso de Markov homog eneo. La funci on de
transici on F(n, i ; n +m, j) depende de n + m n = m , i , j.
Adem as, X
n
puede tener una distribuci on invariante con el tiempo. Por teorema de probabilidad
total si n 1
P
_
X
n
= j
_
=
d

k=0
P
_
X
n
= j [ X
0
= k
_
P
_
X
0
= k
_
luego si P
_
X
n
= j
_
= g
j
y P
_
X
0
= k
_
= g
k
donde j = 1, , d es una fdp entonces
g
j
=
d

k=0
P
n
kj
g
k
g = gP
n
, n 1,
luego
g = gP P

= g


_
P

I
_
g

= 0.
Luego g

es el vector propio correspondiente al valor propio 1 de la matriz p

.
Tenemos g =
_
0.449 , 0.269 , 0.269 , 0.808
_
/1.796.
Como el proceso es Markov, tiene distribuci on homog enea y tiene una distribuci on invariante,
entonces es estacionario de segundo orden y Cov(X
n+m
, X
n
) depende de m, E(X
n
) , V ar(X
n
)
cte.
Cov(X
n+m
, X
n
) = E
_
X
n
X
n+m
_
E
_
X
n
_
E
_
X
n+m
_
136
E
_
X
n
X
n+m
_
=
d

j=0
d

k=0
jkP
_
X
n
= j X
n+m
= k
_
=
d

j=0
d

k=0
jkP
_
X
n+m
= k [ X
n
= j
_
g
j
=
d

j=0
d

k=0
jkp
m
jk
g
j
= funci on de m
Por tanto, Cov(X
n+m
, X
n
) es funci on de m ya que E
_
X
n
_
E
_
X
n+m
_
es una constante.
7.3. Relaci on entre Procesos de Markov y Procesos Gaussianos
Proposici on 7.3.1. El proceso (X
t
, t R) Gaussiano, es de Markov si y solo si
E
_
X
tn
[ X
t1
, , X
tn1
_
= E
_
X
tn
[ X
tn1
_
para todo n 1 y t
1
< t
2
< < t
n
.
Demostraci on.
[=] Si el proceso X
t
es de Markov la identidad se cumple inmediatamente
[=] Suponga que X
t
es Gaussiano y que cumple
E
_
X
tn
[ X
t1
, , X
tn1
_
= E
_
X
tn
[ X
tn1
_
entonces hay que demostrar que n 1 y t
1
< t
2
< < t
n
P
_
X
tn
x [ X
t1
, , X
tn
_
= P
_
X
tn
x [ X
tn1
_
Si X
t
, t R es Gaussiano entonces las distribuciones condicionales de la expresi on anterior
son ambas Gaussianas unidimensionales y por tanto, est an caracterizadas por sus medias y sus
varianzas por tanto, para demostrala es suciente comprobar que
E
_
X
tn
[ X
t1
, , X
tn1
_
= E
_
X
tn
[ X
tn1
_
V ar
_
X
tn
[ X
t1
, , X
tn1
_
= V ar
_
X
tn
[ X
tn1
_
La primera es inmediata porque es la hip otesis.
Para la segunda, denimos
Y = X
tn
E
_
X
tn
[ X
t1
, , X
tn1
_
luego Y = X
tn
E
_
X
tn
[ X
tn1
_
.
137
Adem as, Y es independiente de X
t1
, , X
tn1
y
E(Y ) = E(X
tn
) E
_
E(X
tn
[ X
t1
, , X
tn1
)
_
= E(X
tn
) E(X
tn
) = 0
por tanto
V ar
_
Y [ X
t1
, , X
tn1
_
= E
_
Y
2
[ X
t1
, , X
tn
_
= E
_
Y
2
_
V ar
_
Y [ X
tn1
_
= E
_
Y
2
[ X
tn1
_
= E
_
Y
2
_
luego
E
_
Y
2
[ X
t1
, , X
tn
_
= E
_
Y
2
[ X
tn1
_
pero
E
_
Y
2
[ X
t1
, , X
tn
_
= V ar
_
X
tn
[ X
t1
, , X
tn1
_
E
_
Y
2
[ X
tn1
_
= V ar
_
X
tn
[ X
tn1
_
y de aqui obtenemos lo que se quera pues
V ar
_
X
tn
[ X
tn1
_
= E
_
Y
2
[ X
tn1
_
= E
_
_
X
tk
E(X
tk
[ X
tn1
)
_
2
[ X
tn1
_
= E
_
X
2
tn
2X
tn
E
_
X
tn
[ X
tn1
_
+E
2
_
X
tn
[ X
tn1
_
[ X
tn1
_
= E
_
X
2
tn
[ X
tn1
_
2E
2
_
X
tn
[ X
tn1
_
+E
2
_
X
tn
[ X
tn1
_
= E
_
X
2
tn
[ X
tn1
_
E
2
_
X
tn
[ X
tn1
_
= V ar
_
X
tn
[ X
tn1
_
La otra es similar.
Proposici on 7.3.2. (Feller (1978), Teo 1, pag. 126) El proceso (X
t
, t R) Gaussiano es de
Markov si y solo si se cumple que

j , n
=
j , k

k , n
k , j k n
donde
j , n
= Corr
_
X
tj
, X
tn
_
Demostraci on. Supongamos que X
t
es Gaussiano.
[=] Si X
t
es de Markov, veamos que
j , n
=
j , k

k , n
.
Pero si X
t
es de Markov, en la demostraci on anterior se vi o que Y = X
tn
E
_
X
tn
[ X
tn1
_
es normal, con E(Y ) = 0 y adem as es independiente de X
tj
, para j = 1, 2, , n 1 luego
E
_
Y X
tj
_
= 0.
Adem as, como
E
_
X
tn
[ X
tn1
_
=
n


n , n1

n1
_
X
tn1

n1
_
138
entonces
Y X
tj
= X
tn
X
tj
X
tj


n , n1

n1
_
X
tn1
X
tj

n1
X
tj
_
luego
0 = E
_
X
tn
X
tj
_

j


n, n1

n1
_
E
_
X
tn1
X
tj
_

n1

j
_
y por tanto
Cov
_
X
tn
, X
tj
_
=

n , n1

n1
Cov
_
X
tn1
, X
tj
_
de donde se obtiene
Cov
_
X
tn
, X
tj
_

j
=
n , n1
Cov
_
X
tn1
, X
tj
_

n1

j
lo que es equivalente a

j , n
=
j , n1

n1 , n
si tomamos k con j < k < n entonces

j , n
=
j , n2

n2 , n1

n1 , n
=
j , n2

n2 , n
=
j , n3

n3 , n
.
.
.
=
j , k

k , n
[ = ] Si se supone que se cumple
j , n
=
j , k

k , n
con j < k < n entonces
j , n
=

j , n1

n1 , n
.
Reversando la demostraci on anterior se llega a que si Y = X
tn
E
_
X
tn
[ X
tn1
_
entonces
E
_
Y X
tj
_
= 0 para j = 1, 2, , n 1. Luego Y es independiente de X
t1
, , X
tn1
. Pero la
unica variable que cumple esta condici on es
Y = X
tn
E
_
X
tn
[ X
t1
, , X
tn1
_
luego
E
_
X
tn
[ X
t1
, , X
tn1
_
= E
_
X
tn
[ X
tn1
_
Ejemplo 7.3.1. Suponga que (X
t
, t R) es estacionario en Covarianza, Gaussiano y Markov,
con funci on de Covarianza R(h) = Cov
_
X
t
, X
t+h
_
.
Como es Gaussiano y Markov satisface
0 , t

t , t+h
=
0 , t+h
por tanto

0 , t
=
R(t)
R(0)

t , t+h
=
R(h)
R(0)

0 , t+h
=
R(t +h)
R(0)
139
luego
R(t)
R(0)

R(h)
R(0)
=
R(t +h)
R(0)
Si f(t) =
R(t)
R(0)
entonces se cumple la ecuaci on funcional
f(t) f(h) = f(t +h)
Resultado Si f(t) es la soluci on distinta de f(t) = 0 para t > 0, de la ecuaci on f(t) f(h) =
f(t + h) entonces f(t) = e
t
para cierta constante . Luego
R(t)
R(0)
= e
t
para t > 0. Como
R(t) debe ser par entonces
R(t) = R(0)e
|t|
=
2
e
|t|
t R.
Adem as, como debe tenerse [ R(t) [ R(0) , debe ser negativa, y se coloca R(t) = R(0)e
t
,
con > 0.
Denici on 7.3.1. Un proceso (X
t
, t R) estacionario, Gaussiano y Markov siempre tiene
covarianza de la forma
R(h) =
2
e
| h|
Se denomina el proceso Ornstein-Uhlenbeck (OU).
Propiedades del Proceso OU
1. Si se dene el proceso X
t
= e
t
W
(t)
donde (t) =
2
e
2t
para t 0, con W
t
el
proceso de Wiener, entonces
Cov
_
X
s
, X
t
_
=
2
e
| ts |
y por tanto X
t
es un proceso OU de media cero, E(X
t
) = 0 para t 0.
2. El proceso OU es continuo en media cuadr atica pues R(h) =
2
e
| h|
es continua en
h = 0.
3. No es derivable en media cuadr atica pues
E
_
X
t+h
X
t
h

X
t+r
X
t
r
_
calculada en r = h es
1
h
2
E
_
_
X
t+h
X
t
_
2
_
=
2
h
2
_
R(0) R(h)
_
140
=
2
2
h
2
_
1 e
| h|
_
Si h 0 entonces e
| h|
1 [ h[ y por tanto
1
h
2
E
_
_
X
t+h
X
t
_
2
_

2
2
h
2
_
1 (1 [ h[)
_
=
2
2
[ h[
h
2
que no converge cuando h 0.
4. Como el proceso X
t
OU es estacionario en covarianza y Gaussiano, tiene trayectorias
continuas si existe c (0, 2] tal que existe el lmite lm
h0
R(h) R(0)
[ h[
c
pero
R(h) R(0) =
2
_
e
| h|
1
_

2
_
[ h[
_
Con c = 1 se obtiene
g(h) g(0)
[ h[
=

2
_
e
| h|
1
_
[ h[

2

Ejercicio 7.3.1. Dena Y


t
= Y
0
+
t
_
0
X
s
ds ( Kovalenko p 214 ) entonces
Y
t+h
Y
t
=
_
t+h
t
X
s
ds N
_
hc , 2
2
[ h[
_
Adem as Y
t2
Y
t1
y Y
t1
Y
t0
son independientes para t
0
< t
1
< t
2
. Es decir, Y
t
es un proceso
Gaussiano con incrementos independientes.
Ejercicio 7.3.2. Es Y
t
Markov ? R/S por tener incrementos independientes.
Ejemplo 7.3.2. El proceso AR(1) X
n
= X
n1
+Z
n
, n = 1, 2, con (1, 1) y X
0
tal
que E(X
0
) = 0 , V ar(X
0
) =

2
1
2
, X
0
independiente de Z
n
, n = 0, 1, . . ., que se asume ruido
blanco con V ar(Z
n
) =
2
, es Markov pues P
_
X
n
x [ X
0
, , X
n1
_
depende solamente
del valor que tome X
n1
es decir
P
_
X
n
x [ X
0
, , X
n1
_
= P
_
X
n
x [ X
n1
_
Si X
n1
= x
1
entonces
P
_
X
n
x [ X
n1
= x
1
_
= P
_
x
1
+ Z
n
x
_
= P
_
Z
n
x x
1
_
Ejemplo 7.3.3. Proceso de Galton-Watson X
n
=
Xn1

j=1
Z
j
(n)
P
_
X
n
= m [ X
0
, X
1
, , X
n1
_
depende solamente del valor de X
n1
.
Si X
n1
= r entonces
P
_
X
n
= m [ X
0
, X
1
, , .X
n1
= r
_
= P
_
r

j=1
Z
j
(n) = m
_
141
Ejemplo 7.3.4. El proceso AR(2) X
n
=
1
X
n1
+
2
X
n2
+ Z
n
, n = 2, 3, no es de
Markov
Ejemplo 7.3.5. Un proceso MA(1) X
n
= Z
n
+Z
n1
no es de Markov.
Ejemplo 7.3.6. Si para t
1
< t
2
se cumple que X
t2
X
t1
es independiente de X
t
para t t
1
entonces X
t
es de Markov pues
P
_
X
tn
x
n
[ X
t1
, , X
tn1
_
= P
_
X
tn
X
tn1
x
n
x
n1
[ X
t1
, , X
tn1
_
= P
_
X
tn
X
tn1
x
n
x
n1
[ X
tn1
= x
n1
_
= P
_
X
tn
x
n
[ X
tn1
= x
n1
_
1. N
t
, t 0 Poisson cumple N
t2
N
t1
es independiente de N
t
N
0
= N
t
, t t
1
luego
el proceso Poisson es Markov.
2. W
t
, t 0 proceso de Wiener cumple W
t2
W
t1
es independiente de W
t
W
0
= W
t
, t
t
1
luego el proceso de Wiener es de Markov.
Ejemplo 7.3.7. X
t
=
t
_
0
g(s) dW
s
cumple
X
t2
X
t1
=
_
t2
t1
g(s) dW
s
es independiente de X
t
X
0
= X
t
porque es Gaussiano y Cov
_
X
t2
X
t1
, X
t
X
0
_
= 0
luego X
t
es de Markov
7.4. Procesos de Difusi on.
Sea X = X
t
: t 0 un proceso de Markov con trayectorias continuas, denido en R y sea
F(y , t
2
[ x , t
1
) la funci on de probabilidad de transici on dada por
F(t , x ; s , y) = P
_
X
s
y [ X
t
= x
_
s > t
y fdp de transici on
f(t , x ; s , y) =
F
y
(t , x ; s , y)
De las propiedades de Markov se tiene
F(t
1
, x ; t
2
, y) =
_
R
F(t , z ; t
2
, y) f(t
1
, x ; t , z) dz t (t
1
, t
2
)
esta se denomina la ecuaci on de Chapman-Kolmogorov.
Existen funciones a(t, x) , b(t, x) tales que
142
1. P
_
[ X
t+h
X
t
[ > [ X
t
= x
_
= o(h) , h 0 , > 0
2. E
_
X
t+h
X
t
[ X
t
= x
_
= a(t, x)h +o(h) , h 0
3. E
_
_
X
t+h
X
t
_
2
[ X
t
= x
_
= b(t, x)h + o(h) , h 0
4.
f
x
,

2
f
x
2
existen y son continuas.
Denici on 7.4.1. Un proceso X de Markov, continuo, de valores reales que satisfaga las condi-
ciones anteriores se denomina un proceso de Difusi on. La funci on a(t, x) se denomina la media
innitesimal y b(t, x) la varianza innitesimal.
Proposici on 7.4.1. Sea X un proceso de difusi on tal que la fdp f(t , x ; s , y) tiene derivadas
f
t
,
f
x
,

2
f
x
2
continuas, entonces f(t , x ; s , y) satisface la ecuaci on diferencial parcial
siguiente,
f
t
+ a(t, x)
f
x
+
b(t, x)
2

2
f
x
2
= 0
denominada ecuaci on retrospectiva.
Proposici on 7.4.2. Sea X un proceso de difusi on con funciones a(t, x) , b(t, x) tal que la fdp de
transici on f(t , x ; s , y) s > t, satisface que
f
s

y
_
a(s, y) f(t , x ; s , y)


2
y
2
_
b(s, t) f(t , x ; s , y)

existen y son continuas. Entonces f(t , x ; s , y) satisface la ecuaci on diferencial parcial


f
s
=
1
2

2
y
2
_
b(s, y) f


y
_
a(s, y) f

para t < s , y R denominada ecuaci on prospectiva [ Ecuaci on de Fokker-Planck ]


Ejemplo 7.4.1. Proceso de Wiener.
Colocando a(t, x) = 0 , b(t, x) =
2
> 0 la ecuaci on retrospectiva es
f
t
=

2
2

2
f
x
2
Una soluci on de esta ecuaci on es
f(y , s ; x , t) =
1

_
2(s t)
e

(yx)
2
2(st)
2
y R
para s > t. Pero si W es el proceso de Wiener entonces, con s > t
F(y , s ; x , t) = P
_
W
s
y [ W
t
= x
_
= P
_
(W
s
W
t
) y x [ W
t
= x
_
143
=
_
y x

s t
_
lo cual equivale a
f(y , s ; x , t) =
1

_
2(s t)
e

(yx)
2
2(st)
2
Igualmente la funci on f satisface la ecuaci on prospectiva
f
s
=

2
2

2
f
y
2
Luego, el proceso de Wiener es un proceso de difusi on.
Ejemplo 7.4.2. Proceso de Wiener con tendencia.
En este caso a(t, x) = m , b(t, x) =
2
.
La ecuaci on prospectiva es
f
s
=

2
2

2
f
y
2
m
f
y
Dena el proceso D
t
por D
t
= W
t
+ mt entonces su fda de transici on es s > t
F(t , x ; s , y) = P
_
D
s
y [ D
t
= x
_
= P
_
W
s
+ms y [ W
t
+mt = x
_
= P
_
(W
s
W
t
) +m(s t) y x [ W
t
= x mt
_
= P
_
W
s
W
t
=
y x m(s t)

_
=
_
y x m(s t)

s t
_
pero
f(y , s ; x , t) =
1

2h
e

(yxmh)
2
2
2
h con h = s t
satisface la ecuaci on prospectiva.
Nota 7.4.1. Si X es homog eneo, es decir, si su fda de transici on F(y , s [ x , t) puede escribirse
como F(y , s t [ x), una funci on que depende de y , s t , x para s > t, entonces se cumple
que para h R
E
_
X
t+h
X
t
[ X
t
= x
_
=
_
R
(y x) f(y , h [ x) dy
= a(t, x) h + o(h) h 0
luego
lm
h0
1
h
E = a(x) = a(t, x)
igualmente b(t, x) = b(x) no depende de t.
144
Nota 7.4.2. Si el proceso es aditivo, es decir, dado X
t
= x el incremento X
s
X
t
depende de
t , s solamente entonces
F(y , s ; x , t) = P
_
X
s
X
t
y x [ X
t
= x
_
= F(y x , s [ t)
En este caso
E
_
X
t+h
X
t
[ X
t
= x
_
= a(t) h + o(h) a(t) h 0
donde a(t, x) = a(t).
Igualmente b(t, x) = b(t).
Con a(t, x) = x , b(t, x) =
2
la ecuaci on prospectiva para f(y , s [ x , t) es
f
s
=
1
2

2
y
2
_

2
f


y
_
y f

=

2
2

2
f
y
2
+

y
_
y f

1. f(y , s [ x , t) 0 si y
2. y
f
y
0 si y
7.4.1. Soluci on de la Ecuaci on Prospectiva
Considere la fc de U
t

_
, s [ x , t) =
_
R
e
iy
f(y , s [ x , t) dy
entonces de
f
s
=

2
2

2
f
y
2
+
[y f]
y
se tiene _
R
f
s
e
iy
dy =

s
_
( , s [ x , t)

por la condici on de frontera


f
y
e
iy

y=
y=
= 0
luego

2
2
_
R

2
f
y
2
e
iy
dy =

2
2
_
f
y
e
iy

y=
y=
i
_
R
f
y
e
iy
dy
_
=
i
2
2
_
e
iy

y=
y=
i
_
R
f e
iy
dy
_
145
=

2
2

y
_
R
e
iy
[y f]
y
dy = e
iy
y f

i
_
R
e
iy
y f dy
= 0
_
R

e
iy
f dy
=

luego la ecuaci on prospectiva transformada es

s
=

2
2

es decir

s
+

2
2

La soluci on de esta ecuaci on diferencial de primer orden es la funci on
(s , [ x , t) = exp
_
ixe
(st)

1
4

2
_
1 e
2(st)
__
lo cual equivale a que
F
_
y , s [ x , t) =
_
y xe
(st)

_
1 e
2(st)
_
es decir
U
s
[ U
t
= x N
_
xe
(st)
,

2
2
_
1 e
2(st)
_
_
Nota 7.4.3. Si U
t
= e
t
W
_

2
e
2t
_
, s > t , > 0 entonces
P
_
U
s
y [ U
t
= x
_
= P
_
e
s
W
_

2
e
2s
_
y [ e
t
W
_

2
e
2t
_
= x
_
= P
_
W
_

2
e
2s
_
ye
s
[ W
_

2
e
2t
_
= xe
t
_
= P
_
W

2
e
2s W

2
e
2t ye
s
xe
t
[ W

2
e
2t = xe
t
_
= P
_
N
_
0 ,
2
_
e
2s
e
2t
__
ye
s
xe
t
_
=
_
_
ye
s
xe
t

_
e
2s
e
2t
_1
2
_
_
=
_
_
y xe
(st)

_
1 e
2(st)
_1
2
_
_
146
7.4.2. Proceso Ornstein-Uhlenbeck.
Considere un proceso U, Markov continuo, tal que su din amica innitesimal ( en el intervalo
(t, t + h) ) est e dado por U
t+h
U
t
= U
t
+ W
t+h
W
t
con > 0 y W es un proceso de
Wiener, independiente de U. Entonces
E
_
U
t+h
U
t
[ U
t
=
_
= E
_
U
t
+ W
t+h
W
t
[ U
t
=
_
= + E
_
W
t+h
W
t
_
= 0
Luego
lm
h0
E
_
U
t+h
U
t
[ U
t
=
_
h
=
V ar
_
U
t+h
U
t
[ U
t
=
_
= V ar
_
W
t+h
W
t
_
=
2
por tanto
lm
h0
V ar
_
U
t+h
U
t
[ U
t
=
_
h
=
2
P
_
[ U
s
U
t
[ > [ U
t
= x
_
= P
_
[ U
t
+W
s
W
t
[ > [ U
t
= x
_
= P
_
[ W
s
W
t
x [ >
_
= 1 P
_
[ W
s
W
t
x [
_
= 1 P
_
[ N(x ,
2
(s t)) [
_
= 1
_
P
_
N(x ,
2
(s t))
_
+P
_
N(x ,
2
(s t))
_
_
= 1
_

_
+x

s t
_
+ 1
_
+ x

s t
__
=
_
+x

s t
_

_
+x

s t
_
=
_ +x

st

n(s) ds
7.5. Problemas
1. Suponga un proceso X
t
, t 0, gaussiano estacionario con funci on de autocovarianza
R(h) = (1 + 2[h[)e
2|h|
, h R.
a) Si t
1
= 5, t
2
= 10, t
3
= 15 encuentre las correlaciones
1,2
,
2,3
,
1,3
.
147
b) Un proceso gaussiano es markoviano si y solo si se cumple que, para cualesquier
tiempos t
i
< t
j
< t
k
, entonces:
i,k
=
i,j

j,k
. Utilizando este resultado decida si el
proceso X
t
es markoviano. Sugerencia: note que si hay tres tiempos t
i
, t
j
, t
k
para los
cuales no se cumple esta identidad entonces el proceso X
t
no puede ser markoviano.
2. Si (X
n
, n = 0, 1, . . .) es una cadena de Markov con espacio de estados E = 0, 1, 2 y la
distribuci onde X
0
est a dada por el vector (1/4, 1/2, 1/4) y la matriz de transici on est a dada
por:
P =
_

_
1/4 3/4 0
1/3 1/3 1/3
0 1/4 3/4
_

_
a) Calcule P(X
0
= 0, X
1
= 1, X
2
= 1).
b) Muestre que P(X
1
= 1, X
2
= 1[X 0 = 0) = P
01
P
11
.
c) Calcule P
(2)
01
. Interprete el resultado.
3. Determine la matriz de transici on P de las siguientes cadenas de Markov.
a) N bolas negras y N bolas blancas se distribuyen aleatoriamente en dos urnas tal que
cada urna contiene N bolas. En cada paso se selecciona una bola al azar en cada urna
y ambas bolas se intercambian de urna. El estado del sistema en el tiempo n se dene
como el n umero de bolas blancas en la urna n umero uno.
b)
7.6. Soluciones
148
CAP

ITULO 8
C alculo de Ito.
8.1. Deniciones
Denici on 8.1.1. Supongamos un proceso de Wiener (W
t
, t 0).
Un proceso (Y
t
, t 0) se dice adaptado a (W
t
, t 0) si se cumple que
(Y
t
) (W
s
, 0 s t)
para cada t 0.
Ejemplo 8.1.1. Y
t
= Wt
4
est a adaptado ya que
(Wt
4
) (W
s
, 0 s t)
sin embargo Y
t
= W
2t
no est a adaptado pues
(W
2t
) , (W
s
, 0 s t)
UnprocesoY
t
adaptadoa (W
t
, t 0) tiene la propiedadde que Y
t
es independiente de W
t+h
W
t
,
para h > 0 , t > 0 ya que W
t+h
W
t
es independiente de W
s
, 0 s t y por tanto, como
(Y
t
) (W
s
, 0 s t)
149
150
cualquier evento de Y
t
es independiente de cualquier evento de W
t+h
W
t
.
Suponga que Y
t
est a adaptado a (W
t
, t 0) y que adem as se cumple
_
t
0
E
_
Y
2
s
_
ds < t 0
Conociendo (W
s
, 0 s t) se sabe si ocurre o n o cualquier evento de Y
t
.
El objetivo es denir la integral de Ito de Y
t
,
_
t
0
Y
s
dW
s
. No se trata de denir esta integral para
cualquier proceso Y
t
, por ejemplo, para Y
t
Gaussiano continuo en media cuadr atica, sino s olo
para procesos adaptados al proceso Wiener. Note que si Y
s
se reemplaza por una funci on de s por
ejemplo y(s), la integral
_
t
0
y(s) dW
s
ya se deni o en el captulo anterior, asumiendo que y(s)
es derivable y la derivada es continua. N otese sin embargo que este caso, queda includo en esta
denici on porque una funci on es un proceso adaptado ya que se cumple siempre que:

_
Y (t)
_
= , (W
s
, 0 s t).
La denici on se hace primero para procesos simples, que son procesos esto asticos similares a las
funciones escalonadas, y luego se hace para procesos adaptados en general.
Denici on 8.1.2. Un proceso (Y
t
, t [a, b]) , 0 a b se dice simple si existe una partici on
del intervalo [a, b] , a = t
0
< t
1
< t
2
< < t
n1
< t
n
= b y n variables aleatorias
Y
0
, Y
1
, , Y
n1
que cumplan
E
_
Y
2
j
_
< y (Y
j
) (W
s
, 0 s t
j
) j = 0,
y
Y
t
=
n1

j=0
Y
j
I(t
j
t t
j+1
) t [a, b]
Note que si t [t
j
, t
j+1
] entonces Y
t
= Y
j
y como
(Y
j
) (W
s
, 0 s t
j
) (W
s
, 0 s t) j
entonces
(Y
t
) (W
s
, 0 s t)
y el proceso es adaptado.
Adem as
_
b
a
E
_
Y
2
t
_
dt =
_
b
a
n1

j=0
E
_
Y
2
j
_
I
_
t
j
t t
j+1
_
dt =
n1

j=0
E
_
Y
2
j
_
(t
j+1
t
j
) <
151
Denici on 8.1.3. La integral de Ito del proceso simple Y
t
entre a y b se dene como
_
b
a
Y
t
dW
t
=
n1

j=0
Y
j
(W
tj+1
W
tj
)
N otese que al proceder a integrar se obtiene el resultado de la denici on.
_
b
a
Y
t
dW
t
=
n1

j=0
Y
j
_
b
a
I(t
j
t t
j+1
) dW
t
=
n1

j=0
Y
j
_
tj+1
tj
dW
t
=
n1

j=0
Y
j
(W
tj+1
W
tj
)
Ejemplo 8.1.2. Si a =
1
4
, b = 1 , n = 2 y t
0
=
1
4
, t
1
=
1
2
, t
2
= 1, Y
0
= W
2
1
4
, Y
1
= 2W
2
1
2
.
Entonces
_
b
a
Y
t
dW
t
=
n1

j=0
Y
j
(W
tj+1
W
tj
= W
2
1
4
(W1
2
W1
4
) + 2W
2
1
2
(W
1
W1
2
)
Propiedades de la Integral de Ito en el caso de Procesos Simples
Para X
t
y Y
t
procesos simples, se cumple lo siguiente:
1. a < c < b ,
b
_
a
Y
t
dW
t
=
c
_
a
Y
t
dW
t
+
b
_
c
Y
t
dW
t
2.
b
_
a
_
c
1
Y
t
+ c
2
X
t
_
dW
t
= c
1
b
_
a
Y
t
dW
t
+ c
2
b
_
a
X
t
dW
t
3. E
_ b
_
a
Y
s
dW
s
_
= 0
Demostraci on. Como
E
_
_
b
a
Y
s
dW
s
_
=
n1

j=0
E
_
Y
j
(W
tj+1
W
tj
)
_
pero (Y
j
) (W
s
, 0 s t
j
) y W
tj+1
W
tj
es independiente de W
s
, s t
j
luego Y
j
es independiente de W
tj+1
W
tj
y como E(W
tj+1
W
tj
) = 0 se cumple
E
_
b
_
a
Y
s
dW
s
_
= 0
152
4. E
__ b
_
a
Y
s
dW
s
_
2
_
=
b
_
a
E
_
Y
2
s
_
ds
Demostraci on. Si llamamos W
tj
= W
tj+1
W
tj
y W
tk
= W
tk+1
W
tk
entonces
E
_
Y
j
Y
k
W
tj
W
tk
_
= E
_
E
_
Y
j
Y
k
W
tj
W
tk
[ Y
j
Y
k
W
tj
_
_
= E
_
Y
j
Y
k
W
tj
E
_
W
tk
__
= 0
y por tanto
E
__
_
b
a
Y
s
dW
s
_
2
_
= E
_
n1

j=0
Y
2
j
(W
tj+1
W
tj
)
2
+ 2
n1

j=0
n1

k=j+1
Y
j
Y
k
W
tj
W
tu
_
=
n1

j=0
E
_
Y
2
j
_
(t
j+1
t
j
) + 2
n1

j=0
n1

k=j+1
E
_
Y
j
Y
k
W
tj
DeltaW
tk
_
=
n1

j=0
E
_
Y
2
j
_
(t
j+1
t
j
)
pero
E
_
Y
2
s
_
= E
__
n1

j=0
Y
j
I(t
j
s t
j+1
)
_
2
_
=
n1

j=0
E
_
Y
2
j
_
I(t
j
s t
j+1
)
y
_
b
a
E
_
Y
2
j
_
ds =
n1

j=0
E
_
Y
2
j
_
_
b
a
I(t
j
s t
j+1
) ds
=
n1

j=0
E
_
Y
2
j
_
(t
j+1
t
j
)
y por tanto
E
__
_
b
a
Y
s
dW
s
_
2
_
=
_
b
a
E
_
Y
2
s
_
ds = V ar
_
_
b
a
Y
s
dW
s
_
5. Para 0 < s , t , Y
t
, G
t
procesos adaptados simples
E
_
_
t
0
Y
u
dW
u
_
s
0
G
u
dW
u
_
=
_
st
0
E
_
Y
u
G
u
_
du
153
Denici on8.1.4. Si (Y
t
, t 0) es unprocesoadaptadoa(W
t
, t 0) que cumple
t
_
0
E
_
Y
2
s
_
ds <
para t > 0, entonces existe una sucesi on de procesos simples
(Y
(n)
s
, n = 1, 2, ), denidos ens [0, t] adaptados a(W
t
, t 0) que cumplen
t
_
0
E
_
(Y
(n)
s
)
2
_
ds <
tales que
1.
t
_
0
| Y
(n)
s
Y
s
| ds 0 cuando n
2. Las variables Y
n, t
=
t
_
0
Y
(n)
s
dW
s
convergen en media cuadr atica a una variable eleatoria
X
t
.
El proceso X
t
se denomina la integral de Ito de Y en [0, t]
X
t
=
_
t
0
Y
s
dW
s
Para este caso general se puede comprobar que se cumplen las mismas propiedades que las que
se cumplen cuando Y
s
es simple. Adem as
1. M > 0 , P
_

t
_
0
Y
s
dW
s

C
_

M
C
2
+ P
_
t
_
0
Y
2
s
ds > M
_
2. X
t
=
t
_
0
Y
s
dW
s
es una variable cuya informaci on est a contenida en (W
s
, 0 s t).
3. X
t
=
t
_
0
Y
s
dW
s
es continua con probabilidad uno.
Denici on 8.1.5 (Diferencial Estoc astico ). Suponga que a
t
, b
t
son procesos adaptados a
(W
t
, t 0) que cumplen
_
T
0
E
_
b
2
s
_
ds < ,
_
T
0
E
_
a
2
s
_
ds < , T > 0
y suponga que el proceso Y
t
satisface la relaci on
Y
t
= Y
0
+
_
t
0
a
s
ds +
_
t
0
b
s
dW
s
0 t T
entonces se dice que Y
t
tiene un diferencial estoc astico en [0, T] dado por
dY
t
= a
t
dt +b
t
dW
t
154
Note que si
_
t
0
E
_
a
2
s
_
ds < entonces
_
t
0
E
_
[ a
s
[
_
ds
1
2
_
t
0
E
_
a
2
s
+ 1
_
ds < .
El diferencial estoc astico signica la relaci on
Y
t
= Y
0
+
_
t
0
a
s
ds +
_
t
0
b
s
dW
s
0 t T
pero tambi en se podra pensar que es equivalente a
Y

t
= a
t
+ b
t
W

t
donde W

t
es el ruido blanco continuo denido en (??), pag. ??. El problema radica en que W

t
no
existe como proceso estoc astico ya que W
t
no es derivable en media cuadr atica. En algunos textos
se usa esta expresi on pero haciendo la aclaraci on de que es una forma equivalente de escribir el
diferencial estoc astico.
La ventaja del C alculo de Ito sobre el c alculo en media cuadr atica es que las reglas de la cadena y
el producto est an denidas en el primero cuando se involucran derivadas de ruidos blancos Wiener
y Poisson, mientras que en el segundo no.
El c alculo de Ito permite resolver ecuaciones diferenciales estoc asticas de la forma dX
t
=
a(t, X
t
) dt +b(t, X
t
) dW
t
, X
0
dado, donde a(t, x) y b(t, x) son funciones reales conocidas que
deben cumplir algunas condiciones t ecnicas para garantizar la existencia de la soluci on X
t
.
Reglas para el manejo de Diferenciales Estoc asticos.
1. Si W
(1)
t
, W
(2)
t
son procesos Wiener independientes ( correlacionados ) entonces se asumen
como dadas las siguientes reglas para el producto de diferenciales.
a) dt dt = 0
b) dt dW
t
= 0
c) dW
t
dW
t
= dt
d) dW
(1)
t
dW
(2)
t
= 0 (= dt)
2. Los diferenciales son operadores lineales
dX
t
= a
t
dt + b
t
dW
t
dY
t
= h
t
dt + g
t
dW
t
entonces Z
t
= X
t
+Y
t
tiene por diferencial
dZ
t
= dX
t
+dY
t
=
_
a
t
+ h
t
_
dt +
_
b
t
+ g
t
_
dW
t
155
3. Regla del Producto. Para la regla del diferencial de un producto se toma en cuenta la regla
para multiplicaci on de diferenciales dt y dW
t
. La regla es
d
_
X
t
Y
t
_
= dX
t
Y
t
+ X
t
dY
t
+ b
t
g
t
dt
luego
d
_
X
t
Y
t
_
=
_
a
t
dt +b
t
dW
t
_
Y
t
+ X
t
_
h
t
dt +g
t
dW
t
_
+ b
t
g
t
dt
=
_
a
t
Y
t
+ h
t
X
t
_
dt +
_
b
t
Y
t
+g
t
X
t
_
dW
t
+ b
t
g
t
dt
=
_
a
t
Y
t
+ h
t
X
t
+ b
t
g
t
_
dt +
_
b
t
Y
t
+ g
t
X
t
_
dW
t
Ejercicio 8.1.1. Si dX
t
= a
t
dt +b
t
dW
(1)
t
y dY
t
= h
t
dt +g
t
dW
(2)
t
con dW
(1)
t
dW
(2)
t
=
dt, encuentre d(X
t
Y
t
).
4. d
_
W
t
_
n
= n
_
W
t
_
n1
dW
t
+
n(n1)
2
_
W
t
_
n2
dt , n 2
Ejemplo 8.1.3. dW
2
t
= 2W
t
dW
t
+dt entonces
_
t
0
W
s
dW
s
=
1
2
_
_
t
0
dW
2
s

_
t
0
ds
_
=
1
2
_
W
2
t
t
_
=
W
2
t
2

t
2
Para comparar este resultado con el c alculo integral suponga que f(x) es una funci on real
derivable, con f(0) = 0. Entonces
_
t
0
f(x) df(x) =
_
t
0
f(x) f

(x) dx =
1
2
_
t
0
d
dx
_
f
2
(x)

dx =
f
2
(x)
2
5. Si P(x) es un polinomio en x entonces
dP(W
t
) = P

_
W
t
_
dW
t
+
1
2
P

_
W
t
_
dt
Ejemplo 8.1.4. d
_
3W
3
t
2W
t
_
=
_
9W
2
t
2
_
dW
t
+ 9dt
6. Si f(x) tiene segunda derivada
df
_
W
t
_
= f

_
W
t
_
dW
t
+
1
2
f

_
W
t
_
dt
Ejemplo 8.1.5. d
_
e
Wt

= e
Wt
dW
t
+

2
2
e
Wt
dt
7. Lema de Ito.[ Regla de la Cadena ]
Si F(t , x) es una funci on real de (t , x) para t 0 , x R con derivadas parciales
F
t
,
F
x
,

2
F
x
2
, son continuas entonces el proceso Z
t
= F(t , x) tiene diferencial
estoc astico
dZ
t
=
_
F
t
+a
t
F
x
+
b
2
t
2

2
F
x
2
_
dt +b
t
F
x
dW
t
156
donde las derivadas parciales est an evaluadas en (t , X
t
) y X
t
tiene diferencial
dX
t
= a
t
dt + b
t
dW
t
La f ormula de Ito se utilizar a entre otras cosas, para encontrar la soluci on de ecuaciones
diferenciales estoc asticas lineales de primer orden.
Denici on 8.1.6. Suponga que a
t
,
t
, b
t
,
t
son funciones denidas en [0, T] y X
t
es un
proceso adaptado a (W
t
, t 0), que cumple
1.
T
_
0
E
_
(a
t
+
t
X
t
)
2
_
dt <
2.
T
_
0
E
_
(b
t
+
t
X
t
)
2
_
dt <
X
t
se dice que es soluci on de la ecuaci on diferencial estoc astica lineal
dX
t
=
_
a
t
+
t
X
t
_
dt +
_
b
t
+
t
X
t
_
dW
t
(8.1)
si para 0 t T se cumple
X
t
= X
0
+
_
t
0
_
a
s
+
s
X
s
_
ds +
_
t
0
_
b
s
+
s
X
s
_
dW
s
Dos casos de inter es de la ecuaci on (8.1) son:
1. Aut onoma. Si
t
=
t
= 0.
2. Homog enea. Si a
t
= b
t
= 0.
8.2. Soluci on de la Ecuaci on Lineal.
Para deducir la soluci on de la ecuaci on diferencial estoc astica lineal
dX
t
=
_
a
t
+
t
X
t
_
dt +
_
b
t
+
t
X
t
_
dW
t
se procede en dos pasos:
1. Primer paso.
Denamos el proceso auxiliar
Y
t
= exp
_

_
t
0
_


2
s
2
_
ds
_
t
0

s
dW
s
_
157
= exp
_
G
t
_
donde
dG
t
=
_


2
t
2
_
dt
t
dW
t
por Lema de Ito con
F(t , x) = e
x
, F
t
= 0 , F
x
= e
x
, F
xx
= e
x
entonces
dY
t
=
_
F
t


2
t
2
_
F
x
+

2
t
2
F
xx
_
dt
t
F
x
dW
t
pero
F
x
= F
xx
= e
Zt
= Y
t
luego
dY
t
=
_


2
t
2
_
Y
t
+

2
t
2
Y
t
_
dt
t
Y
t
dW
t
=
_

t
+
2
t
_
Y
t
dt
t
Y
t
dW
t
2. Segundo paso.
Se dene el proceso Z
t
= Y
t
X
t
luego, aplicando la regla para diferenciales de productos,
con
dX
t
=
_
a
t
+
t
X
t
_
dt +
_
b
t
+
t
X
t
_
dW
t
dY
t
=
_

t
+
2
t
_
Y
t
dt
t
Y
t
dW
t
d
_
X
t
Y
t
_
= X
t
dY
t
+Y
t
dX
t
+
_
b
t
+
t
X
t
__

t
Y
t
_
dt
reemplazando y simplicando
dZ
t
=
_
a
t
b
t

t
_
Y
t
dt +b
t
Y
t
dW
t
luego, Z
t
= Z
0
+
_
t
0
_
a
s
b
s

s
_
Y
s
ds +
_
t
0
b
s
Y
s
dW
s
de donde, X
t
= Y
1
t
Z
t
Z
0
= X
0
es la soluci on de la ecuaci on diferencial estoc astica lineal.
Ejemplo 8.2.1. Soluci on de la ecuaci on diferencial estoc astica homog enea o sea cuando a
t
=
b
t
= 0 en donde
dX
t
=
t
X
t
dt +
t
X
t
dW
t
t 0
con
t
,
t
funciones.
158
1. Primer paso.
Y
t
= exp
_

_
t
0
_


2
s
2
_
ds
_
t
0

s
dW
s
_
2. Segundo paso. Como X
t
= Y
1
t
Z
t
con Z
t
= X
0
+ 0 = X
0
entonces
X
t
= X
0
exp
_

_
t
0
_


2
s
2
_
ds
_
t
0

s
dW
s
_
= X
0
e
t
.
El exponente

t
=
_
t
0
_


2
s
2
_
ds +
_
t
0

s
dW
s
es un proceso Gaussiano ya que
t
_
0

s
dW
s
es Gaussiano y
t
N
_

(t) ,
2

(t)
_
, con

(t) =
_
t
0
_


2
s
2
_
ds,

(t) = V ar
_
_
t
0

s
dW
s
_
=
_
t
0

2
s
ds,
Cov

(s , t) =
_
st
0

2
u
du.
Adem as, suponiendo P
_
X
0
= k
_
= 1 con k > 0 el proceso
X
t
= ke
(t)+
t
_
0
s dWs
es positivo (con probabilidad uno). Luego, si t > s > 0 y x, y > 0 tenemos
P
_
X
t
x [ X
s
= y
_
= P
_
X
t
X
s

x
y

X
s
= y
_
= P
_
e
(t)(s)+
t
_
s
u dWu

x
y

(s) +
_
s
0

u
dW
u
= ln
_
y
k
_
_
pero
t
_
s

u
dW
u
y
s
_
0

u
dW
u
son independientes ya que E
_ s
_
0

u
dW
u
t
_
s

u
dW
u
_
= 0 y ambos
son Gaussianos de media cero, luego
= P
_
exp
_

(t)

(s) +
t
_
s

u
dW
u
_

x
y
_
= P
__
t
s

u
dW
u
ln
_
x
y
_

(t)

(s)
_
_
159
y como
t
_
s

u
dW
u
N
_
0 ,
_
t
s

2
u
du
_
tenemos
P
_
X
t
x [ X
s
= y
_
=
_
_
ln
_
x
y
_

_
t
s
_


2
v
2
_
dv
_
_
t
s

2
u
du
_
_
Ejemplo 8.2.2. Soluci on de la ecuaci on diferencial estoc astica aut onoma, es decir cuando
t
=

t
= 0 en cuyo caso
dX
t
= a
t
dt + b
t
dW
t
t 0
La soluci on viene dada por
Y
t
= exp
_

_
t
0
0ds
_
t
0
0 dW
s
_
= 1
X
t
= Y
1
t
Z
t
= Z
t
Z
t
= X
0
+
_
t
0
a
s
Y
s
ds +
_
t
0
b
s
Y
s
dW
s
= X
0
+
_
t
0
a
s
ds +
_
t
0
b
s
dW
s
= X
t
que es un proceso Gaussiano si se toma X
0
N
_

0
,
2
0
_
independiente de W
t
, t 0 y X
t
tiene incrementos independientes distribudos normales ya que si 0 < s < t
X
t
X
s
=
_
t
s
a
u
du +
_
t
s
b
u
dW
u
y
E
_
X
t
X
s
_
=
_
t
s
a
u
du
V ar
_
X
t
X
s
_
=
_
t
s
b
2
u
du
X
t
X
s
N
__
t
s
a
u
du ,
_
t
s
b
2
u
du
_
8.3. Propiedades de las soluciones de las EDE Lineales
Consideremos la EDE Lineal (8.1)
dX
t
=
_
a
t
+
t
X
t
_
dt +
_
b
t
+
t
X
t
_
dW
t
t 0 X
0
= C (8.2)
donde a
t
,
t
, b
t
,
t
son funciones continuas y acotadas en [0, T]. ( m as general, medibles y
acotadas ) y Ces una v. a. independiente de W
t
W
0
, t 0.
160
Para el an alisis de (8.1) consideramos dos casos: i)
t
= 0 y ii)
t
,= 0. En el caso ii) la soluci on no
es en general un proceso gaussiano y las distribuciones de las soluciones son difciles o imposibles
de encontrar.
Caso
t
= 0 , t 0 . La ecuaci on (8.1) queda de la forma
dX
t
=
_
a
t
+
t
X
t
_
dt +b
t
dW
t
, X
0
= C, t 0, (8.3)
y su soluci on est a dada por
X
t
= e
_
t
0
sds
_
C +
_
t
0
_
e

_
s
0
vdv
_
a
s
ds +
_
t
0
_
e

_
s
0
vdv
_
b
s
dW
s
_
. (8.4)
N otese que la ecuaci on (8.3) puede escribirse como una ecuaci on diferencial lineal ordinaria de
la forma X

t
= a
t
+
t
X
t
+ b
t
W

t
, considerando derivadas en lugar de diferenciales y colocando
el smbolo W

t
en lugar del cociente dW
t
/dt. Procediendo como si se tratara de una ecuaci on
diferencial ordinaria se obtiene la soluci on
X
t
= e
_
t
0
sds
_
C +
_
t
0
_
e

_
s
0
vdv
_
_
a
s
+b
s
W

s
_
ds
_
.
Podemos observar que, al reemplazar en la expresi on anterior W

s
ds por dW
s
, se obtiene la
soluci on (8.4).
Proposici on 8.3.1. Sea X
t
la soluci on (8.4) de la ecuaci on (8.3), asumiendo E
_
C
2
_
< .
Entonces, colocando Y
t
= exp(
_
t
0

s
ds), se tiene
1) E(X
t
) = Y
1
t
_
E(C) +
_
t
0
Y
s
a
s
ds
_
.
2) Cov(X
s
, X
t
) = Y
1
s
Y
1
t
_
V ar(C) +
_
st
0
Y
2
u
b
2
u
du
_
.
3) V ar(X
t
) = Y
2
t
_
V ar(C) +
_
t
0
Y
2
u
b
2
u
du
_
.
Demostraci on. Solamente se demuestra la parte 2). La parte 1) es directa y 3) es consecuencia
inmediata de 2). Tenemos
Cov(X
s
, X
t
) = E(X
s
E(X
s
))(X
t
E(X
t
))
pero X
t
E
_
X
t
_
= Y
1
t
_
C E
_
C
_
+
_
t
0
Y
v
b
v
dW
v
_
, luego
Cov
_
X
s
, X
t
_
= E
_
Y
1
s
_
C E
_
C
_
+
_
s
0
Y
u
b
u
dW
u
_
Y
1
t
_
C E
_
C
_
+
_
t
0
Y
v
b
v
dW
v
__
= Y
1
s
Y
1
t
_
E
_
C E
_
C
__
2
+ E
_
_
s
0
Y
u
b
u
dW
u
_
t
0
Y
v
b
v
dW
v
_
_
161
= Y
1
s
Y
1
t
_
V ar
_
C
_
+
_
st
0
Y
2
u
b
2
u
du
_
,
donde se ha utilizado la independencia entre C y
t
_
0
Y
u
b
u
dW
u
para simplicar las ultimas expre-
siones.
Ejercicio 8.3.1. 1. Dena m(t) = E(X
t
) en (8.3.1.1). Compruebe que m(t) es soluci on de
la ecuaci on diferencial ordinaria
m

(t) =
t
m(t) + a
t
, t 0, m(0) = E(C).
2. Dena v(t) = V ar
_
X
t
_
en (8.3.1.3). Compruebe que v(t) es soluci on de la ecuaci on
diferencial ordinaria
v

(t) = 2
t
v(t) +b
2
t
, t 0, v(0) > 0, dado,
y por tanto
v(t) = e
2
t
_
0
sds
_
v(0) +
_
t
0
e
2
s
_
0
d
b
2
s
ds
_
.
Enla demostraci onde (8.3) se obtuvola expresi onX
t
= Y
1
t
C+Y
1
t
_
t
0
Y
s
a
s
ds+Y
1
t
_
t
0
Y
s
b
s
dW
s
.
Como C es independiente de
t
_
0
Y
1
s
b
s
dW
s
se puede conclur que si C se distribuye Normal en-
tonces X
t
es un proceso Gaussiano ya que Y
1
t
t
_
0
Y
s
b
s
dW
s
es Gaussiano.
Proposici on 8.3.2. La variable aleatoria C se distribuye Normal si y solo si X
t
es un proceso
Gaussiano. Adem as, X
t
tiene incrementos independientes si y solo si C es constante.
Demostraci on. La ultima parte es cierta debido a que
t
_
0
Y
1
s
b
s
dW
s
tiene incrementos indepen-
dientes.
Corolario 8.3.0.1. Si C es constante entonces X
t
es Markov.
Ejemplo 8.3.1. Si dX
t
= (2 + 0.1X
t
) dt + 2dW
t
donde t 0 , X
0
= 1 , entonces el proceso
soluci on X
t
es Gaussiano y Markov.
Un caso en el cual la soluci onde la EDE Lineal es estacionaria en covarianza y Gaussiana est a dada
por
162
Proposici on 8.3.3. Sea X
t
la soluci on de la ecuaci on
dX
t
= (a X
t
) dt +dW
t
t 0 , X
0
= C,
con las condiciones
1. > 0,
2. C N
_
a

,

2
2
_
, independiente de
_
W
t
, t 0
_
,
entonces
_
X
t
, t 0
_
es Gaussiano y estacionario en covarianza.
Demostraci on. Aplicado la f ormula (8.4) obtenemos
X
t
= Ce
t
+
a

_
1 e
t
_
+e
t
_
t
0
e
s
dW
s
, t 0.
Y aplicando las f ormulas de (8.3.1) obtenemos
E
_
X
t
_
= E
_
C
_
e
t
+
a

_
1 e
t
_
=
a

e
t
+
a

_
1 e
ut
_
=
a

,
Cov
_
X
s
, X
t
_
= Y
1
s
Y
1
t
_
V ar
_
C
_
+
_
st
0
Y
2
u
b
2
u
du
_
reemplazando Y
t
= e
t
_
0
ds
= e
t
y b
u
= obtenemos
Cov
_
X
s
, X
t
_
= e
(s+t)
_

2
2
+
2
_
st
0
e
2
d
_
pero
_
st
0
e
2
d =
1
2
_
e
2(st)
1
_
, por tanto
Cov
_
X
s
, X
t
_
= e
(s+t)
_

2
2
+

2
2
_
e
2(st)
1
__
=

2
2
e
(s+t2(st))
=

2
2
e
|ts|
,
luego V ar
_
X
t
_
=

2
2
.
N otese que de la expresi on para X
t
se concluye que es un proceso Gaussiano.
Nota 8.3.1. El siguiente resultado es util para simplicar algunas expresiones. Si f(t) es una
funci on continua y se dene el proceso X
t
=
t
_
0
f(s) dW
s
entonces X
t
= W
(t)
con (t) =
163
t
_
0
f
2
(s) ds. La justicaci on es inmediata ya que al ser X
t
y W
(t)
Gaussianos y tener la misma
media y la misma covarianza, deben ser id enticos. La igualdad de las covarianzas se puede
comprobar inmediatamente.
Cov
_
X
s
, X
t
_
=
_
st
0
f
2
(u) du.
Cov
_
W
(s)
, W
(t)
_
= mn
_
(s) , (t)
_
= mn
_
_
s
0
f
2
(u) du ,
_
t
0
f
2
(v) dv
_
=
_
st
0
f
2
(u) du,
de donde Cov
_
X
s
, X
t
_
= Cov
_
W
(s)
, W
(t)
_
.
Aplicando esta identidad a X
t
de la proposici on (8.3.3) anterior, el resultado se puede expresar
como X
t
= e
t
C +
a

_
1 e
t
_
+e
t
W
(t)
, con (t) =
1
2
_
e
2t
1
_
y f(t) = e
t
.
Ejemplo 8.3.2. (ver Schuss (1980) pag. 11, Arnold (1974) pag. 134, sec 8.3) La EDE Lineal
dX
t
= X
t
dt + dW
t
, t 0, > 0, > 0,
se denomina la ecuaci on de Langevin. Su soluci on es el proceso OU y es un modelo para cada
una de las componentes de la velocidad v
t
R
3
de una partcula en movimiento browniano.
El proceso X
t
, t 0, se puede utilizar como una aproximaci on m as aceptable, desde el punto
de vista fsico, del ruido blanco (ver Schuss (1980), pag. 11 ). De acuerdo con lo obtenido, la
soluci on unica de la ecuaci on de Langevin es
X
t
= e
t
_
C +
_
t
0
e
s
dW
s
_
, t 0.
Si X
0
N(0,
2
/(2)), entonces el proceso es estacionario y Gaussiano. Adem as, E
_
X
t
_
=
0, Cov
_
X
s
, X
t
_
=

2
2
e
|ts|
y V ar
_
X
t
_
=

2
2
. Luego X
t
es un proceso tipo Ornstein-
Uhlenbeck (OU) (ver pag. ??, denici on (??)). N otese que, adicionalmente se puede escribir
X
t
= e
at
W
(t)
con (t) =

2
2
e
2t
.
Caso
t
,= 0 , t 0 . Retomando la EDE Lineal general (8.1):
dX
t
=
_
a
t
+
t
X
t
_
dt +
_
b
t
+
t
X
t
_
dW
t
t [0, T] X
0
= C
con soluci on
X
t
= Y
1
t
_
C +
_
t
0
_
a
s
b
s

s
_
Y
s
ds +
_
t
0
b
s
Y
s
dW
s
_
donde
Y
t
= exp
_

_
t
0
_


2
s
2
_
ds
_
t
0

s
dW
s
_
164
Puede obtenerse un resultado en el caso homog eneo a
t
= b
t
= 0 , t 0, ya que la soluci on es de
la forma X
t
= CY
1
t
donde C es independiente de Y
1
t
.
Teorema 8.3.1. En el caso homog eneo la soluci on X
t
tiene momentos k- esimos de cualquier
orden E
_
X
k
t
_
, k = 1, 2, si y solo si C los tiene, y adem as
E
_
X
k
t
_
= E
_
C
k
_
E
_
Y
k
t
_
donde
Y
1
t
= exp
_
_
t
0
_


2
s
2
_
ds +
_
t
0

s
dW
s
_
= e
Zt
con
Z
t
N
_
_
t
0
_


2
s
2
_
ds ,
_
t
0

2
s
ds
_
Demostraci on. Como C es independiente de
t
_
0

s
dW
s
entonces C es independiente de Y
1
t
por
tanto
E
_
X
k
t
_
= E
_
C
k
Y
k
t
_
= E
_
C
k
_
E
_
Y
k
t
_
Como
E
_
Y
k
t
_
= E
_
e
kZt
_
= e
kZ(t)+
k
2

Z
(t)
2
siempre existe, se tiene que E
_
X
k
t
_
existe si y solo si E
_
C
k
_
existe.
8.4. Soluciones de las EDE como procesos de Markov
Una raz on por la cual las EDE son utiles es porque las soluciones son procesos Markovianos. La
propiedad de Markov es muy util, entre otras cosas porque si (X
t
, t
0
t T) es Markov y se
conoce la distribuci on de X
t0
es decir, se conoce F
0
(x) = P
_
X
t0
x
_
, y se conboce la funci on
de transici on para t
0
s t T se puede calcular la probabilidad
P
_
X
t1
x
1
, , X
tn
x
n
_
=
_
x1


_
xn

f
Xt
1
Xtn
(
1
, ,
n
) d
1
d
n
pero
f
Xt
1
Xtn
(
1
, ,
n
) = f
Xt
1
(
1
)f
Xt
2
_

2
[ X
t1
=
1
_
f
Xtn
_

n
[ X
tn1
=
n1
_
todas son conocidas excepto f
Xt
1
(
1
) luego
p
_
X
t1

1
, , X
tn

n
_
=
_
x1


_
xn

f
Xt
1
(
1
)f
Xt
2
_

2
[ X
t1
=
1
_
f
Xtn
_

n
[ X
tn1
=
n1
_
d
1
d
n
165
nalmente se puede reemplazar f
Xt
1
(
1
) por
_
R
f
Xt
1
_

1
[ X
t0
=
1
_
f
Xt
0
_

0
_
d
0
Como f
Xt
1
_

1
[ X
t0
=
1
_
y f
Xt
0
_

0
_
son conocidas entonces
p
_
X
t1
x
1
, , X
tn
x
n
_
=
_
R
_
x1


_
xn

f
Xtn
_

n
[ X
tn1
=
n1
_
f
Xt
1
_

1
[ X
t0
=
1
_
f
Xt
0
_

0
_
dX
donde
dX = d
n
d
n1
d
1
d
0
esta integral puede calcularse porque las densidades de transici on f
Xt
_
x [ X
s
= y
_
se asumen
conocidas, lo mismo que f
Xt
0
_

_
.
Consideremos la EDE
dX
t
= a
_
t , X
t
_
dt +b
_
t , X
t
_
dW
t
para 0 t T con X
0
= C donde C es una variable aleatoria arbitraria, independiente de
W
t
W
t0
, t 0.
Considere ahora la misma EDE pero en el intervalo [s, T] para 0 s T y con valor inicial
X
s
= x luego
dX
t
= a
_
t , X
t
_
dt +b
_
t , X
t
_
dW
t
s t T
con X
s
= x que es equivalente a
X
t
= x +
_
t
s
a
_
u , X
u
_
du +
_
t
s
b
_
u , X
u
_
dW
u
Con estas deniciones se plantea el siguiente resultado, que es importante.
Teorema 8.4.1. Si la EDE
dX
t
= a
_
t , X
t
_
dt +b
_
t , X
t
_
dW
t
satisface las condiciones de existencia y unicidad de soluciones, la soluci on X
t
es un proceso de
Markov en el intervalo [0, T], tal que su funci on de transici on est a dada por
P
_
X
t
y [ X
s
= x
_
= P
_
X
t
(s , x) y
_
t s
donde X
t
(s , x) es la soluci on unica de la EDE
dX
t
= a
_
t , X
t
_
dt +b
_
t , X
t
_
dW
t
s t T
en el intervalo [s, T], con condici on inicial X
s
= x.
166
Nota 8.4.1. Este resultado signica que la probabilidad condicional P
_
X
t
y [ X
s
= x
_
se puede calcular con la probabilidad no condicional P
_
X
t
(s , x) y
_
donde X
t
(s, x) es la
soluci on de
dX
t
= a
_
t , X
t
_
dt +b
_
t , X
t
_
dW
t
en el intervalo [s, T], con condici on inicial X
s
= x.
Adem as, la probabilidad de transici on no depende de la condici on inicial C.
Demostraci on. Considere (, T , p). Dena las siguientes informaciones:

_
C , W
s
, 0 s t
_
Informaci on generada por W
s
, s t y C.

_
W
s
W
t
, s t
_
Informaci on generada por W
s
W
t
, s t con t jo.

_
X
s
, 0 s t
_
Informaci on generada por X
s
, 0 s t
Vamos a comprobar que X
t
es Markov, es decir que
P
_
X
t
y [ X
u
, 0 u s
_
= P
_
X
t
y [ X
s
_
(con probabilidad uno) para 0 s t T.
Pero X
t
est a adaptado a W
u
, 0 u t, y a C en el sentido

_
X
t
_

_
C , W
u
, 0 u t
_
luego

_
X
u
, t
0
u t
_

_
C , W
u
, 0 u t
_
por tanto
P
_
X
t
y [ X
u
, 0 u s
_
= P
_
X
t
y [ C , W
u
, 0 u s
_
utilizando el resultado de que
E
_
X [ I
2
_
= E
_
E(X [ I
2
) [ I
1
_
= E
_
X [ I
1
_
donde I
1
I
2
y X = I
_
X
t
y
_
con
E
_
X
_
= P
_
X
t
y
_
I
1
=
_
X
u
, 0 u s
_
I
2
=
_
C , W
u
, 0 u s
_
Luego, lo que hay que probar es que
P
_
X
t
y [ C , W
u
, 0 u s
_
= P
_
X
t
y [ X
s
_
167
pero para probar que
P
_
X
t
y [ C , W
u
, 0 u s
_
= P
_
X
t
y [ X
s
_
es cierto, es suciente probar lo siguiente:
Para cada proceso
Z
x
: R
(x, ) Z
x
() = Z(x, w) R
que cumpla que para cada x R , Z
x
es independiente de
_
C , W
u
, 0 u s
_
se tenga los
siguiente:
E
_
Z
Xs
[ C , W
u
, 0 u s
_
= E
_
Z
Xs
[ X
s
_
= E
_
Z
Xs
_
Si X
t
(s, x) es la soluci on de
dX
t
= a
_
t, X
t
_
dt +b
_
t , X
t
_
dW
t
s t T
y se coloca Z
x
= I
_
X
t
(s , x) y
_
entonces esta variable es independiente de

_
C , W
u
, 0 u s
_
ya que X
t
(x , s) es la soluci on en [s, T] y
X
t
(s, x) = x +
_
t
s
a
_
u, X
u
_
du +
_
t
s
b
_
u, X
u
_
dW
u
est a adaptada a W
u
W
s
, u s y por tanto es independiente de
_
C , W
u
, 0 u s
_
.
Si denotamos X
t
la soluci on de
dX
t
= a
_
t, X
t
_
dt +b
_
t, X
t
_
dW
t
y escribimos X
t
= X
t
(0, C) pero entonces si s t T
X
t
= X
s
+
_
t
s
a
_
u, X
u
_
du +
_
t
s
b
_
u, X
u
_
dW
u
luego X
t
se puede escribir similar a X
t
(0, C) como X
t
= X
t
(s, X
s
) pero X
s
= X
s
(0, C) luego
X
t
= X
t
_
s, X
s
(0, C)
_
= X
t
_
s, X
s
_
s t T
De esta forma Z
Xs
= I
_
X
t
(s, X
s
) y
_
y la ecuaci on
E
_
Z
Xs
[ C , W
u
, 0 u s
_
= E
_
Z
Xs
[ X
s
_
= E
_
Z
Xs
_
que hay que demostrar es igual a
E
_
Z
Xs
[ C , W
u
, 0 u s
_
= E
_
I
_
X
t
(s, X
s
) y
_
[ C , W
u
, 0 u s
_
168
pero X
t
(s, X
s
) es independiente de
_
C , W
u
, 0 u s
_
luego se puede simplicar y tenemos
E
_
Z
Xs
[ C , W
u
, 0 u s
_
= E
_
Z
Xs
[ X
s
_
= p
_
X
t
(s , X
s
) y
_

Xs=x
= P
_
X
t
(s , x) y
_
= P
_
X
t
(s , X
s
) y [ X
u
, 0 u s
_
= P
_
X
t
(t
0
, C) y [ X
u
, 0 u s
_
Solamente falta demostrar la igualdad
E
_
Z
Xs
[ 0 , W
u
, 0 u s
_
= E
_
Z
Xs
[ X
s
_
Suponga que Z
x
es de la forma
Z
(n)
x
=
n

j=1
Y
j
(x)Z
j
Z
j
independiente de
_
C , W
u
, 0 u s
_
El conjunto de estas Z
(n)
x
es denso en el conjunto de todas las Z
x
.
Tenemos
E
_
Z
(n)
Xs
[ C , W
u
, 0 u s
_
=
n

j=1
Y
j
(X
s
) E
_
Z
j
_
= E
_
Z
(n)
Xs
[ X
s
_
Recordando la denici on de proceso de Markov homog eneo se tiene que si X
t
, t 0 es
homog eneo Markov entonces su funci on de transici on F
Xt
_
y [ X
s
= x
_
se puede escribir como
una funci on de x, y, t s donde 0 < s < t < T es decir
F
Xt
_
y [ X
s
= x
_
= F
_
x, y, t s
_
Recordar que la denici on de proceso homog eneo Markov es
F
Xt+h
_
y [ X
s+h
= x [ x
_
= F
Xt
_
y [ X
s
= x
_
para todo h > 0.
Como resumen de las propiedades de las soluciones de las EDE se tiene:
Teorema 8.4.2. (ver Jazwinski (1970), pag. 105, Teo 4.5 ) Si se satisfacen las condiciones de
existencia y unicidad de la ecuaci on
dX
t
= a
_
t , X
t
_
dt + b
_
t , W
t
_
dW
t
en el intervalo [t
0
, T], con X
t0
= C una variable aleatoria con E
_
X
2
t0
_
< , independiente de
W
t
, t t
0
entonces la soluci on X
t
tiene las siguientes propiedades.
169
1. X
t
es continua en media cuadr atica en [t
0
, T].
2. E
_
X
2
t
_
< para todo t [t
0
, T].
3.
T
_
t0
E
_
X
2
t
_
dt <
4. X
t
X
t0
es independiente de W

W
t
, t
0
< t < .
5. X
t
es de Markov con
p
_
X
t
y [ X
s
= x
_
= p
_
X
t
(x , s) y
_
t
0
< s < t < T
donde X
t
(x , s) es la soluci on de la ecuaci on en el intervalo [s, T], que cumple X
s
=
x , x R constante.
6. X
t
es la unica soluci on en media cuadr atica.
Como
P
_
X
t
y [ X
s
= x
_
= P
_
X
t
(x , s) y
_
t
0
< s < t < T
pero
X
t
(s , x) = Y
1
t
_
x +
_
t
s
_
a
u
b
u

u
_
Y
u
du +
_
t
s
b
u
Y
u
dW
u
_
con
Y
t
= exp
_

_
t
s
_
u
v


2
v
2
_
dv
_
t
s

v
dW
v
_
En el caso en el cual
t
= 0 y X
s
= x, constante, entonces
X
t
(s , x) = e

_
t
s
uvdv
_
x +
_
t
s
e
_
u
s
ur dr
a
u
du +
_
t
s
b
u
e
_
u
s
ur dr
dW
u
_
Normal
luego
P
_
X
t
y [ X
s
= x
_
=
_
_
y E
_
X
t
(s , x)
_
_
V ar
_
X
t
(s , x
_
_
_
con
E
_
X
t
(s , x)
_
= e

_
t
s
uv dv
_
x +
_
t
s
e
_
u
s
urdr
a
u
du
_
V ar
_
X
t
(s , x)
_
= e
s
_
t
s
uv dv
_
t
0
e
2
_
u
s
uv dv
b
2
u
du
Ejemplo 8.4.1. Considerando la ecuaci on diferencial lineal
dX
t
= (3 2X
t
)dt + 2dW
t
X
0
N
_
u
0
,
2
0
_
t 0
170
entonces a = 3 , u = 2 , = 2 , u
0
=
3
2
,
2
0
=
2
2
4
= 1 y la soluci on es
X
t
= X
0
e
2t
+
3
2
_
1 e
2t
_
+ 2e
2t
_
t
0
e
2s
dW
s
es un proceso Gaussiano estacionario Markov donde
E
_
X
t
_
=
3
2
V ar
_
X
t
_
= 1 Cov
_
X
s
, X
t
_
= e
2| ts|
luego
X
t
N
_
3
2
, 1
_
para todo t 0.
Que distribuci on tiene X
t
[ X
s
para t > s ?
Como
X
t
[ X
s
N
_
E
_
X
t
[ X
s
_
, V ar
_
X
t
[ X
s
__
entonces
E
_
X
t
[ X
s
_
= E
_
X
t
_
+
Corr
_
X
s
, X
t
_

s
_
X
s
E
_
X
s
__
=
3
2
+
Corr
_
X
s
, X
t
_
V ar
_
X
s
_
_
X
s

3
2
_
=
3
2
+e
2| ts|
_
X
s

3
2
_
V ar
_
X
t
[ X
s
_
= V ar
_
X
t
_
1 Corr
2
_
X
t
, X
s
__
= 1 Cov
2
_
X
t
, X
s
_
= 1 e
4| ts|
luego
X
t
[ X
s
N
_
3
2
+e
2| ts|
_
X
s

3
2
_
, 1 e
4| ts |
_
y
p
_
X
t
y [ X
s
= x
_
=
_
_
y
3
2
e
2| ts |
_
x
3
2
_
_
1 e
4| ts|
_
_
tambi en
X
t
= X
0
e
2t
+
3
2
_
1 e
2t
_
+ 2e
2t
_
t
0
e
2u
dW
u
X
s
= X
0
e
2s
+
3
2
_
1 e
2s
_
+ 2e
2s
_
s
0
e
2v
dW
v
171
e
2(ts)
X
s
= X
0
e
2t
+
3
2
e
2(ts)
_
1 e
2s
_
+ 2e
2t
_
s
0
e
2v
dW
v
X
t
= e
2(ts)
X
s
+
3
2
_
1 e
2t
_
+ 2e
2t
_
t
0
e
2u
dW
u

3
2
e
2(ts)
_
1 e
2s
_
2e
2t
_
s
0
e
2u
dW
u
= e
2(ts)
X
s
+
3
2
_
1 e
2(ts)
_
+ 2e
2t
_
t
s
e
2u
dW
u
E
_
X
t
[ X
s
_
= e
2(ts)
X
s
+
3
2
_
1 e
2(ts)
_
=
3
2
+e
2(ts)
_
X
s

3
2
_
V ar
_
X
t
[ X
s
_
= 4e
4t
_
t
s
e
4u
du
= e
4t
_
e
4t
e
4s
_
= 1 e
4(ts)
y como
P
_
X
t
y [ X
s
= x
_
= P
_
X
t
(s , x) y
_
y
X
t
(s , x) = xe
2(ts)
+
3
2
_
1 e
2(ts)
_
+ 2e
2t
_
t
s
e
2u
dW
u
N
_
xe
2(ts)
+
3
2
_
1 e
2(ts)
_
, 1 e
4(ts)
_
luego
P
_
X
t
(s , x) y
_
=
_
_
y
3
2
e
2(ts)
_
x
3
2
_
_
1 e
4(ts)
_
_
8.5. EDE Lineales de orden n
Considere la ecuaci on diferencial homog enea
n

j=0
a
j
x
(j)
(t) = 0 (8.5)
con a
j
constantes reales, a
n
= 1. Una soluci on de la ecuaci on anterior es una funci on x(t) , n
veces derivable en un intervalo, tal que satisface la ecuaci on diferencial.
172
Para cada j , j = 1, 2, , n, existe una soluci on x
j
(t) t 0 tal que
x
(k)
j
(0) =
_
1 si k = j 1
0 si k ,= j 1
Ejemplo 8.5.1. x
1
(t) satisface x
1
(0) = 1 , x
(k)
1
(0) = 0 , k = 1, , n 1.
Si n = 1 , x

(t) +a
0
x(t) = 0, entonces x
1
(t) = e
a0t
satisface x
1
(0) = 1.
Para cada npla (C
0
, C
1
, , C
n1
) la funci on
x(t) =
n

j=1
C
j1
x
j
(t)
es la soluci on unica de la ecuaci on que satisface las condiciones iniciales
x(0) = C
0
, x

(0) = C
1
x
(n1)
(0) = C
n1
Denici on 8.5.1. El polinomio
P(x) = a
0
x
n
+a
1
x
n1
+ +a
n1
x + a
n
se denomina el polinomio caracterstico asociado a la ecuaci on homog enea.
Por el teorema fundamental del algebra el polinomio P(x) se puede factorizar de la forma
P(x) =
_
x r
1
__
x r
2
_

_
x r
n
_
donde r
1
, r
2
, , r
n
son las n races de la ecuaci on P(r) = 0, no necesariamente distintas y
posiblemente complejas, tales que
r
j
= Re(r
j
) + i Im(r
j
) j = 1, 2, , n
Si r
j
R entonces Re(r
j
) = r
j
y Im(r
j
) = 0.
Denici on 8.5.2. La ecuaci on (8.5) se dice estable si Re(r
j
) < 0 para todo j.
Denici on 8.5.3. Si g(t) es una funci on continua, la ecuaci on
n

j=0
a
j
x
(j)
= g(t) (8.6)
se dice que es no-homog enea.
Denici on 8.5.4. La funci on respuesta al impulso de la ecuaci on
n

j=0
a
j
x
(j)
(t) = 0
173
se dene como la funci on
h(x) = x
n
(x) I( x 0 )
donde x
n
(x) es la soluci on que satisface
x
(k)
n
=
k , n1
es decir
x
n
(0) = 0
x

n
(0) = 0
.
.
.
x
(n2)
n
(0) = 0
x
(n1)
n
= 1.
El resultado siguiente expresa la soluci on de la ecuaci on no-homog enea mediante la funci on
respuesta al impulso.
Teorema 8.5.1. (ver Braun (1986), pag. 231) La funci on
x
p
(t) =
_
t
0
h(t x) g(x) dx
es la soluci on en [0, ) de la ecuaci on diferencial no - homog enea
n

j=0
a
j
x
(j)
(t) = g(t) t 0
que satisface las condiciones iniciales
x(0) = 0 , x

(0) = 0 , x
(n1)
(0) = 0.
Denici on 8.5.5. Suponga un proceso (X
t
, t 0) derivable en media cuadr atica n 1 veces,
tal que satisface
X
(n1)
t
C
n1
+a
n1
_
X
(n2)
t
C
n2
_
+ +a
n
_
X
t
C
0
_
+a
0
_
t
0
X
s
ds = W
t
(8.7)
para t 0, donde C
0
, C
1
, , C
n1
son variables aleatorias independientes de (W
t
, t 0)
e independientes. Entonces se dice que X
t
es soluci on de la ecuaci on diferencial estoc astica de
orden n
dX
(n1)
t
+
_
a
n1
X
(n1)
t
+ +a
0
X
t
_
dt = dW
t
t 0
con condiciones iniciales X
0
= C
0
, X

0
= C
1
, , X
(n1)
0
= C
n1
174
Lema 8.5.1. El proceso
X
h , t
=
n

j=0
C
j1
x
j
(t)
es derivable en media cuadr atica n veces y satisface en media cuadr atica la ecuaci on
X
(n)
t
+ a
n1
X
(n1)
t
+ +a
1
X

t
+ a
0
X
t
= 0
y las condiciones iniciales
X
(k)
h, 0
=
n

j=1
C
j1
x
(k)
j
(0) =
n

j=1
C
j1

k , j1
= C
k
k = 0, 1, , n 1
Lema 8.5.2. El proceso
X
p , t
=
_
t
0
h(t s) dW
s
h(t) = x
n
(t)
es derivable en media cuadr atica n 1 veces y satisface
X
(n1)
t
+ a
n1
X
(n2)
t
+ + a
1
X
t
+ a
0
_
t
0
X
s
ds = W
t
y las condiciones
X
(k)
0
= 0 k = 0, 1, , n 1
Demostraci on. Se presenta la demostraci on para el caso n = 2. Es decir, consideramos la ecuaci on
X

t
+a
1
X
t
+a
0
_
t
0
X
s
ds = W
t
y las condiciones
X
(k)
0
= 0 k = 0, 1
X
t
=
_
t
0
h(t s) dW
s
= h(t s) W
s

t
0
+
_
t
0
h

(t s) W
s
ds
= h(0) W
t
+
_
t
0
h

(t s) W
s
ds
pero, por denici on, tenemos que h(t) = x
2
(t) donde x
2
(t) es la soluci on de la ecuaci on
diferencial
x(t)

+ a
1
x(t)

+a
0
x(t) = 0 con x
2
(0) = 0 x

2
(0) = 1
entonces h(0) = x
2
(0) = 0 luego
X
t
=
_
t
0
h

(t s) W
s
ds
175
adem as
_
t
0
X
s
ds =
_
t
0
_
s
0
h

(s u) W
u
du ds
=
_
t
0
W
u
_
t
u
h

(s u) ds du
=
_
t
0
W
u
h(t u) du
=
_
t
0
h(t s) W
s
ds
y tambi en
X

t
=
d
dt
_
t
0
h

(t s) W
s
ds
usando

t
_
t
0
f(t , s) ds = f(t , t) +
_
t
0

t
f(t , s) ds
luego
X

t
= h

(0)W
t
+
_
t
0
h

(t s) W
s
ds
pero h

(0) = 1 luego se tiene que


X

t
= W
t
+
_
t
0
h

(t s) W
s
ds
luego reemplazando estas expresiones en la identidad de la denici on anterior obtenemos
_
X

t
X

0
_
+a
1
_
X
t
X
0
_
+ a
0
_
t
0
X
s
ds = X

t
+a
1
X
t
+ a
0
_
t
0
X
s
ds
=
_
W
t
+
_
t
0
h

(t s) W
s
ds
_
+a
1

_
t
0
h

(t s) W
s
ds +a
0

_
t
0
h(t s) W
s
ds
= W
t
+
_
t
0
_
h

(t s) + a
1
h

(t s) + a
0
h(t s)
_
W
s
ds.
pero h es la soluci on de la E. D. Homog enea, luego la integral se anula y se obtiene con X
0
=
X

0
= 0
X

t
+a
1
X
t
+ a
0
_
t
0
X
s
ds = W
t
es decir
dX

t
+
_
a
1
X

t
+a
0
X
t
_
dt = dW
t
t 0,
X
0
= 0,
X

0
= 0.
176
Teorema 8.5.2. La soluci on de la ecuaci on anterior en [0, ) est a dada por
X
t
=
n

j=1
C
j1
x
j
(t) +
_
t
0
h(t s) dW
s
(8.8)
donde x
1
(t), x
2
(t), , x
n
(t) son las n soluciones de la ecuaci on dieferncial ordinaria
x
(n)
(t) +
n1

j=0
a
j
x
(j)
(t) = 0
tales que
x
(k)
j
(0) =
k , j1
j = 1, 2, , n k = 0, 1, , n 1
y C
0
, C
1
, , C
n1
son variables aleatorias que satisfacen x
(k)
0
= C
k
independientes, e inde-
pendientes de (W
t
, t 0) con h(t) = x
n
(t) I(t 0).
Proposici on 8.5.1. La soluci on X
t
(8.8) de la ecuaci on (8.7) tiene los siguientes momentos
b asicos.
1) E
_
X
t
_
=
n

j=1
E
_
C
j1
_
x
j
(t)
2) Cov
_
X
s
, X
t
_
=
n

j=1
V ar
_
C
j1
_
x
j
(s)x
j
(t) +
2
st
_
0
h(t u) h(s u) du
3) V ar
_
X
t
_
=
n

j=1
V ar
_
C
j1
_
x
2
j
(t) +
2
t
_
0
h
2
(s) ds
Demostraci on.
E
__
X
s
E(X
j
)
__
X
t
E(X
t
)
__
= E
__
n

j=1
_
C
j1
E(C
j1
)
_
x
j
(s) +
_
s
0
h(s u) dW
u
_

_
n

j=1
_
C
j1
E(C
j1
)
_
x
j
(t) +
_
t
0
h(t u) dW
u
__
=
n

j=1
V ar(C
j1
)x
j
(s)x
j
(t) +
2
_
st
0
h(t u) h(s u)du
8.5.1. El Caso n = 2
La ecuaci on diferencial estoc astica lineal de orden 2 con coecientes constantes est a denida por
dX

t
=
_
a
1
X

t
+ a
0
X
t
_
dt + dW
t
t 0
177
tal que X
0
= C
0
, X

0
= C
1
, donde C
0
, C
1
son variables aleatorias independientes de
(W
t
, t 0), e independientes.
La soluci on est a dada por el proceso
X
t
= C
0
x
1
(t) +C
1
x
2
(t) +
_
t
0
h(t s) dW
s
t 0
donde x
1
(t) , x
2
(t) son las dos soluciones de la ecuaci on diferencial homog enea
x

(t) + a
1
x

(t) + a
0
x(t) = 0
que cumplen
x
1
(0) = 1 , x

1
(0) = 0 , x
2
(0) = 0 , x

2
(0) = 1 y h(t) = x
2
(t)
El polinomio caracterstico es
P(x) = x
2
+ a
1
x + a
0
y la ecuaci on caracterstica P(x) = 0 tiene races
r
1
=
a
1
+
_
a
2
1
4a
0
2
r
2
=
a
1

_
a
2
1
4a
0
2
que origina lo siguiente:
1. Si a
2
1
4a
0
> 0 hay dos races reales y distintas y las soluciones de la ecuaci on diferencial
ordinaria homog enea
x

(t) + a
1
x

(t) + a
0
x(t) = 0
son x
1
(t) y x
2
(t) que satisfacen
x
1
(0) = 1 , x

1
(0) = 0 , x
2
(0) = 0 , x

2
(0) = 1
las podemos escribir como
x
1
(t) =
r
1
e
r2t
r
2
e
r1t
r
1
r
2
x
2
(t) =
e
r1t
e
r2t
r
1
r
2
2. Si a
2
1
4a
0
< 0 entonces
r
1
=
a
1
+ i
_
4a
0
a
2
1
2
=
a
1
2
+ i
_
4a
0
a
2
1
2
178
= + i
r
2
= i
y por tanto
x
1
(t) = e
t
_
cos (t)

sen(t)
_
x
2
(t) =
1

e
t
sen(t)
3. Si a
2
1
4a
0
= 0 entonces r
1
= r
2
=
a0
2
y por tanto
x
1
(t) = e

a
1
2
t
x
2
(t) = te

a
1
2
t
Ejemplo 8.5.2. (ver Hoel, Port, and Stone (1972)) Considere la ecuaci on diferencial lineal
dX

t
+
_
2X

t
+ 2X
t
_
dt = dW
t
t 0
que satisface X
0
= 0 , X

0
= 1 es decir, C
0
= 0 , C
1
= 1. Entonces P(x) = x
2
+ 2x + 2 = 0
tiene races r
1
= 1 + i r
2
= 1 i, por tanto
x
1
(t) = e
t
_
cos t + sen t
_
, x
2
(t) = e
t
sen t,
luego
X
t
= C
0
x
1
(t) + C
1
x
2
(t) +
_
t
0
h(t s) dW
s
,
= e
t
sen t +
_
t
0
e
(ts)
sen(t s) dW
s
.
X
t
es Gaussiano, Markov y satisface
E
_
X
t
_
= e
t
sen t
Cov
_
X
s
, X
t
_
= E
_
_
s
0
e
(su)
sen(s u) dW
s
_
t
0
e
(tv)
sen(t v) dW
v
_
=
_
st
0
e
(su)(tu)
sen(s u) sen(t u) du
= e
(s+t)
_
st
0
e
2u
sen(s u) sen(t u) du
=
1
8
e
| ts |
_
sen(t s) + cos (t s)
_

e
(s+t)
4
_
cos (t s)
cos (s + t)
2
+
sen(s + t)
2
_
179
Si s = t +h entonces
Cov
_
X
t
, X
t+h
_

e
| h|
8
_
sen h + cos h
_
t
Adem as E
_
X
t
_
0 cuando t .
Por lo que se puede denir un proceso estacionario Gaussiano X
e , t
denido por la covarianza
r(h) =
e
| h|
8
_
sen [h[ + cos h
_
h R
de media cero tal que
|X
t
X
e , t
| 0 , t
Caso mas General (ver Hoel, Port, and Stone (1972), ec. (44) cap. 6 ) Tambi en pueden consid-
erarse ecuaciones diferenciales estoc asticas mas generales, de la forma
X
(n)
t
+ a
n1
X
(n1)
t
+ + a
0
X
t
= Y
t
, t 0,
donde (Y
t
, t R) es un proceso de segundo orden estacionario continuo en media cuadr atica.
Una soluci on X
t
es un proceso derivable en media cuadr atica n veces estacionario de segundo
orden que satisface la ecuaci on diferencial anterior. Esta soluci on tiene la forma
X
t
n

j=1
C
j1
X
j
(t) +
_
t
0
h(t s) Y
s
ds = X
(n)
t
+ X
(e)
t
,
donde x
j
(t) , j = 1, 2, , n son las n soluciones linealmente independientes de la ecuaci on
diferencial ordinaria
x
(n)
(t) +
n1

j=0
a
j
x
(j)
(t) = 0,
que satisfacen
d
k
dt
k
x
j
(t)

t=0
=
_
1 si k = j 1,
0 si k ,= j 1.
En consecuencia, X
(h)
t
es derivable n veces y satisface
X
(k)
0
= C
k
k = 0, 1, , n 1,
donde C
0
, C
1
, , C
n1
son variables aleatorias independientes de Y
t
e independientes y
h(t) = x
n
(t) I( t 0 ).
180
Proposici on 8.5.2. Si se considera una ecuaci on estable tal que
x
j
(t) 0 , t
para j = 1, 2, , n entonces
X
(h)
t
2
0 , t
y por tanto
X
t
X
(e)
t
2
0 , t
Adem as, la soluci on
X
(e)
t
=
_
t
0
h(t s) Y
s
ds
tiene
E
_
X
(e)
t
_
=
_
t
0
h(t s) E
_
Y
s
_
ds =
Y
_
t
0
h(t s) ds
Cov
_
X
(e)
t
, X
(e)
s
_
=
_
s
0
_
t
0
h(t u) h(s v) g(u v) du dv
donde g(u) = Cov
_
Y
t
, Y
t+u
_
.
Ejemplo 8.5.3. Si Y
t
es proceso OU con E
_
Y
t
_
= 0 , Cov
_
Y
s
, Y
t
_
=

2
2
e
| ts |
, > 0 y
se tiene la E. D. E. Lineal de segundo orden
X

t
+ 2X

t
+ 2X
t
= Y
t
, t 0 X
0
= 0 X

0
= 1
entonces
x
1
(t) = e
t
_
cos t + sen t
_
x
2
(t) = e
t
sen t
luego
x
t
= e
t
sen t +
_
t
0
e
(ts)
sen(t s) Y
s
ds
8.6. Notas
1. F ormulas sobre integrales estoc asticas
a) Si X
t
es unprocesoadaptadoa (W
s
, 0 s t) entonces
_
t
s
X
u
dW
u
N(0,
_
t
s
E(X
2
u
)du).
Adem as, se cumple:
181
b) E(
_
b
a
X
s
dW
s
.
_
c
a
X
u
dW
u
) =
_
bc
a
E(X
2
s
)ds.
c) El proceso Y
t
=
_
t
0
X
s
dW
s
tiene incrementos independientes.
2. Identidad util del proceso Wiener. Se puede comprobar que si X
t
=
_
t
0
f(s)dW
s
, con f(t)
funci on continua, entonces X
t
= W
(t)
, donde (t) =
_
t
0
f
2
(s)ds.
3. Regla de Ito (regla de la cadena). Si X
t
es un proceso con diferencial estoc astico dX
t
=
a
t
dt + b
t
dW
t
y se dene el proceso Z
t
= F(X
t
, t), donde F(x, t) es una funci on con
derivadas parcial en t, F/t continua, y derivadas parciales en x, F/x,
2
F/x
2
,
continuas, entonces el diferencial estoc astico de Z
t
est a dado por:
dZ
t
=
_
F
t
+a
t
F
x
+
b
2
t
2

2
F
x
2
_
dt + b
t
F
x
dW
t
(8.9)
todas las derivadas se eval uan en (X
t
, t).
4. F ormulas para la ecuaci on diferencial estoc astica lineal general:
dX
t
= (a
t
+
t
X
t
)dt + (b
t
+
t
X
t
)dW
t
, X
0
= c (8.10)
donde c es una variable aleatoria independiente de (W
t
, t 0), con E(c
2
) < .
a) La soluci on X
t
es un proceso continuo en m.c., de segundo orden. Adem as cumple
_
t
0
E(X
2
t
)dt < , t 0.
b) El proceso X
t
es Markov.
c) F ormula de la soluci on:
X
t
=
1
Y
t
_
c +
_
t
0
(a
s
b
s

s
)Y
s
ds +
_
t
0
b
s
Y
s
dW
s
_
donde Y
t
es el proceso auxiliar dado por:
Y
t
= exp
_

_
t
0

1
2

2
s
ds
_
t
0

s
dW
s
_
5. En el caso (t) 0 la soluci on X
t
es un proceso gaussiano. La soluci on general es de la
forma:
X
t
= e
_
t
0
sds
_
c +
_
t
0
a
s
e

_
s
0
vdv
ds +
_
t
0
b
s
e

_
s
0
vdv
dW
s
_
con media
E(X
t
) = e
_
t
0
sds
_
E(c) +
_
t
0
a
s
e

_
s
0
vdv
ds
_
y covarianza
Cov(X
s
, X
t
) = e
_
s
0
vdv+
_
t
0
vdv
_
V ar(c) +
_
ts
0
b
2
v
e
2
_
v
0
rdr
dv
_
182
8.7. Aplicaciones
1. En Bioestadstica. Una ecuaci on utilizada en Oncologa para modelar el crecimiento de
tumores cancerosos. Si X
t
es el volumen del tumor en el tiempo t
dX
t
=
_
aX
t
bX
t
lnX
t
_
dt +X
t
dW
t
es una ecuaci on para la tasa de crecimiento del tumor (ver Ferrante y otros, Ferrante (2000)).
En el problema (9) se resuelve esta ecuaci on.
2. En Ecologa. Para modelar el crecimiento de poblaciones
dX
t
=
t
X
t

_
X
t
dW
t
donde X
t
es el tama no de la poblaci on en t ,
t
es la tasa de crecimiento de la poblaci on.
(ver ?, Tuckwell (1974))
3. En Medio Ambiente En estudios sobre efecto de eliminaci on de poluci on en el aire con la
lluvia.
dX
t
=
_
q
t

t
X
t
_
dt + X
t
dW
t
donde X
t
es la tasa de remoci on de poluci on,
t
es un proceso que dene la cantidad de
lluvia en un intervalo de tiempo y que q
t
es un proceso denominado de infusi on.
4. En Finanzas. donde el factor de capitalizaci on de en [0, t] a la tasa i e. a. es (1 + i)
t
se
reemplaza por E
_
e
t
_
0
s ds
_
donde
d
t
= (b
t
) dt + dW
t
se denomina el modelo de Vasicek.(ver Vasicek ( 1977 ), Vasicek (1977)). En el problema
(12) se desarrolla esta aplicaci on.
5. En Fsica. Si X
t
es una se nal ( voz , m usica ) se somete a una modulaci on antes de enviarse.
La AM es una transformaci on
X
t
X
t

2 sen(
0
t)
donde
0
es una frecuencia alta de la portadora. La se nal transmitida tiene ruido, y se
modula por
dY
t
= X
t

2 sen(
0
t) dt +
_
2N
0
dW
t
donde N
0
es la intensidad del ruido.(ver Schuss, Schuss (1980), pag. 252 )
183
8.8. Problemas
1. Suponga que X
1
y X
2
son dos variables aleatorias distribudas conjuntamente Normal,
con medias
1
,
2
, varianzas
2
1
,
2
2
, respectivamente, y correlaci on . Dena (c
j
)
jZ
una
sucesi on i.i.d de variables Normales N(0,
2
), independientes de X
1
y de X
2
. Dena el
proceso Y
t
= X
1
+tX
2
+ c
t
, t Z. Compruebe que es un proceso Gaussiano.
2. Dena el proceso Z
t
= e
bWt
, con b R. Compruebe utilizando el lema de Ito que Z
t
satisface la ecuaci on: dZ
t
= (b
2
/2)Z
t
dt bZ
t
dW
t
, t 0.
3. Considere el proceso X
t
= (

a +bW
t
)
2
, para t 0, a > 0, b R.
a) Compruebe por medio de la regla de Ito que X
t
es soluci on de la ecuaci on estoc astica
no lineal: dX
t
= b
2
dt + b

X
t
dW
t
, t 0, con X
0
= a.
b) Encuentre E(X
t
).
c) (opcional) Encuentre Cov(X
s
, X
t
), s, t > 0.
4. Si X
t
= t + a(W
t
+ W
(t)
), t 0, donde , a R son constantes dadas y (t) =
(1 e
2t
)/2, encuentre V ar(X
t
).
5. Si X
t
es la soluci on de la ecuaci on lineal general en el caso
t
0, compruebe que
v(t) = V ar(X
t
) satisface la ecuaci on diferencial v

(t) = 2
t
v(t) + b
2
t
.
6. Considere la ecuaci on lineal: dX
t
= (3 +t)
2
dt + e
t
dW
t
, X
0
= 0
a) Resuelva la ecuaci on anterior.
b) Encuentre la distribuci on de X
t
.
c) Encuentre la distribuci on condicional de X
t
dado X
s
= x, 0 < s < t
d) Encuentre la funci on de autocorrelaci on: Corr(X
t
, X
t+h
).
7. Considere la ecuaci on lineal:
dX
t
=
_
1
b +ce
at
aX
t
_
dt + b dW
t
, t 0 (8.11)
donde a, b, c > 0 y X
0
= x
0
R es una constante.
a) Encuentre E(X
t
) y lm
t
E(X
t
).
b) Encuentre Cov(X
t
, X
t+h
) y lm
t
Cov(X
t
, X
t+h
). Compruebe que este lmite es
una funci on para de h.
c) Clasique el proceso X
t
: gaussiano, markov, estacionario.
d) Encuentre distribuci on condicional de X
t
dado X
s
, 0 < s < t.
184
8. Un cuarto contiene V m
3
de aire, libre de CO
2
, en t = 0. En ese momento se introduce aire
a una velocidad v m
3
/min, con una concentraci on r de CO
2
. Se supone que el aire ingresa
al cuarto, se circula y vuelve a salir a la misma velocidad. Denotemos por y
t
la cantidad de
CO
2
en el cuarto, en el tiempo t, medida en m
3
de CO
2
, de tal forma que y
t
/V tiene las
mismas unidades de r. La ecuaci on diferencial para y
t
es:
y

t
= v(r y
t
/V ), t 0 (8.12)
y
0
= 0
La ecuaci on diferencial (8.12), se puede escribir con diferenciales de la forma: dy
t
=
v(rdt (y
t
/V )dt). Reemplazamos rdt por rdt + dW
t
, donde r > 0 y > 0 son
par ametros. Ahora y
t
se dene como la soluci on de la ecuaci on diferencial estoc astica
lineal:
dy
t
= v(r y
t
/V )dt + vdW
t
, t 0 (8.13)
y
0
= 0
Por ejemplo, r = 4, = 1.3, v = 0.25 y V = 30 indicara que est a ingresando aire, el cual
contiene en promedio 4 % de CO
2
por m
3
, con desviaci on est andar 1.3 %, a un cuarto de
30m
3
, a una velocidad de 0.25m
3
/min.
a) Resuelva la ecuaci on diferencial estoc astica (8.13).
b) Por qu e puede armarse que el proceso y
t
es gaussiano y markov?.
c) Encuentre (t) = E(y
t
) y lm
t
(t).
d) Encuentre V ar(y
t
) y lm
t
V ar(y
t
).
e) Encuentre Cov(y
t
, y
t+h
) para h > 0, y lm
t
Cov(y
t
, y
t+h
). Compruebe que este
lmite solamente depende de h.
f ) El proceso tiene un estado transitorio y luego pasa a un estado estacionario el cual
est a denido como el proceso estacionario de 2do orden con media, varianza y covar-
ianza iguales a las obtenidas en los lmites de los puntos anteriores. Se puede hacer
una estimaci on del tiempo T
e
en el que se llega al estado estacionario, utilizando la
regla cinco-tau". Encuentre T
e
como el valor T
e
= 5 donde es la soluci on de la
ecuaci on () = 0.63 lm
t
(t).
g) Utilizando la f ormula para la distribuci on condicional de y
t
[y
s
= x, para 0 < s < t,
dada por: y
t
[y
s
= x N(E(y
t
[y
s
= x), V ar(y
t
[y
s
= x)), donde:
E(y
t
[y
s
= x) = (t) + Corr(y
t
, y
s
)
t
(x (s))/
s
V ar(y
t
[y
s
= x) =
2
t
(1 Corr
2
(y
t
, y
s
))
donde
2
t
= V ar(y
t
), encuentre expresiones simplicadas para esta media y varianza
condicionales.
185
9. En el artculo de Ferrante et al. Ferrante (2000) se estudia un modelo para la evoluci on del
tama no X
t
de un tumor canceroso. Este modelo es una versi on estoc astica de la ecuaci on de
Gompertz que se puede consultar en el texto de Braun Braun (1986). El modelo estoc astico
propuesto es utilizado para medir la sensibilidad al tratamiento con drogas denominadas
anti-angiog enicas, que detienen el crecimiento del tumor impidiendo que este extraiga
oxgeno y nutrientes del tejido circundante. El modelo est a dado por la ecuaci on no lineal
siguiente:
dX
t
= X
t
(a b ln(X
t
))dt + X
t
dW
t
, t 0, X
0
= x
o
(8.14)
Resuelva esta ecuaci on deniendo la transformaci on: Y
t
= ln(X
t
) y luego utilizando el
lema de Ito para obtener una ecuaci on lineal para el proceso Y
t
. Obtenga la expresi on para
X
t
. Encuentre E(X
t
) y V ar(X
t
). Qu e tipo de proceso es X
t
?.
10. En la ecuaci on diferencial estoc astica dX

t
+ (3X

t
+ 2X
t
)dt = dW
t
, con X
0
= X

0
=
0 encuentre V ar(X
t
). Si la ecuaci on es estable encuentre la expresi on para el estado
estacionario.
11. si Q
t
es la carga en el condensador de un circuito RLCcon un voltaje de entrada dado por X
t
entonces Q
t
satisface la ecuaci onde segundoordenlineal: LQ

t
+rQ

t
+(1/C)Q
t
= X
t
, t
0, con condiciones iniciales Q
0
, Q

0
constantes dadas. Asumiendo L = C = 1, 0 < R < 2
y X
t
ruido blanco, de tal forma que la ecuaci on anterior se escribe dQ

t
+(RQ

t
+Q
t
)dt =
dW
t
, encuentre E(Q
t
), V ar(Q
t
). Qu e tipo de proceso es Q
t
?.
12. En matem aticas nancieras se dene la tasa continua de inter es como la funci on (t) tal
que $1.00 colocado a la tasa (t) en el perodo [0, t] se convierte en: exp(
_
t
0
(s)ds). La
anterior expresion se denomina el factor de capitalizaci on hasta t. Supongamos que (t) se
modela mediante un proceso X
t
denido por la ecuaci on diferencial estoc astica:
dX
t
= (b X
t
)dt + dW
t
(8.15)
Este modelo se conoce en economa y nanzas como el modelo de Vasicek, ver Vasicek
(1977). En los problemas siguientes se desarrollan algunas propiedades y ejemplos de
aplicaci on de este modelo.
a) Si 0 < s < t compruebe la identidad:
X
t
= X
s
e
(ts)
+b(1 e
(ts)
) + e
t
_
t
s
e
u
dW
u
b) Compruebe que si 0 < s < t entonces X
t
[X
s
= x N(
V
,
2
V
), donde
V
=
xe
(ts)
+ b(1 e
t
) y
2
V
=

2
2
(1 e
2(ts)
)
c) Como el proceso X
t
es gaussiano entonces tambi en se cumple:
_
t
s
(X
u
[X
s
= x)du N((s, t, x),
2
(s, t, x))
186
donde (s, t, x) = E(
_
t
s
(X
u
[X
s
= x)du). Compruebe que
(s, t, x) = b(t s) +
x b

(1 e
(ts)
)
d) Dena la covarianza condicional como:
cov(X
u
, X
v
[X
s
= x) = E [(X
u
E(X
u
[X
s
= x))(X
v
E(X
v
[X
s
= x))]
y aplique la identidad
V ar(
_
t
s
(X
u
[X
s
= x)du) =
_
t
s
_
t
s
cov(X
u
, X
v
[X
s
= x)dudv
Compruebe que si V ar(
_
t
s
(X
u
[X
s
= x)du) =
2
(s, t, x), entonces:

2
(s, t, x) =

2
2
3
(2(t s) + 4e
(ts)
e
2(ts)
3)
e) El factor de capitalizaci on esperado, en el perodo [s, t], se dene como
C(s, t, x) = E(e
_
t
s
(Xu|Xs=x)du
)
encuentre esta funci on. Este factor permite estimar el rendimiento de una inversi on en
un fondo con tasa de rendimientos aleatoria, en el perodo [s, t].
AP

ENDICE A
Variables Aleatorias Normales Multivariadas.
A.1. Distribuci on Normal Multivariada
Las variables normales son b asicas porque tienen muchos resultados analticos precisos y f ormulas
manejables. Si una variable se sabe que se distribuye aproximadamente normal usualmente se
asume que es normal para aprovechar estos resultados. En lo que sigue X denota un vector
columna aleatorio y X

su transpuesto, un vector la. Si X R


n
es un vector aleatorio, y
X = (X
1
, X
2
, . . . , X
n
)

, entonces cada componente X


i
se asume que es una variable aleatoria.
Una matriz A, nm, se indica por A R
nm
. Los vectores escalares se indican por min usculas:
a = (a
1
, a
2
, , a
n
)

. Si X, Y R
n
son vectores aleatorios entonces utilizando producto
matricial a

X R y X Y

R
nn
. Si A y B son matrices n n entonces A

B = (B

A)

.
A es sim etrica si A

= A. La matriz

X R es sim etrica y (

X)

= X

=
n

i=1

i
X
i
. Si se
considera

A R se tiene

A =
n

i=1
n

j=1

j
A
ij
187
188
Denici on A.1.1. Dado el vector aleatorio X denimos el vector de medias como
= E(X) = (E(X
1
), , E(X
n
))

= (
1
, ,
n
)

y la matriz de varianzas y covarianzas R


R =
_
Cov(X
i
, X
j
)

nn
Nota A.1.1. Si se dene la matriz n n (X )(X )

entonces se puede denir su valor


esperado como
E((X )(X )

) =
_
E
_
(X
i

i
)(X
j

j
)

_
=
_
Cov(X
i
, X
j
)

= R
por tanto R = E
_
(X )(X )

_
.
Denici on A.1.2. Un vector aleatorio X = (X
1
, X
2
, . . . , X
n
)

se dice que se distribuye normal


multivariado si se cumple que toda combinaci on lineal de la forma Y =
1
X
1
+
2
X
2
+ . . . +

n
X
n
con
1
,
2
, ,
n
n umeros reales, es una variable normal. Si es el vector de medias
de X y R es su matriz de varianzas y covarianzas entonces se escribe X N
n
(, R).
Usando producto de matrices podemos escribir esta combinaci on lineal como una variable real
Y =

X; luego debe tenerse que Y N(


Y
,
2
y
) para ciertos
y
,
2
y
. Se trata de encontrar
Y
y
2
Y
en funci on de , las medias de las x
i
y las covarianzas de las x
i
.
Expresi on para
Y
Como

y
= E(Y ) = E(

X) = E(
n

j=1

j
X
j
=
n

j=1

j
E(X
j
) =
n

j=1

j
=


entonces
Y
=

. Es decir
E(a

X) = a

E(X) = a


Expresi on para
2
Y
Sabemos que
2
y
= E((Y E(Y ))
2
) pero
(Y E(Y ))
2
= (

)
2
=
_

(X
__

(X )
_
=

(X )(X )


189
=

_
(X )(X )


=
n

i=1
n

j=1

j
(X
i

i
)(X
j

j
)
luego

2
Y
=
n

i=1
n

j=1

j
E
_
(X
i

i
)(X
j

j
)
_
=
n

i=1
n

j=1

j
Cov(X
i
, X
j
)
=
n

i=1
n

j=1

j
R
ij
=

R
En resumen, si X se distribuye normal multivariada y es un vector de escalares, Y =

X se
distribuye N(
Y
,
2
Y
) ( por denici on ) con

Y
=


2
Y
=

R
Denici on A.1.3. Funci on generadora de Momentos de X se dene como la funci on de t,
M
X
(t) = E(e
tX
) para aquellos t I R tales que E(e
tX
) < . Como E(e
0X
) < entonces
0 I.
Denici on A.1.4. Funci on generadora de momentos de X = (X
1
, X
2
, , X
n
)

se dene como
la funci on de t = (t
1
, t
2
, , t
n
)

,
M
X(t
) = E
_
e
t

X
_
siempre que M
X
(t) < .
X con fdp multivariada f
X
(x
1
, x
2
, , x
n
) entonces
M
X
(t) =
_
R
n
e
t

X
f
X
(x)dx
y es unica si existe.
Proposici on A.1.1.
1. Si X = (X
1
, X
2
, , X
n
)

tiene fgm M
X
(t), las X
j
son independientes si y solo si
M
X
(t) = M
X1
(t
1
)M
X2
(t
2
) M
Xn
(t
n
)
190
2. Para X N
n
(, R) se tiene M
X
(t) = exp
_
t

+
1
2
t

R t
_
para todo t R
n
y es unica.
Prueba de 2). Si t R
n
entonces Y = t

X N(
y
,
2
Y
) con
Y
= t

,
2
Y
= t

R t y por
tanto
M
Y
(1) = e
Y +
1
2

2
Y
= E(e
1Y
) = exp
_
t

+
1
2
t

R t
_
= M
X
(t)
Adem as M
X
(t) < para todo t R
n
. La unicidad no se demuestra.
En el caso de que un vector aleatorio X tenga una fgm de la forma anterior para R
n
y R
matriz sim etrica, entonces X debe ser normal multivariada por la unicidad de la fgm.
Consideremos el caso de X N
n
(, R) y una matriz A
kn
entonces Z = AX es un vector
aleatorio en R
k
que es un vector distribudo normal multivariado.
Proposici on A.1.2. Si X N
n
(, R) y A es una matriz k n entonces Z = AX es un vector
aleatorio distribudo normal multivariado en R
k
tal que
E(Z) = A y E
_
(Z E(Z))(Z E(Z))

_
= ARA

es decir
Z N
k
(A, ARA

)
Demostraci on. Si t = (t
1
, t
2
, , t
k
)

R
k
entonces la fgm de Z es
M
Z
(t) = E
_
e
t

Z
_
Colocando v = A

t que es de orden (n k)(k 1) = n 1 entonces


t

Z = t

(A X) = (A X)

t = X

t = X

(A

t) = (A

t)

X = v

X
luego
M
Z
(t) = E
_
e
t

Z
_
= E
_
e
v

X
_
= M
X
(v) = e
v

+
1
2
v

R v
Pero
v

= (A

t)

= t

A = t

(A )
y
v

R v = (A

t)

RA

t = t

ARA

t
Luego
M
Z
(t) = e
t

A +
1
2
t

ARA

t
Como
(ARA

= A(AR)

= AR

= ARA

191
la matriz ARA

es sim etrica. Por la unicidad de la fgm se tiene que


Z N
k
(A , ARA

)
Ejemplo A.1.1. Suponga que X R
3
distribuda normal multivariada con = (3, 3, 2)

y la
matriz de covarianzas es
R =
1
17
_

_
5 3 1
3 12 4
1 4 7
_

_
entonces
V ar(X
1
) =
5
17
V ar(X
2
) =
12
17
V ar(X
3
) =
7
17
Cov(X
1
, X
2
) = Cov(X
2
, X
1
) =
3
17
Cov(X
2
, X
3
) = Cov(X
3
, X
2
) =
4
17
y
corr(X
1
, X
2
) =
12
=
3
17
_
5
17
_
12
17
= 0.387
1. Si = (3, 1, 1) entonces la variable Y =

X = 3X
1
X
2
+X
3
es normal con
E(Y ) =

= (3, 1, 1)

(3, 3, 2) = 9 3 + 2 = 10
y
V ar(Y ) =

R =
1
17
[3, 1, 1]
_

_
5 3 1
3 12 4
1 4 7
_

_
_

_
3
1
1
_

_ =
48
17
= 2.823
luego
Y N(10,
48
17
)
2. Si
A =
_
2 3 1
4 2 2
_
23
y se dene
Z = A X =
_
2 3 1
4 2 2
_
_

_
x
1
x
2
x
3
_

_ =
_
2x
1
+ 3x
2
x
3
4x
1
2x
2
+ 2x
3
_
=
_
Z
1
Z
2
_
192
con
E(Z) = A =
_
2 3 1
4 2 2
_
_

_
3
3
2
_

_ =
_
13
10
_
y
E
_
(Z E(Z))(Z E(Z))

_
= ARA

=
1
17
_
119 102
102 252
_
luego
Cov(Z
1
, Z
2
) = Cov(2x
1
+ 3x
2
x
3
, 4x
1
2x
2
+ 2x
3
) =
102
17
y
Corr(Z
1
, Z
2
) =

102
17
_
119
17

252
17
= 0.589
La matriz de covarianzas
R = [Cov(X
i
, X
j
)] = E
_
(X )(X )

_
adem as de ser sim etrica posee la propiedad de ser semidenida positiva.
Denici on A.1.5. Una matriz real n n, M, se dice semidenida positiva si cumple
1. Es sim etrica M

= M
2. Para todo R
n
se cumple

M 0
Si para todo R
n
, ,= 0 se cumple

M > 0 entonces M se dice denida positiva.


Proposici on A.1.3. Si M es semidenida positiva entonces existe una matriz P no singular tal
que M = PI
r
P

donde I
r
es una matriz n n de la forma
I
r
=
_

_
1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 1 0
.
.
.
.
.
.
.
.
.
0 0 0
_

_
con r n
En este caso M se dice que tiene rango r. Adem as M es denida positiva si y solo si r = n.
Proposici on A.1.4. Toda matriz de covarianzas R n n es semidenida positiva
193
Demostraci on. Sea R
n
y X N
n
(, R) entonces
Y =

X N(

R )
Como V ar(Y ) 0 entonces

R 0.
Ejemplo A.1.2. Suponga que
A =
_
3 4
4 1
_
Es A semidenida positiva ?
Si = (
1
,
2
)

entonces

A = [
1
,
2
]
_
3 4
4 1
_ _

1

2
_
= 3
2
1
+
2
2
+ 8
1

2
Si
1
= 1 y
2
= 1 se tiene

A = 3 + 1 8 = 4 < 0
luego A no es semidenida positiva.
Proposici on A.1.5. Para cualquier X N
n
(, R) puede encontrarse una matriz P , n n no
singular tal que R = PI
r
P

y
1. Z = P
1
(X ) N
n
(0 , I
r
)
2. Z = (Z
1
, Z
2
, , Z
n
)

las Z
i
son variables aleatorias independientes N(0, 1) para j =
1, 2, , r y Z
j
= 0 para j = r + 1, , n
Demostraci on. Como R es semidenida positiva existe P no singular n n tal que R = PI
r
P

.
Denamos el vector P
1
X entonces por resultado anterior.
P
1
X N
n
(P
1
, P
1
R(P
1
)

)
Pero
P
1
R(P
1
)

) = P
1
(PI
r
P

)(P
1
)

) = (P
1
P)I
r
(P

(P

)
1
) = I
r
luego
P
1
X N
n
(P
1
, I
r
)
por tanto
Z = P
1
(X ) = P
1
X P
1
N
n
(0 , I
r
)
La fgm de Z es
M
Z
(t) = e
t

0+
1
2
t

Ir t
= e
1
2
t

Ir t
194
pero
t

I
r
t =
n

i=1
n

j=1
t
i
t
j
(I
r
)
i,j
=
r

j=1
t
2
j
luego
M
Z
(t) = e
1
2

n
j=1
t
2
j
La fgm de una variable aleatoria N(0, 1) es M(t) = e
t
2
2
luego si se acepta que N(0, 0) es una
variable aleatoria normal concentrada en X = 0 su fgm es M(t) = e
0
= 1 luego la fgm de Z es
el producto de n fgm de variables aleatorias normales
M
Z
(t) = M
Z1
(t
1
) M
Zr
(t
r
) 1 1
luego las Z
j
son independientes.
Proposici on A.1.6. Si X N
n
(, R) entonces las X
j
son independientes si y solo si R es
diagonal n n de la forma
R = Diag(
2
1
, ,
2
n
) donde
2
j
= V ar(X
j
)
=.
Si las X
j
son independientes entonces Cov(X
i
, X
j
) = 0 para i ,= j luego R
ij
= 0 para i ,= j.
Por tanto R es diagonal con R
ii
= Cov(X
i
, X
i
) = V ar(X
i
) =
2
i
.
=
Si X N
n
( , R) y R = Diag(
2
1
, ,
2
n
) entonces
M
X
(t) = exp
_
t

+
1
2
t

R t
_
= exp
_
n

i=1
t
i

i
+
1
2
n

i=1
t
2
i
R
ii
_
= exp
_
n

i=1
t
i

i
+
1
2
t
2
i

2
i
_
=
n

i=1
exp(t
i

i
+
1
2
t
2
i

2
i
)
= M
X1
(t
1
) M
Xn
(t
n
)
Por tanto las X
i
son independientes.
Proposici on A.1.7. Si X N
n
(, R) y R es denida positiva por tanto, no singular entonces la
fdp conjunta de (X
1
, X
2
, , X
n
) est a dada por
f
X
(x) =
1
(2)
n
2
_
det(R)
1
2
exp(
1
2
(x )

R
1
(x ))
195
para x R
n
.
Demostraci on. Como R es denida positiva existe P no singular tal que R = PP

. Luego el
vector
Z = (Z
1
, Z
2
, , Z
n
)

N
n
(P
1
, I)
Llamando m = P
1
se tiene aue las Z
i
son independientes normales Z
i
N(m
j
, 1). Por
tanto la fdp conjunta de las Z
j
es el producto de las fdp de las Z.
f
Z
(Z) = f
Z1
(Z
1
) f
Zn
(Z
n
)
=
n

i=1
1

2
exp
_

1
2
(Z
j
m
j
)
2
_
=
1
(2)
n
2
exp
_

1
2
n

i=1
(Z
i
m
i
)
2
_
=
1
(2)
n
2
exp
_

1
2
(Z m)

(Z m)
_
La transformaci on g(Z) = P Z = X es uno a uno y sobre de R
n
en R
n
y su inversa es
g

(X) = P
1
X = Z que es continuamente diferenciable. Luego, puede encontrarse la fdp
conjunta de X en funci on de f
Z
y P
1
f
X
(x) = f
Z
_
P
1
x [ det
_
g

x
__
= f
Z
_
P
1
x [ det(P
1
)
_
Como R = PP

entonces det(R) = det


2
(P) y [ det(P
1
)[ = det(R)

1
2
luego
f
X
(x) =
1
(2)
n
2
det(R)
1
2
exp
_

1
2
_
P
1
(x )

_
P
1
(x )

_
=
1
(2)
n
2 det(R)
1
2
exp
_

1
2
(x )

R
1
(x )
_
ya que (P

)
1
P
1
= (PP

)
1
= R
1
Si suponemos que X N
n
(, R) podemos obtener resultados adicionales tales como
1. X
j
[ X
i
N(
i,j
,
2
i,j
) para i ,= j. Deniendo

ij
= Corr(X
i
, X
j
) =
Cov(X
i
, X
j
)

j
=
R
ij
_
R
ii
R
jj
se tiene que
ij
= E(X
j
[ X
i
) es

ij
=
j
+

ij

i
(x
i

i
)
196
=
j
+
Cov(X
i
, X
j
)

2
i
(X
i

i
)
=
j
+
R
ij
R
ii
(X
i

i
)
adem as

2
ij
=
2
j
(1
2
ij
) = V ar(X
j
[ X
i
)
y por tanto no depende de X
i
.
2. X
n
[ X
1
, , X
n1
N(, ).
Para denir E(X
n
[ X
1
, , X
n1
) y V ar(X
n
[ X
1
, , X
n1
) denotemos por R(n1)
la matriz de covarianzas de X
n1
= (X
1
, , X
n1
)

tal que R(n) se particiona en


R(n) =
_
R(n 1) r

(n 1)
r

(n 1) R
n,n
_
con r(n 1) = (R
1,n
, R
2,n
, , R
n1,n
)

vector columna (n 1) 1 luego


E(X
n
[ X
1
, , X
n1
) =
n
+ r

(n 1)R
1
(n 1)(X
n1

n1
)
donde
n1
= (
1
,
2
, ,
n1
)

. y
V ar(X
n
[ X
1
, , X
n1
) = R
n,n
r

(n 1)R
1
(n 1)r(n 1)
Ejemplo A.1.3. X N
4
(, R) = (1, 0, 2, 1)

y
R =
_

_
2/5 1/5 0 0
1/5 3/5 0 0
0 0 1 1
0 0 1 2
_

_
Encontrar la distribuci on de X
4
[ X
1
, X
2
, X
3
.
Llamemos
R = R(4) =
_

_
2/5 1/5 0 0
1/5 3/5 0 0
0 0 1 1
0 0 1 2
_

_
y =
_

_
1
0
2
1
_

_
entonces
R(3) =
_

_
2/5 1/5 0
1/5 3/5 0
0 0 1
_

_ R
1
(3) =
_

_
3 1 0
1 2 0
0 0 1
_

_
y por tanto
r(3) =
_

_
0
0
1
_

_ X
3
=
_

_
x
1
x
2
x
3
_

_
3
=
_

_
1
0
2
_

_
197
luego
E(X
4
[ X
1
= 3, X
2
= 2, X
3
= 3) =
4
+ r

(3)R
1
(3)(X
3

3
)
= 1 + [0, 0, 1]
_

_
3 1 0
1 2 0
0 01
_

_
_

_
_

_
3
2
3
_

_
_

_
1
0
2
_

_
_

_ = 2
adem as
V ar(X
4
[ X
1
= 3, X
2
= 2, X
3
= 3) = R
44
r

(3)R
1
r(3) = 1
y por tanto
X
4
[ X
1
= 3, X
2
= 2, X
3
= 3 N(2, 1)
Ejercicio A.1.1. Para toda matriz A sim etrica existe una matriz ortogonal C tal que C

AC = /
con /diagonal con los valores propios de A que son reales. Si A es denida positiva los valores
propios son positivos
Ejercicio A.1.2. Una matriz A se dice sim etrica idempotente si A = A

y A = A
2
Ejercicio A.1.3. Los valores propios de una matriz idenpotente son 0 o 1.
Demostraci on. Sea valor propio de A. Existe X ,= 0 tal que AX = X luego
A
2
X = A X =
2
X = A X = X
luego

2
X = X (
2
) X = 0
lo que conduce a que = 0 o = 1.
Ejercicio A.1.4. Si A es sim etrica idempotente no singular entonces A = I.
Ejemplo A.1.4.
Si X = (X
1
, X
2
) tiene una distribuci on normal conjunta con media = (2, 3)

y matriz de
covarianzas:
R =
_
10 2
2 1
_
y se denen las variables: W
1
= X
1
3X
2
, W
2
= 2X
1
X
2
, W = (W
1
, W
2
)

, entonces:
1. Compruebe que R es denida positiva, es decir, compruebe que
R
2
, ,= (0, 0)

R > 0
2. Encuentre E(W) y la matriz de covarianzas de W.
198
3. Encuentre la correlaci on entre W
1
y W
2
.
4. Soluci on
5. Podemos escribir Z = AX donde
A =
_
1 3
2 1
_
luego
E(Z) = A =
_
1 3
2 1
__
2
3
_
=
_
7
1
_
Matriz de covarianzas de Z es
ARA

=
_
1 3
2 1
__
10 2
2 1
__
1 2
3 1
_
=
_
7 9
9 33
_
6. La correlaci on es:

Z1,Z2
= (ARA

)
1,2
/
_
(ARA

)
1,1
(ARA

)
2,2
= 9/
_
7(33) = 0.59
Ejemplo A.1.5. 1. Suponga que X es un vector aleatorio con distribuci on normal multivari-
ada con vector de medias y matriz de covarianzas R. Suponga que S es una matriz
sim etrica ja. Considere la variable real V dada por: V = X

SX.
2. Compruebe que se cumple E(V ) = S + tr(SR), donde tr(A) indica la traza de una
matriz cuadrada A, es decir, la suma de los elementos de su diagonal, tr(A) =

n
j=1
A
j,j
.
Utilice adem as la expresi on para el elemento (j,j) del producto de dos matrices A y B,
AB
j,j
=

n
k=1
A
j,k
B
k,j
.
Si S =
_
4 22
22 1
_
encuentre E(V ) con los datos de la distribuci onde X del problema
anterior (??).
3. Soluci on
a)
E(V ) = E(X

SX) = E(
n

j=1
n

k=1
S
j,k
X
j
X
k
)
=
n

j=1
n

k=1
S
j,k
E(X
j
X
k
)
=
n

j=1
n

k=1
S
j,k
(cov(X
j
, X
k
) + E(X
j
)E(X
k
))
199
=
n

j=1
_
n

k=1
S
j,k
cov(X
j
, X
k
)
_
+
n

j=1
n

k=1
S
j,k

k
=
n

j=1
_
n

k=1
S
j,k
R
k,j
_
+
n

j=1
n

k=1
S
j,k

k
=
n

j=1
(SR)
j,j
+

S = tr(SR) +

S
b)

S = (2, 3)
_
4 22
22 1
__
2
3
_
= 239
Adem as
SR =
_
4 22
22 1
__
10 2
2 1
_
=
_
4 14
218 43
_
luego tr(SR) = 4 43 = 47. Por tanto, E(V ) = 239 47 = 286.
A.1.1. Procedimientos de Factorizaci on
En esta secci on se describen dos procedimientos para encontrar una matriz P tal que R = PP

,
en el caso de ser R denida positiva.
Factorizaci on Espectral o Raz Cuadrada
Suponga Rdenida positiva sim etrica. sea B matriz ortogonal B

= B
1
formada por los valores
propios de Rnormalizados. Entonces se cumplen las identidades: B

RB = , R = BB

, donde
= Diag(
1
,
2
, ,
n
) es una matriz diagonal, con
i
R
+
. Si se denen las matrices:

1
2
= Diag(
_

1
,
_

2
, ,
_

n
) y P = B
1
2
B

entonces P es sim etrica, ya que


P

= (B
1
2
B

= B(B
1
2
)

= B
1
2
B

Adem as, es la unica matriz que cumple P


2
= R, ya que
P
2
= B
1
2
B

B
1
2
B

= B
1
2

1
2
B

= BB

= R.
Por lo anterior P se puede denir como la raz cuadrada de R y se puede escribir R
1
2
= P. Como
se cumple R = PP

se obtiene inmediatamente que, si Y N(, R) con R denida positiva


entonces
Z = R

1
2
(Y ) N
n
(0, I
n
).
En Matlab las matrices B y se calculan con la instrucci on [B,D] = eig(R).
200
Factorizaci on de Cholesky
R siempre puede escribirse R = LU donde U = L

es no singular, con U triangular superior, es


decir las entradas debajo de la diagonal principal son nulas. Llamando P = L entonces R = PP

y por tanto
Z = P
1
(Y ) N
n
(0, I
n
).
Matlab calcula U con la instrucci on U = Chol(R).
Ejemplo A.1.6.
R =
_

_
2/5 1/5 0 0
1/5 3/5 0 0
0 0 1 1
0 0 1 2
_

_
=
_

_
1
0
2
1
_

_
X N
n
(, R)
Programa Matlab
r = [2/5 -1/5 0 0 ;-1/5 3/5 0 0 ; 0 0 1 -1 ; 0 0 -1 2 ];
[b,d] = eig(r);
mu = [ 1 ; 0 ; 2 ; -1 ];
p = b*sqrt(d)*b;
p*p
r
p_1 = inv(p)
z = normrnd(0,1,4,1);
x = mu + p*z;
c = Chol(r);
c*c, r
z_1 = normrnd(0,1,4,1);
x_1 = mu + c*z_1
p =
_

_
0.6155 0.1453 0 0
0.1453 0.7608 0 0
0 0 0.8944 0.4472
0 0 0.4472 1.3436
_

_
p
1
(X ) = Z = (Z
1
, Z
1
Z
3
, Z
4
)

N
4
(0, I
4
)
Las Z
j
son N(0, 1) independientes.
Si Z = normrnd(0, 1, 4, 1) se genera un vector N
4
(0, I
4
) y por tanto X = +p Z es un vector
R
4
N
4
(, R).
_

_
0.9758
1.2044
1.9834
0.6701
_

_
1
0
2
1
_

_
+
_

_
0.6155 0.1453 0 0
0.1453 0.7608 0 0
0 0 0.8944 0.4472
0 0 0.4472 1.3436
_

_
_

_
0.4326
1.6656
0.1253
0.2877
_

_
201
X N
4
(, R)
A.2. Distribuciones Marginales y Condicionales
Las distribuciones condicionadas normales multivariadas juegan un papel importante en la teora
de estimaci on y detecci on.
El resultado b asico es el siguiente: si X = (X
1
, X
2
, , X
n
)

es un vector aleatorio normal


multivariado y se particiona en dos X = (X
1
, X
2
)

donde
X
1
= (X
1
, X
2
, , X
s
) s < n
X
2
= (X
s+1
, X
s+2
, , X
n
)
Entonces X
1
y X
2
tienen distribuciones normales multivariadas.
Si = (
1
,
2
, ,
n
)

es el vector de medias y se particiona en


= (
1
,
2
)

=
_

1

2
_
adem as
R = [Cov(X
i

i
)(X
j

j
)]
nn
= E((X )(X )

)
es la matriz de covarianzas particionada en la forma siguiente:
R =
_
R
11
R
12
R
21
R
22
_
con R
11
, R
22
no singulares
donde R
11
es s s, R
12
es s (n s), R
21
es (n s) s y R
22
es (n 2) (n s) entonces
se cumple que
1. X
1
es normal multivariada con media
1
y matriz de covarianzas R
11
y X
1
N
s
(
1
, R
11
).
2. X
2
es normal multivariada conmedia
2
ymatriz de covarianzas R
22
yX
2
N
ns
(
2
, R
22
)
La prueba se hace por medio de la funci on caracterstica.
202
Sabemos que
X
(t
1
, t
2
, , t
n
) = e
i t1
1
2
t

R t
pero
t

= [t
1
, , t
s
, t
s+1
, , t
n
]
_

1
.
.
.

s+1
.
.
.

n
_

_
= t

1

1
+t

2

2
= (t

1
, t

2
)(
1
,
2
)

= [t

1
, t

2
]
_

1

2
_
= R
12
y
t

R t = [t
1
, , t
s
, t
s+1
, , t
n
]
_
R
11
R
12
R
21
R
22
_
_

_
t
1
.
.
.
t
s
t
s+1
.
.
.
t
n
_

_
= [t

1
, t

2
]
_
R
11
R
12
R
21
R
22
__
t
1
t
2
_
= t

1
R
11
t
1
+ t

1
R
12
t
2
+t

2
R
21
t
1
+t

2
R
22
t
2
= t

1
R
11
t
1
+ 2t

1
R
12
t
2
+ t

2
R
22
t
2
donde t

1
R
12
t
2
= t

2
R
21
t
2
y t

1
es de orden 1 s, R
11
es de orden s s por tanto t

1
R
11
es de
orden 1 s luego t

1
R
11
t
1
es de orden 1 1.
Similarmente t

1
R
12
t
1
es de orden (1 s)(s (n s)) = 1 (n s) y t

1
R
12
t
2
es de orden
(1 (n s))(n s) 1 = 1 1 etc.
La fc de X
1
se obtiene colocando t
2
= 0 ya que

X1
(t
1
, , t
s
) = Eleft(e
i

n
i=1
tiXi
right)
=
X1
(t
1
, , t
s
, 0, , 0)
= E
_
e
i

n
i=1
tiXi
_
203
Luego

X1
(t
1
, , t
s
) = e
i t1 1
1
2

1
R11 1
por tanto
X
1
N
s
(
1
, R
11
)
igualmente para X
2
N
ns
(
2
, R
22
).
Nota A.2.1. A partir del resultado anterior se puede conclur tambi en que cada X
i
es normal,
con X
i
N(
i
,
2
i
) ,
2
i
= R
ii
elemento i- esimo de la diagonal de R.
Distribuciones Condicionales
La funci on de densidad de X
1
dada X
2
est a denida por
f
X1
( x
1
[ X
2
= x
2
) =
f
X
( x )
f
X2
( x
2
)
pero
f
X
( x ) =
1
(2)
n
2
[R]
1
2
e

1
2
( x )

R
1
( x)
y
f
X2
( x
2
) =
1
(2)
ns
2 [R
22
]
1
2
e

1
2
( x22 )

R
1
22
( x22)
luego
f
X1
( x
1
[ X
2
= x
2
) =
[R
22
]
1
2
(2)
s
2
[R]
1
2
e

1
2
_
( x )

R
1
( x)( x22 )

R
1
22
( x22)
_
pero
_
I R
12
R
1
22
0 I
__
R
11
R
12
R
21
R
22
__
I 0
R
1
22
R

12
I
_
= R
1
RR
2
=
_
R
11
R
12
R
1
22
R

12
0
0 R
22
_
= C
donde
C = R
1
RR
2
C
1
= Diag
_
R
11
R
12
R
1
22
R

12
)
1
, R
1
22
_
R = R
1
1
CR
1
2
R
1
= R
2
C
1
R
1
Tomando determinantes a ambos lados se tiene
[R[ = [R
11
R
12
R
1
22
R

12
[[R
22
[
luego
[R
22
[
[R[
=
1
[R
11
R
12
R
1
22
R

12
[
204
adem as
( x )

R
1
( x ) =
= [( x
1

1
)

, ( x
2

2
)

]
_
I 0
R
1
22
R

12
I
__
(R
11
R
12
R
1
22
R

12
)
1
0
0 R
1
22
_
_
I R
12
R
1
22
0 I
_
[( x
1

1
)

, ( x
2

2
)

=
=
_
(x
1

1
)

( x
2

2
)

R
1
22
R

12
, ( x
2

2
)

_
(R
11
R
12
R
1
22
R

12
)
1
0
0 R
1
22
_
_
x
1

1
R
12
R
1
22
( x
2

2
), x
2

2

El resultado puede expresarse as:


Proposici on A.2.1. La variable condicionada X
1
[ X
2
= x
2
se distribuye normal multivariada
con media
E( X
1
[ X
2
= x
2
) = X
1
=
1
+R
12
R
1
22
( X
2

2
)
y la matriz de covarianzas de X
1
[ X
2
= x
2
es
R
X1 | X2
= R
11
R
12
R
1
22
R

12
y por tanto
X
1
[ X
2
= x
2
N
s
_

1
+ R
12
R
1
22
( x
2

2
), R
11
R
12
R
1
22
R

12
_
Ejemplo A.2.1. Suponga que X = (X
1
, X
2
, X
3
)

se distribuye normal multivariada con


= (0, 1, 0) R =
_

_
2 1 2
1 1 3
2 3 11
_

_
entonces
1. R es denida positiva ya que, utilizando el criterio de Sylvester se tiene

1
= 2 > 0
2
=

2 1
1 1

= 1 > 0
3
= [R[ = 1 > 0
2. Encuentre la matriz de covarianzas de Y = (X
2
, X
3
) el vector de medias
Y
y la fdp
conjunta.
R
Y
= R
13
_
2 2
2 11
_
205
donde
Cov(X
1
, X
3
) = Cov(X
3
, X
1
) = 2
V ar(X
1
) = 2
V ar(X
3
) = 11

Y
= (0, 0)

si Y = (x
1
, x
3
)

Sabemos que
f
Y
( y ) =
1
(2)
2
2 [R
13
[
1
2
e

1
2
_
( y
Y
)

R
1
13
( y
Y
)
_
donde
[R
13
[ =

2 2
2 11

= 22 4 = 18
R
1
13
=
1
18
_
11 2
2 2
_
luego
( y
Y
)

R
1
13
( y
Y
) =
1
18
[x
1
x
3
]
_
11 2
2 2
__
x
1
x
3
_
=
1
18
[11x
1
2x
3
, 2x
1
+ 2x
3
]
_
x
1
x
3
_
=
1
18
(11x
2
1
2x
1
x
3
2x
1
x
3
+ 2x
2
3
)
=
1
18
(11x
2
1
4x
1
x
3
+ 2x
2
3
)
Luego
f
Y
( y ) =
1
(2)
2
2

18
e

1
36
_
11x
2
1
4x1x3+2x
2
3
_
3. Encuentre la distribuci on de X
2
[ X
1
, X
3
X
2
[ X
1
, X
3
N
1
(
2|1,3
, R
2|1,3
)
Sabemos en general que si X
1
R
s
y X
2
R
ns
X
1
[ X
2
N
s
(
1|2
, R
1|2
) s = 1

1|2
=
1
+R
12
R
1
22
(X
2

2
) 1 1
R
1|2
= R
11
R
12
R
1
22
R

12
1 1
206
donde
R =
_

_
2 12
1 1 3
2 3 11
_

_
R
22
es la matriz de covarianzas de las variables en el condicional X
1
y X
3
por tanto
R
22
=
_
2 2
2 11
_
y R
1
22
=
1
18
_
11 2
2 2
_
adem as
R
12
= [1 , 3]
R
11
= 1
R
21
=
_
1
3
_
luego
R
11
R
12
R
1
22
R
21
= 1
1
18
[1 , 3]
_
11 2
2 2
__
1
3
_
= 1
1
18
[5 4]
_
1
3
_
= 1
1
18
(5 + 12)
= 1
17
18
=
1
18
adem as
1
=
2
= 1 y
2
= (0, 0)

y por tanto

1|2
=
1
+ R
12
R
1
22
(X
2

2
)
= 1 +
1
18
[1 , 3]
_
11 2
2 2
__
x
1
x
3
_
= 1 +
1
18
[5 , 4]
_
x
1
x
3
_
= 1
1
18
(5x
1
+ 4x
3
)
Luego
X
2
[ X
1
, X
3
N
_
1
1
18
(5x
1
+ 4x
3
) ,
1
18
_
Ejercicio A.2.1. Si X N
n
( , R) y
X
s
N(
s
, R
s
)
207
X
ns
N(
ns
, R
ns
)
entonces

s
X
s
y

ns
X
ns
se distribuyen normal bivariada encuentre
Cov(

s
X
s
,

ns
X
ns
)
208
AP

ENDICE B
Notas
Esta secci on contiene algunas f ormulas utiles para resolver algunos de los problemas.
1. Si X N(,
2
), entonces la fgm de X es M
X
(t) = e
t+t
2

2
/2
, para t R.
2. Si X Geo(p) entonces
P(X = k) = qp
k
, k = 0, 1, 2, . . ., p (0, 1), q = 1 p.
E(X) = p/q, V ar(X) = p/q
2
.
M
X
(t) = E(e
tx
) = q/(1 pe
t
), t < ln(1/p)
Ver Devore ((Devore 2001), pag. 127) y el Help de Matlab.
3. Si X BN(n, p) entonces
a) P(X = k) =
_
n +k 1
k
_
q
n
p
k
, k = 0, 1, 2, . . .
b) Si X
1
, . . . , X
n
son n variables aleatorias i.i.d, distribudas Geo(p), entonces X =
X
1
+ . . . + X
n
BN(n, p). La suma de n variables i.i.d Geom etricas es Binomial
Negativa.
c) E(X) = np/q, V ar(X) = np/q
2
.
209
210
d) M
X
(t) = [q/(1 pe
t
)]
n
, t < ln(1/p)
4. Si X Poisson() entonces
P(X = k) = e

k
/k!, k = 0, 1, 2, . . ..
E(X) = V ar(X) =
M
X
(t) = E(e
tX
) = e
(e
t
1)
, t R.
Si X
1
, . . . , X
n
son n variables aleatorias i.i.d, distribudas Poisson(), entonces S =
X
1
+ . . . + X
n
Poisson(n). La suma de n variables i.i.d Poisson es nuevamente
Poisson.
5. Si X ExP(), > 0 entonces
f
X
(x) = (1/)e
x/
, x 0
F
X
(x) = 1 e
x/
, x 0
E(X) = , V ar(X) =
2
M
X
(t) = 1/(1 t), t < 1/
6. Si X U(a, b), Uniforme en (a, b), entonces
f
X
(x) = I(a x b)/(b a), donde I(A) es la funci on indicadora de la condici on
A, con I(A) = 1 si A es cierta e I(A) = 0, si A es falsa.
E(X) = (a + b)/2
E(X
2
) = (b
3
a
3
)/(3(b a))
V ar(X) = (b a)
2
/12
7. (Unas f ormulas asociadas al teorema de probabilidadtotal). Si X yN sonvariables aleatorias
y P(N = n) = p
n
, n = 0, 1, . . . es la fdp de N, entonces si se dene la variable Z =
f(X, N) donde f(x, y) es una funci on de dos variables, se pueden calcular probabilidades
para Z con la ayuda del teorema de probabilidad total. Por ejemplo,
P(Z t) =

n=0
P(Z t[N = n)P(N = n)
=

n=0
P(f(X, n) t[N = n)p
n
En el caso de ser X y N independientes la ultima expresi on se reduce a

n=0
P(f(X, n) t)p
n
211
Si adem as se pudiera calcular la probabilidad P(f(X, n) t) el problema de calcular
P(Z t) estara resuelto. Lo mismo puede hacerse cuando se intenta calcular un valor
esperado como E(Z) = E(f(X, N)) reemplazando las probabilidades condicionales por
esperanzas condicionales.
8. Si X es una variable aleatoria continua con fda F
X
(x), para x 0, entonces el k- esimo
momento de X, E(X
k
), k = 1, 2, . . ., se puede calcular mediante la expresi on: E(X
k
) =
k
_

0
x
k1
(1 F
X
(x))dx. Esta integral puede dar +.
9. La ecuaci on recursiva x
n
= ax
n1
+b
n
, n = 1, 2, . . . , donde a es una constante conocida
y (b
n
) es una sucesi on conocida, tiene soluci ondada por: x
n
= a
n
(x
0
+

n
j=1
a
j
b
j
), n =
1, 2, . . ..
212
Bibliografa
Arnold, L. (1974): Stochastic Differential Equations. Theory and Applications. John Wiley
and Sons, New York.
Box, G., and A. Luce no (2002): Statistical Control by Monitoringand Feedback Adjustment.
John Wiley and Sons, New York.
Boyce, W. E., and R. DiPrima (1983): Ecuaciones Diferenciales y Problemas con Valores
en la Frontera. Limusa, M exico.
Braun, M. (1986): Ecuaciones Diferenciales. Wadsworth, M exico.
Brockwell, P. J., and R. Davis (1987): Time Series: Theory and Methods. Springer Verlag,
New York.
Cramer, H., and M. R. Leadbetter (1968): Stationary and Related Stochastic Processes.
John Wiley and Sons, New York.
Devore, J. (2001): Probabilidady Estadsticapara Ingenieray Ciencias. Thompson Learning,
M exico.
Fan, J., and Q. Yao (2003): Nonlinear Time Series. Springer-Verlag New York, Inc., New
York.
Feller, W. (1978): Introducci on a la Teora de Probabilidades y sus Aplicaciones. Vol. 2.
Editorial Limusa, M exico.
Ferrante, L. (2000): Parameter Estimation in a Gompertzian Stochastic Model of Tumor
Growth, Biometrics, 56, 10761081.
213
214
Franks, L. (1986): Teora de la Se nal. Ed. Revert e, Madrid.
Grimmett, G., and D. Stirzaker (1994): Probability and Stochastic Processes. Oxford
University Press, Inc., New York.
Hoel, P. G., S. C. Port, and C. J. Stone (1972): Introduction to Stochastic Processes.
Houghton Mifin Co., Boston, MA.
Jazwinski, A. H. (1970): Stochastic Processes and Filtering Theory. Academic Press, Inc.,
San Diego, CA.
Lange, K. (2003): Applied Probability. Springer-Verlag New York, Inc., New York.
Medhi, V. (1978): Stochastic Processes. Jhon Wiley and Sons, New York.
Nowicka-Zagrajek, J., and R. Weron (2002): Modeling electricity loads in California:
ARMA models with hyperbolic noise, Signal Processing, 82, 19031925.
Papoulis, A. (1965): Probability, Random Variables, and Stochastic Processes. McGraw-Hill
Book Co., New York.
Parzen, E. (1972): Procesos Estoc asticos. Ed. Paraninfo, Madrid.
Reed, D., and R. H. Scanlan (1983): Time Series Analysis of Cooling Tower Wind
Loading, Journal of Structural Engineering, 109(2), 538554.
Ross, S. (1989): Stochastic Processes. John Wiley and Sons, New York.
Schuss, Z. (1980): Theory and Applications of Stochastic Differential Equations. John Wiley
and Sons, New York.
Svesnikov, V. (1968): Problems in Probability and Random Functions. W. Saunders and Co.,
Philadelphia.
Tuckwell, H. (1974): AStudy of Some Diffusion Models of PopulationGrowth, Theoretical
Population Biology, 5, 345357.
Vasicek, O. (1977): An Equilibrium Characterization of the Term Structure, Journal of Fi-
nancial Economics, 5, 177188.
Vervaat, W. (1979): On a Stochastic Difference Equation, Advances in Applied Probability,
11, 750783.
Wong, E., and B. Hajek (1971): Stochastic Processes in Engineering Systems. Springer-
Verlag, New York.

Indice alfab etico


Autocorrelaci on Muestral, 71
An alisis de Series de Tiempo, 74
Continuidad, 47
con probabilidad uno, 47
en media cuadr atica, 47, 89, 90
en probabilidad, 47
Convergencia, 33
con Probabilidad 1, 34
en Distribuci on, 34
en Media r = 1, 2, . . ., 34
en Media Cuadr atica, 34
en Probabilidad, 34
Convergencia
en Media Cuadr atica
Propiedades, 38
Correlograma, 72
Derivada en Media Cuadr atica, 91
Desigualdad
de Cauchy-Schwarz, 31
de Chebyshev, 30
de Jensen, 32
de Lyapunov, 31
de Markov, 30
Triangular General, 29
Diferencial Estoc astico, 153
Distribuci on
Hiperb olica, 79
Invariante, 132
Ecuaci on
de Chapman-Kolmogorov, 130
de Fokker-Plank, 142
Prospectiva, 142
Retrospectiva, 142
Esperanza Condicional, 9
Estacionario Estricto, 51
Funci on
c oncava, 32
convexa, 32
de autocorrelaci on
muestral, 71
de autocorrelaci on parcial, 73
de densidad de transici on, 130
de distribuci on nito dimensional, 46
de Transici on, 130
uctuaci on cuadr atica media, 52
Generadora de Momentos, 36
Generadora de Momentos
de una Normal, 36
de una Poisson, 36
Incremento Poisson, 59
215
216
Lema de Ito, 155
Ley D ebil de Grandes N umeros, 36
Ley Fuerte de Grandes N umeros, 36
Matriz
de Toeplitz, 73
Modelo
de Riesgo Colectivo, 22
Momento
absoluto de orden r, 31
de Orden r, 31
Poisson Shot Noise, 98
Probabilidad de Extinci on, 15
Proceso
Movimiento Browniano, 111
adaptado, 149
AR(1), 68
AR(2), 80
AR(p), 64
ARMA(1,1), 70
ARMA(p,q), 63
Cadena de Markov, 132
Causal, 55
de difusi on, 142
de Galton-Watson, 12
de incrementos independientes, 18
de Markov, 18, 129
de Markov
homog eneo, 131
de Ornstein-Uhlenbeck, 139, 146, 163
de Poisson, 20
de Ramicaci on, 12
de Renovaci on, 22
de Wiener, 111
Erg odico, 57
Estoc astico, 45
Gaussiano, 109
Incremento Poisson, 59
MA(q), 64
Marcha Aleatoria No Restringida, 18
Se nal Telegr aca, 60, 61
Proceso Martingala
en tiempo discreto, 24
Pron osticos, 56
Ruido blanco Poisson, 98
Ruido Blanco tiempo discreto, 54
Suma Aleatoria de Variables Aleatorias, 22
Teorema
Consistencia de Kolmogorov, 46
Convergencia Mon otona, 35
de Wold, 56
Teorema del Lmite Central, 37
Trayectoria muestral, 46
Variables Aleatorias Normales Multivariadas,
187
Varianza Condicional, 11
Variograma, 72

También podría gustarte