Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Convergencia Geom
etrica de
Probabilidades de Transici
on
hacia Distribuciones Invariantes
Gabriel Hugo Flores Gomez
4 de julio de 2007
Agradecimientos
A mi asesor Dr. Ra
ul Montes de Oca, por su excelente direccion, por su calidez
humana y su paciencia infinita que tuvo hacia mi persona.
Al Dr. Julio Cesar Garca Corte, Dr. Juan Gonzalez Hernandez y al Dr. Evgueni
Illich Gordienko, que con sus comentarios y correcciones me permitieron tener
una mejor version de este trabajo.
Al Dr. Evgueni Illich Gordienko por hacerme notar la existencia de los trabajos
de N. V. Kartashov y su relacion con esta tesis.
A Conacyt que me proporciono beca durante dos a
nos.
Con la UAM-I por las facilidades que me fueron otorgadas en la realizacion de
mis estudios y en la realizacion de esta tesis.
Finalmente, con el Instituto de Educacion Media Superior del D.F, que me
brinda estabilidad y un espacio de desarrollo profesional y laboral.
Indice general
I
Preliminares
1. Introducci
on
11
2. Cadenas de Markov
15
15
18
19
21
23
23
25
29
3.1. Acoplamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
30
34
37
38
INDICE GENERAL
40
41
II
4. Planteamiento y antecedentes
47
4.1. Planteamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
4.2. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
III
Tasas de convergencia
51
5. M
etodo espectral
53
6. Acoplamiento
59
60
60
61
62
6.2.1. Desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
6.2.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
7. Sucesiones aperi
odicas y renovaci
on
73
7.1. Desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
7.1.1. Cotas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
78
7.1.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
INDICE GENERAL
Conclusi
on y problemas
abiertos
IV
89
8. Conclusi
on y problemas abiertos
87
91
8.1. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
95
Ap
endices
97
A. Resultados b
asicos
99
99
107
C. Procesos de decisi
on de Markov
115
. . . . . . . . . . . . . . . . . . . 117
123
INDICE GENERAL
Parte I
Preliminares
Captulo 1
Introducci
on
Este trabajo esta relacionado con Cadenas de Markov (CMs), con espacio de
estados contenido en R, las cuales suponemos que cuentan con distribuciones
invariantes ([11], [33], [37], [40], [43]).
Para tales CMs se presenta un estudio acerca de las tasas de convergencia, en
alguna metrica adecuada, de las probabilidades de transicion hacia las distribuciones invariantes ([4],[23], [24], [26],[30], [31], [39], [41], [44], [45], [46], [47], [49],
[51], [54]).
Cabe se
nalar que en algunas de las referencias mencionadas en el parrafo anterior, u
nicamente se presentan condiciones para garantizar la existencia de una
tasa de convergencia de tipo geometrico, sin proponerla de forma explcita
([55]).
Esencialmente, en este trabajo nos concentraremos en el tratamiento explcito
de las tasas de tipo geometrico.
Cuando se tienen tasas de convergencia de forma explcita, estas pueden ser
aplicadas, por ejemplo, en el analisis de la estabilidad de procesos de decision
de Markov (PDMs) ( vease [12], [35], [50]), y en los algoritmos relacionados con
la Cadena de Markov de Montecarlo ([44]).
Especficamente, las tasas presentadas en este trabajo, corresponden a CMs con
propiedades especiales, como son: la presencia de un espacio de estados finito,
compacto o con elemento mnimo, la monotonicidad estocastica, y la renovacion.
La teora y los ejemplos presentados tienen como base, principalmente, los
artculos [4], [30], [31], [35] y [47]. Esta seleccion de artculos, aunque no es
exhaustiva, da un panorama de las distintas tecnicas encontradas en la litera11
12
CAPITULO 1. INTRODUCCION
13
La cuarta parte contiene un captulo con la conclusion y los problemas abiertos
de la tesis. En el captulo ofrecemos, ademas, una tabla cuyo contenido es el
conjunto de las condiciones requeridas en la parte III, con las cuales se obtiene
convergencia de tipo geometrico a la distribucion invariante. Esto u
ltimo es
con el proposito de que el lector tenga una gua rapida de consulta y acceso al
material relacionado con las tasas de convergencia.
Finalmente, la u
ltima parte contiene cuatro apendices. Los dos primeros muestran resultados auxiliares acerca de cadenas de Markov. El tercero presenta una
introduccion a los PDMs y a su estabilidad para el caso de costo promedio esperado, y en el cuarto se proporcionan resultados auxiliares para el captulo
7.
14
CAPITULO 1. INTRODUCCION
Captulo 2
Cadenas de Markov
Este captulo esta dedicado a establecer ciertos conceptos relacionados con cadenas de Markov.
Revisaremos las propiedades de CMs que se desprenden en relacion a su construccion y estructura. Ademas, se da la teora necesaria para construir realizaciones de Markov con distribuciones aleatorias (split chain), las cuales tendran
una propiedad de gran interes: la regeneraci
on.
El presente captulo esta basado en las siguientes referencias: [2],[33], [36], [37],
[43] y [56].
2.1.
Definici
on y propiedades
16
= E N , donde N = N
{0} y N es el conjunto de n
umeros naturales.
A ,
c.s.
(2.1a)
c.s.
(2.1b)
Y PROPIEDADES
2.1. DEFINICION
17
Px ser
a la probabilidad obtenida con el teorema de Ionescu-Tulcea, cuando
la distribuci
on inicial es x , donde
1, si x A
x (A) :=
,
0, si x
/A
A .
Si Y es una variable
R aleatoria definida en (, F, P ), entenderemos por
E [Y ] la integral Y dP . Cuando = x , se denotar
a esta esperanza
por Ex [Y ].
Ahora daremos algunas propiedades que tienen las realizaciones de Markov,
refiriendose a su respectiva ley de probabilidad (estas propiedades pueden ser
consultadas en [33] y [43]).
Propiedades 2.1.1 Bajo el contexto de la definici
on 2.1.2, se cumplen las
siguientes propiedades:
(a) Si n 0 y B0 , ..., Bn . Entonces
Z
P (X0 B0 , . . . , Xn Bn )
Z
(dx0 )
B0
p(x0 , dx1 ) . . .
B1
p(xn1 , dxn ).
Bn
R
(b) Para n 1 y A se define pn (x, A) := E p (x, dy) pn1 (y, A). Entonces
se tiene:
Px (Xn A) = pn (x, A) , n 1.
(c) Sean A F, B , Y una variable aleatoria definida sobre y n 1.
Entonces se tiene:
R
(i) P (Xn B) = pn (B) := E pn (x, B) d(x),
R
(ii) P (A) = E Px (A)d(x),
R
(iii) E [Y ] = E Ex [Y ] d(x),
(iv) P ((X0 , ..., Xn , ...) A|X0 = x) = Px ((X0 , ..., Xn , ...) A).
(d) La ecuaci
on de Chapman-Kolmogorov, es decir:
Z
pn (x, A) =
pm (x, dy)pnm (y, A), m n.
E
Observaci
on 2.1.1 Existen varias caracterizaciones de la propiedad de Markov (2.1b). Los lectores interesados en consultarlas lo pueden hacer, por ejemplo,
en [43].
18
2.2.
Distribuci
on invariante
Definici
on 2.2.1 Decimos que es la distribuci
on invariante
o distribuci
on estacionaria para la realizaci
on X, si:
Z
(A) =
p (x, A) d(x),
A .
o equivalentemente, para A
(A) = P (X1 A) .
La explicacion del nombre en la definicion anterior, la podemos ver a partir de
lo siguiente.
(A) =
E
on inicial
Por lo tanto, si {Xn }
n=0 es una cadena de Markov con distribuci
, se tiene que:
P (Xn A) = P (Xm A).
para toda m y n.
(b) Si {Xn }
on inicial , entonces
n=0 es una cadena de Markov con distribuci
es
estacionario,
es
decir,
los
procesos
(X) y X tienen
el proceso {Xn }
n=0
la misma distribuci
on, donde es el operador corrimiento (vease [43]).
Demostraci
on.
(a) A partir la definicion 2.2.1, obtenemos la afirmacion de manera directa.
(b) Resulta del hecho de que pn = pm , para toda m y n (vease inciso (c)
de las propiedades 2.1.1).
La existencia de distribuciones invariantes se observa en el inciso (b) de la
proposicion 2.3.2, debido a su relacion con el concepto de irreducibilidad.
2.3. ANALISIS
DE LA ESTRUCTURA EN EL ESPACIO DE ESTADOS 19
2.3.
An
alisis de la estructura en el espacio de
estados
20
Definici
on 2.3.2 Sea MIr = { : es medida de probabilidad irreducible para
p} y MIr .
Decimos que es medida irreducible maximal si, para toda MIr se
cumple que .
Observaci
on 2.3.1 Para CMs con espacios de estados numerables, se puede
verificar que la medida irreducible maximal, es justamente la medida de conteo.
La siguiente proposicion, muestra que la definicion 2.3.2, no es vaca.
Proposici
on 2.3.1 Suponga que p es -irreducible. Entonces existe una medida
irreducible maximal.
Demostraci
on. Vease [33, p.88], [37, p. 13] o [54, p. 841].
{x E : pn (x, A)
n,mN
1
}.
m
2.3. ANALISIS
DE LA ESTRUCTURA EN EL ESPACIO DE ESTADOS 21
para todo x B, pero entonces,
Z
Z
n
(A) =
p (x, A)(dx)
pn (x, A)(dx)
E
B
Z
1
(dx) > 0.
B m
Por lo tanto .
(b)
Puede encontrarse en [37, p.32].
2.3.1.
Condici
on de minorizaci
on y de Foster-Lyapunov
En este apartado definimos las propiedades importantes que tendran las CMs a
lo largo del trabajo.
Definici
on 2.3.4 Sea p un kernel de transici
on. Decimos que p satisface la
condici
on de minorizaci
on, si existen m0 N, 0 < < 1, una funci
on S
que es medible de en B(R+ ) y una probabilidad definida en , tal que:
pm0 (x, .) S(x)(.),
x E.
(2.2)
x C y A .
22
Observaci
on 2.3.3 El conjunto C definido en la condici
on de minorizaci
on
M (n, , IC , ), es un conjunto peque
no, donde IC es la funci
on indicadora.
Para que el kernel p satisfaga la condicion M (m0 , , S, ) necesitamos la existencia de la funcion S, la medida y el conjunto C . En la seccion A.1 de el
ap
endice A, se observa que si p es irreducible para , entonces se tiene la
existencia de la funcion S, la probabilidad y el conjunto C.
Por otro lado, si un conjunto peque
no C tiene medida positiva con respecto a
, vemos de la definicion 2.3.5, que es medida irreducible para p; as tenemos
que la cadena X es -irreducible. Con esto se tiene un metodo para verificar la
-irreducibilidad.
Ahora damos algunas definiciones relacionadas con los conceptos de conjunto
peque
no y de recurrencia. Estas definiciones seran ocupadas en la construccion
de cadenas particionantes (split chain).
Definici
on 2.3.6 En el contexto de la definici
on 2.3.5, diremos que :
(i) X es -recurrente( o Harris recurrente), si para todo B con (B) >
0, se tiene:
Px (Xn B, para alg
un n) = 1,
x B.
x E.
Finalmente terminamos este apartado con la siguiente definicion, que sera ocupada como hipotesis en el siguiente captulo.
Definici
on 2.3.7 Sean C conjunto peque
no, 0 < < 1, 0 < b < y V : E
[1, ]. Decimos que p satisface la propiedad de Foster-Lyapunov para V ,
, b y C si para x E se cumple:
Z
pV (x) :=
V (y)p(x, dy) V (x) + bIC (x).
E
2.4.
23
n } , que tienen
En esta seccion, construiremos realizaciones de Markov {X
n=0
la propiedad de que su espacio de estados esta formado por una particion de
conjuntos y su kernel de transicion esta definido por partes. Estas cadenas las
llamaremos particionantes.
Presentamos aqu, las dos construcciones existentes en la literatura, que generan
este tipo de cadenas. El material aqu recopilado fue consultado en [2], [33] y
[36].
Para el desarrollo del tema, damos el siguiente contexto.
Sea X = {Xn } una CM con kernel p y espacio de estados E. Ademas supongase
que X es Harris-recurrente y fuertemente aperiodica.
con las propiedades mencionadas
A partir de esta CM construiremos otra CM X
en el primer parrafo de esta seccion.
como un cadena bivariada, que tendra en
Para lograr este fin, se construira a X
su primera componente a la CM X y en su segunda componente a una sucesion
de variables aleatorias indicadoras.
donde
tendra la caracterstica de que su espacio de estados sera (E,
),
X
:=
E {0, 1}
(E {0})
(E {1})
2.4.1.
Construcci
on de Nummelin
p(x, .) (.)
,
1
con x C.
24
Construcci
on 2.4.1 (Nummelin [36]) Sea pe un kernel de transici
on definido
donde es la
e ,
en E
algebra de E {0, 1}.
pe ((x, 0) , B {0}) := (1 ) Q (x, B) ,
pe ((x, 1) , B {0}) := (1 ) (B) ,
pe ((x, 0) , B {1}) :=
pe ((x, 1) , B {1}) :=
Q (x, B) ,
(B) .
donde x E y B .
Observaci
on 2.4.1
en ,
el teorema de
(a) Con el kernel p y una medida de probabilidad
=
Ionescu-Tulcea garantiza la existencia de una cadena de Markov X
y kernel
F , P ), espacio de estados (E,
),
n } con espacio base (,
{X
n=0
p.
n = (Xn , In ),
(b) Se puede ver, a partir de la definici
on para el kernel p, que X
on de variables aleatorias
donde n = 0, 1, 2, . . . y {In }n=0 es una sucesi
independientes con valores en 0 y 1, tal que P(x,a) (In = 1) = para todo
(x, a) E.
(c) Presentamos de manera gr
afica la interpretaci
on de la construcci
on anterior,
E x {0}
Distribucin
Q
1-
E x {1}
Distribucin
25
E{0,1}
por
)
donde es la probabilidad definida en (E,
(A {0}) =
(A {1}) =
(A C)(1 ) + (A C c ),
(A C),
2.4.2.
Construcci
on de Athreya y Ney
La construccion mostrada a continuacion, fue publicada en [2] y genera realizaciones markovianas particionantes que tienen la propiedad de ser regenerativas.
La idea basica de esta construccion es generar un kernel de transicion que parta de puntos que se encuentran dentro del conjunto peque
no C, definido en la
propiedad de aperiodicidad fuerte.
26
Construcci
on 2.4.2 (Athreya y Ney [2]) Bajo el mismo contexto de la construcci
on de Nummelin, definimos las transiciones que generan la cadena de interes.
Sea B .
Cuando x C, se tienen las siguientes transiciones:
pe ((x, 1) , B {0}) = (1 ) (C B) ,
pe ((x, 1) , B {1}) = (C B) ,
p ((x, 0) , B {0}) = (1 ) Q (x, B) ,
p ((x, 0) , B {1}) = Q (x, B) .
Cuando x
/ C,
p ((x, 1) , B {0}) = (1 ) p (x, B) ,
p ((x, 1) , B {1}) = p (x, B) ,
pe ((x, 0) , B {0}) = (1 ) p (x, B) ,
pe ((x, 0) , B {1}) = p (x, B) .
Observaci
on 2.4.2 N
otese que podemos interpretar la construcci
on anterior
como en la siguiente figura, de la cual podemos apreciar los siguientes hechos:
27
= P(x,a) (N = )
L C {0}, i N)
= P(x,a) (X
i
= P(x,a) (ILi = 0, i N)
=
lm (1 )k
= 0.
Por lo tanto tenemos Px (N < ) = 1.
Ahora hagamos notar el resultado principal. Sean B y n N. Entonces
Px (Xn+1 B, N = n) =
=
P(x,a) (Xn+1 B, In = 0, N = n) +
P(x,a) (Xn+1 B, In = 1, N = n)
n+1 B {0}|N = n)P(x,a) (N = n) +
P(x,a) (X
n+1 B {1}|N = n)P(x,a) (N = n)
P(x,a) (X
= (1 )(B)Px (N = n) +
(B)P(x,a) (N = n)
=
(B)Px (N = n),
28
Corolario 2.4.1 Bajo el contexto del lema anterior, existe una sucesi
on de
que cumple para toda k 1 y
tiempos aleatorios {Nk }, para el proceso X,
x E que Px (Nk < ) = 1 y
Px (Xn+1 B, Nk = n) = (B)Px (Nk = n),
B y n B.
Captulo 3
Acoplamiento y orden
estoc
astico
En este captulo, presentamos las tecnicas de acoplamiento y orden estocastico.
Usamos estas tecnicas como herramientas para obtener tasas de convergencia
de tipo geometrico (vease captulo 6).
La tecnica del acoplamiento se describe en la seccion 3.1 y la del ordenamiento
estocastico en la seccion 3.2
En la seccion de acoplamiento (en ingles coupling), damos el concepto y una
caracterizacion para los casos de variables aleatorias, elementos aleatorios y procesos estocasticos, respectivamente. Posteriormente, desarrollamos la desigualdad de tiempo de acoplamiento, la cual tiene gran impacto en este trabajo.
Finalmente, construimos un acoplamiento de realizaciones markovianas particionantes que cuenta con la propiedad de regeneracion.
Es importante se
nalar que el material presentado, en esta seccion, es una peque
na
parte de la amplia teora que se conoce hoy en da; el lector interesado en consultar mas sobre este tema, lo puede hacer en [28] y [53].
En la seccion de orden estocastico, presentamos una version del teorema de
Strassen, resultado pilar sobre el cual descansan los conceptos de monotonicidad
estocastica y ordenamiento por realizaciones (vease los ejemplos 3.2.1 y 3.2.2).
El captulo esta basado en las siguientes referencias: [22], [28], [29] y [53].
29
CAPITULO 3. ACOPLAMIENTO Y ORDEN ESTOCASTICO
30
3.1.
Acoplamiento
3.1.1.
Definici
on y ejemplos
Definici
on 3.1.1 Sean (Aj , Aj , Pj ) espacios de
probabilidad,!para toda j J
Q
Q
Aj . Llamaremos a
y P una medida de probabilidad definida sobre
Aj ,
jJ
jJ
P(y : yj A) = Pj (A),
(3.1)
Aj y A Aj .
jJ
F , P
probabilidad y (Ej , j ) son espacios medibles; tambien considerese a ,
como un espacio de probabilidad y a (Yj , j J) como una familia de elementos
aleatorios en donde cada uno de los integrantes
esta definido de j en Ej .
en Ej para
Una familia de elementos aleatorios Yj , j J , Yj definido de
todo j J, es llamada Acoplamiento para la familia (Yj , j J), si Yj es
copia de Yj , es decir:
D
Yj = Yj , j J.
3.1. ACOPLAMIENTO
31
Observaci
on 3.1.1 En la definici
on 3.1.2 no se necesita que Yj y Yj esten
definidos en el mismo espacio dominio, pero s en el mismo espacio codominio.
Adem
as todos los Yj deben estar definidos en UN MISMO espacio de probabilidad. Estos hechos son mostrados en el siguiente diagrama.
Yj
(j , Fj , Pj )
(Ej , j )
*
F , P )
(,
Y
j
Diagrama de Acoplamiento
Proposici
on 3.1.1 Toda familia de elementos aleatorios tiene un acoplamiento.
Demostraci
on. Sea Yj elemento aleatorio definido de (j , Fj , Pj ) en (Ej , j ),
j J.
Definimos:
(Ej , j , Pj ) un espacio de probabilidad, donde Pj (.) = Pj (Yj .);
es el espacio producto de los Ej s ;
F , P
Con lo anterior, podemos construir elementos aleatorios Yj definidos de ,
CAPITULO 3. ACOPLAMIENTO Y ORDEN ESTOCASTICO
32
Pj (Aj )
= P (E1 E2 . . . Ej1 Aj Ej+1 . . .)
= P ({|j Aj })
= P {|Yj () Aj }
= P Yj Aj .
D
As tenemos que Yj = Yj para j J y con este hecho mostramos que Yj : j J
es un acoplamiento para la familia de elementos aleatorios {Yj : j J}.
Observaci
on 3.1.2
El acoplamiento construido en el cuerpo de la demostraci
on anterior, lo
llamaremos acoplamiento can
onico.
Las definiciones 3.1.1 y 3.1.2 est
an relacionadas estrechamente debido al
acoplamiento can
onico. Este hecho lo mostramos en el siguiente diagrama.
-
Yj
(j , Fj , Pj )
(Ej , j , PjYj )
*
jJ
Ej ,
Q
jJ
Yj
j , P
)
3.1. ACOPLAMIENTO
33
D
Demostraci
on. Sea z R. Entonces, P 0 Z z = P 0 F 1 U z =
P 0 (U F (z)) = F (z) esto implica PZ0 ((, z]) = PZ ((, z]). Aplicando
el teorema de clases monotonas obtenemos PZ0 = PZ
Ejemplo 3.1.1 (Acoplamiento de variables aleatorias.) Aplicando el lema
anterior a cualesquiera dos variables aleatorias X1 y X2 , con distribuciones F1
1 y X
2 , con la propiedad de que:
y F2 ; obtenemos variables aleatorias X
D
D
X1 = X
1 y X2 = X2 .
1, X
2 ) es acoplamiento para X1 y X2 .
As podemos decir que (X
Ejemplo 3.1.2 (Acoplamiento cl
asico o de Doeblin) Sean X y X 0 dos
realizaciones de Markov con transici
on p y distribuciones iniciales y , respectivamente. Definimos:
0
Xn si n < T
0
00
.
T = inf {n N : Xn = Xn } y Xn =
Xn si n T
Con esto podemos ver que en el tiempo T , los procesos X y X 0 est
an en un mismo
estado y continuar
an su propio trayecto como si hubieran empezado desde ese
D
0
, ...), para n T . As la realizaci
on
estado, es decir, (Xn , Xn+1 , ...) = (Xn0 , Xn+1
00
X , es una modificaci
on de la realizaci
on X 0 despues del tiempo T y tiene la
D
misma distribuci
on que X 0 , es decir, X 00 = X 0 . Con esto tenemos que (X, X 00 )
0
es acoplamiento para X y X .
Ejemplo 3.1.3 (Acoplamiento para realizaciones markovianas) Sea
X = {Xn }
n=0 cadena de Markov con espacio de estados (E, ), espacio base
(, F) y kernel de transici
on p. Sean y medidas de probabilidad definidas
en (E, ). A partir de p, podemos definir otro kernel p en (E 2 , 2 ), de la siguiente
manera:
p((x, y), A E) =
p((x, y), E A) =
p(x, A),
p(y, A),
p((x, y), A B) =
p(x, A B),
donde x, y E y A, B .
Considerando la probabilidad definida en (E 2 , 2 ), el teorema de IonescuTulcea garantiza la existencia de una realizaci
on markoviana
34
= {X
n1 } , {X
n2 }
X
definida en (E 2 )N , ( 2 )N , P , y con espacio de
n=0
n=0
1 := {X
n1 } , X
2 := {X
n2 } , son realizaciones
estados (E 2 , 2 ); donde X
n=0
n=0
markovianas con kernel p y distribuci
on inicial y , respectivamente.
y X como en el
Definici
on 3.1.3 (Acoplamiento markoviano) Sean X
es acoplamiento de X si:
ejemplo anterior. Decimos que X
P (A ) = P (A),
P ( A) = P (A), y
P (o ) = 0,
N
(3.2)
(3.3)
(3.4)
2 N
donde A , = { (E ) : < y n
/ para alg
un n > },
= {(x, x) : x E} y = inf{n R : n }.
Denotaremos en este caso la medida P por P, , para resaltar la dependencia
de las medidas iniciales de las trayectorias markovianas tomadas.
Observaci
on 3.1.3 Bajo el contexto del ejemplo anterior, si definimos un kernel
de transici
on de la siguiente manera
p((x, y), A B) = p(x, A)p(y, B),
es
donde x, y E y A, B , y tomamos una medida inicial, obtenemos que X
acoplamiento de X. Adem
as suponiendo la existencia de , con la propiedad
de que < , entonces (X, X 0 ) es el acoplamiento descrito por Doeblin (vease
[15]). En la literatura, este acoplamiento es llamado acoplamiento cl
asico o de
Doeblin.
Encontraremos otros ejemplos de acoplamiento, en los apartados 3.1.3 y 3.2,
debido a su relacion con los conceptos de CMs particionantes y de orden estocastico, respectivamente.
A continuacion expondremos, el uso que le daremos al acoplamiento.
3.1.2.
Desigualdades de acoplamiento
3.1. ACOPLAMIENTO
35
P (C c ),
(3.5)
PiYi (.) PjYj (.)
VT
Demostraci
on. Sea A . Entonces,
PiYi (A) PjYj (A) =
1
Pb(Ybi (A) C c )
P (C c ).
Definici
on 3.1.5 Sean X = {Xn }
asticos
n=0 y Y = {Yn }n=0 dos procesos estoc
b
b
b
definidos de (i , Fi , Pi ) en (Ei , i ), i = 1, 2, y Z = {Xn }
, {Yn }
un
n=0
n=0
CAPITULO 3. ACOPLAMIENTO Y ORDEN ESTOCASTICO
36
b b
(a) Llamaremos tiempo de acoplamiento,
n1 6= X
n2
kpn (.) pn (.)kV T P X
(3.7)
P (T > n) ,
R
R
donde pn (A) := E pn (x, A) d (x) = E Px (Xn A) d (x) = P (Xn A),
A , es una probabilidad definida en y k.kV T es la metrica de la variaci
on
total definida previamente en la ecuaci
on 3.6.
Demostraci
on. Sea A
P Xn1 A P Xn2 A
n2 A
n1 A P X
P X
bn2
n1 6= X
n2 P X
n2 A, X
bn1 6= X
n1 A, X
P X
bn2
n1 = X
n2 P X
n2 A, X
bn1 = X
n1 A, X
P X
n1 A, X
n1 6= X
n2 P X
n2 A, X
bn1 =
bn2
P X
6 X
n1 A, X
n1 6= X
n2
P X
n1 6= X
n2
P X
P (T > n) ,
pn (A) pn (A) =
=
la u
ltima desigualdad, se obtiene por la definicion de T . De la desigualdad
anterior y por simetra se obtiene la desigualdad (3.7).
3.1. ACOPLAMIENTO
3.1.3.
37
Acoplamientos particionantes
Hip
otesis 3.1.1 Sean {Xn }n=0 y {Yn }n=0 dos realizaciones markovianas con
distribuciones iniciales y , respectivamente y cuyo kernel de transici
on es
p. Adem
as sup
ongase que son recurrentes y fuertemente aperi
odicas.
Observaciones 3.1.1 Debido a que p es fuertemente aperi
odica, podemos considerar , , C y Q como fueron tomadas en la subsecci
on 2.4.
A continuacion damos la construccion mencionada, mediante el siguiente algoritmo expresado en pseudocodigo.
Sea {In }n=0 una sucesion de variables aleatorias independientes que toman valores en {0, 1}, con probabilidad de que In = 1, para todo n (cons
ultese el
contexto de esta sucesion en la seccion 2.4).
Algoritmo 3.1.1 ([47] p
ag. 401) Consideremos las hip
otesis 3.1.1 y definamos:
D
D
0 =
X
, Y0 = . n = 0, Indicador = 0 y
Mientras (Indicador = 0)
{
Si (Xn () C, Yn () C)
Si(In () = 1)
k () =
X
Indicador =
Yk (), k n + 1,
1.
Otro.
n+1
X
Yn+1
Q(Yn (), .) y
:= n + 1.
CAPITULO 3. ACOPLAMIENTO Y ORDEN ESTOCASTICO
38
Otro
n+1
X
Yn+1
p(Yn (), .) y
:= n + 1
}
Observaci
on 3.1.4
Y , donde a
Con este algoritmo se encuentra una cadena de Markov X,
y Y son cadenas de Markov con distribuciones iniciales y ,
la vez X
respectivamente.
Cuando ocurre en el algoritmo In () = 1, se tiene como consecuencia la
k = Yk para todo
siguiente interpretaci
on: con probabilidad , se tiene X
k n + 1, y con probabilidad 1 los procesos a
un no se han acoplado.
La construcci
on realizada, cumple con la desigualdad de acoplamiento:
n .) (.)kV T P (T > n),
kP (X
n N.
3.2.
Orden estoc
astico
3.2. ORDEN ESTOCASTICO
39
X 0 ) si , donde:
= (P1 )X , y
= (P2 )X 0 .
Lema 3.2.1 (Caracterizaci
on de orden estoc
astico) Sean P y P 0 dos proest.
f dP
E
donde
A := {f | f es una funci
on medible de en B (R) , no decreciente y acotada}
Demostraci
on.
)
est.
Tomando f = IA , A B, se obtiene P P 0 .
)
R
R
Observese que f dP f dP 0 , es valida usando funciones indicadoras. Posteriormente considerando funciones simples, no negativas e integrables, se obtiene
el resultado requerido.
Observaci
on 3.2.1 Cuando las medidas y son distribuciones en (R, B(R)),
la definici
on 3.2.1 queda descrita de la siguiente manera:
est.
para todo x R.
40
3.2.1.
est.
X
0 de X
(, F, P ). Entonces X X 0 si y solo s existe un acoplamiento X,
0
0
b
b
X
0
X
:=
:=
F 1 U,
F 01 U,
b X
b 0 acoplamiento ordenado de manera puntual, para las variables
Sea X,
b Fb, Pb .
aleatorias X y X 0 definidas en ,
Por lo tanto tenemos para todo y R:
b > y Pb X
b0 > y
Pb X
P (X > y) P (X 0 > y) ,
est.
es decir X X 0 .
Lema 3.2.2 (Caracterizaci
on de Orden estoc
astico) Sean X y X 0 variables aleatorias definidas en (, F, P ). La siguientes afirmaciones son equivalentes:
3.2. ORDEN ESTOCASTICO
41
est.
(a) X X 0 .
(b) Para toda funci
on f : R R, no decreciente y acotada, se tiene:
Z
Z
f dPX
f dPX 0 .
R
Demostraci
on.
a = b
b X
b 0 de X y X 0 definido en
Por el teorema anterior, existe un acoplamiento X,
b X
b 0 , lo cual implica que f (X)
b f (X
b 0 ), para toda
R, B (R) , Pb , tal que X
funcion f no decreciente. Ahora
Z
Z
f dPX =
f dPbXb
R
R
Z
b dPb
=
f X
(Por el teorema de cambio de variable)
R
Z
b 0 dPb
f X
R
Z
=
f dPbXb 0
R
Z
=
f dPX 0 .
R
b = a
Con f = I(x,) , se tiene lo requerido.
3.2.2.
Los resultados que presentamos en esta seccion, son versiones del teorema de
Strassen para elementos aleatorios y procesos estocasticos, respectivamente. Debido a la extension en sus demostraciones, referimos estas al apendice B del
presente trabajo. Tambien establecemos en esta seccion, un ejemplo obtenido
del teorema de Strassen, version procesos estocasticos, el cual sera utilizado en
el captulo 6.
A continuacion enunciamos el teorema de Strassen para elementos aleatorios.
Teorema 3.2.2 (Strassen, [28]) Sean P y P 0 medidas de probabilidad en (E, ).
est.
CAPITULO 3. ACOPLAMIENTO Y ORDEN ESTOCASTICO
42
est.
)
tales
que:
{Zn }
y
Z
=
{Z
i
i
n n=0
n=0
i=0
i=0
D
est.
Pn Pn ,
para toda n N. Pn y Pn son las probabilidades mencionadas en la construccion
de Ionescu-Tulcea.
est.
P P 0 ,
Q
Q
donde P y P 0 son probabilidades definidas en ( i=0 Ei , i=0 i ), tales que:
Q
Qn+1
Pn = Pn , P0 n = Pn , donde n es la proyeccion de i=0 Ei a i=0 Ei .
3.2. ORDEN ESTOCASTICO
43
De este u
ltimo hecho se concluye que,
Zn Zn0 ,
n 0.
44
2.
Demostraci
on. Aplicando el Lema 3.2.3 en el Teorema 3.2.3, se obtiene los
resultados requeridos.
Lema 3.2.3 Sea (E, ), un espacio de estados parcialmente ordenado.
(a) Para x x0 , se cumple lo siguiente:
est
x x0 .
(b) Si existe un elemento mnimo a E, es decir, a x, x E. Entonces
est.
a ,
x E.
Demostraci
on.
Consideremos A B (vease el inciso a de la definicion 3.2.1).
a Vamos a mostrar que x (A) x0 (A). Para esto, tomemos y R y analicemos los siguientes casos:
(i) Si x A, entonces x0 A , debido a que IA es no decreciente. Por lo
tanto x (A) x0 (A).
(ii) Si x
/ A y x0 A, o x
/ A, x0
/ A, claramente obtenemos: x (A)
x0 (A).
est.
= P (X0000 A)
Z
=
Px (X0 A) d (x)
ZE
=
x (A) d (x)
E
Z
a (A)d (x)
E
=
est.
a (A) .
Parte II
Planteamiento del problema
45
Captulo 4
Planteamiento y
antecedentes
4.1.
Planteamiento
=
=
O((n)),
o((n)),
donde kpn (x, .) (.) k = O((n)) significa que existe Mx > 0 tal que
kpn (x, .) (.) k Mx |(n)| y
47
(4.1)
(4.2)
48
4.2. ANTECEDENTES
49
4.2.
Antecedentes
50
tasas de convergencia. En este trabajo nos concentraremos en tasas de convergencia ergodicas, no ergodica, y de orden de convergencia geometrico.
Parte III
Tasas de convergencia
51
Captulo 5
M
etodo espectral
El resultado presentado en este captulo fue consultado en [47], y en el se observa
una tasa de convergencia de tipo geometrico con respecto a la metrica de la
variacion total para cadenas de Markov con espacio de estado E finito.
Para este caso, la tasa de convergencia esta relacionada con los valores y vectores
propios de la matriz de transicion.
A continuacion proporcionamos el contexto, y un resultado previo que nos
servira para presentar el resultado principal del captulo.
Sean X una CM con n estados y 0 , 1 ,... y n1 los valores propios asociados
a la matriz de transicion p (incluidos con multiplicidad algebraica). Ademas
0
= 1 y
=
max |j |,
1jn1
Notese que el valor propio 0 = 1 tiene sentido, porque toda matriz estocastica
tiene como valor propio a 1 (vease [47]). Denotemos por v0 , a su vector propio.
Lema 5.0.1
(a) 1; y
(b) Si p(x, y) > 0 para todo x, y E, se tiene < 1.
Demostraci
on.
(a)
53
CAPITULO 5. METODO
ESPECTRAL
54
|pv(x)|
v(y)p(x,
y)
yE
X
|v(y)|p(x, y)
yE
|v(x)|p(x, y)
yE
|v(x)|,
para todo y E.
Re (pv(x))
X
Re
v(y)p(x, y)
X
yE
Re
yE
|v(y)|p(x, y)
X
v(x)p(x, y)
yE
Re v(x),
55
lo cual resulta una contradiccion. As, 0 no pertenece al bloque de Jordan mas
grande, con lo cual se tiene que < 1.
Con lo anterior, el resultado principal del captulo se enuncia de la siguiente
manera.
Teorema 5.0.1 Sea {Xn }
on de Markov finita con matriz de
n=0 una realizaci
transici
on p, la cual es diagonalizable, y tiene distribuci
on inicial 0 . Sup
ongase
que p(x, y) > 0 para todo x, y E (observese que en este caso, < 1 debido al
lema anterior). Entonces se cumple lo siguiente.
a) Existe una u
nica distribuci
on invariante .
b) Para cada x E, existe una constante Cx > 0 tal que:
|P0 (Xk = x) (x)| Cx ( )k ,
donde C es
Cx =
n1
X
|am vm (x)|,
m=1
y
v0 , v1 , . . . , vn1 forman la base de vectores propios izquierdos correspondientes a 0 , 1 , . . . , n1 , respectivamente; y
a0 , a1 , . . . , an1 son los escalares de la combinaci
on lineal que generan a 0 , es decir
0 = a0 v0 + a1 v1 + ... + an1 vn1 .
(5.1)
Demostraci
on.
Notese que para cierto vector propio , asociado al valor propio , la expresion
vp = v implica que vpk = k v, para toda k 1. Por lo tanto aplicando esto a
la ecuacion (5.1), se tiene, para k 1 que
0 pk
CAPITULO 5. METODO
ESPECTRAL
56
a0 v0 (y)p(x, y)
yE
=
=
a0 v0 (x)
(x).
(z) =
0 (x)p(z, x).
xE
xE
xE
|am vm (x)||km |
m1
n1
X
!
|am vm (x)| | |k .
m1
As que:
k
|0 p (x) (x)|
n1
X
!
|am vm | k .
m1
Observaci
on 5.0.1 Del inciso (b) del Teorema 5.0.1 se obtiene :
k0 pk (.) (.)kV T C( )k ,
57
donde C =
1
2
Cx .
xE
Ejemplo 5.0.1 Consideremos una cadena de Markov sobre el espacio de estados E = {1, 2, 3, 4} con probabilidades de transici
on:
p=
0,6 0,2 0,1 0,1 .
0,7 0,1 0 0,2
=
=
=
=
CAPITULO 5. METODO
ESPECTRAL
58
donde
Captulo 6
Acoplamiento
Considerando cadenas de Markov con espacio de estados (E, ) y kernel de
transicion p, en este captulo damos dos metodos que auxilian a la tecnica de
acoplamiento para encontrar tasas de convergencia de tipo geometrico con respecto a la metrica de la variacion total.
En el primer metodo requerimos que el espacio de estados sea peque
no, es decir,
se necesita que la CM X cumpla la propiedad M (m0 , , IE , ) (vease la definicion
2.3.4). Tambien presentamos dos resultados; en uno de ellos se considera que el
espacio de estados es finito y en el otro, se considera a E como un subconjunto
compacto de R.
Para el segundo metodo, se tiene como base teorica el teorema de Strassen (vease
seccion 3.2), el cual nos garantiza la existencia de acoplamientos que tienen la
propiedad de estar ordenados por realizaciones (o trayectorias). En esta parte
ofrecemos dos resultados que dependeran de la forma del espacio de estados.
En ambos metodos, el acoplamiento nos servira para obtener la desigualdad de
acoplamiento vista en la subseccion 3.1.2.
Los resultados que se presentaran mas adelante fueron consultados en [30], [31],
[35], [46], [47] y [56].
59
CAPITULO 6. ACOPLAMIENTO
60
6.1.
6.1.1.
X
yE
mn p(x, y).
xE
(6.2)
Demostraci
on. La recurrencia y la aperiodicidad fuerte de X, permite la
creacion de un acoplamiento para X con distribuciones iniciales 0 y , respectivamente (vease el algoritmo 3.1.1). Con lo que se tiene la desigualdad (6.1). Por
otro lado, notese que (6.2) se obtiene directamente de la aperiodicidad fuerte de
p.
p=
(
y)
mn p(x, y),
xE
q(
y)
, y E y
X
mn p(x, y).
yE
xE
6.1. ESPACIO DE ESTADOS PEQUENO
61
De aqu tenemos que = 0,2 + 0,3 + 0,1 = 0,6, q(0) = 0,2, q(1) = 0 , q(2) = 0,3,
q(3) = 0,1 y q(4) = 0,6
k0 pk (.) (.)kV T (1 )k = (0,4)k ,
6.1.2.
k 1.
Caso compacto
El resultado que presentamos en este apartado, ofrece una tasa ergodica de tipo
geometrico para CMs que tienen espacios de estados compactos y peque
nos,
pero no necesariamente finitos.
Cabe se
nalar que en la siguiente seccion, se presenta una teora con la cual se
cubre el caso de espacio de estados compactos. No obstante, podemos observar
que en ambas teoras existen diferencias debidas a sus hipotesis.
Teorema 6.1.2 Sea X = {Xn } una CM con kernel de transici
on p, la cual es
recurrente y fuertemente aperi
odica (vease inciso (iii) de la definici
on 2.3.6).
Sup
ongase que 0 es la distribuci
on inicial de X y su medida invariante.
Entonces
kP0 (Xn .) (.)kV T (1 )n , n 1,
(6.3)
donde,
Z
=
xE
(A) =
xE
q(A)
, y
Z
xE
CAPITULO 6. ACOPLAMIENTO
62
As tenemos:
1+x+y
dy
3
0 xE
2 +x
Z 12
Z 1
2
2
=
(1 + y)dy +
(2 + y)dy
1 5
3
0
2
Z
inf
29
.
30
1
30
n
,
n 1.
6.2.
Monotonicidad estoc
astica
6.2.1.
Desarrollo
6.2. MONOTONICIDAD ESTOCASTICA
63
Lema 6.2.1 ([30] p. 185) Sea X = {Xn }n=0 una cadena de Markov que satisface la condici
on de Foster-Lyapunov para V , , b y C = {0}, con V (0) = 1
(vease 2.3.7). Entonces para 0 := inf{n N : Xn = 0} se cumple:
(a) Ex [r0 ] V (x), con r
1
y x > 0.
1
.
Demostraci
on. Observemos que para cada x E, la desigualdad de FosterLyapunov:
pV (x) V (x) + bI{0} (x),
(6.4)
cambia de forma al considerar estados positivos o al estado cero (esto se debe a
la funcion indicadora). A continuacion analizaremos las consecuencias de estos
cambios.
Si x > 0, entonces la desigualdad queda de la siguiente forma:
pV (x) V (x).
Dividiendo el espacio de estados en {0}
rior obtenemos,
V (x)
=
1 pV (x)
"Z
Z
1
V (z)p(x, dz) +
{0}
"
=
#
V (z)p(x, dz)
(0,)
Z
V (0)p(x, 0) +
V (z)p(x, dz) ,
(0,)
es decir,
"
V (x) 1 Px (0 = 1) +
V (z)p(x, dz) .
(0,)
(0,)
CAPITULO 6. ACOPLAMIENTO
64
P
obtenemos la serie
n Px (0 = n), y una integral m
ultiple cuyo valor es
n=1
n Px (0 = n)
(6.5)
n=1
Ex [(1 )0 ].
Para obtener la consecuencia descrita en el inciso (a) del lema, tenemos que
aplicar 1 r a la desigualdad (A.3).
Por otro lado, si x = 0,la desigualdad (4.1) queda descrita de la siguiente forma:
P V (0) + b.
Ahora, un calculo similar al realizado para el caso x > 0, permite obtener que
Z
E0 [r0 ] = rp(0, 0) + r
Ez [r0 ]p (0, dz)
(0,)
Z
rp(0, 0) +
rV (z)P (0, dz)
(0,)
Por lo tanto
rP V (0)
r( + b).
E0 [r0 ] r( + b),
r 1 ,
donde es la distribuci
on invariante.
00
000
Demostraci
on. Sean x E, {Xn0 }
n=0 , {Xn }n=0 y {Xn }n=0 tres realizaciones
de Markov, con distribuciones iniciales x , , y , respectivamente, donde x
es la probabilidad concentrada en el estado x, = P (max(Y, x)) y Y es una
variable aleatoria con distribucion .
6.2. MONOTONICIDAD ESTOCASTICA
65
(6.6)
Por otro lado, usando la hipotesis de que la cadena es estocasticamente monotona, se tiene que la cadena es ordenada por trayectorias (vease el ejemplo 3.2.2).
Con este resultado se deduce que cuando haya alcanzado al estado cero la realizacion de Markov con estado inicial mas grande, entonces la realizacion con
estado inicial mas peque
no tambien lo habra alcanzado; es decir, en terminos
00
de el tiempo de acoplamiento para {Xn0 }
n=0 y {Xn }n=0 , y el tiempo de alcance
000
al estado 0 por parte de la realizacion {Xn }n=0 , se tiene:
{0 n} {T n},
(6.7)
para toda n 1. Aplicando (4.4) en (4.3), para 0 < r < 1 y n 1 se tiene que
rn kPx (Xn0 .) P (Xn00 .)kV T
rn P (T > n)
rn P (0 > n)
rn P (0 > n).
(6.8)
lm rn P (0 > n) = 0.
(6.9)
El Lema 6.2.3, nos indica a E [r0 ] < como condicion necesaria para obtener
(6.9). Por lo tanto, enfocaremos nuestro esfuerzo a corroborar esta condicion.
CAPITULO 6. ACOPLAMIENTO
66
Observemos que
Z
0
Ez [r0 ]d(z)
E [r ] =
[0,)
Z
0
Ez [r ]d(z) +
Ez [r0 ]d(z)
(x,)
Z
0
Ez [r0 ]d(z)
= P (X x)Ex [r ] +
(x,)
Z
V (z)d(z) < ,
Ex [r0 ] +
=
[0,x]
(x,)
R
debido a que (x,) V (z)d(z)
finaliza la demostracion.
b
1
b
.
1
Demostraci
on. El resultado buscado, forma parte del cuerpo de la prueba del
teorema anterior.
Teorema 6.2.3 ([30] p. 189) Suponga que X = {Xn }
n=0 es una cadena de
Markov estoc
asticamente mon
otona tal que E0 [r0 ] < para alg
un r > 1.
Entonces:
lm rn kx pn (.) (.)kV T = 0 para toda r 1 , x 0.
Demostraci
on. Este resultado se obtiene directamente de los siguientes lemas.
Lema 6.2.2 ([30] p. 184) Suponga que X = {Xn }n=0 es una cadena de Markov estoc
asticamente mon
otona. Entonces se tiene lo siguiente: para todo R > 1
y x > 0, son equivalentes E0 [R0 ] < y Ex [R0 ] < .
6.2. MONOTONICIDAD ESTOCASTICA
67
Demostraci
on. Primero probaremos que Ex [R0 ] < implica E0 [R0 ] <
para x > 0 y R > 1.
est.
R0 dP0
Z
R0 dPx
Ex [r0 ] < .
Demostraci
on. Observemos que para z E se cumple,
V (z) =
=
=
Ez [r0 ]
X
rn Pz (0 = n)
n=0
X
n=0
rn pn (z, 0).
CAPITULO 6. ACOPLAMIENTO
68
Z
=
{0}
n=0
n=0
= p(x, 0) +
(0,)
=
=
rn pn+1 (x, 0)
n=0
r
r
n n
)
n
(0,)
)
n n
n=0
n=0
rn pn+1 (x, 0)
n=0
1
rn+1 Pz (0 = n + 1)
r n=0
1
Ex [r0 ].
r
De la u
ltima igualdad, se obtiene lo buscado.
Calculos similares a los anteriores son realizados para el caso x = 0.
6.2.2.
Ejemplos
q, si i 0 y j = i + 1,
p si i 1 y j = i 1, .
p(i, j) =
p si i = j = 0
Notemos que para que X sea recurrente tenemos que pedir que p >
1
.
2
p
q
k
q
, k Z+ ,
p
6.2. MONOTONICIDAD ESTOCASTICA
"
1 (1 4pqr2 ) 2
Ek [r0 ] =
2qr
69
#k
"
, con k 1 y
1
2pr + 1 (1 4pqr2 ) 2
E0 [r0 ] =
2qr
#k
, con k 1
1
4pq
12
. Por lo tanto de acuerdo al
1
4pq
12
, x > 0.
qj si i = 0 y j 0,
qji+1 si i 1 y j i 1, ,
p(i, j) =
0 en otro caso .
donde qk =
R
0
X
= Ex rX1 =
rx+n1 qn
n=0
= V (x)(r),
donde
= r1
rn qn = r1 H ([r 1]).
n=0
CAPITULO 6. ACOPLAMIENTO
70
La caminata de Lindley
En este apartado mostraremos una ejemplo de una cadena de Markov que tiene
la tasa descrita en el Teorema 6.2.3. Esta aplicacion fue consultada en [31].
Sean {An } una sucesion de variables aleatorias independientes e identicamente
distribuidas, y F su funcion de distribucion. Supongase que E[A1 ] < 0.
Llamaremos caminata de Lindley a la sucesion de variables aleatorias X =
{Xn }
n=0 , descritas de la forma siguiente:
Xn = max [Xn1 + An , 0],
donde n N y X0 0.
Con la definicion anterior, podemos verificar las siguientes observaciones.
Observaciones 6.2.1
El espacio de estados para la caminata de Lindley es E = [0, ).
0
si y < 0,
Su kernel de transici
on es, p(x, (, y]) =
.
F (y x) si y 0
X est
a ordenada estoc
asticamente. (N
otese que para x, y E tal que x < y
y todo z E se tiene
P (x, [z, )) = 1 F (z x) 1 F (z y) = P (y, [z, )).
La caminata de Lindley tiene distribuci
on invariante que satisface:
Z
((0, z]) =
F (z y)(dy),
E
z E.
Con las observaciones descritas previamente, podemos ver que la caminata de
Lindley cumple la mayor parte de las hipotesis del Teorema 6.2.1, con las cuales
se obtiene convergencia de tipo geometrico. Solo faltara mostrar, que la caminata cumple con la propiedad de Foster-Lyapunov. Para lograr este fin, como
se vio en los Lemas 6.2.2 y 6.2.3, respectivamente, veremos que E0 [r0 ] < .
6.2. MONOTONICIDAD ESTOCASTICA
71
Hip
otesis 6.2.1
Sup
ongase que E[A1 ] < 0,
Existe r0 > 1 tal que (r0 ) =: E[r0A1 ] < y 0 (r0 ) = 0,
Si A1 es una retcula (en ingles lattice), entonces P (A1 = 0) > 0.
Lema 6.2.4 ([31], p. 808) Bajo las hip
otesis 6.2.1 se cumple que E0 [r0 ] <
].
Demostraci
on. Se puede ver en [10] que
"
0
E0 (r ) = 1 + (r 1) exp
k
X
r
k=1
donde Sk =
k
P
j=1
#
P (Sk > 0) ,
H(r) :=
k=1
(6.10)
Demostraci
on. Es consecuencia directa del Teorema 6.2.3.
72
CAPITULO 6. ACOPLAMIENTO
Captulo 7
Sucesiones aperi
odicas y
renovaci
on
En este u
ltimo captulo, dedicado a tasas de convergencia, se analizaran los
resultados obtenidos por Baxendale en [4], en los cuales muestra convergencia
hacia la distribucion invariante de tipo geometrico y ergodico, bajo la metrica
V -norma.
La teora mostrada en estos resultados, necesita la construccion de un proceso
de renovacion a traves de una sucesion aperiodica formada por distribuciones
de variables aleatorias.
7.1.
Desarrollo
R
kpn (x, .) (.)kV := sup g(y) pn (x, dy) g(y) d(y),
|g|V
74
Cabe se
nalar, que la metrica de la variacion total se obtiene de la V -norma
considerandose funciones g tal que |g(x)| 1
Basicamente, los tres resultados que se presentan en el captulo, nos ofrecen
cotas para las constantes M y de la desigualdad (7.1), respectivamente.
El primero de ellos es el caso mas general en el siguiente sentido, no pide que
la CM X cuente con las propiedades de reversibilidad y positividad (definidas
en los siguientes parrafos).
El segundo resultado pide que la CM X tenga como hipotesis principal la propiedad de reversibilidad con respecto a su medida invariante , es decir, para
toda f y g definidas de E en R se cumple
Z
Z
(pf )(x) g(x)d(x) =
f (x) (pg)(x)d(x).
(7.2)
E
e IC , , es decir
Se cumple la condici
on de minorizaci
on M 1, ,
e
p(x, .) (.),
x C.
(7.3)
x E.
(7.4)
7.1. DESARROLLO
75
Se cumple la condici
on de aperiodicidad fuerte, es decir, existe > 0 tal
que:
e
(C)
.
(7.5)
El fundamento teorico para cada uno de los resultados de este captulo, es el
uso del teorema obtenido por Kendall en la teora de procesos de renovacion.
Para facilitar la lectura del presente material ofrecemos un esquema que muestra
las ideas generales utilizadas en esta teora.
Cadenas
regenerativas
Procesos de
renovacion
Hipotesis
especiales
Obtencion
de cotas
Teorema
de Kendall
Cabe se
nalar que en esta metodologa se tendra en cuenta dos casos. El primero
de ellos esta relacionado con la suposicion de que en el espacio de estados exista
un atomo ( E es llamado
atomo si para todo a, y se tiene p(x, .) =
p(y, .)). El segundo caso no supone la existencia de un atomo en el espacio de
estados.
Ademas resaltamos el hecho de que la teora de sucesiones aperiodicas aplicada
a procesos de renovacion, sera utilizada para acotar al siguiente termino,
n
(un u )z ,
n=0
7.1.1.
Cotas
Con el proposito de simplificar la redaccion para los tres resultados que se presentan en el presente captulo, damos a continuacion la definicion de las cotas
M, y mencionadas en 7.2.
Para este fin, consideremos las hipotesis 7.1.1 y una sucesion, b = {bn }
n=1 , de
variables aleatorias que cumple las siguientes dos propiedades:
76
es aperi
odica, es decir, el maximo com
un divisor del conjunto I(b) :=
{n| bn > 0} es 1 y
n=1
Definici
on 7.1.1
1 = 1 + log
K
1
!
/log(1 ).
2 = 1 +
.
log(1 )
log
1/1
R0 = mn 1 , (1 )
1 < R R0
= arg max R1 (, R, L(R))
R
1<RR0
L(R) =
R2
1
1 (1 )R
R1 = R1 (, R, L) es la u
nica soluci
on para la ecuaci
on
r1
e2 (R 1)
=
,
R 2
8(L 1)
r(log( r ))
en el intervalo (1, R), considerando como inc
ognita a x y L > 1.
para alg
un r (1, R1 ) definimos K1 = K1 (r, , R, L) de la siguiente manera,
K1 =
donde N =
!
,
L1
.
R1
7.1. DESARROLLO
77
Primera cota
Si C es un
atomo
Se establecen =
=
+
1
, donde R1 = R1 (, 1 , 1 K).
R1
max , (K )
D
K(K )
D
K1 +
(K ) max(, K )
D(1 )
(K 1)
.
D(1 )
Si C no es un
atomo
1
L(R)).
Entonces
, donde R1 = R1 (, R,
R1
max , (K )
e
e 2 2 KH
K[H D]
K
+ 2
+
e 1 ]2 1
D
D[1 (1 ) 1 ] D[1 (1 )
!
e 1 1 )
2 1 H
e max(, K ) (1 )(
+
e 1 ]2
1
1 1
D[1 (1 )
Se establecen =
e )
2 (K 1)
K (1
+
e 1 ]
(1 )(1 )
(1 )D[1 (1 )
!
e 1 1)
(1 )(
2
( 1) +
.
e
Segunda cota
Suponemos que la cadena de Markov es reversible.
Si C es un
atomo
=
1
, donde
R2
log(K)
1+
log(1 )
sup
r
<
:
1
+
2r
>
r
R2 =
si K > + 2,
.
si K + 2.
78
Si C no es un
atomo
=
1
, donde
R2
R2 =
R0
si
L(R0 ) 1 + 2R0 .
La definicion de M se da de forma
similar al de la primera cota, solo hay que
reemplazar K1 por K2 := 1 +
.
Tercera cota
Suponemos que la cadena de Markov es reversible y positiva. Definimos
, si
1 ,
R0
C es un atomo,
,
si
C no es un atomo.
7.1.2.
Resultados Principales
Caso: general
Sea {Xn } cadena de Markov homogenea con espacio de estados (E, ) y kernel
de transicion p.
Teorema 7.1.1 ([4] p. 701) Bajo las hip
otesis 7.1.1, la cadena {Xn }:
nica distribuci
on invariante que cumple
a) tiene una u
Z
V d < , y
7.1. DESARROLLO
79
b) es V uniformemente erg
odica, es decir, se cumple la siguiente desigualdad,
kpn (x, .) (.)kV M V (x)()n ,
donde y M son las constantes definidas en la subsecci
on 7.1.1.
Demostraci
on. Sea C el conjunto peque
no involucrado en la propiedad de
minorizacion. La prueba que se muestra a continuacion se realizara en dos casos:
Caso 1. C es un
atomo.
Con esta suposicion, en la propiedad de minorizacion podemos tomar e = 1 y
= p(a, .), para alg
un punto a C fijo. Sea el tiempo de regeneracion cuando
la cadena alcanza a C, es decir,
= inf{n 1 : Xn C},
y definimos
un = Pa (Xn C) ,
para n 0. As un es una sucesion de renovacion cuya sucesion de incrementos
es bn = Pa ( = n).
Definimos funciones G(r, x) y H(r, x) por:
G(r, x) =
H(r, x) =
Ex [r ],
#
"
X
n
Ex
r V (Xn ) ,
n=1
bn n
= Ea
n=1
= G(1 , a)
1 K.
Aplicando la propiedad de aperiodicidad, tenemos que b1 = p(a, C) .
As aplicando el Teorema D.1.2, obtenemos:
n
sup
(un u )z K1 ,
|z|r
n=0
80
V (x),
r1
1 1
1
Obtenemos
Z
X
sup
pn g(x) gd )z n M V (x),
|z|r
n=0
y as
n
p g(x) gd M V (x)rn ,
donde
=
+
max(, (K )
D
K(K )
DK1
(K ) max(, K )
D(1 )
(K 1)
.
D(1 )
1
1
y la formula para M es obtenida haciendo r =
R1
Caso 2. C no es un
atomo
Como C no es un atomo, en la condicion de minorizacion se tiene e < 1. Por
lo tanto utilizando la construccion del algoritmo 3.1.1, podemos construir una
cadena de Markov (Xn , In ) con espacio de estados E {0, 1}, la cual cuenta con
un atomo: E {1}.
Aplicando las ideas realizadas en el caso anterior a la cadena (Xn , In ) con:
Tiempo de paro
T = mn{n 1 : In = 1}
Sucesion de renovacion u
n = P(x,1) (Yn = 1), con sucesion de incrementos
bn = P(a,1) (T = n), n 1 y a E fijo.
y funciones
x, i)
G(r,
= E(x,i) rT .
x, i)
H(r,
T
X
rn V (Xn ),
n=1
7.1. DESARROLLO
81
x r T .
E
" T
#
X
x
E
rn V X( n) ,
n=1
n
p g(x) gd z n
sup
|z|r
x)
H(r,
|z|r
n=1
n=0
+
+
a, 1) G(r, x) 1
H(r,
r1
a, 1) rH(1,
a, 1)
H(r,
< ,
r1
H(r, x, i).
Definimos
x, i) y H(r,
x, i), las cuales
As G(r)
representa la contribucion extra a G(r,
ocurren cada vez que Xn C, pero falla cuando se tiene Yn = 1
Caso: reversible
Teorema 7.1.2 ([4] p. 702) Bajo las hip
otesis 7.1.1 y suponiendo que la cadena X = {Xn } es reversible, se cumple que:
82
a) existe una u
nica distribuci
on invariante que cumple
Z
V d < , y
b) X es V uniformemente erg
odica, es decir, se cumple la siguiente desigualdad,
kpn (x, .) (.)kV M V (x)()n ,
donde y M son las constantes definidas en la subsecci
on 7.1.1.
Demostraci
on. Sea C el conjunto peque
no involucrado en la propiedad de
minorizacion. La prueba que se muestra a continuacion se realizara en dos casos:
Caso 1. C es un
atomo
Con esta suposicion, en la propiedad de minorizacion podemos tomar e = 1 y
(.) = p(a, .), para alg
un punto a C fijo. Sea el tiempo de regeneracion
cuando la cadena alcanza a C, es decir,
= inf{n 1 : Xn C},
y definimos
un = Pa (Xn C) ,
para n 0. As un es una sucesion de renovacion cuya sucesion de incrementos
es bn = Pa ( = n).
Definimos funciones G(r, x) y H(r, x) por:
G(r, x)
H(r, x)
= Ex [r ],
"
#
X
n
= Ex
r V (Xn ) ,
n=1
bn n
Ea
G(1 , a)
1 K.
n=1
7.1. DESARROLLO
83
n
sup
(un u )z K1 ,
|z|r
n=0
G 1 , x 1
G(r, x) 1
max(, K )
V (x),
1
r1
1
1
obtenemos
Z
X
sup
pn g(x) gd z n M V (x),
|z|r
n=0
y as
Z
n
p g(x) gd M V (x)rn ,
donde
=
+
max(, (K ))
D
K(K )
DK1
(K ) max(, K )
D(1 )
(K 1)
.
D(1 )
1
1
y la formula para M es obtenida haciendo r = .
R1
Caso 2 C no es
atomo Tenemos
X
bn Rn
G(R,
a, 1)
L(R),
n=1
valida para todo 1 < R < R0 , y podemos escoger R de tal manera que podamos
aplicar el Teorema D.1.3. Si 1 + 2R0 L(R0 ), entonces L(R0 ) < y
X
bn Rn
0
0 , a, 1)
G(R
L(R0 ).
n=1
84
1
11 . En otro caso,
Este caso puede ocurrir solo cuando R0 =
< (1 )
como la u
tomamos R
nica solucion en el intervalo (1, R0 ) de la ecuacion
1 + 2R = L(R).
0 , para obtener R2 = R.
As por la
Aplicamos el Teorema D.1.3, con R = R
primera parte de el Teorema D.1.3, para 1 < r < R2 , tenemos
n
sup
(
un u
)z K2 ,
|z|r
n=0
para alg
un K2 < . Inicialmente no tenemos una estimacion para K2 , pero el
mismo metodo
p permite usar la segunda parte del Teorema D.1.3 y asegurar que
r
K2 = 1 +
. El resto de la prueba es similar a la presentada en la seccion
(1 Rr2 )
no atomico del teorema anterior.
Tomamos =
=
+
1
, donde R2 = sup{r < R0 : 1 + 2r L(r)} y
R2
max , (K )
K(K ) (K ) max(, K )
+
+
D
DK1
D(1 )
(K 1)
.
D(1 )
7.1. DESARROLLO
7.1.3.
85
Ejemplos
= 2 pq,
K = p + pq,
= p y,
1
=
, vease el Teorema 7.1.1 o,
R1
1
, vease el Teorema 7.1.2,
=
R2
donde R1 y R2 dependen u
nicamente de , y K, respectivamente. El segundo
valor de se cumple, debido a que la caminata aleatoria es reversible.
En particular si p = 23 , tenemos por el Teorema 7.1.1 que = 0,9994, y por el
Teorema 7.1.2 que = 0,9428.
Algoritmo Metropolis-Hastings
El proposito de este algoritmo es crear una cadena de Markov con distribucion invariante , y cuyo kernel de transicion p sea reversible ((y)p(y, x) =
(x)p(x, y)) y simetrico, es decir, p(x, y) = p(y, x).
El merito de este algoritmo radica en que se inicia desconociendo la ley de
(x)
distribucion para , solo se conoce el comportamiento de las razones
, para
(y)
todo x, y E.
La idea original de este algoritmo fue de Metropolis en [32]. Hastings en [16],
generalizo dicho algoritmo y lo extendio a espacios de estados generales.
Descripci
on 7.1.1
Se comienza con el kernel de transici
on Q de alguna cadena de Markov,
86
(x, y) =
mn
(y)q(y, x)
,1 ,
(x)q(x, y)
1,
si (x)q(x, y) > 0.
si (x)q(x, y) > 0,
si y 6= x,
si y = x.
En este caso, simularemos a como normal estandar. Para este fin tomemos
q = (x, .) = N (x, 1)) y
(x, y) = mn{e(y
2x2
)/2
, 1}.
1
(y x)2
exp
,
si |x| |y|,
2
2
As obtenemos p(x, y) =
(y x)2 + y 2 x2
1
87
pV (x)
V (x)
2
2
s
s
= exp
[(s) (x s)] + exp
2sx
2
2
1
(x s)2
sx
+
[(x + s) (2x + s)] + exp
4
2
2
2
1
x 6xs + s2
s 3x
exp
+ (0) + (2x)
4
2
2
2
1
x
x
3x
exp
+
,
4
2
2
2
donde denota la funcion de distribucion de la normal estandar. Entonces
generamos:
(x, s) :=
b =
|x|d
|x|d
|x|d
d2
= = 2e
( 2d)
y
2
Z
2
(A) =
c ex dx.
AC
7.2.
Existe teora desarrollada por Kartashov ([24] y [26]), en la cual exhibe una
tasa de convergencia explcita utilizando una metodologa similar y anterior a
la expuesta en este captulo (de hecho la teora de Kartashov, data de 1985).
88
Parte IV
Conclusi
on y problemas
abiertos
89
Captulo 8
Conclusi
on y problemas
abiertos
8.1.
Conclusi
on
92
Y PROBLEMAS ABIERTOS
CAPITULO 8. CONCLUSION
Ubicaci
on
6.1.1
6.1.2
6.2.1
6.2.2
7.2.2
7.2.2
7.2.2
Finito
Irreducibilidad
Aperiodicidad
Minorizaci
on
C = {0}
C = {0}
Fuertemente aperi
odica.
Foster-Lyapunov
Monotonicidad estoc
astica.
Reversibilidad
Harris Recurrente
Positiva
Compacto
Con mnimo
Con mnimo
Positividad
Condici
on particular
pn (x, 0) > 0
< 1
8.1 CONCLUSION
93
94
Y PROBLEMAS ABIERTOS
CAPITULO 8. CONCLUSION
Resumen de condiciones
I Decimos que una cadena de Markov es irreducible si existe una medida
tal que , y para todo A E y x se tiene pn (x, A) > 0, para
alg
un n N.
II Una cadena -irreducible que cuenta con una distribucion invariante, es
llamada positiva; si no la tiene es llamada nula. Cuando la distribucion
invariante es u
nica es llamada erg
odica.
III Sea p un kernel de transicion. Decimos que p satisface la condici
on de
minorizaci
on, si existen m0 N, > 0, una funcion S que es /B(R+ )
medible y una probabilidad definida en , tal que:
pm0 (x, .) S(x)(.), x E.
(8.1)
f (x) pg(x)d(x).
E
95
8.2.
Problemas abiertos
96
Y PROBLEMAS ABIERTOS
CAPITULO 8. CONCLUSION
Parte V
Ap
endices
97
Ap
endice A
Resultados b
asicos
Considerese CMs con espacio de estados (E, ), kernel de transicion p y distribucion invariante .
Este apendice esta dedicado a establecer la demostracion de dos suposiciones
que realizamos en la parte de tasas de convergencia, los cuales son:
la existencia de conjuntos peque
nos, y
lim kpn (x, .) (.) kV T = 0.
Los resultados, que aqu se presentan, fueron consultados de [1], [20] y [40].
A.1.
APENDICE
A. RESULTADOS BASICOS
100
para todo B F.
(b) Teorema A.1.2 (Descomposici
on de Lebesgue, [1] p. 68) Sean
y dos medidas definidas en F. Si es -finita y es una medida con
signo, entonces existen dos medidas con signo a.c. y m.s definidas tambien en F tal que
a.c.
m.s
a.c. + m.s ,
y
.
xC,zD
ni
(Exi )
d
=
a.c.
(Exi )
d
donde Exi es el u
nico miembro de Ei que contiene a x.
EXISTENCIA DE CONJUNTOS PEQUENOS
101
pn (x, y)(dy).
(A.1)
B
Utilizaremos la desigualdad (A.1) para mostrar que para algunos conjuntos medibles C y D y [0, 1] se tiene,
pn (x, y) ,
x C,
y D,
(A.2)
pn (x, y)(dy)
(B),
con lo cual se finalizara la prueba, ya que estaramos probando que p satisface
M (n, , IC , ID n ).
Para establecer la desigualdad (A.2)se necesitan establecer los siguientes hechos:
(a) pn (x, y) es una funcion medible de E E en R.
(b) Exhibir a C y D.
(a) Definimos
(
fn (x, y) =
p(x,Eyn )
n (Eyn )
si n (Eyn ) > 0
si n (Eyn ) = 0
APENDICE
A. RESULTADOS BASICOS
102
pn (x, y) > 0,
para casi todo y (con respecto a ). Se sigue entonces que existen enteros m1 , m2
mayores o iguales a 1 tal que:
Z Z Z
n
pn (x, y)p (x, y)((dx)(dy)(dz) > 0,
la cual implica, que para [0, 1] y 3 (A B) > 0, donde
A
B
m1 +m2
(x, z)
A1 (x)B2 (z)
2
inf
xC,zD
m2
(y, z)(dy)
A.2.
m1 + m2 , 2
inf
xC,zD
Convergencia a la distribuci
on invariante
INVARIANTE
A.2. CONVERGENCIA A LA DISTRIBUCION
103
Cabe se
nalar que la metodologa utilizada en esta prueba, es el acoplamiento y
la regeneracion (vease la seccion 3.1.3).
c.s.
Demostraci
on. Observemos que:
Z
lim kpn (x, .) (.) kV T
Z
pn (x, .) (dy)
lim k
pn (y, .) (dy) kV T
E
lim k
[pn (x, .) pn (y, .)] (dy) kV T
E
Z
kpn (x, .) pn (y, .) kV T (dy) .
lim
Por otro lado, por ser la cadena {Xn }n=0 -irreducible, existe un conjunto
peque
no C, tal que (C) > 0 (vease Teorema A.1.4). Ocupando este conjunto
y el algoritmo 3.1.1 generamos:
un acoplamiento exacto {Xn0 }n=0 , {Xn00 }n=0 de {Xn }n=0 , donde podeD
Consideremos
G =
(x, y) : P(x,y) ((Xn0 , Xn00 ) C C i.o.) = 1 ,
Gx = {y E : (x, y) G}
= {x E : (Gx ) = 1} ,
G
Con lo anterior, afirmamos lo siguiente:
(a) lim P(x,y) (T > n) = 0,
n
= 1.
(b) G
(x, y) G y
APENDICE
A. RESULTADOS BASICOS
104
0,
0.
> 0
> 0
c.s.,
con (x, y)
/ C C. Por ser {Xn0 }n=0 , {Xn00 }n=0
de Markov
cadena
y como
0
00
se cumple P(x,y) (TCC < ) = 1, tenemos que {Xn }n=0 , {Xn }n=0 es recurrente i.e. ( ) (G) = 1.
INVARIANTE
A.2. CONVERGENCIA A LA DISTRIBUCION
105
=
ZE
=
GC x (dx)
[1 (Gx )] (dx)
ZE
Z
[1 (Gx )] (dx) +
=
G
[1 (Gx )] (dx)
> 0.
La u
ltima
lnea es debida a la definicion de G. Esto contradice la suposicion,
< 1. Por lo tanto (G)
< 1.
as G
106
APENDICE
A. RESULTADOS BASICOS
Ap
endice B
Teorema de Strassen
Este apendice tiene como objetivo establecer la relacion existente entre el ordenamiento estocastico (vease la definicion 3.2.1 y el Lema 3.2.1 ) y el ordenamiento puntual de elementos aleatorios y procesos estocasticos. Para este fin,
en el desarrollo de este apartado presentamos siete resultados.
El material que aqu se presenta fue consultado de [22], [29] y [52].
De inicio, presentamos el resultado que fundamenta el concepto de ordenamiento
estocastico. 1
Teorema B.0.2 ([52] p.436) Sean S, T dos espacios metricos separables,
y probabilidades definidas en S y T , respectivamente.
Existe una medida de probabilidad en S T , con marginales y respectivamente, tal que () 1 , con S T si y solo s para todo abierto U
contenido en T , se cumple:
(U ) (s (w (S U ))) + ,
donde s , es la proyecci
on a S.
Demostraci
on. Consultar Teorema 7 y 11 de [52].
A continuacion reescribiremos el teorema anterior, utilizando = 0, S = T = E
y M := {(x, x0 ) E 2 : x x0 }.
107
APENDICE
B. TEOREMA DE STRASSEN
108
.
De hecho, ampliaremos la relacion existente entre el ordenamiento estocastico
y el ordenamiento puntual en el siguiente teorema.
Teorema B.0.3 ([22], p. 900) Sean y medidas de probabilidad en (E, ).
Las siguientes condiciones son equivalentes.
est.
(i) .
(ii) Existe una medida 2 con marginales y respectivamente, con la
propiedad de que (M ) = 1.
(iii) Existe una variable aleatoria definida en M y dos funciones medibles f y
D
D
g, definidas de R a E, tal que f g, f Z = y gZ = .
(iv) Existen elementos aleatorios X1 , X2 , definidos de M en E tal que X1
D
D
X2 , X1 = y X2 = .
(v) Existe
un kernel k sobre E tal que: k(x, {y : x y}) = 1 y (.) =
R
k(x, .)(dx).
(vi) (B) (B) para todo cerrado B Cind .
Demostraci
on. Mostraremos que i ii iii iv v vi 1.
i ii Es clara del corolario anterior.
ii iii Se puede ver que (M, B(M ), ) y (B, B, P ) son isomorfos; donde B es un
subconjunto de Borel de R, B son los borelianos de B y P es una medida definida
en (B, B). Sea Z el isomorfismo, i la proyeccion en la i-esima coordenada y
definimos f = 1 Z 1 , g = 2 Z 1 . As obtenemos:
f Z
= ,
gZ
= .
Sea x B, Z 1 (x) = (x0 , x00 ) donde x0 x00 . As vemos que f (x) g(x).
iii iv Definiendo X1 = f Z, X2 = g Z, se obtiene lo requerido.
109
iv v Ver Lindvall.
v vi Sea B Cind cerrado, si x B entonces k(x, B) = 1. As
Z
(B) =
k(x, B)(dx)
ZE
k(x, B)(dx)
B
(B).
Pn n Pn ,
APENDICE
B. TEOREMA DE STRASSEN
110
Qn
donde Pn y Pn son las medidas definidas en i=0 i obtenidas con el teorema
de la medida producto, considerando como medidas iniciales a y , respectivamente.
Demostraci
on. Este resultado es probado por induccion.
Para n = 1, consideremos una funcion f , creciente, acotada y definida en E0 E1 .
Z
Z Z
f (x0 , x1 )k1 (x0 , dx1 ) (dx0 )
f (x0 , x1 )P1 (d(x0 , x1 )) =
E0 E1
E0
E1
definiendo como:
Z
g(x0 ) =
g 0 (x0 ) =
E1
Z
Z Z
f (x0 , x1 )P (d(x0 , x1 )) 2
f (x0 , x1 )k10 (x0 , dx1 ) (dx0 )
E0 E1
ZE0 E1
=
f (x0 , x1 )P (d(x0 , x1 )).
E0 E1
est.
n
j=0
Qn1
j=0
Ej
Ej
Z
En
[f (x0 , ..., xn )kn ((x0 , ..., xn1 ), dxn )] Pn1 (d(x0 , ..., xn ))
Qn1
obtenemos funciones crecientes y acotadas en j=0 tales que g n1 g 0 (por
el orden estocastico entre kn y kn0 ). As, aplicando la hipotesis de induccion
111
obtenemos:
Z
f (x0 , ..., xn )Pn (d(x0 , ..., xn )) n
Qn
j=0 Ej
Qn1
Zj=0
=
Ej
En
Qn
j=0 Ej
f (x0 , ..., xn )kn0 ((x0 , ..., xn1 ), dxn ) Pn1 (d(x0 , ..., xn ))
Q
j=0
Ej
Qn
j=0
Ej como
Q
est.
Q
P P 0 .
Demostraci
on. Sea f una funcion creciente y acotada definida sobre
Q
z := (z1 , z2 , ...) j=0 Ej .
Q
j=0
Ej ,
est.
APENDICE
B. TEOREMA DE STRASSEN
112
est.
Si y Ki Ki0 para Q
toda i entonces
asticos Z =
Q existen procesos estoc
)
tal
que:
E
,
en
(
,
Z
=
{Z
}
{Zn }
i
i
n
n=0
n=0
i=0
i=0
D
(Z0 , ..., Zn ) = Pn = P n
(Z00 , ..., Zn0 ) = Pn = P n .
est.
Pn n n Pn ,
n
P P .
113
Por lo tanto la version de Strassen para elementos aleatorios, garantiza la exis0
0
tencia de procesos estocasticos X = {Xn }
n=0 y X = {Xn }n=0 tales que
Xn Xn0 , n N,
D
X = P ,
X 0 = P .
114
APENDICE
B. TEOREMA DE STRASSEN
Ap
endice C
Procesos de decisi
on de
Markov
Este apendice esta basado en [35], y en el se trabajan con los procesos estocasticos que modelan la siguiente situacion.
Sup
ongase que en el tiempo n (n = 1, 2, 3, . . .), el proceso se encuentra en el
estado x, y se va a tomar una accion que va a repercutir en la visita posterior
del proceso a los estados existentes, generando un costo por tomar dicha accion.
Ademas la transicion de ir de un estado x a un conjunto de estados, dependera de
la accion tomada.
De la descripcion anterior podemos mencionar que el proceso necesita los siguientes elementos:
Un espacio de estados E, un conjunto de acciones A, las acciones disponibles
para el estado s denotadas por A(s), un kernel de transicion Q y una funcion
de costo, denotada por c.
Definici
on C.0.1 A la quntupla (E, A, {A(s) : s E}, Q, c) se le conoce como
modelo de control de Markov (MCM) donde E y A son espacios de Borel
(es decir, subconjuntos medibles de espacios metricos, separables y completos).
Para todo s E, A(s) es un conjunto medible y no vaco, contenido en A, Q
es un kernel de transici
on sobre E dado K, donde:
K = {(x, a) : x E, a A(x)},
y c : K R es una funci
on medible, llamada funci
on de costo.
Dado un MCM se necesita una regla o una estrategia que indique la manera de
115
DE MARKOV
APENDICE
C. PROCESOS DE DECISION
116
i=1
C.1. PROBLEMA DE CONTROL OPTIMO
(PCO)
C.1.
117
Problema de control
optimo (PCO)
para toda x E.
Observaciones C.1.1
La existencia de la poltica
optima es garantizada en [13]. Supondremos
como hip
otesis este hecho, en el desarrollo del trabajo.
Tambien en [13], se se
nala una caracterizaci
on para el costo promedio de
un poltica estacionaria f F, cuando la cadena de Markov {Xnf } tiene
una medida invariante mf . Esta caracterizaci
on es la siguiente,
Z
J(f, x) = J(f ) = c(y, f (y))mf (dy),
donde x E.
C.2.
An
alisis del ndice de estabilidad para procesos de decisi
on de Markov
C.2.1.
Problema y motivaci
on
APENDICE
C. PROCESOS DE DECISION DE MARKOV
118
Pediremos que este modelo P satisfaga el PCO (ver C.1). Dadas las caracterstica del modelo planteado, la poltica optima f , no se tiene de forma especfica,
pero existe. Una referencia para verificar este hecho la podemos encontrar en
[13].
Para dar solucion a este problema, aproximaremos f con la poltica optima
e = (E, A, {A(s)|s E}, Q,
e c). Aqu Q
e si esta completamente
fe del modelo P
determinado, y de alguna manera es una aproximacion a Q.
Con esta tipo de solucion se querra saber que tan buena es fe en el modelo P.
Matematicamente hablando, se buscara que
(x) := J(f , x) J(f , x) < ,
para todo > 0, con x E.
A continuacion presentamos un desarrollo donde mostramos que:
e y
(x) gx (m(Q, Q))
gx (s) 0, cuando s 0 y m es la metrica de la variacion total.
C.2.2.
Desarrollo
C.2 ANALISIS
DEL INDICE DE ESTABILIDAD PARA PDMs
119
x E.
aA(x)
Hip
otesis C.2.2
(i) Existe una poltica invariante f la cual es
optima.
(ii) Para cada poltica invariante f F, el costo promedio J(f, .) es igual a la
constante J(f ), donde
Z
J(f ) = c(y, f (y))f (dy),
y f es la probabilidad invariante correspondiente.
Lema C.2.1 Bajo las hi
otesis C.2.1 y f F se tiene:
(i) Existe una medida invariante f correspondiente al kernel Q.
(ii) lm ||Xnf f ||V T = 0.
n
Demostraci
on. Fjese f F, y sea g la poltica distinguida (vease la hipotesis
C.2.1). Denotamos como f y g , los tiempos de retorno al estado x = 0 de las
realizaciones {Xnf } y {Xng }, ambas con distribucion inicial 0 .
Por el orden de las trayectorias, se tiene:
E0 [ f ] E0 [ g ] < ,
para todo n = 1, 2, 3, .... As por el Corolario 5.3 de [37], {Xnf } es positiva y
Harris recurrente. De aqu se sigue la existencia la medida invariante f . De lo
realizado en la seccion 6.2, es claro que f es el lmite de las distribuciones de
Xnf en sentido de la metrica de la variacion total.
Teorema C.2.1 Sup
ongase que se establecen las hip
otesis C.2.1, C.2.2. Sean
, respectivamente. Entonces
f y f las polticas
optimas para los modelos P y P
s1
2b
+ 2rhx (r) + 1 s max{1, log ()},
(x) 2
1
donde = sup
xE
sup kQ(.|x,
a) Q(.|x, a))k y =
aA(x)
1
.
r
Demostraci
on. Los lectores interesados en revisar la prueba pueden hacerlo
en [35].
APENDICE
C. PROCESOS DE DECISION DE MARKOV
120
C.2.3.
0
= X
+
= (Xn + an n n ) ,
+
n + an n n ,
=
X
(C.1)
(C.2)
donde {n }, {
n }, {n } y {
n } son sucesiones de variables aleatorias independientes identicamente distribuidas. Sus distribuciones son , , y , respectivamente.
Para obtener las hipotesis del Teorema C.2.1, se imponen las siguientes condiciones al modelo.
Hip
otesis C.2.3
(i) , , y tienen densidades continuas y acotadas , respectivamente.
(ii) Para todo n = 0, 1, 2, ... se tiene que n y n son independientes, tambien
lo son n y n
<0
(iii) Para := y :=
, se cumple: E[] < 0 y E[]
(iv) Existe r0 > 1 y r0 > 0 tal que:
a)
b)
E[r0 ] < y E[
r0 ] <
d
d
E[r0 ] =
E[
r0 ] = 0.
dr0
d
r0
x E.
aA(x)
donde:
V (x) =
s x > 0,
si x = 0.
ng1 = 0}
= mn{n > 0 : Xng = 0} y = mn{n > 0 : X
g y g1 polticas invariantes definidas para todo x E como g(x) =
y g1 (x) = .
C.2 ANALISIS
DEL INDICE DE ESTABILIDAD PARA PDMs
121
En [13] se establece que con las hipotesis (i), (ii) y (iii) de C.2.3 se cumplen las
hipotesis C.2.1 del Teorema C.2.1.
Sustituyendo las polticas invariantes g y g1 , definidas previamente, en las ecuaciones C.1 y C.2, respectivamente tenemos:
Xn+1
n+1
X
= (Xn + n n ) ,
+
n +
=
X
n n ,
son cadenas de Markov Ordenadas por trayectorias. Por otro lado, para cada
poltica f F , se puede obtener:
+
(Xn + f (Xn )n n )
+
n + f (X
n )
n+1
X
n n X
(Xn + n n ) ,
+
n +
X
n n .
E0 [r0 ] <
para
1<r<
E0 [r0 ] <
para
1 < r < E[
r0 ].
E[r0 ]
,
, tenemos que E0 [r0 ] < y
E[r0 ] E[
r0 ]
E0 [
r0 ] < , para alguna r tal que 1 < r < M . utilizando la condicion (iv)
de las hipotesis C.2.3 se generan funciones V 1(x) = E0 [r0 ], V2 (x) = E0 [
r0 ] y
escalares y b que cumple la condicion de Foster-Lyapunov. Definiendo
Tomando como M = mn <
V (x) =
s x > 0,
,
si x = 0.
se satisface la hipotesis C.2.2. Debido a que se cumplen todas las hipotesis del
Teorema C.2.1, se obtiene que:
(x) 2
s 1
2b
s
+ 2rhx (r) + 1
kP ( .) P ( .)kV T
1
122
APENDICE
C. PROCESOS DE DECISION DE MARKOV
Ap
endice D
D.1.
Sean V1 , V2 , . . . , sucesion de variables aleatorias definidas sobre Z+ , independientes e identicamente distribuidas. Definimos:
bn := P (V1 = n), para todo n 1,
si k = 0,
0
k
P
Tk :=
y
Vi
si k 1
i=1
un := P
{Tk = n}
k=1
123
APENDICE
D. TEOREMA DE KENDALL
124
n=0
(un
P
cumple que
bn Rn < para alg
un R > 1. Entonces
n=1
i) u := lm un existe, y
n
ii)
n=0
P
n=1
bn Rn L
L1
(la cual es mayor o igual a 1),
R1
R1 es la u
nica soluci
on en el intervalo (1, R), para la ecuaci
on
e2
x1
=
,
R 2
8N
x(log( x ))
considerando como inc
ognita a x.
para alg
un r (1, R1 ) se tiene que
!
+ 2 log(N )(log( Rr ))1
1
1+
K1 =
r1
8N e2 (r 1)r1 (log( Rr ))2
Teorema D.1.2 Considerando la constantes definidas en D.1.1, se cumple:
i)
n=0
ii)
(un u )z K1 , para todo |z| r.
n=0
125
Demostraci
on. Sea |z| < 1 y j 0. Definimos
cj =
c(z) =
bk ,
b(z) =
k=j+1
P
n=0
bn z
n=1
cn z n , y u(z) =
un z n .
n=0
1 b(z)
1
=
=
1z
(1 z)u(z)
1
1
(D.1)
(un1 un )z n
n=1
Debido a que la serie de potencias de c(z), tiene coeficientes no negativos, podemos ver que para |z| < R se cumple:
b(R) 1
L1
= N.
R1
R1
As podemos ver que c(z) es holomorfica sobre |z| < R.
|c(z)| c(R) =
= < (1 b(z))
X
=
bn <(1 z n )
n=1
<(1 z),
para todo z 1. Por lo tanto:
<(1 rei )
|c(re )|
sen( ),
1 rei
2
i
Mas a
un, para 1 r < R
|c(rei )|
0
c(r) 2r sen
c (r).
2
APENDICE
D. TEOREMA DE KENDALL
126
c(r) + B(r)
|c(rei )|
donde A(r) =
c(R)
c(r)
log R
r
s log
r
c (r)
c(r) log
r log
c(R)
c(r)
R
r
y consecuentemente,
c(R)
c(r) c(1)
A(r)
2
2
N
R
2(r 1)c(r)
log
log
,
r
c(r)
r
N
B(r) 2 log
c(r)
Usando la desigualdad
N
x log
c(r)
R
log
r
1
.
2
4N e2 ,
2
R
8N e2 (r 1)
log
A(r)
r
r
y
1
R
.
B(r) 2 log(N ) log
r
127
As para 1 < r < R1 , tenemos:
|c(rei ) |
8N e2 (r 1)r1 (log Rr )2
> 0.
+ 2(log N )(log Rr )1
(D.2)
Por otro lado, retomando la ecuacion (D.1),y considerando c(z) 6= 0 para todo
P
|z| < R1 . observamos que
(un1 un )z n es holomorfica sobre |z| < R1 y as
n=1
lim rn |un1 u | = 0,
para cada r < R1 . De aqu se sigue que u = lim un existe y lim rn |un1
n
un u =
(um1 um ),
m=n+1
obtenemos:
1
(un u )z n =
z
1
n=0
!
(um1 um1 )z m (1 u ) ,
m=1
cuando 1 < |z| < R1 , as usando (D.1)otra vez, para 1 < r < R1 , obtenemos:
1
1
n
n
sup
1 + sup
,
(un u )z = sup
(un u )z =
|z|=r
r1
|z|r
|z|=r c(z)
n=0
n=0
1,
un =
si n = 0,
e
P (Xn1 C), para n 1
P
n
bn R L, con b1 > 0, R > 1 y L < .
n=1
1 + 2r = r log R ,
APENDICE
D. TEOREMA DE KENDALL
128
y R2 = R en otro caso.
Entonces
(i)
n=0
X
r e
n
|un u |r
.
1 Rr2
n=1
Demostraci
on. Aplicando el algoritmo 3.1.1 se obtiene que {un } es una sucesion de renovacion. La propiedad de reversibilidad implica que el operador de
transicion p, act
ua como una contraccion autoadjunta sobre el espacio de Hilbert
L2 (). Denotaremos < ., . > el producto interno en L2 () y k.k la norma correspondiente.
Para A E tenemos:
(A) =
e
p(x, A)d(x) (A)(C),
e z)
(1 z) + (1
X
n1
p
f, g z n
n=1
e
(1 z) + z(1
z) (I zp)1 f, g .
Como p es una contraccion auto-adjunta sobre L2 (), su espectro es un subconjunto de [1, 1] y tenemos la resolucion espectral,
Z
p = dE(),
donde E(1) = I y lm1 E() = 0. Escribimos F () = hE()f, gi. La funcion F es de variacion acotada y la correspondiente medida con signo f,g es
soportada sobre [1, 1] y tiene masa total
|f,g |([1, 1]) kf k.kgk e 2 .
1
129
Obtenemos para |z| < 1,
Z
e
(1 z)u(z) = (1 z) + z(1
z)
(1 z1 )f,g d, g.
[1,1]
1z
,
1 b(z)
para |z| < 1, y la funcion b es holomorfica en B(0, R). Se sigue que las u
nicas
soluciones en B(0, R) de la ecuacion b(z) = 1 pertenecen a uno de los siguientes
intervalos (R, 1] y [1, R). Debido a que b0 (z) > 0, el cero de b(z) 1 en z = 1
es el cero. Para 1 < r R tenemos que b(r) > b(1) = 1. Para 1 < r < R ,
tenemos b(r) 2b1 r + b(r). Usando la estimacion
b(r) [b(R)](log r)/ log R = r(log L)/ log R ,
se sigue que para 1 < r < R2 , tenemos b(r) < 1, donde R2 es la constante
mencionada en el teorema. As (1 z)u(z) tiene una extension holomorfica a
B(0, R2 ), y la primera parte del teorema se sigue.
Ahora supongamos la parte (ii). Dado r < R2 , tenemos
2
| hpn f, f i ((C)) | M rn ,
(D.3)
Ahora hE()f,
de aqu le corresponde una
f i es una funcion1 creciente,
(
,
1)
,
as
se
cumple que
f
r
r
para
toda r <
R2 , se tiene que hE()f, f i es constante sobre [1, R12 ]y sobre R12 . Se aqu se
sigue F () = hE(f, g)i, es hconstante
i sobre estos mismos intervalos y el soporte
1 1
de |f,g | esta contenida en R2 , R2 . Nota que
u
e lm hpn f, f i
n
Z
e lm
n1 f,g d
e f,g ({1})
APENDICE
D. TEOREMA DE KENDALL
130
Obtenemos, para n 1,
|un u | =
e
n1 f,g d
[ R 1
1 ]
2, R
2
n1
1 1
1
e
|f,g |
,
R2
R2 R2
p 1 n1
e
.
R2
p
r e
|un u |r
1 Rr2
n=1
Teorema D.1.4 Sea {Xn } una cadena de Markov la cual es reversible y positiva con respecto a la medida invariante y satisface la condici
on de mie Ic , ). Sea {un } la sucesi
norizaci
on M (,
on de renovaci
on descrita por:
1,
un =
si n = 0,
e
P (Xn1 C), para n 1
P
n
bn R L, con b1 > 0, R > 1 y L < .
n=1
1 + 2r = r log R ,
y R2 = R en otro caso.
Entonces
(i)
n=0
X
r e
n
|un u |r
.
1 Rr2
n=1
131
Demostraci
on. La hipotesis adicional implica que el espectro de p esta contenido en [0, 1]. Siguiente el argumento de la prueba anterior, obtenemos para
|z| < 1:
Z
e
(1 z)u(z) = (1 z) + z(1 z)
(1 z)1 f,g d,
[0,1]
D.2.
Desigualdades notables
V (x), si x
/C
pV
,
K
si x C.
para alguna funci
on medible V : E [1, ) y constantes < 1 y K < .
Entonces:
(i) Para todo x E , Px ( < ) = 1.
(ii) Para 1 r 1
G(r, x)
V (x),
rK
si x
/C
.
si x C.
H(r, x)
rV (x)
1 r ,
si x
/C
r(K r) si x C.
1 r
.
r1
(1 )(1 r)
APENDICE
D. TEOREMA DE KENDALL
132
Proposici
on D.2.1 Asuma que la cadena de Markov es geometricamente
erg
odica con medida invariante , C es un
atomo y que V es una funci
on o
negativa. Suponga que g : E R y satisface kgkV 1. Entonces
Z
X
n
p g(x) gd z n
sup
|z|r
n=1
n
H(r, x) + G(r, x) H(r, a) sup
(un u )z
|z|r
n=0
H(r, a)
para r > 1.
Proposici
on D.2.2 Asuma que la cadena de Markov es geometricamente
erg
odica con medida invariante , C es un
atomo y que V es una funci
on o
negativa. Suponga que g : E R y satisface kgkV 1. Entonces
Z
X
n
p g(x) gd z n
sup
|z|r
n=1
n
x) + G(r,
x)H(r,
a, 1) sup
H(r,
(
un u
)z
|z|r
n=0
a, 1) G(r, x) 1
a, 1) G(r, x) 1 + H(r,
H(r,
r1
r1
a, 1) rH(1,
a, 1)
H(r,
.
r1
Proposici
on D.2.3 Considere la condici
on de Minorizaci
on y la condici
on
Drift. Definiendo
!
K e
1 = 1 + log
(log 1 ),
1 e
K
log(1 ) y
2 = 1 + log
e
e 1+1 se tiene:
R0 = mn 1 , (1 )
133
G(r)
x)
G(r,
a, 1)
G(r,
x)
H(r,
a, 1)
H(r,
a, 1) rH1,
a, 1
H(r,
r1
r1 ,
para
1 r 1
(D.4)
e
G(r,
x)
,
e
1 (1 r1 )
(D.5)
e 2
r
L(r),
e 1 )
1 (1 r
(D.6)
H(r, x) +
e r)]
r[K r (1
G(r, x).
e 1 ]
(1 r)[1 (1 )r
r2 +1(Kr)
,
e 1 ]
(1 r)[1 (1 )r
r2 +1 (K 1)
(D.7)
(D.8)
(D.9)
e 1 ]
(1 )(1 r)[1 (1 )r
!
e )]
e 1 1)
r[K (1
(1 )(r
r2 1
+
.
e 1)
e 1 ] r 1
(r
(1 )[1 (1 )r
134
Bibliografa
[1] R. B. Ash. Real Analysis and Probability. Academic Press, 1972.
[2] K. B. Athreya and P. Neyn. A new approach to the limit theory of recurrent
Markov chains. Amer.Math. Soc., 245:493501, 1978.
[3] R. R. Bahadur and R. R. Rao. On deviations of the sample mean. Ann.
Math. Statist, 31:10151027, 1960.
[4] P. H. Baxendale. Renewal theory and computable convergence rates for
geometrically ergodic Markov chains. Ann. Appl. Probab., 15(1B):700738,
2005.
[5] D. P. Bertsekas. Dynamic Programming: Deterministic and Stochastic Models. Prentice-Hall, 1987.
[6] R. N . Bhattacharya and C. Lee. Ergodicity of nonlinear first order autoregressive models. J. Theoret. Probab., 8(1):207219, 1995.
[7] P. Billingsley. Probability and Measure. John Wiley and Sons, 1979.
[8] H. Chernoff. A measure of asymptotic efficiency for test of a hypothesis
based on the sum of observations. Ann. Math. Statist, 23:493507, 1952.
[9] E. Cinlar. Introduction to Stochastic Processes. Prentice-Hall, Inc, 1975.
[10] J. W. Cohen. The Simple Server Queue. North-Holland, 1982.
[11] J. L. Doob. Stochastic Processes. John Wiley and Sons Inc, 1953.
[12] E. I. Gordienko. An estimate of stability of optimal control of certain
stochastic and deterministic systems. J. Soviet. Math., 59:891899, 1992.
[13] E. I. Gordienko and O. Hernandez-Lerma. Average cost Markov control processes with weight norms: value iteration. Appl. Math. (Warsaw),
23:219237, 1995.
[14] E. I. Gordienko and O. Hernandez-Lerma. Average cost Markov control
processes with weighted norms: existence of canonical policies. Appl. Math.
(Warsaw), 23(2):199218, 1995.
135
136
[15] D. Griffeath. Coupling Methods for Markov Processes, volume 2 of Studies
in probability and ergodic theory. Academic Press,Inc, 1978.
[16] W. K. Hastings. Monte Carlo sampling methods using Markov chains and
their applications. Biometrika, 57(1):97109, 1970.
[17] O. Hernandez-Lerma and J. B Lasserre. Discrete-Time Markov Control
Processes: Basic Optimality Criteria. Springer-Verlag, 1996.
[18] P. G. Hoel, S. C. Port, and C. J. Stone. Introduction to Stochastic Processes.
Waveland Press,inc., 1972.
[19] A. Hordijk and F. M. Spieksma. On ergodicity and recurrence properties
of a Markov chain with application. Adv. Appl. Probab., 24:343376, 1992.
[20] N. Jain and B. Jamison. Contributions to Doeblins theory of Markov
processes. Z.Wahrsch. Verw. Gebiete, 8:1940, 1967.
[21] V. V. Kalashnikov. Qualitative analysis of the behavior of complex systems
by the method of test functions. Series in Theory and Methods of Systems
Analysis Nauka, 1978. En Ruso.
[22] T. Kamae, U. Krengel, and G. L. OBrien. Stochastic inequalities on partially ordered spaces. Ann. Probability, 5(6):899912, 1977.
[23] N. V. Kartashov. Criteria for uniform ergodicity and strong stability of
Markov chains with common phase space. Teor. Veroyatnost. i Mat. Stat.
Vyp., 30:6581, 1984. Version en ingles Theor. Probab. Math. Statistics, 30:
71-89,1985.
[24] N. V. Kartashov. Inequalities in theorems of ergodicity and stability
for Markov chains with common phase space. II. Teor. Veroyatnost. i
Primenen, 30(3):478485, 1985. Version en ingles Theory Probab. Appl.,
30(3):507-515, 1985.
[25] N. V. Kartashov. Inequalities in theorems of ergodicity and stability
for Markov chains with common phase space. I. Teor. Veroyatnost. i
Primenen., 30(2):230240, 1985. Version en ingles Theory Probab. Appl.,
30(2):247-259, 1985.
[26] N. V. Kartashov. A refinement erogodicity estimates of renewal processes
and Markov chains. Teor. Veroyatnost. i Mat. Stat. Vyp., (32):2733, 133,
1985. Version en ingles Theor. Probab. Math. Statistics, No. 32: 27-34, 1986.
[27] D. G. Kendall. Unitary dilatations of Markov transition operators and
the corresponding integral representation for transition-probability matrices.
In: Probability and Statistics: The Harald Cramer volume (edited by U.
Grenander), 1959.
[28] T. Lindvall. Lectures on the Coupling Method. Wiley series in probability
and mathematical. John Wiley and Sons,Inc, 1992.
Bibliografa
137
138
[45] G. O. Roberts and R. L. Tweedie. Bounds on regeneration times and
convergence rates for Markov chains. Stochastic Process. Appl., 80:211
229, 1999.
[46] G. O. Roberts and R. L. Tweedie. Rates of convergence of stochastically
monotone and continuous Markov models. J. Appl. Prob., 37:359373, 2000.
[47] J. S. Rosenthal. Convergence rates for Markov chains.
37(3):387405, 1995.
SIAM Rev.,
Indice alfab
etico
V -norma, 73
-recurrente, 22
Atomo,
75
Desigualdad
de tiempo de acoplamiento, 36
Distribucion
inicial, 16
invariante, 18
Acoplamiento
clasico, 34
de Doeblin, 34
de elementos aleatorios, 30
de medidas, 30
evento de, 35
exitoso, 36
markoviano, 34
ordenado, 40
tiempo de, 35
acoplamiento
exacto, 36
Algoritmo
acoplamiento particionante, 37
Metropolis-Hastings, 85
Funcion
peque
na, 21
Harris recurrente, 22
Kernel
irreducible, 19
de transicion, 15
estocasticamente dominado, 42
irreducible, 19
monotono, 43
Lebesgue
descomposicion de, 100
Lindley
caminata, 70
Cadena
estocasticamente monotona, 43
de Markov
positiva, 74
reversible, 74
ordenada estocasticamente, 43
ordenada por realizaciones, 43
Cadena de Markov
particionante, 23
Condicion de
Foster-Lyapunov, 22
Condicion de
minorizacion, 21
Conjunto
comunicado, 19
peque
no, 21
Copias de elementos aleatorios, 30
140
irreducible, 19
irreducible maximal, 20
peque
na, 21
Modelo de control de Markov, 115
Orden estocastico, 39
para medidas, 39
P.D.M., 116
Poltica, 116
Poltica de control., 116
Proceso
regenerativo, 27
Proceso de decision de Markov, 116
Propiedad
de separabilidad, 101
Regeneracion
propiedad de, 27
Sucesion
aperiodica, 76
Tasa de Convergencia, 47
ergodica, 48
geometrica, 48
uniformemente ergodica, 48
141
Notaci
on
Cadenas de Markov
(E, ) espacio de estados
p kernel de transicion
pn kernel de transicion en n-pasos
(, F, P ) espacio base para la cadena
con distribucion inicial
x distribucion concentrada en x
distribucion invariante
medida irreducible
medida irreducible maximal
M (n, , S, ) condicion de minorizacion
C conjunto peque
no
= (Xn , In ) cadena particionante
X
acoplamiento para X
X
F,
P espacio base de un acoplamiento
,
T tiempo de acoplamiento
D
orden estocastico
Convergencia
k . k metrica probabilstica
k . kV T metrica de la variacion total
k . kV metrica de la variacion ponderada
Tasa de convergencia