Documentos de Académico
Documentos de Profesional
Documentos de Cultura
3.2 Stationary Distribution, 80.en - Es
3.2 Stationary Distribution, 80.en - Es
com
R:ángel en el gimnasio
# gimnasio.R
>P
Aerobic Masaje Pesas Yoga
Aeróbicos 0.1 0.2 0.4 0.3
Masaje 0.4 0.0 0.4 0.2
Pesos 0.3 0.3 0.0 0.4
Yoga 0.2 0.1 0.4 0.3
> init <- c(1/4,1/4,1/4,1/4) # distribución inicial
> estados <- c("a","m","w","y")
# simular la cadena de Markov por 100 pasos
> listasim <- markov(init,P,100,estados)
> mwyaaywyayawyayawymwywamwawyawywywyywywyamwaway
> amamawywmyawawmawywmwywmwmyaywaywywamwyyymwawamaay
> tabla(listasim)/100
Aeróbicos Masaje Pesos Yoga
0.26 0.14 0.31 0.29
> pasos <- 1000000 # un millón de pasos
> simlist <- markov(inicio,P,pasos,estados)
> tabla(simlist)/pasos
Aerobic Masaje Pesas 0.237425 0.164388 Yoga
0.285548 0.312640
( )
q pags
= , .
pags+q pags+q
(q ) (
pags 1 -pags
)
pags
PAGS= ,
pags+q pags+q q 1 -q
( )
q(1 -pags) +pq qp+pags(1 -q)
= ,
pags+q pags+q
DISTRIBUCIÓN ESTACIONARIA 81
( q )
pags
= , = .
pags+q pags+q
Distribución Estacionaria
= PAGS. (3.2)
Eso es, ∑
j= iPAGSyo,para todosj.
i
Lema 3.1.Asumir que es la distribución límite de una cadena de Markov con matriz de
transiciónPAGS. Después, es una distribución estacionaria.
82 CADENAS DE MARKOV A LARGO PLAZO
( )
=límite PAGSnorte=límite (PAGSnorte−1PAGS) = límite PAGSnorte−1PAGS= PAGS,
norte→∞ norte→∞ norte→∞
Resolviendo PAGS= , o
( )
( ) 0 1 ( )
1, 2 = , 1 2 ,
1 0
( )
1 0
PAGS= .
0 1
Este proceso es bastante aburrido: la cadena simplemente permanece para siempre en su estado
inicial. La cadena no tiene distribución limitante, ya que el estado a largo plazo de la cadena depende
del estado inicial. Sin embargo,cadavector de probabilidad es una distribución estacionaria ya que xP=
X, para todos los vectoresX.
Así, existen cadenas de Markov con más de una distribución estacionaria; hay cadenas de
Markov con distribuciones estacionarias únicas que no son distribuciones limitantes; e incluso
hay cadenas de Markov que no tienen distribuciones estacionarias.
Sin embargo, una clase grande e importante de cadenas de Markov tiene distribuciones
estacionarias únicas que son la distribución límite de la cadena. Un objetivo de este capítulo es
caracterizar tales cadenas.
Matrices Regulares
una matrizMETROse ha dichopositivosi todas las entradas deMETROson positivos. Nosotros escribimosMETRO>0. Del
mismo modo, escribeX>0 para un vectorXcon todas las entradas positivas.
DISTRIBUCIÓN ESTACIONARIA 83
Una matriz de transiciónPAGSse ha dichoregularsi algún poder dePAGSes positivo. Eso es,PAGS
norte>0, para algunosnorte≥1.
Por ejemplo,
⎛0 1∕2 1∕2⎞
PAGS=⎜1 0 0⎟
⎜ ⎟
⎝1∕2 1∕2 0⎠
es normal, ya que
⎛9∕dieciséis 5∕dieciséis 1∕8⎞
PAGS4=⎜1∕4 3∕8 3∕8⎟
⎜ ⎟
⎝1∕2 5∕dieciséis 3∕dieciséis⎠
⎛0 1 0⎞ ⎛0 0 1⎞ ⎛1 0 0⎞
PAGS=⎜0 0 1⎟,PAGS2=⎜1 0 0⎟,yPAGS3=⎜0 1 0⎟.
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝1 0 0⎠ ⎝0 1 0⎠ ⎝0 0 1⎠
Si la matriz de transición de una cadena de Markov es regular, entonces la cadena tiene una
distribución límite, que es la única distribución estacionaria de la cadena.
yo=
límitePAGSnorte j,
norte→∞
límitePAGSnorte= ,
norte→∞
84 CADENAS DE MARKOV A LARGO PLAZO
Ejemplo 3.3 Suponga que una cadena de Markov tiene matriz de transición
⎛ 0 1 -pags pags⎞
PAGS=⎜ pags 0 1 -pags⎟,
⎜ ⎟
⎝1 -pags pags 0 ⎠
SoluciónEncontramos eso
Desde 0<pag <1, la matrizPAGS2es positivo. De este modo,PAGSes regular Por el Teorema 3.2,
la distribución límite es la distribución estacionaria.
Cómo encontrar la distribución estacionaria de una cadena de Markov es el tema de la siguiente
sección. Sin embargo, por ahora le brindamos al lector un poco de ayuda y lo instamos a que intente
= (1∕3,1∕3,1∕3).
Por cierto, PAGS= , como
( )⎛ 0 1 -pags pags⎞ ( )
1 1 1 ⎜ pags 0 1 1 1
,, 1 -pags⎟ = ,, .
3 3 3 ⎜ ⎟ 3 3 3
⎝ 1 -pags pags 0⎠
Aquí hay una forma de saber si una matriz estocástica no es regular. Si por algún podernorte, todos los 0
enPAGSnorteaparecen en las mismas ubicaciones que todos los 0 enPAGSnorte+1, entonces aparecerán en los
mismos lugares para todos los poderes superiores, y la matriz no es regular.
DISTRIBUCIÓN ESTACIONARIA 85
⎛0 0 0 0 1⎞
⎜1 0 0 1 1⎟
⎜4 2 4⎟
PAGS=⎜0 0 1 0 0⎟.
⎜ 1 1 ⎟
⎜0 0 2 2
0⎟
⎜ 1 1⎟
⎝14 2 0 0 4⎠
SoluciónEncontramos eso
7 1 3 21 21 7 13 71
⎛9 32 8 64⎞
⎛35256 128 32 64 256⎞
⎜64 ⎜
dieciséis
11 15 11 49⎟ 49 71 33 155⎟
⎜⎜256
21
128 32 64 256⎟
⎜711024 512 128 256 1024⎟
⎟ ⎜ ⎟
PAGS4=⎜0 0 1 0 0⎟y PAGS5 =⎜0 0 1 0 0⎟.
⎜ 15 1 ⎟ ⎜ 31 1 ⎟
⎜0 0 0⎟ ⎜ 0 0 32 32
0⎟
⎜ ⎝⎜113 253⎠⎟
dieciséis dieciséis
21 7 13 71⎟ 71 41 47
⎝35
256 128 32 64 256
⎠ 1024 512 128 256 1024
Dado que los 0 están en las mismas ubicaciones para ambas matrices, concluimos quePAGSno es
regular ◾
Asumir que es una distribución estacionaria para una cadena de Markov con matriz de transición PAGS.
Después,
∑
iPAGSyo= j,para todos los estadosj,
i
( )
1 -pags pags
,
q 1 -q
PAGS=
(1 -pags) 1+q 2= 1
pags 1+ (1 -q) 2= 2.
86 CADENAS DE MARKOV A LARGO PLAZO
>P
Lluvia Nieve Claro
Lluvia 0.2 0.6 0.2
Nieve 0.1 0.8 0.1
Claro 0.1 0.6 0.3
> estacionario(P)
[1] 0,1111 0,7500 0.1389
# comprobar que se trata de una distribución estacionaria
> estacionario(P) %*% PAGS
Lluvia Nieve Claro
[1] 0,1111 0.75 0.1389
DISTRIBUCIÓN ESTACIONARIA 87
Aquí hay una técnica útil para encontrar la distribución estacionaria, que reduce en uno el número
de ecuaciones a resolver. Hace uso del hecho de que siXes un vector, no necesariamente un vector de
probabilidad, que satisfacexP=X, después (CX)PAGS=CX, para todas las constantesC. De ello se
deduce que si uno puede encontrar un no negativoX, que satisfacexP=X,
entonces una solución de vector de probabilidad única =CXpuede ser obtenido por un apropiado
∑
elección deCpara que las filas deCXsuma a 1. En particular, seaC=1∕jXj, El recíproco
de la suma de los componentes deX.
∑ ∑
El sistema lineal i iPAGSyo= j, sin la restricción i i=1, tiene una redun-
maldita ecuación. Nuestro método de solución consiste en (i) eliminar una ecuación
redundante y (ii) resolver el sistema resultante paraX= (1,X2,X3,…),donde el primer (o cualquier)
componente deXse reemplaza por 1.
Para una cadena de Markov conkestados, este método reduce el problema a resolver un (k−
1)× (k−1) sistema lineal. Si la cadena original tiene una distribución estacionaria única, entonces
el sistema lineal reducido tendrá una solución única, pero que no es necesariamente un vector
de probabilidad. Para convertirlo en un vector de probabilidad cuyos componentes suman 1, se
divide por la suma de los componentes. En otras palabras, la estacionaria única
la distribución es
1
= (1,X2,…,X). k
1 +X2+· · · +Xk
Para encontrar la distribución estacionaria, primero seaX= (1,X2,X3). Después,xP=Xda un 3×3 sistema
lineal. Las dos primeras ecuaciones son
o
(1∕2)X2+ (1∕4)X3= 2∕3,
(-1∕2)X2+ (1∕2)X3= −1∕2,
11 2 22
1+ += .
9 9 9
La distribución estacionaria es
( )( )
9 11 2 9 11 2
= 1, , = ,, .
22 99 22 22 22
88 CADENAS DE MARKOV A LARGO PLAZO
⎛ pags 1 -pags 0 0 ⎞
⎜(1 -pags)∕2 pags (1 -pags)∕2 0 ⎟
PAGS=⎜
⎜
0 (1 -pags)∕2 pags (1 -pags)∕2⎟,
⎟
⎝ 0 0 1 -pags pags⎠
por 0<pag <1. Encuentra la distribución estacionaria.
∑4
Xj= XiPAGSyo,
i=1
porj=1,2 y 4. Esto da
()
1 -pags
pags+ X2 =1,
2
( )
1 -pags
1 -pags+ píxeles2+ X3 =X2,
2
( )
1 -pags
X3 + píxeles4 =X 4,
2
con solucionX2=X3= 2 yX1=X4= 1. La distribución estacionaria es
( )( )
1 1221
= 1,2,2,1 = ,,,.
1+2+2+1 6666
◾
Ejemplo 3.7 (El modelo perro-pulga de Ehrenfest)El modelo perro-pulga Ehrenfest fue
propuesto originalmente por los físicos Tatyana y Paul Ehrenfest para describir la
difusión de gases. El matemático Mark Kac lo llamó “uno de los modelos más instructivos
de toda la física”.
Dos perros, Lisa y Cooper, comparten una población denortepulgas En cada unidad
de tiempo discreta, una de las pulgas salta del perro al otro perro. DejarXnortedenote el
número de pulgas en Lisa después denortesalta Si hayipulgas en Lisa, luego, en el
siguiente salto, el número de pulgas en Lisa aumenta en uno, si uno de losnorte−ipulgas
en Cooper salta a Lisa, o cae por uno, si uno de losipulgas en Lisa salta a Cooper.
si j=i−1,
⎪
⎧i∕NORTE,
PAGSyo=⎨(norte−i)∕NORTE, si j=i+1,
⎪0, de lo contrario.
⎩
DISTRIBUCIÓN ESTACIONARIA 89
0 1 2 3 4 5
0⎛0 1 0 0 0 0⎞
1⎜1∕5 0 4∕5 0 0 0⎟
⎜ ⎟
2⎜0 2∕5 0 3∕5 0 0⎟.
PAGS=
3⎜0 0 3∕5 0 2∕5 0⎟
4⎜0 0 0 4∕5 0 1∕5⎟
⎜ ⎟
5⎝0 0 0 0 1 0⎠
∑
norte
norte− (j−1) j+1
Xj= XiPAGSyo=Xj−1 + Xj+1norte , (3.3)
norte
i=0
¡Adivinar antes de probar! ¿Necesito recordarte que es así como se han hecho todos los
descubrimientos importantes?
—Henri Poincaré
2 1
3 6 7 8 9 10
4 5
Para un ejemplo concreto, considere elgráfico de piruleta, que se muestra en la Figura 3.1. Uno espera
que, a largo plazo, una caminata aleatoria en el gráfico tenga más probabilidades de estar en el dulceen el
extremo izquierdo del gráfico, y es menos probable que esté en el extremo derecho de la barra. (El dulce es
un gráfico completo donde todos los pares de vértices están unidos por aristas).
La intuición sugiere que los vértices que tienen más conexiones tienen más probabilidades de ser
visitados. Es decir, el tiempo pasado en el vértice está relacionado con el grado de .
Esto sugiere considerar una distribución en vértices que esté relacionada con el grado de
los vértices. Una posibilidad es una distribución que sea proporcional al grado del vértice. Dejar
grado( ) grado( )
=∑ = ,
grado( ) 2mi
dóndemies el número de aristas en el gráfico. La suma de los grados de los vértices es igual al
doble del número de aristas, ya que cada arista aporta dos vértices (sus extremos) a la suma de
los grados de los vértices.
Queda por comprobar, para esta elección de , ya sea de hecho = PAGS. por vértice ,
( )
∑ ∑grado( ) 1
( PAGS) = PAGS =
∼
2mi grado( )
1∑ grado( )
= 1= = .
2mi
∼
2mi
Vértice 1 2 3 4 5 6 7 8 9 10
5/38 5/38 5/38 5/38 5/38 6/38 2/38 2/38 2/38 1/38
◾
DejarGRAMOser un gráfico ponderado con función de peso de borde (yo, j). Para caminar al azar
GRAMO, la distribución estacionaria es proporcional a la suma de los pesos de las aristas que
inciden en cada vértice. Eso es,
( )
=∑ , para todos los vértices , (3.4)
z (z)
dónde
∑
( ) = ( ,z)
z∼
es la suma de los pesos de los bordes en todos los bordes que inciden en .
Para una caminata aleatoria simple en un gráfico no ponderado, configure (yo, j) =1, para todosyo, j.
Después, ( ) = grado( ), lo que da
grado( ) grado( )
=∑ = ,
zgrado(z) 2mi
1 2
( )
1 1 -pags pags
q 1 -q
PAGS=
2
pq
q(1 -pags) 1 2 pags(1 -q)
Figura 3.2La cadena de Markov general de dos estados expresada como un gráfico ponderado.
92 CADENAS DE MARKOV A LARGO PLAZO
El lector puede preguntarse cómo se deriva el gráfico ponderado de la figura 3.2 a partir de
la matriz de transiciónPAGS. El algoritmo se explicará en la Sección 3.7.
Soluciónlosk-el gráfico de hipercubo, como se describe en el ejemplo 2.8, tiene 2kvértices. Cada
vértice tiene gradok. La suma de los grados de los vértices esk2k, y la distribución estacionaria
es dado por
k 1
= = , para todos .
k2k 2k
Es decir, la distribución estacionaria es uniforme en el conjunto de vértices. ◾
El hipercubo es un ejemplo deregulargrafico. Una gráfica es regular si todos los grados de los
vértices son iguales. Para una caminata aleatoria simple en un gráfico regular, la distribución
estacionaria es uniforme en el conjunto de vértices, ya que jes constante para todosj. Además del
hipercubo, los ejemplos de gráficos regulares con distribuciones estacionarias uniformes incluyen el
gráfico de ciclo (deg( ) =2) y el gráfico completo enkvértices (grados( ) =k−1).
La distribución estacionaria de una cadena de Markov está relacionada con la estructura propia de la matriz
de transición.
Primero, un recordatorio sobre la notación. para una matrizMETRO, latransponerdeMETROse denota
METROT. En este libro, los vectores se consideran como vectores fila. SiXes un vector,XTes un vector columna.
>P
Lluvia Nieve Claro
Lluvia 0.2 0.6 0.2
Nieve 0.1 0.8 0.1
Claro 0.1 0.6 0.3
> propio(P)
$valores
[1] 1,0 0,2 0,1
$vectores
[,1] [,2] [,3]
[1,] 0.5773503 0.6882472 - 0.9847319
[2,] 0.5773503 - 0.2294157 0.1230915
[3,] 0.5773503 0.6882472 0.1230915
> valores propios(P)$ # valores propios
[1] 1,0 0,2 0,1
# los valores propios de P y su transpuesta son iguales
> valores propios(t(P))$valores
[1] 1,0 0,2 0,1
# vectores propios de P-transpuesta
> vectores propios(t(P))$
[,1] [,2] [,3]
[1,] 0.1441500 - 2.008469e-16 7.071068e-01
[2,] 0.9730125 - 7.071068e-01 3.604182e-16
[3,] 0.1801875 7.071068e-01 - 7.071068e-01
El comportamiento a largo plazo de una cadena de Markov está relacionado con la frecuencia con la
que se visitan los estados. Aquí, observamos más de cerca la relación entre los estados y qué tan
accesibles son los grupos de estados entre sí.
decir ese estadojesaccesibledel estadoi, siPAGSnorte>0, para algunosnorte≥0. Es decir, hay
yo
es probabilidad positiva de alcanzarjdeien un número finito de pasos. estadosiyj
comunicarsesiies accesible desdejyjes accesible desdei.
La comunicación es una relación de equivalencia, lo que significa que cumple las
siguientes tres propiedades.
∑
PAGSnorte+metro=
PAGSnortePAGSmetro≥ nortePAGSmetro>0.
yo eso es PAGSyo jk
t