Está en la página 1de 64

Cadenas

de Markov

Jos Antonio Camarena Ibarrola


Definiciones elementales
El proceso discreto es denominado
cadena de Markov si se cumple

es la probabilidad de que en el tiempo k, el


proceso est en el estado j dado que en el tiempo
k-1 estaba en el estado i
Si la distribucin de probabilidad de transicin
entre estados no cambia en el tiempo, la cadena
de Markov es homognea, para este tipo de
cadenas de Markov
Definiciones elementales
Para cadenas de Markov homogeneas

La condicin 2 dice que los estados son


mutuamente exclusivos y colectvamente
exhaustivos
Regla de la Cadena de Markov
De la definiciones anteriores

Lo cual implica que si se conoce la distribucin de


probabilidades de estados iniciales se puede conocer
Matriz de transicin entre estados
Es comn representar la distribucin de
transicin entre estados como una matriz:

Es una matriz estocstica puesto que para


cada rengln i, se cumple que
La probabilidad de transicin de n
pasos
Para dos pasos (n=2)

Si m=0
Las ecuaciones Chapman-Kolmogorov
Se trata de una generalizacin del resultado obtenido
anteriormente

Demostracin
Matriz de transicin de n pasos
Diagramas de transicin
Suponga que al arrojar una moneda, el
resultado dependiera del lanzamiento anterior
Clases de estados
Alcanzable. Un estado j es alcanzable desde algn
estado i sii
Observe que la Matriz nos brinda informacin de
alcanzabilidad entre estados
Dos estados se comunican si son alcanzables
mtuamente
El concepto de comunicacin divide al espacio de
estados en clases
Dos estados que se comunican pertenecen a la misma
clase
Todos los estados de una misma clase se comunican
entre s
Decimos que una clase es cerrada si ninguno de los
estados que la conforman puede se alcanzado por
ningn estado fuera de la clase
Cadenas de Markov irreductibles
Son cadenas de Markov en las cuales todos los
estados se comunican
Eso implica que los estados conforman una
nica clase
Probabilidad de primera pasada
Sea la probabilidad condicional de que dado
que el proceso se encuentra actualmente en el
estado i, la primera vez que llegue al estado j
ocurra en exactamente n transiciones
(Probabilidad de primera pasada del estado i al j
en n transiciones)

Probabilidad de primera pasada del estado i al j


Es tambin la probabilidad de que alguna vez
llegue al estado j dado que est en el estado i
Estados recurrentes y transitorios
Mtodo recursivo para determinar

es la probabilidad de que eventualmente


regrese al estado i
Cualquier estado i para el que se conoce
como estado recurrente
Cualquier estado para el que se conoce
como estado transitorio
Cadenas sencillas
Un estado j es transitorio (o no-recurrente) si hay una
probabilidad diferente de cero de que el proceso nunca
regrese al estado j una vez que a salido del mismo
Un estado j es recurrente (o persistente) si con
probabilidad 1, el proceso eventualmente regresar al
estado j despues de haber salido de l.
Un conjunto de estados recurrentes forman una
cadena sencilla si cada uno de los estados del conjunto
se comunica con cada uno de los dems estados del
conjunto
Estados peridicos
Un estado recurrente j es llamado estado
peridico si existe un entero d (d>1) tal que
es cero para todo n excepto para d, 2d, 3d ,
d es el periodo
Si d=1 el estado es aperidico
Cadenas ergdicas
Un estado recurrente es recurrente positivo si el
tiempo esperado para que regrese a l es finito
Un estado recurrente es recurrente nulo si el
tiempo esperado para que regrese a l es infinito
Si un estado es recurrente positivo y aperidico,
entonces se denomina estado ergdico
Una cadena consistente de estados ergdicos se
llama cadena ergdica
Estado absorbente
Un estado j se denomina absorbente si
Tambin se llaman estados trampa
Ejemplo 1
Los estados 1,2 y 3 son recurrentes
El estado 4 es transitorio
No hay estados peridicos
Hay una cadena sencilla {1,2,3}
Ejemplo 2
Los estados 1, 2 y 3 son ahora transitorios
El estado 4 es absorbente (o trampa)
Ejemplo 3
Tiene una cadena sencilla {1,2,3}
Los tres estados son peridicos con periodo 3
Obteniendo la probabilidad de transicin de n pasos
Nota
Para la matriz de este ejemplo y para un gran
nmero de cadenas de Markov, encontramos
que al multiplicar a la matriz por si misma
muchas veces la matriz tiende a tener valores
fijos
Mas importante que eso es el hecho de que
todos los miembros de una misma columna
convergen hacia un mismo valor
Distribucin de estados iniciales
La probabilidad de que en el tiempo t=0 el
proceso se encuentre en el estado i es

Si la cadena de Markov tiene N estados


Probabilidad de estado lmite
La probabilidad de que en el instante n el
proceso se encuentre en el estado j es

Para cierta clase de cadenas de Markov, a


medida que , no depende de i, lo
cual significa que tiende a una
constante
Cuando dicho lmite existe, definimos
Probabilidad de estado lmite

Sabemos que
Y si los estados lmite existen y no dependen
del estado inicial entonces
Obteniendo las probabilidades de
estados lmite
Definiendo el vector de probabilidades de
estados lmite como

El cual es un sistema de ecuaciones lineales a


resolver
Condiciones para la existencia de
estados lmites
En cualquier cadena de Markov aperidica e
irreductible, existen y son independientes del
estado inicial
Las probabilidades de los estados lmites se
deben interpretar como la probabilidad de
que a largo plazo el proceso estar en dicho
estado
Ejemplo

Como hay mas ecuaciones que incgnitas usamos solo

De la primera ecuacin
Substituyendo en la segunda
Calcular

Como son eventos mutuamente excluyentes:


Alternativamente
Matrices doblemente estocsticas
No solo los renglones sino tambin las
columnas suman 1

Para este tipo de cadenas de Markov

Demostracin

Substituyendo
Ejemplo
Tiempo esperado de estancia en un
estado
Sea el nmero de unidades de tiempo que un
proceso permanecera en el estado i antes de
abandonarlo

Observe que se us la regla de la cadena de Markov


Anlisis transitorio de Cadenas de
Markov de tiempo discreto
Recordemos que la probabilidad de transicin en n pasos est dada por:

Se cumple entonces, para una cadena de Markov de N estados

Sea transformada Z de

Entonces si aplicamos transformada Z a ambos miembros a la ecuacin anterior tenemos:


Anlisis transitorio de Cadenas de
Markov de tiempo discreto

En forma matricial:
Anlisis transitorio de Cadenas de
Markov de tiempo discreto
Obtenemos Mediante la inversa de G(z) obteniendo dos componentes,
uno constante y un trmino transitorio

Donde T(z) es la transformada Z de T(n)

El trmino constante tiene la caracterstica de que todos los renglones son idnticos
Y sus elementos son las probabilidades de estados lmite
Ejemplo
Obtener para una cadena de Markov con la siguiente Matriz de transicin entre estados
Ejemplo
Ejemplo

La matrz asociada con (1-z) contiene las probabilidades de estados lmites


Observe tambin que cada rengln de las otras matrices suma cero
Cuando n=0 obtenemos la matriz identidad
Cuando n=1 obtenemos P
Tiempos de recurrencia y de primer paso

El tiempo de la primera transicin de i a j es:

Previamente definimos la probabilidad de primera transicin de i a j como:

Tambin recordar que podemos determinar recursivamente


Tiempos de recurrencia y de primer paso
La relacin entre la probabilidad de transicin en n pasos y la probabilidad de
primera transicin es

Como ,esta expresin se puede convertir en:

Podemos despejar para concluir:


Tiempos de recurrencia y de primer paso

El tiempo medio de primera transicin del estado i al j se determina mediante

Como el tiempo que el proceso dura en cada estado es 1, esta ecuacin dice
que el tiempo promedio es el tiempo que dura en el estado i mas el tiempo medio
de primera transicin del estado k al j dado que el estado que sigue del i es el k

De manera similar, el tiempo de recurrencia del estado i es:


Ejemplo
Determinar el tiempo medio de primera transicin del estado 1 al 3 para
una cadena de Markov con la siguiente matriz de probabilidades de transicin

Necesitamos otra ecuacin

De donde:
Ejemplo
Determinar
stic Modeling
kov Processes for Stochastic Modeling
Tiempos de ocupacin
ccupancy
72 MarkovTimes
Processes for Stochastic Modeling

hain Denotamos al nmero de veces que el


3.9 {XOccupancy 0}. Let
n , n Markov
discrete-time {Xn ,denote
Times
Ni (n)
chain n 0}. the
Let number
Ni (n) denote the number
te the
at i inprocess
the first n transitions,
proceso visita el estado i
visits state i in the n = n1,transitions,
first 2,en las primeras n
. . . . Letn = 1, 2, . . . . Let
Consider
efined by a discrete-time Markov chain {Xn , n 0}. Let Ni (n) denote the number
of timestransiciones
that the process visits state i in the first n transitions, n = 1, 2, . . . . Let
ik (n) beSea
definedby
= E[N (n)|X
k 0= i] = E[Nk (n)|X0 = i]
ik (n)

ik (n)is Es decir el nmero esperado de veces que el


the expected number = E[N
of times
ik (n) that 0 = i] visits state k in
the process
k (n)|X
umber
ansitions, ofgiventimesthatthat
it the process
starts in state visits
and is state
called ktheinmean occupancy
That proceso visita el estado k, dado que el estado
is, is the expected
i,
number ofoccupancy
times thatfrom
the process
etarts
k upintostate i, and
n transitions
ik (n) isgiven
called the
that themean
process started state i. Itvisits
can state k in
thefirst ninicial era el i. Tambin se le conoce como tiempo
transitions, bygiven that it starts in state i, and is called the mean occupancy
iven
hat ikthat
(n) isthe process
given started from state i. It can
time of state k up to n transitions given that the process started from state i. It can
medio de ocupacin
be shown that ik (n) is given ! by
n
del estado k hasta la
transicin n, dado que el estado inicial es el i
n
ik (n) = pik (r)
! r=0 !n

(n) = pik (r) ik (n) = pik (r)


r) is ther=0 r-step transition probability from r=0 state i to state k. Because
time of state k up to n transitions given that the process started from state i.
be shown that
That is,
ik (n)isisthe
ik (n) given by number of times that the process visits state k in n
expected
be shown that (n)itis
the first n transitions, givenikthat given
starts by i, and is called the mean occupancy!
in state
time of state k up to n transitions given that i. It=
ik (n)
n the process started fromstate can pik (r)
Tiempos de ocupacin
! n
be shown that ik (n) is given by ik (n) = pik (r) !
ik (n) = pik (r) r=0
r=0
n
! r=0
where pik (n)
where pik (r) is the r-step transition probability ik (r) = is pthe ik (r) r-step transition probability fro
from state i to state k. Because
Como es una entrada de la matrz
where
pik (r) is the ikth entry p (r)
ik in is the is the
r-step
pikthe(r)matrix transition
r=0
P r ,ikth
we can entry probability
define in the
the fromfor
matrix
matrix stateP
an
ri to state k. Be
, we can defi
N-state
where (r)isisthethe
ppikik(r) entry inprobability
ikthtransition the matrix from r
, we ican
P state define
to state the matrix for an N
k. Because
podemos definir la matrz Markov chain
Markov chain r-step
pik (r) isMarkov
the ikth entry
chain in the matrix P , we can define the matrix for an N-state
r

Markov chain

11 (n) 12 (n) 13 (n) . . . 1N (n)

21(n) 11 (n) 12 (n) 11
(n)
13 (n) .. .12 1N (n) 13 (n)
(n)
(n) 22 (n)
(n) 23 (n)
(n) . . .
. . .
1N 2N
(n) (n) (n)

11
12
(n)
13
(n)
21 (n)(n) . . .22 (n) 23 (n)

"(n) = 31(n) 21 (n) 3222(n)21
(n) 2333(n) (n) .
22 23
.. . . 2N(n) (n)
3N 2N
"(n) = ."(n). (n)=
.31
.32.(n)
.31 (n)"(n)
33.(n) .
.. 32=(n)... .
. 3N33(n)
31 (n)
(n)
. . .
. . .32 (n)
3N (n) (n)
33

N1 (n) ... ...
...
. . .. . . . . . . . .. ... . . ... .. . (n) . . .
N2 (n) N3 (n) . . .
NN . . .
N1 (n) N2 (n) N3 (n) . . . NN (n)
N1 (n) N2 (n) N3 (n) . . . NN (n)
Then Then
we have that
N1 (n) N2 (n) N3 (n)
we have that
Then we have that
Then "(n)
we have
=
nn
!
! that
Prr
"(n) = P n
!
r=0 "(n) = Pr
r=0 n
!
Example 3.8 Consider the transition probability matrix
r=0 associated =
"(n)with P r
Example
Example3.8 Consider
3.6. We would likethe transition
to obtain probability
the mean first passagematrix
time 13associated
(5). with
Example 3.6.Example 3.8to obtain
We would like Consider
the transition
the mean probability
first passage matrixr=0
time 13 (5). associated
0.4 0.5 0.1
21 21 22 22 23 23 2N 2N

"(n)"(n)
= =31
(n)31 (n)
32 (n)32 (n)
33 (n)33.(n) . . .(n)
. . n3N (n)
3N
. .. . . . . . . . . . . . . .
.... . ! . . .
... r ...
"(n). =
Ejemplo . .P
N1 (n) N2 (n)N2(n)
N1 (n) N3 (n)N3 . . NN
(n) .(n)NN (n)
r=0
ThenThen
we have that that
we have
Example 3.8 Consider the
!n
transition
r!
n probability matrix associated w
"(n) =
Determine el tiempo medio de ocupacin
Example
P
3.6. We would like"(n) tor=0obtain
= Pthe
r
mean first passage time 13 (5).
r=0
para el proceso de Markov
Example
Example 3.8 Consider the

3.8 Consider the transition probability
transition
con matrz
matrix
0.4 probability
0.5 0.1 matrix associated de with
associated with
Example 3.6. We would like to obtain the mean first passage time 13 (5).
distribucin de transiciones
Example 3.6. We would like
to P =
obtain the
0.3
mean0.3first 0.4 time 13 (5).
passage
0.4 0.5 0.1 0.3 0.2 0.5
0.4 0.4
P = 0.3 0.3 0.5 0.1
= 0.2
P0.3 0.3 0.4
0.3 0.5 !
Solution: The matrix0.3 "(5)0.2is given
0.5 by
!
Solution: The matrix "(5) is given by r
Solution: The matrix "(5) is ! given
5
by ! 5 0.4r 0.5 0.1
!5 !5 0.4 0.5 0.1
"(5) = "(5) Pr = = 0.3P r
=
0.3 0.4

0.3 0.3
r 0.4
! 5 ! 5 0.4 0.5 0.1
0.3 0.2 0.5 0.3 0.2 0.5
0.3r=0
r=0
"(5) = P rr=0
r=0
= 0.3 0.4
r=0 r=0 0.3 0.2 0.5
Contina ejemplo Discrete-Time Markov Chains 73

From Example 3.6, we have that Discrete-Time Markov Chains 73

Del ejemplo anterior sabemos que



From Example 3.6, 1 1 1

1 we have that

2/3 7/3 5/3

P r = 1 1 1 + (0.1)r 1/3 5/3 4/3


3
1
1 1 1 1 1 1/3
2/3 7/3 2/3 1/3
5/3
1
P =
r
1 1 1 + (0.1) 1/3 5/3 4/3
r
3 1 1 1 2 2 2/3 1/3
0 1/3
r
+ (r + 1)(0.1) 0 1 1

0 0 2 12 1
+ (r + 1)(0.1)r 0 1 1
Thus,
Entonces: 0 1 1

Thus, %5 % 5 & '


1 5
13 (5) = p13 (r) = + (0.1)r 2(r + 1)(0.1)r
& 3 3 '
%5 r=0 5
% 1 5r=0
13 (5) = p13 (r)&= +' (0.1)5r 2(r + 1)(0.1)r
r=0 1 1 r=0 36 3 %
(0.1)
=2 2 r(0.1)r = 2 0.37037 0.24690
&3 1 0.1' %5 r=0
1 1 (0.1)6
= 2=1.38273 2 r(0.1)r = 2 0.37037 0.24690
3 1 0.1 r=0
Cadenas Absorbentes y la matriz
fundamental
Una cadena de Markov absorbente es una
cadena de Markov con al menos un estado
absorbente
Un problema de inters en cadenas de Markov
es determinar la probabilidad de que el
proceso eventualmente alcance un estado
absorbente
Otro problema interesante es determinar el
tiempo para que el proceso sea absorbido
Fundamental Matrix
Cadenas absorbentes y matriz
An absorbing Markov chain is a Markov chain with at least one absorbing
fundamental
A problem of interest in the study of absorbing Markov chains is the proba
that the process eventually reaches an absorbing state. We might also be inte
in how Sea P la matriz de probabilidad de transiciones
long it will take for the process to be absorbed. To study this class of M
chains we use the canonical form used in Kemeny and Snell (1976) and Doy
de una cadena de N estados y asuma que
Snell (1984).
Let Pexisten k
be an N N estados absorbentes y por tanto
transition probability matrix of an absorbing Markov
m=N-k
and assume that no-absorbentes (transitorios)
there are k absorbing states and m = N k nonabsorbin
transient) states. If we reorder the states so that the absorbing states (A)
Si reordenamos los estados de manera que los
first and the transient states (T ) come last, we obtain the following can
form: absorbentes sean los primeros obtenemos la
forma cannica A T
I | 0
A
P= +
T R | Q
Let P be an N N transition probability matrix of an absorbing Markov chain,
and assume that there are k absorbing states and m = N k nonabsorbing (or
Cadenas absorbentes y matriz
transient) states. If we reorder the states so that the absorbing states (A) come
first and the transient states (T ) come last, we obtain the following canonical
form: fundamental
A T
74 Markov Processes for Stochastic
Modeling

I | 0
A
P= +
Here I is a k k identity matrix,
T R0 |isQa k m matrix whose entries are all 0, R
is an m k matrix, and Q is an m m matrix. We observe that
! " ! "
I 0 I 0
P2 = =
R + QR Q2 (I + Q)R Q2
! " ! "
I 0 I 0
P3 = =
R + QR + Q2 R Q3 (I + Q + Q2 )R Q3
...
! "
I 0
Pn =
(I + Q + + Qn1 )R Qn

A primary parameter of interest is the quantity Nij , which is the mean number
I 0
"P =n
0 (I + Q + + Q n1
)R Qn

R Q n La matriz fundamental
imary parameter of interest is the quantity N , which is the mean numbe
ij
s the process is in transient state j before hitting an absorbing state, given
antity ij , es el nmero de veces que el proceso est
whichstate
starts inNtransient is the meanthat
i. Note number
the emphasis is on both state i and
gefore hitting
transient an If,
absorbing
en el estado transitorio j
states. for example,state, given
state iantes de ir a un
is an absorbing state and i = j
ethe
quantity is zero.isSimilarly,
emphasis on both if state an absorbing state and i = j, then
state j iisand
ntity is
estado absorbente dado que comenz en el
infinity if state j isstate
accessible
ate i isestado transitorio i
an absorbing and ifrom= j,state i. The following theorem
s proved in Grinstead and Snell (1997), establishes the relationship between
j is an absorbing
Nij ] (i.e., is the
stateofand
matrix the
i =) and
j, then
El teorema de Snell establece la relacin entre
N
e from state i. The following theorem,
N ij Q.
rem
7), la matrices N
3.2
establishes y Q between
the relationship
nd Q. #
N= Qk = [I Q]1
k=0

N es llamada matriz fundamental de P


matrix N = [I Q]1 is called the fundamental matrix for P , the transition
1
Theorem 3.2

Tiempo de absorcin

#
1
N= Q = [I Q] k

k=0

El tiempo medio de absorcin se define como el


The matrix N = [I Q]1 is called the fundamental matrix for P , the transition
nmero de transiciones hasta que el proceso alcance
probability matrix for the absorbing Markov chain.
un estado no-transitorio dado que comenz en
3.10.1 Time to Absorption
determinado estado transitorio
The mean time to absorption is defined as the expected number of transitions
El tiempo de absorcin dado que el proceso comenz
until the process reaches a nontransient state, given that it starts from a particular
en el estado i
transient se puede calcular mediante la recursin:
state. The following recursive equation gives the expected absorption
time i for a process that starts in state i T :

0 # iR
i = 1 + pij j iT

jT

Esto es porque las transiciones esperadas para la


This equation can be explained as follows. Given that the process is currently in
stateabsorcin desde el estado i es el tiempo esperado de
i, the mean number of transitions until absorption is 1 plus the mean number
transiciones para la absorcin desde el estado que
sigue de i (digamos j) mas 1.
mean time to absorption can also be computed directly from the fundamental
The following theorem, which is proved in Grinstead and Snell (1997),
Tiempo de absorcin
how to compute the mean times to absorption for the different transient
Discrete-Time Markov C

em
of3.3 Let iuntil
Grinstead
transitions denote the number of state
transitions
y Snell demostraron que los
absorption from before
j given that the
the process hits
next transit
rption state, j.
i is state given
Thisthat
is the chain
true for starts
all andinso
state
we and over
i,sum let Mall
bejthe
column
.
whoseThe tiempos de absorcin se pueden determinar
entry is
ith mean i . to
Then
j T
time absorption can also be computed directly from the
de la siguiente manera:
matrix. The following theorem, which is proved in Grinstead and
1
defines how to compute
M = N1the mean
= [I Q]times
1 to absorption for the diffe
states.
Donde M s un vector columna cuyo i-simo
isTheorem
a column vector
3.3 whose entries
Let are the
denote all 1.
elemento es y 1 es un vector columna de
number of transitions before th
i

plean3.9
absorption
puros 1sstate,
Consider thegiven
Markovthatchain
the chain
whosestarts in state i, and
state-transition let Misb
diagram
vector 3.7.
n Figure whose 3entry
Findith . is i . Then !

1
tion: M = N1 = [I Q] 1 follows:
The sets of nontransient and transient states are as
3 = 1 + p31 1 + p32 2 = 1 + 1
column vector whose entries are all 1.
2 = 1 +chain
3.9 Consider the Markov Ejemplo
p21 whose
4
1 + p23state-transition
3 = 1 + 3diagram is
5
gure 3.7. Find 3 . !
Para la siguiente cadena de Markov 1 2
1 = 1 + p11 1 + p12 2 = 1 + 1 + suponga 2
3 3
n: The que A={4} y T={1,2,3}
sets of nontransient and transient states are as follows:

2/3
1/3 1 A = {4} 2 4 1
76 T = {1, 1/5
Markov Processes for Stochastic
2, 3}
Modeling
1 4/5
3
using the direct method we obtain this system of equations we obtain
From
Si usamos la recurrencia
Figure 3.7. State-transition diagram for Example 3.9.
De donde:
3 = 1 + p31 1 + p32 2 = 1 + 1
3 = 17.5
4
2 = 1 + p21 1 + p23 3 = 1 + 3 2 = 15.0
5
1 2
1 = 1 + p11 1 + p12 2 = 1 + 1 + 2 1 = 16.5
3 3
1 = 16.5
damental matrix are given by

Alternatively, the matrix Q


Ejemplo
associated with thetransient states and the fun-
damental matrix are given by 1/3 2/3 0
Alternativamente
Q= 0 0 4/5
1 0 0
1/3 2/3 0
Q = 0 02/3 4/52/3

0

1 = 0 0 0 1 2
I Q 4/5, |I Q| =
1 0 0 15
2/3 2/3 0
2
I Q= 0
1
4/5 ,
|I Q| =
1 2/3 8/15 15/215 5 4
1 15 0 0
[I Q]1 = 4/5 2/3 8/15 = 6 5 4 = N
2
1 2/3
1 2/3 8/15 2/3
15/2 5 415/2 5 5
15
[I Q]1 = 4/5 2/3 8/15 = 6 5 4 = N
2 1 2/3 2/3 15/2 5 5
Thus,

Finalmente:
Thus,
15/2 5 4 1 33/2 16.5
M =N1 = 6 5 41 =
15 = 15
15/2 515/2
4 51 5 33/2 1 16.5
35/2 17.5
M = N1 = 6 5 4 1 = 15 = 15
15/2 5 5 1 35/2 17.5
Otro ejemplo
Example 3.10 Consider
Example 3.10 Consider the Markov the
chain whose Markovdiagra
state-transition
shown in Figure 3.8. Find the i for i = 2, 3, 4.
ch
Para la sig
shown cadinde Markov
Figure 3.8.determine para
Find the i for i = 2, 3
i=2,3,4
1 1
1/2 2/3
1/2 3/4
1 2 3 4 5
Discrete-Time Markov Chains 77
1 1/3 1/4
1/2
Como T={2,3,4} y A={1,5} las matrices P,Q y R
Solution: Because the transient
Figure 3.8. State-transition = {2, 3,
states are Tdiagram for4}Example
and the3.10.
absorbing
states are A = {1, 5}, the P , Q, and R matrices are as follows:
quedan 1/2
1 1 0 0 0 02 3
0 1 0 0 0


P = 1/2 0 0 1/2 0
0 0 1/3 0 2/3
1/3
0 3/4 0 1/4 0
Figure
3.8.
State-transition
di
0 1/2 0 1/2 0
Q = 1/3 0 2/3 R= 0 0
0 1/4 0 0 3/4
Thus,
Thus,Thus, Q = 1/3 0 2/3 R = 0 0
1
1 0 1/2 1/4 0 0 0 3/4

I Q
1 1 1/2
1/3
= Q = 1/3
1
Ej continuacin
1/2 0 0
I Q = 1/3
Thus, 2/3 1 2/3
I Q = 1/3
0
I 1 2/3
0 1/4 1
Entonces 0 0 1/4 1/4 1 1 1 1/2 0 2
I Q= 2 1/3 1 2/3 |I Q| =
|I
2= 2 |I Q| = 0 1/4 1
3
|I Q| = Q|
3
3 3
5/6 2

1/2 N = [I5/4 Q
|I Q| 3 = 1/21/21/31/3
5/6 5/4 1/2
5/6
5/4 3 3 1/2 1/3
N = [I 1Q]13=N1/3 3
1/3 1 12/3 3= 1/2 3/2 1
N = [I Q] = = [I
2 1/121 1/42/35/6=
Q] =
1/2 3/2 1 = 1/2
1/3 1 2/3
2 1/12 1/4 5/6 2 5/6 1/81/23/81/35/4 5/4
1/12
1/8 1/4
3/8 From 5/6
5/4 1/83
this we obtain
3
From this we obtain N = [I Q]1 = 1/3 1 2/3 = 1/2 3/
From this we obtain From this we obtain 2 1/12 1/4 5/6
5/4 3 1/2 1 19/4 4.75 M =1/8N1=3/
M = N1 = 5/4 3 3/21/2 1 15/4
1/2this 1 =19/4
3 3 1/2
= 4.7531 19/4
From we obtain
M = N1 = 1/2 1/83/2 M3/8 = 1N1 =
5/4 11/2
1= 3/2 =1
37/4 31

1.75 = 3 =
1/8 3/8 5/4 15/4
1/8
37/4 1/2 1.75
3/8 5/4
1That is,19/4
1
2 = 4.75,4
7/4
That is, 2 = 4.75, 3 = 3, M=4 = = 1/2 3/2 1 1 = 3 =
N11.75.
That is, 2 = 4.75, 3That= 3,is,
4= = 1.75.
4.75, 1/8 3/8 5/4 1 7/4 1
2 3 = 3, 4 = 1.75.3.10.2 Absorption P
3.10.2 Absorption That Probabilities
is, 2 = 4.75, 3 = 3, 4 = 1.75.
.2 Absorption Probabilities For an absorbing Marko
For an absorbing3.10.2
Markov Absorption Probabilities
chain, the probability that the chain that state
transient startsi in
willa be a
M = N1 1/8
= 1/2 3/8
3/2 5/4
1 1 =1 3 =7/4
3 1
s
= 4.75, 3Probabilidad de absorcin
1/8 3/8 5/4 1 7/4 1.75
= 3, 4 = 1.75.
is, 2 = 4.75, 3 that
probability = 3, the
4 = 1.75.
chain
that starts in a
is denoted by bij . Let B be the m k
ate j Denotamos por la probabilidad de que la
ption Probabilities
Absorption Probabilities sea absorbida al estado j si
cadena de Markov
s given by
gbsorbing
Markov
1
comenz en el estado i
Markov chain, the
chain, the probability that thethat
probability chainthe
that chain
starts in ta
Q]
state R
i will
will beSea B =
be NR
absorbed
la matrz
absorbed in state j is denoted by bij . Let B be the m k
in cuyos elementos son los
state j is denoted by bij . Let B
hose entries are bij . Then B is given by
riesRare
nd bij . m
is the Then is given
k Bmatrix whoseby entries are
B = [I Q]1 R = NR
ient states toBthe absorbing
1states.
= [I Q] R = NR
is the fundamental matrix and R is the m k matrix whose entries are
probabilities from
undamental the transient
matrix andstates
R isto the
the absorbing
m kstates.
matrix wh
ain whose state-transition diagram is shown
ilities
e 3.11 from
babilities bijthethe
For for transient
i =chain
Markov 4states
2, 3,whose
and j to
= the
1, 5.absorbing
state-transition sta
! is shown
diagram
3.8, find the absorption probabilities bij for i = 2, 3, 4 and j = 1, 5. !
For the Markov chain whose state-transition dia
M = N1 = 6 5 4 1 = 15 = 15
15/2 5 5 1 35/2 17.5

Ejemplo
Example 3.10 Consider the Markov chain whose state-transition diagram is
bability shownthat the
in Figure chain
3.8. Find the that
for i = 2,starts
i 3, 4. in a !

is denoted by bij . Let B be the m k


Determine para i=2,3,4 y j= 1,5
78 Markov P
en by 1
ov Processes for Stochastic Modeling 1/2 2/3
1
78 Markov Processes for Stochastic Modeling
Solution: U
1/2 3/4
1
=Solution:
RUsing NR 1
B = [I Using 1
2
Q] BR==[I NR,
Q]1where
R = NR,
3
and RN are
N where
4
asare
and R defined in in
as defined
5
Example 3.10
3.10, we obtain
Example 3.10, we obtain 1/3 1/4

is the
5/4
m 3

k
1/2
matrix whose

3 3.8.1/2State-transition
Figure
5/4
1/2 0 5/8
entries
1/2 0 diagram 5/8 3/8
3/8
are
for Example 3.10.
B=
B = 1/2 3/2 1 0 0 = 1/4 3/4
Btates
= 1/2to 3/2
the absorbing
3/8
1 1/8 0 5/40 states. 1/4 1/16
0= 3/4

3/4 15/16
1/8 3/8 5/4 0 3/4 1/16 15/16
That is, b21 = 5/8, b25 = 3/8, b31 = 1/4, b35 = 3/4, b41 = 1/16, That is,
whose
s, b21 = state-transition
b45 = b25 = 3/8, b31 =diagram
15/16.
5/8, 1/4, b35 = is 3/4,shown
b41 = 1/16, b45 = 15/16.
16.
bij for
ties 3.11 i = 2, 3, 4 and j
Reversible Markov Chains
= 1, 5. !
3.11 Reve
1/8 3/8 5/4 0
3/4 1/1

5/4 3 1/2 1/2 0
That is, b21 = 5/8, b25 = 3/8, b31= 1/4, b35
B = 1/2 3/2 1 0 0
Cadenas de Markov reversibles
b45 = 15/16.
1/8 3/8 5/4 0 3/4
Reversible Markov Chains
That is, b21 = 5/8, b25 = 3/8, b31 = 1
En una cadena de Markov
= 15/16. reversible una
3.11 b45Reversible Markov Chains
chain {X secuencia de estados
n } is defined to be a reversible Markov chain if the seq
chain {Xn } is defined to be a reversible Markov c
Xn+1 , Xn , Xn1 , .Astates
. .Markov
has. . .the same probabilistic structure
, Xn+1 , Xn , Xn1 , . . . has the same probabilistic str
as the s
Xn , Xn+1 , . . . . That 3.11 Reversible Markov Chains
. . . , Xn1 , Xn , Xn+1 , . . . . That is, the sequence ofatstates
is, the sequence of states looked back l
he same Tiene la misma estructura probabilstica que la
structuretime as Athe has thesequence running
same structure as theforward in
sequence running time. forw
secuencia de estados
a Markov Markov
chainchain{Xn } {X
with n } limiting
is defined to be
state a reversible
probabilities {M
chain {Xn } with limitingsitionstates
state probabilities
. . . , Xn+1
probabilities pij,.XSuppose
n , Xn1 ,that
{ 1 ,
. . . starting 2 ,
has the same 3 , . .
at timeprobab
.}
n we
a
1

abilities pij . Suppose Xn , X that


. .n1
.,X .starting
. , ,and
, . n1 Xn ,let at
Xn+1
p ij ,time . That
. . .the
be we is, consider
ntransition theprobabilities
sequence theofofs
. . , and let be
Thatthe time has the same
is,transition structure as of
probabilities thethesequence
reversed runn
Sean las probabilidades de transicin del
p ij
a Markov chain {Xn } with limiting state probabil
proceso invertido
p ij =sition = j|Xm+1 = i, p
P[Xmprobabilities Xij = i2 , . . . , that
. Suppose
m+2 = ik ] at tim
Xm+kstarting
XP[X
n , Xmn1 , and
, .X. .m+1
= j, = i,let
Xm+2 p ij=be
i2 , the
...,X transition
m+k = ik ] probab
= i ,...,X
m = j|Xm+1 = i, Xm+2 = That2 is,
P[Xm+1 m+k = i, X= i ]
m+2k= i2 , . . . , Xm+k = ik ]
states . . . , Xn+1 , Xn , Xn1 , . . . has the same probabilistic structure as the sequence
. . . , Xn1 , Xn , Xn+1 , . . . . That is, the sequence of states looked at backward in
time has the same structure as the sequence running forward in time. Consider
Cadenas de Markov Reversibles
a Markov chain {Xn } with limiting state probabilities {1 , 2 , 3 , . . .} and tran-
sition probabilities pij . Suppose that starting at time n we consider the sequence
Xn , Xn1 , . . . , and let p ij be the transition probabilities of the reversed process.
That is,

p ij = P[Xm = j|Xm+1 = i, Xm+2 = i2 , . . . , Xm+k = ik ]


P[Xm = j, Xm+1 = i, Xm+2 = i2 , . . . , Xm+k = ik ]
=
P[Xm+1 = i, Xm+2 = i2 , . . . , Xm+k = ik ]
P[Xm = j]P[Xm+1 = i|Xm = j]P[Xm+2 = i2 , . . . , Xm+k = ik |Xm = j, Xm+1 = i]
=
P[Xm+1 = i]P[Xm+2 = i2 , . . . , Xm+k = ik |Xm+1 = i]
j pji P[Xm+2 = i2 , . . . , Xm+k = ik |Xm+1 = i]
=
i P[Xm+2 = i2 , . . . , Xm+k = ik |Xm+1 = i]
j pji
=
i

Thus, the backward chain is homogeneous if the forward process is in steady


state, and the backward transition probabilities p ij are given by
the backward chain is homogeneous if the forward process
d the state,
Cadenas de Markov
Thus,
backward
homogeneous
the backward
transition
if the forward
chain is
probabilities
process
reversibles
homogeneous if
p ij are givenpby
is in steady
the forw
and the backward
El proceso invertido de Markov transition probabilities
tiene ij are giv
n probabilities p ij are given by
probabilidades de transicin j pji j pji
j pji p ij = pij =
pij = i i
i
Una cadena de Markov es reversible si para todo
rkov chain A is
Markovsaid to be
chain reversible
is said to if
be
p =
reversible
i,j if p ij = pij for all i and j. Thus, for a ij p ij for
if
pall =i and
p j.
for
reversible ij ij
le Markov chain,
reversible Markov chain,
Por tanto, para que una cadena de Markov sea
reversible i pij = j pjii pij = i,jj pji
pij = j pji i, j i, j
Es decir, la tasa a la que el proceso va del estado i
al j es igual a la tasa a la que el proceso va del
estado j al i
Este balance local es de utilidad en el anlisis de
procesos de nacimiento y muerte en cadenas de
Markov de tiempo continuo

También podría gustarte