Documentos de Académico
Documentos de Profesional
Documentos de Cultura
j =1
M
p
ij
n
=1, i , n=1,2, ...
Es una forma para resumir las probabilidades de transicin:
Matriz de Transicin de n Pasos
Matriz de Transicin de n Pasos
Matriz de Transicin de n Pasos
Matriz de Transicin de n Pasos
P
n
=
p
11
n
p
12
n
... p
1M
n
p
21
n
p
22
n
... p
2M
n
. . ... .
. . ... .
. . ... .
p
M1
n
p
M2
n
... p
MM
n
Sea un proceso estocstico , donde:
Identificar los estados, escribir la matriz de probabilidades de
transicin de un paso y dibujar el diagrama de transicin de estados.
Ejemplo
Ejemplo
Ejemplo
Ejemplo
{
X
t
, t 0
}
X
t
=
{
1, si el da est despejado
2, si el da est lluvioso
P
{
X
t 1
=1/ X
t
=1
}
=0,8=p
11
P
{
X
t 1
=1/ X
t
=2
}
=0,6=p
21
Sea una lnea telefnica de estados ocupado=1 y desocupado=0. Si
en el instante t est ocupada, en el instante t+1 estar ocupada con
probabilidad 0,7 y desocupada con probabilidad 0,3. Si en el instante
t est desocupada, en el t+1 estar ocupada con probabilidad 0,1 y
desocupada con probabilidad 0,9.
Escribir la matriz de probabilidades de transicin y el diagrama de
transicin de estados.
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Un jugador tiene 1 US$. Cada jugada gana 1US$ con probabilidad p
y pierde un dlar con probabilidad 1-p. El juego termina cuando el
jugador acumula 3US$ o cuando quiebra. Formular este sistema a
travs de una cadena de Markov.
Ejemplo
Ejemplo
Ejemplo
Ejemplo
Un jugador tiene 1 US$. Cada jugada gana 1US$ con probabilidad p
y pierde un dlar con probabilidad 1-p. El juego termina cuando el
jugador acumula 3US$ o cuando quiebra. Formular este sistema a
travs de una cadena de Markov.
Ejemplo
Ejemplo
Ejemplo
Ejemplo
P=
1 0 0 0
1p 0 p 0
0 1p 0 p
0 0 0 1
k=1
M
p
ik
n
p
kj
nm
, para toda i =1,... , M
j =1,... , M
y cualquier m=1,2 ,... , n1
y cualquier n=m1, m2,...
Volviendo al ejemplo del tiempo (meterolgico):
Estados:
1: da despejado
2: da lluvioso
Obtener:
Ejemplo
Ejemplo
Ejemplo
Ejemplo
P=
0.8 0.2
0.6 0.4
p
21
2
, p
12
3
- Un estado j es accesible desde un estado i si .
- Si un estado j es accesible desde i y adems i es accesible desde j,
entonces se dice que ambos estados se comunican. De aqu, se
puede agregar:
- Cualquier estado se comunica consigo mismo.
- Si el estado i se comunica con el estado j y j se comunica con el
estado k, entonces el estado i se comunica con el estado k.
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
p
ij
n
0, n0
p
ii
0
=1
Clases en una Cadena de Markov
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
=
3
1
3
1
3
1
4
1
2
1
4
1
3
2
3
1
4
3
4
1
2
1
2
1
0 0
0 0
0 0 0
0 0 0
0 0 0
P
Estados Transitorios
Un estado i es transitorio si y slo si existe un estado j que es
accesible desde i, pero i no es accesible desde j
Estado Recurrente
Un estado es recurrente, cuando no es transitorio.
Estado Absorbente
Es un caso especial de estado recurrente, y es aquel con .
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
p
ii
=1
Ejemplo:
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
0 1
2
3
1
1
1-p
p
1-p
p
Ejemplo:
Verificar que todos los estados de la siguiente Cadena de Markov
son recurrentes
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
P=
0.9 0 0.1 0
0.6 0 0.4 0
0 0.5 0 0.5
0 0.3 0 0.7
Observacin
La recurrencia es una propiedad de clase.
Todos los estados de una cadena de Markov irreducible son
recurrentes.
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Periodicidad
Es tambin una propiedad de clase.
Un estado i es peridico con periodo k>1, si k es el nmero ms
pequeo de forma que todas las rutas que van desde i y vuelven a i
tienen longitud que es mtiplo de k.
En otro caso, el estado tiene periodo igual a 1 y se llama aperidico.
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Ejemplo:
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
0 1
2
3
1
1
1-p
p
1-p
p
Estados ergdicos
En una Cadena de Markov de estado finito, los estados recurrentes
aperidicos se llaman estados ergdicos.
Si en una Cadena de Markov todos sus estados son ergdicos,
entonces se dice que la cadena de markov es ergdica.
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados
Clasificacin de Estados