Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cadena de Markov
Cadena de Markov
Cadenas de Markov
PROCESOS ESTOCSTICOS
Una sucesin de observaciones X
1
, X
2
, . . . se denomina proceso estocs-
tico
Si los valores de estas observaciones no se pueden predecir exactamente
Pero se pueden especicar las probabilidades para los distintos valores
posibles en cualquier instante de tiempo.
X
1
: v.a. que dene el estado inicial del proceso
X
n
: v.a. que dene el estado del proceso en el instante de tiempo n
Para cada posible valor del estado inicial s
1
y para cada uno de los sucesivos
valores s
n
de los estados X
n
, n = 2, 3, . . ., especicamos:
P(X
n+1
= s
n+1
| X
1
= s
1
, X
2
= s
2
, . . . , X
n
= s
n
)
103
104 Cadenas de Markov
CADENAS DE MARKOV
Una cadena de Markov es un proceso estocstico en el que
Si el estado actual X
n
y los estados previos X
1
, . . . , X
n1
son conocidos
p
11
p
1k
p
21
p
2k
.
.
.
.
.
.
p
k1
p
kk
0.7 0.3
0.6 0.4
p
(2)
ij
: Elemento de la isima la y jsima columna de la matriz P
2
P
m
: Potencia msima de P, con (m = 2, 3, . . .) y
F p
(m)
ij
: Elemento de la la i y de la columna j de la matriz P
m
GENERALIZANDO
P
m
es la matriz de probabilidades p
(m)
ij
de que la cadena pase del estado s
i
al estado s
j
en m pasos; para cualquier valor de m, (m = 2, 3, . . .).
P
m
es la matriz de transicin de m pasos de la cadena de Markov
EJEMPLO
En el ejemplo del clima con matriz de transicin
P =
0.7 0.3
0.6 0.4
0.67 0.33
0.66 0.34
p
11
p
12
p
13
p
14
p
15
p
16
p
21
p
22
p
23
p
24
p
25
p
26
p
31
p
32
p
33
p
34
p
35
p
36
p
41
p
42
p
43
p
44
p
45
p
46
p
51
p
52
p
53
p
54
p
55
p
56
p
61
p
62
p
63
p
64
p
65
p
66
p
11
p
12
0 p
14
0 0
p
21
p
22
0 0 0 0
0 0 p
33
0 0 p
36
p
41
0 0 p
44
0 0
0 0 0 0 p
55
p
56
0 0 p
63
0 p
65
p
66
1
6
,
1
6
,
1
6
,
1
6
,
1
6
,
1
6
2
9
,
5
36
,
5
36
,
5
36
,
5
36
,
2
9
P[ Celda 1 en el instante 2] =
2
9
P[ Celda 2 en el instante 2] =
5
36
P[ Celda 3 en el instante 2] =
5
36
P[ Celda 4 en el instante 2] =
5
36
P[ Celda 5 en el instante 2] =
5
36
P[ Celda 6 en el instante 2] =
2
9
CASO B
Supongamos que en el laberinto el ratn se traslada a celdas contiguas con
igual probabilidad y que la probabilidad de introducir el ratn en cada una
de las celdas del laberinto para comenzar el experimento es
P[X
1
= 1] = 0.2 P[X
1
= 2] = 0.2 P[X
1
= 3] = 0.1
P[X
1
= 4] = 0.05 P[X
1
= 5] = 0.05 P[X
1
= 6] = 0.4
Cadenas de Markov 125
Matriz de transicin
P =
2
10
,
2
10
,
1
10
,
5
100
,
5
100
,
4
10
1
6
,
1
6
,
1
6
,
1
6
,
1
6
,
1
6
P[Celda 1 en el instante 1] =
1
6
P[Celda 2 en el instante 1] =
1
6
P[Celda 3 en el instante 1] =
1
6
P[Celda 4 en el instante 1] =
1
6
P[Celda 5 en el instante 1] =
1
6
P[Celda 6 en el instante 1] =
1
6
Cadenas de Markov 127
En el instante 2: Calculamos vP
vP =
71
630
,
10
63
,
23
252
,
8
35
,
125
924
,
379
1386
P[Celda 1 en el instante 2] =
71
630
P[Celda 2 en el instante 2] =
10
63
P[Celda 3 en el instante 2] =
23
252
P[Celda 4 en el instante 2] =
8
35
P[Celda 5 en el instante 2] =
125
924
P[Celda 6 en el instante 2] =
379
1386
Bibliografa utilizada:
F D.R. Cox, H.D. Miller (1970). The Theory Stochastic Processes. Methuen.
F A.T. Bharucha-Reid (1960). Elements Of The Theory of Markov Processes And
Their Applications. McGraw Hill Series in Probability and Statistics.
Temporalizacin: Cuatro horas