Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cadenas 01 2020
Cadenas 01 2020
Procesos Estocásticos :
Cadenas de Márkov en tiempo discreto
Nora Serdyukova
Universidad de Concepción
0-1
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Outline
0-2
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Outline
1-3
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
El estado futuro del proceso sólo depende del estado presente y no
del resto de estados pasados."
o bien,
1-4
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
1-5
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Outline
2-6
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Ejemplo
1 x1 : Todo OK.
6 x6 : Revisión técnica.
2-7
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Probabilidad de transición
2-8
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Probabilidad de transición
I Los cambios de estado de este tipo de procesos se llaman
transiciones.
I Las probabilidades de cambiar de un estado i a uno j se llaman
probabilidades de transición y se denotan pij (n).
I Se dice que el proceso {Xn : n ∈ N} es una Cadena de Markov
(en tiempo discreto) si el proceso es Markoviano (i.e. tiene la
propiedad de Markov) de tiempo discreto y con espacio de estados
discreto.
I Por lo tanto,
2-10
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Ejemplo
2-11
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Máas deniciones...
2-12
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
2-13
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
2-14
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Ejemplo. Cont.
1 2 3
1 2 /3 1/3 0
P= 2 0 1 0
3 1 /4 1/2 1/4
2-15
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Teorema
(0)
pi = P{X0 = i}, i = 1, 2, 3, . . .
2-16
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Ejemplo
0 1
0 0 .4 0.6
P=
1 0 .9 0.1
2-17
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Su grafo es :
2-18
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Ejemplo. Cont.
Dada una distribución inicial p (0) = (0.3, 0.7), esto es,
P(X0 = 0) = 0.3 y P(X0 = 1) = 0.7, se tiene que
P(X2 = 0; X1 = 1|X0 = 0)
P(X2 = 0; X1 = 1; X0 = 0) · P(X1 = 1; X0 = 0)
=
P(X0 = 0) · P(X1 = 1; X0 = 0)
= P(X2 = 0|X1 = 1)P(X1 = 1|X0 = 0)
= p10 · p01 = 0.6 · 0.9 = 0.54.
2-19
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Ejemplo. Cont.
P(X0 = 0; X1 = 1)
P(X0 = 0|X1 = 1) =
P(X1 = 1)
P(X1 = 1; X0 = 0)
=
P(X1 = 1)
P(X1 = 1|X0 = 0) · P(X0 = 0)
=
P(X1 = 1)
(0)
p01 · p0 0.6· 0.3
= (1)
= = 0.72,
p1 0.25
puesto que
(1) (0) (0)
p1 = P(X1 = 1) = p01 ·p0 +p11 ·p1 = 0.6 · 0.3 + 0.1 · 0.7 = 0.25.
2-20
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Teorema
(0) (0)
I Dada la distribución inicial p (0) = (p0 , p1 , . . .), la
distribución de probabilidades en el momento k está dada por
p (k) = p (0) · Pk
2-21
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
2-22
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
SSL 0.4
LLL 0.6
LSL 0.6
SLL 0.6
2-23
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Dado que llovió Martes, es el estado (SL). Por tanto, tenemos una
distribución inicial p (0) = (0 0 1 0). Al Jueves existen dos pasos, por
lo que la distribución de la pareja (Miércoles,Jueves) estará dada
por
(SS) (LS) (SL) (LL)
2
(0 0 1 0)P = 0.16 0.24 0.24 0.36
2-24
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
2-25
Procesos de Márkov en tiempo discreto Cadenas de Márkov en tiempo discreto
Teorema de Chapman-Kolmogorov
2-26