Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ren e Caldentey
Semestre Oto no 2008
Bibliogra a
- R. Caldentey y S. Mondschein. Modelos de Decisi on en Ambientes Inciertos. Apuntes Docentes para el Curso Investigaci on Operativa, IN44A. Departamento de Ingenier a Industrial, 1999. Disponibles en p agina web del curso. - F. Hillier y G.J. Lieberman. Introduction to Operations Research. Holden-Day, Oakland, 1986. - S. Karlin y H.M. Taylor. A First Course in Stochastic Processes. Academic Press, London, 1975. - K.L. Chung. Markov Chains with Stationary Transition Probabilities. SpringerVerlag, Berlin, 1960.
Introducci on
Entre 1907 y 1912 Andrey A.Markov estudi o de manera sistem atica y bajo el nombre de Casos destacables de ensayos dependientes sucesiones de ensayos aleatorios ligados en probabilidad. Este estudio fue completado posteriormente por: H. Poincarr e, J. Hadamard, B. Hostinsky, M. Frechet, R. Fortet, A. Kolmogorov, etc. En sus comienzos (1910-1925) el modelo de Markov tuvo sobre todo una importancia te orica. Ilustrar claramente la noci on de Dependencia en Probabilidad, combatiendo la idea que hasta ese entonces se ten a que alea era sin onimo de independencia. Justicar el empleo de leyes uniformes en ciertos procesos. En la actualidad, los Procesos de Markov son probablemente el pilar mas importante en la teor a de los procesos estoc asticos.
Prof: Ren e Caldentey, Oto no 2008 2
Deniciones
Fijemos un espacio de probabilidades (, F , P). n. Un proceso estoca stico X es un conjunto de variDefinicio ables aleatorias X = {Xt : t T } donde T R+.
Ejemplos: El precio diario de cierre (en US$) de la libra de cobre en la bolsa de Londres. El nivel de reservas de agua (en m3) en una represa a largo de un a no. El n umero de pacientes que llegan cada hora a la urgencia de un hospital.
La descripci on probabil stica de un proceso estocastico X requiere conocer la familia de sus distribuciones nitas Ft1,t2,...,tn (x1, x2, . . . , xn) = P(Xt1 x1, Xt2 x2, . . . , Xtn xn), para todo n N y t1, t2, . . . , tn T .
Prof: Ren e Caldentey, Oto no 2008 3
Deniciones
Condici on de Markov: Si se conoce la historia del sistema hasta el instante actual, su estado presente resume toda la informaci on u til para conocer su comportamiento futuro. n. Una Cadena de Markov es un proceso estoc Definicio astico a tiempo discreto {Xn n N} tal que P(Xn = j |Xn1 = i, Xn2 = k, . . . , X0 = m) = P(Xn = j |Xn1 = i). Por ahora nos concentraremos en cadenas de Markov con un conjunto numerable (o nito) de posibles estados, es decir, Xn E = {E1, E2, ...} para todo n N. En este caso, las Probabilidades de Transici on de un periodo quedan representadas n,n+1 por una secuencia de matrices estoc asticas {P n,n+1 = [Pij ] : n N} denidas por n,n+1 Pij = P(Xn+1 = j |Xn = i). Una cadena de Markov es homogenea si existe una matriz estoc astica P = [Pij ] tal n,n+1 que Pij = Pij para todo n 0.
Prof: Ren e Caldentey, Oto no 2008 4
Ejemplos
I. Camino Aleatorio Unidimensional: Considere una particula cuyos posibles estados al comienzo de cada periodo est an dados por {a, a + 1, . . . , b 1, b} con a b . Las probabilidades de transici on de un periodo viene dadas por ri si j = i pi si j = i + 1 Pij = con pi + qi + ri = 1. q si j = i 1 i 0 en otro caso II. Modelo de Inventario: Un producto es inventariado periodicamente usando una politica (S, s) para satisfacer una demanda continua. La demanda en el periodo n es una variable aleatoria n, donde los {n} son i.i.d. con distribuci on P(n = k ) = ak , k = 0, 1, 2, . . . .
Si al comienzo del periodo n el inventario disponible Xn es menor que s entonces se ordena (instantaneamente) sucientes unidades para que el inventario llegue al nivel S . {Xn} es una cadena de Markov que satisface 1 n si s < Xn1 Xn = Xn n 1. S n si Xn1 s.
Prof: Ren e Caldentey, Oto no 2008 5
n = 0
k=0
P k,k+1
n = 0 P n
si la cadena es homogenea.
2) Las probabilidades de transici on de un periodo {P n,n+1 : n 0} determinan completamente una cadena de Markov.
0,1 1,2 n1,n 0 P(X0 = i0, X1 = i1, . . . , Xn = in) = i P P P in1 ,in . 0 i0 ,i1 i1 ,i2
3) Condiciones de Chapman-Kolmogorov: Sea X una cadena de Markov homogen nea con matriz de transcisi on de un period P . La matriz P n = [Pij ] es la matriz n de transici on de n periodos, es decir, Pij = P(Xn+m = j |Xm = i). Entonces,
n Pij = k=0 0 para todo r, s N tal que r + s = n. Por denici on, Pij =1 1(i = j ). r s Pik Pkj
Representaci on de Grafo
Considere una cadena de Markov homogenea con 6 estados: A, B , C , D, E y F . La ley de evoluci on del sistema viene dada por la matriz de probabilidades de transici on de un periodo: 0.4 0.6 0 0 0 0 0 1 0 0 0 00 .5 0.5 0 0 0 0 P = 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 1 Las transiciones de esta cadena se pueden describir por le siguiente grafo.
B A C D E F
Clases de Equivalencia
La relaci on en E es una relaci on de equivalencia. Por lo tanto, induce una cierta partici on del conjunto de estados E. Sea C = C1, C2, ..., Cs el conjunto de clases de equivalencia (conjunto cuociente) denidas en E a trav es de la relaci on de comunicaci on. n. La clase Cj es accesible desde la clase Ci, lo que se denota por Definicio Ci Cj , si existen estados Ek Cj y Em Ci tal que Em Ek . La relaci on de accesibilidad al interior de C es reeja, antisim etrica y transitiva, es por tanto una relaci on de orden al interior de C . Las clases de C pueden clasicarse mediante la relaci on de orden () en clases Transientes o de Paso y en clases Recurrentes o Finales. n. Definicio Ci C es de Paso o Transiente si existe al menos una clase accesible desde Ci. Cj C es Recurrente o Final si no admite clases accesibles desde ella.
Prof: Ren e Caldentey, Oto no 2008 9
Grafo de Clases
10
Ejemplos
B 3 1 2 5
12
Recurrencia
Para un par de estados i, j E denimos
n fij = P(Xn = j Xk = j, k = 1, 2, . . . , n 1|X0 = i), 0 fij = 0,
fij =
n 0
n fij
uij =
n=1
n n fij .
Un estado es transiente si es posible salir de el y nunca regresar, esta condici on puede expresarse diciendo que i es transiente si y s olo si fii < 1. Por su parte j es recurrente si y s olo si fjj = 1, adem as se dir a que j es recurrente positivo si ujj < y que es recurrente nulo si ujj = . n. Proposicio
n Pij = k=0
Prof: Ren e Caldentey, Oto no 2008 13
n nk k fij Pjj .
Recurrencia
Teorema. Si i is recurrente y i j entonces j es recurrente.
Lema.
n n Sean Pij (s) y Fij (s) las funciones generadoras de {Pij } y {fij } respectivamente, es decir, X n=0 X n=0
Pij (s) =
Entonces,
n Pij
Fij (s) =
y
fij s ,
|s| < 1.
1 Pii(s) = 1 Fii(s)
Lema.
X
k 0
ak converge, entonces
lim
s1
X
k 0
ak s =
X
k 0
ak = a ak = a.
Si ak 0 y lim
s1
X
k 0
ak s = a , entonces
X
k 0
Lema.
Pii = .
14
Recurrencia
Supongamos que la cadena de Markov considerada admite s clases recurrentes las que denotaremos por F1, ..., Fs. Sea IR el conjunto de indices asociado a los estados transientes de la cadena es decir i IR si fii < 1. Sea Aij la probabilidad que el sistema evolucione del estado i IR a la clase Fj y aij la probabilidad que el sistema evolucione desde i IR a Fj en una transici on, entonces la probabilidad de evoluci on desde Ei a Fj puede expresarse como: Aij =
kIR
Considerando las matrices A = [Aij ], a = [aij ] y P = [Pik ] con i, k IR, j = 1, 2, ..s la condici on anterior puede reescribirse en forma matricial como: A=P A+a de donde, A = (I P )1 a.
Prof: Ren e Caldentey, Oto no 2008 15
Ejemplos
Ejemplo 1: Considere un camino aleatorio unidimensional tal que Pi,i+1 = p y Pi,i1 = 1 p para todo i Z. Para que valores de p es el estado 0 recurrente.
Ejemplo 2: Considere un camino aleatorio en dos dimensiones sim etrico, es decir, P(i,j ),(k,l) = 1/4 para (k, l) = {(i, j + 1), (i, j 1), (i 1, j ), (i + 1, j )}. Verique que el estado (0, 0) es recurrente.
Ejemplo 3: Considere un camino aleatorio en tres dimensiones sim etrico, es decir, P(i,j,k),(l,m,n) = 1/6 para (l, m, n) = {(i, j + 1, k ), (i, j 1, k ), (i 1, j, k ), (i + 1, j, k ), (i, j, k 1), (i, j, k + 1)}. Verique que el estado (0, 0) NO es recurrente.
16
donde
n = 0 P n.
0 1 1 0
17
j = 1.
n. Una cadena de Markov nita y homogenea con matriz de transici Proposicio on de un periodo admite un vector de probabilidades estacionarias si y s olo si:
n
lim P n =
con una matriz de probabilidades tal que su columna k - esima es de la forma j [1, 1, ..., 1] .
Prof: Ren e Caldentey, Oto no 2008 18
Ejemplos
0.5 0.5 0.5 1 0.5 0.25
C
1
A
0.5
E
0.5
0.25 0.5 1
F
P =
0 0.5 0.5 0 0 0 0 0. 5 0 0 0 0.5 0 0 0 0 0 1.0 0 0 0 0 0 1.0 0 0 0 0 0 0 0 0 0.5 0.25 0.25 0 0 0 0 0.5 0 0.5 0 0 0 0 0 1.0 0
19
Teorema de Ergodicidad
Teorema.
n (a) Considere una cadena de Markov irreducible y aperi odica. Sea Pii la probabilidad que el sistema entre al estado i en la n- esima transici on dado que partio en el estado 0 n i, i.e., X (0) = i. (Con la convensi on Pii = 1). Sea fii la probabilidad de regresar por 0 primera vez al estado i en la n- esima transici on, con fii = 0. Por lo tanto, n n Pii k=0 nk k fii Pii =
1 si n = 0 0 si n > 0.
n n fii . n=0
Ejemplos
Ejemplo 4: Considere nuevemente el ejemplo de camino aleatorio unidimensional en el Ejemplo 1 tal que Pi,i+1 = 1/2 y Pi,i1 = 1/2 para todo i Z. Sabemos que esta cadena de Markov es recurrente, e.g., f00 = 1. Cu al es el tiempo promedio de retorno al estado i = 0?. Ejemplo 5: Considere un camino aleatorio en los naturales N, tal que Pi,i+1 = pi y Pi+1,i = qi = 1 pi+1, i = 0, 1, 2 . . .
con p0 = 1. Bajo que condici on en los {pi} existen probabilidades estacionarias? Ejemplo 6: Considere una Cadena de Markov irreducible y aperi odica. Muestre que si la cadena admite un vector de probabilidades estacionarias tal que i > 0 para alg un estado i entonces i es recurrente, i.e., fii = 1.
21
Pij rij .
ma nana antes de salir de casa est a lloviendo usted toma un paragua (si tiene alguno disponible) y lo lleva al trabajo. De lo contrario usted no lleva paraguas al trabajo. De la misma forma, si en la tarde antes de volver a casa est a lloviendo usted toma un paragua (si hay alguno disponible) y si no est a lloviendo usted se devuelve a su casa sin paraguas. La probabilidad de lluvia en la ma nana o en la tarde en un d a cualquiera es 0 < p < 1 independiente de cualquier patron de lluvias anteriores. - Cu al es la probabilidad que no tenga paraguas a mano en una ma nana cualquiera en el largo plazo? - Assuma que en caso de estar lloviendo (una ma nana o tarde) y usted no tiene paragua disponible toma un taxi a su casa que le cuesta $T . Cu al es el vector r asociado con esta cadena?
Prof: Ren e Caldentey, Oto no 2008 22
Ejemplo 7: Usted tiene N paraguas que usa diaramente entre su casa y su trabajo. Si en la
Recursi on
Sea Vk (i) el benecio total esperado si faltan k periodos para el nal del horizonte y el sistema se encuentra actualmente en el estado i. En particular, V0(i) es el benecio de terminar en el estado i (condici on de borde). Luego, V1(i) = r i +
j
Vk = r + P Vk 1 .
Vk = r + P r + P2 r + .... + P k V0.
23
lim P n = .
Llamando g =
i i i r
Conjetura:
lim Vk k g e = W + e,
24
lim Vk Vk (1) e = W.
25
Entonces el benecio esperado acumulado durante k periodos (Vk ) viene dado por: Vk = kge + W + P k (V0 W ) donde g = j j r j es el benecio esperado por transici on en regimen estacionario. Adem as, en el l mite se tiene:
k
donde =
j
j [V0(j ) Wj ]
26
Ejemplos
Ejemplo 8: Cada a no en Chile puede ser muy lluvioso (MLL), lluvioso (LL) o seco (S). Dependiendo del clima, Endesa tiene distintos costos de generaci on el ectrica: CM LL = MUS$300, CLL = MUS$450, CS = MUS$700.
Suponga que el clima anual se comporta como una cadena de Markov Con matriz de transici on de un periodo. P = 0, 2 0, 4 0, 4 0, 3 0, 4 0, 3 0, 2 0, 5 0, 3 .
Si estamos en un a no seco, cu al es el costo esperado de generaci on para los pr oximos 5 a nos? Las probabilidades estacionarias ( = P ) son M LL = 0, 243, LL = 0, 433,
i i Ci
S = 0, 324, = MUS$494, 5.
27
Ejemplos
Debemos calcular el vector W resolviendo W + g e = r + P W y WS = 0. Despu es de un poco de algebra! WM LL = 373, 6, WLL = 261, WS = 0.
Por u ltimo el costo esperado despu es de 5 a nos viene dado por: VS (5) = 5 g + WS [P 5 W ]S . Como P = concluimos que VS (5) = 5 494, 5 + 0 (203, 8) = MUS$2676, 3. Ejemplo 9: Considere nuevamente el problema de los paraguas del Ejemplo 7. Cu al es el costo esperado por unidad de tiempo si usted tiene N paraguas?
Prof: Ren e Caldentey, Oto no 2008 28
lim Vk = lim W P k W = W W
k
lim Vk = W
con W = WR WT
0 (IT PT T )1eT
30