Documentos de Académico
Documentos de Profesional
Documentos de Cultura
estocásticos y
Cadenas de Markov
¿Qué es el Azar?, ¿es un concepto intrínseco u ontológico ligado
a ciertos fenómenos o sólo es una invención para justificar
nuestra incapacidad de encontrar una causa que explique los
resultados?
Importancia
Conocer la evolución de Predecir el
los valores de la variable comportamiento
de los fenómenos.
tratada en el tiempo.
Ideas preliminares
Procesos estocásticos
Variable aleatoria a
lo largo del tiempo Proceso estocástico
Objetivo
Ajustar un modelo con el fin
de hacer predicciones sobre
el comportamiento futuro.
Procesos estocásticos (aleatorios)
Definición formal
De esta forma, los procesos estocásticos {Xt} = {X0, X1, X2, . . .} proporcionan una
representación matemática de la forma en que evoluciona la condición del sistema
físico a través del tiempo.
Procesos estocásticos (aleatorios)
Definición formal
Entonces…
Sea Xi una variable aleatoria que caracteriza el estado del
sistema en puntos discretos en el tiempo t = 1, 2… . La
familia de variables aleatorias {Xi} forma un proceso
estocástico con una cantidad finita o infinita de estados.
Procesos estocásticos (aleatorios)
Definición formal
se le asocia el estado
Entonces habrá:
variables aleatorias
Procesos estocásticos
Caso tiempo continuo
Entonces el proceso es a
tiempo continuo y se denota:
Convención:
si el subíndice es n, entonces los
tiempos son discretos, y si el
subíndice es t, el tiempo se mide
de manera continua
Procesos estocásticos
Ejemplo de clima
El clima en Pto Montt puede cambiar con rapidez de un día a otro. Sin embargo, las
posibilidades de tener clima sin lluvia mañana es de alguna forma mayor si hoy no
llueve. En particular, la probabilidad de que mañana esté seco es de 0.8 si hoy está
seco, pero es de sólo 0.6 si hoy llueve.
Estas probabilidades no cambian si se considera la información acerca del clima en los
días anteriores a hoy.
La evolución del clima día tras día en Pto Montt es un proceso estocástico. Si se
comienza en algún día inicial (etiquetado como día 0), el clima se observa cada día t,
para t = 0, 1, 2, . . . El estado del sistema en el día t puede ser:
• Estado 0 = El día t es seco
• Estado 1 = El día t es lluvioso
Así, para t = 0, 1, 2, . . ., la variable aleatoria Xt toma los valores,
0 si día t es seco
Xt
1 si día t es lluvioso
El proceso estocástico {Xt} = {X0, X1, X2, . . .} proporciona una representación
matemática de la forma en que evoluciona el clima en Pto. Montt a través del tiempo.
Procesos estocásticos
Cadena - Ejemplo máquina en una fábrica
Posible secuencia de
cambios de estado a
0 través del tiempo
para esa máquina.
Procesos estocásticos
Procesos de estado discreto
probabilidad de transición
o de cambio de estado.
Procesos estocásticos
Procesos de estado discreto
Probabilidades de Probabilidades de
ocupación de estado transición o de cambio de
estado.
Otra notación
Procesos estocásticos
Procesos de estado discreto
Procesos de Markov
Propiedad de Markov.
Son procesos donde, suponiendo
conocido el estado presente del
sistema, los estados anteriores no
tienen influencia en los estados
futuros del sistema.
Procesos estocásticos
Cadenas de Markov
Una cadena de Markov es una secuencia X1, X2, X3,... de variables aleatorias. El rango
de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en
el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados
es una función de Xn por sí sola, entonces:
• Estado Absorbente: un estado i es absorbente que cuando j llega ahí no puede salir
de él.
Clasificación de los estados de una cadena de Markov
• Estado Recurrente: siempre que parta del estado i será un estado recurrente si se
pueda volver al mismo estado i.
Cadenas de Markov
Aquellas Cadenas que cumplen la propiedad de
Markov se llaman Cadenas de Markov.
Procesos estocásticos
Procesos de estado discreto
Cadenas de Markov
diagrama de estados
Ejemplo
El clima en la Tierra de Oz
0.5
Bueno Lluvia
0.25
0.5 0.25
0.25 0.25
Nieve
0.5
Ejemplo
El clima en la Tierra de Oz
En el siguiente momento
volveremos a ese estado o a
otro.
Pasaremos de un estado a
otro con cierta probabilidad.
Este es un ejemplo de una
cadena de Markov Solo depende del estado
inmediato anterior.
Hay ciertos estados: b,l y n.
La probabilidad no cambia
En cada momento estamos en con el transcurso del tiempo.
alguno de esos estados.
Procesos estocásticos
Cadenas de Markov
Paseante
La zona urbana de mi pueblo tiene 6
cuadras de largo, que van de norte a
sur.
Estoy con ganas de deambular y pasar
el tiempo, y como tengo una moneda, se
me ocurre tirarla y caminar una cuadra
hacia el norte si sale cara o una cuadra
hacia el sur si sale sello. Y continúo este
juego hasta salir de la zona urbana, ya
sea hacia el norte o hacia el sur.
Procesos estocásticos
Cadenas de Markov - Ejemplo 2
v ; ;
Procesos estocásticos
Cadenas de Markov - Probabilidades iniciales
Procesos estocásticos
Cadenas de Markov - Probabilidades iniciales
Ejemplo
¿Cuál es la probabilidad de que, a largo plazo, el ascensor se encuentre en cada uno de
los tres pisos?
TIEMPOS DE PRIMERA PASADA
Cuando j = i, este tiempo de primera pasada es igual al número de transiciones hasta que el
proceso regresa al estado inicial i.
En este caso, el tiempo de primera pasada se llama tiempo de recurrencia del estado i.
En general, los tiempos de primera pasada son variables aleatorias.
Las distribuciones de probabilidad dependen de las probabilidades de transición del
proceso.
En particular, fij(n) denota la probabilidad de que el tiempo de primera pasada del estado i
al j sea igual a n.
Para n > 1, este tiempo de primera pasada es n si la primera transición es del estado i a
algún estado k (k ≠ j) y después el tiempo de primera pasada del estado k al estado j es
n – 1.
Por lo tanto, estas probabilidades satisfacen las siguientes relaciones recursivas:
En general podemos considerar a los tiempos de primera pasada como variables aleatorias,
por tanto con una distribución de probabilidad asociada a ellos.
Dichas distribuciones de probabilidad dependerán de las probabilidades de transición del
proceso.
fij(1)=pij(1)=pij
fij(2)=pij(2)-fij(1)pij
.............................................
fij(n)=pij(n)-fij(1)pij(n-1)-fij(2)pij(n-2)....-fij(n-1)pij
Entonces, la probabilidad de un tiempo de primera pasada del estado i al j en n pasos, se
puede calcular de manera recursiva a partir de las probabilidades de transición de un paso.
Para i y j fijas, las fij (n) son números no negativos tales que
Sin embargo, esta suma puede ser estrictamente menor que 1, lo que significa que un
proceso que al iniciar se encuentra en el estado i puede no alcanzar nunca el estado j.
Cuando la suma sí es igual a 1, las fij(n) (para n = 1, 2, . . .) pueden considerarse como una
distribución de probabilidad de la variable aleatoria, el tiempo de primera pasada.
Aunque puede ser tedioso calcular fij(n) para toda n, es relativamente sencillo obtener el
tiempo esperado de primera pasada del estado i al estado j.
Sea μij esta esperanza, que se define como
Siempre que
Esta ecuación reconoce que la primera transición desde el estado i puede ser al estado j o a
algún otro estado k.
Si es al estado j, el tiempo de primera pasada es 1. Dado que la primera transición es a
algún estado k (k ≠ j), lo que ocurre con probabilidad pik, el tiempo esperado de primera
pasada condicional del estado i al estado j es 1 + μkj.
Cuando se combinan estos hechos, y se suman todas las posibilidades de la primera
transición, se llega a esta ecuación.
En el caso de μij con j = i, μii es el número esperado de transiciones hasta que el proceso
regresa al estado inicial i, y se llama tiempo esperado de recurrencia del estado i.
Después de obtener las probabilidades de estado estable (π0, π1, . . ., πM) los tiempos
esperados de recurrencia se calculan de inmediato como
Ejemplo
Para determinar la distribución de probabilidad de estado estable del problema del
jardinero con fertilizante, tenemos
La solución es
π1 = 0.1017
π2 = 0.5254
π3 = 0.3729;
es decir que a la larga, la condición de la tierra será buena 10% del tiempo, regular 52% del
tiempo, y mala 37% del tiempo.
Los tiempos medios del primer retorno se calculan como