Documentos de Académico
Documentos de Profesional
Documentos de Cultura
3) Proceso de markov
4) Matriz de transición
5) Probabilidades de transición
6) Clasificación
La variable aleatoria Xt es finita porque representa tres estados: malo (0), regular (1) y bueno (2).
Proceso de Markov I
Un proceso estocástico es un proceso de Markov si un estado futuro depende sólo del estado
inmediatamente anterior. Esto significa que dados los tiempos cronológicos t0, t1,..., tn, la familia de
variables aleatorias {Xtn} = {x1, x2, Á , xn}
es un proceso de Markov si
Proceso de Markov II
En un proceso Markoviano con n estados exhaustivos y mutuamente excluyentes, las probabilidades en
un punto específico del tiempo t = 0,1,2,... se definen como
Además, el 30% de quienes no lo compren un mes lo adquirirán al mes siguiente. En una población de
1000 individuos, 100 compraron el producto el primer mes. ¿Cuántos lo comprarán el próximo mes? ¿Y
dentro de dos meses?
Ejemplo 2
En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o menos de un paquete diario y
2500 fuman más de un paquete diario. En un mes hay un 5% de probabilidad de que un no fumador
comience a fumar un paquete diario, o menos, y un 2% de que un no fumador pase a fumar más de un
paquete diario. Para los que fuman un paquete, o menos, hay un 10% de probabilidad de que dejen el
tabaco, y un 10% de que pasen a fumar más de un paquete diario. Entre los que fuman más de un paquete,
hay un 5% de probabilidad de que dejen el tabaco y un 10% de que pasen a fumar un paquete, o menos.
¿Cuántos individuos habrá de cada clase el próximo mes?
CLASIFICACIÓN DE LOS ESTADOS EN UNA
CADENA DE MARKOV
Ejemplo
Ejemplo del problema del jardinero
Considere la cadena de Markov del jardinero sin fertilizante:
PROBABILIDADES DE ESTADO ESTABLE Y TIEMPOS DE
RETORNO MEDIOS DE CADENAS ERGÓDICAS
En una cadena ergódica, las probabilidades de estado estable se definen como
Se puede representar como
Determine