Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cadenas de Markov
Cadenas de Markov
Conceptos Basicos
Un proceso estocástico.
Con un numero finito de estados (m)
Con probabilidades de estados(M)
Con probabilidades de transición estacionarios
Que tienen probabilidad markoviana
ELEMENTOS DE UNA CADENA DE MARKOV
•Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las
transiciones entre estados (ejemplo, un mes)