Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cadenas de Marcov
Cadenas de Marcov
DEFINICION:
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen
memoria, "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros.
P(X n + 1 = x n + 1 /X n = xn , X n 1 = xn 1 ,....X 2 = x2 , X 1 = x1 ) =
P(X n + 1 = x n + 1 /X n = xn )