Está en la página 1de 1

CADENAS DE MARCOV

DEFINICION:

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen
memoria, "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros.

Propiedad de Markov: Dada una secuencia de variables aleatorias X 1 , X 2 , X 3 ,...... tales


que el valor de X n

P(X n + 1 = x n + 1 /X n = xn , X n 1 = xn 1 ,....X 2 = x2 , X 1 = x1 ) =

P(X n + 1 = x n + 1 /X n = xn )

También podría gustarte