Está en la página 1de 4

CADENAS DE MARKOV

Las cadenas de markov son modelos probabilsticos que se usan para predecir la
evolucin y el comportamiento a corto y a largo plazo de determinados sistemas.
Ejemplos: reparto del mercado entre marcas; dinmica de las averas de mquinas para
decidir poltica de mantenimiento; evolucin de una enfermedad,

Una Cadena de Markov (CM) es:

Un proceso estocstico
Con un nmero finito de estados (M)
Con probabilidades de transicin estacionarias
Que tiene la propiedad markoviana

Estados
Estado absorbente: una vez que llego a ellos nunca puedo salir
Cadena es ergdica: no hay estados absorbentes
Estado Transiente: estados que no estn en ningn conjunto ergdico se llaman:
1. Cadenas conexas: todos los puntos se pueden conectar con caminos no dirigidos
2. Cadenas absorbentes: donde hay solo estados transientes y absorbentes (los
conjuntos ergdicos tienen un nico estado).
3. Cadenas (ergdicas) regulares: en las que el total forma un conjunto ergdico y
existe

EJEMPLO:

1/4

1/4

1/3

1/2

1/3
1/3

MATRIZ:

i/j

1/2

1/4

1/4

1/3

1/3

1/3

SCILAB

También podría gustarte