Está en la página 1de 1

I.

Cadenas de Markov
Las Cadenas de Markov tienen la propiedad particular de que las
probabilidades que describen la forma en que el proceso evolucionara
en el futuro dependen solo del estado actual en que se encuentra el
proceso y por lo tanto, son independientes de los eventos que
ocurrieron en el pasado. Muchos procesos se ajustan a esta
descripcin por lo que las cadenas de Markov constituyen una clase
de modelo probabilstico de gran importancia.
Las Cadenas de Markov proporcionan las bases para el estudio de los
modelos de decisin, ya que existe una amplia gama de aplicaciones
de las cadenas de Markov. La lista continua de manera indefinida,
pero por el momento veremos una descripcin de los procesos
estocsticos en general y de las cadenas de Markov en particular.

1.1 Procesos Estocsticos


Se definen como una coleccin indexada de variables aleatorias (X,),
donde el ndice t toma valores de un conjunto T dado. Con
frecuenta T se considera el conjunto de enteros no negativos
mientras que X, representa una caracterstica de inters cuantificable
en el tiempo t.
Por ejemplo:
X, puede representar los niveles de invetario al final de la
semana t.
Los procesos estocsticos son de inters para describir el
comporatmiento de un sistema en operacin durante algunos
periodos.

1.2 Dwdwdwa

También podría gustarte