Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cadenas de Markov
Cadenas de Markov
MARKOV
DEFINICIÓN
La cadenas de Markov tienen la propiedad particular de que las
probabilidades que describen la forma en que el proceso
evolucionará en el futuro dependen sólo del estado actual en que
se encuentra el proceso y, por tanto, so independientes de los
eventos ocurridos e el pasado.
PROCESOS ESTOCÁSTICOS
Un proceso estocástico se define como una colección indexada de
variables aleatorias Xi, donde el subíndice i toma valores de un
conjunto T dado. Con frecuencia T se toma como el conjunto de
enteros no negativos y Xi representa una característica de interés
medible en el tiempo t. Por ejemplo el proceso estocástico X1, X2,
X3,… puede representar la colección de niveles de inventario
semanales de un producto dado, o puede representar la colección
de demandas semanales de este producto
CADENAS DE MARKOV