Está en la página 1de 11

CADENAS DE

MARKOV
DEFINICIÓN
 La cadenas de Markov tienen la propiedad particular de que las
probabilidades que describen la forma en que el proceso
evolucionará en el futuro dependen sólo del estado actual en que
se encuentra el proceso y, por tanto, so independientes de los
eventos ocurridos e el pasado.
PROCESOS ESTOCÁSTICOS
 Un proceso estocástico se define como una colección indexada de
variables aleatorias Xi, donde el subíndice i toma valores de un
conjunto T dado. Con frecuencia T se toma como el conjunto de
enteros no negativos y Xi representa una característica de interés
medible en el tiempo t. Por ejemplo el proceso estocástico X1, X2,
X3,… puede representar la colección de niveles de inventario
semanales de un producto dado, o puede representar la colección
de demandas semanales de este producto
CADENAS DE MARKOV

 Es necesario hacer algunas suposiciones sobre la distribución


conjunta de X0, X1,… para obtener los resultados analíticos. Una
suposición que conduce al manejo analítico es que el proceso
estocástico es una cadena e Markov que tiene la siguiente
propiedad esencial: se dice que un proceso estocástico Xi, tiene la
propiedad markoviana si P(Xt+1=j / X0=k0, X1=k1,…,Xi-1=ki-1, Xi=i),
para i=0,1,… y toda sucesión i,,K0,Ki,…, Ki-1.
 Las probabilidades de transición son estacionarias y por lo general
se denotan por pij. Así tener propiedades de transición
estacionarias implica que las probabilidades de transición no
camban con el tiempo.
Ecuaciones de Chapman
Kolmogorov
PROPIEDADES A LARGO PLAZO DE LAS CADENAS DE MARKOV
TIEMPOS DE PRIMERA PASADA
ESTADOS ABSORBENTES
CADENAS DE MARKOV DE TIEMPO CONTINUO

También podría gustarte