Está en la página 1de 43

UNIVERSIDAD NACIONAL DEL ALTIPLANO

CADENA DE MARKOV

PROCESOS ESTOCSTICOS

Un proceso estocstico es una familia


de variables aleatorias parametrizadas
por el tiempo

DEFINICIN. DE CADENA DE MARKOV

Las cadenas de markov son modelos


probabilsticos que se usan para predecir la
evolucin y el comportamiento a corto y a
largo plazo de determinados sistemas.

CADENAS DE MARKOV

Las

cadenas de Markov y los procesos de


Markov son un tipo especial de procesos
estocsticos que poseen la siguiente
propiedad:

Cadenas de Markov

Matriz de transicin

Matriz de transicin

p01
p11

p20

...

p21
...

p00

p10

p02 ...

p12 ...

p
ij
i , jS
p22 ...

... ...

CADENA DE MARKOV

CON VARIOS
SUCESOS

TRABAJA CON
PROBILIDADES

UNIVERSO

FORMACION
DE LA MATRIZ

RESULTADOS Y
INTERPRETACION

COMPROBACION
DE LA MATRIZ

CADENA DE
MARKOV

MATRIZ DE TRANSICION

CADENA DE MARKOV

EJEMPLO
El departamento de estudios de mercado de
una fbrica estima que el 20% de la gente
que compra un producto un mes, no lo
comprar el mes siguiente. Adems, el 30%
de quienes no lo compren un mes lo adquirir
al mes siguiente.
En una poblacin de 1000 individuos, 100
compraron el producto el primer mes.
Cuntos lo comprarn al mes prximo? Y
dentro de dos meses?

EJEMPLO
Suponga que una fbrica de cemento produce dos
tipos de cemento del tipo I y cemento del tipo II.
Cuando una persona ha comprado cemento del tipo I
hay una probabilidad del 90% de que siga comprando
la vez siguiente. Si una persona compra cemento del
tipo II, existe una probabilidad del 80% de que se
repita la vez siguiente. Se pide
a) Si una persona actualmente es comprador de
cemento del tipo II. Cul es la probabilidad de que
compre cemento del tipo I pasadas dos compras a
partir de hoy?
b) Si en la actualidad una persona es comprador de
cemento del tipo I. Cul es la probabilidad de que
compre cemento del tipo I pasadas tres compras a

SOLUCIN

MATRIZ DE TRANSICIN
Estado actual (Xt)

Estado siguiente
(X t+1)

I
0.9
0.2

I
II

II
0.1
0.8

a) Si una persona actualmente es comprador de cemento del tipo


II. Cul es la probabilidad de que compre cemento del tipo I
0.83

0.17

0.34

0.66

pasadas dos compras a partir de hoy?


P=
Por lo tanto la probabilidad de que compre cemento del tipo I , pasadas dos compras a partir del
momento en el que realiz la compra de cemento del tipo II es de 0.34.

b) Si en la actualidad una persona es comprador de


cemento del tipo I. Cul es la probabilidad de que
compre cemento del tipo I pasadas tres compras a partir
de ahora?
0.781

0.219

0.438

0.562

P3=
De esta forma podemos decir que la probabilidad de compra del cemento del tipo I por una persona
pasadas tres compras es 0.78.

Despus de transcurridos varios das de


compra
= Probabilidad de comprar cemento del tipo I
= Probabilidad de comprar cemento del tipo II
= (P* ) + (P* )
= (P* ) + (P* )
1 = +
Reemplazando:
= (0.9* ) + (0.2* )
= (0.1* ) + (0.8* )

Resolviendo:
= 0.67
= 0.33

EJEMPLO DE APLICACIN
En una empresa de fabricacin de tejas de asbesto
cemento es una prioridad el manejo del
Scrap(desperdicio) en el proceso productivo debido a
que su acumulacin s convierte en un problema
ambiental y a su vez una carga en el costo final del
producto.
El objetivo es aplicar la teora fundamental de cadenas
de Markov para determinar el comportamiento de la
materia prima a futuro en cada proceso.

ETAPAS EN EL PROCESO DE PRODUCCION


HUMECTACION

ETAPAS EN EL PROCESO DE PRODUCCION


FABRICACION

ETAPAS EN EL PROCESO DE PRODUCCION


DESMOLDEADO

ETAPAS EN EL PROCESO DE PRODUCCION


ALMACEN DEL PRODUCTO TERMINADO

ETAPAS EN EL PROCESO DE PRODUCCION


SCRAP(Desperdicio)

El proceso se define como una cadena de Markov debido a que


cumple la propiedad Markoviana de la siguiente forma:
La materia prima fluye por todo el proceso productivo.Al pasar
de un estado a otro.
La cantidad de materia prima que llega a un estado, depende
solo de lo que sea capas de pasar como producto bueno el
estado anterior.

ICONICO DEL PROCESO

CALCULO DE PROBABILIDADES

MATRIZ DE TRANSICIN

ACCESIBILIDAD DE LOS ESTADOS


J es Accesible, si pijn >0
Veamos la matriz original

Ahora multipliquemos la matriz original n veces


por ella misma y miremos su comportamiento
para P3072

Existe un n=3072 donde los valores de pijn >0.


esto indica que todos los estados j son
accesibles.

CONCURRENCIA DE LOS ESTADOS


Sea PT la transpuesta de la matriz original,
elaborada para calcular las probabilidades de
estado estable

Utilizaremos la notacin R para indicar la variable

Al resolver el sistema tenemos las siguientes


ecuaciones:

Los valores de , en este caso R son:

Donde los valores de recurrencia (U) son Ujj = 1/


j

Los estados Recurrentes positivos presentan uii


< inf lo cual cumple para los estados de esta
cadena de Markov.
Tiempos de recurrencia Uii(es el tiempo
esperado que gasta el sistema en volver a estar
en i partiendo de i)

Matriz original

Uij = 1 + Sk#j Pik Ukj


U14= 1 + P11 U14+ P12 U24 + P13 U34 + P15 U54
U24= 1 + P21 U14+ P22 U24 + P23 U34 + P25 U54
U34= 1 + P31 U14+ P32 U24 + P33 U34 + P35 U54
U54= 1 + P51 U14+ P52 U24 + P53 U34 + P55 U54
U14= 1+0.999 U24+0.001 U54
U24=1+0.980 U34+0.02 U54
U34=1+0.013 U54
U54=1+0.010 U14+0.990 U54

Tiempo de primera ocurrencia.


Es tiempo esperado que se gasta para ir del estado i al j
U14= 6.46 meses
U24= 5.46 meses
U34= 2.38 meses
U54= 106 meses
En resumen podemos decir que:
A la larga el sistema estara en el estado 4(APT) con una
probabilidad de p4=0.758. lo que expresa este termino es que
despues de n transiciones la materia prima estara en APT con una
probabilidad del 75,8%. Y para la materia prima que va a Scrap, a la
larga estara en el estado 5 con una probabilidad de p 5=0.235. lo que
indica que la probilidad a la larga que la materia prima se vuelva
Scrap es del 23.5%.
Ahora el tiempo de recurrencia para que el sistema estando en
estado 4(APT) vualva a este estado es U44 = 1.3 meses. En otras
palabras, es el tiempo que transcurre para que vuelva haber
producto terminado es 1.3 meses.
En conclusin, se perdera mucha materia prima a la larga.

GRACIAS