Está en la página 1de 6

CADENAS DE

MARCOV

En la teora de la probabilidad, se conoce


como cadena de Mrkov o modelo de Mrkov
a un tipo especial de proceso estocstico
(sucesin de variables aleatorias) discreto en
el que la probabilidad de que ocurra un
evento depende solamente del evento
inmediatamente anterior.
Esta caracterstica de falta de memoria
recibe el nombre de propiedad de Markov.

EJEMPLO
El departamento de estudios de mercado de
una fbrica estima que el 20% de la gente
que compra un producto un mes, no lo
comprar el mes siguiente. Adems, el 30%
de quienes no lo compren un mes lo
adquirir al mes siguiente. En una poblacin
de 1000 individuos, 100 compraron el
producto el primer mes. Cuntos lo
comprarn al mes prximo? Y dentro de dos
meses?

Esquema
Del 100% de clientes que compra en
un mes un producto, el 20% no
compra el mes siguiente, o sea el 80%
lo sigue comprando el siguiente mes.

Del 100% de clientes que quienes no


lo compran en un mes, solo el 30% lo
adquieren el mes siguiente. O sea el
70% no lo compran el siguiente mes.

Matriz

El primer mes comprarn C=350 y no


comprarn N=650

Segunda Matriz

El segundo mes comprarn C=475


y no comprarn N= 525

También podría gustarte