Está en la página 1de 8

PROCESO DE

DECISIN
MARKOVIANA

CADENAS DE MARKOV
Es un tipo especial de proceso estocstico
discreto en el que la probabilidad de que ocurra
un evento depende del evento inmediatamente
anterior. En efecto, las cadenas de este tipo
tienen memoria. Recuerdan el ultimo evento y
esto condiciona las posibilidades de los eventos
futuros.

PROCESO DE DECISIN DE MARKOV


(MDP)
Proporcionan un marco matemtico para modelar
la toma de decisiones en situaciones donde los
resultados son en parte al azar y en parte bajo el
control de un tomador de decisiones.

ALCANCE DEL PROBLEMA DE DECISIN


MARKOVIANA

ALCANCE DEL PROBLEMA DE DECISIN


MARKOVIANA

ALCANCE DEL PROBLEMA DE DECISIN


MARKOVIANA

ALCANCE DEL PROBLEMA DE DECISIN


MARKOVIANA

CONCLUSIONES
Utilizamos los procesos de markov cuando la
toma de decisiones de un evento dependa de los
eventos que lo antecedan, los cuales condicionen
las posibilidades de eventos futuros.
Podemos utilizar este mtodo para realizar el
anlisis de diferentes productos, marketing,
predicciones
meteorolgicas,
Prediccin
de
prdida de clientes, etc.

También podría gustarte