Está en la página 1de 20

CADENAS DE MARKOV

Cuando, conociendo el pasado y el presente, el comportamiento probabilstico del futuro inmediato slo depende del estado presente

Una cadena de Las cadenas de este Markov es una serie de tipo tienen memoria, eventos, en la cual la "Recuerdan" el ltimo probabilidad de que evento y esto ocurra un evento condiciona las depende del evento posibilidades de los inmediato anterior. eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Elementos de la cadena de markov

Un conjunto de estados del sistema. La definicion de transicin. Una ley de probabilidad condicional, que defina la probabilidad del nuevo estado en funcin de los anteriores.

Los estados son una caracterizacin de la situacin en que se encuentra el sistema en un instante dado, dicha caracterizacin puede ser tanto cuantitativa como cualitativa. Desde un punto de vista prctico probablemente, ala mejor definicin de qu debe entenderse por estado es la respuesta que se dara a la pregunta Cmo estn las cosas?.

El

estado de un sistema en un instante t es una variable cuyos valores slo pueden pertenecer al conjunto de estados del sistema. El sistema modelizado por la cadena, por lo tanto, es una variable que cambia de valor con el tiempo, cambio al que llamamos transicin.

Un

sistema de Markov (o proceso de Markov o cadena de Markov) es un sistema que puede ser en uno de algunos estados (enumerados), y que puede pasar de un estado a otro durante cada instante de acuerdo a probabilidades determinadas

Si

un sistema de Markov est en estado i, Hay una determinada probabilidad, pij, de ir a estado j el prximo paso, y pijes llamado la probabilidad de transicin

Un

sistema de Markov puede ser ilustrado por significados de un diagrama de transicion de estados, que muestra todos los estados y las probabilidades de transicin.

La

matriz P cuya ijo entrada pij se llama la matriz de transicin asociada con el sistema. Las entradas en cada renglon suman en total 1. Por lo tanto, para este caso, una a 2 matriz de transicin P podra ser representado en la siguiente figura.

Matriz de transicin
.2 .8 0 .4 0 .6 .5 .35 .15 dibujar el diagrama de transicin

.2 .8 0 .4 0 .6 .5 .5 0 .7 .2 .1 .2 .75 .05 .1 .1 0.8 .2 .5 0.3 0 .5 .5 0 0 1

Sistemas absorbentes de Markov


Unestado

asorbente en un sistema de Markov es un estado a partir de la cual existe cero probabilidad de salir. Unsistema absorbente de Markov es un sistema de Markov que contiene al menos un estado asorbente, tal que es posible llegar a un estado absorbente despus de algun nmero de etapas comenzando en caulquier estado no absorbente

En

el anlisis de los sistemas absorbentes, enumeramos los estados en tal manera que los estados absorbentes son los ltimos. La matriz de transicin Pde un sistema absorbente entonces se ve como sigue

Aqu

I est la matriz unidad mm (m = nmero de estados absorbentes), S es una matriz cuadrada (n-m) (n-m) (n = nmero total de estados, de modo n-m = el numero de estados absorbentes), 0 es un matriz cero y T es un matriz (n-m)m.

La

matriz S es la matriz de transicin para la circulacin entre los estados de absorcin. La matriz fundamental para el sistema absorbente es Q = (I-S)-1.

Ejemplo
Una

entidad financiera desea que sus clientes actuales posean mas de una tarjeta de credito de un mismo banco y con ello fortalecer su relacion con los clientes Para determinar tal aceptacion, se tomo en cuenta el historial de cada cliente con sus respectivas probabilidades, determinando los siguientes estados:

Estado 1: cliente acepto la tarjeta de credito y la activvo para utilizarla Estado 2: cliente no acepto la tarjeta y no la activo Estado 3: cliente acepto la tarjeta y no la activo Estado 4: cliente no fue contactado, por ningun medio para ofrecerle la tarjeta Que probabilidad existe que el estado 3 y 4 sea absorbidos? Cual es la probabiliadd de que el estado 3 y 4 no sean absorbidos ?