Está en la página 1de 4

MARCO TERICO

INTRODUCCIN A LAS CADENAS DE MARKOV


Una cadena de Markov es una serie de eventos, en la cual la probabilidad de
que ocurra un evento depende del evento inmediato anterior. En efecto, las
cadenas de este tipo tienen memoria, "Recuerdan" el ltimo evento y esto
condiciona las posibilidades de los eventos futuros. Esta dependencia del
evento anterior distingue a las cadenas de Markov de las series de eventos
independientes, como tirar una moneda al aire o un dado. En los negocios, las
cadenas de Markov se han utilizado para analizar los patrones de compra,los
deudores morosos, para planear las necesidades de personal y para analizar el
reemplazo de equipo. El anlisis de Markov, llamado as en honor de un
matemtico ruso que desarrollo el mtodo en 1907, permite encontrar la
probabilidad de que un sistema se encuentre en un estado en particular en un
momento dado. Algo ms importante an, es que permite encontrar el
promedio a la larga o las probabilidades de estado estable para cada estado.
Con esta informacin se puede predecir el comportamiento del sistema a travs
del tiempo. La tarea ms difcil es reconocer cundo puede aplicarse. La
caracterstica ms importante que hay que buscar en la memoria de un evento
a otro.

Matriz de transicin
Una matriz de transicin es aquella cuyos elementos son probabilidad de pasar
de un estado actual a estados posteriores. Una matriz de transicin tiene un
rengln y una columna para cada estado. Los renglones se refieren a las
ltimas manifestaciones (o las siguientes) de estos estados. Una matriz de
transicin se lee como una tabla; un elemento de un rengln y una columna
representa la probabilidad de efectuar una transicin de un estado de actual
representado por dicho rengln al estado posterior representado por esa
columna.
Observaciones sobre la matriz de transicin
1. Una matriz de transicin debe ser cuadrada
2. Cada elemento de una matriz de transicin debe estar entre 0 y 1.
3. La suma de los elemento de cualquier rengln debe ser igual a 1.

Matriz de probabilidad
Una matriz de probabilidad es una matriz rengln en la que cada elemento es
la probabilidad de un posible estado. Las columnas de la matriz de probabilidad
deben designarse tal como se hizo con los renglones y las columnas de las
matrices de transicin.
Observaciones sobre la matriz de probabilidad
1. Una matriz de probabilidad es una matriz rengln.
2. Cada elemento de una matriz de probabilidad debe estar entre 0 y 1.
3. La suma de los elementos del rengln debe ser igual a 1.

CADENAS REGULARES DE MARKOV


En las cadenas regulares de markov es posible pasar de un estado
determinado a otro cualquiera. Su utilizacin toma relevancia debido a que
permite realizar predicciones de largo alcance.

Matriz de equilibrio
La matriz de equilibrio L, en la que la tendencia se estabiliza, es una matriz de
probabilidad L=P , de tal forma que todas las siguientes matrices de
probabilidad sern iguales. En otras palabras, multiplicar la matriz de equilibrio
L por T no tendra ningn efecto, as que LT sera igual a L. De hecho,
determinamos la matriz de equilibrio resolviendo la ecuacin LT=L.
Predicciones de largo alcance con cadenas regulares de Markov
1. Formar la matriz de transicin T.
2. Determinar si la cadena es regular.
3. Formar la matriz de equilibrio L.
4. Determine y simplifique el sistema de ecuaciones descrito por LT=L.
5. Elimine las ecuaciones redundantes e incluya la ecuacin x + y =1 (o x
+ y + z =1, y as sucesivamente).
6. Resuelva el sistema resultante. Aplique el mtodo de eliminacin si el
sistema es reducido, aplique el mtodo de Gauss-Jordan.
7. Para comprobar haga LT=L.

CADENAS DE MARKOV ABSORBENTES


No todas las cadenas de Markov son regulares y, por lo tanto, no todas las
cadenas de Markov tienen una matriz de equilibrio.
Un estado absorbente en un sistema de Markov es un estado a partir de la cual
existe cero probabilidades de salir. Un sistema absorbente de Markov es un
sistema de Markov que contiene al menos un estado absorbente, tal que es
posible llegar a un estado absorbente despus de algn nmero de etapas
comenzando en cualquier estado no absorbente.
Predicciones de largo plazo con cadenas absorbentes de Markov
1. Determine si la cadena es absorbente.
2. Formar la matriz de transicin T.
3. Descarte los renglones que corresponden a los estados absorbentes.
4. Forme la matriz N a partir de las columnas no absorbentes de la matriz
del paso 3 y forme la matriz A a partir de las columnas absorbentes.
5. Calcule la matriz fundamental ( )1 . Esta matriz proporciona la
cantidad esperada de periodos que se denota con estados no
absorbentes.
6. Calcule y nombre a ( )1 A. Esta matriz proporciona la probabilidad
de ser absorbidos en cada uno de los estados no absorbentes. Los
renglones de ( )1 se encuentran rotulados con los estados no
absorbentes, y las columnas, con los estados absorbentes.

BIBLIOGRAFIA

David B. Johnson y Thomas A. MowrY, Matemticas Finitas. Aplicaciones


Prcticas. Editorial THOMSON PARANINFO, S.A. de .C.V
http://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_
Markov.htm
http://www.zweigmedia.com/MundoReal/Summary6b.html

También podría gustarte