Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CADENAS DE MARKOV
Las cadenas de Markov, pueden usarse como modelo de un proceso fsico o econmico que
tenga las siguientes propiedades.
Cada suceso individual se denomina estado. Por tanto habr tantos estados como sucesos
posibles. Para propsitos de notacin Si significa el i-simo estado de un total de m estrados
posible, donde 2 m < . Cada vez que se produce un nuevo resultado o suceso se dice que
el proceso ha avanzado o que se ha incrementado en un paso. Esto puede repetirse tantas
veces como se desee. Un paso puede representar u periodo de tiempo o cualquier otra
condicin que pueda conducir a cualquier otro suceso posible. El smbolo n se utiliza para
indicar el nmero de pasos o incrementos. Por tanto n=0, representa el presente; n=1,
representa el suceso posible de la siguiente ocasin; y n=2 representa una ocasin despus
de la siguiente.
Cada elemento de esta tabla representa la probabilidad de desplazarse desde un estado hasta
otro. Paras propsitos de notacin un elemento de la matriz de transicin se designa por pij.
Esta es la probabilidad condicional de que si el proceso est ahora en un estado i, en el
siguiente paso podr estar en un estado j.
1. cada elemento debe ser una probabilidad, o sea que debe tener un valor entre 0 y 1.
Es decir que es imposible tener una probabilidad mayor que 1 o negativa.
2. Cada fila debe sumar exactamente 1.
p
j 1
ij 1, j 1,2,3...m
En la matriz anterior se observa que para un estado en n =1, una fila enumera
completamente todas las posibles formas de estados que el proceso (cliente) puede seguir.
Por tanto una fila es un vector de probabilidad. Esto es de esperarse, ya que sencillamente
un vector es una matriz de 1 x m. Un vector de probabilidad debe satisfacer los requisitos
similares de una matriz de transicin.
m
2. La suma de los elementos del vector debe ser igual a 1: p
j 1
ij 1
Por lo tanto una matriz de transicin P est compuesta por filas de vectores de probabilidad
Vi .
En el tiempo cero se conoce exactamente cual es el estado; por tanto la probabilidad de que
el estado i exista es 1.
Vi 3 Vi 2 P (Vi1 P) P Vi1 P 2
Vi 4 Vi 3 P (Vi1 P 2 ) P Vi1 P 3
Vi n Vi n1 P (Vi1 P n2 ) P Vi1 P n1
Por lo tanto la probabilidad de los sucesos despus de n pasos a partir de ahora pueden
determinarse utilizando el vector de probabilidad Vi y alguna potencia de la matriz de
transicin P.
2
Ing. Vicente Campos Contreras Instituto Tecnolgico de Jiquilpan
Ejemplo:
Ejemplo:
Para que una matriz de una cadena de Harkov alcance el estado estable debe ser una matriz
ergdica y regular.
Ejemplo calles.
Sea X algn valor positivo de probabilidad pij y se puede visualizar en cuantos pasos se
puede ir desde un estado inicial, a cualquier otro estado determinado.
Una cadena regular se define como una cadena que tiene una matriz de transicin P la cual
para alguna potencia de P tiene nicamente elementos positivos de probabilidad (diferentes
de cero). Usando la misma matriz de transicin de las cadena ergdica, la forma ms
sencilla de verificar si una cadena es regular consiste en elevar sucesivamente al cuadrado la
matriz hasta que todos los ceros sean eliminados o hasta que se demuestre obviamente que
por lo menos un cero nunca podr eliminarse.
La existencia de las condiciones de estado estable en una cadena ergdica regular puede
demostrarse de una manera sencilla, calculando P n para diversos valores de n.
Ejemplos:
3
Ing. Vicente Campos Contreras Instituto Tecnolgico de Jiquilpan
De lo anterior, se observa que a medida que aumenta el valor de n, los valores de pij tienden
hacia un lmite fijo y cada vector de probabilidad Vi n tiende hacerse igual para todos los
valores de i. Esto sugiere los siguientes enunciados:
v
j 1
j 1
puede descartarse puesto que las restantes m ecuaciones pueden satisfacerse si todas las
vj 0.
Ejemplos.
Para describir procesos o sistemas que cesan (o por lo menos vuelven a comenzar) despus
de alcanzar determinadas condiciones, se utiliza un caso especial de cadenas de Markov.
Un estado absorbente es aquel que tiene una probabilidad de ser abandonado de cero, o sea
que, una vez comenzado es imposible dejarlo, y el proceso se detiene completamente o se
detiene para luego comenzar a partir de algn otro estado.
Una cadena de Markov es absorbente si:
1. Tiene al menos un estado absorbente
2. Es posible ir de cada estado no absorbente hasta por lo menos un estado absorbente.
No es necesario efectuar esta transicin en un paso; ni es necesario tener la
posibilidad de alcanzar cada estado absorbente a partir de cualquier estado no
absorbente.
Ejemplo.
4
Ing. Vicente Campos Contreras Instituto Tecnolgico de Jiquilpan
A partir del anlisis de esta clase de cadena pueden obtenerse diversas clases de informacin
pertinente. Es posible determinar los siguientes datos:
El primer paso del anlisis es reagrupar la matriz de transicin de manera que haya cuatro
submatrices:
I 0
P
A N
Ejemplos.
5
Ing. Vicente Campos Contreras Instituto Tecnolgico de Jiquilpan
UNIDAD IV
LA PROGRAMACIN DINMICA
Retorno total = Retorno a partir de las decisiones inmediatas + retornos optmales a partir de
las etapas futuras que resultan de la decisin inmediata.
f * ri f *i1