Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apunte Markov PDF
Apunte Markov PDF
@ 71.07 Investigacio
c
2009
Facultad de Ingeniera,
Universidad de Buenos Aires
Digitalizado por Virginia Guala
$September 12, 2009
Cadenas de Markov 1
Indice
1 PROCESOS ESTOCASTICOS
1.1 Denicion de Proceso Estocastico . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Clasicacion de los Procesos Estocasticos . . . . . . . . . . . . . . . . . . . . . .
3
3
3
DE PARAMETRO
DISCRETO
2.1 Estudio de las probabilidades en las cadenas de markov homogeneas . . . . . . .
2.2 Clasicacion de las cadenas de Markov Homogeneas en ergodicas y no ergodicas
2.3 Estudio del Comportamiento de las Cadenas Ergodicas en el Regimen Permanente
2.4 Estudio del comportamiento de las cadenas no ergodicas . . . . . . . . . . . . .
10
10
21
27
34
DE PARAMETRO CONTINUO
43
3.1 Estudio de las probabilidades en las cadenas de Markov homogeneas . . . . . . . 43
3.2 Estudio del comportamiento de las cadenas regulares en el reg. permanente . . . 49
DE CADENAS DE MARKOV
4 APLICACION
A SISTEMAS DE ATENCION
4.1 Denicion del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Modelizacion mediante una cadena de Markov tipo nacimiento y muerte . . . . .
4.3 Modelo general de canales en paralelo de igual velocidad . . . . . . . . . . . . .
4.4 Modelo de dos canales en paralelo de distinta velocidad y cola innita . . . . . .
4.5 Modelo de dos canales en paralelo de distinta velocidad y cola nita de una sola
posicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Modelo de dos canales en serie de distinta velocidad, sin cola intermedia . . . . .
5 APLICACIONES
5.1 Aplicacion comercial (Brand switching) . . . . . . . . . . . . .
5.2 Planeamiento de Personal . . . . . . . . . . . . . . . . . . . . .
5.3 Gestion de inventarios . . . . . . . . . . . . . . . . . . . . . . .
5.4 Planeamiento de produccion . . . . . . . . . . . . . . . . . . . .
5.5 Analisis de fallas . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Analisis de cuentas . . . . . . . . . . . . . . . . . . . . . . . . .
5.7 Estudio de conabilidad en un sistema de lneas de transmision
BIBLIOGRAFIA
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
54
54
56
58
69
72
73
78
78
82
86
89
93
95
97
102
Cadenas de Markov 2
PROLOGO
Las cadenas de Markov comprenden un captulo particularmente importante de
ciertos fenomenos aleatorios que afectan a sistemas de naturaleza dinamica y
que se denominan procesos estocasticos. Deben su nombre a Andrei Andreivich
Markov, matematico ruso que postulo el principio de que existen ciertos procesos cuyo estado futuro solo depende de su estado presente y es independiente
de sus estados pasados. Dichos procesos, denominados proceso de Markov, as
como un subconjunto de ellos llamados cadenas de Markov, constituyen una
herramienta matematica muy general y poderosa para el analisis y tratamiento
de un sinn
umero de problemas de caracterstica aleatoria en campos de muy
diversa ndole, como ser la fsica, la Ingeniera y La Economa por citar solo
unos pocos.
En el captulo 1 se describen los procesos estocasticos y dentro de los mismos
se encuadran a los procesos y cadenas de Markov. En el captulo 2 se analizan en detalle a las cadenas de Markov de parametro discreto, deniendose las
probabilidades de transicion y de estado y las ecuaciones generales que rigen el
comportamiento de esas cadenas, las que luego se aplican al estudio de las principales cadenas ergodicas y no ergodicas. En el captulo 3 se sigue un esquema
similar aplicado a las cadenas de Markov de parametro continuo, que son luego
utilizadas en el captulo 4 para la modelizacion de los sistemas de atencion. Por
u
ltimo en el captulo 5 se indican otras aplicaciones de las cadenas de Markov.
Queremos dejar constancia de nuestro profundo agradecimiento a los ingenieros
Eduardo Dieguez y Fernando Salvador por la exhaustiva tarea de revision efectuada y por los invalorables consejos y sugerencias que nos han formulado en
la elaboracion del texto.
Los Autores
Cadenas de Markov 3
1
1.1
PROCESOS ESTOCASTICOS
Denici
on de Proceso Estoc
astico
Ejemplo 1.a
En un sistema de generacion de energa electrica,
el pronostico de la potencia electrica horaria
requerida para un da es un proceso estocastico,
en el cual son:
t= 0, 1, 2 ...... 24: horas del da.
X(t)= pronostico de la potencia electrica requerida.
px(t)= probabilidad de estado asociada.
1.2
Clasicaci
on de los Procesos Estoc
asticos
Para su estudio los procesos estocasticos pueden clasicarse de diversas maneras, como se indica a continuacion.
1.2.1) Clasicacion de los procesos estocasticos seg
un la memoria de la historia
de estados
Cadenas de Markov 4
Cadenas de Markov 5
Cadenas de Markov 6
Ejemplo 1.b
El siguiente es un proceso con tres variantes que permiten ejemplicar
cada uno de los tres tipos de procesos mencionados. Dado un bolillero
con tres bolillas: 1, 2 y 3, se denen las siguientes experiencias de
pruebas repetidas:
a) Se extraen bolillas con reposicion y los resultados aleatorios 1, 2
o 3 denen los estados X(t) del siguiente proceso:
si, si la bolilla es 1 o 2
() =
= 1, 2, 3, . . .
no, si la bolilla es 3
1/3
89:;
?>=<
este es un proceso aleatorio puro de ensayos indeno^
pendientes, pues la probabilidad de presentacion de
2/3
1/3
los estados si y no en t valen 2/3 y 1/3 respec
0123
7654
siS
tivamente, independientemente de cual haya sido el
2/3
estado anterior.
Lo dicho se ilustra el siguiente grafo de transiciones sucesivas
entre estados, en el cual los nodos representan los estados del proceso, los arcos las transiciones sucesivas posibles entre estados y los
atributos de los arcos las probabilidades condicionales de transicion
entre dos estados sucesivos.
b) Se estraen bolillas con o sin reposicion seg
un sea 1 o 2, y 3 respectivamente, deniendose los estados X(t) del siguiente proceso:
{
}
si,
() =
= 1, 2, 3, . . .
no, si la bolilla es 3, (y no se reponen)
este es un proceso tipo Markov pues conocido un estado X(t) en t se pueden calcular las
probabilidades de los estados X(t+1) en t+1,
tal como se indica en el grafo de transiciones.
89:;
?>=<
no^
7654
0123
siS
2/3
1
1/3
Cadenas de Markov 7
() =
= 1, 2, 3, . . .
no, si la bolilla es 2 o 3, (y no se reponen)
este es un proceso con memoria pues la probabilidad del estado X(t+l)= si, requiere el
conocimiento de los estados X(t) y X(t-1), tal
como se indica en el grafo de transiciones; y lo
propio para el estado X(t+l)= no.
89:;
?>=<
no^
0123
7654
siS
2/3
1/3
Cadenas de Markov 8
Naturaleza
del
parametro
tiempo t
Cadenas de Markov 9
tiempo
Con referencia especcamente a las cadenas de Markov, de parametro
discreto o continuo, los distintos estados de la variable X(t) se suelen representar genericamente con letras: i, j, k, etc. En particular los valores
de dichos estados dependen de la naturaleza del sistema que se modela,
pero habitualmente se utilizan n
umeros enteros: 0, 1, 2, . . . , . Luego para
las cadenas de Markov la probabilidad condicional da transicion (1.4) se
expresa de la siguiente manera:
{( + ) = /() = } = (, + )
(1.5)
(1.6)
(estados cont.)
Procesos
Procesos de Markov
}{
{
Procesos
de
Markov
Cadenas
de
p.
discr.
homogeneas
Estoc
asticos
de Markov
de p.cont.
no homogen.
Cadenas de Markov 10
DE PARAMETRO
DISCRETO
= 0, 1, 2, . . .
= = 0, 1, 2, . . .
() = {(+) = /() = }; con:
(2.1)
= 0, 1, 2, . . . ,
= 0, 1, 2, . . . ,
0
1
() = ..
.
..
.
0
00 ()
10 ()
..
.
..
.
0 ()
1
01 ()
11 ()
..
.
..
.
1 ()
......
......
......
......
0 ()
1 ()
..
.
..
.
()
(2.2)
Cadenas de Markov 11
0 () 1 ;
,
(2.3)
() = 1 ; = 0, 1, . . . ,
(2.4)
=0
con = = 1, 2, 3, . . .
b) Probabilidad de transicion de 1 paso
Es un caso particular de la (2.1) y representa la probabilidad condicional de transicion del estado i al estado j, en un intervalo = 1.
{
(1) = {( + 1) = /() = }; con:
= 0, 1, 2, . . .
= 0, 1, 2, . . . ,
= 0, 1, 2, . . . ,
(2.5)
0
1
() = ..
.
..
.
0
00
10
..
.
..
.
0
1
01
11
..
.
..
.
1
......
......
......
......
0
1
..
.
..
.
(2.6)
Ejemplo 2.a
Si en la cadena de Markov descripta en la experiencia b) del ejemplo
l.b se denominan:
estado 0 = no
estado 1 = si
el grafo y la matriz de transicion de 1 paso son respectivamente:
Cadenas de Markov 12
= 0
1
0
0
1/3
1
1
2/3
0123
7654
0^
7654
0123
1S
1/3
2/3
Ejemplo 2.b
Si bien la experiencia a) del ejemplo l.b corresponde a 1 proceso de
ensayos independientes, se lo puede tratar dentro de la teora de las
cadenas de Markov, siendo sus estados, el grafo y la matriz de transicion de 1 paso las siguientes:
estado 0 = no
estado 1 = si
2/3
7654
0123
0^
1/3
7654
0123
1S
1/3
1/3
1/3
2/3
2/3
2/3
= 0, 1, 2, . . .
= 0, 1, 2, . . . ,
= 0, 1, 2, . . . ,
(2.7)
=0
{
. ;
= 0, 1, . . . ,
= 0, 1, . . . ,
(2.8)
Cadenas de Markov 13
Para su demostracion se denen los conjuntos A, y C cuyos elementos son ternas ordenadas de eventos: la primera componente es el
estado del sistema en t, la segunda en t+1 y la tercera en t+2
adem
as se cumple que: ( ) = (/). ()
(2) = (/) =
( )
=0
()
(/ ). ( )
=0
()
Cadenas de Markov 14
(2) = (/) =
()
( ). ( /).
=0
()
=0
00 (2)
10 (2)
..
(2) =
.
..
.
0 (2)
01 (2) . . . . . .
11 (2) . . . . . .
..
.
..
.
1 (2) . . . . . .
0 (2)
1 (2)
..
.
..
.
(2)
(2.9)
y aplicando la ecuacion de Chapman (2.8) a cada uno de los elementos de la matriz (2.9) queda la expresion matricial de la ecuacion de
Chapman-Kolmogorov:
00 (2) . . .
..
.
(2) =
..
.
0 (2) . . .
P(2)=P.P= 2
0 (2)
00 01 . . .
..
.
..
= ..
.
.
..
..
..
.
.
.
(2)
0 1 . . .
0
00 . . .
..
x 10
.
..
..
.
.
0 . . .
0
1
..
.
(2.10)
Ejemplo 2.c
La matriz de transicion de 2 pasos de la cadena del Ejemplo n 2.a,
aplicando la ecuacion (2.10) es:
Cadenas de Markov 15
(2) =
0, 33 0, 67
=
0, 33 0, 67
0, 33 0, 67
0,67
=
0, 22 0, 78
0123
7654
0^
0,33
0123
7654
1S
0,22
0,78
La ecuacion de Chapman-Kolmogorov (2.10) es una condicion necesaria, pero no suciente para que una cadena sea Markoviana.
d) Expresion qeneral de la ecuacion de Chapman-Kolmogorov
En forma generica la probabilidad de transicion de n pasos es:
= 0, 1, 2, . . .
= 1, 2, . . .
() = {( + ) = /() = }; con:
(2.11)
= 0, 1, 2, . . . ,
= 0, 1, 2, . . . ,
. ( 1) : forma a)
=0
= 1, 2, . . .
; con: = 0, 1, 2, . . . , (2.12)
() =
= 0, 1, 2, . . . ,
( 1). : forma b)
=0
Cadenas de Markov 16
00 ()
10 ()
() =
..
.
0 ()
01 () . . . . . .
11 () . . . . . .
0 ()
1 ()
1 () . . . . . .
()
(2.13)
() =
00 () . . .
..
.
..
.
0 () . . .
0 ()
00 01 . . .
..
.
..
.
= ..
.
..
..
..
.
.
.
()
0 1 . . .
0
00 ( 1) . . .
..
.
x 10 ( 1)
..
..
.
.
0 ( 1) . . .
0 ( 1)
1 ( 1)
..
.
( 1)
P(n)=P.P(n-1)
extendiendo la ecuacion anterior en forma recursiva se obtiene:
P(n)= P . P(n-l) = P . P . P(n-2) = P . P . P . P(n-3)= . . .
() =
(2.14)
Cadenas de Markov 17
(2) = = . =
0, 33 0, 67
x
0, 33 0, 67
0
4
0, 22 0, 78
(4) = = . =
(5) = = . =
0, 259 0, 741
=
0, 259 0, 741
0, 247 0, 753
0, 259 0, 741
0, 247 0, 753
x
0, 33 0, 67
0, 259 0, 741
0, 222 0, 778
0, 33 0, 67
0, 222 0, 778
=
0, 247 0, 753
0, 251 0, 749
(2.16)
Cadenas de Markov 18
() 1 ;
()
= 1 ; con = 0, 1, 2, . . .
(2.17)
(2.18)
=0
(2.19)
(2.20)
(2.21)
(0). ; con = 0, 1, . . . ,
(2.22)
=0
Como antes, el conjunto de probabilidades de estado luego de 1 paso (1), j, denen el vector de
probabilidades de estado luego de 1 paso:
(2.23)
Cadenas de Markov 19
p(1)= p(0) . P
00 . . . 0
1
x ..10
..
.
.
0 . . .
(2.24)
(0). () : forma a)
=0
1, 2, . . .
; con: =
(2.26)
() =
=
0, 1, 2, . . . ,
1).
:
forma
b)
=0
(2.27)
Cadenas de Markov 20
00 () . . . 0 ()
()
1 ()
x 10..
..
.
.
0 () . . . ()
(2.29)
() =
(0). ()
(2.30)
( 1).
0 (0) = 0, 5
(0) = 0, 5 0, 5
1 (0) = 0, 5
las probabilidades de 1, 2, 3 y 4 pasos seran respectivamente:
(1) = (0). = 0, 5 0, 5 x
0
1
= 0, 167 0, 833
0, 333 0, 667
(2) = (0). 2 = 0, 5 0, 5 x
0, 333 0, 667
= 0, 278 0, 722
0, 222 0, 778
Cadenas de Markov 21
2.2
(3) = (0). 3 = 0, 5 0, 5 x
0, 222 0, 778
= 0, 241 0, 759
0, 259 0, 741
(4) = (0). 4 = 0, 5 0, 5 x
0, 259 0, 741
= 0, 253 0, 747
0, 247 0, 753
Clasicaci
on de las cadenas de Markov Homog
eneas en erg
odicas
y no erg
odicas
A continuacion se efect
ua una clasicacion de las cadenas de Markov homogeneas
seg
un la posibilidad o no que tengan de ser reducibles o separables en cadenas
mas chicas para el estudio de su comportamiento en los llamados regmenes
transitorio y permanente. Esta clasicacion dara lugar a la denicion de las
cadenas ergodicas o irreductibles y las cadenas no ergodicas o separables. Previamente se requiere dar la denicion de estados accesibles y comunicantes y
luego clasicar los estados en clases.
2.2.1) Denicion de estados accesibles y comunicantes
Un estado j es accesible desde un estado i si se cumple que para alg
un paso
1 es () > 0, lo cual signica que es posible pasar desde el estado i
al estado j luego de un n
umero n de transecciones, y se escribe: .
La accesibilidad es una propiedad transitiva, es decir:
si
Ejemplo 2.f
En la cadena de la gura el estado 6 es accesible desde el 5 en un paso y
desde el 4 en dos pasos, a traves del 5. El estado 1 no es accesible desde el 2.
Cadenas de Markov 22
Accesibilidad en una transicion
0123
7654
0
70123
/ 654
1
70123
7654
0123
/ 654
/3
2 ==
@
==
==
==
==
7654
0123
7654
0123
7 =^ =
4S
==
==
==
==
7654
0123
7654
0123
o
6K
5
0
1
2
3
4
5
6
7
0 1 2 3 4 5 6 7
1 = {2}
= {3, 4}
2
3 = {5, 6, 7}
Las clases comunicantes se pueden clasicar en recurrentes y transitorias.
(a) Clases recurrentes- Estados absorbentes
Una clase es recurrente cuando la probabilidad de que la cadena se
encuentre en un estado de dicha clase despues de transiciones es
positiva; esto signica que una vez que la cadena ha alcanzado dicha
Cadenas de Markov 23
estados absorbentes
Cadenas de Markov 24
0,5
0,2
"
7654
0123
7654
0123
01X 1b
1
11
1 0,2
1 11
0,6
1
7654
0123
2
0, 5 0, 5
= 0, 2 0, 2 0, 6
1
todos sus elementos son no nulos, por lo tanto es una cadena ergodica
regular. Como ejemplo: desde el estado 3 se puede acceder al mismo
estado recien en 3 pasos.
(b) Cadenas periodicas
Una cadena ergodica es periodica cuando no se puede encontrar una
potencia r de P para la cual todos los elementos de sean no nulos;
en estas condiciones las sucesivas potencias de la matriz denotan
un patron periodico que permite asegurar siempre la presencia de al
menos un cero en .
Ejemplo 2.h
Dada la cadena siguiente:
Cadenas de Markov 25
7654
0123
0g
'
7654
0123
:1
1
1/2
z
7654
0123
2
0 1 0
= 1/2 0 1/2
0 1 0
1/2
0 1 0
= 1/2 0 1/2 ;
0 1 0
3
1/2 0 1/2
= 0 1 0
1/2 0 1/2
4
7654
0123
0f
0,5
0,2
0,3
7654
0123
2f
0,7
0,6
&
7654
0123
1S
0,8
&
7654
0123
3S
0, 5
0, 8
=
0
0
0, 5
0, 2
0
0
0
0
0, 7
0, 6
0
0
0, 3
0, 4
0,4
Cadenas de Markov 26
7654
0123
0g
'
7654
0123
1
0,5
1
0,5
7654
0123
2
0,7
0
1
2
0
1
2
0, 7 0, 3
0, 5
0, 5
1
es una cadena absorbente separable en una clase comunicante transitoria C={ 0,1} y un estado absorbente 2, para el cual se cumple que
22 = 1
(b) Cadenas cclicas
Una cadena cclica es una cadena no ergodica en la cual el proceso
pasa de un estado a otro cclicamente seg
un un cierto patron de comportamiento. El ciclo es un camino cerrado entre estados de una clase
recurrente.
Para que una cadena sea cclica debe cumplirse que:
tenga por lo menos un ciclo, y
Cadenas de Markov 27
7654
0123
0
1
111
0,2
1 0,3
1 111
'
7654
0123
7654
0123
1g
2
1
0
1
2
0
1
2
0, 5 0, 2 0, 3
1
1
regulares
Cadenas erg
odicas: una clase comunicante recurrente
periodicas
absorbentes
cclicas
Cadenas de Markov 28
0 . . .
..
.
lim () = lim = 0 . . .
..
.
0 . . .
. . .
..
.
. . .
..
.
. . .
..
.
..
.
(2.31)
Cadenas de Markov 29
0 . . .
..
.
lim () = (0). lim () = 0 (0) . . . (0) . . . (0) x 0 . . .
..
.
0 . . .
. . .
..
.
. . .
..
.
. . .
..
.
..
.
(0) = 1, queda:
=0
lim () = 0 . . . . . .
(2.32)
las (2.31) y (2.32) expresan que en una cadena de Markov regular, luego
de un n
umero sucientemente grande de transiciones ( ), sus probabilidades de transicion () y de estado () se estabilizan en valores
lmites iguales para cada estado j, e independientes del estado inicial i. Este
estado se conoce como regimen permanente o estacionario, y sus probabilidades de estado representan los porcentajes de tiempo que la cadena
permanece en cada estado j luego de un perodo largo de tiempo.
Esta distribucion de estados lmites se puede determinar mediante tres
caminos alternativos.
(a) mediante el lmite de la ecuacion (2.31):lim () = lim ;
(b) mediante una ecuacion que se deriva de la 2da. igualdad de la ecuacion
de estado (2.30). Para , seg
un lo expresado mas arriba se
cumple que:
lim () = lim ( 1) =
siendo:
=0
= 1
(2.33)
(2.34)
Cadenas de Markov 30
luego con las ecuaciones (2.33) y (2.34), conocida la matriz de transicion P de la cadena regular, se puede calcular el vector de probabilidades p del regimen permanente.
(c) mediante la llamada ecuacion de balance de ujos probabilsticos,
que se deriva de la ecuacion (2.33). En efecto, si se desarrolla esta
u
ltima es:
= 0 . . . . . . = 0 . . . . . .
00 . . .
..
.
x 0 . . .
..
.
0 . . .
0 . . .
..
.
. . .
..
.
. . .
0
..
.
..
.
=
. =
. + .
=0
agrupando queda:
. = (1 )
y aplicando la ecuacion (2.4) a las transiciones del estado j a un conjunto exhaustivo de estados k es:
= 1 1 =
reemplazando queda:
. = .
; = 0, . . . ,
(2.35)
Cadenas de Markov 31
nodo.
==
@
==
JJ ===
u:
JJ =
uuu
JJ ==
u
JJ
uuu
$
WPQRS
/ VUT
/
JJ
u: @
== JJ
u
== JJ
uu
uu
== JJ$
uu
==
==
Ejemplo 2.l
Dada la siguiente cadena:
0,5
0,2
"
7654
0123
7654
0123
01X 1b
1
11
1 0,2
1 11
0,6
1
7654
0123
2
0,5
0, 5 0, 5 0
= 0, 2 0, 2 0, 6
1
0
0
0, 35 0, 35 0, 30
= 0, 74 0, 14 0, 12
0, 50 0, 50 0
2
16
0, 5 0, 3125 0, 1875
= 0, 5 0, 3125 0, 1875 = 17 = 18 = lim
0, 5 0, 3125 0, 1875
Cadenas de Markov 32
(2.32)
Analogo resultado puede obtenerse mediante la aplicacion de las ecuaciones (2.33) y (2.34), que en este ejemplo son:
0, 5 0, 5 0
0 1 2 = 0 1 2 x 0, 2 0, 2 0, 6
1
0
0
0 + 1 + 2 = 1
ordenando queda:
0, 5 0 0, 2
0, 5 0 + 0, 8
0, 6
0 +
1 2
1
1 + 2
1 + 2
=
=
=
=
0
0
0
1
0, 5 0 0, 2 1 2 = 0
0, 5 0 + 0, 8 1
= 0
0 +
1 + 2 = 1
ecuacion del tipo: p . A = B, siendo:
0, 5 0, 5 0
0, 2 0, 2 0, 6
1
0
0
= 0 0 1
Cadenas de Markov 33
para el nodo 0: 0, 2 1 + 2 = 0, 5 0 0, 5 0 0, 2 1 2 = 0
0, 6 1 + 2 = 0
y de la (2.34):
0 +
1 + 2 = 1
'
7654
0123
:1
1
1/2
z
7654
0123
2
1/2
0 1 0
= 1/2 0 1/2
0 1 0
seg
un se ha visto en dicho ejemplo el lmite de cuando n tiende a
Cadenas de Markov 34
0
1
0 1 2 = 0 1 2 x 1/2 0
0
1
0 + 1 + 2 = 1
y (2.34) son:
0
1/2
0
Seg
un se ha dicho anteriormente, dentro de las cadenas no ergodicas merecen
especial atencion las cadenas absorbentes y las cadenas cclicas. Ademas, de las
mismas interesa fundamentalmente estudiar su comportamiento en el regimen
transitorio, pues en el permanente queda caracterizado por el estudio del comportamiento de sus clases recurrentes como cadenas ergodicas independientes.
2.4.1) Estudio del comportamiento de las cadenas absorbentes.
Como se ha denido en 2.2.3, una cadena absorbente es una cadena no
ergodica separable en:
uno o varios estados absorbentes (estados con probabilidad nula de ser
abandonados, por lo tanto cuando son alcanzados por el proceso, este
se detiene denitivamente o se detiene para luego comenzar desde otro
estado), y
uno o varios estados no absorbentes constituidos por clases comunicantes transitorias o estados sin retorno, desde cada una de las cuales
se puede acceder a por lo menos un estado absorbente.
Ejemplos de cadenas absorbentes se pueden encontrar en m
ultiples
procesos de la realidad. Uno de los mas ilustrativos lo constituyen los
procesos de inspeccion como el del siguiente problema.
Ejemplo 2.n
Se tiene que inspeccionar una muestra de tres piezas hasta encontrar una
Cadenas de Markov 35
pieza que sea mala, con probabilidad p, o las tres piezas buenas.
Se tienen los siquientes estados:
Estados
0 1 2 3 4 5 6
Buenas 0 0 1 1 2 2 3
Situacion
Malas 0 1 0 1 0 1 0
con los siguientes grafo y matriz de transicion:
1
7654
0123
/1
1
0123
7654
7654
0123
70123
/ 654
8}2
0
3
}
}}
1 }}
}}
}}
}
}} 1
}}
}
}
1
1
}}
}
}
~
0123
7654
7654
0123
7654
0123
/5
86
4
1
0
1
2
=
3
4
5
6
0 1
2
3
4
5
6
(1 )
1
(1 )
1
(1 )
1
1
Cadenas de Markov 36
0
a estados
n estados
=
en donde son:
* I(axa): matriz identidad; cada elemento representa la probabilidad de
permanecer en un estado absorbente en un paso
* 0(axn): matriz nula; cada elemento representa la probabilidad de pasar
de un estado absorbente a uno no absorbente en un paso
* A(nxa): matriz de estados absorbentes; cada elemento representa la
probabilidad de ser absorbido (pasar de un estado no absorbente a uno
absorbente) en un paso
* N(nxn): matriz de estados no absorbentes; cada elemento representa
la probabilidad de no ser absorbido (pasar de un estado no absorbente
a otro no absorbente) en un paso
En la cadena del ejemplo 2.n sera:
1
3
5
=
6
0
2
4
1 3 5
1
1
1
1
(1 )
1
(1 )
(1 )
Cadenas de Markov 37
1
|{z}
al comienzo
+ |{z}
1 +
en un paso
2
|1
{z }
en dos pasos
+ . . . + |1
{z } + . . . =
(2.36)
Ejemplo 2.
n
Dada la siguiente cadena absorbente:
1
7654
0123
@3
1/4
3/4
1/2
,
7654
0123
0
= 1
2
3
1
2 3
1/2 1/2
1
1/4
3/4
1
1
= 3
0
2
1
1
en n pasos
siendo lim = 0 = / = ( )1
7654
0123
@1
1/2
7654
0123
0l
1
1/2
1/2
3/4 1/4
Cadenas de Markov 38
donde son:
0
= 0
2
2
1/2
1/4
= 0
2
1
1/2
3
3/4
luego resulta:
1
1/2
1/4
1
( )
= 0
2
0
2
8/7 4/7
2/7 8/7
/ = ( )1
1
1
..
.
1
Ejemplo 2.o
Para la cadena del ejemplo 2.
n es:
(2.37)
Cadenas de Markov 39
0
2
8/7 4/7
2/7 8/7
= 0
2
1 = 0 12/7
1
2 10/7
Es decir que si la cadena comienza en el estado no absorbente 0 tardara 12/7 transiciones en promedio antes de ser absorbida, si en cambio
comienza en el estado 2, tardara 10/7 transiciones.
b.1) Extension para cadenas no absorbentes
Para determinar el n
umero de pasos promedio para alcanzar un
estado cualquiera j determinado, se procede de manera analoga al
punto anterior, suponiendo que el estado j es absorbente.
Ejemplo 2.p
0,4
0,2
z
7654
0123
0h
0,3
0,6
0,3
0123
7654
41
M
,
7654
0123
2
0,5
0,3
0,4
0
1
2
0
1
2
0, 4 0, 3 0, 3
0, 2 0, 5 0, 3
0, 6 0, 4 0
Para averiguar el n
umero de transiciones que se realizan hasta alcanzar por primera vez el estado 2, se debe considerarlo absorbente;
es decir, la nueva matriz de transicion sera en su formato estandar:
2
0
1
2
0
1
1
0
0
0, 3 0, 4 0, 3
0, 3 0, 2 0, 5
luego:
=
1 0
0, 4 0, 3
0, 6 0, 3
=
1 0
0, 2 0, 5
0, 2 0, 5
Cadenas de Markov 40
( )1 =
2, 08 1, 25
0, 82 2, 50
3, 33
( )1 1 =
3, 32
( ) = ( )1 x
(2.38)
Ejemplo 2.q
Para el ejemplo 2.
n es:
1
( ) = ( )
x = 0
2
= 0
2
0
2
8/7 4/7
2/7 8/7
1
3
4/7 3/7
1/7 6/7
0
2
1
3
1/2 0
0 3/4
Cadenas de Markov 41
1y2
0
1y2
0
1
0
0, 5 0, 5
= 1 0, 5 = 0, 5 (1 )1 = 2
( )1 x 1 = 2 x 1 = 2 0 = 2
En el regimen permanente (largo plazo) el sistema es cclico, y el tiempo
que el proceso pasa en cada estado del ciclo se calcula con el procedimiento
visto para las cadenas ergodicas, ecuaciones (2.33) y (2.34). Para el ejemplo 2.r sera:
0, 5 0, 2 0, 3
(0) (1) (2) x 0
0
1 = (0) (1) (2)
0
1
0
Cadenas de Markov 42
{
= (0)
(0) x 0, 5
(0)
= 0
0, 2 x (0) + (2) = (1)
(1) = (2) = 0, 5
Cadenas de Markov 43
DE PARAMETRO
CONTINUO
0
0
() = {( + ) = /() = }; con:
(3.1)
= 0, 1, 2, . . . ,
= 0, 1, 2, . . . ,
0
1
() = ..
.
..
.
0
00 ()
10 ()
..
.
..
.
0 ()
1
01 ()
11 ()
..
.
..
.
1 ()
......
......
......
......
0 ()
1 ()
..
.
..
.
()
cumpliendose:
0 () 1 ;
,
() = 1 ; = 0, 1, . . . ,
=0
con 0 . . .
(3.3)
(3.4)
(3.2)
Cadenas de Markov 44
Ademas en el caso de parametro t continuo, las probabilidades de transicion deben ser continuas en t = 0, es decir que deben cumplirse las
siguientes condiciones: Ejemplo 3.a
{
lim () =
0
0 ; =
1 ; =
(3.5)
(3.6)
00 () 01 ()
0, 7 + 0, 3 0, 3 0, 3
=
() =
10 () 11 ()
0, 7 0, 7 0, 3 + 0, 7
con 0
luego para cada valor de se tiene una matriz distinta, por ejemplo:
para = 0
1 0
(0) =
0 1
0, 88 0, 12
(5) =
0, 28 0, 72
para
7654
0123
0f
0,12
0,28
0,7
0, 7 0, 3
() =
0, 7 0, 3
0
0
0,88
para = 0, 5
7654
0123
0f
7654
0123
0f
0,3
0,7
&
7654
0123
1S
1
&
7654
0123
1S
0,72
&
7654
0123
1S
0,3
Cadenas de Markov 45
conduce, por la ecuacion (3.5) a probabilidades de transicion que tienden a cero, es decir que cuando 0 () 0.
Para solucionar el inconveniente de tener que trabajar con probabilidades () diferenciales, se introduce el concepto de la derivada de
la probabilidad de transicion entre dos estados i y j distintos en = 0.
Esta nueva magnitud, llamada tasa o intensidad de transicion, expresa
la variacion de la probabilidad de transicion entre estados diferentes de
la cadena en un intervalo peque
no, referida a un unitario (por
el concepto de derivada), y queda denida matematicamente como:
[
=
()
=0
(3.7)
()
=
=0
[
(3.8)
00 01 . . . . . . 0
10 11 . . . . . . 1
.
..
..
= ..
.
.
..
..
..
.
.
.
0 1 . . . . . .
(3.9)
Cadenas de Markov 46
de (3.4)
() = 1
=0
derivando:
luego: =
]
()
=0
=0
=
[ ()]=0 =
= 0
=0
=0
(3.10)
La ecuacion (3.10) expresa que los elementos de la diagonal principal de la matriz D se calculan como la suma de los elementos de su
la cambiada de signo.
Ejemplo 3.b
La matriz de tasas D correspondiente al ejemplo 3.a es:
=
0, 3 0, 3
0, 7 0, 7
0
() =
( ). (); con:
(3.11)
= 0, 1, 2, . . . ,
=0
o matricial:
= 0, 1, 2, . . . ,
Cadenas de Markov 47
() = ( ) . ()
(3.12)
Ejemplo 3.c
Tomando la matriz de probabilidades de transicion del ejemplo 3.a:
0, 7 + 0, 3 0, 3 0, 3
() =
0, 7 0, 7 0, 3 + 0, 7
se vericara la ecuacion de Chapman (3.11) y (3.12) tomando como
ejemplo = 0, = 1, = 3, = 0, 5. Luego son:
por calculo directo:
01 (3) = 0, 3 0, 33 = 0, 285
por aplicacion de la ecuacion de Chapman:
01 (3) = 00 (2, 5) . 01 (0, 5) + 01 (2, 5) . 11 (0, 5) =
= 0, 725 . 0, 118 + 0, 275 . 0, 275 = 0, 285
luego verica.
3.1.2) Probabilidad incondicional de estado
(a) Denicion
La probabilidad incondicional de estado es:
{
0
() = = (); con:
= 0, 1, 2, . . . ,
(3.13)
(3.14)
Cadenas de Markov 48
cumpliendose:
0 () 1 ,
() = 1 , con 0
(3.15)
(3.16)
=0
(3.17)
y el vector de probabilidades:
(0) = 0 (0) 1 (0) . . . . . . (0)
(3.18)
(0). ()
: forma a)
=0
0
; con: 0
() =
(3.19)
=
0,
1,
2,
.
.
.
,
( ). () : forma b)
=0
o matricial:
{
() =
=
(0)
. ()
= ( ) . ()
(3.20)
expresion generica matricial de la ecuacion de estado para el caso continuo. Las ecuaciones (3.12) y (3.20) permiten calcular la probabilidad de cada uno de los estados de la cadena, en cualquier instante de
tiempo t.
Cadenas de Markov 49
3.2
0 . . .
..
.
lim () = 0 . . .
..
.
0 . . .
. . .
..
.
. . .
..
.
. . .
..
.
..
.
(3.21)
..
.
0 . . .
. . .
..
.
. . .
..
.
. . .
..
.
..
.
(0) = 1, queda:
=0
lim () = = 0 . . . . . .
(3.22)
Igual que en el caso discreto, las (3.21) y (3.22) expresan que en una cadena de
Markov regular, luego de un tiempo t sucientemente grande sus probabilidades
de transicion () y de estado () se estabilizan en valores lmites similares
e independientes del estado inicial y del tiempo t, deniendose a este estado
Cadenas de Markov 50
siendo de (3.16)
= . ()
= 1
=0
(3.23)
(3.24)
0 . . . . . .
00 () . . .
..
.
x 0 () . . .
..
.
0 () . . .
0 () . . .
..
.
() . . .
..
.
() . . .
0 ()
..
.
() = 0 . . . . . .
..
.
()
Cadenas de Markov 51
0 . . . . . .
{z
00 . . .
..
.
0 . . .
..
.
0 . . .
|
0 . . .
..
.
. . .
..
.
. . .
0
..
.
..
.
{z
0 0 ... 0
(3.25)
{z
0
siendo de (3.24):
0 . . . . . .
1
1
..
.
1
= 1
y de (3.10)
(3.26)
(3.27)
. = 0 ;
=0
m+1
ecuaciones
= 1
(3.28)
(3.29)
=0
siendo:
(3.27)
Ademas por (3.27) la suma de los elementos de cualquier la de la matriz D es cero, luego una columna cualquiera es combinacion lineal de las
m columnas restantes, o lo que es equivalente: una cualquiera de las m+1
ecuaciones es combinacion lineal de las m ecuaciones restantes, pudiendose
eliminar. Si se desecha por ejemplo la u
ltima ecuacion, su lugar formal en
la expresion matricial (3.25) puede ser ocupado por la (3.26), eliminando
la u
ltima columna de D, e incorporando en su lugar el vector de unos, y
reemplazando el u
ltimo cero del vector de terminos independientes por un
Cadenas de Markov 52
{z
00
10
...
0
0
01
11
...
...
1
...
...
...
...
0,1
1,1
...
...
,1
{z
1
1
...
1
}
0 0 ... 0 1
(3.30)
=
{z
1
(3.27)
(3.31)
. + . =
. .
y ordenando:
. = .
(3.32)
Cadenas de Markov 53
Cadenas de Markov 54
DE CADENAS DE MARKOV
APLICACION
A SISTEMAS DE ATENCION
4
4.1
Denici
on del problema
Naturaleza del
servicio
Naturaleza de
las estaciones
clientes
aviones
llamadas telefonicas
mensajes
maquinas en reparacion
vehculos
ventas de un artculo
aterrizaje
conversaciones
decodicacion
reparacion
paso en un cruce
vendedores
pista
circuitos
decodicadores
mecanicos
semaforo
Cadenas de Markov 55
|
|
{z
}
linea de espera
{z
sistema
Seg
un que la naturaleza del estudio sea de analisis o de dise
no, los interrogantes que surgen en el problema pueden estar dados por:
Cadenas de Markov 56
4.2
Modelizaci
on mediante una cadena de Markov tipo nacimiento
y muerte
medias y respectivamente.
. ()
= ()
Cadenas de Markov 57
como puede observarse el proceso Poisson de arribos es Markoviano homogeneo, pues las probabilidades de arribos solo dependen del tiempo
t y no de la historia. Luego las tasas de arribos seran:
]
0 (0) + 0 .(0)
. = . ()
=0
=
!
=0
1
= 1
]
. ()
= 0 .0 + 0 . =
(4.1)
=0
b) despachos
El regimen de despachos = producidos en un intervalo t es:
()
1
. () = (/, ) =
!
. ()
(4.2)
Cadenas de Markov 58
dt muy peque
nos la probabilidad de que se produzcan x=2 o mas arribos o x=2 o mas servicios es nula (diferencial de segundo orden), luego el
tama
no de la poblacion X(t) = i = n solo puede aumentar en uno, o disminuir en uno o permanecer igual. Esta cadena particular recibe el nombre
de proceso de nacimiento y muerte y queda denida por las tasas de las
ecuaciones (4.1) y (4.2)
`
2
; = + 1 ()
; = 1
()
=
0 ; , / 2
(4.3)
1
XYZ[
_^]\
1
W
WVUT
PQRS
+1
XYZ[
_^]\
+1
W
+1
4.3
+2
..
.
Cadenas de Markov 59
Cadenas de Markov 60
(c) la u
ltima columna de la matriz de tasas se reemplaza por un vector de
unos
Aplicando esta metodologa al caso en estudio se tiene:
Estados i = n =
z
GFED
@ABC
0
z
GFED
@ABC
: 1
0
/
(0)
(1)
(2)
= (3)
( 2)
( 1)
()
3
@ABC
GFED
: 2
2
...
%
GFED
@ABC
n-1
2 F
89:;
?>=<
(0)
(1)
(2)
0
1
2
(0 )
0
0
1 (1 + 1 )
1
0
2
(2 + 2 )
0
0
3
...
...
...
0
0
0
0
0
0
0
0
0
...
...
...
...
+1
8
ONML
HIJK
n+1
+
...
( 1)
...
1
...
0
...
0
...
0
...
0
...
...
...
2
. . . (1 + 1 )
...
...
...
1
...
...
...
...
...
...
...
...
...
...
...
...
......
( )
1
1
1
1
...
1
1
1
...
luego de (3.30): p.A = B se pueden despejar las probabilidades del regimen permanente. En este caso la estructura particular de A hace innecesario el calculo
de 1 pues se puede establecer ecuaciones de recurrencia tal como se indica a
continuacion:
.0 = 0 0
+1 1
=0
(4.4)
.1 =
0 0 1 (1 + 1 )
+2 2
=0
(4.5)
.2 =
1 1
2 (2 + 2 ) +3 3
=0
(4.6)
.....................................................................................................................
.1 =
2 2 1 (1 + 1 ) +
=0
(4.7)
.....................................................................................................................
. =
+1
+2
+3
...
+2
+1
. . . + = 0 (4.8)
Cadenas de Markov 61
luego de (4.4)
0 0 = 1 1
1 =
0
0
1
1 1 = 2 2
2 =
1
1 =
2
1 0
0
2 1
2 2 = 3 3
3 =
2
2 =
3
2 1 0
0
3 2 1
1
1 =
1 . . . 2 1 0
0
. . . 3 2 1
(4.9)
.0
(4.10)
= 1 0 = . . .
(4.11)
=0
obteniendose 0
= 0, 1, . . . ,
Cadenas de Markov 62
{z
..
.
}
y se cumplen:
= = .
;
=
1/
}
= , = 1, 2, . . . , 1
; = /
; = 1/
= , = , + 1, + 2, . . .
luego aplicando las (4.10) y (4.11) quedan:
. para <
z }| {
.0
.. . . .
0 =
=
0
=
.2.3 . . .
!
!
de (4.10)
. para
z
}|
{
.
.
.
.
..
.
.
.
.0
.2 . . . . . . . .
!
|
{z
}|
{z
}
(4.12)
0
!
(4.13)
reemplazando en (4.11):
( 1
)
( 1
)
)
= 0
+
= 0
+
!
!
!
=0
=0
=0
=
=
Cadenas de Markov 63
0 =
( 1
=0
1
! (1 / )
)1
(4.14)
(4.15)
( ) = 0
( )
=
!( )
( )
+1
( )
(/ ) =
= 0
= 0
!
! (/ )
=
+1
1
= 0
=
! (/ ) (1 / )
+1
1
= 0
! (1 / )2
(b)
(4.16)
Cadenas de Markov 64
= () =
. =
=0
z}|{
. +
=0
}|
.
z }| {
. +
.
/ < : .1 = . = 1 reempl. en a:
/ : .1 = . = 1 reempl. en b:
)
]
( 1
= +
1 +
1 = +
=1
(c)
= =
(d)
. = /
(4.17)
(4.18)
(4.19)
(e)
= . = / =
(f) ( > 0)
De la (4.14) y su desarrollo previo surge facilmente:
(4.20)
Cadenas de Markov 65
( > 0) = ( ) = 0
! 1 /
(4.21)
Se demuestra que:
(
)
1
( > ) = 0
(1/ )
! 1 /
(4.22)
(4.23)
1
=1
1 + /(1 )
de (4.15): < 1
de (4.16):
=
(1
)
(4.24)
(4.25)
2
2
=
(1 )
(1 )2
(4.26)
de (4.17): = +
(4.27)
de (4.18): =
(4.28)
de (4.19): = /
(4.29)
Cadenas de Markov 66
de (4.20): = / =
de (4.21): ( > 0) = (1 )
(4.30)
1
=
1
(4.31)
(4.32)
{z
y se cumplen:
= = . ; = 0, 1, . . . , 1
= =
; = 1, 2, . . . , 1
= =
; = , + 1, . . . ,
= 0
Luego aplicando las (4.10) y (4.11) quedan expresiones similares a las (4.12)
y (4.13)
0
!
=
0
!
<
(4.33)
(4.34)
Cadenas de Markov 67
= 0
( 1
=0
=0
0 =
( 1
=0
)
= 0
( 1
=0
+1
1 (/ )
1 (/ )
( )
+
! !
)
=1
))1
(4.35)
=
=
=
=
=
( )
()
/
/
(4.36)
(4.37)
(4.38)
(4.39)
(4.40)
(
siendo = (1 ) = 1
)
0
(4.41)
de (4.35): 0 =
(
) )1 (
)1
1
1 + +1
1
1+
=
=
1
1
1 +1
(4.42)
(4.43)
Cadenas de Markov 68
Tambien en este modelo puede ser 1. Luego de conocida la probabilidad pn de las (4.42) y (4.43) se pueden calcular los indicadores:
(a)
= () =
. = 0
. = 0
= 0 .
=0
=0
=0
( + 1) (1 ) + (1 +1 )
0 .
(1 )2
(
(
= 0
1 +1
1
)
=
. +2 ( + 1) +1 +
(1 )2
(4.44)
si 1 : 0
= 1 = (1 )
a.2) si 1 : 0
=
(1 )2
)
=
= + 2
1
(4.45)
1
+ + 1
1
=
=+
=
+1
1
1
(4.46)
1
2
(4.47)
a.3) si 1 : = +
1
1
( + 2)( 1)
=
12
2
(b)
= ( 1) =
=1
( 1) =
=0
= (1 0 )
(4.48)
=0
b.2)
(
)
1
1
si 1 : 0 =
= 1
=1
+1
+1
(4.49)
(4.50)
Cadenas de Markov 69
1
2
b.3) si 1 : 1 = ( 1) +
1
1
( 1)( + 1)( 1)
= ( 1)
12
2
(4.51)
(c)
=
(4.52)
(d)
= /
; siendo = (1 )
(4.53)
(e)
/
=
. = /
4.4
(4.54)
Cadenas de Markov 70
Estados i =
/2
7654
0123
0Z p
(0)
(1)
(1)
(2)
(3)
(4)
/2
?>=< q
89:;
7654
0123
02
a
!
0123
7654
3`
(0)
(1)
(1)
(2)
(3)
(4)
1
1
2
3
3
4
/2
/2
0
0
0
... 1
( + )
0
0
0
... 1
0
( + )
0
0
... 1
0
( + + )
0
... 1
0
0
0
( + )
( + + )
... 1
0
0
0
0
0
( + ) . . . 1
.............................................................................
.0 =
.1 =
.1 =
89:;
1 ?>=<
1Z
.0
+ .1
2 .0
( + )1
2 .0
+ .2
......
= 0 (4.55)
( + )1
+ .2
= 0 (4.56)
+ .2
= 0 (4.57)
.2 =
.1
.1 ( + + )2
+( + )3
= 0 (4.58)
.3 =
.2 ( + + )3 +( + )4
= 0 (4.59)
................................................................................................................
. =
+1
+1
+2
luego de (4.55): .0 = 1 + 1
+3
+4 . . . = 1 (4.60)
(4.61)
(1 + 1 )
+
2
+
(4.62)
Cadenas de Markov 71
3
+
(4.63)
/2
2 +
0
+
+
(4.64)
de (4.57): 1 =
/2
2 +
0
+
+
(4.65)
.
.
.
.
2 +
0 +
2 +
0 , despejando 2 queda:
+
2( + )
+
2( + )
2( + ) 2( + )
2 =
0
.
.
+
+ +
(
y por
ltimo de (4.60) se despeja 0 :
u
de
: 0 = . . . . . .
(4.66)
(4.67)
Cadenas de Markov 72
4.5
gfed
2 `abc
1, 0, 0
]
/2
gfed
`abc
0, 0, 0 r
(000)
(100)
(010)
(110)
(111)
/2
gfed
`abc
0, 1, 0 r
`abc
gfed
2 1, 1, 0
k
+
(000)
(100)
(010)
(110)
000
100
010
110
/2
/2
0
( + )
0
0
( + )
( + + )
0
0
0
( + )
000
100
010
110
1
1
1
1
1
111
`abc
gfed
1, 1, 1
Cadenas de Markov 73
.000 =
.100 =
.010 =
.110 =
. =
.000
+ .100
2 .000
( + )100
2 .000
+ .010
( + )010
+ .110
=0
+ .110
=0
.100
000
=0
+100
+010
+110
+111 = 1
4.6
Estados i = (a, b)
0 WVUT
PQRS
1, 0 o
WVUT
PQRS
0, 0
Y
WVUT
PQRS
1,
1
A
WVUT
PQRS
PQRS
1, 0 o WVUT
1 , 1
Cadenas de Markov 74
(0, 0)
= (1, 0)
(0, 1)
(1, 1)
(1 , 1)
(0, 0) (1, 0)
(0, 1)
(1, 1)
00 10
01
11
0
0
0
0
( + )
0
( + )
0
0
00
10
01
11
1
1
1
1
1
1 ,1
.00 =
.10 =
.00
.00 .10
. =
= 0 (4.68)
+ .11
.10 ( + )01
.01 =
.11 =
+ .01
+ .1 ,1 = 0 (4.70)
.01 ( + ).11
00
10
01
= 0 (4.69)
11
= 0 (4.71)
1 ,1 = 1 (4.72)
luego de (4.68):
01 =
.00
(4.73)
de (4.71):
11
2
=
.01 =
.00
+
( + )
de (4.68) y (4.74):
(4.74)
Cadenas de Markov 75
10
= .11 + .00 =
2
+
( + )
)
00
(4.75)
( + )
.01 .10 =
=
2
( + )
( + )
)
00
(4.76)
)1
(
2
( + )
= 1+
+
+
( + )
2
(4.77)
(4.78)
+ 12 2
=
1 + 2 + 32 2
(4.79)
1 + 2 + 32 2
(4.80)
00 =
10
01 =
11 = 1 ,1 =
1 2
2
1 + 2 + 32 2
(4.80)
Cadenas de Markov 76
{
a) 1
00 = 01 = 0
10 = 11 = 1 ,1 = 1/3
00
b) = 1 10
11
00
c) 1 10
11
= 01 = 2/9
= 3/9
= 1 ,1 = 1/9
= 1 2
= 01 =
= 1 ,1 = 0
Por u
ltimo los indicadores: longitud del sistema L, n
umero promedio de canales
que estan efectivamente trabajando: , y grado de ocupacion de cada uno de
ellos: 1 y 2 , quedan expresados de la siguiente forma:
2 + 25 2
+ 1 ,1 ) =
1 + 2 + 32 2
(4.82)
= 10 + 01 + 1 ,1 + 211
2 + 22
=
1 + 2 + 32 2
(4.83)
1 = 10 + 11
+ 2
=
1 + 2 + 32 2
(4.84)
2 = 01 + 11 + 1 ,1
+ 2
=
1 + 2 + 32 2
(4.85)
= 10 + 01 + 2(11
Cadenas de Markov 77
c) 1 : = 2 ; = 2 ; 1 = 2 =
Cadenas de Markov 78
APLICACIONES
5.1
Aplicaci
on comercial (Brand switching)
Cadenas de Markov 79
0, 3 0, 4
=
0, 4 0, 25
0, 2 0, 3
0,3
89:;
?>=< j
V
* ?>=<
6 89:;
0,4
0, 3
0, 35
0, 5
0,25
0,4
0,5
0,3
?>=< v
89:;
S
0,2
0,35
0,5
(1)
(2)
1
= [0, 3 0, 4 0, 3]
(1)
1 .
0, 3 0, 4 0, 3
= [0, 3 0, 4 0, 3] 0, 4 0, 25 0, 35 = [0, 31 0, 31 0, 38]
0, 2 0, 3 0, 5
(2)
(3)
1
(2)
1 .
0, 3 0, 4 0, 3
= [0, 31 0, 31 0, 38] 0, 4 0, 25 0, 35 = [0, 293 0, 3155 0, 3915]
0, 2 0, 3 0, 5
Cadenas de Markov 80
(1)
1 . 2
0, 31 0, 31 0, 38
= [0, 3 0, 4 0, 3] 0, 29 0, 3275 0, 3825 = [0, 293 0, 3155 0, 3915]
0, 28 0, 305 0, 415
() + () + () = 1
Resolviendo este sistema de 3 ecuaciones con 3 incognitas resulta:
p(x)=0,2919 p(y)=0,3135 p(z)=0,3946
Es decir, a largo plazo los porcentajes de participacion en el mercado seran
29,19%, 31,35% y 39,46?% para las marcas X, Y y Z respectivamente. Al
mismo resultado pudo haberse arribado calculando una potencia de P para
un n
umero alto de transacciones:
Cadenas de Markov 81
0, 3
0, 35
1
1
0
0, 3 0, 3
0, 35 0, 4
0
0, 4
0, 25
1 0
0, 3 0, 4
0, 7 0, 4
=
0 1
0, 4 0, 25
0, 4 0, 75
( )1 =
2, 0548 1, 0959
1, 0959 1, 9178
El vector
= ( )1 .1 nos dara el n
umero promedio de pasos que
transcurren hasta que el proceso se absorba para cada uno de los estados
no absorbentes iniciales.
Cadenas de Markov 82
2, 0548 1, 0959
1
3, 1507
=
1, 0959 1, 9178
1
3, 0137
Luego, el n
umero esperado de transacciones que transcurren hasta que
el actualmente poseedor de un televisor X adquiera un Z es 3,1507.
5.2
Planeamiento de Personal
El Departamento de Relaciones con el Personal de una rma realiza un estudio de niveles de categora para proveer promociones adecuadas en el momento
oportuno, controlar el pago de haberes, analizar necesidades: de contratacion
de personal, etc. Esta empresa tiene 20 empleados de categora 3 (la mas alta),
80 de categora 2 y 200 de categora 1 (la mas baja de todas).
En base a datos historicos se espera que el 35% de los empleados de la categora
1, el 20% de la 2 y el 5% de la 3 dejen la empresa anualmente por renuncias,
despidos, jubilaciones, fallecimientos, etc.
Considerando las siguientes polticas de personal:
- mantener la misma cantidad de empleados (total y por niveles)
- realizar contrataciones solamente en el primer nivel
- dar promociones a los empleados una sola vez por a
no
el gerente del Departamento encargo al grupo de Investigacion Operativa de la
empresa:
1. Averiguar que cantidad de gente debera contratarse y que cantidad debera
promoverse a la categora inmediata superior para mantener los niveles de
empleados estables, anualmente.
2. Determinar el tiempo de permanencia promedio de un empleado en la
compa
na (ndice de rotacion del personal)
Cadenas de Markov 83
7654
0123
/
q8 0O
q
q
q
qqq
0,20qqqqq
0,05
qq
qqq
q
q
q
qqqq
7654
0123
0123
7654
/3
2K
S
0,35
y=20 . 0,05 = 1
/ GFED
@ABC
x=1
20
Permanecen z = 20 - 1 = 19
- Nodo 2
>
}}
}
}}
}}
}}}
@ABC
GFED
80 3 /
El n
umero medio de empleados a promover a
la categora 2 (x) debe ser igual a los que se
promocionan a la categora 3 mas los que se
absorben (y)
y = 80 . 0,20 = 16
x= 16 + 3 = 19
Permanecen z = 80 - 19 = 61
Cadenas de Markov 84
- Nodo 1
ONML
HIJK
200
19
7654
0123
1
1
2
3
1 0, 555 0, 95
0, 7625 0, 375
= 2
3
0, 95
4
0 Total
70 200
16 80
1
20
0123
7654
/8 0
q
qq O
qqq
q
q
0,20qqqq
0,095
0,05
q
qqq
q
q
qq
qqqq
0,0375
7654
0123
0123
7654
/3
2K
S
4
0, 35
0, 2
0, 05
1
0,35
0,95
0,7625
1
2
3
0 1
0
0
0
1 0, 35 0, 555 0, 095
2 0, 2
0, 7625 0, 0375
3
0, 95
0, 555
=
0, 95
0, 7625 0, 0375
0, 95
Cadenas de Markov 85
0, 555
=
0, 95
2, 2472 0, 8989 0, 6742
1
0, 7625 0, 0375 ( ) =
0
4, 2105 3, 1579
0, 95
0
0
20
Luego, el ndice de permanencia promedio en la empresa es de 3,82 a
nos por
empleado.
3, 8203
= 7, 3684
20, 0
3. Para calcular la probabilidad de que un empleado que se encuentra actualmente en el estado 1 logre la maxima categora, se supone al estado 3 como
un estado absorbente.
0,555
7654
0123
1
0123
7654
/8 0
qq
qqq
q
q
0,20qqqqq
0,095
qq
qqq
q
q
q
qqqq
0,0375
7654
0123
0123
7654
/3
2K
S
0,35
0,7625
0
es:
3
1
0
1
1
0, 35 0, 555 0, 095
2 0, 0375 0, 2
0, 7625
=
0, 555
0, 95
0, 7625
( )1 =
( ) =
0, 445 0, 095
0
0, 2375
2, 2472 0, 8989
0
4, 2105
Cadenas de Markov 86
( )1 . =
2, 2472 0, 8989
0
0, 35
0, 03371 0, 9663
.
=
0
4, 2105 0, 375 0, 2
0, 1579 0, 8421
2, 2472 0, 8989 1
3, 1461
.
=
0
4, 2105 1
4, 2105
Gesti
on de inventarios
Cadenas de Markov 87
c. el n
umero promedio de meses que trancurren hasta agotar el stock
d. el costo total de almacenamiento en cada ciclo de compra, si el costo de
almacenamiento unitario mensual es de 10$.
Solucion:
a. Llamaremos:
S0: ninguna unidad en stock al nalizar un mes
S1: una unidad en stock al nalizar un mes
S2: dos unidades en stock al nalizar un mes
S3: tres unidades en stock al nalizar un mes
0,6
3
2 1 0
3 0, 6 0, 3 0, 1 0
2
0, 6 0, 3 0, 1
1
0, 6 0, 4
0
1
0,6
0,3
ONML
HIJK
HIJK
/ ONML
3 GG
2 GG
GG
GG
GG
GG
GG
GG
GG0,1
GG0,1
GG
GG
0,3
GG
GG
GG
GG
1
GG
GG
G#
G#
0,4
HIJK
ONML
HIJK
/ ONML
2
1V
0,6
b.
3
2 1
0
3 0, 36 0, 36 0, 21 0, 07
2
= 2
0, 36 0, 36 0, 28
1
0, 36 0, 64
0
1
3
2 1
0
3 0, 13 0, 26 0, 29 0, 32
2
0, 13 0, 26 0, 61
1
0, 13 0, 87
0
1
Cadenas de Markov 88
0, 4 0, 3 0, 1
=
0, 4 0, 3
0, 4
3 2 1
3 0, 6 0, 3 0, 1
=
2
0, 6 0, 3
1
0, 6
( )
=
10/4 30/16 x 1 = 4, 38
10/4
1
2, 5
d. El n
umero prometido de meses que el sistema esta en cada uno de los estados S3, S2 y S1 es, respectivamente, 10/4, 30/16 y 25/32, valores que
obtenemos de la matriz ( )1 . Luego; el costo esperado de almacenamiento es:
[
]
10
30
25
$
1 x
+ 2 . x
+ 3 . x
x 10
4
16
32
.
= 85, 94
Cadenas de Markov 89
5.4
Planeamiento de producci
on
de otro centro
/
0,05
`abc
/ gfed
0,10
/
0,02
`abc
/ gfed
0,09
/ a Almacenes
0,05
/ Desechos
Mecanizado A
Control A
Mecanizado B
Mecanizado A
() Costo($/)
2
1200
0, 1
2000
3
1800
0, 2
2000
Cadenas de Markov 90
Operacion
Procesamiento en maquina A
Control de Calidad del proceso A
Procesamiento en maquina B
Control de Calidad del proceso B
Defectuosas
Almacen de piezas terminadas
0,03
0,90
~ 0,91
0,95 / GFED
0,90 / ?>=<
0,90 / ONML
HIJK
@ABC
HIJK
89:;
/ ONML
CCA<
PB
CCB
A
MMM
T
<<
MMM
<<
MMM
1
MMM0,10 << 0,02
MMM
<<
0,09
MMM <<
0,05
MMM <<
MMM<
& ?>=<
89:;
D
T
1
Reagrupando:
0, 90
0, 10
0, 30
0, 95
0, 02
0, 91 0, 09
0, 05
0, 05 0, 90
1
1
Cadenas de Markov 91
0, 10
0, 90
0, 02
0, 03
0, 95
0, 09
0, 91
0, 05 0, 90
0, 05
0 0, 90 0
0
0, 30 0 0, 95 0
=
0
0
0 0, 91
0
0 0, 05 0
( )1
1, 0277 0, 925
0, 0308 1, 0277
=
0
0
0
0
( )1 . =
0, 2661
0, 1621
0, 1419
0, 0571
1
0, 90
0
0
0, 30
1
0, 95
0
=
0
0
1
0, 91
0
0
0, 05
1
0, 9206
1, 0229
1, 0477
0, 0524
0, 7539
0, 8378
0, 8581
0, 9429
0, 8377
0, 9309
0, 9534
1, 0477
0, 10 0
0, 02 0
=
0, 09 0
0, 05 0, 90
2. El n
umero esperado de piezas que deben entrar al proceso para producir
una pieza buena es 1/0,7539=1,3264. Luego, se necesitaran 1327 piezas
para producir 1000 piezas buenas.
Cadenas de Markov 92
3. De la matriz ( )1 se obtiene el n
umero de veces que una pieza que
entra al centro productivo pasa por cada operacion.
Estados No de veces
No de veces
HH/pieza HH/pieza
(por pieza
(por pieza
procesada terminada
que entra) que sale terminada)
(a)
(b)=(a)x1,3264
(c)
(b)x(c)
PA
1,0277
1,3631
2
2,7263
CCA
0,925
1,2269
0,1
0,1227
PB
0,9206
1,2211
3
3,6633
CCB
0,8377
1,1111
0,2
0,2222
Estados
4.
PA
CCA
PB
CCB
Costo de materiales:
3000
$
pieza que entra
x 1, 3264
= 3979, 2
$
pieza terminada
$
pieza defectuosa
x 0, 2461
pieza defectuosa
piezas que entra
x 1, 364
= 163, 21
$
pieza terminada
Cadenas de Markov 93
pieza terminada
Analisis de fallas
Cadenas de Markov 94
1.
0 1 2
3
0
7/8 1/16 1/16
= 1
3/4 1/8 1/8
2
1/2 1/2
3 1
1/16
@@
~
@@
~~
@@
~
~
@@
3/4
~~
@@
~
~~ 7/8
1/8
HIJK
ONML
HIJK
HIJK
/ ONML
/ ONML
1
0 AA
2
A
X
}
A` A AA
}
}
AA AA
}
1/2
}
AA AA1/16
}}
AA AA
}
1/8 }}
AA A
}}
1 AAA AAA
AA A }}}
}~
A
ONML
HIJK
3
(3) = (0)
(0) = 2/13
(1) = 7/13
(0).1/16 + (1).1/8 + (2).1/2 = (2)
(2) = 2/13
(3) = 2/13
(0) + (1) + (2) + (3) = 1
Cadenas de Markov 95
1 7/8 1/16
= 0 1/4 1/8
0
0
1/2
3
0 1
2
1
1/16
7/8 1/16
1/8
3/4 1/8
1/2
1/2
( )
1 7/2 1
= 0 4 1
0 0 2
1 7/2 1
1
5, 5
( ) .1 = 0 4 1 x 1 = 5
0 0 2
1
2
1
Analisis de cuentas
Cadenas de Markov 96
Cuenta Corriente
Cred. Documentados
Morosos
Cuenta
Corriente
30
Creditos
Documentados
10
40
Morosos
Cobro
Incobrables
10
10
50
50
70
30
0, 4 0, 1
=
0, 5
0, 5
0, 7 0, 3
1
1
0, 7 0, 1 0, 1
=
0, 6 0, 1
1
1
0, 5
0, 3 0, 1 0, 1
0, 5
0, 4 0, 1
0, 7 0, 3
( )
Cadenas de Markov 97
=
0
1, 667 0, 167 x 1 = 1, 834
0
0
1
1
1
5.7
El sistema esta constituido por tres lneas de transmision de energa o informacion que operan en paralelo. Cada lnea puede encontrarse en servicio, o
fuera de servicio, ya sea por mantenimiento programado (indisponibilidad programada) o por falla, debido a la accion de un agente externo (indisponibilidad
forzada). Ademas el regimen de operacion no permite retirar una lnea por
mantenimiento programado cuando existe alguna otra en paralelo fuera de servicio, ya sea por mantenimiento programado o por falla forzada.
FUENTE
1
2
3
SUMIDERO
Cadenas de Markov 98
Estado
1
2
3
4
5
6
7
No de lneas
No de lneas
en servicio en falla forzada
3
0
2
1
2
0
1
2
1
1
0
3
0
2
No de lneas
en manten. programado
0
0
1
0
1
0
1
1 ind. progr.
7654
0123
3Z
1 mant. progr.
1 falla forzada
1 falla forzada
1 reprac.
1 falla
7654
0123
5Z
1 mant. progr.
7654
0123
7
1 reprac.
1 falla forzada
1 reprac.
1 falla
7654
0123
6- 2 Z
7654
0123
64Z
1 reprac.
1 falla forzada
1 mant. progr.
7654
0123
6
Cadenas de Markov 99
(5.2)
- indispon. progr = ( (0))ind. progr. =
- reparacion = ( (0))reparacion =
(5.3)
- mantenimiento = ( (0))mantenim. =
(5.4)
13 =3
7654
0123
3Z
35 =2
31 =
57 =
24 =2
42 =2
7654
0123
64Z
52 =
75 =2
7654
0123
7
7654
0123
6- 2 Z
12 =3
53 =
7654
0123
5Z
12 =
46 =
74 =
64 =3
7654
0123
6
Todas las restantes tasas que no guran en el grafo son nulas. Luego las
probabilidades del estado permanente:
= 1 2 3 4 5 6 7
se calculan de la expresion (3.3.1):
= .1
con la matriz A denida en la (3.3 0), y que en este caso es:
(12 + 13 )
12
13
0
0
0
21
(21 + 24 )
0
24
0
0
31
0
(31 + 35 )
0
35
0
=
0
42
0
(42 + 46 )
0
46
0
52
53
0
(52 + 53 + 57 ) 0
0
0
0
64
0
64
0
0
0
74
75
0
1
1
1
1
1
1
1
3( + )
3
3
0
0
0
(2 + )
0
2
0
0
0
2( + )
0
2
0
=
0
2
0
( + 2 )
0
0
( + + )
0
0
0
0
3
0
3
0
0
0
2
0
1
1
1
1
1
1
1
Luego calculando la matriz 1 , su 7ma. la dara los valores de las probabilidades del estado permanente. Mediante este metodo pueden determinarse,
ademas:
. probabilidad de tres lneas en servicio:
. probabilidad de dos lneas en servicio: 2 + 3
. probabilidad de una lnea en servicio: 4 + 5
. probabilidad de ninguna lnea en servicio: 6 + 7
Como ejemplo pueden calcularse los valores anteriores para los siguientes datos: =
10, 7 indisp/cable-a
no; = 0, 4 fallas/cable-a
no; = 983, 5 manten./cablea
no; = 190, 4 repar./cable-a
no.
References
[1] Bronson, R Investigacion de Operaciones, serie Shaum; Mc. Graw Hill
[2] Gallagher y Watson, Quantative Methods for Busines; Mc. Graw Hill
[3] Gillett B., Introduction to Operations Research; Mc. Graw Hill
[4] Hillier y Lieberman, Introduccion a la Investigacion de Operaciones; Mc.
Graw Hill
[5] Kaufman A., Metodos y Modelos de Investigacion de Operaciones;
C.E.C.S.A
[6] Parsen, Procesos Estocasticos; Parainfo
[7] Prawda J., Metodos y Modelos de Investigacion de Operaciones; Limusa
[8] Rau J., Optimization and Probability in System Engieneering; Van Nostran
Reinhold
[9] Shambin y Stevens, Investigacion de Operaciones, Un enfoque fundamental; Mc. Graw Hill