Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apunte Markov PDF
Apunte Markov PDF
07 Investigación Operativa
⃝2009
c Facultad de Ingenierı́a,
Universidad de Buenos Aires
Digitalizado por Virginia Guala
$September 12, 2009
Cadenas de Markov ∣ 1
Indice
1 PROCESOS ESTOCÁSTICOS 3
1.1 Definición de Proceso Estocástico . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Clasificación de los Procesos Estocásticos . . . . . . . . . . . . . . . . . . . . . . 3
5 APLICACIONES 78
5.1 Aplicación comercial (“Brand switching”) . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Planeamiento de Personal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.3 Gestión de inventarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.4 Planeamiento de producción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.5 Analisis de fallas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.6 Analisis de cuentas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.7 Estudio de confiabilidad en un sistema de lı́neas de transmisión . . . . . . . . . 97
BIBLIOGRAFÍA 102
Cadenas de Markov ∣ 2
PRÓLOGO
Los Autores
Cadenas de Markov ∣ 3
1 PROCESOS ESTOCÁSTICOS
1.1 Definición de Proceso Estocástico
Un proceso estocástico es un modelo matemático que describe el comportamiento
de un sistema dinámico, sometido a un fenómeno de naturaleza aleatoria.
La presencia de un fenómeno aleatorio hace que el sistema evolucione según
un parámetro, que normalmente es el tiempo t cambiando probabilı́sticamente
de estado. En otras palabras: al realizar una serie de observaciones del pro-
ceso, en diferentes ocasiones y bajo idénticas condiciones, los resultados de las
observaciones serán, en general, diferentes. Por esa razón para describir el
comportamiento del sistema es necesario definir una variable aleatoria: X(t)
que represente una caracterı́stica mesurable de los distintos estados que puede
tomar el sistema según sea el resultado del fenómeno aleatorio, y su correspon-
diente probabilidad de estado asociada: 𝑝𝑥 (𝑡).
Luego el proceso estocástico queda definido por el conjunto:
𝑋(𝑡), 𝑝𝑥 (𝑡), 𝑡
Ejemplo 1.a
En un sistema de generación de energı́a eléctrica,
el pronóstico de la potencia eléctrica horaria
requerida para un dı́a es un proceso estocástico,
en el cual son:
t= 0, 1, 2 ...... 24: horas del dı́a.
X(t)= pronóstico de la potencia eléctrica re-
querida.
px(t)= probabilidad de estado asociada.
Siendo:
𝑥𝑡+Δ𝑡 : un estado particular en el instante 𝑡 + Δ𝑡
𝑥𝑡 : un estado particular en el instante t
𝑥𝑡−Δ𝑡1 : un estado particular en el instante 𝑡 − Δ𝑡1
𝑥𝑡−Δ𝑡2 : un estado particular en el instante 𝑡 − Δ𝑡2
𝑥𝑡−Δ𝑡3 : un estado particular en el instante 𝑡 − Δ𝑡3
Ejemplo 1.b
El siguiente es un proceso con tres variantes que permiten ejemplificar
cada uno de los tres tipos de procesos mencionados. Dado un bolillero
con tres bolillas: 1, 2 y 3, se definen las siguientes experiencias de
pruebas repetidas:
a) Se extraen bolillas “con reposición” y los resultados aleatorios 1, 2
o 3 definen los estados X(t) del siguiente proceso:
⎧ ⎫
⎨ si, si la bolilla es 1 ó 2 ⎬
𝑥(𝑡) = 𝑡 = 1, 2, 3, . . .
no, si la bolilla es 3
⎩ ⎭
1/3
89:;
?>=<
éste es un “proceso aleatorio puro” de ensayos inde- no^
pendientes, pues la probabilidad de presentación de 2/3 1/3
0123
7654
los estados “si” y “no” en t valen 2/3 y 1/3 respec-
tivamente, independientemente de cual haya sido el siS
estado anterior. 2/3
89:;
?>=<
0
éste es un “proceso tipo Markov” pues cono- no^
cido un estado X(t) en t se pueden calcular las 1 2/3
7654
0123
probabilidades de los estados X(t+1) en t+1,
tal como se indica en el grafo de transiciones. siS
1/3
Cadenas de Markov ∣ 7
tiempo
Con referencia especı́ficamente a las cadenas de Markov, de parámetro
discreto o continuo, los distintos estados de la variable X(t) se suelen re-
presentar genéricamente con letras: i, j, k, etc. En particular los valores
de dichos estados dependen de la naturaleza del sistema que se modela,
pero habitualmente se utilizan números enteros: 0, 1, 2, . . . , 𝑚. Luego para
las cadenas de Markov la probabilidad condicional da transición (1.4) se
expresa de la siguiente manera:
𝑗
𝑖/ 0 1 ...... 𝑚
0 𝑝00 𝑝01 ...... 𝑝0𝑚
1 𝑝10 𝑝11 ...... 𝑝1𝑚
𝑃 (Δ𝑡) = .. .. .. .. (2.6)
. . . .
.. .. .. ..
. . . .
𝑚 𝑝𝑚0 𝑝𝑚1 ...... 𝑝𝑚𝑚
Ejemplo 2.a
Si en la cadena de Markov descripta en la experiencia b) del ejemplo
l.b se denominan:
estado 0 = no
estado 1 = si
el grafo y la matriz de transición de 1 paso son respectivamente:
Cadenas de Markov ∣ 12
0123
7654
0
𝑗 0^
𝑖/ 0 1
1 1/3
7654
0123
𝑃 = 0 0 1
1 1/3 2/3 1S
2/3
Ejemplo 2.b
Si bien la experiencia a) del ejemplo l.b corresponde a 1 proceso de
ensayos independientes, se lo puede tratar dentro de la teorı́a de las
cadenas de Markov, siendo sus estados, el grafo y la matriz de tran-
sición de 1 paso las siguientes:
estado 0 = no
estado 1 = si
1/3
7654
0123
0^
2/3 1/3 1/3 2/3
7654
0123
𝑃 =
1S 1/3 2/3
2/3
𝑃 (𝐶/𝐵𝑘 ∩ 𝐴) = 𝑃 (𝐶/𝐵𝑘 )
𝑚
∑
𝑃 (𝐶 ∩ 𝐵𝑘 ).𝑃 (𝐵𝑘 /𝐴).
𝑃(𝐴)
𝑚
∑
𝑘=0
𝐿𝑖𝑗 (2) = 𝑃 (𝐶/𝐴) = = 𝑝𝑘𝑗 .𝑝𝑖𝑘
𝑃(𝐴)
𝑘=0
Ejemplo 2.c
La matriz de transición de 2 pasos de la cadena del Ejemplo n∘ 2.a,
aplicando la ecuación (2.10) es:
Cadenas de Markov ∣ 15
0,33
0123
7654
0^
0 1 0 1 0, 33 0, 67 0,67 0,22
0123
7654
𝑃 (2) = = =⇒
1S
0, 33 0, 67 0, 33 0, 67 0, 22 0, 78 0,78
P(n)=P.P(n-1)
𝑃 (𝑛) = 𝑃 𝑛 (2.14)
Ejemplo 2.d
Las matrices de transición de 3, 4 y 5 pasos de la cadena del ejemplo
Cadenas de Markov ∣ 17
0 1 0, 33 0, 67 0, 222 0, 778
3 2
𝑃 (2) = 𝑃 = 𝑃.𝑃 = x =
0, 33 0, 67 0, 22 0, 78 0, 259 0, 741
⎧
⎨ 0𝑚 ≤
𝑝𝑖 (𝑡) ≤ 1 ; ∀𝑖 (2.17)
∑
⎩ 𝑝𝑖 (𝑡) = 1 ; con 𝑖 = 0, 1, 2, . . . (2.18)
𝑖=0
𝑝00 . . . 𝑝0𝑚
𝑝 𝑝1𝑚
𝑝(1) = 𝑝0 (1) 𝑝1 (1) . . . 𝑝𝑚 (1) = 𝑝0 (0) 𝑝1 (0) . . . 𝑝𝑚 (0) x ..10 ..
. .
𝑝𝑚0 . . . 𝑝𝑚𝑚
Ejemplo 2.e
En la cadena del ejemplo 2.a, si se parte de un estado inicial con las
siguientes probabilidades:
⎧
⎨ 𝑝0 (0) = 0, 5
𝑝(0) = 0, 5 0, 5
𝑝1 (0) = 0, 5
⎩
0 1
𝑝(1) = 𝑝(0).𝑃 = 0, 5 0, 5 x = 0, 167 0, 833
0, 333 0, 667
0, 333 0, 667
𝑝(2) = 𝑝(0).𝑃 2 = 0, 5 0, 5 x = 0, 278 0, 722
0, 222 0, 778
Cadenas de Markov ∣ 21
0, 222 0, 778
𝑝(3) = 𝑝(0).𝑃 3 = 0, 5 0, 5 x = 0, 241 0, 759
0, 259 0, 741
0, 259 0, 741
𝑝(4) = 𝑝(0).𝑃 4 = 0, 5 0, 5 x = 0, 253 0, 747
0, 247 0, 753
si 𝑖 → 𝑗 y 𝑗→𝑘 ⇒ 𝑖→𝑘
Ejemplo 2.f
En la cadena de la figura el estado 6 es accesible desde el 5 en un paso y
desde el 4 en dos pasos, a través del 5. El estado 1 no es accesible desde el 2.
Cadenas de Markov ∣ 22
si 𝑖 → 𝑗 y 𝑗→𝑘 ⇒ 𝑖→𝑘
7654
0123 7654
0123
1
'
0g 1/2 :1
0 1 0
1
7654
0123
1/2 𝑃 = 1/2 0 1/2
z
2 0 1 0
𝑃 = 𝑃 3 = 𝑃 5 = . . . = 𝑃 𝑚 ; con m : impar
{
𝑃 2 = 𝑃 4 = 𝑃 6 = . . . = 𝑃 𝑛 ; con n : par
con la presencia siempre de ceros en las matrices.
Una cadena de Markov homogénea es no ergódica o reducible o sepa-
rable cuando no todos sus estados se comunican, en esas condiciones la
cadena es separable en un conjunto de clases comunicantes y estados
sin retorno.
Ejemplo 2.i
Dada la siguiente cadena:
0,5
7654
0123 7654
0123
0,5
&
0f 1S
0,2 0, 5 0, 5 0 0
0,8
0, 8 0, 2 0 0
0,3 𝑃 =
7654
0123 7654
0123
0,7
& 0 0 0, 7 0, 3
2f 3S 0 0 0, 6 0, 4
0,6 0,4
⎧
⎨ 1 clase comunicante recurrente : 𝐶3 = {5, 6, 7}
2 clase comunicante transitoria : 𝐶1 = {2} y 𝐶2 = {3, 4}
2 estados sin retorno :0 𝑦 1
⎩
𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚
.. .. ..
. . .
𝑛
lim 𝑃 (𝑛) = lim 𝑃 = 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚 (2.31)
𝑛→∞ .. .. ..
. . .
𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚
𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚
.. .. ..
. . .
lim 𝑝(𝑛) = 𝑝(0). lim 𝑃 (𝑛) = 𝑝0 (0) . . . 𝑝𝑖 (0) . . . 𝑝𝑚 (0) x 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚
𝑛→∞ 𝑛→∞ .. .. ..
. . .
𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚
𝑚
∑
y por cumplirse que: 𝑝𝑖 (0) = 1, queda:
𝑖=0
las (2.31) y (2.32) expresan que en una cadena de Markov regular, luego
de un número suficientemente grande de transiciones (𝑛 → ∞), sus pro-
babilidades de transición 𝑝𝑖𝑗 (𝑛) y de estado 𝑃𝑗 (𝑛) se estabilizan en valores
lı́mites iguales para cada estado j, e independientes del estado inicial i. Este
estado se conoce como régimen permanente o estacionario, y sus probabi-
lidades de estado 𝑝𝑗 representan los porcentajes de tiempo que la cadena
permanece en cada estado j luego de un perı́odo largo de tiempo.
Esta distribución de estados lı́mites se puede determinar mediante tres
caminos alternativos.
𝑚
∑
agrupando queda: 𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑗 (1 − 𝑝𝑗𝑗 )
∀𝑖∕=𝑗
reemplazando queda:
∑ ∑
𝑝𝑖 .𝑝𝑖𝑗 = 𝑝𝑗 . 𝑝𝑗𝑘 ; 𝑗 = 0, . . . , 𝑛 (2.35)
∀𝑖∕=𝑗 ∀𝑘∕=𝑗
Cadenas de Markov ∣ 31
0, 5 0, 3125 0, 1875
16
𝑃 = 0, 5 0, 3125 0, 1875 = 𝑝17 = 𝑝18 = lim 𝑃 𝑛
𝑛→∞
0, 5 0, 3125 0, 1875
Cadenas de Markov ∣ 32
se observa que a medida que aumenta n, los elementos 𝑝𝑖𝑗 (𝑛) tienden
a un lı́mite fijo, independiente del valor de i.
Luego por (2.32) es:
ordenando queda:
⎧
0, 5 𝑝0 − 0, 2 𝑝1 − 𝑝2 = 0
−0, 5 𝑝0 + 0, 8 𝑝1 = 0
⎨
− 0, 6 𝑝1 + 𝑝2 = 0
𝑝0 + 𝑝1 + 𝑝2 = 1
⎩
0, 5 0, 5 0
0, 2 0, 2 0, 6 ; 𝐵= 0 0 1
1 0 0
Cadenas de Markov ∣ 33
7654
0123 7654
0123
1
'
0g 1/2 :1
0 1 0
1
7654
0123
1/2 𝑃 = 1/2 0 1/2
z
2 0 1 0
pieza que sea mala, con probabilidad p, o las tres piezas buenas.
Se tienen los siquientes estados:
Estados 0 1 2 3 4 5 6
Buenas 0 0 1 1 2 2 3
Situación
Malas 0 1 0 1 0 1 0
con los siguientes grafo y matriz de transición:
0 1 2 3 4 5 6
0123
7654 𝑝 7654
0123 7654
0123 70123
/ 654
1 1 1
𝑝
0 /1 8}2 3 0 𝑝 (1 − 𝑝)
}
}} 1 1
1−𝑝 }}
}}
} }} 2 𝑝 (1 − 𝑝)
}} 1−𝑝 𝑃 =
}}} 3 1
}
}}
0123
7654 7654
0123 7654
0123
1 1
}
~ } 𝑝 4 𝑝 (1 − 𝑝)
4 /5 86
5 1
1−𝑝 6 1
𝐼 0 a estados
𝐴 𝑁 n estados
𝑃 =
𝑎 𝑛
𝑒𝑠𝑡𝑎𝑑𝑜𝑠 𝑒𝑠𝑡𝑎𝑑𝑜𝑠
en donde son:
* I(axa): matriz identidad; cada elemento representa la probabilidad de
permanecer en un estado absorbente en un paso
* 0(axn): matriz nula; cada elemento representa la probabilidad de pasar
de un estado absorbente a uno no absorbente en un paso
* A(nxa): matriz de estados absorbentes; cada elemento representa la
probabilidad de ser absorbido (pasar de un estado no absorbente a uno
absorbente) en un paso
* N(nxn): matriz de estados no absorbentes; cada elemento representa
la probabilidad de no ser absorbido (pasar de un estado no absorbente
a otro no absorbente) en un paso
En la cadena del ejemplo 2.n serı́a:
1 3 5 6 0 2 4
1 1
3 1
5 1
𝑃 =
6 1
0 𝑝 (1 − 𝑝)
2 𝑝 1 (1 − 𝑝)
4 𝑝 (1 − 𝑝)
(a) Número esperado de veces que el proceso pasa por cada estado no ab-
sorbente antes de ser absorbido
De acuerdo a lo visto anteriormente cada elemento de N representa
Cadenas de Markov ∣ 37
2 𝑛 𝐼
𝑛𝑗/𝑖 = 1𝑥𝐼
|{z} + |{z}
1𝑥𝑁 + |1𝑥𝑁
{z } + . . . + |1𝑥𝑁
{z } + . . . = 𝐼−𝑁 =
al comienzo en un paso en dos pasos en n pasos
Ejemplo 2.ñ
Dada la siguiente cadena absorbente:
7654
0123
1
@1
01 2 3
7654
0123 7654
0123
1/2
1 0 1/2 1/2
0l @3 𝑃 = 1 1
1/4 2 1/4 3/4
7654
0123
3/4 3 1
1/2 ,
2
1 3 0 2
1 1
𝑃 = 3 1
0 1/2 1/2
2 3/4 1/4
Cadenas de Markov ∣ 38
donde son:
0 2 1 3
𝑁= 0 1/2 ; 𝐴= 0 1/2
2 1/4 2 3/4
luego resulta:
0 2
−1
𝐼 −𝑁 = 1 −1/2 (𝐼 − 𝑁 ) = 0 8/7 4/7
−1/4 1 2 2/7 8/7
1
∑ 1
𝑁𝑖 = 𝑛𝑗/𝑖 = (𝐼 − 𝑁 )−1 𝑥 .. (2.37)
∀𝑗
.
1
Ejemplo 2.o
Para la cadena del ejemplo 2.ñ es:
Cadenas de Markov ∣ 39
0 2
𝑁𝑖 = 0 8/7 4/7 𝑥 1 = 0 12/7
2 2/7 8/7 1 2 10/7
2 0 1
2 1 0 0
𝑃 =
0 0, 3 0, 4 0, 3
1 0, 3 0, 2 0, 5
luego:
1 0 0, 4 0, 3 0, 6 −0, 3
𝐼 −𝑁 = − =
1 0 0, 2 0, 5 −0, 2 0, 5
Cadenas de Markov ∣ 40
2, 08 1, 25 3, 33
(𝐼 − 𝑁 )−1 = (𝐼 − 𝑁 )−1 𝑥 1̄ =
0, 82 2, 50 3, 32
𝑃 (𝑖 → 𝑗) = (𝐼 − 𝑁 )−1 x 𝐴 (2.38)
Ejemplo 2.q
Para el ejemplo 2.ñ es:
0 2 1 3
−1
𝑃 (𝑖 → 𝑗) = (𝐼−𝑁 ) x𝐴 = 0 8/7 4/7 𝑥 0 1/2 0 =
2 2/7 8/7 2 0 3/4
1 3
= 0 4/7 3/7
2 1/7 6/7
Cadenas de Markov ∣ 41
∴ 𝐼 − 𝑁 = 1 − 0, 5 = 0, 5 ∴ (1 − 𝑁 )−1 = 2
∴ (𝐼 − 𝑁 )−1 x 1̄ = 2 x 1 = 2 ∴ 𝑁0 = 2
0, 5 0, 2 0, 3
𝑝(0) 𝑝(1) 𝑝(2) x 0 0 1 = 𝑝(0) 𝑝(1) 𝑝(2) ∴
0 1 0
Cadenas de Markov ∣ 42
⎧
⎨ 𝑝(0) x 0, 5 = 𝑝(0) {
𝑝(0) = 0
0, 2 x 𝑝(0) + 𝑝(2) = 𝑝(1) ∴
𝑝(1) = 𝑝(2) = 0, 5
𝑝(0) + 𝑝(1) + 𝑝(2) = 1
⎩
{
0 ; 𝑠𝑖 𝑖 ∕= 𝑗 (3.5)
lim 𝑃𝑖𝑗 (Δ𝑡) =
𝑡→0 1 ; 𝑠𝑖 𝑖 = 𝑗 (3.6)
0, 7 + 0, 3𝑒−Δ𝑡 0, 3 − 0, 3𝑒−Δ𝑡
⎧
𝑝00 (Δ𝑡) 𝑝01 (Δ𝑡)
⎨ 𝑃 (Δ𝑡) = =
0, 7 − 0, 7𝑒−Δ𝑡 0, 3 + 0, 7𝑒−Δ𝑡
𝑝10 (Δ𝑡) 𝑝11 (Δ𝑡)
con Δ𝑡 ≥ 0
⎩
luego para cada valor de Δ𝑡 se tiene una matriz distinta, por ejemplo:
7654
0123 7654
0123
1 0
1 0 &
para Δ𝑡 = 0 𝑃 (0) = 0f 1S
0 1 0 1
0,88
7654
0123 7654
0123
0,12
0, 88 0, 12 &
para Δ𝑡 = 0, 5 𝑃 (5) = 0f 1S
0, 28 0, 72 0,28 0,72
0,7
7654
0123 7654
0123
0,3
0, 7 0, 3 &
para Δ𝑡 → ∞ 𝑃 (∞) = 0f 1S
0, 7 0, 3 0,7 0,3
[ ]
𝑑
𝑑𝑖𝑗 = 𝑝𝑖𝑗 (Δ𝑡) (3.7)
𝑑𝑡 Δ𝑡=0
[ ]
𝑑
𝑑𝑖𝑗 = 𝑝𝑖𝑗 (Δ𝑡) (3.8)
𝑑𝑡 Δ𝑡=0
𝑚
∑
de (3.4) 𝑝𝑖𝑗 (Δ𝑡) = 1
𝑗=0
[ 𝑚
] 𝑚 𝑚
𝑑 ∑ ∑ 𝑑 ∑
derivando: 𝑝𝑖𝑗 (Δ𝑡) = [𝑝𝑖𝑗 (Δ𝑡)]Δ𝑡=0 = 𝑑𝑖𝑗 = 0
Δ𝑡 𝑗=0 𝑗=0
Δ𝑡 𝑗=0
Δ𝑡=0
∑
luego: 𝑑𝑖𝑖 = − 𝑑𝑖𝑗 (3.10)
∀𝑗∕=𝑖
−0, 3 0, 3
𝐷=
0, 7 −0, 7
o matricial:
Cadenas de Markov ∣ 47
Ejemplo 3.c
Tomando la matriz de probabilidades de transición del ejemplo 3.a:
0, 7 + 0, 3𝑒𝑡 0, 3 − 0, 3𝑒𝑡
𝑃 (𝑡) =
0, 7 − 0, 7𝑒𝑡 0, 3 + 0, 7𝑒𝑡
cumpliendose:
⎧
0 ≤ 𝑝𝑖 (𝑡) ≤ 1 , ∀𝑖 (3.15)
⎨
∑𝑚
𝑝𝑖 (𝑡) = 1 , con 𝑡 ≥ 0 (3.16)
⎩
𝑖=0
y el vector de probabilidades:
o matricial:
{
= 𝑝(0) . 𝑃 (𝑡)
𝑝(𝑡) = (3.20)
= 𝑝(𝑡 − Δ𝑡) . 𝑃 (Δ𝑡)
𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚
.. .. ..
. . .
lim 𝑃 (𝑡) = 𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚 (3.21)
𝑡→∞ .. .. ..
. . .
𝑝0 . . . 𝑝𝑗 . . . 𝑝𝑚
Igual que en el caso discreto, las (3.21) y (3.22) expresan que en una cadena de
Markov regular, luego de un tiempo t suficientemente grande sus probabilidades
de transición 𝑝𝑖𝑗 (𝑡) y de estado 𝑝𝑗 (𝑡) se estabilizan en valores lı́mites similares
e independientes del estado inicial y del tiempo t, definiéndose a este estado
Cadenas de Markov ∣ 50
𝑝 = 𝑝 . 𝑃 (Δ𝑡) (3.23)
siendo de (3.16) 𝑚
∑
𝑝𝑗 = 1
𝑗=0
(3.24)
∑
siendo: 𝑑𝑖𝑖 =− 𝑑𝑖𝑗 ; ∀𝑖 (3.27)
∀𝑗∕=𝑖
∑
𝑑𝑖𝑖 = − 𝑑𝑖𝑗 (3.27)
∀𝑗∕=𝑖
p = B . 𝐴−1 (3.31)
y ordenando:
∑ ∑
𝑝𝑖 . 𝑑𝑖𝑗 = 𝑝𝑗 . 𝑑𝑗𝑘 (3.32)
∀𝑖∕=𝑗 ∀𝑘∕=𝑗
Cadenas de Markov ∣ 53
⎫
𝑠𝑎𝑙𝑖𝑑𝑎𝑠
∣
→
⎬
𝑙𝑙𝑒𝑔𝑎𝑑𝑎 −→ ∣∣∣∣∣∣∣ ∣ 𝑐𝑎𝑛𝑎𝑙𝑒𝑠
→
∣
→
⎭
| {z }
linea de espera
| {z }
sistema
Según que la naturaleza del estudio sea de análisis o de diseño, los interro-
gantes que surgen en el problema pueden estar dados por:
⎧
⋅ funcionamiento del sistema
⎧
⎨ ⋅ número necesario de canales
⎨
⋅ configuración del sistema ⋅ velocidad de atención de los canales
⋅ capacidad de la cola, etc
⎩ ⎩
* Z = Beneficio → máximo
= beneficio por atención de clientes ($/cliente) x 𝜆(velocidad de ingreso
de clientes: clientes/hora) - costo operativo de cada canal ($/hora.canal)
x M (n∘ de canales) → máximo
Cadenas de Markov ∣ 56
Para el cálculo del número medio de clientes en el sistema es preciso definir una
variable aleatoria de estado i = n que represente al número de clientes en el
sistema. En función de la misma será:
∑
𝐿 = 𝐸(𝑛) = 𝑛 . 𝑝𝑛
∀𝑛
𝑒−𝜆𝑡 (𝜆𝑡)𝑥
𝑝𝑥 𝑎𝑟𝑟. (𝑡) = 𝑃𝑝𝑜 (𝑥/𝑡, 𝜆) = ; y para x = 1 es:
𝑥!
𝑝1 𝑎𝑟𝑟. (𝑡) = 𝑒−𝜆𝑡 (𝜆𝑡)
Cadenas de Markov ∣ 57
b) despachos
El régimen de despachos 𝑥 ≤ 𝑖 = 𝑛 producidos en un intervalo t es:
𝑒−𝜇𝑡 (𝜇𝑡)𝑥
𝑝𝑥 𝑑𝑒𝑠. (𝑡) = 𝑃𝑝𝑜 (𝑥/𝑡, 𝜇) = ∴ 𝑝1 𝑑𝑒𝑠. (𝑡) = 𝑒−𝜇𝑡 𝜇𝑡
𝑥!
análogamente al caso anterior se llega a:
𝑑𝑥 𝑑𝑒𝑠. = 0
𝑑1 𝑑𝑒𝑠. = 𝜇 (4.2)
𝜆𝑖−2 𝜇𝑖−1
XYZ[
_^]\
⎧
⎨ 𝜆𝑖 ; 𝑠𝑖 𝑗 = 𝑖 + 1 (𝑛𝑎𝑐𝑖𝑚𝑖𝑒𝑛𝑡𝑜) 𝑖−1
𝑑𝑖𝑗 = 𝜇 ; 𝑠𝑖 𝑗 = 𝑖 − 1 (𝑚𝑢𝑒𝑟𝑡𝑒) (4.3) W
⎩ 𝑖 𝜆𝑖−1 𝜇𝑖
0 ; ∀ 𝑖, 𝑗 / ∣𝑗 − 𝑖∣ ≥ 2
WVUT
PQRS
𝑖
V
𝜆𝑖 𝜇𝑖+1
Las tasas de transición se ilustran en el grafo
XYZ[
_^]\
de la figura. En los puntos siguientes se aplica esta
𝑖+1
cadena a distintos casos de sistemas de atención W
𝜆𝑖+1 𝜇𝑖+2
Estados i = n = 𝜇3 k
𝜇1 𝜇2 𝜇𝑛 𝜇𝑛+1
GFED
@ABC GFED
@ABC @ABC
GFED GFED
@ABC 89:;
?>=< ONML
HIJK
z z 𝜇𝑛−1 y y
0 ... 𝑛 ...
: 1 : 2
n-1 n+1
𝜆𝑛−2 F 9 8
𝜆0 𝜆1 𝜆2 % 𝜆𝑛−1 𝜆𝑛 +
𝑗
𝑖/ (0) (1) (2) ... (𝑛 − 1) ... (𝑁 )
𝐴0 𝐴1 𝐴2 ... 𝐴𝑛−1 ... 𝐴𝑁
(0) (−𝜆0 ) 𝜆0 0 ... 0 ... 1
(1) 𝜇1 −(𝜇1 + 𝜆1 ) 𝜆1 ... 0 ... 1
(2) 0 𝜇2 −(𝜇2 + 𝜆2 ) ... 0 ... 1
𝐴 = (3) 0 0 𝜇3 ... 0 ... 1
... ... ... ... ... ... ...
(𝑛 − 2) 0 0 0 ... 𝜆𝑛−2 ... 1
(𝑛 − 1) 0 0 0 . . . −(𝜇𝑛−1 + 𝜆𝑛−1 ) ... 1
(𝑛) 0 0 0 ... 𝜇𝑛 ... 1
... ... ... ... ... ... ...
𝑝= 𝑝0 𝑝1 𝑝2 ... 𝑝𝑛−2 𝑝𝑛−1 𝑝𝑛 ...... 𝑝𝑁
luego de (3.30): p.A = B se pueden despejar las probabilidades del régimen per-
manente. En este caso la estructura particular de A hace innecesario el cálculo
de 𝐴−1 pues se puede establecer ecuaciones de recurrencia tal como se indica a
continuación:
⎧
𝑝.𝐴0 = −𝑝0 𝜆0 +𝑝1 𝜇1 =0 (4.4)
𝑝0 𝜆0 −𝑝1 (𝜇1 + 𝜆1 )
𝑝.𝐴1 = +𝑝2 𝜇2 =0 (4.5)
−𝑝2 (𝜇2 + 𝜆2 ) +𝑝3 𝜇3
⎨ 𝑝.𝐴2 = 𝑝1 𝜆1 =0 (4.6)
.....................................................................................................................
𝑝.𝐴𝑛−1 = 𝑝𝑛−2 𝜆𝑛−2 −𝑝𝑛−1 (𝜇𝑛−1 + 𝜆𝑛−1 ) +𝑝𝑛 𝜇𝑛 =0 (4.7)
⎩ .....................................................................................................................
𝑝.𝐴𝑁 = 𝑝0 +𝑝1 +𝑝2 +𝑝3 ... +𝑝𝑛−2 +𝑝𝑛−1 +𝑝𝑛 . . . +𝑝𝑁 = 0 (4.8)
Cadenas de Markov ∣ 61
𝜆0
luego de (4.4) : 𝑝0 𝜆0 = 𝑝1 𝜇1 ∴ 𝑝1 = 𝑝0
𝜇1
𝜆1 𝜆1 𝜆0
sumando (4.4) y (4.5) : 𝑝1 𝜆1 = 𝑝2 𝜇2 ∴ 𝑝2 = 𝑝1 = 𝑝0
𝜇2 𝜇2 𝜇1
𝜆2 𝜆2 𝜆1 𝜆0
sumando (4.4), (4.5) y (4.6) : 𝑝2 𝜆2 = 𝑝3 𝜇3 ∴ 𝑝3 = 𝑝2 = 𝑝0
𝜇3 𝜇3 𝜇2 𝜇1
𝜆𝑛−1
sumando (4.4), (4.5), (4.6) y (4.7) : 𝑝𝑛−1 𝜆𝑛−1 = 𝑝𝑛 𝜇𝑛 ∴ 𝑝𝑛 = 𝑝𝑛−1 =
𝜇𝑛
𝜆𝑛−1 . . . 𝜆2 𝜆1 𝜆0
= 𝑝0 (4.9)
𝜇𝑛 . . . 𝜇3 𝜇2 𝜇1
𝑛−1
∏
𝜆𝑖
𝑜
quedando las probabilidades 𝑓 (𝑝0 ) : 𝑝𝑛 = 𝑛 .𝑝0 (4.10)
∏
𝜇𝑖
1
𝑁
∑
y reemplazando la (4.10) en (4.8) : 𝑝𝑖 = 1 ∴ 𝑝0 = . . . (4.11)
𝑖=0
obteniéndose 𝑝0 𝑛 = 0, 1, . . . , 𝑁
⎫
∣ →𝜇
∣ →𝜇
⎬
𝜆→ ∣∣∣ 𝑀
..
.
∣ →𝜇 ⎭
| {z }
𝑁
y se cumplen:
𝑁 →∞ ⎫
𝜆𝑖 = 𝜆 = 𝑐𝑡𝑒. } ; 𝑇𝑎 = 1/𝜆 ⎬
𝜇𝑖 = 𝑖𝜇, 𝑖 = 1, 2, . . . , 𝑀 − 1 ; 𝜌 = 𝜆/𝜇
; 𝑇𝑠 = 1/𝜇 ⎭
𝜇𝑖 = 𝑀 𝜇, 𝑖 = 𝑀, 𝑀 + 1, 𝑀 + 2, . . .
reemplazando en (4.11):
∞
(𝑀 −1 ∞
) (𝑀 −1 ∞ (
)
∑ ∑ 𝜌𝑛 ∑ 𝜌𝑛 ∑ 𝜌𝑛 𝜌 𝑀 ∑ 𝜌 )𝑛−𝑀
𝑝𝑖 = 𝑝 0 + 𝑛−𝑀
= 𝑝0 +
𝑖=0 𝑛=0
𝑛! 𝑀 !𝑀 𝑛=0
𝑛! 𝑀! 𝑀
𝑛=𝑀 𝑛=𝑀
Cadenas de Markov ∣ 63
(𝑀 −1 )−1
∑ 𝜌𝑛 𝜌𝑀
1
𝑝0 = + (4.14)
𝑛=0
𝑛! 𝑀 ! (1 − 𝜌/𝑀 )
𝜌<𝑀 (4.15)
(a) 𝐿𝑐
∞ ∞
∑ ∑ 𝜌𝑛
𝐿𝑐 = 𝐸𝑝 (𝑛 − 𝑀 ) = (𝑛 − 𝑀 )𝑝𝑛 = 𝑝0 (𝑛 − 𝑀 ) =
𝑀 !(𝑀 )𝑛−𝑀
𝑛=𝑀 𝑛=𝑀
∞ ∞
𝜌𝑛 ∑ ( 𝜌 )𝑛−𝑀 𝜌𝑀 +1 𝑑 ∑
= 𝑝0 (𝑛 − 𝑀 ) = 𝑝0 (𝜌/𝑀 )𝑛−𝑀 =
𝑀! 𝑀 𝑀 !𝑀 𝑑(𝜌/𝑀 )
𝑛=𝑀 𝑛=𝑀
𝜌𝑀 +1 𝑑 1
= 𝑝0 =
𝑀 !𝑀 𝑑(𝜌/𝑀 ) (1 − 𝜌/𝑀 )
𝜌𝑀 +1 1
𝐿 𝑐 = 𝑝0 (4.16)
𝑀 !𝑀 (1 − 𝜌/𝑀 )2
(b) 𝐿
Cadenas de Markov ∣ 64
𝐿
z }|𝑐 { 𝑏
∞
∑ 𝑀
∑ −1 𝑎 ∑ ∞ ∞
∑ ∞
∑ z }| {
𝐿 = 𝐸(𝑛) = 𝑛.𝑝𝑛 = 𝑛.𝑝𝑛 + 𝑛.𝑝𝑛 − 𝑀.𝑝𝑛 + 𝑀.𝑝𝑛
z}|{
𝑛=0 𝑛=0 𝑛=𝑀 𝑛=𝑀 𝑛=𝑀
{
𝑝/𝑛 < 𝑀 : 𝜆.𝑝𝑛−1 = 𝑛𝜇𝑝𝑛 ∴ 𝑛.𝑝𝑛 = 𝜌𝑝𝑛−1 ∴ reempl. en a:
𝑝𝑛−1 .𝜆𝑛−1 = 𝑝𝑛 .𝜇𝑛 ∴
𝑝/𝑛 ≥ 𝑀 : 𝜆.𝑝𝑛−1 = 𝑀 𝜇𝑝𝑛 ∴ 𝑀.𝑝𝑛 = 𝜌𝑝𝑛−1 ∴ reempl. en b:
[ (𝑀 −1 ∞
) ]
∑ ∑
𝐿 = 𝐿𝑐 + 𝜌 𝑝𝑛−1 + 𝑝𝑛−1 = 𝐿𝑐 + 𝜌 (4.17)
𝑛=1 𝑀
(c) 𝐻
𝐻 = 𝐿 − 𝐿𝑐 = 𝜌 (4.18)
(d) 𝑊
𝐿.𝑇𝑎 = 𝐿/𝜆 (4.19)
(e) 𝑊𝑐
𝑊𝑐 = 𝐿𝑐 .𝑇𝑎 = 𝐿𝑐 /𝜆 = 𝑊 − 𝑇𝑠 (4.20)
𝜌𝑀 1
𝑝(𝑡 > 0) = 𝑝(𝑛 ≥ 𝑀 ) = 𝑝0 (4.21)
𝑀 ! 1 − 𝜌/𝑀
Se demuestra que:
( 𝑀 )
𝜌 1
𝑝(𝑡 > 𝑡𝑐 ) = 𝑝0 𝑒𝑀 𝜇𝑡𝑐 (1−𝜌/𝑀 ) (4.22)
𝑀 ! 1 − 𝜌/𝑀
𝜆 −→ ∣∣∣∣∣ ∣ −→ 𝜇
1
de (4.14): 𝑝0 = =1−𝜌 (4.24)
1 + 𝜌/(1 − 𝜌)
de (4.15): 𝜌 < 1 (4.25)
𝜌2 𝜌2
de (4.16): (1−
𝐿𝑐 = 𝜌)
= (4.26)
(1 − 𝜌)2 (1 − 𝜌)
de (4.17): 𝐿 = 𝐿𝑐 + 𝜌 (4.27)
de (4.18): 𝐻 = 𝜌 (4.28)
de (4.20): 𝑊𝑐 = 𝐿𝑐 /𝜆 = 𝑊 − 𝑇𝑠 (4.30)
1
de (4.21): 𝑝(𝑡 > 0) = (1 − 𝜌)𝜌 =𝜌 (4.31)
1−𝜌
de (4.22): 𝑝(𝑡 > 𝑡𝑐 ) = 𝜌𝑒−𝜇𝑡𝑐 (1−𝜌) (4.32)
𝜆𝑖 = 𝜆 = 𝑐𝑡𝑒. ; 𝑖 = 0, 1, . . . , 𝑁 − 1
𝜇𝑖 = 𝑖𝜇 = ; 𝑖 = 1, 2, . . . , 𝑀 − 1
𝜇𝑖 = 𝑀𝜇 = ; 𝑖 = 𝑀, 𝑀 + 1, . . . , 𝑁
𝜆𝑁 = 0
Luego aplicando las (4.10) y (4.11) quedan expresiones similares a las (4.12)
y (4.13)
𝜌𝑛
𝑝𝑛 = 𝑝0 𝑛<𝑀 (4.33)
𝑛!
𝜌𝑛
𝑝𝑛 = 𝑝0 𝑀 ≤𝑛≤𝑀 (4.34)
𝑀 !𝑀 𝑛−𝑀
𝑁
(𝑀 −1 𝑁
) (𝑀 −1 𝑁
)
∑ ∑ 𝜌𝑛 ∑ 𝜌𝑛 ∑ 𝜌𝑛 𝜌𝑀 ∑ ( 𝜌 )𝑛−𝑀
𝑝𝑖 = 𝑝 0 + = 𝑝0 + =1
𝑖=0 𝑛=0
𝑛! 𝑀 !𝑀 𝑛−𝑀 𝑛=0
𝑛! 𝑀 ! 𝑀
𝑛=𝑀 𝑛=𝑀
(𝑀 −1
∑ 𝜌𝑛 𝑀
( 𝑁 −𝑀 +1
))−1
𝜌 1 − (𝜌/𝑀 )
𝑝0 = + (4.35)
𝑛=0
𝑛! 𝑀! 1 − (𝜌/𝑀 )
Debe notarse que en este modelo la relación 𝜌/𝑀 puede ser ≥ 1. Luego
de conocida la probabilidad p de las ecuaciones (4.33), (4.34) y (4,35) se
pueden calcular los demás indicadores:
𝐿𝑐 = 𝐸𝑝 (𝑛 − 𝑚) (4.36)
𝐿 = 𝐸(𝑛) (4.37)
𝑊 = 𝐿/𝜆‘ (4.38)
𝑊𝑐 = 𝐿𝑐 /𝜆‘ (4.39)
𝐻 = 𝐿 − 𝐿𝑐 (4.40)
( ( ) )
𝑁
siendo 𝜆‘ = 𝜆(1 − 𝑝𝑁 ) = 𝜆 1 − 𝑝0 (4.41)
𝑀 !𝑀 𝑁 −𝑀
𝜆 −→ ∣∣∣∣∣ ∣ −→ 𝜇
(a) 𝐿
𝑁 𝑁 𝑁
1 − 𝜌𝑁 +1
( )
∑ ∑
𝑛 𝑑 ∑ 𝑛 𝑑
𝐿 = 𝐸(𝑛) = 𝑛.𝑝𝑛 = 𝑝0 𝑛.𝜌 = 𝑝0 𝜌 𝜌 = 𝑝0 .𝜌 =
𝑛=0 𝑛=0
𝑑𝜌 𝑛=0
𝑑𝜌 1−𝜌
1−𝜌 −𝑁 𝜌 + 𝑁 + 1 1 ∼
a.2) si 𝜌 ≫ 1 : 𝑝0 ∼
= 𝑁 +1
∴ 𝐿= =𝑁+ =𝑁 (4.46)
−𝜌 1−𝜌 1−𝜌
1 1 1
a.3) si 𝜌 ∼ 1 : 𝐿 = 𝑁 + 𝑁 (𝑁 + 2)(𝜌 − 1) ∼
= 𝑁 (4.47)
2 12 2
(b) 𝐿𝑐
𝑁
∑ 𝑁
∑ 𝑁
∑
𝐿𝑐 = 𝐸(𝑛 − 1) = (𝑛 − 1)𝑝𝑛 = 𝑛.𝑝𝑛 − 𝑝𝑛 = 𝐿 − (1 − 𝑝0 ) (4.48)
𝑛=1 𝑛=0 𝑛=0
b.1) si 𝜌 ≪ 1 : 𝑝0 = 1 − 𝜌 ∴ 𝐿 = 𝐿 − 𝜌 (4.49)
( )
1−𝜌 1−𝜌 ∼
b.2) si 𝜌 ≫ 1 : 𝑝0 = ∴ 𝐿𝑐 = 𝐿 − 1 − =𝐿−1 (4.50)
−𝜌𝑁 +1 −𝜌𝑁 +1
Cadenas de Markov ∣ 69
1 1 1
b.3) si 𝜌 ∼ 1 : 𝐿1 = (𝑁 − 1) + (𝑁 − 1)(𝑁 + 1)(𝜌 − 1) ∼
= (𝑁 − 1) (4.51)
2 12 2
(c) 𝐻
𝐻 = 𝐿 − 𝐿𝑐 (4.52)
(d) 𝑊
(e) 𝑊𝑐
𝐿𝑐 /𝜆‘
𝑊𝑐 = (4.54)
𝐿.𝑇𝑠 = 𝐿/𝜇
𝑎
∣ → 𝜇𝑎
−→ 𝜆 ∣∣∣
∣ → 𝜇𝑏
𝑏
7654
0123 7654
0123 0123
7654
𝜆 𝜆
𝜇𝑎 𝜇𝑏 !
0Z p 02
a 3`
?>=< q
89:;
𝜆/2 𝜆
𝜇𝑎 +𝜇𝑏 𝜇𝑎 +𝜇𝑏
𝜇𝑏 1𝑏 𝜇𝑎
𝑗
𝑖/ (0) (1𝑎) (1𝑏) (2) (3) (4)
𝐴1𝑎 𝐴1𝑏 𝐴2 𝐴3 𝐴3 𝐴4 𝐴𝑢
(0) −𝜆 𝜆/2 𝜆/2 0 0 0 ... 1
(1𝑎) 𝜇𝑎 −(𝜇𝑎 + 𝜆) 0 𝜆 0 0 ... 1
𝐴= (1𝑏) 𝜇𝑏 0 −(𝜇𝑏 + 𝜆) 𝜆 0 0 ... 1
(2) 0 𝜇𝑏 𝜇𝑎 −(𝜇𝑎 + 𝜇𝑏 + 𝜆) 𝜆 0 ... 1
(3) 0 0 0 (𝜇𝑎 + 𝜇𝑏 ) −(𝜇𝑎 + 𝜇𝑏 + 𝜆) 𝜆 ... 1
(4) 0 0 0 0 0 (𝜇𝑎 + 𝜇𝑏 ) . . . 1
.............................................................................
𝑝= 𝑝0 𝑝1𝑎 𝑝1𝑏 𝑝2 𝑝3 𝑝4 ......
⎧
𝑝.𝐴0 = −𝜆.𝑝0 +𝜇𝑎 .𝑝1𝑎 +𝜇𝑏 .𝑝2 = 0 (4.55)
𝜆
𝑝.𝐴1𝑎 = 2 .𝑝0 −(𝜇𝑎 + 𝜆)𝑝1𝑎 +𝜇𝑏 .𝑝2 = 0 (4.56)
𝜆
−(𝜇𝑏 + 𝜆)𝑝1𝑏
⎨ 𝑝.𝐴1𝑏 =
2 .𝑝0 +𝜇𝑎 .𝑝2 = 0 (4.57)
𝑝.𝐴2 = 𝜆.𝑝1𝑎 𝜆.𝑝1𝑏 −(𝜇𝑎 + 𝜇𝑏 + 𝜆)𝑝2 +(𝜇𝑎 + 𝜇𝑏 )𝑝3 = 0 (4.58)
𝑝.𝐴3 = 𝜆.𝑝2 −(𝜇𝑎 + 𝜇𝑏 + 𝜆)𝑝3 +(𝜇𝑎 + 𝜇𝑏 )𝑝4 = 0 (4.59)
⎩ ................................................................................................................
𝑝.𝐴𝑢 = 𝑝0 +𝑝1𝑎 +𝑝1𝑏 +𝑝2 +𝑝3 +𝑝4 . . . = 1 (4.60)
𝜆
𝜆.𝑝2 = (𝜇𝑎 + 𝜇𝑏 )𝑝3 ∴ 𝑝3 = 𝑝2 (4.62)
𝜇𝑎 + 𝜇𝑏
Cadenas de Markov ∣ 71
𝜆
𝜆.𝑝3 = (𝜇𝑎 + 𝜇𝑏 )𝑝4 ∴ 𝑝4 = 𝑝3 (4.63)
𝜇𝑎 + 𝜇𝑏
𝜇𝑏 𝜆/2
de (4.56): 𝑝1𝑎 = 𝑝2 + 𝑝0 (4.64)
𝜇𝑎 + 𝜆 𝜇𝑎 + 𝜆
𝜇𝑎 𝜆/2
de (4.57): 𝑝1𝑏 = 𝑝2 + 𝑝0 (4.65)
𝜇𝑏 + 𝜆 𝜇𝑏 + 𝜆
𝜇𝑎 .𝜇𝑏 𝜇𝑎 .𝜆 𝜇𝑏 .𝜇𝑎 𝜇𝑏 .𝜆
𝜆.𝑝0 = 𝑝2 + 𝑝0 + 𝑝2 + 𝑝0 , despejando 𝑝2 queda:
𝜇𝑎 + 𝜆 2(𝜇𝑎 + 𝜆) 𝜇𝑏 + 𝜆 2(𝜇𝑏 + 𝜆)
( )
𝜇𝑎 𝜇𝑏
𝜆 1− −
2(𝜇𝑎 + 𝜆) 2(𝜇𝑏 + 𝜆)
𝑝2 = 𝜇𝑎 .𝜇𝑏 𝜇𝑎 .𝜇𝑏 𝑝0 (4.66)
+
𝜇𝑎 + 𝜆 𝜇𝑏 + 𝜆
y por
∑último de (4.60) se despeja 𝑝0 :
de 𝑝𝑖 : 𝑝0 = . . . . . . (4.67)
∀𝑖
Cadenas de Markov ∣ 72
𝑎
∣ → 𝜇𝑎
/ / ∣
𝜆 𝜆‘
∣ → 𝜇𝑏
‘
𝜆−𝜆 𝑏
y el grafo de tasas de transición,la matriz A y el vector p son:
𝑗
𝑖/ (000) (100) (010) (110) −
𝐴000 𝐴100 𝐴010 𝐴110 𝐴𝑢
(000) −𝜆 𝜆/2 𝜆/2 0 1
𝐴= (100) 𝜇𝑎 −(𝜇𝑎 + 𝜆) 0 𝜆 1
(010) 𝜇𝑏 0 −(𝜇𝑏 + 𝜆) 𝜆 1
(110) 0 𝜇𝑏 𝜇𝑎 −(𝜇𝑎 + 𝜇𝑏 + 𝜆) 1
(111) 0 0 0 (𝜇𝑎 + 𝜇𝑏 ) 1
𝑝= 𝑝000 𝑝100 𝑝010 𝑝110 𝑝111
Cadenas de Markov ∣ 73
⎧
𝑝.𝐴000 = −𝜆.𝑝000 +𝜇𝑎 .𝑝100 +𝜇𝑏 .𝑝010 =0
𝜆
𝑝.𝐴100 = 2 .𝑝000 −(𝜇𝑎 + 𝜆)𝑝100 +𝜇𝑏 .𝑝110 =0
⎨
𝜆
𝑝.𝐴010 = 2 .𝑝000 −(𝜇𝑏 + 𝜆)𝑝010 +𝜇𝑎 .𝑝110 =0
𝑝.𝐴110 = 𝜆.𝑝100 +𝜆.𝑝010 −(𝜇𝑎 + 𝜇𝑏 + 𝜆)𝑝110 +(𝜇𝑎 + 𝜇𝑏 )𝑝111 = 0
⎩
𝑝.𝐴𝑢 = 𝑝000 +𝑝100 +𝑝010 +𝑝110 +𝑝111 = 1
∣ → 𝜇𝑎 ∣ → 𝜇𝑏
𝜆 −→
𝑎 𝑏
𝑗
𝑖/ (0, 0) (1, 0) (0, 1) (1, 1) −
𝐴00 𝐴10 𝐴01 𝐴11 𝐴𝑢
(0, 0) −𝜆 𝜆 0 0 1
𝐴 = (1, 0) 0 −𝜇𝑎 𝜇𝑎 0 1
(0, 1) 𝜇𝑏 0 −(𝜇𝑏 + 𝜆) 𝜆 1
(1, 1) 0 𝜇𝑏 0 −(𝜇𝑎 + 𝜇𝑏 ) 1
(𝑏1 , 1) 0 0 𝜇𝑏 0 1
𝑝= 𝑝00 𝑝10 𝑝01 𝑝11 𝑝𝑏1 ,1
⎧
𝑝.𝐴00 = −𝜆.𝑝00 +𝜇𝑏 .𝑝01 = 0 (4.68)
𝑝.𝐴10 = 𝜆.𝑝00 −𝜇𝑎 .𝑝10 +𝜇𝑏 .𝑝11 = 0 (4.69)
⎨
𝑝.𝐴01 = 𝜇𝑎 .𝑝10 −(𝜇𝑏 + 𝜆)𝑝01 +𝜇𝑏 .𝑝𝑏1 ,1 = 0 (4.70)
𝑝.𝐴11 = 𝜆.𝑝01 −(𝜇𝑎 + 𝜇𝑏 ).𝑝11 = 0 (4.71)
⎩
𝑝.𝐴𝑢 = 𝑝00 𝑝10 𝑝01 𝑝11 𝑝𝑏1 ,1 = 1 (4.72)
luego de (4.68):
𝜆
𝑝01 = .𝑝00 (4.73)
𝜇𝑏
de (4.71):
𝜆 𝜆2
𝑝11 = .𝑝01 = .𝑝00 (4.74)
𝜇𝑎 + 𝜇𝑏 𝜇𝑏 (𝜇𝑎 + 𝜇𝑏 )
de (4.68) y (4.74):
Cadenas de Markov ∣ 75
𝜆2
( )
𝜇𝑏 𝜆 𝜆
𝑝10 = .𝑝11 + .𝑝00 = + 𝑝00 (4.75)
𝜇𝑎 𝜇𝑎 𝜇𝑎 (𝜇𝑎 + 𝜇𝑏 ) 𝜇𝑎
𝜆2
( )
(𝜇𝑏 + 𝜆) 𝜇𝑎 𝜆(𝜇𝑏 + 𝜆) 𝜆
𝑝𝑏1 ,1 = .𝑝01 − .𝑝10 = 2 − − 𝑝00 (4.76)
𝜇𝑎 𝜇𝑏 𝜇𝑏 𝜇𝑏 (𝜇𝑎 + 𝜇𝑏 ) 𝜇𝑏
1
𝑝00 = (4.78)
1 + 2𝜌 + 32 𝜌2
𝜌 + 12 𝜌2
𝑝10 = (4.79)
1 + 2𝜌 + 32 𝜌2
𝜌
𝑝01 = (4.80)
1 + 2𝜌 + 32 𝜌2
1 2
2𝜌
𝑝11 = 𝑝𝑏1 ,1 = (4.80)
1 + 2𝜌 + 32 𝜌2
{
𝑝00 = 𝑝01 = 0
a) 𝜌 ≫ 1
𝑝10 = 𝑝11 = 𝑝𝑏1 ,1 = 1/3
⎧
⎨ 𝑝00 = 𝑝01 = 2/9
b) 𝜌 = 1 𝑝10 = 3/9
𝑝11 = 𝑝𝑏1 ,1 = 1/9
⎩
⎧
⎨ 𝑝00 = 1 − 2𝜌
c) 𝜌 ≪ 1 𝑝10 = 𝑝01 = 𝜌
𝑝11 = 𝑝𝑏1 ,1 = 0
⎩
Por último los indicadores: longitud del sistema L, número promedio de canales
que están efectivamente trabajando: 𝐻, y grado de ocupación de cada uno de
ellos: 𝐻1 y 𝐻2 , quedan expresados de la siguiente forma:
2𝜌 + 25 𝜌2
𝐿 = 𝑝10 + 𝑝01 + 2(𝑝11 + 𝑝𝑏1 ,1 ) = (4.82)
1 + 2𝜌 + 32 𝜌2
2𝜌 + 2𝜌2
𝐻 = 𝑝10 + 𝑝01 + 𝑝𝑏1 ,1 + 2𝑝11 = (4.83)
1 + 2𝜌 + 32 𝜌2
𝜌 + 𝜌2
𝐻1 = 𝑝10 + 𝑝11 = (4.84)
1 + 2𝜌 + 32 𝜌2
𝜌 + 𝜌2
𝐻2 = 𝑝01 + 𝑝11 + 𝑝𝑏1 ,1 = (4.85)
1 + 2𝜌 + 32 𝜌2
b) 𝜌 = 1 : 𝐿 = 1 ; 𝐻 = 8/9 ; 𝐻1 = 𝐻2 = 4/9
Cadenas de Markov ∣ 77
c) 𝜌 ≪ 1 : 𝐿 = 2𝜌 ; 𝐻 = 2𝜌 ; 𝐻1 = 𝐻2 = 𝜌
Cadenas de Markov ∣ 78
5 APLICACIONES
5.1 Aplicación comercial (“Brand switching”)
Un cliente puede adquirir un televisor de alguna de las siguientes marcas: X, Y
o Z. Se asume que estas alternativas cubren todas las posibilidades de compra.
Con respecto al comportamiento de compra, los fabricantes de los televisores
disponen de la siguiente información:
* El 30% de los clientes que poseen un televisor X se mantienen leales a la
marca en su próxima compra, mientras que el 40% adquiere un Y y el 30%
restante, un Z.
* De los clientes que actualmente poseen un televisor marca Y, el 40% com-
pra un televisor X, el 25% vuelve a adquirir un Y y el resto uno de la marca
Z.
* El 20% de los clientes que poseen un Z compran un X, el 30% un Y y el
resto no cambia de marca.
Se desea saber:
a) ¿Cuál es la probabilidad de que un poseedor de un televisor X adquiera un
Z al cabo de dos compras?
b) ¿Cuál es la probabilidad de que el dueño de un X compre nuevamente un
televisor de la misma marca luego de tres transacciones?
c) ¿Cuál será el porcentaje de participación en el mercado a largo plazo?
d) ¿Cuál es el número esperado de compras que transcurrirán antes que el
actualmente poseedor de un televisor X adquiera un Z?
Solución:
𝑋 𝑌 𝑍
𝑋 0, 3 0, 4 0, 3
𝑃 =
𝑌 0, 4 0, 25 0, 35
𝑍 0, 2 0, 3 0, 5
0,3 0,25
89:;
?>=< j 6 89:;
* ?>=<
0,4
𝑋V 𝑌
0,4
0,5 0,3
?>=< v
89:;
0,2 0,35
𝑍S
0,5
(1)
𝑉1 = [0, 3 0, 4 0, 3]
0, 3 0, 4 0, 3
(2) (1)
𝑉1 = 𝑉1 .𝑃 = [0, 3 0, 4 0, 3] 0, 4 0, 25 0, 35 = [0, 31 0, 31 0, 38]
0, 2 0, 3 0, 5
(2)
Si vector 𝑉1 informa las probabilidades de que el dueño de un televisor
X adquiera un X, Y o Z despectivamente en la segunda compra. Luego, la
probabilidad de que adquiera un Z en dos transacciones es 38%.
La misma información puede obtenerse de la matriz 𝑃 2 . En ella podemos
observar todas las probabilidades asociadas al segundo paso para todos los
estados iniciales.
Ası́ la probabilidad de que el actual-
mente poseedor de un Y adquiera un
0, 31 0, 31 0, 38 Z en la segunda compra es 38,25%.
2
𝑃 = 0, 29 0, 3275 0, 3825 La probabilidad de que el dueño
0, 28 0, 305 0, 415 de un televisor marca Z vuelva a
adquirir otro de la misma marca en
dos transacciones es 41,5%, etc.
0, 3 0, 4 0, 3
(3) (2)
b) 𝑉1 = 𝑉1 .𝑃 = [0, 31 0, 31 0, 38] 0, 4 0, 25 0, 35 = [0, 293 0, 3155 0, 3915]
0, 2 0, 3 0, 5
Cadenas de Markov ∣ 80
0, 31 0, 31 0, 38
(3) (1)
𝑉1 = 𝑉1 .𝑃 2 = [0, 3 0, 4 0, 3] 0, 29 0, 3275 0, 3825 = [0, 293 0, 3155 0, 3915]
0, 28 0, 305 0, 415
Es decir, la probabilidad de que el ahora dueño de un X compre nue-
vamente un televisor de la misma marca el cabo de 3 pasos es 29,3%. Al
mismo resultado pudo arribarse a partir de la 𝑃 3 .
0, 3 0, 4 0, 3
[𝑝(𝑥) 𝑝(𝑦) 𝑝(𝑧)] 0, 4 0, 25 0, 35 = [𝑝(𝑥) 𝑝(𝑦) 𝑝(𝑧)]
0, 2 0, 3 0, 5
y por la ecuación p(x) + p(y) + p(z) =1
⎧
⎨ 𝑝(𝑥).0, 3 + 𝑝(𝑦).0, 4 + 𝑝(𝑧).0, 2 = 𝑝(𝑥)
𝑝(𝑥).0, 4 + 𝑝(𝑦).0, 25 + 𝑝(𝑧).0, 35 = 𝑝(𝑦)
𝑝(𝑥) + 𝑝(𝑦) + 𝑝(𝑧) = 1
⎩
𝑋 𝑌 𝑍
𝑋 0, 3 0, 4 0, 3
𝑌 0, 4 0, 25 0, 35
𝑍 0 0 1
𝐼 𝑂
Esta matriz se descompone en 4 submatrices de la forma
𝐴 𝑁
𝑍 𝑋 𝑌
𝑍 1 0 0
𝑋 0, 3 0, 3 0, 4
𝑌 0, 35 0, 4 0, 25
1 0 0, 3 0, 4 0, 7 −0, 4
𝐼 −𝑁 = − =
0 1 0, 4 0, 25 −0, 4 0, 75
2, 0548 1, 0959
(𝐼 − 𝑁 )−1 =
1, 0959 1, 9178
Solución:
7654
0123 7654
0123
0,35 /
1 qq q8 0O
q
qqq
0,20qqqqq
qq 0,05
qqqqq
0123
7654 7654
0123
q
qqqq
2K /3
S
1 2 3 4
Cat. 1 2 3 0 Total
1 0, 555 0, 95 0, 35
1 111 19 70 200
𝑃 = 2 0, 7625 0, 375 0, 2
2 61 3 16 80
3 0, 95 0, 05
3 19 1 20
4 1
0,555
7654
0123 0123
7654
1
0,35
1 /8 0
q
qq O
qqqqq
0,20qqqq
q
qqq
0,095 0,05
qq
qq
7654
0123 0123
7654
qqqq 0,0375
2K /3
S
0,7625 0,95
0 1 2 3
0 1 0 0 0 0, 555 0, 95
1 0, 35 0, 555 0, 095 𝑁= 0, 7625 0, 0375
2 0, 2 0, 7625 0, 0375 0, 95
3 0, 95
Cadenas de Markov ∣ 85
2, 2472 0, 8989
(𝐼 − 𝑁 )−1 =
0 4, 2105
Cadenas de Markov ∣ 86
𝑑 0 1 2 ≥3
𝑝 0, 6 0, 3 0, 1 0
𝑆3 𝑆2 𝑆1 𝑆0
𝑆3 0, 13 0, 26 0, 29 0, 32 La probabilidad de que haya dos
b. 𝑆2 0, 13 0, 26 0, 61 o más repuestos al cabo de cuatro
𝑆1 0, 13 0, 87 meses es 0,26 + 0,13 = 0,39 (39% ).
𝑆0 1
Cadenas de Markov ∣ 88
𝑆0 𝑆3 𝑆2 𝑆1
𝑆3 𝑆2 𝑆1
𝑆1 0 0 0 0
𝑆3 0, 6 0, 3 0, 1
𝑆3 0, 6 0, 3 0, 1 𝑁=
𝑆2 0, 6 0, 3
𝑆2 0, 1 0, 6 0, 3
𝑆1 0, 6
𝑆1 0, 4 0, 6
d. El número prometido de meses que el sistema está en cada uno de los es-
tados S3, S2 y S1 es, respectivamente, 10/4, 30/16 y 25/32, valores que
obtenemos de la matriz (𝐼 − 𝑁 )−1 . Luego; el costo esperado de almace-
namiento es:
[ ]
10 𝑚𝑒𝑠 30 𝑚𝑒𝑠 25 𝑚𝑒𝑠 $
1 𝑢𝑛𝑖𝑑𝑎𝑑 x + 2 𝑢𝑛. x + 3 𝑢𝑛. x x 10
4 𝑐𝑖𝑐𝑙𝑜 16 𝑐𝑖𝑐𝑙𝑜 32 𝑐𝑖𝑐𝑙𝑜 𝑢𝑛. 𝑚𝑒𝑠
$
= 85, 94
𝑐𝑖𝑐𝑙𝑜
Cadenas de Markov ∣ 89
0,03 0,05
de otro centro
/ 𝐴 / gfed
`abc
𝐶𝐶𝐴
/ 𝐵 / gfed
`abc
𝐶𝐶𝐵 / a Almacenes
/ Desechos
𝑇𝑒 (𝐻𝐻) Costo($/𝐻𝐻)
Mecanizado A 2 1200
Control A 0, 1 2000
Mecanizado B 3 1800
Mecanizado A 0, 2 2000
Estado Operación
PA Procesamiento en máquina A
CCA Control de Calidad del proceso A
1. PB Procesamiento en máquina B
CCB Control de Calidad del proceso B
D Defectuosas
A Almacén de piezas terminadas
Los estados D y A son estados absorbentes.
0,03 0,90
@ABC
GFED 0,90 / ONML
HIJK 0,95 / GFED
@ABC / ONML
HIJK 0,90 / ?>=<
89:;
~ ~ 0,91
PA MMM CCA< PB CCB A
MMM << T
MMM <<
MMM0,10 << 0,02 1
MMM <<
0,09
MMM << 0,05
MMM <<
& ?>=<
89:;
MMM<
D
T
1
𝑃𝐴 𝐶𝐶𝐴 𝑃 𝐵 𝐶𝐶𝐵 𝐷 𝐴
0, 90 0, 10 𝑃𝐴
0, 30 0, 95 0, 02 𝐶𝐶𝐴
𝑃 = 0, 91 0, 09 𝑃𝐵
0, 05 0, 05 0, 90 𝐶𝐶𝐵
1 𝐷
1 𝐴
Reagrupando:
Cadenas de Markov ∣ 91
𝐷 𝐴 𝑃 𝐴 𝐶𝐶𝐴 𝑃 𝐵 𝐶𝐶𝐵
𝐷 1
𝐴 1
𝑃 = 𝑃𝐴 0, 10 0, 90
𝐶𝐶𝐴 0, 02 0, 03 0, 95
𝑃𝐵 0, 09 0, 91
𝐶𝐶𝐵 0, 05 0, 90 0, 05
0 0, 90 0 0 1 −0, 90 0 0
0, 30 0 0, 95 0 −0, 30 1 −0, 95 0
𝑁= 𝐼 −𝑁 =
0 0 0 0, 91 0 0 1 −0, 91
0 0 0, 05 0 0 0 −0, 05 1
Estado Costo
𝐸0 0
𝐸1 1000$
𝐸2 3000$
Cuando la máquina se encuentra en el estado 3 se la repara llevándola al estado
𝐸0 . Este trabajo toma un dı́a para completarse a un costo de 4000$. El lucro
cesante diario es de 2000$.
Asumiendo las siguientes probabilidades de transición
Estado 𝐸0 𝐸1 𝐸2 𝐸3
𝐸0 0 7/8 1/16 1/16
𝐸1 − 3/4 1/8 1/8
𝐸2 1/2 1/2
1. Formular el problena como una cadena de Markov
2. Calcular el costo promedio esperado a largo plazo
3. Determinar el número promedio de dı́as de funcionamiento de la máquina
Solución:
Cadenas de Markov ∣ 94
1.
𝐸0 𝐸1 𝐸2 𝐸3
𝐸0 7/8 1/16 1/16
𝑃 = 𝐸1 3/4 1/8 1/8
𝐸2 1/2 1/2
𝐸3 1
1/16
~ @@
~~ @@
~~ @@
~~ 3/4 @@
~ @@
ONML
HIJK / ONML
HIJK / ONML
HIJK
~~ 7/8
1/8
𝐸0 AA 𝐸1 𝐸2
A
A` A AA } } X
AA AA }}
AA AA1/16 } 1/2
AA AA }}}
AA A 1/8 }}
1 AAA AAA }}
AA A }}}
ONML
HIJK
A }~
𝐸3
⎧
𝑝(3) = 𝑝(0)
⎨ 𝑝(0).7/8 + 𝑝(1).3/4 = 𝑝(1)
⎧
𝑝(0) = 2/13
𝑝(1) = 7/13
⎨
𝑝(0).1/16 + 𝑝(1).1/8 + 𝑝(2).1/2 = 𝑝(2) −→
𝑝(2) = 2/13
𝑝(3) = 2/13
⎩
⎩ 𝑝(0) + 𝑝(1) + 𝑝(2) + 𝑝(3) = 1
Cadenas de Markov ∣ 95
= 1923, 08$
𝐸0 𝐸1 𝐸2 𝐸3 𝐸3 𝐸0 𝐸1 𝐸2
𝐸0 0 7/8 1/16 1/16 1
𝑃 = 𝐸1 0 3/4 1/8 1/8 1/16 7/8 1/16
𝐸2 0 0 1/2 1/2 1/8 3/4 1/8
𝐸3 0 0 0 1 1/2 1/2
1 7/2 1 1 5, 5
−1
(𝐼 − 𝑁 ) .1̄ = 0 4 1 x 1 = 5
0 0 2 1 2
1.
𝐶𝐶 𝐶𝐷 𝑀 𝑂 𝐶𝑂 𝐼𝑁 𝐶𝑂 𝐼𝑁 𝐶𝐶 𝐶𝐷 𝑀 𝑂
𝐶𝐶 0, 3 0, 1 0, 1 0, 5 𝐶𝑂 1
𝐶𝐷 0, 4 0, 1 0, 5 𝐼𝑁 1
𝑃 =
𝑀𝑂 0, 7 0, 3 𝐶𝐶 0, 5 0, 3 0, 1 0, 1
𝐶𝑂 1 𝐶𝐷 0, 5 0, 4 0, 1
𝐼𝑁 1 𝑀 𝑂 0, 7 0, 3
2.
1, 429 0, 238 0, 167 1 1, 834
𝑛
¯𝑖 = 0 1, 667 0, 167 x 1 = 1, 834
0 0 1 1 1
0123
7654m
?1
1 ind. progr. 1 falla forzada
7654
0123 7654
0123
1 mant. progr. 1 falla forzada
3Z 6- 2 Z
7654
0123 7654
0123
1 mant. progr.
5Z 64Z
7654
0123 7654
0123
1 mant. progr.
7 6
Se puede observar que existen cuatro transiciones básicas:
- falla forzada
- reparación
- indisponibilidad programada
- mantenimiento
Se asumirá la hipótesis de que tanto los regı́menes de falla y de indisponibili-
dad programada como las duraciones de las reparaciones y los mantenimientos
Cadenas de Markov ∣ 99
0123
7654m
?1
𝑑13 =3𝜆𝑝 𝑑12 =𝜇𝑓
7654
0123 7654
0123
𝑑31 =𝜇𝑝 𝑑12 =3𝜆𝑓
3Z 6- 2 Z
7654
0123 7654
0123
𝑑52 =𝜇𝑝
5Z 64Z
7654
0123 7654
0123
𝑑74 =𝜇𝑝
7 6
Todas las restantes tasas 𝑑𝑖𝑗 que no figuran en el grafo son nulas. Luego las
probabilidades del estado permanente:
𝑃 = 𝑃1 𝑃2 𝑃3 𝑃 4 𝑃5 𝑃 6 𝑃7
se calculan de la expresión (3.3.1):
𝑃 = 𝐵.𝐴−1
References
[1] Bronson, R Investigación de Operaciones, serie Shaum; Mc. Graw Hill
[2] Gallagher y Watson, Quantative Methods for Busines; Mc. Graw Hill
[3] Gillett B., Introduction to Operations Research; Mc. Graw Hill
[4] Hillier y Lieberman, Introducción a la Investigación de Operaciones; Mc.
Graw Hill
[5] Kaufman A., Métodos y Modelos de Investigación de Operaciones;
C.E.C.S.A
[6] Parsen, Procesos Estocásticos; Parainfo
[7] Prawda J., Métodos y Modelos de Investigación de Operaciones; Limusa
[8] Rau J., Optimization and Probability in System Engieneering; Van Nostran
Reinhold
[9] Shambin y Stevens, Investigación de Operaciones, Un enfoque fundamen-
tal; Mc. Graw Hill