Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teoría de Colas
Carlos F. Belaustegui Goitia
Procesos y Cadenas de Markov
• Variables binomial, geométrica y de Poisson.
• Procesos puntuales.
• Procesos de Markov.
• Cadenas de Markov. Clasificación de estados, clases de cadenas, estado
estacionario. Teorema de Perron-Frobenius.
• Cadenas de Markov en tiempo continuo. Ecuaciones de balance global.
• Aplicaciones.
1 3 4 8 13 15 21
1 3 4 8 13 15 21
1 3 4 8 13 15 21 n0
1 2 4 5 11 19 20 X=n
22 X=n
3 5 6 7 12 17 20 combinaciones
............... 7 Propiedad “sin memoria” de la distribución geométrica
4 6 8 9 16 21 22 P ( X = n, X > n0 ) P ( X = n) q n −1 p
P ( X = n / X > n0 ) = = = ∞
=
P ( X > n0 ) P ( X > n0 )
Aplicación: Proceso de Bernoulli como modelo ∑q
k = n0 +1
k −1
p
de flujo ATM
q n −1 q n −1
= ∞
= n0
= q n − n0 −1 p = P ( X = n − n0 )
1 1− q
∑q i
−
1− q 1− q
5 48 i = n0
48
53 bytes
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
1 CC = 2.83 uSec @ 149.76 Mbps
3
Variables Binomial y de Poisson
Variable Binomial: La probabilidad de que el evento Variable de Poisson: Si p<<1, np=a, y k del orden de np
A, cuya probabilidad es P(A) = p, ocurra k veces en n
pn (k + 1) p n−k a 1− k / n a
pruebas es = ⋅ = ⋅ n→
→∞
pn (k ) 1− p k +1 1− a / n k +1 k +1
n n n!
pn (k ) = p k (1 − p) n−k , = a
k k k!(n − k )! pn (k + 1) = pn ( k )
k +1
p(0) = lim pn (0) = lim (1 − p) n = lim (1 − a / n) n = e −a
n →∞ n→∞ n→∞
n=22, k=7 p(1) = ae −a
a a2
1 3 4 8 13 15 21
p ( 2) = p(1) = e −a
2 2
1 3 4 8 13 15 21 L
1 2 4 5 11 19 20 22
3 5 6 7 12 17 20 combinaciones a k −a
7 p(k ) = e
............... k!
4 6 8 9 16 21 22
t 2 − t1 ∆t T
P(1 punto en [t1 , t 2 ]) = p = =
T T
n
pn (k puntos en [t1 , t 2 ]) = p k (1 − p) n−k
k Densidad de puntos
λ = n /T
p(1) = λ∆t e − λ∆t ≈ λ∆t (1 − λ∆t ) ∆ → λ∆t
t →0
n → ∞, T → ∞, λ = cte., p = ∆t / T → 0
a = np = n ∆t / T = λ ∆t (λ∆t ) k −λ∆t (λ∆t ) k (λ∆t ) k
p(k ) = e ≈ (1 − λ∆t ) ∆
t →0
→
k! k! k!
(λ∆t ) k −λ∆t
pn (k puntos en [t1 , t 2 ]) n → e = p(k ) P (1 punto en [t, t + ∆t ])
,T →∞
k! λ = lim
∆t →0 ∆t
X x0
t t+x X
t
Separación entre puntos: sea X = distancia desde Propiedad “sin memoria” de la distribución
t al primer punto a la derecha de t. exponencial
FX ( x) = P( X ≤ x) = 1 − P( X > x) =
P( X ≤ x, X ≥ x0 )
−λx FX ( x / X ≥ x0 ) = P( X ≤ x / X ≥ x0 ) = =
= 1 − P (0 puntos en [t , t + x]) = 1 − e x≥0 P( X ≥ x0 )
f X ( x) = λ e −λx u ( x) P( x 0 ≤ X ≤ x) FX ( x) − FX ( x0 )
= = = 1 − e−λ ( x − x0 )
∞
1 1 P( X ≥ x0 ) 1 − FX ( x0 )
E ( X ) = ∫ xλ e −λx dx = , var( X ) = 2
0
λ λ f X ( x / X ≥ x0 ) = λ e−λ ( x − x0 ) u ( x − x0 ) = f X ( x − x0 )
Los tiempos entre arribos son independientes y Lo que ocurre después de t0 es independiente de lo
distribuídos exponencialmente con parámetro λ que ocurrió antes de t0..
servidor
tiempo
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas 8
Ejemplo: Modelo de Tráfico Telefónico
fTh(t) Th: duración de la comunicación
X (holding time)
t t+x
fTh (t ) = µ e − µ t u (t )
f X ( x) = λ e − λx u ( x)
∞ Fdp experimental
−λx 1 1
E ( X ) = ∫ xλ e dx = , var( X ) = 2
0
λ λ
L 2
λ: tasa de arribos (llamadas/seg) i
1/µ: duración media de la llamada (seg) T
a = λ ⋅ (1/ µ ) Tráfico (Erlang) N i 1 Ni 1 Ni
ai = λ̂i ⋅ Eˆ (Thi ) = ⋅ ∑ tki = ∑ tki Tiempo medio de ocupación
T N i k =1 T k =1 de una línea
1 L
a = ∑ ai = ∑ jtj
Promedio de líneas ocupadas
simultáneamente
i T j =0
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas Tiempo total en el que 9
Número de ocupaciones simultáneas exactamente j líneas están ocupadas
Procesos de Markov
Cadena de Markov: Proceso de Markov en tiempo
Proceso de Markov: Es un proceso estocástico cuyo discreto con un conjunto numerable de estados ai.
pasado no tiene influencia sobre el futuro si el presente Especificado en términos de:
está especificado. pi (n) = P( X n = ai ) Prob. estado
t n −1 < t n Propiedades:
P[X (t n ) ≤ xn / X (t ) ∨ t ≤ t n −1 ] = P[X (t n ) ≤ xn / X (t n −1 )]
πi2
∑π ij ( n, m ) = 1 πi1
Tiempo discreto: j
ai
t1 < t 2 < L < t n Π (n, m)1 = 1 Matriz estocástica πik
P[X (t n ) ≤ xn / X (t n −1 ),L, X (t1 )] = P[X (t n ) ≤ xn / X (t n −1 )]
p1
p j (n) = ∑ pi (k )π ij (k , n) π1j
p2
continuo
Sistemas
i
aj π2j
estado
dinámicos p T ( n ) = p T ( k ) Π ( k , n)
πij p
i
discreto
Cadenas de Procesos
Markov puntuales-
Colas
π ij (k , n) = ∑π il (k , m)π lj (m, n)
discreto continuo l
tiempo Ecuación de
Π (k , n) = Π (k , m)Π (m, n) Chapman-Kolmogorov
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas 10
Propiedades de las Cadenas de Markov
Propiedades generales de los procesos de Markov Propiedades de las cadenas de Markov
⇒ f ( xn / xn −1 , L, x1 ) = f ( xn / xn −1 ) P( X m = a j , X n = ai ) P( X n = ai )
=∑ = =1
∞ j P( X n = ai ) P( X n = ai )
E ( X n / X n −1 ,L , X 1 ) = ∫ x f (x / x n −1 ,L , x1 ) dx =
−∞
∞
∑ p (k )π
i
i ij (k , n) = ∑ P( X k = ai ) P( X n = a j / X k = ai ) =
i
= ∫ x f ( x / xn−1 ) dx =E ( X n / X n−1 )
−∞
= ∑ P( X k = ai , X n = a j ) =P( X n = a j ) = p j (n)
i
k < m < n:
f ( xn / xn +1 ,L , xn + k ) = f ( xn / xn +1 ) Un proceso de Markov también
es de Markov si el tiempo se invierte. π ij ( k , n) = P ( X n = a j / X k = ai ) = ∑ P ( X n = a j , X m = al / X k = ai ) =
l
P ( X n = a j , X m = a l , X k = ai )
k < m < n: =∑ =
Si el presente está especificado, l P ( X k = ai )
f ( xn , x m , xk )
f ( xn , xk / x m ) = = el pasado es independiente del P ( X n = a j / X m = a l , X k = ai ) P ( X m = al , X k = a i )
f ( xm ) futuro. =∑ =
l P ( X k = ai )
f ( xn / xm ) f ( xm / xk ) f ( xk )
= = f ( xn / xm ) f ( xk / xm ) = ∑ P ( X n = a j / X m = a l , X k = a i ) P ( X m = a l / X k = ai ) =
f ( xm )
l
= ∑ P ( X n = a j / X m = a l ) P ( X m = al / X k = a i ) =
l
= ∑ π il ( k , m)π lj ( m, n)
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría
l de Colas 11
Evolución de una Cadena de Markov
Cadenas homogéneas: Las probabilidades de Evolución del sistema
transición πij(m,n) sólo dependen de la diferencia p(n) = [ p1 (n) L p N ( n)]T
k=n-m.
Π (2) = Π (1)Π (1) = Π 2
L p T ( n) = p T ( k ) Π ( k , n) =
Π (n + 1) = Π (n)Π = pT (k )Π (n − k ) =
Ecuación de Chapman-Kolmogorov:
Π ( n) = Π n = pT (k )Π n − k =
π ij (k , n) = ∑ π il (k , m)π lj (m, n) = pT (0)Π n
l Estado estacionario
Π (k , n) = Π (k , m)Π (m, n) p ( n) = p Matriz de probabilidades de transición a n pasos.
El elemento i,j de Πn es la probabilidad de llegar
pT = pT Π de i a j en exactamente n pasos.
π π 01 1 − a a p = pΠ
Π = 00 =
π 10 π 11 b 1 − b 1 − a a p0 = b
[ p0 p1 ] = [ p0 p1 ] ⇒ a+b
n 1 b a (1 − a − b) n a − a b 1 − b a
Π ( n) = Π = +
a + b b a a + b − b b p0 + p1 = 1 p1 =
a+b
1 ∈ σ (Π ) ⇒ 1 ≤ ρ (Π )
n
Π ≥0
ρ (Π ) = 1
Matriz Estocástica ρ (∗) ≤ ∗ ⇒ ρ (Π ) ≤ Π ∞ = 1
Π1 = 1 ⇔ (1,1) es un par propio de Π El radio espectral es menor o igual El radio espectral es unitario
que cualquier norma
Π1 = 1 ⇔ Π ∞ max Πx ∞ = max ∑ π ij = 1
x ∞ =1 i
i
0 I r
t r
Todos
Todoslos
losestados
estadoscomunican.
comunican.La
Lacadena
cadenaconsiste
consisteenenuna
unaúnica
únicaclase
clase
dedeequivalencia.
equivalencia.
(
det(A − λI ) = det AT − λI ) A y AT tienen iguales
autovalores
Avi = λi v i ⇒ uTj Avi = λi uTj v i
j v i = 0 si λi ≠ λ j
T
⇒ u
u j A = λ j u j ⇒ u j Avi = λ j u j v i Autovectores derecho e
T T T T
AV = VΛ ⇔ V −1AV = Λ T −1 T
⇔U =V ⇔U V=I
U A = ΛU ⇔ U A(U ) = Λ
T T T T −1
n
A = VΛV = VΛU = ∑ λi v i uTi
−1 T
Descomposición espectral
i =1
Matriz primitiva
A≥0, irreducible es primitiva si tiene un único autovalor r = ρ(A) de módulo
máximo (es decir, un único autovalor sobre el círculo espectral).
A≥0, irreducible es imprimitiva de índice h si tiene h autovalores de módulo
máximo.
Test de Frobenius: A≥0 es primitiva sii Am>0 para algún m≥1.
2
n −2 n+ 2
Test de Wielandt: A≥0 ∈ℜnxn es primitiva sii A >0
∑Z
n =0
n : número de visitas al estado j antes del tiempo k .
La cadena es periódica de período h.
k −1
∑Z
n =0
n / k : fracción de veces que el estado j es visitado antes del tiempo k .
E ( Z n ) = 1 ⋅ P( Z n = 1) + 0 ⋅ P( Z n = 0) = P( Z n = 1) = p j (n)
k −1 k −1 k −1
( )
E ∑ Z n / k = ∑ p j ( n) / k = ∑ p T ( n ) / k = p T j
n=0 n =0 n =0 j
La fracción de tiempo a largo plazo que la cadena pasa en j es pj :
componente j del vector de Perron pT. La interpretación vale también
cuando la matriz es primitiva y existe un estado estacionario.
I + Π + L + Π k −1 0 (I − Γ11 ) Γ12 L
−1
0 0 L Π rr Π r ,r +1 Π r ,r + 2 L Π rm Γ11 Γ12
Π≡ ≡ lim = Siempre
0 0 0 Γ 22 k 0 L
k →∞
0 L 0 Π r +1,r +1 0 L
0 (I − Γ11 ) Γ12 L
−1
i R( k ) = y T Π k x → y T 1pT x = m X2
k →∞
m X = lim m X (n) = pT x = y T 1
n→∞ C ( k ) = R (k ) − m X2 = y T (Π k − 1pT )x
C (0) = y T (I − 1pT )x = y T x − y T 1pT x = E ( X 2 ) − m X2 = σ X2
aj
Ecuaciones de Kolmogorov
t1 t2 & (τ ) = Π
Λ = lim Π & (0 + )
Π (t + τ ) = Π (t )Π (τ )
τ →0 +
d Π (t + τ ) dΠ (τ ) & (t ) = Π (t )Λ
Π
Puntos de Poisson = Π (t )
dτ dτ
& (t + τ ) = Π (t )Π
Π & (τ ) pT (t ) = pT (0)Π (t )
Π& (t ) = Π (t ) Π
& (0) p& T (t ) = pT (0)Π
& (t ) = pT (0)Π (t )Λ = pT (t )Λ
Cadena de Markov en tiempo continuo: Los cambios de
estado ocurren en los puntos aleatorios Tn.
Solución
Π (t1 , t 2 )1 = 1 1 0 L 0
Π (t ) = e Λ t 0 1 L 0
pT (t 2 ) = pT (t 2 )Π (t1 , t 2 ) Propiedades básicas
p T (t ) = pT (0)Π (t ) = pT (0) e Λ t Π (0) = I =
Π (t1 , t3 ) = Π (t1 , t 2 )Π (t 2 , t3 ) L L L L
0 0 L 1
Condición inicial
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas 31
Ecuaciones de Balance Global
Solución en estado estacionario kk
p(t ) = p = cte. ⇒ p& (t ) = 0
T
λij
p Λ=0 Sistema de ecuaciones homogéneas
p ii
pT 1 = 1 Condición adicional jj
λji
Ecuaciones de balance global
∑ piλij = 0 ⇒ ∑ pi λij = − p j λ jj
i i≠ j ∑ p j λ ji = ∑ piλij ll
∑π ji = 1 ⇒ ∑ λ ji = 0 ⇒ −λ jj = ∑ λ ji i≠ j i≠ j
i i i≠ j
Flujo
Flujo de
de velocidad
velocidad de
de probabilidad
probabilidad Flujo
Flujo de
de velocidad
velocidad de
de probabilidad
probabilidad
saliente de j
saliente de j entrante a
entrante a jj
= ∑∑ xi x jπ ij (t1 , t 2 ) pi (t1 ) =
t →∞
lim Π (t ) = 1pT i j
t →∞
x = [x1 x2 L x N ]
T R(t , τ ) = ∑∑ xi x jπ ij (τ ) pi (t ) =
i j
y (t ) = [x1 p1 (t ) x2 p2 (t ) L xN p N (t )]
T
= y T (t )Π (τ )x → y T Π (τ )x = y T e Λτ x = R (τ )
n→∞
lim y (t ) = y
t →∞ R (t , t ) = y (t )x = ∑ pi (t ) xi2 = E ( X 2 (t )) = m X2 (t )
T
m X (t ) = E ( X (t )) = ∑ xi pi (t ) =pT (t )x = pT (0)Π (t )x i
i R(τ ) = y T Π (τ ) x → y T 1pT x = m X2
k →∞
m X = lim m X (t ) = pT x = y T 1
t →∞ 2
X (
C (τ ) = R (τ ) − m = y T Π (τ ) − 1pT x )
( )
C (0) = y T I − 1pT x = y T x − y T 1pT x = E ( X 2 ) − m X2 = σ X2
a
-a 0 1 -b
b
x = [0 1]
T
Puntos de Poisson
T
π 01 (τ ) = P[X (τ ) = 1 / X (0) = 0] = P[1 punto en `[0,τ ]] = 1 − e − aτ b a
p=
π 10 (τ ) = P[X (τ ) = 0 / X (0) = 1] = P[1 punto en `[0,τ ]] = 1 − e −bτ a + b a + b
e − aτ 1 − e − aτ
Π (τ ) = a
1 − e
−bτ
e −bτ y = 0
− a a
a + b
Λ=Π & (0) =
b − b a
E ( X (t )) = pT x =
b + a e −( a+b)ta
1 − e −( a+b)t
[ ] a+b
a+b a+b 2
e Λt = a ab
a + b e − ( a +b )t
b
[ ]
1 − e −( a + b )t R(τ ) = y e x =
T Λt
+ e −( a +b )τ
a + b (a + b )
a + b 2
a+b
b
p T Λ = 0 ap0 = bp1 p0 = a + b = m X2 + σ X2 e −( a +b )τ
⇔ ⇒
pT 1 = 1 p0 + p1 = 1 p1 = a
a+b
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas 36
Ejemplo: Cola M/M/1 (1)
Clientes atendidos de a uno por vez en orden de llegada
•Tiempo entre arribos distribuido exponencialmente con parámetro λ.
•Tiempo de servicio de un cliente distribuido exponencialmente con − λ λ 0 L
µ − (λ + µ ) λ L
•parámetro µ.
Λ = Π (0) =
&
0 µ − (λ + µ ) L
π j , j +1 (τ ) = P( X (τ ) = j + 1/ X (0) = j ) =
L L L L
= P(1 arribo en [0,τ ]) = (λτ ) e −λτ → λτ + o(τ ) Λ=0
pΛ
π j , j + 2 (τ ) = P( X (τ ) = j + 2 / X (0) = j ) = − λp0 + µp1 = 0 j=0
2 −λτ
= P(2 arribo en [0,τ ]) = (λτ ) e / 2!→ o(τ ) λp j −1 − ( µ + λ ) p j + µp j +1 = 0 j = 1,2,...
π j , j −1 (τ ) = P( X (τ ) = j − 1/ X (0) = j ) =
= P(1 partida en[0, τ ]) = ( µτ ) e −µτ → µτ + o(τ )
µp1 = λp0 j=0
π jj (τ ) = P( X (τ ) = j / X (0) = j ) =
λp j −1 + µp j +1 = (λ + µ ) p j j = 1,2,...
= P(0 arribo y 0 partida en [0,τ ]) + P (1 arribo y 1 partida en [0,τ ]) + L =
= e−λτ ⋅ e − µτ + λτ e −λτ ⋅ µτ e −µτ → 1 − (λ + µ )τ + o(τ )
λ λ λ λ λ λ
00 11 22 jj j+1
j+1
µ µ µ µ µ µ
p j = (λ / µ ) p j −1 = ρp j −1
p j = ρ n p0
j La tasa de arribos debe ser menor
∞ ∞
p0 ⇒ p j = (1 − ρ ) ρ ρ = λ / µ <1⇔ λ < µ
1 = ∑ p j = p0 ∑ ρ =j que la velocidad de servicio; de
j =0 j =0 1 − ρ otro modo, la cola crece sin límite.
i −1
λ ∏λ i
pi = i −1 pi −1 = i =0
i
p0
µi
∏µ
i =1
i
µ λi −1 ∏λ i
i
N λ λ
pi = 1 +
−N
N λ
=
i
µ
N −i
V paquetes/seg pi = pi −1 = i=0
p0
µi i
i µ µ i µ + λ µ +λ
∏µ i
λ
i =1
E (i ) = N Número medio de
λi = ( N − i )λ , µ i = iµ µ +λ
fuentes activas
µ λµ
λ p0 = = 0.6 N
var(i ) = N
µp1 = λp0 ⇒ p1 =
µ
p0 µ +λ ∑p
i=0
i =1
(µ + λ )2
λ
p0 + p1 = 1 p1 = = 0.4
µ +λ
30
MUX Capacidad del canal:
N fuentes
Estadístico C canales de voz
de voz 25
equivalentes
15
0.1 %
0.5 %
Freeze Out Fraction 10 1.0 %
5.0 %
1 N
n
F ( N , C , p1 ) = ∑ (k − C ) p k (1 − p ) N − k 5
10.0 %
Np1 k =0 k
0
0 10 20 30 40 50 60
Número de Fuentes de Voz (N)
T
1 1 Ráfaga perdida o retrasada
rm = ∫ r (t )dt = ∑ rp tONi = rp P (ON )
T 0 T i rp rc
P(ON ) = p1 = rm / rp Probabilidad de actividad
de la fuente rm
b = rp / rm = 1 / p1 Burstiness
G = N / C
⇒ G = Nrp / rc = Nη > 1 Ganancia de
C = rc / rp multiplexado estadístico
pi
i N −i
N λ µ N Np1 (1 − p1 )
pi = = p1i p0N −i Probabilidad que i fuentes entre N
i
µ + λ µ + λ i estén activas
µ λ
p0 = , p1 = i
µ +λ µ +λ Np1 C
Aproximación gaussiana a la distribución binomial
E (i) = Np1
var(i) = Np1 (1 − p1 )
PL = Q (α ) Probabilidad de pérdida
C ≈ Np1 + α Np1 (1 − p1 )
C = 1/η
Número de canales para la
prob. de pérdida PL
η
G = Nη =
4 p1
[
α 2 (1 − p1 ) + 4 / η − α 1 − p1 ]
2
Throughput
b=12 0.60
Ganancia
10.00 b=16
b=14 0.50
8.00 b=16 b=20
b=18 0.40
6.00 b=20
0.30
4.00 0.20
2.00 0.10
0.00 0.00
0 0.05 0.1 0.15 0.2 0.25 0.3 0 0.05 0.1 0.15 0.2 0.25 0.3
Relación vel. pico/vel. enlace Relación vel. pico/vel. enlace
G = Nη =
η
4 p1
[ α (1 − p ) + 4 / η − α
2
1 1 − p1 ]
2
S=
Nrm (Grc / rp )rm Grm
rc
=
rc
=
rp
= Gp1
20.00
Ganancia
20 G = Nη
24
15.00 15
16
10.00 10
12
5.00 6
2
0.00
0 0.2 0.4 0.6 0.8 1
Relación vel. pico/vel. enlace
• Teorema de Little
• Cola M/M/1
• Cola M/M/1/K
• Cola M/M/c. Fórmula Erlang-C
• Cola M/M/c/c. Fórmula Erlang-B
• Cola M/M/N/N/N
Usuario
Usuario11
Recursos
Recursoscompartidos
compartidos
Usuario
UsuarioNN
Bloqueo,
pérdida o desborde
Concepto básico:
•Los clientes llegan para ser atendidos. Si todos los servidores están ocupados, el cliente
espera en la cola y es atendido después.
•Parámetros: tasa de arribos, velocidad de atención, número de servidores, capacidad de la
cola...
•Medidas: tiempo de espera, utilización de los servidores, tamaño de la cola, probabilidad de
rechazo...
Básicos
• Tasa de arribos.
• Tiempo de servicio.
• Número de servidores.
• Longitud máxima de la cola (tamaño del “buffer”).
Otros
• Tamaño de la población.
• Disciplina de servicio (FCFS, LCFS, prioridades, vacaciones).
• Modelo de carga de trabajo (tráfico).
• Comportamiento del cliente: Desistir, abandonar, ...
Voz
Port Port
λ
µ
A/S/M/K/N/Q
Distribución del tiempo entre arribos: Disciplina de servicio:
M: exponencial (Markov) FIFO, LIFO, prioridad,...
D: determinística (constante)
G: General
Tamaño de la población.
Distribución del tiempo de servicio: Puede ser finito o infinito.
M: exponencial (Markov)
D: determinística (constante)
G: General Tamaño máximo de la cola,
longitud del buffer o
Número de servidores capacidad de almacenamiento.
• Teorema de Little
• Cola M/M/1
• Cola M/M/1/K
• Cola M/M/c. Fórmula Erlang-C
• Cola M/M/c/c. Fórmula Erlang-B
• Cola M/M/N/N/N
t
T E ( N ) = λ E (T )
Tiempo medio de
Número medio de clientes Tasa de permanencia en el
en el sistema arribos sistema
E (W ) = E ( N )(1 / µ ) = λE (T ) / µ = ρE (T ) Nq
clientes en la cola
E (T ) = E (W ) + 1 / µ = ρE (T ) + 1 / µ
W S
1/ µ 1 Tiempo de espera Tiempo de
E (T ) = = en la cola servicio
1− ρ µ − λ
N
clientes en el sistema
1/µ ++ E(T)
T
E(W) Tiempo en el sistema
ρρ o retardo
A/S/M/K/N/Q
Distribución del tiempo entre arribos: Disciplina de servicio:
M: exponencial (Markov) FIFO, LIFO, prioridad,...
D: determinística (constante)
G: General
Tamaño de la población.
Distribución del tiempo de servicio: Puede ser finito o infinito.
M: exponencial (Markov)
D: determinística (constante)
G: General Tamaño máximo de la cola,
longitud del buffer o
Número de servidores capacidad de almacenamiento.
15 15
10 10
E(N) µE(T)
5 5
0 0
0 0,2 0,4 0,6 0,8 1 0 0,2 0,4 0,6 0,8 1
ρ ρ
ρ E (S ) 1/ µ
E (N ) = E (T ) = =
1− ρ 1− ρ 1− ρ
C/M µ •Un C
µi = = •Unpaquete
paquetetarda
tardaMMveces
vecesmás
másenenlalacola
colayyenenser
serservido
servidoenenTDM
TDMooFDM,
FDM,que queenen µ=
L M multiplexado estadístico. L
multiplexado estadístico.
•Sin
1 M •Sinembargo,
embargo,lavarianza
lavarianzadeldelretardo
retardoesesmenor
menorenenTDM
TDMooFDM.FDM. 1
T = = •TDM T =
•TDM y FDM malgastan capacidad del canal cuando un flujononotiene
y FDM malgastan capacidad del canal cuando un flujo
µ /M −λ /M µ −λ tienetráfico,
tráfico,pero
pero
eliminan la necesidad de identificar a qué flujo pertenece cada paquete. µ −λ
eliminan la necesidad de identificar a qué flujo pertenece cada paquete.
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas 65
Cola M/M/1/K (1)
Cola M/M/1 con capacidad finita. El sistema puede
contener hasta K clientes. Los que llegan cuando el
sistema está lleno, son devueltos. ρ=1
ρ<1 ρ>1
pj pj pj
λ λ λ λ λ 0 K 0 K 0 K
00 11 22 K-1
K-1 K
K ρ ( K + 1) ρ K +1
E(N ) = −
µ µ µ µ µ 1− ρ 1 − ρ K +1
1− ρ
PB = P( N = K ) = pK = K +1
ρK Probabilidad de bloqueo
1− ρ
λp0 = µp1 j =0 λB = λPB Tasa de rechazos
λp j −1 + µp j +1 = (λ + µ ) p j j = 1,2,L.K − 1 λ A = λ − λB = λ (1 − PB ) Tasa efectiva de arribos
λpK −1 = µpK j=K E ( N ) = λE ( S ) = ρ Carga ofrecida
p j = ρp j −1 = ρ p0
j 1 1− ρ K
E ( N A ) = λ A E ( S ) = λ (1 − pK ) = ρ Carga satisfecha
1− ρ µ 1 − ρ K +1
K
1 − ρ K +1 ⇒ p j = ρj j = 0,L, K
1 = ∑ p j = p0 1− ρ K +1
j =0 1 − ρ E (T ) =
E(N )
=
E(N ) 1 1
= −
( K + 1) ρ K 1 − ρ K +1
λA λ (1 − PB ) µ 1 − ρ 1 − ρ K +1 1 − ρ K
K=10 K=10
0,8 8
K=2
0,6
λA/µ
6
µE(T)
0,4 4
0,2 2
K=2
0 0
1,00E+00 200
1,00E-01 180
1,00E-02 160
1,00E-03 140
1,00E-04 120
Capacidad
P(overflow)
ρ = 0.9 0.5
1,00E-05 100
0.7
1,00E-06 0.8 80
0.8
0.9
1,00E-07 60
1,00E-08
0.7
40
1,00E-09 0.5 20
1,00E-10 0
0 20 40 60 80 100 120 140 160 180 200 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
Tamaño del buffer Carga ofrecida ρ
1− ρ
PB = P( N = K ) = pK = K +1
ρK
1− ρ
λB = λPB
λ A = λ − λB = λ (1 − PB )
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas 68
Cola M/M/c (1)
El número de servidores es c. La tasa de partidas es kµ cuando λp0 = µp1 j=0
k servidores están ocupados, pues: λp j −1 + ( j + 1) µp j +1 = (λ + jµ ) p j j = 1,L, c
λp j −1 + cµp j +1 = (λ + cµ ) p j j ≥ c +1
k servidores ocupados ⇒ tiempo hasta la próxima partida T = min(T1,LTk )
P(T > t ) = P[min(T1,L, Tk ) > t ] =
= P(T1 > t )L P(Tk > t ) = aj
pj = p0 j = 0,L , c
=e −µ t
Le −µ t
=e −kµ t j!
c
j −c a
kµ k <c pj = ρ p0 j ≥ c +1
k servidores ocupados ⇒ tasa de partidas = c!
cµ k ≥c −1
c −1 a j a c 1
p0 = ∑ +
j =0 j! c ! 1 − ρ
λ λ λ λ λ λ λ a=λ/µ Número medio de servidores ocupados
00 11 22 c-1
c-1 cc c+1
c+1 ρ = λ / cµ = a / c < 1 Ocupación de 1 servidor
µ 2µ 3µ (c-1)µ cµ cµ cµ
−1
1 a c c −1 a j a c 1 Probabilidad de encontrar todos los c servidores ocupados y tener que
C ( c, a ) = ∑ +
1 − ρ c! j =0 j! c! 1 − ρ esperar en la cola: fórmula Erlang C.
E(Nq ) C ( c , a ) C ( c, a )
E (W ) = = =
λ cµ − λ µ (c − a)
Un call center recibe 600 llamadas por hora, con una duración media
de 3’. El operador trabaja durante 20’’ después de cada llamada. Se
quiere que el tiempo medio de espera sea 20’’. Obtener el número
de operadores necesario.
DVB-S BASIC ACCESS PROFILE BA1 BA2 BA3 BA4 BA5 BA6 BA7 BA8 Para mantener acotado el retardo, se necesitan
Forward max (Kbps) 256 256 256 512 1024 2048 4096 4096 •4×256 = 1024 Kbit/s downstream
Forward min (Kbps) 8 16 32 64 128 256 512 1024 •4×32 = 128 Kbit/s upstream.
Return max (Kbps) 16 32 64 128 256 512 1028 1028 Comparar con los valores de throughput medio:
Return min (Kbps) 2 4 8 16 32 64 128 256 •645.2 Kbit/s downstream
Unav/month (%) 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 •92.2 Kbit/s upstream
Activity MBH (%) 20 20 20 25 25 25 30 30 .
20 50
18 0.1% 45
0.5%
16 40
1.0%
14 5.0% 35
Número de circuitos
Número de circuitos
10.0%
12 30 0.1%
20.0%
0.5%
10 25
1.0%
8 20 5.0%
10.0%
6 15
20.0%
4 10
2 5
0 0
0,0 1,0 2,0 3,0 4,0 5,0 6,0 7,0 8,0 9,0 10,0 0,0 5,0 10,0 15,0 20,0 25,0 30,0 35,0 40,0 45,0 50,0
Tráfico total ofrecido (Erlang) Tráfico total ofrecido (Erlang)
a c / c! a c / c!
P ( N = c) = B (c, a) = PB = =
1 + a + a 2 / 2!+ L + a c / c! c k
∑ a / k! k =0
aB(c, a)
B (c + 1, a) =
c + 1 + aB(c, a )
09/11/2003 C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas 76
Cola M/M/N/N/N
•El número de servidores es N. La tasa de partidas es kµ
cuando k servidores están ocupados.
Νλ (Ν−1)λ (Ν−j)λ λ
•La cantidad de fuentes (o “tamaño de la población”) es
N. La tasa de arribos es (N-i)λ cuando hay i fuentes 00 11 22 jj j+1
j+1 N
N
activas.
µ 2µ (j+1)µ Nµ
•Es un modelo idéntico al MMPP.
λi −1 ∏λ i
i
N λ λ
−N
N λ
i
µ
N −i
pi = pi −1 = i=0
p0 pi = 1 + =
µi i
i µ µ i µ + λ µ +λ
∏µ i
λ
i =1
E (i ) = N Número medio de
λi = ( N − i )λ , µ i = iµ µ +λ
fuentes activas
N λµ
var(i ) = N
∑p
i=0
i =1
(µ + λ )2