Está en la página 1de 46

SISTEMAS ESTOCÁSTICOS DE SERVICIO

MODELOS DE COLAS O ESPERA


PROCESO ESTOCÁSTICO

DEFINICIÓN

Un proceso estocástico se define como una familia de variables aleatorias.

{𝑋(𝑡,𝑤) , 𝑡 ∈ 𝑇 ∧ 𝑤 ∈ 𝑆}

Donde T es conjunto índice y S1 es el espacio muestral asociado a un experimento


aleatorio ε.
El conjunto índice por lo general representa el tiempo, sin embargo puede tener
distintas naturalezas, como ser físicos, ser una masa, volumen, longitud, un área,
temperatura etc.
También es bueno aclarar que tendrá las siguientes, presentaciones o notaciones
que representen a un proceso estocástico.

{𝑋(𝑡,𝑤) , 𝑡 ∈𝑇 ∧ 𝑤 ∈ 𝑆} 𝑋(𝑡,𝑤) {𝑋(𝑡) , 𝑡 ∈ 𝑇 }

𝑋(𝑡) , 𝑋𝑡

A una realización del proceso estocástico si lo denota por.

𝑥(𝑡) 𝑜 𝑥𝑡

1 El Espacio muestral se define como el conjunto total de resultados posibles que


arroja un experimento aleatorio ε. Por notación se tiene que S=Ω.
(𝑥1 (𝑡, 𝑤1 ), 𝑥2 (𝑡, 𝑤1 ), … … … … . ., 𝑥(𝑛) (𝑡, 𝑤1 ))

FUNCIÓN DE VALOR MEDIO

DEFINICIÓN

Dado un proceso estocástico {𝑋(𝑡) , 𝑡 ∈ 𝑇 } se define ser función de valor medio


o núcleo como la media del proceso, el cual es determinado como.

𝑚(𝑡) = E (𝑋(𝑡) ) = 𝜇𝑥 (𝑡)

La cual es una función del tiempo.

2.1.7 FUNCIÓN DE VARIANZA

DEFINICIÓN

Se define como el momento central de orden 2 de un proceso estocástico.

2
𝑉(𝑋(𝑡) ) = 𝜎𝑋2(𝑡) = 𝐸 [(𝑋(𝑡) − 𝑚(𝑡) ) ]
2
= 𝐸 (𝑋(𝑡) ) − 𝑚2(𝑡)

FUNCIÓN DE AUTOCOVARIANZA

DEFINICIÓN
Representado por.

𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝑐𝑜𝑣 (𝑋(𝑡1 ) , 𝑋(𝑡2 ))


Este se define como la función del valor medio del producto de las dispersiones del
proceso, para dos instantes de tiempo t 1 y t2.

𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝑐𝑜𝑣 (𝑋(𝑡1 ) , 𝑋(𝑡2 ) ) = 𝐸 [(𝑋(𝑡1 ) − 𝑚(𝑡1 ) )(𝑋(𝑡2) − 𝑚(𝑡2 ))]

= 𝐸 [𝑋(𝑡1 ) 𝑋(𝑡2) ] − 𝑚(𝑡1 ) 𝑚(𝑡2 )

FUNCIÓN AUTOCORRELACIÓN

DEFINICIÓN

Representado por.

𝜌𝑋 (𝑡1 , 𝑡2 ) = 𝜌𝑋 (𝑡1 , 𝑡2 ) Este se define como:

𝑐𝑜𝑣 (𝑋(𝑡1 ) , 𝑋(𝑡2 ) )


𝜌𝑋 (𝑡1 , 𝑡2 ) =
𝜎𝑋(𝑡1) 𝜎𝑋(𝑡2)

Cuyo recorrido es:

− 1 ≤ 𝜌𝑋 (𝑡1 , 𝑡2 ) ≤ 1

Dicha medida mide el grado de asociación en forma relativa ( es decir que carece
de unidades), de las realizaciones del mismo proceso estocástico visto en dos
instantes de tiempo 𝑡1 , 𝑡2 .
PROCESO DE POISSON

DEFINICIÓN

Sea N (t ) , t  0 un proceso puntual discreto en el espacio y continuo en el


tiempo, se dice que define a un Proceso de Poisson, si N (t ) representa el
número de ocurrencias en el intervalo de tiempo (0 , t ) , donde  es una tasa
promedio de ocurrencias constante por unidad de tiempo.

# de ocurrencia
=
tiempo

Y se cumple los siguientes axiomas:

1. N (t )
, t  0 Es un proceso de incrementos independientes
estacionarios.

2. P  N (t + t ) − N (t ) = 1 =  t + 0 (t )

3. P  N (t + t ) − N (t ) = 0 = 1 −  t + 0 (t )

4. P  N (t + t ) − N (t )  1 = 0 (t )

5. P  N (0) = 0 = 1

Donde:
• t es un incremento en el tiempo infitesimal.

• 0 (t ) Es una función del tiempo t .

Y se cumple las siguientes propiedades:


1. 0 (t )  0 (t ) = 0 (t )

2. c 0 (t ) = 0 (t ) con c ≠ 0 Constante

0 (t )
lim =0
3. t →0 t

TEOREMA

Sea N (t )
, t  0 es un Proceso de Poisson de parámetro  , para todo par de
índices t  s  T se cumple la siguiente función probabilística.

𝑒 −𝜆(𝑡−𝑠) (𝜆(𝑡 − 𝑠))𝑘


𝑃[𝑁(𝑡) − 𝑁(𝑠) = 𝑘 ] = 𝑘 = 0,1,2. . . . . ..
𝑘!
0 en otro caso

Si s=0
𝑒 −𝜆𝑡 (𝜆𝑡)𝑘
𝑃 [𝑁(𝑡) = 𝑘 ] = 𝑘 = 0,1,2. . . . . ..
𝑘!

0 en otro caso

Si s=0 y t =1

e −  k
PN (t ) = k  =
k! k = 0,1,2,......
0 en otro caso

DEMOSTRACIÓN

Para el caso en particular cuando s = 0 se tiene que:


Por notación P[ N (t ) = k ] = p k (t ) , y aplicando los axiomas definidos anteriormente se
tiene que tenemos.
Para : k = 0

𝑝0 (𝑡 + ∆ 𝑡) = 𝑝0 (𝑡) 𝑃 [𝑁 (𝑡 + ∆ 𝑡) – 𝑁 (𝑡) = 0]

= 𝑝0 (𝑡) [1 – 𝜆 ∆ 𝑡 + 0 (∆ 𝑡)]

𝑝0 (𝑡 + ∆ 𝑡) − 𝑝0 (𝑡) = − 𝑝0 (𝑡) 𝜆 ∆ 𝑡 + 0 ( ∆ 𝑡 )

𝑝0 (𝑡 + ∆ 𝑡) − 𝑝0 (𝑡) 0 (∆ 𝑡 )
lim = − 𝑝0 (𝑡) 𝜆 + lim
∆ 𝑡 →0 ∆𝑡 ∆ 𝑡 →0 ∆ 𝑡

𝑝0, (𝑡) = − 𝑝0 (𝑡) 𝜆 𝑘=0

Para: 𝑘 ≥ 1

𝑝𝑘 (𝑡 + ∆ 𝑡) = 𝑝𝑘 (𝑡) 𝑃 [𝑁 (𝑡 + ∆ 𝑡) – 𝑁 (𝑡) = 0] + 𝑝𝑘−1 (𝑡) 𝑃 [𝑁 (𝑡 + ∆ 𝑡) – 𝑁 (𝑡) = 1]

+ 𝑝𝑘−2 (𝑡) 𝑃 [𝑁 (𝑡 + ∆ 𝑡) – 𝑁 (𝑡) = 2] + 𝑝𝑘−3 (𝑡) 𝑃[𝑁 (𝑡 + ∆ 𝑡) – 𝑁 (𝑡) = 3] + … ….

+ 𝑝0 (𝑡) 𝑃 [𝑁 (𝑡 + ∆ 𝑡) – 𝑁 (𝑡) = 𝑘 ]

𝑝𝑘 (𝑡 + ∆ 𝑡) = 𝑝𝑘 (𝑡)[1 − 𝜆 ∆ 𝑡 + 0 (∆ 𝑡)] + 𝑝𝑘−1 (𝑡)[ 𝜆 ∆ 𝑡 + 0 (∆ 𝑡)] +

𝑝𝑘−2 (𝑡) 0 (∆ 𝑡) + 𝑝𝑘−3 (𝑡) 0 (∆ 𝑡) + … … … . + 𝑝0 (𝑡) 0 (∆ 𝑡)

𝑝𝑘 (𝑡 + ∆ 𝑡) = 𝑝𝑘 (𝑡) − 𝑝𝑘 (𝑡) 𝜆 ∆ 𝑡 + 𝑝𝑘−1 (𝑡) 𝜆 ∆ 𝑡 + 0 (∆ 𝑡)

𝑝𝑘 (𝑡 + ∆ 𝑡) − 𝑝𝑘 (𝑡) 0 (∆ 𝑡 )
= − 𝑝𝑘 (𝑡) 𝜆 + 𝑝𝑘−1 (𝑡) 𝜆 +
∆𝑡 ∆𝑡

𝑝𝑘 (𝑡 + ∆ 𝑡) − 𝑝𝑘 (𝑡) 0 (∆ 𝑡 )
lim = − 𝑝𝑘 (𝑡) 𝜆 + 𝑝𝑘−1 (𝑡) 𝜆 + lim
∆𝑡 →0 ∆𝑡 ∆𝑡→0 ∆ 𝑡

𝑝𝑘, (𝑡) = − 𝑝𝑘 (𝑡) 𝜆 + 𝑝𝑘−1 (𝑡) 𝜆 𝑘 = 1, 2, 3 … … … .


Hallando la solución de la ecuación diferencial se tiene que:

pk' (t ) = − pk (t ) + pk −1 (t ) zk

pk' (t ) z k = − pk (t )z k + pk −1 (t )z k k =0
  

p
k =0
'
k (t ) z k = −  pk (t ) z k +   pk −1 (t ) z k
k =0 k =0

Aplicando la Función Generadora de Probabilidades 2.


1 kG
G ( z , t ) =  pk (t ) z k P[ N (t ) = k ] = z =0
k =0 k! z k

G 
G 
=  pk' (t ) z k =  zpk (t ) z k −1
t k =0 z k =0

Se tiene que la expresión anterior se convierte en:

G 
= −G +   pk −1 (t ) z k
t k =0

G 
z
= −G +   pk −1 (t ) z k
t k =1 z


𝜕𝐺
= −𝜆𝐺 + 𝜆𝑧 ∑ 𝑝𝑘−1 (𝑡)𝑧 𝑘−1
𝜕𝑡
𝑘−1=0

2
La Función Generadora de Probabilidades, es una Función Matemática que permite
obtener Modelos Probabilísticos y Momentos de variables aleatorias discretas, se lo
denota como G=G(Z)=G(Z.t)
G
= −G + zG
t
G
= −G (1 − z )
t
G
 G =  −  (1 − z )t
ln G = − (1 − z )t + c
eln G = e−  (1− z )t + c
G = e−  (1− z )t ec ec = c1 cte.
G = e−  (1− z )t c1

Condición inicial t = 0

El lado izquierdo se convierte en:


G( z, t ) / t =0 =  pk (t ) z k / t = 0
k =0

G ( z ,0) =  pk (0) z k
k =0
−  (1− z ) 0
e c
1
= po (0) z o + p1 (0) z 1 + p2 (0) z 2 + ......

c 1
= 1z 0 + 0 z1 + 0 z 2 + 0 z 3 + ......... = 1 *1 = 1

De donde se tiene que c1=1, por lo tanto se tiene que:

G = e −  (1− z )t
G
= e − (1− z ) t (t )
z
 2G
= e − (1− z ) t (t ) 2
z 2

 3G
= e − (1− z ) t (t ) 3
z 3
.
.
.
kG
= e − (1− z ) t (t ) k
z k

De la fórmula para obtener la función probabilística de cuantía se tiene que:

1 kG
P[ N (t ) = k ] = z =0
k! z k

1 − (1− z )t
P[ N (t ) = k ] = e ( t ) k z =0
k!
1
P[ N (t ) = k ] = e −t (t ) k
k!
e − t ( t ) k
P[ N (t ) = k ] = k = 0,1,2......
k!
o en otro caso

MODELO EXPONENCIAL

DEFINICIÓN

Sea “T” una variable aleatoria que representa el tiempo transcurrido, recurso
consumido, o distancia recorrida, hasta que ocurre un suceso o evento, una variable
definida de esa forma se dice que tiene una distribución exponencial con función
probabilística

𝑓(𝑡) = 𝜆𝑒 −𝜆𝑡 𝑡>0


0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
TEOREMA

Sea “X” una variable aleatoria distribuida exponencial de parámetro  entonces los siguientes
estadísticos y funciones generatrices se cumplen:
1 1 1 1
𝐸 (𝑇 ) = 𝑉 (𝑇 ) = 2 𝜙 𝑇 (𝑤 ) = 𝑚𝑇 (𝑡 ′) =
𝜆 𝜆 𝜆 − 𝑖𝑤 𝜆 − 𝑡′

Esperanza Varianza Función característica Función generatriz de momentos

 
ET  =  te − t dt =   te − t dt Integrando por partes
0 0
𝑡 1 ∞
= 𝜆 [− 𝑒 −𝜆𝑡 + ∫0 𝑒 −𝜆𝑡 𝑑𝑡] u=t du=dt
𝜆 𝜆
− t
dv = e dt 𝑣 = (−𝑒 −𝜆𝑡 )/𝜆

 t 1   1
=   − e −  t − 2 e − t  = 2 =
   0  
∞ ∞
𝐸[𝑇] = ∫0 𝑡 2 𝜆𝑒 −𝜆𝑡 𝑑𝑡 = 𝜆 ∫0 𝑡 𝑡𝑒 −𝜆𝑡 𝑑𝑡

Integrando dos veces por partes.

−𝑡𝑒 −𝜆𝑡 1
𝑢=𝑡 𝑑𝑢 = 𝑑𝑡 𝑑𝑣 = 𝑡𝑒 −𝜆𝑡 𝑑𝑡 𝑣= − 2 𝑒 −𝜆𝑡
𝜆 𝜆

 t2 t  t 1  
=  − e −t − 2 e −t −   − e −t − 2 e −t dt 
       0

 t2 t 1 1 
=  − e − t − 2 e −t +  te − t dt + 2  e − t 
     0

 t2 t 1 t 1  1 
=  − e −t − 2 e −t + − e −t − 2 e −t  − 3 e −t 
        0

𝑡2 𝑡 𝑡 1 1
= 𝜆 [− 𝑒 −𝜆𝑡 − 2 𝑒 −𝜆𝑡 − 2 𝑒 −𝜆𝑡 − 3 𝑒 −𝜆𝑡 − 3 𝑒 −𝜆𝑡 ]
𝜆 𝜆 𝜆 𝜆 𝜆 0

 t2 2t 2 
=   − e − t − 2 e − t − 3 e − t 
    0
2 0 2 2
= 𝜆 [0 − (− 𝑒 )] = 𝜆 [ 3] =
𝜆3 𝜆 𝜆2
2
1 1 2
V (T ) = E (T ) − ( E (T )) = 2 −   = 2
2 2

   

T ( w) = E e iwt  =  e iwt e −t dt
0

 
=   e −t ( −iw ) dt = − e −t (  −iw)
0
 − iw 0

 
=− (0 − 1) =
 − iw  − iw

TEOREMA

Sea {N(t), t 0} un Proceso de Poisson, de parámetro λt entonces las siguientes


medidas estadísticas y función característica se cumplen:

a) m(t) = E[ N (t )] = t

b) V[N(t)] = t

c)  ( w) =e t ( e −1)
iw

N (t )

d) RN (s, t ) =  min( s, t )

min( s, t )
e)  N ( s ,t ) =
( st )1 / 2

DEMOSTRACIÓN

a)
e − t (  t ) N ( t )

m(t ) = E ( N (t )) =  N (t )
N ( t ) =0 ( N (t ))!

N (t )e − t (t ) N (t )

m(t ) = 
N ( t ) =1 N (t )( N (t ) − 1)!

( t ) N ( t ) t
m(t ) = e −t 
N ( t ) −1=0 ( N (t ) − 1)! t


(t ) N (t )−1
m(t ) = e −t t 
N ( t ) −1= 0 ( N (t ) − 1)!

m(t ) = e−t tet = te0 = t

b) Hallando el segundo momento alrededor del origen se tiene que:


e − t (  t ) N ( t )
E ( N (t )) =  N 2 (t )
2

N (t ) N (t )


(t ) N ( t )
= [ N (t )( N (t ) − 1) + N (t )]e −t
N ( t ) =0 N (t )!

t
− t − t

e ( t ) N (t ) 
e ( t ) N ( t )
=  N (t )( N (t ) − 1)
N (t )=0 N (t )!
+  N (t )
N (t )=0 N (t )!


N (t )( N (t ) − 1)e − t (t ) N (t )
= 
N ( t ) = 0 N (t )( N (t ) − 1)( N (t ) − 2)!
+ t


N (t )( N (t ) − 1)e −t (t ) N (t ) (t ) 2
= 
N ( t ) = 2 N (t )( N (t ) − 1)( N (t ) − 2)! (t )
2
+ t

e t

( t )
N (t )−2
= e − t ( t ) 2 
N ( t ) − 2 = 0 ( N (t ) − 2)!
+ t

= e −t (t ) 2 e t + t = 2 t 2 + t

De los momentos alrededor del origen obtenidos anteriormente se tiene que:


V ( N (t )) = E[ N 2 (t )] − [ E( N (t ))]2

= 2 t 2 + t − 2 t 2 = t

c)


e − t (  t ) N ( t )
 ( w) = E[e
N (t )
iwN ( t )
]= e
N ( t ) =0
iwN ( t )

N (t )!


(e iw ) N (t ) (t ) N (t )
= e − t 
N ( t ) =0 N (t )!
= e − t e e t
= e t ( e −1)
iw iw

d) Suponiendo s < t

RN (s, t ) = COV ( N (s), N (t ))


RN (s, t ) = COV ( N (s), N (t ) − N (s) + N (s))
= COV ( N (s), N (t ) − N (s)) + COV ( N (s), N (s))
= 𝐶𝑂𝑉(𝑁(𝑠) − 𝑁(0), 𝑁(𝑡) − 𝑁(𝑠)) + 𝐶𝑂𝑉(𝑁(𝑠), 𝑁(𝑠))
= 𝑉(𝑁(𝑠))
= s

Suponiendo t < s:

RN (s, t ) = COV ( N (s), N (t ))


RN (s, t ) = COV ( N (s) − N (t ) + N (t ), N (t ))
= COV ( N (s) − N (t ), N (t )) + COV ( N (t ), N (t ))
= COV ( N (s) − N (t ), N (t ) − N (0)) + COV ( N (t ), N (t ))
= 𝑉(𝑁(𝑡))
= t

Por lo tanto de los resultados obtenidos en anteriormente se tiene que:

R N (t ) (t , s ) =  min( s, t )
e) Sustituyendo los resultados obtenidos en los incisos b y d se tiene que:

COV ( N ( s), N (t )
 N ( s, t ) =
 N ( t ) N ( s )

 min( s, t )
=
s t

min( s, t )
 N ( t ) ( s, t ) =
( st )1 / 2

TEOREMA

En un proceso de Poisson de parámetro λ el tiempo entre dos sucesos consecutivos,


tienen comportamiento exponencial de parámetro λ.

DEMOSTRACIÓN

𝑃[𝑇 > 𝑡 + 𝛥𝑡] = 𝑃 [𝑇 > 𝑡]𝑃 [𝑁(𝑡 + 𝛥𝑡) − 𝑁(𝑡) = 0]

= 𝑃 [𝑇 > 𝑡] [1 − 𝜆𝛥𝑡 + 0(𝛥𝑡)]

1
= 𝑃 [𝑇 > 𝑡] − 𝑃[𝑇 > 𝑡]𝜆𝛥𝑡 + 0(𝛥𝑡) ‖
𝛥𝑡

𝑃[𝑇 > 𝑡 + 𝛥𝑡] − 𝑃[𝑇 > 𝑡] 0(𝛥𝑡)


= −𝑃 [𝑇 > 𝑡]𝜆 + ‖ 𝑙𝑖𝑚
𝛥𝑡 𝛥𝑡 𝛥𝑡→0

𝑃[𝑇 > 𝑡 + 𝛥𝑡] − 𝑃[𝑇 > 𝑡] 0(𝛥𝑡)


𝑙𝑖𝑚 = −𝑃[𝑇 > 𝑡]𝜆 + 𝑙𝑖𝑚
𝛥𝑡→0 𝛥𝑡 𝛥𝑡→0 𝛥𝑡

dPT  t 
= − PT  t 
dt

dPT  t  dPT  t 
= − t  
PT  t  
= − dt
PT  t 
ln (PT  t ) = − t + c

e ln PT t  = e − t +c

PT  t  = e − t e c e c = c1

PT  t  = e − t c1

Condición Inicial t=0:

PT  t / t =0 = e −  t c1 / t =0

PT  0 = 1 e−  ( 0)c1 = c1
 c1 = 1

1 − 𝑃 [𝑇 ≤ 𝑡] = 𝑒 −𝜆𝑡 ⇒ 𝑃 [𝑇 ≤ 𝑡] = 1 − 𝑒 −𝜆𝑡

dF (t )
F (t ) = 1 − e −  t f (t ) = = − e −  t ( − )
dt

f (t ) =  e − t t 0
0 en otro caso

MODELO GAMMA

DEFINICIÓN

Sea X una variable aleatoria que representa el tiempo hasta que ocurran varios
sucesos independientes con tiempos exponenciales idénticamente distribuidos de
parámetro λ, una variable definida se dice que tiene comportamiento Gamma con
función probabilística dada por:

−𝑥
𝑥 𝛼−1 𝑒 𝛽
𝑓 (𝑥 ) = 𝛼 𝑥>0
𝛽 Γ(α)
TEOREMA

Sea X una variable aleatoria distribuida gamma de parámetros 𝛼 , 𝛽 entonces las


siguientes medidas estadísticas y función característica se cumplen.

𝐸 (𝑋) = 𝛼𝛽 𝑉 (𝑋 ) = 𝛽 2 𝛼 ∅𝑋 (𝑤) = (1 − 𝛽𝑖𝑤)−𝛼

DEMOSTRACIÓN

Integral Gamma ∫0 𝑥 𝛼−1 𝑒 −𝑥 𝑑𝑥 = Γ(α) = (𝛼 − 1)!

𝑥

∞ 𝑥𝑥 𝛼−1 𝑒 𝛽
𝐸(𝑋) = ∫0 𝛽𝛼 Γ(α) 𝑑𝑥
𝑥
1 ∞ − 𝑥
= 𝛽𝛼 Γ(α) ∫0 𝑥 𝛼 𝑒 𝛽 𝑑𝑥 𝐶. 𝑉. : 𝜇 = 𝛽 𝑥 = 𝑢𝛽
1 ∞ 𝑑𝑥
=
𝛽 𝛼 Γ(α)
∫0 (𝜇𝛽)𝛼 𝑒 −𝜇 𝛽 𝑑𝑢 𝑑𝑢 =
𝛽
⇒ 𝑑𝑥 = 𝛽𝑑𝑢

𝛽𝛼+1
= ∫ 𝜇 𝛼 𝑒 −𝜇 𝑑𝑢
𝛽𝛼 Γ(α) 0
𝛽 ∞ 𝛽
= Γ(α) ∫0 𝜇 (𝛼+1)−1 𝑒 −𝜇 𝑑𝜇 = Γ(α + 1)
Γ(α)
𝛽
= Γ(α) 𝛼Γ(α) = 𝛼𝛽

𝑥

2 ∞ 𝑥 2 𝑥 𝛼−1 𝑒 𝛽
𝐸(𝑋 ) = ∫0 𝛽𝛼 Γ(α) 𝑑𝑥
𝑥
1 ∞ −
= ∫ 𝑥 𝛼+1 𝑒
𝛽 𝛼 Γ(α) 0
𝛽 𝑑𝑥
1 ∞
= 𝛽𝛼 Γ(α) ∫0 (𝜇𝛽)𝛼+1 𝑒 −𝜇 𝛽𝑑𝜇
𝛽 𝛼+2 ∞
= 𝛽𝛼 Γ(α) ∫0 𝜇 𝛼+1 𝑒 −𝜇 𝑑𝜇
𝛽2 ∞ (𝛼+2)−1 −𝜇
= ∫ 𝜇 𝑒 𝑑𝜇
Γ(α) 0

𝛽2 𝛽2
= Γ(α) Γ(𝛼 + 2) = Γ(α) (𝛼 + 1)Γ(𝛼 + 1)
𝛽2
= Γ(α) (𝛼 + 1)𝛼Γ(α) = 𝛽2𝛼 2 + 𝛽2 𝛼
𝑉(𝑋) = 𝐸(𝑋 2 ) − (𝐸(𝑋))2

=  2 2 +  2 −  2 2

𝑉 (𝑋 ) = 𝛽 2 𝛼
FUNCIÓN CARACTERÍSTICA

𝑥𝛼−1 𝑒−𝑥
∅𝑋 (𝑤) = 𝐸[𝑒𝑖𝑤𝑥 ] = ∫ 𝑒𝑖𝑤𝑥 𝑑𝑥
0 𝛽𝛼 Γ(α)

1 −𝑥(1⁄𝛽−𝑖𝑤)
= 𝛼 ∫ 𝑥 𝛼−1 𝑒 𝑑𝑥
𝛽 Γ(α) 0
Cambio de variable:
u =  1 − iw  x du =  1 − iw dx
𝑢
𝑥= du
   (1⁄𝛽−𝑖𝑤)    dx =

 1  − iw 

 
𝛼−1
1∞ 𝑢 𝑑𝑢
= 𝛼 ∫ ( ) 𝑒 −𝑢 1
𝛽 Γ(α) 0 1⁄𝛽 −𝑖𝑤 ( ⁄𝛽 −𝑖𝑤)

𝛼

1 1
= ( ) ∫ 𝑢𝛼−1 𝑒 −𝑢 𝑑𝑢
𝛽𝛼 Γ(α) 1⁄ − 𝑖𝑤 0
𝛽

Γ(α) 1 1
= ∗ 𝛼 =
𝛼
𝛽 Γ(α) 1 − 𝛽𝑖𝑤 (1 − 𝛽𝑖𝑤)𝛼
( ) 𝛽 𝛼 𝜎(𝛼)
𝛽 𝛽𝛼

∅𝑋 (𝑤 ) = (1 − 𝛽𝑖𝑤)−𝛼

EJEMPLO Hallar E(X) y V(X) de un modelo gamma aplicando la función


característica.

𝑑𝜑𝑥 (𝑤)
𝐸(𝑋) = (−1)𝑖 | = (−𝑖)[(1 − 𝛽𝑖𝑤)−𝛼 ]′
𝑑𝑤 𝑤=0
= (−i )[(− )(1 −  iw) − −1 (−  i )] w=0
= (−i )[ i (1 −  iw) − −1 ] w=0
𝐸(𝑋) = (−𝑖)𝛼𝛽𝑖 = 𝛼𝛽
𝑑 2 𝜑𝑥 (𝑤)
𝐸(𝑋 2 ) = (−1)2 𝑖 2 |
𝑑𝑤 2 𝑤=0
= −[i(1 − iw) − −1 ]'
= −[− 2 i 2 (− − 1)(1 − i w) − − 2 ] w=0 = −[− 2 i 2 (− − 1)]
= −[ 2 i 2 ( + 1)] =  2  2 +  2
2 2
𝑉(𝑋) = 𝐸(𝑋 ) − (𝐸(𝑋))
= 𝛼 2 𝛽 2 + 𝛼𝛽 2 − 𝛼 2 𝛽 2
𝑉(𝑋) = 𝛽 2 𝛼
TEOREMA

En un proceso de Poisson de parámetro  el tiempo hasta que ocurra un n-esimo


suceso tiene comportamiento Gamma de parámetros  = n y  = 1 .

DEMOSTRACIÓN

Sea: X1, X 2 , X 3 , X 4 , X 5................, X n n variables aleatorias independientes distribuidas


exponenciales idénticas, de parámetro λ.

n
X = X 1 + X 2 + X 3 + X 4 + X 5 ................ + X n =  X j
j =1

Entonces se tiene que:

 iw X j 
n

x ( w) = E eiwX  = E e j =1 
 
 

 n iwX  n
= E  e j  =  E e j
iwX
 
 j =1  j =1

     
n n

=   =   − iw 
j =1   − iw 

𝑛
𝜆 𝜆
=[ ] =
𝑖𝑤
1− 𝜆 𝑖𝑤 𝑛
(1 − 𝜆 )

−n
 iw 
= 1 − 
 
𝛼 = 𝑛 , 𝛽 = 1/𝜆
1
Lo cual implica que 𝑋~𝐺𝑎𝑚𝑚𝑎(𝛼 = 𝑛 , 𝛽 = 𝜆)

PROCESOS MARKOVIANOS

PROCESO DE MARKOV DE PARAMETRO CONTINUO

Es un proceso Markoviano donde el parámetro es continuo, es decir el tiempo es


mayor o igual a cero.

PROCESO GENERAL DE NACIMIENTO Y MUERTE

DEFINICIÓN

Sea N (t ) , t  0 un proceso puntual discreto en el espacio y continuo en el


tiempo, se dice que define a un Proceso General de Nacimiento y Muerte, si y solo
si N (t ) representa el número de ocurrencias en el intervalo de tiempo (0 , t ) , y
se cumplen los siguientes axiomas.

1. P[N (t + Δt) – N(t) =1 / N(t)=n] =λn Δt + 0(Δt)

2. P[N (t + Δt) – N(t) = -1 / N(t)=n] = μn Δt + 0(Δt)

3. P[N (t + Δt) – N(t) = 0 / N(t)=n] = 1- ( λn+ μn) Δt + 0(Δt)

4. P[N (t + Δt) – N(t) =m / N(t)=n] = 0(Δt) m ≠ -1,0,1

5. 𝑃 [𝑁(0) = 𝑛0 ] = 𝛿𝑛,𝑛0

donde :

1 𝑆𝑖 𝑛 = 𝑛0
𝛿𝑛,𝑛0 = {
0 𝑆𝑖 𝑛 ≠ 𝑛0

Función Delta de Kroneker


• λn = Tasa de nacimientos o llegadas y es una función del estado n del sistema
en el instante t.

• μn = Tasa de muerte o servicios y es una función del estado n del sistema en


el instante t.

• En el instante t=0 existe no unidades en el sistema.

• P[N(t) = n] Representa la probabilidad de que el sistema tenga n unidades en


el instante t.
• 𝛿𝑛,𝑛0 es una función dicotómica denominada Función Delta de Kroneker.
• N(t) representa el número de ocurrencias o casos en un intervalo de tiempo
(0,t)
• N (t + Δt) representa el número ocurrencias o casos en el intervalo de tiempo
(0, t + Δt)

ECUACIONES DE ESTADO DEL PROCESO GENERAL DE NACIMIENTO Y


MUERTE DE KOLMOGOROV

Para n=0

p0(t + Δt) = p0(t) P[N (t + Δt) – N(t) =0 / N(t)=0] + p1(t) P[N (t + Δt) – N(t) = -1 / N(t)=1]+

p2(t) P[N (t + Δt) – N(t) =-2 / N(t)=2]+……….

p0(t + Δt) =p0(t) [1-( λ0+ μ0)Δt +0 (Δt)] + p1(t)[ μ1Δt +0 (Δt)] +p2(t) 0 (Δt) +……….

p0(t + Δt) = p0(t)- p0(t) λ0Δt +p1(t) μ1Δt +0(Δt)

p0(t + Δt) - p0(t)=- p0(t) λ0Δt +p1(t) μ1Δt +0(Δt) // (1/ Δt)

𝑝0 (t + 𝛥𝑡) - p0 (𝑡) 0(𝛥𝑡)


= −𝑝0 (𝑡)𝜆0 𝛥t + 𝑝1 (𝑡)𝜇1 + ‖ 𝑙𝑖𝑚
𝛥𝑡 𝛥𝑡 𝛥𝑡→0

𝑝0 (t + 𝛥𝑡) - p0 (𝑡) 0(𝛥𝑡)


𝑙𝑖𝑚 = −𝑝0 (𝑡) 𝜆0 + 𝑝1 (𝑡) 𝜇1 + 𝑙𝑖𝑚
𝛥𝑡→0 𝛥𝑡 𝛥𝑡→0 𝛥𝑡

𝑝0′ (𝑡) = −𝑝0 (𝑡)𝜆0 + 𝑝1 (𝑡)µ1 𝑛=0


Condición inicial :

pn0 (0) = 1

Para n≥1

pn(t + Δt) = pn(t) P[N (t + Δt) – N(t) =0 / N(t)=n] + pn-1(t) P[N(t + Δt)–N(t) =1 / N(t)=n-1]

+pn -2(t) P[N(t + Δt)–N(t) =2/N(t)=n -2]+…+p0(t) P[N (t + Δt)–N(t)=n/N(t)=0]+……….+

pn +1(t) P[N (t + Δt) – N(t) = -1/ N(t)=n+1] + pn +2(t) P[N (t + Δt) – N(t) = -2 / N(t)=n+2]+….

pn(t + Δt) = pn(t) [1- ( λn+ μn) Δt + 0(Δt)] + pn-1(t) [ λn-1Δt + 0(Δt)]+ pn-2(t) 0(Δt)+…..+

pn+1(t) [ μn+1Δt + 0(Δt)] +pn+2(t) 0(Δt)+ ……………………

pn(t + Δt) - pn(t) = - pn(t)( λn+ μn) Δt+ pn-1(t) λn-1Δt + pn+1(t) μn+1Δt+ 0(Δt)

𝑝𝑛 (t + 𝛥𝑡) - p𝑛 (𝑡) 0(𝛥𝑡)


= −𝑝𝑛 (𝑡)( 𝜆𝑛 + 𝜇𝑛 )+ pn-1 (𝑡)𝜆n-1 + p𝑛+1 (𝑡)𝜇𝑛+1 + ‖ 𝑙𝑖𝑚
𝛥𝑡 𝛥𝑡 𝛥𝑡→0

𝑝𝑛 (t + 𝛥𝑡) - p𝑛 (𝑡) 0(𝛥𝑡)


𝑙𝑖𝑚 = −𝑝𝑛 (𝑡)( 𝜆𝑛 + 𝜇𝑛 ) + pn-1 (𝑡) 𝜆n-1 + p𝑛+1 (𝑡) 𝜇𝑛+1 + 𝑙𝑖𝑚
𝛥𝑡→0 𝛥𝑡 𝛥𝑡→0 𝛥𝑡

𝑝𝑛′ (𝑡) = −𝑝𝑛 (𝑡)( 𝜆𝑛 + 𝜇𝑛 ) + pn-1 (𝑡)𝜆n-1 + p𝑛+1 (𝑡)𝜇𝑛+1 𝑛 = 1,2,3,4, … … …

Resumiendo, se tiene el siguiente sistema simultaneo de ecuaciones diferenciales


estocásticas.

𝑝0′ (𝑡) = −𝑝0 (𝑡)𝜆0 + 𝑝1 (𝑡)µ1 𝑛=0

Con la condición inicial : pn0 (0) = 1

𝑝𝑛′ (𝑡) = −𝑝𝑛 (𝑡)( 𝜆𝑛 + 𝜇𝑛 ) + pn-1 (𝑡)𝜆n-1 + p𝑛+1 (𝑡)𝜇𝑛+1 𝑛 = 1,2,3,4, … … …


DISTRIBUCIÓN LÍMITE DE PROBABILIDADES

Suponiendo la existencia de distribución límite de probabilidades, es decir


asumiendo que existe convergencia de las ecuaciones diferenciales a la larga, se
cumplen los siguientes límites asintóticos.

𝐥𝐢𝐦 𝒑𝒏 (𝒕) = 𝒑𝒏 𝒄𝒐𝒏𝒔𝒕𝒂𝒏𝒕𝒆


𝒏→∞

𝐥𝐢𝐦 𝒑′𝒏 (𝒕) = 𝟎


𝒏→∞

Por lo que {𝑝𝑛 ∶ 𝑛 = 0,1,2,3,4,5, … … … … … . . } forma una distribución probabilística


discreta, tal que cumple las siguientes propiedades de una función de cuantía.

1) 𝒑𝒏 > 0 2) ∑ 𝒑𝒏 =𝟏
𝑛=0

ECUACIONES DE EQUILIBRIO

Aplicando límites a las ecuaciones de estado del proceso general de nacimiento y


muerte y suponiendo la existencia de distribución límite de probabilidades se
obtienen las siguientes ecuaciones de equilibrio.

Las ecuaciones de equilibrio son:

0 = - p0 0 + p1 1 n=0

0 =- pn (n + n) + pn-1n-1 + pn+1 n+1 n=1,2,3, 4,……………………

SOLUCIÓN A LAS ECUACIONES DE EQUILIBRIO

Por ser un sistema simultaneo homogéneo de ecuaciones lineales determinísticas,


dicho sistema se resuelve en forma recursiva, y la solución arroja las condiciones
bajo las cuales el proceso presenta distribución límite de probabilidades, es decir la
convergencia a una función de probabilidades a la larga.
SOLUCIÓN A LAS ECUACIONES DE EQUILIBRIO DEL PROCESO GENERAL DE
NACIMIENTO Y MUERTE

Para el Proceso General de Nacimiento y Muerte se tiene que:

Para n=0
0= -p0 0 + p1 1

1 p1 =p0 0
𝜆0
𝑝1 = ( )𝑝0
𝜇1
Para n=1

0= - p1 (1 +1 ) + p0 0 + p22


0 = - p1 1 - p1 1 + p0 0 + p2 2
2 p2 =1 p1
𝜆1
𝑝2 = ( )𝑝1
𝜇2

𝜆1 𝜆1 𝜆0 𝜆0 𝜆1
𝑝2 = ( )𝑝1 = ( ) ( 𝑝0 ) = ( )𝑝
𝜇2 𝜇2 𝜇1 𝜇1 𝜇2 0

A si sucesivamente, se tienne que para un n en général

.
.
.

𝜆0 𝜆1 . . . . . . . . . . . . . . . . . . . 𝜆𝑛−1
𝑝𝑛 = ( ) 𝑝0
𝜇1 𝜇2 . . . . . . . . . . . . . . . . . . . . 𝜇𝑛

Aplicando sumatorias se tiene que


∞ ∞
𝜆0 𝜆1 . . . . . . . . . . . . . . . . . . . 𝜆𝑛−1
∑ 𝑝𝑛 = ∑ ( ) 𝑝0 = 1
𝜇1 𝜇2 . . . . . . . . . . . . . . . . . . . . 𝜇𝑛
𝑖=0 𝑛=0

1 1
𝑝0 = =
𝜆 𝜆 ...................λ𝑛−1
∑∞
𝑛=0 ( 0 1 ) 𝒮
𝜇1 𝜇2 ....................μ𝑛
Sí la sumatoria.

𝜆0 𝜆1 ...................λ𝑛−1
∑ ( )=𝒮
𝜇1 𝜇2 ....................μ𝑛
𝑛=0

Donde 𝑝0 representa la probabilidad de tener cero unidades en el sistema en el


instante de tiempo t, o la probabilidad de que el sistema este completamente ocioso
en teoría de colas.

Lo cual implica que existe distribución límite de probabilidades siempre que esta serie
𝒮 converja, es decir 𝒮 < ∞.

𝜆0 𝜆1 . . . . . . . . . . . . . . . . . . . 𝜆𝑛−1
𝒮=∑ ( ) < ∞
𝜇1𝜇2 . . . . . . . . . . . . . . . . . . . . 𝜇𝑛
𝑛=0

Para el proceso de inmigración y emigración que es fundamental en estudios de


poblaciones y teoría de colas, con las tasas n =  y n =  dicha sumatoria se
reduce a:
∞ ∞ 𝑛
𝜆 𝜆 ...................λ 𝜆
𝒮=∑ ( ) = ∑( )
𝜇 𝜇 ....................μ 𝜇
𝑛=0 𝑛=0

1 𝜆
| |<1
1 − λ/μ 𝜇
𝒮=
𝜆
∞ | |≥1
{ 𝜇

Por lo tanto, se garantiza la existencia de distribución límite siempre que la tasa de


nacimiento o llegada “” sea menor a la tasa de muerte o servicio “” lo cual implica
que
→   
Resumiendo, se tiene que:

• Para el proceso de nacimiento y muerte lineal se tiene las siguientes tasas de


nacimiento y muerte.

𝜆𝑛 = 𝑛𝜆 𝜇𝑛 = 𝑛𝜇
• Para el proceso de inmigración y emigración se tiene las siguientes tasas de
nacimiento y muerte.

𝜆𝑛 = 𝜆 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝜇𝑛 = 𝜇 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒

• Para el proceso de inmigración y muerte lineal se tiene las siguientes tasas


de nacimiento y muerte.

𝜆𝑛 = 𝜆 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝜇𝑛 = 𝑛𝜇

• Para el proceso de nacimiento lineal y emigración se tiene las siguientes tasas


de nacimiento y muerte.

𝜆𝑛 = 𝑛𝜆 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝜇𝑛 = 𝜇 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒

Las ecuaciones de estado para estos procesos particulares pueden obtenerse


reemplazando las tasas respectivas en las ecuaciones diferenciales del proceso
general de nacimiento y muerte, la solución al sistema de ecuaciones diferenciales
originara la distribución probabilística para cada proceso del número n de unidades
en el sistema en el instante t.

SISTEMAS ESTOCÁSTICOS DE SERVICIO

FENOMENOS DE ESPERA

Los modelos de colas surgen principalmente en Europa en países con alta población
humana o vegetativa, en los cuales se presenta problemas de colas en sistemas
bancarios, estaciones gasolineras, centros de salud, lugares de diversión, y
empresas de servicio.
En este tema se estudiarán problemas de colas físicas en sistemas, en los cuales se
presenta largas colas y hasta fuga de unidades de un sistema, ya que tener por
mucho tiempo a una unidad en un sistema o fuga de estos, implica que se esté
ocasiona una pérdida de tiempo, e implícitamente reducción de ingresos, y hasta
pérdidas de estos en una empresa o institución.
Los sistemas estocásticos de servicio y fenómenos de espera se según su naturaleza
se clasifican en:

- Sistemas en los cuales se presentan fenómenos de colas.

- Sistemas en los cuales no se presentan fenómenos de colas (Llamados


también sistemas de perdida).

LLEGADA DE UNIDADES A UN SISTEMA

El proceso de llegadas de unidades a un sistema, por lo general son variables


aleatorias con distribuciones probabilísticas conocidas, aunque también existen
sistemas automatizados donde las unidades llegan a intervalos de tiempos
constantes. Las unidades pueden provenir de una fuente o población finita contable,
infinita numerable y hasta infinita no numerable.

El número de llegadas de unidades al sistema por lo general se supondrán


Poissonianas con tasa de intensidad 𝜆𝑛 , y el tiempo entre llegadas consecutivas
exponencial.

SERVICIO DE UNIDADES DE UN SISTEMA

El proceso de servicio a unidades en un sistema, por lo general son variables


aleatorias con tiempos de servicio generalmente aleatorios, pero por lo general con
distribuciones probabilísticas conocidas, aunque también existen sistemas
automatizados donde el tiempo de servicio es constante.

El número de servicios a unidades en el sistema por lo general se supondrán


Poissonianas con tasa de intensidad 𝜇𝑛 , y el tiempo de servicio se supondrá
exponencial.

DISCIPLINA O REGLAS DE ESPERA

Es un sistema de colas se definen distintos tipos de reglas o disciplinas de espera y


de atención, entre estas se puede mencionar las siguientes que son más comunes.

1. - Primera unidad en llegar y primera unidad en ser atendida.

2. – Ultima unidad en llegar y primera unidad en ser atendida.

3. - Atención de unidades en el sistema con prioridades o preferencias.

4. - Unidad que llega al sistema ocupado se pierde, sistemas de pérdida.

5. – Atención de unidades en forma aleatoria.


MECANISMOS DE SERVICIO

Los servicios son ejecutados o realizados por estaciones o canales de servicio, los
cuales pueden estar ordenados de distintas maneras como ser:

ESTACIÓN EN PARALELO
En la estación en paralelo cada unidad que llega al sistema es atendida por un solo
servidor, respetando el orden de turno respectivo.

ESTACIÓN EN SERIE

En la estación en serie cada unidad que llega al sistema es atendida por al menos
dos servidores, respetando el orden de turno respectivo.

ESTACIÓN MIXTA

En la estación mixta existen varias llegadas varias colas de atención en forma


simultáneas, y cada unidad que llega al sistema es atendida por al menos dos
servidores respetando el orden de turno respectivo.
Es bueno hacer notar que este tipo de estación de servicio se aplica a sistemas
complejos conflictivos.

Si en cualquiera de los casos anteriores a la vez se considera en el estudio a la


población de donde provienen las unidades, entonces se tratará de analizar todo en
fenómeno de colas.

NÚMERO DE UNIDADES QUE ADMITE EL SISTEMA

Al número máximo unidades o clientes que se admite o permite un sistema tanto en


la cola como en el servicio se denomina capacidad del sistema, de no darse dicho
dato o información se supondrá que se tratará de un modelo de capacidad infinita.

OBJETIVO DE LOS MODELOS DE COLAS

Como el objetivo de los modelos de colas, es determinar la cantidad óptima de


estaciones o canales de servicio en el sistema, de tal forma de minimizar el tiempo
de permanencia de una unidad en el sistema e implícitamente generar mayores
ingresos para una empresa o institución, esto se logrará optimizando las siguientes
medidas de rendimiento.

W: Tiempo medio de espera o permanencia de una unidad en el sistema.

W q: Tiempo medio de espera o permanencia de una unidad en la cola.

L: Numero promedio o esperado de unidades en el sistema.

Lq: Numero promedio o esperado de unidades en la cola.

Lo: Numero promedio o esperado de estaciones ocupadas.

Ld: Numero promedio o esperado de estaciones desocupadas.

REPRESENTACIÓN DE UN MODELO DE COLAS

Un modelo de colas está completamente definido con todas sus características


propias que tiene este, con la notación de Kendall, la cual se la representa de la
siguiente.

PLL/PS/NE/CS/DE

Donde:

PLL: Patrón de llegadas. (Representa a la distribución probabilística del tiempo


entre llegadas consecutivas, o a la distribución probabilística del número de llegadas
por unidad de tiempo

PS: Patrón de servicios. (Representa a la distribución probabilística del tiempo


de servicio, o a la distribución probabilística del número de atenciones o servicios por
unidad de tiempo

NE: Representa al número de estaciones o canales de servicio que tiene el


sistema.

CS: Representa a la capacidad del sistema que admite tanto en la cola como en
el servicio.

DE: Representa a la reglas o disciplina de espera definida en el sistema.


PROCESOS DE COLAS O ESPERA

Los modelos de colas según sus características se dividen en :

Población infinita Población finita


Simple Simple
Múltiple Múltiple

MODELO M/M/1

Los supuestos de dicho modelo son:

1. Fuente o población infinita.


2. Capacidad del sistema infinito.
3. Disciplina de espera primero en llegar primero en ser atendido.
4. Una estación o canal de servicio.
5. Número de llegadas por unidad de tiempo de tipo Poisson con tasa de
intensidad.
𝜆𝑛 = 𝜆 Constante.
O tiempos entre llegadas consecutivas de tipo exponencial con el mismo
parámetro.
6. Número de atenciones por unidad de tiempo de tipo Poisson con tasa de
intensidad.
𝜇𝑛 = 𝜇 Constante
O tiempos de servicio de tipo exponencial con el mismo parámetro.

ECUACIONES DE ESTADO DEL MODELO M/M/1

Estas se definen como:

𝑝0′ (𝑡) = −𝑝0 (𝑡) 𝜆 + 𝑝1 (𝑡) 𝜇 𝑛=0

𝑝𝑛′ (𝑡) = −𝑝𝑛 (𝑡)(𝜆 + 𝜇 ) + 𝑝𝑛−1 (𝑡) 𝜆 + 𝑝𝑛+1 (𝑡) 𝜇 𝑛>0


ECUACIONES DE EQUILIBRIO DEL MODELO M/M/1

Estas se definen como:

0 = −𝑝0 𝜆 + 𝑝1 𝜇 𝑛=0

0 = −𝑝𝑛 (𝜆 + 𝜇 ) + 𝑝𝑛−1 𝜆 + 𝑝𝑛+1 𝜇 𝑛>0

DISTRIBUCIÓN PROBABILÍISTICA

Demostración:

Para 𝒏 = 𝟎

0 = −𝑝0 𝜆 + 𝑝1 𝜇

𝑝1 𝜇 = 𝑝0 𝜆

𝜆
𝑝1 = ( ) 𝑝0
𝜇

Para 𝒏 = 𝟏

0 = − 𝑝1 (𝜆 + 𝜇 ) + 𝑝0 𝜆 + 𝑝2 𝜇

0 = − 𝑝1 𝜆 − 𝑝1 𝜇 + 𝑝0 𝜆 + 𝑝2 𝜇

𝑝2 𝜇 = 𝑝1 𝜆

𝜆
𝑝2 = ( ) 𝑝1
𝜇

𝜆 2
𝑝2 = ( ) 𝑝0
𝜇

Para 𝒏 = 𝟐

0 = − 𝑝2 (𝜆 + 𝜇 ) + 𝑝1 𝜆 + 𝑝3 𝜇

0 = − 𝑝2 𝜆 − 𝑝2 𝜇 + 𝑝1 𝜆 + 𝑝3 𝜇

𝑝3 𝜇 = 𝑝2 𝜆
𝜆
𝑝3 = ( ) 𝑝2
𝜇

𝜆 3
𝑝3 = ( ) 𝑝0
𝜇

Así sucesivamente:




𝜆 𝑛
𝑝𝑛 = ( ) 𝑝0
𝜇

𝜆
Si 𝜌= representa a la probabilidad de que el sistema este ocupado y a la
𝜇
probabilidad de tránsito o tráfico y 𝑝0 a la probabilidad de que el sistema este vacío
u ocioso, entonces se tiene que:

𝑝0 + 𝜌 = 1 ⟹ 𝑝0 = 1 − 𝜌

Sustituyendo se tiene que la distribución de probabilidad está dada por.

𝑝𝑛 = 𝜌 𝑛 (1 − 𝜌) 𝑛 = 0,1,2, … … … …

Que representa a la distribución probabilística del número 𝑛 de unidad en el sistema


del modelo M/M/1.

MEDIDAS DE RENDIMIENTO

Entre estas se tiene a:

NÚMERO PROMEDIO O ESPERADO DE UNIDADES EN EL SISTEMA L

𝜌
𝐿=
1−𝜌
DEMOSTRACIÓN
∞ ∞

𝐿 = 𝐸 (𝑁) = ∑ 𝑛 𝜌 (1 − 𝜌) = (1 − 𝜌) 𝜌 ∑ 𝑛 𝜌 𝑛−1
𝑛

𝑛=0 𝑛=0

∞ ∞
𝑑𝑓 𝑛 𝑑𝑓
= (1 − 𝜌 ) 𝜌 ∑ (𝜌 ) = (1 − 𝜌 ) 𝜌 (∑ 𝜌 𝑛 )
𝑑𝜌 𝑑𝜌
𝑛=0 𝑛=0

1 ′ 0 − 1 (−1)
= (1 − 𝜌 ) 𝜌 [ ] = (1 − 𝜌 ) 𝜌 [ ]
1−𝜌 ( 1 − 𝜌 )2

1 𝜌
= (1 − 𝜌 ) 𝜌 [ 2
]=
(1 − 𝜌 ) 1−𝜌

NÚMERO PROMEDIO O ESPERADO DE UNIDADES EN LA COLA 𝑳𝒒

𝜌2
𝐿𝑞 =
1−𝜌

Demostración
∞ ∞

𝐿𝑞 = 𝐸 (𝑁 − 1) = ∑ (𝑛 − 1) 𝑝𝑛 ∑ (𝑛 − 1) 𝜌 𝑛 (1 − 𝜌)
𝑛−1=0 𝑛−1=0

∞ ∞

= (1 − 𝜌) 𝜌 2 ∑ (𝑛 − 1) 𝜌 𝑛−2 = (1 − 𝜌) 𝜌 2 ∑ (𝑛 − 1) 𝜌 (𝑛−1)−1
𝑛−1=0 𝑛−1=0

Cambio de variable
𝑚 =𝑛−1

∞ ∞
2 𝑚−1 2
𝑑
= (1 − 𝜌 ) 𝜌 ∑𝑚𝜌 = (1 − 𝜌 ) 𝜌 ∑ (𝜌 𝑚 )
𝑑𝜌
𝑚=0 𝑚=0

2
𝑑 𝑚 2
1 ′
( )
= 1−𝜌 𝜌 ( )
[∑ 𝜌 ] = 1 − 𝜌 𝜌 [ ]
𝑑𝜌 1−𝜌
𝑚=0

2 [
0 − 1 (−1) 2 [
1 𝜌2
( )
= 1−𝜌 𝜌 ] ( )
= 1−𝜌 𝜌 ] =
(1 − 𝜌 )2 ( 1 − 𝜌 )2 1−𝜌

TIEMPO MEDIO DE ESPERA O PERMANENCIA DE UNA UNIDAD EN LA COLA


𝑾𝒒

𝜌
𝑊𝑞 =
𝜇− 𝜆

DEMOSTRACIÓN

𝐿𝑞 = 𝜆 𝑊𝑞

𝜌2
𝐿𝑞 1−𝜌 𝜌2 𝜌2
𝑊𝑞 = = = =
𝜆 𝜆 𝜆 (1 − 𝜌 ) 𝜆
𝜆 (1 − 𝜇 )

𝜌2 𝜌2 𝜌
= = =
𝜇−𝜆 𝜌 (𝜇 − 𝜆 ) 𝜇−𝜆
𝜆 ( )
𝜇

TIEMPO MEDIO DE ESPERA O PERMANENCIA DE UNA UNIDAD EN EL


SISTEMA 𝑾

1
𝑊=
𝜇− 𝜆
DEMOSTRACIÓN

Método 1
𝐿= 𝜆𝑊

𝜌
𝐿 1−𝜌 𝜌 𝜌
𝑊= = = =
𝜆 𝜆 𝜆 (1 − 𝜌 ) 𝜆
𝜆 (1 − 𝜇 )

𝜌 1
= =
𝜇− 𝜆 𝜇− 𝜆
𝜆( 𝜇 )

Método 2

1 𝜌 1 𝜇𝜌+ 𝜇− 𝜆
𝑊 = 𝑊𝑞 + = + =
𝜇 𝜇− 𝜆 𝜇 (𝜇 − 𝜆 ) 𝜇

𝜆+ 𝜇− 𝜆 1
= =
(𝜇 − 𝜆 ) 𝜇 𝜇− 𝜆

PROBABILIDAD DE QUE EN SISTEMA EXISTA MÁS DE 𝒎 UNIDADES

𝑃 [𝑁 > 𝑚] = 𝜌 𝑚+1

DEMOSTRACIÓN
∞ ∞

𝑃 [𝑁 > 𝑚] = ∑ 𝑝𝑛 = ∑ 𝜌 𝑛 (1 − 𝜌)
𝑛=𝑚 𝑛=𝑚


1
= (1 − 𝜌) 𝜌 𝑚 ∑ 𝜌 𝑛−𝑚 = (1 − 𝜌) 𝜌 𝑚 ( )
1− 𝜌
𝑛−𝑚=0

= 𝜌𝑚
DISTRIBUCIÓN PROBABILÍSTICA DEL TIEMPO DE PERMANENCIA EN LA
COLA

1− 𝜌 𝑡=0
𝑓 (𝑡 ) = {
𝜌 (1 − 𝜌) 𝜇 𝑒 −𝑡𝜇 (1−𝜌) 𝑡>0

PROBABILIDAD DE QUE UNA UNIDAD PERMANEZCA MÁS DE 𝒕 UNIDADES


DE TIEMPO EN LA COLA

𝑡⁄
𝑊𝑞 (𝑡) = 𝜌 𝑒 − 𝑊

DEMOSTRACIÓN

𝑊𝑞 (𝑡) = 𝑃 [𝑇𝑞 > 𝑡] = ∫ 𝜌 (1 − 𝜌) 𝜇 𝑒 −𝑥 𝜇 (1−𝜌) 𝑑𝑥
𝑡

𝑒 − 𝑥 𝜇 (1−𝜌) −𝑥 𝜇 (1−𝜌) ∞
= 𝜌 (1 − 𝜌 ) 𝜇 ( ) /∞
𝑡 =−𝜌𝑒 /𝑡
(
−𝜇 1−𝜌 )

𝜆 𝜇−𝜆
−𝑡𝜇 (1− ) −𝑡𝜇 ( )
= −𝜌 [0 − 𝑒 − 𝑡 𝜇 (1−𝜌) ] = 𝜌 𝑒 𝜇 = 𝜌 𝑒 𝜇

𝑡⁄
= 𝜌 𝑒− 𝑊

DISTRIBUCIÓN PROBABILÍSTICA DEL TIEMPO DE PERMANENCIA EN EL


SISTEMA

𝑓 (𝑡) = (𝜇 − 𝜆) 𝑒 −(𝜇−𝜆)𝑡 𝑡>0

PROBABILIDAD DE QUE UNA UNIDAD PERMANEZCA MÁS DE 𝒕 UNIDADES


DE TIEMPO EN EL SISTEMA

𝑡
𝑊 (𝑡) = 𝑒 − ⁄𝑊

𝑊 (𝑡) = 𝑃 [𝑇 > 𝑡] = ∫ (𝜇 − 𝜆) 𝑒 −(𝜇−𝜆)𝑥 𝑑𝑥
𝑡

𝑒 −(𝜇−𝜆) 𝑥
= (𝜇 − 𝜆 ) ( ) /∞ = −𝑒 −(𝜇−𝜆) 𝑥 /∞
− (𝜇 − 𝜆 ) 𝑡 𝑡

𝑡⁄
= − (0 − 𝑒 − (𝜇−𝜆)𝑡 ) = 𝑒 − (𝜇−𝜆) 𝑡 = 𝑒 − 𝑊

MODELO M/M/S

Los supuestos de dichos modelos son:

1. Fuente o población infinita.

2. Capacidad del sistema infinito.

3. Disciplina de espera primero en llegar primero en ser atendido.

4. S estaciones o canales de servicio, ordenados en paralelo.

5. Número de llegadas por unidad de tiempo de tipo Poisson con tasa de


intensidad.
𝜆𝑛 = 𝜆 Constante.
O tiempos entre llegadas consecutivas de tipo exponencial con el mismo
parámetro.

6. Número de atención por unidad de tiempo de tipo Poisson con tasa de


intensidad.

n 0nS
n=
S nS

ó tiempos de servicio de tipo exponencial con el mismo parámetro.


ECUACIONES DE ESTADO DEL MODELO M/M/S

Estas se definen como:

Tasas de intensidad

𝑛𝜇 0 <𝑛<𝑆
𝜆𝑛 = 𝜆 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝜇𝑛 = {𝑆𝜇
𝑛 ≥𝑆

𝑝0, (𝑡) = − 𝜆 𝑝0 (𝑡) + 𝜇 𝑝1 (𝑡) 𝑛=0


𝑝𝑛, (𝑡) = − (𝜆 + 𝑛 𝜇 ) 𝑝𝑛 (𝑡) + 𝜆 𝑝𝑛−1 (𝑡) + (𝑛 + 1 ) 𝜇 𝑝𝑛+1 (𝑡) 0 < 𝑛<𝑆
𝑝𝑛, (𝑡) = − (𝜆 + 𝑆 𝜇 ) 𝑝𝑛 (𝑡) + 𝜆 𝑝𝑛−1 (𝑡) + 𝑆 𝜇 𝑝𝑛+1 (𝑡) 𝑛 ≥𝑆

ECUACIONES DE EQUILIBRIO DEL MODELO M/M/S

Estas se definen como:

0 = − 𝜆 𝑝0 + 𝜇 𝑝1 𝑛=0
0 = − (𝜆 + 𝑛 𝜇 ) 𝑝𝑛 + 𝜆 𝑝𝑛−1 + (𝑛 + 1 ) 𝜇 𝑝𝑛+1 0 < 𝑛 <𝑆
0 = − (𝜆 + 𝑆 𝜇 ) 𝑝𝑛 + 𝜆 𝑝𝑛−1 + 𝑆 𝜇 𝑝𝑛+1 𝑛 ≥𝑆

DISTRIBUCIÓN PROBABILÍISTICA

Demostración:

Para 𝑛 = 0

0 = − 𝜆 𝑝0 + 𝜇 𝑝1
𝜇 𝑝1 = 𝜆 𝑝0
𝜆
𝑝1 = (𝜇) 𝑝0

𝜆 1
( )
𝜇
𝑝1 = 𝑝
1! 0

Para 𝑛 = 1

0 = − (𝜆 + 𝜇 ) 𝑝1 + 𝜆 𝑝0 + 2 𝜇 𝑝2
0 = − 𝜆 𝑝1 – 𝜇 𝑝1 + 𝜆 𝑝0 + 2𝜇 𝑝2
0 = − 𝜆 𝑝1 – 𝜆 𝑝0 + 𝜆 𝑝0 + 2𝜇 𝑝2
2𝜇 𝑝2 = 𝜆 𝑝1
𝜆
( ) 𝑝1
𝜇
𝑝2 =
2

𝜆 2
( ) 𝑝0
𝜇
𝑝2 =
2∗1
𝜆 2
( ) 𝑝0
𝜇
𝑝2 =
2!

Para 𝑛 = 2

0 = − (𝜆 + 2 𝜇 ) 𝑝2 + 𝜆 𝑝1 + 3 𝜇 𝑝3
0 = − 𝜆 𝑝2 – 2 𝜇 𝑝2 + 𝜆 𝑝1 + 3𝜇 𝑝3
0 = − 𝜆 𝑝2 – 𝜆 𝑝1 + 𝜆 𝑝1 + 3𝜇 𝑝3
3𝜇 𝑝3 = 𝜆 𝑝2
𝜆
( ) 𝑝2
𝜇
𝑝3 =
3
𝜆 3
( ) 𝑝0
𝜇
𝑝3 =
3×2×1
𝜆 3
( ) 𝑝0
𝜇
𝑝3 =
3!

Para 𝑛 = 𝑆 − 2

0 = − (𝜆 + (𝑆 − 2) 𝜇 ) 𝑝𝑆−2 + 𝜆 𝑝𝑆−3 + (𝑆 − 1)𝜇 𝑝𝑆−1


0 = − 𝜆 𝑝𝑆−2 – (𝑆 − 2) 𝜇 𝑝𝑆−2 + 𝜆 𝑝𝑆−3 + (𝑆 − 1)𝜇 𝑝𝑠−1
0 = − 𝜆 𝑝𝑆−2 – 𝜆 𝑝𝑆−3 + 𝜆 𝑝𝑆−3 + (𝑆 − 1)𝜇 𝑝𝑆−1
(𝑆 − 1)𝜇 𝑝𝑆−1 = 𝜆 𝑝𝑆−2

𝜆 𝜆 𝜆 𝑆−2
( ) 𝑝𝑆−2 ( ) ( ) 𝑝0
𝜇 𝜇 𝜇
𝑝𝑆−1 = = ( )
(𝑆 − 1) (𝑆 − 1) (𝑆 − 2)!
𝜆 𝑆−1
( ) 𝑝0
𝜇
𝑝𝑆−1 =
(𝑆 − 1) !

Por lo tanto se tiene que:


𝜆 𝑛
( ) 𝑝0
𝜇
𝑝𝑛 = 0 ≤𝑛 <𝑆
𝑛!

Para pasar a la otra ecuación se debe obtener el último termino:

Para 𝑛 = 𝑆 − 1

0 = − (𝜆 + (𝑆 − 1) 𝜇 ) 𝑝𝑆−1 + 𝜆 𝑝𝑆−2 + 𝑆𝜇 𝑝𝑆
0 = − 𝜆 𝑝𝑆−1 – (𝑆 − 1) 𝜇 𝑝𝑆−1 + 𝜆 𝑝𝑆−2 + 𝑆𝜇 𝑝𝑠
0 = − 𝜆 𝑝𝑆−1 – 𝜆 𝑝𝑆−2 + 𝜆 𝑝𝑆−2 + 𝑆𝜇 𝑝𝑆
𝑆𝜇 𝑝𝑆 = 𝜆 𝑝𝑆−1

𝜆
( ) 𝑝𝑆−1
𝜇
𝑝𝑆 =
𝑆

𝜆 𝑆
( ) 𝑝0
𝜇
𝑝𝑆 =
𝑆!

Para 𝑛 = 𝑆

0 = − (𝜆 + 𝑆𝜇 ) 𝑝𝑆 + 𝜆 𝑝𝑆−1 + 𝑆 𝜇 𝑝𝑆+1
0 = − 𝜆 𝑝𝑆 – 𝑆 𝜇 𝑝𝑆 + 𝜆 𝑝𝑆−1 + 𝑆𝜇 𝑝𝑠+1
0 = − 𝜆 𝑝𝑆 – 𝜆 𝑝𝑆−1 + 𝜆 𝑝𝑆−1 + 𝑆𝜇 𝑝𝑆+1
0 = − 𝜆 𝑝𝑆 + 𝑆𝜇 𝑝𝑆+1
𝑆𝜇 𝑝𝑆+1 = 𝜆 𝑝𝑆
𝜆 𝜆 𝜆 𝑆
( ) 𝑝𝑆 ( ) ( ) 𝑝0
𝜇 𝜇 𝜇
𝑝𝑆+1 = = ( )
𝑆 𝑆 𝑆!
𝜆 𝑆+1
( ) 𝑝0
𝜇 𝑆 +1= 𝑛
𝑝𝑆+1 = 𝑠𝑖
𝑆1 𝑆 ! 1=𝑛 −𝑆

Para 𝑛 = 𝑆 + 1

0 = − (𝜆 + 𝑆𝜇 ) 𝑝𝑆+1 + 𝜆 𝑝𝑆 + 𝑆 𝜇 𝑝𝑆+2
0 = − 𝜆 𝑝𝑆+1 – 𝑆 𝜇 𝑝𝑆+1 + 𝜆 𝑝𝑆 + 𝑆𝜇 𝑝𝑠+2
0 = − 𝜆 𝑝𝑆+1 – 𝜆 𝑝𝑆 + 𝜆 𝑝𝑆 + 𝑆𝜇 𝑝𝑆+2
𝑆𝜇 𝑝𝑆+2 = 𝜆 𝑝𝑆+1

𝜆
( ) 𝑝𝑆+1
𝜇
𝑝𝑆+2 =
𝑆

𝜆 𝑆+2
( ) 𝑝0
𝜇 𝑆 +2= 𝑛
𝑝𝑆+2 = 𝑠𝑖
𝑆2 𝑆 ! 2=𝑛 −𝑆

Para 𝑛 = 𝑆 + 2

0 = − (𝜆 + 𝑆𝜇 ) 𝑝𝑆+2 + 𝜆 𝑝𝑆+1 + 𝑆 𝜇 𝑝𝑆+3


0 = − 𝜆 𝑝𝑆+2 – 𝑆 𝜇 𝑝𝑆+2 + 𝜆 𝑝𝑆+1 + 𝑆𝜇 𝑝𝑠+3
0 = − 𝜆 𝑝𝑆+2 – 𝜆 𝑝𝑆+1 + 𝜆 𝑝𝑆+1 + 𝑆𝜇 𝑝𝑆+3
𝑆𝜇 𝑝𝑆+3 = 𝜆 𝑝𝑆+2
𝜆 𝑆+3
( ) 𝑝0 𝑆 +3=𝑛
𝜇
𝑝𝑆+3 = 𝑠𝑖
𝑆3 𝑆 ! 3=𝑛 −𝑆

Para 𝑛 en general 𝑛 ≥𝑆

𝜆 𝑛
( ) 𝑝0
𝜇
𝑝𝑛 = 𝑛−𝑆
𝑆 𝑆!

𝜆 𝑛
( ) 𝑝0
𝜇
𝑝𝑛 = 𝑛 ≥𝑆
𝑆! 𝑆 𝑛−𝑆
Distribución Probabilística

𝜆 𝑛
(𝜇 ) 𝑝0
0 ≤𝑛 <𝑆
𝑝𝑛 = 𝑛!
𝜆 𝑛
(𝜇 ) 𝑝0
{𝑆 ! 𝑛 ≥𝑆
𝑆 𝑛−𝑆

PROBABILIDAD DE QUE EL SISTEMA ESTE VACÍO U OCIOSO 𝑝0

𝑛
𝑆−1 (𝜆 ) 𝜆 𝑛 ∞
( ) 𝑝0
𝜇 𝜇
∑ 𝑝0 + ∑ =1
𝑛! 𝑆! 𝑆 𝑛−𝑆
𝑛=0 𝑛=𝑆

1
𝑝0 = 𝑛
𝜆 𝜆 𝑛
(𝜇 ) (𝜇 )
∑𝑆−1 ∑∞
𝑛=0 𝑛 ! + 𝑛=𝑠 𝑆! 𝑆 𝑛−𝑆

1
𝑝0 = 𝑛
𝜆 𝜆 𝑆
( ) ( )
𝜇 𝜇
∑𝑆−1
𝑛=0 𝑛 ! + 𝑆! (1 − 𝜌)

𝜆
Con 𝜌 = Probabilidad de tránsito o tráfico
𝜇𝑆

Donde

∞ 𝜆 𝑛 ∞ 𝜆 𝑛
( ) 1 ( )
𝜇 𝜇
∑ = ∑ 𝑛−𝑆
𝑆 ! 𝑆 𝑛−𝑆 𝑆! 𝑆
𝑛=𝑆 𝑛−𝑆=0

𝜆 𝑆 𝜆 𝑛−𝑆 𝜆 𝑆
( ) ∞ ( ) ( ) ∞ 𝜆 𝑛−𝑆
𝜇 𝜇 𝜇
= ∑ = ∑ ( )
𝑆! 𝑆 𝑛−𝑠 𝑆! 𝜇𝑆
𝑛−𝑆=0 𝑛−𝑆=0
𝜆 𝑆 ∞ 𝜆 𝑆
( ) ( ) 1
𝜇 𝜇
= ∑ 𝜌 𝑛−𝑆 = ( )
𝑆! 𝑆! 1 − 𝜌
𝑛−𝑆=0

𝜆 𝑆
( )
𝜇
=
𝑆 ! (1 − 𝜌 )

Lo cual queda demostrado.

NÚMERO PROMEDIO O ESPERADO DE UNIDADES EN LA COLA

𝑝0 𝜌 (𝜆⁄𝜇)𝑠
𝐿𝑞 =
S!(1 − 𝜌)2

Demostración: La variable aleatoria número de unidades en la cola para este


modelo (N-S).

∞ ∞
(𝜆⁄𝜇 )𝑛
𝐿𝑞 = 𝐸(𝑁 − 𝑆) ∑ (𝑛 − 𝑆)𝑝𝑛 = ∑ (𝑛 − 𝑆) ∗ 𝑝0
S! S 𝑛−𝑠
𝑛−𝑆=0 𝑛−𝑆=0

∞ ∞
𝑝0 (𝜆⁄𝜇 )𝑛 (𝜆⁄𝜇 )𝑆 𝑝0 𝑆 ∑ (
(𝜆⁄𝜇 )𝑛−𝑆
= ∑ (𝑛 − 𝑆) 𝑛−𝑆 = ( 𝜆 ⁄𝜇 ) 𝑛 − 𝑆 )
S! 𝑆 (𝜆⁄𝜇 )𝑆 S! 𝑆 𝑛−𝑆
𝑛−𝑠=0 𝑛−𝑠=0


𝑝0
= (𝜆⁄𝜇 )𝑆 ∑ (𝑛 − 𝑆)𝜌 𝑛−𝑆
S!
𝑛−𝑠=0


𝑝0 𝜌
= (𝜆⁄𝜇 )𝑆 ∑ (𝑛 − 𝑆)𝜌 𝑛−𝑆
S! 𝜌
𝑛−𝑠=0

Cambio de variable m = n-S



𝑝 𝜌(𝜆⁄𝜇)𝑠
= 0 ∑ 𝑚𝜌𝑚−1
S! 𝑚=0


𝑝0 𝜌(𝜆⁄𝜇)𝑠 𝑑 𝑚
= ∑ (𝜌 )
S! 𝑑𝜌
𝑚=0


𝑝0 𝜌(𝜆⁄𝜇 )𝑠 𝑑 𝑝0 𝜌(𝜆⁄𝜇 )𝑠 1 ′
= ( ∑ 𝜌𝑚) = ( )
S! 𝑑𝜌 S! 1−𝜌
𝑚=0

𝑝0 𝜌(𝜆⁄𝜇 )𝑠 𝑝0 𝜌 (𝜆⁄𝜇 )𝑠
= (+1)(1 − 𝜌)−2 =
S! S! (1 − 𝜌)2

NÚMERO PROMEDIO O ESPERADO DE ESTACIONES DESOCUPADAS

En este modelo pueden existir más de dos estaciones y por tanto algunas
desocupadas.

𝑠−1 𝑠−1
(𝜆⁄𝜇 )𝑛
𝐿𝐷 = 𝐸(𝑆 − 𝑁) = ∑(𝑆 − 𝑛) 𝑝𝑛 = ∑(𝑆 − 𝑛) 𝑝0
n!
𝑛=0 𝑛=0

𝐿𝐷 = 𝑆 − 𝜌𝑆


S es el número de estaciones, y  = es la probabilidad de tránsito o tráfico.
S

NÚMERO PROMEDIO O ESPERADO DE ESTACIONES OCUPADAS

Lo =  S
NÚMERO PROMEDIO O ESPERADO DE UNIDADES EN EL SISTEMA

𝐿 = ∑ n p𝑛
𝑛=0

𝑠−1 ∞
𝑛 (𝜆⁄𝜇 )𝑛 𝑛 (𝜆⁄𝜇 )𝑛
𝐿=∑ 𝑝0 + ∑ 𝑝
n! S! S 𝑛−𝑠 0
𝑛=0 𝑛=𝑠

Para facilitar cálculos: L = Lq + Lo donde Lq es el número promedio de unidades en


la cola y Lo es el número promedio de estaciones ocupadas.

TIEMPO MEDIO DE ESPERA O PERMANENCIA DE UNA UNIDAD EN LA COLA

  Wq = L q

Lq
Wq =

(𝜆⁄𝜇 )𝑠 𝜌 𝑝0
𝑊𝑞 =
𝜆 S! (1 − 𝜌)2

TIEMPO MEDIO DE ESPERA O PERMANENCIA DE UNA UNIDAD EN EL


SISTEMA

𝐿
 W= L → 𝑊 = 𝜆
1
𝑊 = 𝑊𝑞 +
𝜇
PROBABILIDAD DE QUE UNA UNIDAD PERMANEZCA MAS DE t UNIDADES DE
TIEMPO EN LA COLA

Wq (t ) =
(S ) p 0 −St (1−  )
s

e
S! (1 −  ) t >0

PROBABILIDAD DE QUE UNA UNIDAD PERMANEZCA MAS DE t UNIDADES DE


TIEMPO EN EL SISTEMA

(𝑆𝜌)𝑠 𝑝0[1−𝑒 −𝜇 𝑡(𝑆−1−𝑆𝜌) ]


𝑊 (𝑡 ) = 𝑒 −𝜇𝑡 {1 + } t >0
S!(1−𝜌)(𝑆−1−𝑆𝜌)

PROBABILIDAD DE QUE UNA UNIDAD QUE LLEGA AL SISTEMA TENGA QUE


ESPERAR

𝑝0 (𝜆⁄𝜇 )𝑠 𝜇𝑆
𝑃 (𝐷𝑒 𝑙𝑙𝑒𝑔𝑎𝑟 𝑦 𝑒𝑠𝑝𝑒𝑟𝑎𝑟 ) = ( )
S! 𝜇𝑆 − 𝜆

∞ ∞
(𝜆⁄𝜇 )𝑛
𝑃 (𝐷𝑒 𝑙𝑙𝑒𝑔𝑎𝑟 𝑦 𝑒𝑠𝑝𝑒𝑟𝑎𝑟) = ∑ 𝑝𝑛 = ∑ ∗ 𝑝0
S! S 𝑛−𝑠
𝑛=𝑆 𝑛=𝑆

∞ ∞
𝑝0 (𝜆⁄𝜇 )𝑛 (𝜆⁄𝜇 )𝑆 𝑝0 𝑆
(𝜆⁄𝜇 )𝑛−𝑆
= ∑ ⁄
= (𝜆 𝜇 ) ∑
S! 𝑆 𝑛−𝑆 (𝜆⁄𝜇 )𝑆 S! 𝑆 𝑛−𝑆
𝑛−𝑠=0 𝑛−𝑠=0


𝑝0
= (𝜆⁄𝜇 )𝑆 ∑ 𝜌 𝑛−𝑆
S!
𝑛−𝑠=0
𝑝0 1
= (𝜆⁄𝜇 )𝑆 [ ]
S! 1−𝜌

𝑝0 1
= (𝜆⁄𝜇 )𝑆 [ ]
S! 𝜆
1 − 𝜇𝑆

𝑝0 1
= (𝜆⁄𝜇 )𝑆 [ ]
S! 𝜇𝑆 − 𝜆
𝜇𝑆

𝑝0 (𝜆⁄𝜇 )𝑠 𝜇𝑆
𝑃 (𝐷𝑒 𝑙𝑙𝑒𝑔𝑎𝑟 𝑦 𝑒𝑠𝑝𝑒𝑟𝑎𝑟 ) = ( )
S! 𝜇𝑆 − 𝜆

También podría gustarte