Está en la página 1de 17

Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

EL PROCESO DE POISSON Y SUS


DISTRIBUCIONES ASOCIADAS
El Proceso de Poisson.

El Proceso de Poisson se puede contemplar como una generalización por


continuidad del Proceso de Bernoulli. Si consideramos que los ensayos de un Proceso
de Bernoulli se realizan a intervalos fijos de tiempo, entonces un Proceso de Bernoulli
se puede entender como la aparición a lo largo del tiempo de sucesos (Éxitos) que
pueden ocurrir sólo en tiempos que son múltiplos de una cantidad fija, existiendo
independencia entre lo que pasa en intervalos disjuntos y manteniéndose constante la
probabilidad de que en cada instante, en los que es posible, ocurra el Éxito. La
generalización por continuidad consiste en permitir que los sucesos ocurran de manera
continua a lo largo del tiempo, lo que motiva la siguiente definición:

Definición: Un Proceso de Poisson es la aparición aleatoria de sucesos a lo largo del


tiempo obedeciendo a las siguientes pautas:
1.- El número de sucesos que ocurren en intervalos de tiempo disjuntos son
variables aleatorias independientes.
2.- El número medio de sucesos por unidad de tiempo, , denominado tasa del
proceso, se mantiene constante a lo largo del tiempo.
3.- En un intervalo de tiempo de longitud diferencial t, t+t) sólo se puede
producir a lo sumo un suceso.

Aunque habitualmente se utilice la magnitud “tiempo” para definir el Proceso de


Poisson, veremos, a partir de ejemplos, que dicha magnitud puede ser también, por
ejemplo, una longitud, una superficie, un volumen,...
Ejemplos de fenómenos aleatorios que, con un grado mayor o menor de
abstracción, se pueden modelar como un proceso de Poisson son los siguientes:

- Llegada de llamadas a una centralita telefónica a lo largo de un periodo de tiempo.


- Ocurrencia de accidentes de tráfico en un cruce de carreteras durante un periodo de
tiempo.
- Emisión de partículas a lo largo del tiempo por un cuerpo radiactivo.
- Llegada de clientes a un establecimiento comercial a lo largo de un periodo de tiempo.
- Ocurrencia de averías en una máquina que es reparada instantáneamente.
- Aparición de defectos de aislamiento en un cable eléctrico a lo largo de su longitud.
- Aparición de agujeros en láminas metálicas de poco espesor a lo largo de su
superficie.
- Aparición de partículas en suspensión en una solución acuosa a lo largo de su
volumen, etc.

Cuando la magnitud respecto a la que ocurren los sucesos aleatorios es el tiempo


o la distancia, los resultados o trayectorias de un Proceso de Poisson admiten una
representación gráfica análoga a la dada para el Proceso de Bernoulli y que mostramos
en el gráfico siguiente. Esta representación se oscurece para otro tipo de magnitudes
como la superficie o el volumen.

60
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Nº de sucesos

4
3
2
1

0 x1 x2 x3 x4 ... Tiempo

El Proceso de Poisson lleva asociadas diversas distribuciones de probabilidades


correspondientes a diversas variables de interés con motivaciones análogas a las
introducidas en el Proceso de Bernoulli: Número de sucesos ocurridos en un intervalo
de tiempo, Tiempo de espera del primer suceso, Tiempo de espera del r-ésimo suceso.

Distribución de Poisson.

Definición.

En analogía con lo que ocurría en un Proceso de Bernoulli, muchas veces


nuestro interés en un Proceso de Poisson radica en conocer cuántos sucesos se producen
en un intervalo de longitud t: Número de llamadas a una centralita telefónica e lo largo
de 15 minutos, número de accidentes de tráfico ocurridos en determinado punto
kilométrico durante un fin de semana, número de clientes que llegan a un
establecimiento comercial en una mañana, número de defectos de aislamiento en 10
metros de cable, número de agujeros en una lámina fina de 4 metros cuadrados, ...
Sin pérdida de generalidad, podemos suponer que se trata del intervalo (0, t), ya
que las condiciones en que se desarrolla el proceso hacen que el número de sucesos que
ocurren en un intervalo tenga un comportamiento probabilístico que sólo depende de su
longitud, no de dónde esté colocado.
El comportamiento probabilístico de todas estas variables es el de la variable

X = Número de sucesos ocurridos en el intervalo (0, t),

cuya distribución de probabilidades se puede obtener como límite de la distribución


binomial haciendo uso de la analogía entre el Proceso de Bernoulli y el Proceso de
Poisson.
Consideremos el intervalo (0 ,t) dividido en n intervalos de longitud
infinitesimal t. Entonces, recorrer el intervalo (0, t) para contar el número de sucesos
es equivalente a recorrer uno a uno los intervalos infinitesimales (kt, (k+1) t,

61
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

analizando si en cada uno se ha producido o no un suceso y luego sumar todos los


sucesos.

0 t 2t (n-1)t nt

De este modo, estamos aproximando el Proceso de Poisson por Procesos de


Bernoulli, donde cada ensayo consiste en analizar el intervalo infinitesimal
correspondiente y ver si ha ocurrido un suceso (E) o no ha ocurrido (F). Las condiciones
del Proceso de Poisson nos garantizan la independencia entre los ensayos, además de la
invariabilidad de la probabilidad de Éxito, que al ser la tasa media por unidad de tiempo
, nos determina que dicha probabilidad sea p = t. Así pues, la distribución de
probabilidades del número de sucesos ocurridos en el intervalo (0, t) es aproximable por
la del número de éxitos en n = t/t. ensayos de Bernoulli con probabilidad de Éxito p =
t y sólo restará hacer tender n a  o, lo que es lo mismo, hacer tender t a 0.

n k
 n  t    t 
k
n! n!
P( X  k )    p k (1  p) n  k  ( t ) k (1  t ) n  k    1   
 k k !(n  k )! k !(n  k )!  n   n

k
( t ) k n(n  1)...(n  k  1)  t   t  e  t ( t ) k
n

 1   1   n

k! nk  n  n 
k!

para k = 0, 1, 2, ....

ya que
n(n  1)...(n  k  1)
n
 1

nk
 t 
n

 1   n  e  t
 n 

k
 t 
1   n
 1
 n 

Definición: Se dice que una variable aleatoria X sigue la distribución de Poisson de


parámetro  > 0), y se representa
X (  )

si su distribución de probabilidades es:

e   k
P( X  k )  , k  0,1, 2, 3,...
k!

De este modo, acabamos de obtener que la variable aleatoria

62
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

X = Nº de sucesos ocurridos en un intervalo de tiempo de longitud t,

es una variable aleatoria con distribución de Poisson cuyo parámetro es la tasa del
proceso por la longitud del intervalo:
X ( t ) .

En un intervalo de tiempo de longitud unitaria, se tiene que la distribución del


número de sucesos ocurridos es de Poisson con parámetro igual a la tasa del proceso.

El gráfico siguiente muestra distintas distribuciones de Poisson para diferentes


valores del parámetro .

Distribución de Poisson Distribución de Poisson Distribución de Poisson


(0.1) (0.5) (1)

1 0.8 0.4

0.8
0.6 0.3

0.6
pr. pr. 0.4 pr. 0.2

0.4

0.2 0.1
0.2

0 0 0

0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10

Distribución de Poisson Distribución de Poisson Distribución de Poisson


(5) (10) (25)

0.18 0.15 0.08

0.15 0.12
0.06
0.12
0.09
pr. 0.09 pr. pr. 0.04

0.06
0.06
0.02
0.03
0.03

0 0 0

0 5 10 15 20 25 0 5 10 15 20 25 0 10 20 30 40 50

Para valores del parámetro pequeños (entre 0 y 20) utilizaremos el cálculo


directo. Para valores grandes de , podremos utilizar una aproximación por medio de la
distribución normal que estudiaremos más adelante.

Ejemplo: Las llamadas que llegan a cierta centralita telefónica en determinado periodo
de tiempo siguen un Proceso de Poisson de tasa 180 llamadas a la hora. La capacidad
de la central telefónica permite atender un máximo de 5 llamadas por minuto.
Calcular:
a) La probabilidad de que en un minuto determinado se reciban más llamadas de las
que se pueden atender.
b) La probabilidad de que en un intervalo de 5 minutos se produzcan más de 10
llamadas.
c) La probabilidad de que en dos minutos se produzcan exactamente 4 llamadas.

63
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

d) El número medio de minutos por hora en que la centralita podrá atender todas las
llamadas recibidas.
e) La probabilidad de que no se produzca saturación en ningún minuto a lo largo de
una hora.
Solución: Como sabemos, en un proceso de Poisson el número de sucesos que se
producen en un intervalo de tiempo sigue la ley de Poisson con parámetro igual a la
tasa del proceso ( = 180 llamadas/hora = 3 llamadas/minuto) por la longitud del
intervalo. Así, podemos responder a los distintos apartados:
a) Sea X = Número de llamadas que se producen en un minuto determinado. Sabemos
que X(t) = (31)=(3). Por tanto

5 e 3 3k
P ( X  5)  1  P ( X  5 )  1    1  0. 916  0. 084 .
k 0 k !

b) Sea X = Número de llamadas en un intervalo de 5 minutos. En este caso tenemos


X(t) = (35)=(15). Por tanto

10 e 1515k
P( X  10 )  1  P( X  10 )  1    1  0.118  0. 882 .
k 0 k!

c) Sea X = Número de llamadas en un intervalo de 2 minutos. En este caso tenemos


X(t) = (32)=(6). Por tanto

e 6 6 4
P ( X  4)   0.134 .
4!

d) Recorrer uno a uno los minutos de una hora observando si se produce saturación o
no ( E = No saturación, F = Saturación) es un Proceso de Bernoulli de parámetro p =
0.916, obtenido en el apartado a). Entonces, la variable aleatoria

X = Número de minutos de una hora en los que no se satura la centralita,

sigue la distribución binomial,


X  b(n,p) = b(60,0.916),

y por lo tanto su valor esperado es:

EX = np = 600.916 = 54.96.

e) Con la notación del apartado anterior, se nos pide calcular P(X = 60):

 60
P( X  60)    0.916 60 0.084 0  0.005 .
 60

64
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Características numéricas de la distribución de Poisson:

Media:  = EX = .
Varianza: 2 = Var(X) = .
Desviación Típica:  = DT(X) = .

Aproximación binomial-Poisson.

Como ya habíamos anunciado en el tema del Proceso de Bernoulli, la


distribución de Poisson proporciona una buena aproximación de la distribución
binomial en determinadas condiciones. La justificación de dicha aproximación se puede
obtener como consecuencia del razonamiento que nos permitió obtener la distribución
de Poisson como límite de distribuciones binomiales. Las condiciones ideales de
utilización de la aproximación binomial-Poisson son, de alguna manera,
complementarias a las que permiten utilizar la aproximación binomial-normal, con lo
cual completamos el cuadro de aproximaciones de la distribución binomial.

Si X es una v. a. con distribución binomial, Xb(n,p) con n grande, p pequeño


(p < 0.1) y np “moderado” 1 < np < 10, entonces se tiene:

X  b( n, p)  (  ) con   np.

Esta aproximación se conoce también como la “Ley de los sucesos raros” ya que
se aplica cuando la probabilidad de éxito es pequeña, es decir el éxito se produce en
raras ocasiones.
Ni que decir tiene, que la aproximación es igualmente aplicable para valores
grandes de p (p > 0.9). Se trata simplemente de intercambiar el papel del Éxito y el
Fracaso.
Para justificar esta aproximación, razonamos de la siguiente manera: Si X es una
variable aleatoria que sigue la distribución binomial, Xb(n,p), entonces, llamando  =
np, es decir, p = /n, se tiene

nk
 n   
k
n!
P ( X  k )    p k (1  p ) n  k    1  
k  k!(n  k )!  n   n

k
k n(n  1)...(n  k  1)     e  k
n

 1   1   n


,
k! nk  n  n k!

para k = 0, 1, 2, .... ya que,

n(n  1)...(n  k  1)
n
 1

nk
 
n

 e  
 1   n
 n 

k
 
1   n
 1
 n 

65
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Los gráficos que se muestran a continuación ilustran la aproximación binomial-


Poisson. La distribución binomial está representada con círculos y la distribución de
Poisson con estrellas. En ellos se puede observar que los problemas para aplicar la
aproximación se presentan para valores grandes de p, precisamente donde mejor
funciona la aproximación binomial-normal. Recuérdese el carácter complementario, ya
mencionado, de ambas aproximaciones.

Aproximación binomial-Poisson Aproximación binomial-Poisson


b(100,0.01)-P(1) b(1000,0.001)-P(1)

0.4 0.4

0.3 0.3

pr. 0.2 pr. 0.2

0.1 0.1

0 0

0 1 2 3 4 5 6 0 1 2 3 4 5 6

Aproximación Binomial-Poisson Aproximación binomial-Poisson


b(100,0.05)-P(5) b(1000,0.005)-P(5)
0.18 0.18

0.15 0.15

0.12 0.12

pr. 0.09 pr. 0.09

0.06 0.06

0.03 0.03

0 0

0 3 6 9 12 15 18 0 4 8 12 16 20

66
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Aproximacion binomial-Poisson Aproximación binomial-Poisson


b(100,0.1)-P(10) b(1000,0.01)-P(10)

0.15 0.15

0.12 0.12

0.09 0.09
pr. pr.

0.06 0.06

0.03 0.03

0 0

0 5 10 15 20 25 0 5 10 15 20 25

Ejemplo: Un auditor sospecha que en un conjunto muy grande de facturas,


aproximadamente el 5% son fraudulentas.
a) Se extrae al azar una muestra de 50 facturas. Obtener la probabilidad de que haya
más de 5 fraudulentas.
b) De qué tamaño tiene que ser una muestra de facturas para que la probabilidad de
contener al menos 4 facturas fraudulentas sea superior a 0.95.

Solución: Supongamos que se trata de un muestreo con reemplazamiento. Así pues, la


inspección factura a factura es un Proceso de Bernoulli con probabilidad de Éxito p =
0.05.

a) Denotemos por X la variable aleatoria

X = Número de facturas fraudulentas en una muestra de 50 facturas.

Sabemos que X sigue la distribución binomial Xb(n,p) con n = 50 (grande), p


= 0.05 y np = 2.5 “moderado”. Entonces, es válida la aproximación de Poisson a la
distribución binomial, con lo que obtenemos:

 50  5 5
e 2.5 2.5 k
P( X  5)  1  P( X  5)  1    0.05 0.95
  k 50 k
 1   1  0.958  0.042.
k 0  k  k 0 k!

b) Denotemos por X la variable aleatoria

X = Número de facturas fraudulentas en una muestra de n facturas.

Lógicamente, por las condiciones del problema, n deberá de ser un valor alto, lo
cual hace pensar en utilizar de nuevo la aproximación binomial-Poisson. Ahora
tenemos que utilizar las tablas a la inversa para obtener el valor de  que hace que una
variable aleatoria cuya distribución sea de Poisson con dicho parámetro satisfaga
P(X4)0.95. A partir de ahí, obtenemos la solución del problema utilizando que  =

67
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

np, es decir, n = /p. Lógicamente, buscaremos el menor valor de  que satisface la


condición pedida, lo cual nos proporciona el tamaño de muestra menor que hace que
P(X4)0.95. Por supuesto, para valores mayores de n, la probabilidad anterior es aún
mayor que la del caso límite (0.95) que nosotros buscamos.
Utilizando las Tablas de la distribución de Poisson, encontramos que para  =
9.5, una variable con distribución de Poisson X(8), satisface P(X4)=0.958. Por lo
tanto, la solución del problema es

 8
n   160 o mayor.
p 0.05

Reproductividad de la distribución de Poisson.

De una manera intuitiva, parece lógico pensar que si determinado periodo de


tiempo lo dividimos en partes disjuntas, el resultado de contar los sucesos ocurridos en
el periodo inicial tendrá el mismo comportamiento probabilístico que la suma de los
recuentos parciales en cada uno de los trozos de la partición. Ahora bien, como contar
sucesos de un proceso de Poisson en cualquier periodo de tiempo sigue la distribución
de Poisson, tenemos el siguiente resultado conocido como “reproductividad de la ley de
Poisson respecto del parámetro ”.

Si X1, ..., Xn son variables aleatorias independientes con distribución de Poisson


de parámetro i, es decir, Xi(i), i = 1, ..., n, se tiene

n
 Xi (  ) con   1 ,...   n .
i 1

Aproximación Poisson-normal.

Para valores de  suficientemente grandes, la distribución de Poisson se puede


aproximar por medio de la distribución normal. Esta aproximación es fruto del resultado
del apartado anterior junto con el Teorema Central del Límite y consiste en lo siguiente:
Si X es una v.a. con distribución de Poisson, X() y >5 (criterio
orientativo) se tiene

X   aprox.
 N ( 0,1) .

En efecto, la variable aleatoria X puede ser considerada como el número de
sucesos de un Proceso de Poisson de tasa  que ocurren en un intervalo unitario.
Entonces, la variable X se puede descomponer como suma de n variables que cuentan
los sucesos que ocurren en cada intervalo ((i-1)/n, i/n), i=1, 2, ...n, obteniendo

n
X   X i , con X 1 , ..., X n v. a. i. i. d .   n  ,
i 1
y como se tiene

68
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

EXi   n ,  ( Xi )   n ,
para n el TCL nos dice que
X  X  n n aprox .
   N ( 0,1) .
 n n

De este modo, para obtener probabilidades acerca de la distribución de Poisson,


utilizamos el razonamiento siguiente:

 a -  X -  b -  b -  a - 
P(a < X < b)  P         .
          

Análogamente a lo explicado en relación a la aproximación binomial-normal, es


conveniente también ahora utilizar la corrección por continuidad en los mismos
términos que los descritos entonces.

Ejemplo: En la fabricación de determinado cable para redes eléctricas de media


tensión se producen defectos de aislamiento según un proceso de Poisson de tasa  =
0.5 defectos/Kilómetro.
a) Obtener la probabilidad de que un rollo de cable de 5.83 Kilómetros de longitud no
contenga defectos.
b) Obtener la probabilidad de que una instalación de 200 Km de longitud contenga más
de 75 defectos de aislamiento.

Solución:
a) La variable aleatoria
X = Nº de defectos en 5.83 Km de cable

sigue la distribución de Poisson

X(tasa x longitud)=(0.5 x 5.83)=(2.915),

por ello, la probabilidad pedida es

e 2.915 2. 9150
P( X  0 )   e 2.915  0. 00542.
0!
b) La variable aleatoria
X = Nº de defectos en 200 Km de cable

sigue la distribución de Poisson

X(tasa x longitud)=(0.5 x 200)=(100),

lo que permite hacer uso de la aproximación normal. Por ello, la probabilidad pedida
es

 X  100 75  100   75  0.5  100 


P( X  75)  P    1     (2.45)  0.99286 .
 100 100  10 

69
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Los gráficos que se muestran a continuación dan cuenta de la calidad de la


aproximación Poisson-normal en función de . La calidad de la aproximación mejora al
aumentar el parámetro .
En los gráficos, la distribución de Poisson está representada a través de los
histogramas. Estos histogramas están construidos extendiendo uniformemente en el
intervalo (k-0.5, k+0.5) la probabilidad P(X = k) para cada k = 0, 1, ...

Aproximación Poisson-Normal Aproximación Poisson-Normal


P(1)-N(1,1)
Aproximación Poisson- Normal
P(5)-N(5,2.236) P(9)-N(9,3)

0.4 0.2 0.15

0.16 0.12
0.3

0.12 0.09
pr. 0.2 pr. pr.

0.08 0.06

0.1
0.04 0.03

0 0 0

-1 0 1 2 3 4 5 6 7 8 9 -1 1 3 5 7 9 1 13 15 17 -1 1 3 5 7 9 11 13 15 17 19 21 23

Distribución exponencial.

Definición.

En ocasiones, nuestro interés en un Proceso de Poisson radica en conocer el


comportamiento probabilístico del tiempo transcurrido hasta que se produce el primer
suceso: Tiempo de espera hasta que se produce la primera llamada en una centralita
telefónica, tiempo de espera hasta que llega un cliente a un banco, tiempo que tarda en
producirse una avería en una máquina, longitud de carretera recorrida hasta que aparece
un bache, superficie de un bosque recorrida hasta que se encuentra la primera planta de
determinada especie, etc. En general, se trata de estudiar la variable aleatoria

X = Tiempo de espera hasta que aparece el primer suceso.

Esta variable aleatoria puede tomar valores positivos, x > 0, y su distribución de


probabilidades, denominada distribución exponencial, se define a continuación:

Definición: Se dice que una variable aleatoria X sigue la distribución exponencial de


parámetro , con  > 0, y se representa

X  exp(  )

si su distribución de probabilidades está dada por la densidad:

f ( x )  e  x para x  0. .

El gráfico siguiente muestra distintas distribuciones de probabilidades (su f. de


densidad) exponenciales para diversos valores de .

70
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Densidades exponenciales
exp()

1.6

1.2
f(x)

0.8

0.4

0 1 2 3 4 5 6 7 8 9 10

Es interesante notar que, dadas las características del Proceso de Poisson, la


independencia entre los sucesos ocurridos en intervalos disjuntos hace que la ley
exponencial aparezca no sólo como tiempo de espera desde el origen hasta el primer
suceso, sino también desde cualquier momento t0 hasta que aparece un suceso o,
también, el tiempo transcurrido entre dos sucesos consecutivos. Es decir, si definimos
las variables aleatorias:

Y = Tiempo de espera desde el instante t0 hasta el próximo suceso

Z= Tiempo de espera entre el suceso nº i y el nº i+1,

se tiene que
Y  exp(  ) y Z  exp(  ) .

En esa línea, se tiene también la siguiente propiedad exclusiva para la ley


exponencial entre las distribuciones continuas:

Falta de memoria de la distribución exponencial.

Proposición: La ley geométrica es la única ley continua con valores positivos que tiene
la propiedad de “falta de memoria”.

La comprobación de que la ley exponencial tiene la propiedad de “pérdida de


memoria” es inmediata: Si Xexp(), entonces se tiene:


 x
 e dx
P X  t  s t  s

P X t sX t  
P X  t 
 
 x

e   ( t  s)
e  t
 e  s  P X  s.
 e dx
t

La comprobación del recíproco, es decir, de que si una variable aleatoria


continua y positiva tiene la propiedad de “falta de memoria” entonces sigue la ley

71
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

exponencial, exp(), para algún valor de  positivo, excede los propósitos de este curso
básico.
La interpretación de esta propiedad en el Proceso de Poisson es clara: La
probabilidad de que transcurran s unidades de tiempo sin aparecer un suceso no se ve
modificada por la información de que en las t unidades de tiempo precedentes tampoco
había aparecido ningún suceso.
Es interesante comparar las características de la distribución exponencial con las
de su análoga discreta que es la distribución geométrica.

Características numéricas de la Distribución exponencial:

Media:  = EX = 1/.
Varianza: 2 = Var(X) = 1/2 .
Desviación Típica:  = DT(X) =.1/
Nótese que la media es inversamente proporcional a la tasa de sucesos del proceso.

Ejemplo: La duración de un cinescopio de televisión en horas es una v.a. X con función


de densidad fX(t)=ce-ct para t0, siendo c un parámetro que depende del fabricante.
Obtener:
a) Calcular la probabilidad de que un cinescopio dure al menos 200 horas.
b) Sabiendo que un cinescopio ha durado 300 horas, calcular la probabilidad de que
dure al menos 200 horas más. Comentar a) y b).
c) Hallar la vida media de un cinescopio y su desviación típica.
d) El parámetro de cierto fabricante es c=1/10000. Obtener la duración del periodo de
garantía (sustitución del cinescopio) que puede ofrecer a sus clientes si el margen de
ganancias con que trabaja no le permite sustituir más del 10% de los aparatos
vendidos.

Solución: Sea X v.a. la duración de un cinescopio.



a) P X  200   f (t )dt  e
 200 c

200

PX  500 e 500 c



b) P X  500   
X  300 PX  300 e 300 c
 e  200 c  P X  200

Nótese que la coincidencia de resultados en a) y b) es un hecho esperado


después de conocer la propiedad de falta de memoria de la ley exponencial.

c) EX=1/c, Var(X)=1/c2, (X)=1/c.

d) Buscamos el tiempo t0 tal que P X  t o   0.1 :

P X  t 0   1  e 10000  0.1, t 0  10000 ln 0.9  1053.6 horas.


 t0

Distribución Gamma (o Distribución de Erlang-r).

Definición.

72
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Una generalización natural de la ley exponencial que acabamos de definir en el


Proceso de Poisson, surge de estudiar el tiempo que transcurre hasta que aparece el
suceso número r: Tiempo de espera hasta que se producen r llamadas en una centralita
telefónica, tiempo de espera hasta que llegan r clientes a un banco, tiempo que tarda en
producirse la r-ésima avería de una máquina, longitud de carretera recorrida hasta que
aparecen r baches, superficie de un bosque recorrida hasta que se encuentra la r-ésima
planta de determinada especie, etc. En general, se trata de estudiar la variable aleatoria

X = Tiempo de espera transcurrido hasta que aparece el r-ésimo suceso.

Esta variable aleatoria puede tomar los valores positivos, x > 0, según una
función de densidad, denominada gamma de parámetros (r,) y denotada (r,), que se
deduce de las características del Proceso de Poisson y cuya obtención omitimos.

Definición: Se dice que una variable aleatoria X sigue la distribución gamma de


parámetros r, , con r un número natural positivo, y  > 0, y se representa por

X   ( r,  )

si su distribución de probabilidades está dada por la densidad:

r
f ( x)  x r 1e x , para x  0. .
(r  1) !

Esta distribución de probabilidades aparece como modelo de numerosas


variables aleatorias de interés en diversos campos. En particular, para valores de r
naturales, la ley gamma es el modelo probabilístico del tiempo de espera del r-ésimo
suceso en un Proceso de Poisson. En el caso r = 1, tenemos la ley exponencial estudiada
anteriormente.
El gráfico siguiente muestra distintas distribuciones de probabilidades de gamma
para diversos valores de r y .

Densidades gamma con  común Densidades gamma con r común


(r,), =1 (r,), r=3

0.4 1

0.8
0.3

0.6
f(x) 0.2 f(x)

0.4

0.1
0.2

0 0

0 3 6 9 12 15 0 3 6 9 12 15

73
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

Análogamente a lo que ocurría con la distribución exponencial, dadas las


características del proceso de Poisson, la ley gamma aparece no sólo como modelo para
el tiempo de espera desde el inicio del proceso hasta el r-ésimo suceso, sino también
desde cualquier instante t0 hasta que aparece el r-ésimo suceso posterior o, también, el
tiempo que transcurre entre el suceso número i y el suceso número i+r. Es decir, si
definimos las variables aleatorias:

Y = Tiempo de espera desde el instante t0 hasta que aparece el r-ésimo suceso posterior

Z= Tiempo de espera entre el suceso nº i y el suceso nº i+r,

se tiene que
Y   (r,  ) y Z   (r,  ) .

Características numéricas de la Distribución gamma.

Media:  = EX = r/.
Varianza: 2 = Var(X) = r/2 .
Desviación Típica:  = DT(X) = r / 2 .
Nótese que la media y la varianza son el resultado de multiplicar por r, número
de sucesos buscados, la media y la varianza de la distribución exponencial. Es decir, el
número medio de ensayos hasta que ocurren r sucesos es proporcional al número de
sucesos. Análogamente ocurre con la varianza. Este hecho tendrá una explicación en un
apartado posterior.

Relación de las probabilidades gamma con las probabilidades de Poisson.

Las probabilidades de la distribución gamma se pueden obtener como


probabilidades de una distribución de Poisson utilizando el siguiente razonamiento:
Supongamos que tenemos una v.a. X con distribución gamma,

X(r,),

es decir, X se puede representar como el tiempo que transcurre hasta que se produce el
suceso nº r en un Proceso de Poisson de tasa .

X = Tiempo de espera hasta el r-ésimo suceso.

Supongamos que deseamos obtener la probabilidad


r
P ( X  x)   t r 1e t dt. .
x
(r  1) !

Una forma alternativa a resolver dicha integral es definir la variable aleatoria

Y = Número de sucesos en el intervalo (0,x),

74
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

que sigue la distribución de Poisson


Y (x)

y que satisface
P(X > x)=P(Y  r-1),

lo que significa que es equivalente decir, que el suceso número r tarda más x unidades
de tiempo en ocurrir, que decir que en el intervalo de tiempo (0,x) ocurren como mucho
r-1 sucesos. De este modo:

r 1 e  x ( x ) k
P( X  x )  P(Y  r  1)  
k 0 k!

que presenta la ventaja de permitir la utilización de las Tablas de distribución de


Poisson así como la aproximación de ésta por la ley normal. No obstante, si r es grande,
como consecuencia del Teorema Central de Límite, también la distribución gamma es
directamente aproximable por la ley normal (ver siguiente apartado).
Es interesante contemplar esta relación gamma-Poisson como un hecho de la
misma naturaleza que la relación Pascal-binomial estudiada en el proceso de Bernoulli.

Reproductividad de la distribución gamma.

Es inmediato notar que cuando r = 1, la distribución gamma es la distribución


exponencial estudiada anteriormente:

 (1,  )  exp(  ) .

Además, para cualquier valor de r, se puede comprobar fácilmente que una


variable con distribución de gamma (r,) se puede representar como suma de r
variables con distribución exponencial, exp(), ya que contar el tiempo que transcurre
hasta que aparece el suceso número r es equivalente a sumar los tiempos transcurridos
entre cada dos sucesos consecutivos hasta alcanzar r sucesos. Formalmente, podemos
escribir:

Si X1, ..., Xr son variables aleatorias independientes e igualmente distribuidas


con distribución común exponencial de parámetro común , es decir, Xiexp(), i = 1,
..., r, se tiene:
r
 Xi   (r,  ) .
i 1

En otras palabras, cada Xi representa el tiempo de espera transcurrido desde el


suceso número i-1 hasta el suceso número i. Evidentemente, sumar los valores de las
variables Xi equivale a medir el tiempo total que transcurre hasta el suceso número r.

Ejemplo: Las averías de un dispositivo de seguridad se producen según un Proceso de


Poisson de tasa 0.2 averías / día, sustituyéndose inmediatamente por otro idéntico.

75
Tema 9. El Proceso de Poisson y sus distribuciones asociadas.

a) Obtener la probabilidad de que la 5ª avería tarde más de un mes en producirse.


b) Si al comenzar un año se dispone de un total de 100 dispositivos, obtener la
probabilidad de que sean suficientes para que el dispositivo de seguridad esté activo
todo el año.

Solución:
a) Definimos la siguientes variables aleatorias:

X = Tiempo de espera de la 5ª avería. X(r,)=(5,0.2)


Y = Nº de averías en un mes. Y(t)=(0.230)=(6)

P(X>30)=P(Y4)=0.285.
b) Definimos las siguientes variables aleatorias:
X = Tiempo de espera de la 100ª avería. X(r,)=(100,0.2)
Y = Nº de averías en un año. Y(t)=(0.2365)=(73)
Por tanto,
P(X>365)=P(Y99)=P(Y<99.5)=
Y -  99.5 - 73  99.5 - 73 
 P     (3.10)  0.9990
  73   73 

76

También podría gustarte