Está en la página 1de 23

Introduccin a los Procesos de Poisson*

Victor M. Prez Abreu C.


Departamento de Probabilidad y Estadstica, CIMAT
David Reynoso Valle
Licenciatura en Matemticas,
DEMAT, Universidad de Guanajuato
22 de julio del 2010

ndice
1. Introduccin 2

2. Propiedades de la distribucin de Poisson 2


2.1. Aproximacin de Poisson . . . . . . . . . . . . . . . . . . . . . . 2
2.2. Distribucin de Poisson . . . . . . . . . . . . . . . . . . . . . . . 2

3. Proceso de Conteo 6

4. Proceso de Poisson Homogneo 6

5. Algunas variables aleatorias de inters 7


5.1. Tiempos de llegada . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5.2. Tiempos entre llegadas . . . . . . . . . . . . . . . . . . . . . . . . 9
5.3. Tiempo de prxima ocurrencia . . . . . . . . . . . . . . . . . . . 13
5.4. Tiempo desde ltima falla . . . . . . . . . . . . . . . . . . . . . . 15

6. Simulacin de un Proceso de Poisson 16

7. Denicin equivalente 16

8. Combinacin de Procesos de Poisson 20

9. Proceso de Poisson compuesto 20

10.Proceso de Poisson no homogneo 22

* Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano de

Probabilidad y Estadstica, en julio de 2009 y 2010.

1
1. Introduccin
En estas notas se compila parte del material que se cubri en el curso de
Probabilidad I de las Licenciaturas en Matemticas y en Computacin de la
Universidad de Guanajuato, en el semestre agosto-diciembre del 2008.
Estas notas son un complemento al material de la primera parte del Curso
de Procesos de Poisson del III Verano de Probabilidad y Estadstica. Contienen
material bsico sobre Procesos de Poisson, el cual aparece en la mayora de
los textos que tratan este tema. El nfasis en estas notas es en el rigor de las
deniciones y las demostraciones detalladas de las principales propiedades de
estos procesos, usando conceptos y resultados sencillos de probabilidad.
Los autores agradecen de antemano los comentarios que los participantes
puedan tener. Nuestro objetivo es terminar pronto una Notas de Introduccin
al Tema de Procesos de Poisson, dirigidas a alumnos que han tomado un primer
curso de probabilidad en licenciatura.

2. Propiedades de la distribucin de Poisson


2.1. Aproximacin de Poisson
La distribucin de Poisson es un caso lmite de la distribucin binomial
B (n; pn ) cuando la probabilidad de xito es variable.
Si una variable aleatoria X modela el nmero de xitos obtenidos luego de
n ensayos Bernoulli con probabilidad de xito p > 0, entonces la probabilidad
de tener k xitos en n ensayos est dada por
n k n k
P (X = k) = p (1 p) .
k
Se dice entonces que X tiene distribucin binomial de parmetros n y p (X
B (n; p)).
Si = E(X) = np se mantiene constante cuando n y p varan, tenemos que

ke
k ( ) = l m P (X = k) = (1)
n!1 k!
para toda r 0. (notemos que cuando n crece, p decrece).
x n
Ejercicio 1 Probar (1). Sugerencia: Recordar que l mn!1 1 + n = ex .

2.2. Distribucin de Poisson


Denicin 1 Una variable aleatoria X tiene distribucin de Poisson P ( ) si
toma valores enteros positivos y

ke
P (X = k) = k ( )= k 0
k!

2
donde puede tomar cualquier valor > 0.

Ejercicio 2 Probar que si X P( )

1. E (X) = .

2. V ar (X) = .
t
3. La funcin generadora de momentos de X P( ) (t) = e (e 1)
.

En ocasiones es til extender la denicin de P ( ) para incluir los casos


extremos 0 e 1. P (0) sera la distribucin concentrada en el 0

P (X = 0) = 1,

y P (1) la distribucin concentrada en +1

P (X = +1) = 1.

Una de las propiedades ms importantes de la distribucin de Poisson es su


aditividad.

Teorema 1 Si X y Y son variables aleatorias independientes con distribu-


ciones P ( 1 ) y P ( 2 ), entonces X + Y P ( 1 + 2 ).

Demostracin. Ejercicio.
Por induccin, podemos ver fcilmente que este resultado es cierto para
cualquier suma nita de variables aleatorias independientes. Adems se tiene la
siguiente propiedad importante.

Ejercicio 3 Probar que la distribucin de Poisson es innitamente divisible,


esto es, dada una variable aleatoria X con distribucin Poisson P ( ), para
toda n > 0 podemos encontrar n variables aleatorias independientes
Pn X1 ; : : : ; Xn
con distribucin Poisson P ( 1 ) ; : : : ; P ( n ) tales que i=1 Xi P ( ).
1
Teorema 2 (Teorema de Aditividad Numerable) Sea fXj gj=1 una suce-
sin de variables aleatorias independientes, donde Xj P ( j ) j = 1; 2; : : :.
Si
X1
= j
j=1

converge, entonces
1
X
S= Xj
j=1

converge con probabilidad


P1 1 y S P ( ).
Por otro lado, si j=1 j diverge, entonces S diverge con probabilidad 1.

3
Demostracin. Por el Teorema 1, tenemos que
n
X
Sn = Xj
j=1

tiene distribucin P ( n) donde


n
X
n = j.
j=1

Es fcil ver que 8n 1 fSn rg fSn+1 rg, de donde


1
\
fS rg = fSn rg
n=1

y por tanto1

P (S r) = l m P (Sn r)
n!1
r
X
= lm P (Sn = r)
n!1
k=0
Xr
= lm k ( n)
n!1
k=0
r
X
= lm k ( n) .
n!1
k=0

Si n ! < 1, por ser r ( ) continua tenemos que


r
X
P (S r) = k ( )
k=0

y
P (S = r) = r ( ).
Por lo tanto S es nita con distribucin P ( ).
Si n ! 1,
r
X
P (S r) = k ( )
k=0
r
X k
n
= e n
! 0.
k!
k=0

Entonces
P (S > r) = 1.
1 Si An 2 F , n 1 y An # A, entonces P (A) = l mn!1 P (An )

4
Como este resultado es cierto 8r 0, podemos concluir que S diverge con
probabilidad 1.

Luego de este resultado parece ms natural haber denido P (0) y P (1).


Con esta convencin, si tenemos variables aleatorias independientesPXj con dis-
tribuciones P ( j ) respectivamente, su suma tiene distribucin P ( j ), y esto
es cierto sin importar que haya un nmero innito de ellas, incluso si algunos
j son 0 o 1.

Supongamos que X1 ; : : : ; Xn son variables aleatorias independientesPcon


Xj P ( j ). Entonces S = X1 + +X Pn tiene distribucin P ( ) con = j,
y entonces, si r1 ; : : : ; rn son tales que rj = s tenemos que
n rj
Y j e
j s
e
P (X1 = r1 ; : : : ; Xn = rn j S = s) =
j=1
rj ! s!
r1 rn
s! 1 n
= .
r1 ! rn !
Estas son las probabilidades de una distribucin multinomial M (s; p1 ; : : : ; pn ),
con pi = i .
Para el caso en el que n = 2, tenemos que si X y Y son variables aleatorias
Poisson independientes (X P ( 1) y Y P ( 2 )), dado que X + Y = m, la
distribucin condicional de X es B (m; p), donde
E (X)
p= .
E (X) + E (Y )
Hay un resultado muy til, que parecera ser el converso del anterior. Supong-
amos que N P ( ) ; y que la distribucin condicional de M dado N es B (N; p)
para alguna constante p. Esto es
s t s t
P (M = t j N = s) = p (1 p) .
t
Entonces, para m; k 0,
P (M = m; N M = k) = P (N = m + k) P (M = m j N = m + k)
m+k
e m+k m k
= p (1 p)
(m + k)! m
m+k
e (m + k)! m k
= p (1 p)
(m + k)! k!m!
1 m k
= e p e (1 p) m k p (1 p)
k!m!
k
e p m pm e (1 p) k (1 p)
=
m! k!
p m (1 p) k
e ( p) e ( (1 p))
= .
m! k!

5
As, M y N M son variables aleatorias independientes Poisson con medias p
y (1 p) respectivamente.

3. Proceso de Conteo
Denicin 2 (Proceso de Conteo) Se dice que un proceso estocstico fN (t) ; t 0g
es un proceso de conteo si representa el nmero de eventos ocurridos hasta el
tiempo t, esto es, satisface:

i) N (0) 0.
ii) N (t) toma valores enteros.
iii) Es no decreciente, i.e. si s < t, entonces N (s) N (t).
iv) Para s < t, N (t) N (s) es igual al nmero de eventos que ocurrieron en
el intervalo (s; t].

La trayectoria de un proceso de conteo es la grca (t; N (t)) para t 0:


Las trayectorias se toman de tal forma de que sean continuas por la derecha y
que tengan lmite por la izquierda.

4. Proceso de Poisson Homogneo

Denicin 3 (Proceso de Poisson homogneo) Una coleccin de variables


aleatorias fN (t) ; t 0g (denidas en un espacio de probabilidad ( ; F; P)) se
llama proceso de Poisson (homogneo) con intensidad > 0 si satisface
las siguientes propiedades:

i) P(N (0) = 0) = 1, esto es, N (0) es siempre 0.


ii) 8 0<s<t N (t) N (s) tiene distribucin de Poisson de parmetro
(t s).
iii) 8 0 t1 < < tn ; n 1 (es decir, para todo conjunto nito de tiem-
pos), las variables aleatorias N (tn ) N (tn 1 ); : : : ; N (t2 ) N (t1 ); N (t1 ),
son independientes. Esta propiedad se conoce como propiedad de incre-
mentos independientes.

Observemos que 8t 0, la variable aleatoria N (t) tiene distribucin de


Poisson de parmetro t. Por (ii) tenemos que N (t) N (0) P ( (t 0)), y
por (i) tenemos que N (0) 0, lo que nos dice que N (t) P ( t).
Ahora, 80 < s < t tenemos por (ii) que N (t) N (s) P ( (t s)) y
por lo anterior, N (t s) P ( (t s)): Podemos darnos cuenta entonces que la

6
distribucin del incremento N (t) N (s) y la de la variable aleatoria N (t s)
es la misma. Adems esto nos dice que P(N (t) N (s) 0) = 1, pues
1
X
P(N (t) N (s) 0) = P(N (t) N (s) = k) = 1,
k=0

esto es, la distribucin slo depende de la longitud del intervalo t s. Esta


propiedad se conoce como propiedad de incrementos estacionarios.
Notemos adems que esta propiedad nos garantiza que el proceso es no
decreciente.

5. Algunas variables aleatorias de inters


5.1. Tiempos de llegada
Podemos darnos ahora una idea de cmo se ven las trayectorias de un proceso
de Poisson, y una pregunta que debemos hacernos es qu distribucin tienen los
tiempos de llegada del proceso?, entendiendo por tiempos de llegada los tiempos
en los que ocurre un xito.
Para poder ver la distribucin de los tiempos de llegada, es necesario asocia-
rles una variable aleatoria. Queremos que el tiempo del primer xito sea el t ms
pequeo para el que N (t) = 1, esto es, podemos denir el tiempo del primer
xito como
T1 = nf ft 0; N (t) = 1g .
Ahora, queremos que dado un m 1 el m-simo tiempo de llegada sea el t ms
pequeo para el que N (t) = m, entonces podemos denir el tiempo del m-simo
xito de la misma forma que antes, pues el proceso es no decreciente,
Tm = nf ft 0; N (t) = mg .
La pregunta ahora es son T1 ; T2 ; : : : ; Tm ; : : : variables aleatorias?

Proposicin 1 8t 0 y 8m > 0 tenemos que fTm tg = fN (t) mg.


Demostracin. Recordemos que fN (t) mg = f! 2 : N (t)(!) mg y
fTm tg = f! 2 : Tm (!) tg.
Sean t 0 y m > 0. Por denicin Tm = nf fk 0 : N (k) = mg, esto
es, para un ! 2 dado tenemos que Tm (!) = nf fk 0; N (k)(!) = mg. En
particular N (Tm (!))(!) = m.
Sea ! 0 2 fN (t) mg. Entonces
N (t)(! 0 ) m ) N (t)(! 0 ) N (Tm (! 0 ))(! 0 ).
Luego, como N (t) es no decreciente, tenemos que t Tm (! 0 ), es decir ! 0 2
fTm tg.
) fN (t) mg fTm tg.

7
Sea ! 0 2 fTm tg. Entonces

Tm (! 0 ) t ) N (Tm (! 0 ))(! 0 ) N (t)(! 0 )


) m N (t)(! 0 )

es decir, ! 0 2 fN (t) mg:

) fTm tg fN (t) mg.

) fTm tg = fN (t) mg

Corolario 1 8m > 0 tenemos que Tm es una variable aleatoria.2

Ahora que ya vimos que los tiempos de llegada son variables aleatorias,
veamos qu distribucin tiene el primer tiempo de llegada.

Proposicin 2 T1 tiene distribucin exponencial de parmetro > 0.3

Demostracin. Como fT1 tg = fN (t) 1g,

P(T1 t) = P(N (t) 1)


= 1 P(N (t) = 0)
e t
= 1 ( t)0
0!
= 1 e t,

lo que nos dice que T1 E( ).

Corolario 2 El tiempo esperado de la primera llegada es E(T1 ) = 1 .

1
Proposicin 3 La v.a. Tm tiene distribucin G m; .
1 m 1 t
(m) e si t 0
fTm (t) = .
0 de otra forma
2 Recordardenicin de variable aleatoria.
3 Recordemos que Runa variable aleatoria X tiene distribucin exponencial de parmetro
> 0 si P (X x) = 0x f (t) dt, con f (t) = e t .

8
Demostracin. De la proposicin 1 tenemos

P(Tm t) = P(N (t) m)


= 1 P(N (t) m 1)
m
X1
= 1 P(N (t) = k)
k=0
m
X1 t
e
= 1 ( t)k
k!
k=0

Derivando obtenemos
m
!
d X1 ( t)k
t
fTm (t) = e
dt k!
k=0
m
X1 m
X1 k 1
t ( t)k t ( t)
= e e k
k! k!
k=0 k=1
m
!
X1 ( t) k m
X1 ( t)
k 1
t
= e
k! (k 1)!
k=0 k=1
m
!
X1 ( t)k
m
X2 ( t)k
t
= e
k! k!
k=0 k=0
m 1
t ( t)
= e
(m 1)!
1 m m 1
= t e
(m)
1
que es la funcin de densidad de una v.a. con distribucin G m; .

5.2. Tiempos entre llegadas


4
Denicin 4 (Tiempo entre llegadas)

t = nf fs > t : N (s) N (t) = 1g

Teorema 3 8n 1, las v.a. 1 , 2, : : :, n son independientes y con la misma


distribucin exponencial E( ).

Demostracin. Veamos primero el caso cuando n = 2.


Queremos demostrar que 80 < s1 < s2 < 1 se tiene que

P( 1 s1 ; 2 < s2 ) = P( 1 s1 )P( 2 s2 ).
4 (!) Checar que est bien denido...

9
P( 1 s1 ; 2 s2 ) = P(T1 s1 ; T2 T1 s2 )
= P(T1 s1 ; T2 s2 + T1 )
= P(T1 s1 ; T2 s1 + s2 )
= P(N (s1 ) 1; N (s1 + s2 ) 2)
X1
= P(N (s1 ) = k1 ; N (s1 + s2 ) 2)
k1 =1
X1 1
X
= P(N (s1 ) = k1 ; N (s1 + s2 ) = k2 )
k1 =1 k2 =2
k1 <k2

1
X 1
X
= P(N (s1 ) = k1 ; N (s1 + s2 ) = k2 )
k1 =1 k2 =k1 +1
X1 X1
= P(N (s1 ) = k1 ; N (s1 + s2 ) N (s1 ) = k2 k1 )
k1 =1 k2 =k1 +1

por incrementos independientes


1
X 1
X
P( 1 s1 ; 2 s2 ) = P(N (s1 ) = k1 )P(N (s1 +s2 ) N (s1 ) = k2 k1 )
k1 =1 k2 =k1 +1

usando la propiedad de incrementos estacionarios


1
X 1
X
P( 1 s1 ; 2 s2 ) = P(N (s1 ) = k1 )P(N (s2 ) = k2 k1 )
k1 =1 k2 =k1 +1
X1 X 1
= P(N (s1 ) = k1 )P(N (s2 ) = k2 )
k1 =1 k2 =1
1
! 1
!
X X
= P(N (s1 ) = k1 ) P(N (s2 ) = k2 )
k1 =1 k2 =1
= (1 P(N (s1 ) = 0) (1 P(N (s2 ) = 0)
s1 s2
= 1 e 1 e

Hasta ahora hemos demostrado que 80 < s1 < 1 y 80 < s2 < 1


s1 s2
P( 1 s1 ; 2 s2 ) = 1 e 1 e , (2)

pero ya sabemos que T1 E( ), entonces


s2
P( 1 s1 ; 2 s2 ) = P(T1 s1 ) 1 e
s2
= P( 1 s1 ) 1 e .

10
Del lado izquierdo de (2) tenemos
l m P( 1 s1 ; 2 s2 ) = P( 2 s2 ),
s1 "1

y como
l m P(T1 s1 ) = 1,
s1 "1
tenemos que
s2
P( 2 s2 ) = 1 e 80 < s1 < 1
) 2 E( ).
Entonces
P( 1 s1 ; 2 s2 ) = P ( 1 s1 ) P ( 2 s2 ) ,
esto es, 1 y 2 son independientes y tienen la misma distribucin exponencial
E ( ).
Veamos ahora el caso para n 2.
Supongamos que 1 ; 2 ; : : : ; n son independientes y que i E( ) para
1 i n, esto es, 8 0 < s1 < s2 < < sn < 1 tenemos que
n
Y n
Y
si
P( 1 si ; 1 i n) = ( i si ) = 1 e .
i=1 i=1

Queremos demostrar que 1; 2 ; : : : ; n ; n+1 son independientes y que n+1


E( ). Sean 0 < s1 < s2 < < sn < sn+1 < 1. Entonces
P( i s1 ; 1 i n + 1) = P (Ti Ti 1 si ; 1 i n + 1)
= P (Ti si + Ti 1 ;1 i n + 1)
0 1
i 1
X
= P @Ti si + sj ; 1 i n + 1A
j=1
0 1
i
X
= P @Ti sj ; 1 i n + 1A
j=1
0 0 1 1
Xi
= P @N @ sj A i; 1 i n + 1A
j=1
0 0 1 1
X i
X
= P @N @ sj A ki ; 1 i n + 1A
1 k1 < <kn+1 j=1
0 0 1 1
X Xi
= P @N @ sj A ki ; 1 i n + 1A
1 k1 < <kn+1 j=1
0 0 1 0 1 1
X Xi Xi 1 i 1
X
= P @N @ sj A N@ sj A ki kj ; 1 i n + 1A
1 k1 < <kn+1 j=1 j=1 j=1

11
por incrementos independientes
0 0 1 0 1 1
X n+1
Y Xi Xi 1 i 1
X
P( i s1 ; 1 i n+1) = P @N @ sj A N@ sj A ki kj A
1 k1 < <kn+1 i=1 j=1 j=1 j=1

por incrementos estacionarios


0 1
X n+1
Y i 1
X
P( i s1 ; 1 i n + 1) = P @N (si ) ki kj A
1 k1 < <kn+1 i=1 j=1

haciendo cambio de variable


1
X n+1
Y
P( i s1 ; 1 i n + 1) = P (N (si ) ki )
k1 ;:::;kn+1 =1 i=1
n+1 1
!
Y X
= P (N (si ) k)
i=1 k=1
n+1
Y
= (1 P (N (si ) = 0))
i=1
n+1
Y
si
= 1 e
i=1

Hemos demostrado hasta ahora que


n+1
Y
si
P( i si ; 1 i n + 1) = 1 e
i=1

y como por hiptesis tenemos que


n
Y
si
P( 1 si ; 1 i n) = 1 e
i=1

entonces
n
!
Y
sn+1
P( i si ; 1 i n + 1) = P( i si ) 1 e .
i=1

Tomando lmites de ambos lados


n
Y
sn+1
l m P(
s !1 i si ; 1 i n + 1) = lm
s !1
P( i si ) 1 e
i i
1 i n 1 i n i=1
sn+1
P( n+1 sn+1 ) = 1 e .

12
Por lo tanto, 8 n 1, las variables aleatorias 1 ; : : : ; n son independientes y
tienen la misma distribucin exponencial E ( ).

No es difcil convencerse de que


m
X
Tm = k, (3)
k=0

entonces, como E ( ) = G 1; 1 y la suma de n variables aleatorias independi-


entes con la misma distribucin G (k; ) tiene distribucin G (nk; ), tenemos
que
1
Tm G m; .

Ejercicio 4 Probar (3).

5.3. Tiempo de prxima ocurrencia


Denicin 5 (Tiempo de prxima falla) Dado un tiempo t queremos estu-
diar el tiempo que tardaremos en tener otra falla. Denamos

t := nf fs 0 ; N (s + t) N (t) = 1g
como el tiempo de la primera falla a partir del tiempo t.
Proposicin 4 t tiene distribucin exponencial E( ) independiente de t.
Demostracin. Sea g(s) = 1 P ( t s) = P ( t > s).
Observemos que f t > sg = f t > t + sg 8 s < t.
g(s + h) = P( t > s + h)
= P( t > t + s + h)
= P( t > t + s ; N (t + s + h) N (t + s) = 0) .
El evento f t s + tg depende de lo que pasa hasta el tiempo t + s5 y
por la propiedad de incrementos independientes, es independiente de lo que
ocurre en el intervalo (t + s; t + s + h]. Esto nos dice que f t s + tg, y
fN (t + s + h) N (t + s) = 0g son independientes, y por lo tanto f t > s + tg
yfN (t + s + h) N (t + s) = 0g tambin lo son6 .
Entonces tenemos
g (s + h) = P( t > t + s) P (N (t + s + h) N (t + s) = 0)
= P( t > s) P (N (h) = 0)
h
= g(s)e .
5 Esto es lo que se conoce como tiempo de paro.
6 Recordemos que si dos eventos A y B son independientes, entonces AC y B son indepen-
dientes, A y B C son independientes y AC y B C son independientes.

13
As,
h
g(s + h) g(s) g(s) e 1
=
h h
y tomando lmites nos queda que
h
g(s) e 1
g 0 (s) = lm
h!0 h
h
e 1
= g (s) l m
h!0 h
= g (s) .
Sabemos que las nicas soluciones para g 0 (s) = g (s) son de la forma
s
g (s) = ke k 2 R;
y tambin que
g (0) = P ( t > 0) = 1.
Entonces
s
P( t > s) = e ,
por lo tanto
s
P( t s) = 1 e s > 0.
Esto es, 8t t tiene distribucin exponencial E ( ).

Proposicin 5 Una variable aleatoria X con distribucin exponencial de parmetro


> 0, tiene la propiedad de prdida de memoria. Esto es
P (X > t + s j X > s) = P (T > t) .
Demostracin. Observemos que 8 t 0
t
P (X > t) = e ,
pues tenemos que
t
P (X t) = 1 e .
Sean s; t 0. Entonces
P (T > t + s ; T > s)
P (T > t + s j T > s) =
P (T > s)
P (T > t + s)
=
P (T > s)
(t+s)
e
= s
e
t
= e
= P (T > t) .
Por lo tanto X E ( ) tiene la propiedad de prdida de memoria.

14
Proposicin 6 Un proceso de Poisson de parmetro > 0, tiene la propiedad
de prdida de memoria.

5.4. Tiempo desde ltima falla


Denicin 6 (Tiempo desde ltima falla) Dado un tiempo t queremos es-
tudiar el tiempo que ha pasado desde la ltima falla. Denamos

lt := nf fs 0 : N (t) N (t s) = 0g

como el tiempo desde que ocurri la ltima falla.

Proposicin 7 La distribucin de lt es la siguiente:


t
P (lt = t) = e .
s
P (lt s) = 1 e 80 s < t.

Demostracin. Se deja como ejercicio checar que lt est bien denida y es


variable aleatoria.
En el primer caso tenemos que

P (lt = t) = P (N (t) N (t t) = 0)
= P (N (t) = 0)
= P (T1 t)
t
= e .

En el segundo caso tenemos que si 0 s<t

P (lt s) = P (N (t) N (t s) 1)

P (lt > s) = P (N (t) N (t s) = 0)


= P (N (s) = 0)
= P (T1 s)
s
= e ,

entonces
s
P (lt s) = 1 e

Observemos que la distribucin de la proposicin anterior es tal que tiene


un salto en t y de otra forma tiene densidad. Es un ejemplo de una distribucin
que tiene una parte discreta y otra parte continua.

15
6. Simulacin de un Proceso de Poisson
1
Proposicin 8 Sean U U (0; 1) y > 0. Entonces ln (1 U) E ( ).

Demostracin. Queremos demostrar que

1 x
1 e x 0
P ln (1 U) x =
0 x 0.

1
P ln (1 U) x = P (ln (1 U) x)
x
= P 1 U e
x
= P U 1 e .

Recordemos que
x 0 x 1
FU (x) =
0 en otro caso,
entonces
x
x 1 e x 0
P U 1 e =
0 x 0,
como queramos.
1
Por lo tanto ln (1 U) E ( ).

La proposicin anterior nos muestra un mtodo para simular en una com-


putadora una variable aleatoria con distribucin E ( ) usando un generador de
nmeros aleatorios uniforme en (0; 1). Entonces,
Pm como en un proceso de Poisson
de parmetro > 0, m E ( ) y Tm = k=0 k , podemos simular los tiempos
de llegada como una suma de variables aleatorias exponenciales E ( ).

7. Denicin equivalente
Denicin 7 (Proceso de Poisson homogneo) Una coleccin de variables
aleatorias fN (t) ; t 0g es un Proceso de Poisson homogneo de parmetro
> 0 si:

1. P (N (0) = 0) = 1.

2. N (t) tiene incrementos estacionarios.


3. N (t) tiene incrementos independientes.
4. Para h pequea:

a) P (N (t + h) N (t) = 1) = h + o (h).

16
b) P (N (t + h) N (t) > 1) = o (h).

Observaciones:

La condicin 4.a nos dice que la probabilidad de que ocurra exactamente


un evento en un intervalo de tiempo pequeo, es "proporcional.a la longi-
tud del intervalo.
La condicin 4.b nos dice que la probabilidad de que ocurran dos o ms
eventos en un intervalo de tiempo pequeo es despreciable.

Teorema 4 Las deniciones 3 y 7 son equivalentes.

Demostracin. Veamos primero que (3))(7).


En la seccin 4 vimos que de acuerdo con la denicin 3, un proceso de
Poisson homogneo tiene la propiedad de incrementos estacionarios, esto es
(3))(7.2)
Falta ver que (3))(7.4).
a)

P (N (t + h) N (t) = 1) = P (N (h) = 1)
h
= ( h) e
h
= h+ h e 1

Luego, como
h
h e 1 h
lm = lm e 1 = 0,
h!0 h h!0
tenemos que
P (N (t + h) N (t) = 1) = h + o (h) .
b)

P (N (t + h) N (t) > 1) = P (N (h) > 1)


X1 h
k e
= ( h)
k!
k=2

y como
k e hh
( h)
lm k!
= l m hk 1
e hk
=0 k 2
h!0 h k! h!0
tenemos que
1
X h
k e
lm ( h) = 0,
h!0 k!
k=2
esto es,
P (N (t + h) N (t) > 1) = o (h) .

17
Por lo tanto (3))(7).
Veamos ahora que (7))(3). Falta ver que (7))(3.ii).
Denamos una funcin

f (t; n) := P (N (t) = n) .
h
Veamos que f (t; 0) = e .

f (t + h; 0) = P (N (t + h) = 0)
= P (N (t) = 0 ; N (t + h) N (t) = 0)
= P (N (t) = 0) P (N (t + h) N (t) = 0)
= f (t; 0) (1 P (N (t + h) N (t) 1))
= f (t; 0) (1 (P (N (t + h) N (t) = 1) + P (N (t + h) N (t) > 1)))
= f (t; 0) (1 (( h + o (h)) + o (h)))
= f (t; 0) (1 ( h + o (h)))
= f (t; 0) (1 h + o (h)) .

Tenemos entonces
f (t + h; 0) f (t; 0) f (t; 0) ( h + o (h))
lm = lm
h!0 h h!0 h
f 0 (t; 0) = f (t; 0) ,

de donde
t
f (t; 0) = e .
Notemos que 8n > 1
d
f (t; n) = (f (t; n 1) f (t; n)) .
dt

18
f (t + h; n) = P (N (t + h) = n)
Xn
= P (N (t) = n k ; N (t + h) N (t) = k)
k=0
Xn
= P (N (t) = n k) P (N (t + h) N (t) = k)
k=0
= P (N (t) = n) P (N (t + h) N (t) = 0) + P (N (t) = n 1) P (N (t + h) N (t) = 1)
Xn
+ P (N (t) = n k) P (N (t + h) N (t) = k)
k=2
= f (t; n) (1 P (N (t + h) N (t) 1)) + f (t; n 1) ( h + o (h))
X1
n k e t
+ ( t) o (h)
(n k)!
k=2
= f (t; n) (1 (P (N (t + h) N (t) = 1) + P (N (t + h) N (t) > 1)))
+ h f (t; n 1) + o (h)
= f (t; n) (1 (( h + o (h)) + o (h))) + h f (t; n 1) + o (h)
= f (t; n) + h (f (t; n 1) f (t; n)) + o (h) .

Entonces
f (t + h; n) f (t; n) h (f (t; n 1) f (t; n)) + o (h)
lm = lm
h!0 h h!0 h
d
f (t; n) = (f (t; n 1) f (t; n)) .
dt
n e t
Veamos ahora que 8n 0, f (t; n) = ( t) n! .
n+1
d n+1 e t d n+1 t
( t) = t e
dt (n + 1)! (n + 1)! dt
n+1
= (n + 1) tn e t
tn+1 e t
(n + 1)!
t
n e n+1 e t
= ( t) ( t)
n! (n + 1)!
Luego, por el Teorema de Existencia Unicidad de solucin de ecuaciones difer-
enciales, tenemos el resultado.
Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parmetro (de
acuerdo con las denicin (3).

) Las dos deniciones son equivalentes.

19
8. Combinacin de Procesos de Poisson
Teorema 5 Sean fN1 (t) ; t 0g y fN2 (t) ; t 0g procesos de Poisson in-
dependientes con parmetros 1 y 2 respectivamente. Sea N (t) = N1 (t) +
N2 (t) ; t 0. Entonces fN (t) ; t 0g es un proceso de Poisson de parmetro
1 + 2.

Demostracin. ClaramentePN (0) 0. Pn


n
Recordemos que si Sn = i=1 Xi y Xi P ( i ), entonces Sn P ( i=1 i ).
Entonces 8t 0 tenemos que N (t) P (t ( 1 + 2 )).
Recordemos tambin que si tenemos fAi g y fBi g dos sucesiones de variables
aleatorias independientes, independientes entre s, entonces fAi + Bi g es una
sucesin de variables aleatorias independientes.
Esto nos dice que N (t) tiene incrementos independientes, pues dados t0 =
0 < t1 < t2 < < tn tenemos que fNi (tj ) Ni (tj 1 ) ; j = 1; : : : ; ng i = 1; 2
son independientes, y por tanto N (tj ) N (tj 1 ) ; j = 1; : : : ; n tambin lo son.
Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parmetro 1 + 2 .

Corolario 3 Sean fN1 (t) ; t 0g ; fN2 (t) ; t 0g ; : : : ; fNn (t) ; t 0g proce-


sos de Poisson
Pindependientes con parmetros 1 ; 2 ; : : : ; n respectivamente.
n
Sea N (t) = N
k=1 kP(t) ; t 0. Entonces fN (t) ; t 0g es un proceso de
n
Poisson de parmetro k=1 k .

9. Proceso de Poisson compuesto


Denicin 8 (Proceso de Poisson Compuesto) Sea fXi gi 1 una sucesin
de variables aleatorias independientes idnticamente distribuidas e independi-
entes del proceso de Poisson fN (t) ; t 0g de parmetro . El proceso
N (t)
X
X (t) = Xi
i=1

se llama proceso de Poisson compuesto.

Teorema 6 Sea fN (t) ; t 0g un proceso de Poisson de parmetro . Supong-


amos que cada llegada es de tipo 1 con probabilidad p1 o de tipo 2 con probabil-
idad p2 = 1 p1 , independiente de las dems llegadas. Sea Ni (t) el nmero de
llegadas del tipo i hasta el tiempo t. Entonces fN1 (t) ; t 0g y fN2 (t) ; t 0g
son procesos de Poisson independientes con parmetros p1 y p2 respectiva-
mente.

20
Demostracin. Sea f k gk 0 una sucesin de variables aleatorias Bernoulli de
parmetro p1 . Entonces
N (t)
X
N1 (t) = k
k=1
y
N (t)
X
N2 (t) = (1 k) = N (t) N1 (t) .
k=1

Es claro que N1 (t) y N2 (t) tienen incrementos independientes y estacionar-


ios, pues N (t) los tiene. Adems tambin es fcil darse cuenta de que P (Ni (t + h) Ni (t) > 1) =
o (h), pues P (N (t + h) N (t) > 1) = o (h) y Ni (h) = s ) N (t) s.
Veamos que para h pequea P (N1 (t + h) N1 (t) = 1) = p1 h + o (h).
0 1
N (t+h) N (t)
X X
P (N1 (t + h) N1 (t) = 1) = P @ k k =1
A
k=1 k=1
0 1
N (t+h)
X
= P@ k = 1A
N (t)+1

= P (N (t + h) N (t) = 1 ; k = 1)
= P (N (t + h) N (t) = 1) P ( k = 1)
= ( h + o (h)) p1
= p1 h + o (h) .

Similarmente podemos ver que P (N2 (t + h) N2 (t) = 1) = p2 h + o (h).

) fN1 (t) ; t 0g y fN2 (t) ; t 0g son Procesos de Poisson con parmetros p1 y p2 .

Veamos ahora que son independientes. Sea t 0 y s1 ; s2 2 R.


s1
X
P (N1 (t) s1 ; N2 (t) s2 ) = P (N1 (t) = k1 ; N2 (t) s2 )
k1 =0
Xs1 X s2
= P (N1 (t) = k1 ; N2 (t) = k2 )
k1 =0 k2 =0

como sabemos que N1 (t) + N2 (t) = N (t)

P (N1 (t) = k1 ; N2 (t) = k2 ) = P (N1 (t) = k1 ; N2 (t) = k2 j N (t) = k1 + k2 ) P (N (t) = k1 + k2 )

y
k1 + k2 k1 k2
P (N1 (t) = k1 ; N2 (t) = k2 j N (t) = k1 + k2 ) = p1 p2
k1

21
entonces
s1 X
X s2
k1 + k2 k1 k2 k +k e t
P (N1 (t) s1 ; N2 (t) s2 ) = p1 p2 ( t) 1 2
k1 (k1 + k2 )!
k1 =0 k2 =0
Xs1 X s2
1 k k
= pk1 ( t) 1 pk22 ( t) 2 e (p1 +p2 )t
k1 !k2 ! 1
k1 =0 k2 =0
Xs1 X s2 p1 t p2 t
k1 e k2 e
= ( p1 t) ( p2 t)
k1 ! k2 !
k1 =0 k2 =0
Xs1 X s2
= P (N1 (t) = k1 ) P (N2 (t) = k2 )
k1 =0 k2 =0
s1
! s2
!
X X
= P (N1 (t) = k1 ) P (N2 (t) = k2 )
k1 =0 k2 =0
= P (N1 (t) s1 ) P (N2 (t) s2 ) .

Por lo tanto fN1 (t) ; t 0g y fN2 (t) ; t 0g son procesos de Poisson in-
dependientes con parmetros p1 y p2 .

Corolario 4 Sea fN (t) ; t 0g un proceso de Poisson de parmetro . Sea


1
fXk gk=1 una sucesin de variables aleatorias independientes con la misma dis-
n
tribucin discreta fpk gk=1 . Supongamos que cada llegada es de tipo i con proba-
bilidad pi , independiente de las dems llegadas. Sea Ni (t) el nmero de llegadas
del tipo i hasta el tiempo t. Esto es
N (t)
X
Ni (t) = i Xk
k=0

donde
0 si i 6= j
ij =
1 si i = j.
Entonces fN1 (t) ; t 0g ; : : : ; fNn (t) ; t 0g son procesos de Poisson inde-
pendientes con parmetros p1 ; : : : ; pn respectivamente.

10. Proceso de Poisson no homogneo


Denicin 9 (Proceso de Poisson no homogneo con intensidad (t))
Una coleccin de variables aleatorias fN (t); t 0g se llama proceso de Pois-
son no homogneo con intensidad (t) si satisface las siguientes propiedades:

a) P(N (0) = 0) = 1.

22
b) N (t) tiene incrementos independientes.
k e ( (t) (s))
c) 8 0 < s < t se tiene que P (N (t) N (s) = k) = ( (t) (s)) k!
k = 0; 1; 2; : : :. Esto es N (t) N (s) P ( (t) (s)), donde (t) es no
decreciente y (0) = 0.

Veamos la distribucin del tiempo del primer evento (T1 ) en un proceso de


Poisson de intensidad (t).

P (T1 t) = P (N (t) 1)
= 1 P (N (t) = 0)
(t)
= 1 e .

Esto es
(t)
FT1 (x) = 1 e .
Si (t) es diferenciable en t con derivada (t), entonces
(t)
fT1 (t) = (t) e .

Notemos que un Proceso de Poisson homogneo es un caso particular de un


Proceso de Poisson no homogneo, tomando (t) = t.
En general es usual proponer
Z t
(t) = (s) ds,
0

donde (s) 0 8 s.

23

También podría gustarte