Está en la página 1de 23

Introduccin a los Procesos de Poisson*

Victor M. Prez Abreu C.


Departamento de Probabilidad y Estadstica, CIMAT
David Reynoso Valle
Licenciatura en Matemticas,
DEMAT, Universidad de Guanajuato
22 de julio del 2010

ndice
1. Introduccin

2. Propiedades de la distribucin de Poisson


2.1. Aproximacin de Poisson . . . . . . . . . . . . . . . . . . . . . .
2.2. Distribucin de Poisson . . . . . . . . . . . . . . . . . . . . . . .

2
2
2

3. Proceso de Conteo

4. Proceso de Poisson Homogneo

5. Algunas variables aleatorias de inters


5.1. Tiempos de llegada . . . . . . . . . . .
5.2. Tiempos entre llegadas . . . . . . . . .
5.3. Tiempo de prxima ocurrencia . . . .
5.4. Tiempo desde ltima falla . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

7
7
9
13
15

6. Simulacin de un Proceso de Poisson

16

7. Denicin equivalente

16

8. Combinacin de Procesos de Poisson

20

9. Proceso de Poisson compuesto

20

10.Proceso de Poisson no homogneo

22

* Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano de
Probabilidad y Estadstica, en julio de 2009 y 2010.

1.

Introduccin

En estas notas se compila parte del material que se cubri en el curso de


Probabilidad I de las Licenciaturas en Matemticas y en Computacin de la
Universidad de Guanajuato, en el semestre agosto-diciembre del 2008.
Estas notas son un complemento al material de la primera parte del Curso
de Procesos de Poisson del III Verano de Probabilidad y Estadstica. Contienen
material bsico sobre Procesos de Poisson, el cual aparece en la mayora de
los textos que tratan este tema. El nfasis en estas notas es en el rigor de las
deniciones y las demostraciones detalladas de las principales propiedades de
estos procesos, usando conceptos y resultados sencillos de probabilidad.
Los autores agradecen de antemano los comentarios que los participantes
puedan tener. Nuestro objetivo es terminar pronto una Notas de Introduccin
al Tema de Procesos de Poisson, dirigidas a alumnos que han tomado un primer
curso de probabilidad en licenciatura.

2.
2.1.

Propiedades de la distribucin de Poisson


Aproximacin de Poisson

La distribucin de Poisson es un caso lmite de la distribucin binomial


B (n; pn ) cuando la probabilidad de xito es variable.
Si una variable aleatoria X modela el nmero de xitos obtenidos luego de
n ensayos Bernoulli con probabilidad de xito p > 0, entonces la probabilidad
de tener k xitos en n ensayos est dada por
P (X = k) =

n k
p (1
k

n k

p)

Se dice entonces que X tiene distribucin binomial de parmetros n y p (X


B (n; p)).
Si = E(X) = np se mantiene constante cuando n y p varan, tenemos que
k

para toda r

( ) = l m P (X = k) =
n!1

ke

(1)

k!

0. (notemos que cuando n crece, p decrece).

Ejercicio 1 Probar (1). Sugerencia: Recordar que l mn!1 1 +

2.2.

x n
n

= ex .

Distribucin de Poisson

Denicin 1 Una variable aleatoria X tiene distribucin de Poisson P ( ) si


toma valores enteros positivos y
P (X = k) =

( )=
2

ke

k!

donde

puede tomar cualquier valor

Ejercicio 2 Probar que si X

> 0.

P( )

1. E (X) = .
2. V ar (X) = .
3. La funcin generadora de momentos de X

P( )

t
(t) = e (e

1)

En ocasiones es til extender la denicin de P ( ) para incluir los casos


extremos 0 e 1. P (0) sera la distribucin concentrada en el 0
P (X = 0) = 1,
y P (1) la distribucin concentrada en +1
P (X = +1) = 1.
Una de las propiedades ms importantes de la distribucin de Poisson es su
aditividad.
Teorema 1 Si X y Y son variables aleatorias independientes con distribuciones P ( 1 ) y P ( 2 ), entonces X + Y
P ( 1 + 2 ).
Demostracin. Ejercicio.
Por induccin, podemos ver fcilmente que este resultado es cierto para
cualquier suma nita de variables aleatorias independientes. Adems se tiene la
siguiente propiedad importante.
Ejercicio 3 Probar que la distribucin de Poisson es innitamente divisible,
esto es, dada una variable aleatoria X con distribucin Poisson P ( ), para
toda n > 0 podemos encontrar n variables aleatorias independientes
X1 ; : : : ; Xn
Pn
con distribucin Poisson P ( 1 ) ; : : : ; P ( n ) tales que i=1 Xi P ( ).
1

Teorema 2 (Teorema de Aditividad Numerable) Sea fXj gj=1 una sucesin de variables aleatorias independientes, donde Xj P ( j ) j = 1; 2; : : :.
Si
1
X
=
j
j=1

converge, entonces
S=

1
X

Xj

j=1

converge con probabilidad


P1 1 y S P ( ).
Por otro lado, si j=1 j diverge, entonces S diverge con probabilidad 1.
3

Demostracin. Por el Teorema 1, tenemos que


Sn =

n
X

Xj

n
X

j.

j=1

tiene distribucin P (

n)

donde
n

j=1

Es fcil ver que 8n

fSn
fS

rg

fSn+1
1
\

rg =

rg, de donde

fSn

n=1

rg

y por tanto1
P (S

r)

=
=
=
=

l m P (Sn

lm

n!1

lm

n!1
r
X

k=0

Si

< 1, por ser

r)

n!1

r
X

P (Sn = r)

k=0
r
X

n)

n) .

k=0

lm

n!1

( ) continua tenemos que

P (S

r) =

r
X

( )

k=0

P (S = r) =

( ).

Por lo tanto S es nita con distribucin P ( ).


Si n ! 1,
P (S

r)

r
X

( )

k=0

= e

r
X

k=0

k
n

k!

! 0.

Entonces
P (S > r) = 1.
1 Si

An 2 F , n

1 y An # A, entonces P (A) = l mn!1 P (An )

Como este resultado es cierto 8r


probabilidad 1.

0, podemos concluir que S diverge con

Luego de este resultado parece ms natural haber denido P (0) y P (1).


Con esta convencin, si tenemos variables aleatorias independientes
PXj con distribuciones P ( j ) respectivamente, su suma tiene distribucin P (
j ), y esto
es cierto sin importar que haya un nmero innito de ellas, incluso si algunos
j son 0 o 1.
Supongamos que X1 ; : : : ; Xn son variables aleatorias independientesPcon
Xj P ( j ). Entonces S = X1 + +X
j,
Pn tiene distribucin P ( ) con =
y entonces, si r1 ; : : : ; rn son tales que
rj = s tenemos que
P (X1 = r1 ; : : : ; Xn = rn j S = s)

n
Y

rj
j e

e
s!

rj !

j=1

s!

r1 !

r1

rn
n

rn !

Estas son las probabilidades de una distribucin multinomial M (s; p1 ; : : : ; pn ),


con pi = i .
Para el caso en el que n = 2, tenemos que si X y Y son variables aleatorias
Poisson independientes (X
P ( 1) y Y
P ( 2 )), dado que X + Y = m, la
distribucin condicional de X es B (m; p), donde
p=

E (X)
.
E (X) + E (Y )

Hay un resultado muy til, que parecera ser el converso del anterior. Supongamos que N P ( ) ; y que la distribucin condicional de M dado N es B (N; p)
para alguna constante p. Esto es
P (M = t j N = s) =
Entonces, para m; k
P (M = m; N

s t
p (1
t

s t

p)

0,
M = k)

=
=
=
=
=
=

P (N = m + k) P (M = m j N = m + k)
m+k
e
(m + k)!

m+k m
p (1
m

p)

m+k
e
(m + k)! m
k
p (1 p)
(m + k)! k!m!
1 m
k
e p e (1 p) m k
p (1 p)
k!m!
k
e p m pm e (1 p) k (1 p)
m!
k!
m
k
p
(1 p)
e
( p) e
( (1 p))
.
m!
k!

As, M y N M son variables aleatorias independientes Poisson con medias p


y (1 p) respectivamente.

3.

Proceso de Conteo

Denicin 2 (Proceso de Conteo) Se dice que un proceso estocstico fN (t) ; t


es un proceso de conteo si representa el nmero de eventos ocurridos hasta el
tiempo t, esto es, satisface:
i) N (0)

0.

ii) N (t) toma valores enteros.


iii) Es no decreciente, i.e. si s < t, entonces N (s)
iv) Para s < t, N (t)
el intervalo (s; t].

N (t).

N (s) es igual al nmero de eventos que ocurrieron en

La trayectoria de un proceso de conteo es la grca (t; N (t)) para t 0:


Las trayectorias se toman de tal forma de que sean continuas por la derecha y
que tengan lmite por la izquierda.

4.

Proceso de Poisson Homogneo

Denicin 3 (Proceso de Poisson homogneo) Una coleccin de variables


aleatorias fN (t) ; t 0g (denidas en un espacio de probabilidad ( ; F; P)) se
llama proceso de Poisson (homogneo) con intensidad > 0 si satisface
las siguientes propiedades:
i) P(N (0) = 0) = 1, esto es, N (0) es siempre 0.
ii) 8

(t

0<s<t
s).

N (t)

N (s) tiene distribucin de Poisson de parmetro

iii) 8 0 t1 <
< tn ; n 1 (es decir, para todo conjunto nito de tiempos), las variables aleatorias N (tn ) N (tn 1 ); : : : ; N (t2 ) N (t1 ); N (t1 ),
son independientes. Esta propiedad se conoce como propiedad de incrementos independientes.
Observemos que 8t
0, la variable aleatoria N (t) tiene distribucin de
Poisson de parmetro t. Por (ii) tenemos que N (t) N (0)
P ( (t 0)), y
por (i) tenemos que N (0) 0, lo que nos dice que N (t) P ( t).
Ahora, 80 < s < t tenemos por (ii) que N (t) N (s)
P ( (t s)) y
por lo anterior, N (t s) P ( (t s)): Podemos darnos cuenta entonces que la
6

0g

distribucin del incremento N (t) N (s) y la de la variable aleatoria N (t


es la misma. Adems esto nos dice que P(N (t) N (s) 0) = 1, pues
P(N (t)

N (s)

0) =

1
X

P(N (t)

s)

N (s) = k) = 1,

k=0

esto es, la distribucin slo depende de la longitud del intervalo t s. Esta


propiedad se conoce como propiedad de incrementos estacionarios.
Notemos adems que esta propiedad nos garantiza que el proceso es no
decreciente.

5.

Algunas variables aleatorias de inters

5.1.

Tiempos de llegada

Podemos darnos ahora una idea de cmo se ven las trayectorias de un proceso
de Poisson, y una pregunta que debemos hacernos es qu distribucin tienen los
tiempos de llegada del proceso?, entendiendo por tiempos de llegada los tiempos
en los que ocurre un xito.
Para poder ver la distribucin de los tiempos de llegada, es necesario asociarles una variable aleatoria. Queremos que el tiempo del primer xito sea el t ms
pequeo para el que N (t) = 1, esto es, podemos denir el tiempo del primer
xito como
T1 = nf ft 0; N (t) = 1g .
Ahora, queremos que dado un m 1 el m-simo tiempo de llegada sea el t ms
pequeo para el que N (t) = m, entonces podemos denir el tiempo del m-simo
xito de la misma forma que antes, pues el proceso es no decreciente,
Tm = nf ft

0; N (t) = mg .

La pregunta ahora es son T1 ; T2 ; : : : ; Tm ; : : : variables aleatorias?

Proposicin 1 8t

0 y 8m > 0 tenemos que fTm

tg = fN (t)

mg.

Demostracin. Recordemos que fN (t)


mg = f! 2
: N (t)(!)
mg y
fTm tg = f! 2 : Tm (!) tg.
Sean t
0 y m > 0. Por denicin Tm = nf fk 0 : N (k) = mg, esto
es, para un ! 2
dado tenemos que Tm (!) = nf fk 0; N (k)(!) = mg. En
particular N (Tm (!))(!) = m.
Sea ! 0 2 fN (t) mg. Entonces
N (t)(! 0 )

m ) N (t)(! 0 )

N (Tm (! 0 ))(! 0 ).

Luego, como N (t) es no decreciente, tenemos que t


fTm tg.
) fN (t) mg fTm tg.
7

Tm (! 0 ), es decir ! 0 2

Sea ! 0 2 fTm

tg. Entonces

Tm (! 0 )

es decir, ! 0 2 fN (t)

t ) N (Tm (! 0 ))(! 0 )
)

N (t)(! 0 )

) fTm

tg

fN (t)

mg.

) fTm

tg = fN (t)

mg

N (t)(! 0 )

mg:

Corolario 1 8m > 0 tenemos que Tm es una variable aleatoria.2


Ahora que ya vimos que los tiempos de llegada son variables aleatorias,
veamos qu distribucin tiene el primer tiempo de llegada.
Proposicin 2 T1 tiene distribucin exponencial de parmetro
Demostracin. Como fT1

tg = fN (t)
t)

P(T1

lo que nos dice que T1

1g,

= P(N (t)
=

> 0.3

1)

P(N (t) = 0)
e t
( t)0
0!
e t,

E( ).

Corolario 2 El tiempo esperado de la primera llegada es E(T1 ) = 1 .


Proposicin 3 La v.a. Tm tiene distribucin G m;
fTm (t) =

1
(m)

m 1

2 Recordar

si t 0
.
de otra forma

denicin de variable aleatoria.


que Runa variable aleatoria X tiene distribucin exponencial de parmetro
> 0 si P (X x) = 0x f (t) dt, con f (t) = e t .
3 Recordemos

Demostracin. De la proposicin 1 tenemos


t)

P(Tm

= P(N (t)
=

m)

P(N (t)
m
X1

1)

P(N (t) = k)

k=0

m
X1

( t)k

e
k!

k=0

Derivando obtenemos
fTm (t)

d
dt

e
m
X1
k=0

( t)
k!

m
X1

( t)k
k!

k=0
m 1

1
(m)

( t)
(m 1)!
m m 1

!
t

m
X1

k 1

k=1

k=0

( t)k
k!

( t)k
k!

m
X1

m
X1
k=0

m
X1

( t)
k!
!

k 1

( t)
(k 1)!
k=1
!
m
X2 ( t)k
k!
k=0

que es la funcin de densidad de una v.a. con distribucin G m;

5.2.

Tiempos entre llegadas

Denicin 4 (Tiempo entre llegadas)


t

= nf fs > t : N (s)

Teorema 3 8n 1, las v.a. 1 ,


distribucin exponencial E( ).

2,

: : :,

N (t) = 1g
son independientes y con la misma

Demostracin. Veamos primero el caso cuando n = 2.


Queremos demostrar que 80 < s1 < s2 < 1 se tiene que
P(
4 (!)

s1 ;

< s2 ) = P(

Checar que est bien denido...

s1 )P(

s2 ).

P(

s1 ;

s2 )

= P(T1

s1 ; T2

T1

= P(T1

s1 ; T2

s2 + T1 )

P(T1

s1 ; T2

s1 + s2 )

P(N (s1 ) 1; N (s1 + s2 ) 2)


1
X
P(N (s1 ) = k1 ; N (s1 + s2 )

k1 =1
1
X

k1 =1

1
X

P(N (s1 ) = k1 ; N (s1 + s2 ) = k2 )

1
X

P(N (s1 ) = k1 ; N (s1 + s2 ) = k2 )

k1 =1 k2 =k1 +1
1
1
X
X

2)

k2 =2
k1 <k2

1
X

s2 )

P(N (s1 ) = k1 ; N (s1 + s2 )

N (s1 ) = k2

k1 =1 k2 =k1 +1

por incrementos independientes


P(

s1 ;

1
X

s2 ) =

1
X

P(N (s1 ) = k1 )P(N (s1 +s2 ) N (s1 ) = k2 k1 )

k1 =1 k2 =k1 +1

usando la propiedad de incrementos estacionarios


P(

s1 ;

s2 )

1
X

1
X

P(N (s1 ) = k1 )P(N (s2 ) = k2

k1 =1 k2 =k1 +1
1
1 X
X

k1 )

P(N (s1 ) = k1 )P(N (s2 ) = k2 )

k1 =1 k2 =1

1
X

P(N (s1 ) = k1 )

k1 =1

(1

P(N (s1 ) = 0) (1
e

s1

1
X

P(N (s2 ) = k2 )

k2 =1

P(N (s2 ) = 0)

s2

Hasta ahora hemos demostrado que 80 < s1 < 1 y 80 < s2 < 1


P(

s1 ;

pero ya sabemos que T1


P(

s1 ;

s2 ) = 1

s1

s2

(2)

E( ), entonces
2

s2 )

P(T1

s1 ) 1

s2

P(

s1 ) 1

s2

10

k1 )

Del lado izquierdo de (2) tenemos


l m P(

s1 "1

s1 ;

s2 ) = P(

s2 ),

y como
l m P(T1

s1 ) = 1,

s1 "1

tenemos que
P(

s2 ) = 1

s2

80 < s1 < 1

E( ).

Entonces
P(
esto es,
E ( ).

s1 ;

s2 ) = P (

s1 ) P (

son independientes y tienen la misma distribucin exponencial

Veamos ahora el caso para n 2.


Supongamos que 1 ; 2 ; : : : ; n son independientes y que
i n, esto es, 8 0 < s1 < s2 <
< sn < 1 tenemos que
P(

si ; 1

n) =

n
Y

n
Y

si ) =

i=1

Queremos demostrar que


E( ). Sean 0 < s1 < s2 <
P(

s2 ) ,

s1 ; 1

n + 1)

1;

Ti

P (Ti
0

si + Ti

P @Ti

si ; 1

n + 1)

;1

n + 1)

i 1
X

i
X

sj ; 1

0
1
i
X
P @N @
sj A
j=1

<kn+1

<kn+1

<kn+1

11

i; 1

P @N @
0

i
X
j=1

i
1

sj A

0
1
i
X
P @N @
sj A
0

n + 1A

n + 1A

n+1

j=1

1 k1 <

sj ; 1

j=1

P @Ti

1 k1 <

si +

1 k1 <

2 ; : : : ; n ; n+1 son independientes y que


< sn < sn+1 < 1. Entonces

P (Ti

si

i=1

E( ) para

j=1

0
1
i
X
P @N @
sj A
j=1

n + 1A
ki ; 1

ki ; 1

n + 1A
n + 1A

0
1
i 1
X
N@
sj A
j=1

ki

i 1
X
j=1

kj ; 1

n + 1A

por incrementos independientes


P(

s1 ; 1

n+1
Y

n+1) =

1 k1 <

<kn+1 i=1

por incrementos estacionarios


P(

s1 ; 1

0
1
i
X
P @N @
sj A

n + 1) =

j=1

P @N (si )

<kn+1 i=1

1 k1 <

haciendo cambio de variable


P(

s1 ; 1

n + 1)

j=1

n+1
Y

0
1
i 1
X
N@
sj A

1
X

n+1
Y

ki

j=1

P (N (si )

k1 ;:::;kn+1 =1 i=1
n+1
Y

1
X

i=1

n+1
Y

kj A

ki )

P (N (si )

k)

k=1

(1

i 1
X

P (N (si ) = 0))

i=1

n+1
Y

si

i=1

Hemos demostrado hasta ahora que


P(

si ; 1

n + 1) =

n+1
Y

si

i=1

y como por hiptesis tenemos que


P(

si ; 1

n) =

n
Y

si

i=1

entonces
P(

si ; 1

n
Y

n + 1) =

P(

si )

i=1

sn+1

Tomando lmites de ambos lados


l m P(
s !1
i

si ; 1

n + 1)

lm
s !1
i

n
Y

P(

1 i n i=1

1 i n

P(

n+1

sn+1 )

=
12

sn+1

si ) 1

sn+1

ki

i 1
X
j=1

kj A

Por lo tanto, 8 n
1, las variables aleatorias 1 ; : : : ;
tienen la misma distribucin exponencial E ( ).

son independientes y

No es difcil convencerse de que


Tm =

m
X

k,

(3)

k=0

entonces, como E ( ) = G 1; 1 y la suma de n variables aleatorias independientes con la misma distribucin G (k; ) tiene distribucin G (nk; ), tenemos
que
1
Tm G m;
.
Ejercicio 4 Probar (3).

5.3.

Tiempo de prxima ocurrencia

Denicin 5 (Tiempo de prxima falla) Dado un tiempo t queremos estudiar el tiempo que tardaremos en tener otra falla. Denamos
t

:= nf fs

0 ; N (s + t)

N (t) = 1g

como el tiempo de la primera falla a partir del tiempo t.


Proposicin 4

tiene distribucin exponencial E( ) independiente de t.

Demostracin. Sea g(s) = 1 P ( t s) = P ( t > s).


Observemos que f t > sg = f t > t + sg 8 s < t.
g(s + h)

= P(

> s + h)

= P(

> t + s + h)

= P(

> t + s ; N (t + s + h)

N (t + s) = 0) .

El evento f t s + tg depende de lo que pasa hasta el tiempo t + s5 y


por la propiedad de incrementos independientes, es independiente de lo que
ocurre en el intervalo (t + s; t + s + h]. Esto nos dice que f t s + tg, y
fN (t + s + h) N (t + s) = 0g son independientes, y por lo tanto f t > s + tg
yfN (t + s + h) N (t + s) = 0g tambin lo son6 .
Entonces tenemos
g (s + h)

= P(

> t + s) P (N (t + s + h)

= P(

> s) P (N (h) = 0)

= g(s)e

N (t + s) = 0)

5 Esto

es lo que se conoce como tiempo de paro.


que si dos eventos A y B son independientes, entonces AC y B son independientes, A y B C son independientes y AC y B C son independientes.
6 Recordemos

13

As,
h

g(s) e
g(s + h) g(s)
=
h
h
y tomando lmites nos queda que
g 0 (s)

lm

g(s) e

h!0

= g (s) l m

h!0

g (s) .

Sabemos que las nicas soluciones para g 0 (s) =


s

g (s) = ke

g (s) son de la forma

k 2 R;

y tambin que
g (0) = P (

> 0) = 1.

Entonces
P(

> s) = e

por lo tanto
P(
Esto es, 8t

s) = 1

s > 0.

tiene distribucin exponencial E ( ).

Proposicin 5 Una variable aleatoria X con distribucin exponencial de parmetro


> 0, tiene la propiedad de prdida de memoria. Esto es
P (X > t + s j X > s) = P (T > t) .
Demostracin. Observemos que 8 t

0
t

P (X > t) = e

pues tenemos que


P (X
Sean s; t

t) = 1

0. Entonces
P (T > t + s j T > s)

=
=
=

P (T > t + s ; T > s)
P (T > s)
P (T > t + s)
P (T > s)
(t+s)

= e

e
t

= P (T > t) .
Por lo tanto X

E ( ) tiene la propiedad de prdida de memoria.


14

Proposicin 6 Un proceso de Poisson de parmetro


de prdida de memoria.

5.4.

> 0, tiene la propiedad

Tiempo desde ltima falla

Denicin 6 (Tiempo desde ltima falla) Dado un tiempo t queremos estudiar el tiempo que ha pasado desde la ltima falla. Denamos
lt := nf fs

0 : N (t)

N (t

s) = 0g

como el tiempo desde que ocurri la ltima falla.


Proposicin 7 La distribucin de lt es la siguiente:
P (lt = t) = e
P (lt

s) = 1

80

s < t.

Demostracin. Se deja como ejercicio checar que lt est bien denida y es


variable aleatoria.
En el primer caso tenemos que
P (lt = t)

= P (N (t)

N (t

t) = 0)

= P (N (t) = 0)
= P (T1
= e

En el segundo caso tenemos que si 0


P (lt

t)

s) = P (N (t)

s<t
N (t

s)

1)

y
P (lt > s)

= P (N (t)

N (t

s) = 0)

= P (N (s) = 0)
= P (T1
= e

s)

entonces
P (lt

s) = 1

Observemos que la distribucin de la proposicin anterior es tal que tiene


un salto en t y de otra forma tiene densidad. Es un ejemplo de una distribucin
que tiene una parte discreta y otra parte continua.

15

6.

Simulacin de un Proceso de Poisson

Proposicin 8 Sean U

U (0; 1) y

> 0. Entonces

ln (1

x
x

0
0.

U)

E ( ).

Demostracin. Queremos demostrar que


1

ln (1

ln (1

U)

U)

1
0

P (ln (1

U)

x)

P 1

P U

Recordemos que
x
0

FU (x) =

0 x 1
en otro caso,

entonces
P U
como queramos.
Por lo tanto

ln (1

U)

1
0

x
x

0
0,

E ( ).

La proposicin anterior nos muestra un mtodo para simular en una computadora una variable aleatoria con distribucin E ( ) usando un generador de
nmeros aleatorios uniforme en (0; 1). Entonces,
como en un proceso de Poisson
Pm
de parmetro > 0, m E ( ) y Tm = k=0 k , podemos simular los tiempos
de llegada como una suma de variables aleatorias exponenciales E ( ).

7.

Denicin equivalente

Denicin 7 (Proceso de Poisson homogneo) Una coleccin de variables


aleatorias fN (t) ; t 0g es un Proceso de Poisson homogneo de parmetro
> 0 si:
1. P (N (0) = 0) = 1.
2. N (t) tiene incrementos estacionarios.
3. N (t) tiene incrementos independientes.
4. Para h pequea:
a) P (N (t + h)

N (t) = 1) = h + o (h).
16

b) P (N (t + h)

N (t) > 1) = o (h).

Observaciones:
La condicin 4.a nos dice que la probabilidad de que ocurra exactamente
un evento en un intervalo de tiempo pequeo, es "proporcional.a la longitud del intervalo.
La condicin 4.b nos dice que la probabilidad de que ocurran dos o ms
eventos en un intervalo de tiempo pequeo es despreciable.

Teorema 4 Las deniciones 3 y 7 son equivalentes.


Demostracin. Veamos primero que (3))(7).
En la seccin 4 vimos que de acuerdo con la denicin 3, un proceso de
Poisson homogneo tiene la propiedad de incrementos estacionarios, esto es
(3))(7.2)
Falta ver que (3))(7.4).
a)
P (N (t + h)

N (t) = 1)

= P (N (h) = 1)
=

( h) e

h+ h e

Luego, como
lm

h e

h!0

lm e

h!0

1 = 0,

tenemos que
P (N (t + h)

N (t) = 1) = h + o (h) .

b)
P (N (t + h)

N (t) > 1)

P (N (h) > 1)
1
h
X
k e
=
( h)
k!
k=2

y como
k e

lm

h!0

( h)

hh

k!

tenemos que
lm

h!0

esto es,

l m hk
k! h!0

1
X

( h)

k=2

P (N (t + h)

hk

=0 k

e
k!

= 0,

N (t) > 1) = o (h) .


17

Por lo tanto (3))(7).


Veamos ahora que (7))(3). Falta ver que (7))(3.ii).
Denamos una funcin
f (t; n) := P (N (t) = n) .
Veamos que f (t; 0) = e
f (t + h; 0)

P (N (t + h) = 0)

P (N (t) = 0 ; N (t + h)

P (N (t) = 0) P (N (t + h)

f (t; 0) (1

P (N (t + h)

f (t; 0) (1

(P (N (t + h)

f (t; 0) (1

(( h + o (h)) + o (h)))

f (t; 0) (1

( h + o (h)))

f (t; 0) (1

h + o (h)) .

N (t) = 0)
N (t) = 0)
N (t)

1))

N (t) = 1) + P (N (t + h)

Tenemos entonces
lm

h!0

f (t + h; 0)
h

f (t; 0)
f 0 (t; 0)

f (t; 0) (

lm

h!0

h + o (h))
h

f (t; 0) ,

de donde
f (t; 0) = e

Notemos que 8n > 1


d
f (t; n) =
dt

(f (t; n

18

1)

f (t; n)) .

N (t) > 1)))

f (t + h; n)

= P (N (t + h) = n)
n
X
=
P (N (t) = n k ; N (t + h)
=

k=0
n
X

P (N (t) = n

N (t) = k)

k) P (N (t + h)

N (t) = k)

k=0

= P (N (t) = n) P (N (t + h) N (t) = 0) + P (N (t) = n


n
X
+
P (N (t) = n k) P (N (t + h) N (t) = k)

1) P (N (t + h)

k=2

= f (t; n) (1 P (N (t + h) N (t)
1
X
e t
n k
o (h)
( t)
+
(n k)!

1)) + f (t; n

1) ( h + o (h))

k=2

= f (t; n) (1

(P (N (t + h)

+ h f (t; n
= f (t; n) (1

N (t) = 1) + P (N (t + h)

N (t) > 1)))

1) + o (h)
(( h + o (h)) + o (h))) + h f (t; n

= f (t; n) + h (f (t; n

1)

1) + o (h)

f (t; n)) + o (h) .

Entonces
lm

h!0

f (t + h; n)
h

f (t; n)
d
f (t; n)
dt

Veamos ahora que 8n


d
dt

n+1

( t)

e t
(n + 1)!

=
=

lm

h (f (t; n

1)

f (t; n)) + o (h)


h

h!0

(f (t; n

1)
t

n e

0, f (t; n) = ( t)

n!

f (t; n)) .
.

n+1

d n+1
t
e
(n + 1)! dt

n+1

=
=

(n + 1)!
( t)

(n + 1) tn e
t

e
n!

n+1

( t)

tn+1 e

e t
(n + 1)!

Luego, por el Teorema de Existencia Unicidad de solucin de ecuaciones diferenciales, tenemos el resultado.
Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parmetro (de
acuerdo con las denicin (3).
) Las dos deniciones son equivalentes.

19

N (t) = 1)

8.

Combinacin de Procesos de Poisson

Teorema 5 Sean fN1 (t) ; t 0g y fN2 (t) ; t 0g procesos de Poisson independientes con parmetros 1 y 2 respectivamente. Sea N (t) = N1 (t) +
N2 (t) ; t 0. Entonces fN (t) ; t 0g es un proceso de Poisson de parmetro
1 + 2.
Demostracin. ClaramentePN (0) 0.
Pn
n
Recordemos que si Sn = i=1 Xi y Xi P ( i ), entonces Sn P ( i=1 i ).
Entonces 8t 0 tenemos que N (t) P (t ( 1 + 2 )).
Recordemos tambin que si tenemos fAi g y fBi g dos sucesiones de variables
aleatorias independientes, independientes entre s, entonces fAi + Bi g es una
sucesin de variables aleatorias independientes.
Esto nos dice que N (t) tiene incrementos independientes, pues dados t0 =
0 < t1 < t2 <
< tn tenemos que fNi (tj ) Ni (tj 1 ) ; j = 1; : : : ; ng i = 1; 2
son independientes, y por tanto N (tj ) N (tj 1 ) ; j = 1; : : : ; n tambin lo son.
Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parmetro 1 + 2 .
Corolario 3 Sean fN1 (t) ; t 0g ; fN2 (t) ; t 0g ; : : : ; fNn (t) ; t 0g procesos de Poisson
con parmetros 1 ; 2 ; : : : ; n respectivamente.
Pindependientes
n
Sea N (t) =
N
(t)
;
t
0. Entonces fN (t) ; t 0g es un proceso de
k=1 kP
n
Poisson de parmetro k=1 k .

9.

Proceso de Poisson compuesto

Denicin 8 (Proceso de Poisson Compuesto) Sea fXi gi 1 una sucesin


de variables aleatorias independientes idnticamente distribuidas e independientes del proceso de Poisson fN (t) ; t 0g de parmetro . El proceso
N (t)

X (t) =

Xi

i=1

se llama proceso de Poisson compuesto.


Teorema 6 Sea fN (t) ; t 0g un proceso de Poisson de parmetro . Supongamos que cada llegada es de tipo 1 con probabilidad p1 o de tipo 2 con probabilidad p2 = 1 p1 , independiente de las dems llegadas. Sea Ni (t) el nmero de
llegadas del tipo i hasta el tiempo t. Entonces fN1 (t) ; t 0g y fN2 (t) ; t 0g
son procesos de Poisson independientes con parmetros p1 y p2 respectivamente.

20

Demostracin. Sea f k gk
parmetro p1 . Entonces

una sucesin de variables aleatorias Bernoulli de


N (t)

N1 (t) =

k=1

y
N (t)

N2 (t) =

(1

k)

= N (t)

N1 (t) .

k=1

Es claro que N1 (t) y N2 (t) tienen incrementos independientes y estacionarios, pues N (t) los tiene. Adems tambin es fcil darse cuenta de que P (Ni (t + h)
o (h), pues P (N (t + h) N (t) > 1) = o (h) y Ni (h) = s ) N (t) s.
Veamos que para h pequea P (N1 (t + h) N1 (t) = 1) = p1 h + o (h).
0
1
N (t+h)
N (t)
X
X
A
P (N1 (t + h) N1 (t) = 1) = P @
k
k =1
0

k=1

k=1

N (t+h)

= P@

= 1A

N (t)+1

= P (N (t + h)

N (t) = 1 ;

= P (N (t + h)

0g y fN2 (t) ; t

( h + o (h)) p1

p1 h + o (h) .

s1 ; N2 (t)

s2 )

= 1)
k

= 1)

N2 (t) = 1) = p2 h + o (h).

0g son Procesos de Poisson con parmetros p1 y p2 .

Veamos ahora que son independientes. Sea t


P (N1 (t)

N (t) = 1) P (

Similarmente podemos ver que P (N2 (t + h)


) fN1 (t) ; t

Ni (t) > 1) =

s1
X

0 y s1 ; s2 2 R.

P (N1 (t) = k1 ; N2 (t)

k1 =0
s1 X
s2
X

s2 )

P (N1 (t) = k1 ; N2 (t) = k2 )

k1 =0 k2 =0

como sabemos que N1 (t) + N2 (t) = N (t)


P (N1 (t) = k1 ; N2 (t) = k2 ) = P (N1 (t) = k1 ; N2 (t) = k2 j N (t) = k1 + k2 ) P (N (t) = k1 + k2 )
y
P (N1 (t) = k1 ; N2 (t) = k2 j N (t) = k1 + k2 ) =

21

k1 + k2 k1 k2
p1 p2
k1

entonces
P (N1 (t)

s1 ; N2 (t)

s2 )

s2
s1 X
X

e t
k1 + k2 k1 k2
k +k
p1 p2 ( t) 1 2
k1
(k1 + k2 )!

k1 =0 k2 =0
s2
s1 X
X
k1 =0 k2 =0
s2
s1 X
X

k1 =0 k2 =0
s2
s1 X
X

1
k
k
pk1 ( t) 1 pk22 ( t) 2 e
k1 !k2 ! 1
( p1 t)

k1

p1 t

k1 !

P (N1 (t) = k1 )

k1 =0

k2

p2 t

k2 !

P (N1 (t) = k1 ) P (N2 (t) = k2 )

k1 =0 k2 =0
s1
X

( p2 t)

(p1 +p2 )t

P (N1 (t)

s1 ) P (N2 (t)

Por lo tanto fN1 (t) ; t 0g y fN2 (t) ; t


dependientes con parmetros p1 y p2 .

s2
X

P (N2 (t) = k2 )

k2 =0

s2 ) .

0g son procesos de Poisson in-

Corolario 4 Sea fN (t) ; t 0g un proceso de Poisson de parmetro . Sea


1
fXk gk=1 una sucesin de variables aleatorias independientes con la misma disn
tribucin discreta fpk gk=1 . Supongamos que cada llegada es de tipo i con probabilidad pi , independiente de las dems llegadas. Sea Ni (t) el nmero de llegadas
del tipo i hasta el tiempo t. Esto es
N (t)

Ni (t) =

i Xk

k=0

donde
ij

0
1

si i 6= j
si i = j.

Entonces fN1 (t) ; t 0g ; : : : ; fNn (t) ; t 0g son procesos de Poisson independientes con parmetros p1 ; : : : ; pn respectivamente.

10.

Proceso de Poisson no homogneo

Denicin 9 (Proceso de Poisson no homogneo con intensidad (t))


Una coleccin de variables aleatorias fN (t); t 0g se llama proceso de Poisson no homogneo con intensidad (t) si satisface las siguientes propiedades:
a) P(N (0) = 0) = 1.
22

b) N (t) tiene incrementos independientes.


k e

c) 8 0 < s < t se tiene que P (N (t) N (s) = k) = ( (t)


(s))
k = 0; 1; 2; : : :. Esto es N (t) N (s) P ( (t)
(s)), donde
decreciente y (0) = 0.

( (t)

(s))

k!

(t) es no

Veamos la distribucin del tiempo del primer evento (T1 ) en un proceso de


Poisson de intensidad (t).
P (T1

t)

P (N (t)

P (N (t) = 0)

1)

(t)

FT1 (x) = 1

(t)

Esto es
Si

(t) es diferenciable en t con derivada


fT1 (t) =

(t) e

(t), entonces
(t)

Notemos que un Proceso de Poisson homogneo es un caso particular de un


Proceso de Poisson no homogneo, tomando (t) = t.
En general es usual proponer
Z t
(t) =
(s) ds,
0

donde

(s)

0 8 s.

23

También podría gustarte