Documentos de Académico
Documentos de Profesional
Documentos de Cultura
NotasParte1 3 PDF
NotasParte1 3 PDF
ndice
1. Introduccin
2
2
2
3. Proceso de Conteo
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
9
13
15
16
7. Denicin equivalente
16
20
20
22
* Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano de
Probabilidad y Estadstica, en julio de 2009 y 2010.
1.
Introduccin
2.
2.1.
n k
p (1
k
n k
p)
para toda r
( ) = l m P (X = k) =
n!1
ke
(1)
k!
2.2.
x n
n
= ex .
Distribucin de Poisson
( )=
2
ke
k!
donde
> 0.
P( )
1. E (X) = .
2. V ar (X) = .
3. La funcin generadora de momentos de X
P( )
t
(t) = e (e
1)
Teorema 2 (Teorema de Aditividad Numerable) Sea fXj gj=1 una sucesin de variables aleatorias independientes, donde Xj P ( j ) j = 1; 2; : : :.
Si
1
X
=
j
j=1
converge, entonces
S=
1
X
Xj
j=1
n
X
Xj
n
X
j.
j=1
tiene distribucin P (
n)
donde
n
j=1
fSn
fS
rg
fSn+1
1
\
rg =
rg, de donde
fSn
n=1
rg
y por tanto1
P (S
r)
=
=
=
=
l m P (Sn
lm
n!1
lm
n!1
r
X
k=0
Si
r)
n!1
r
X
P (Sn = r)
k=0
r
X
n)
n) .
k=0
lm
n!1
P (S
r) =
r
X
( )
k=0
P (S = r) =
( ).
r)
r
X
( )
k=0
= e
r
X
k=0
k
n
k!
! 0.
Entonces
P (S > r) = 1.
1 Si
An 2 F , n
n
Y
rj
j e
e
s!
rj !
j=1
s!
r1 !
r1
rn
n
rn !
E (X)
.
E (X) + E (Y )
Hay un resultado muy til, que parecera ser el converso del anterior. Supongamos que N P ( ) ; y que la distribucin condicional de M dado N es B (N; p)
para alguna constante p. Esto es
P (M = t j N = s) =
Entonces, para m; k
P (M = m; N
s t
p (1
t
s t
p)
0,
M = k)
=
=
=
=
=
=
P (N = m + k) P (M = m j N = m + k)
m+k
e
(m + k)!
m+k m
p (1
m
p)
m+k
e
(m + k)! m
k
p (1 p)
(m + k)! k!m!
1 m
k
e p e (1 p) m k
p (1 p)
k!m!
k
e p m pm e (1 p) k (1 p)
m!
k!
m
k
p
(1 p)
e
( p) e
( (1 p))
.
m!
k!
3.
Proceso de Conteo
0.
N (t).
4.
(t
0<s<t
s).
N (t)
iii) 8 0 t1 <
< tn ; n 1 (es decir, para todo conjunto nito de tiempos), las variables aleatorias N (tn ) N (tn 1 ); : : : ; N (t2 ) N (t1 ); N (t1 ),
son independientes. Esta propiedad se conoce como propiedad de incrementos independientes.
Observemos que 8t
0, la variable aleatoria N (t) tiene distribucin de
Poisson de parmetro t. Por (ii) tenemos que N (t) N (0)
P ( (t 0)), y
por (i) tenemos que N (0) 0, lo que nos dice que N (t) P ( t).
Ahora, 80 < s < t tenemos por (ii) que N (t) N (s)
P ( (t s)) y
por lo anterior, N (t s) P ( (t s)): Podemos darnos cuenta entonces que la
6
0g
N (s)
0) =
1
X
P(N (t)
s)
N (s) = k) = 1,
k=0
5.
5.1.
Tiempos de llegada
Podemos darnos ahora una idea de cmo se ven las trayectorias de un proceso
de Poisson, y una pregunta que debemos hacernos es qu distribucin tienen los
tiempos de llegada del proceso?, entendiendo por tiempos de llegada los tiempos
en los que ocurre un xito.
Para poder ver la distribucin de los tiempos de llegada, es necesario asociarles una variable aleatoria. Queremos que el tiempo del primer xito sea el t ms
pequeo para el que N (t) = 1, esto es, podemos denir el tiempo del primer
xito como
T1 = nf ft 0; N (t) = 1g .
Ahora, queremos que dado un m 1 el m-simo tiempo de llegada sea el t ms
pequeo para el que N (t) = m, entonces podemos denir el tiempo del m-simo
xito de la misma forma que antes, pues el proceso es no decreciente,
Tm = nf ft
0; N (t) = mg .
Proposicin 1 8t
tg = fN (t)
mg.
m ) N (t)(! 0 )
N (Tm (! 0 ))(! 0 ).
Tm (! 0 ), es decir ! 0 2
Sea ! 0 2 fTm
tg. Entonces
Tm (! 0 )
es decir, ! 0 2 fN (t)
t ) N (Tm (! 0 ))(! 0 )
)
N (t)(! 0 )
) fTm
tg
fN (t)
mg.
) fTm
tg = fN (t)
mg
N (t)(! 0 )
mg:
tg = fN (t)
t)
P(T1
1g,
= P(N (t)
=
> 0.3
1)
P(N (t) = 0)
e t
( t)0
0!
e t,
E( ).
1
(m)
m 1
2 Recordar
si t 0
.
de otra forma
P(Tm
= P(N (t)
=
m)
P(N (t)
m
X1
1)
P(N (t) = k)
k=0
m
X1
( t)k
e
k!
k=0
Derivando obtenemos
fTm (t)
d
dt
e
m
X1
k=0
( t)
k!
m
X1
( t)k
k!
k=0
m 1
1
(m)
( t)
(m 1)!
m m 1
!
t
m
X1
k 1
k=1
k=0
( t)k
k!
( t)k
k!
m
X1
m
X1
k=0
m
X1
( t)
k!
!
k 1
( t)
(k 1)!
k=1
!
m
X2 ( t)k
k!
k=0
5.2.
= nf fs > t : N (s)
2,
: : :,
N (t) = 1g
son independientes y con la misma
s1 ;
< s2 ) = P(
s1 )P(
s2 ).
P(
s1 ;
s2 )
= P(T1
s1 ; T2
T1
= P(T1
s1 ; T2
s2 + T1 )
P(T1
s1 ; T2
s1 + s2 )
k1 =1
1
X
k1 =1
1
X
1
X
k1 =1 k2 =k1 +1
1
1
X
X
2)
k2 =2
k1 <k2
1
X
s2 )
N (s1 ) = k2
k1 =1 k2 =k1 +1
s1 ;
1
X
s2 ) =
1
X
k1 =1 k2 =k1 +1
s1 ;
s2 )
1
X
1
X
k1 =1 k2 =k1 +1
1
1 X
X
k1 )
k1 =1 k2 =1
1
X
P(N (s1 ) = k1 )
k1 =1
(1
P(N (s1 ) = 0) (1
e
s1
1
X
P(N (s2 ) = k2 )
k2 =1
P(N (s2 ) = 0)
s2
s1 ;
s1 ;
s2 ) = 1
s1
s2
(2)
E( ), entonces
2
s2 )
P(T1
s1 ) 1
s2
P(
s1 ) 1
s2
10
k1 )
s1 "1
s1 ;
s2 ) = P(
s2 ),
y como
l m P(T1
s1 ) = 1,
s1 "1
tenemos que
P(
s2 ) = 1
s2
80 < s1 < 1
E( ).
Entonces
P(
esto es,
E ( ).
s1 ;
s2 ) = P (
s1 ) P (
si ; 1
n) =
n
Y
n
Y
si ) =
i=1
s2 ) ,
s1 ; 1
n + 1)
1;
Ti
P (Ti
0
si + Ti
P @Ti
si ; 1
n + 1)
;1
n + 1)
i 1
X
i
X
sj ; 1
0
1
i
X
P @N @
sj A
j=1
<kn+1
<kn+1
<kn+1
11
i; 1
P @N @
0
i
X
j=1
i
1
sj A
0
1
i
X
P @N @
sj A
0
n + 1A
n + 1A
n+1
j=1
1 k1 <
sj ; 1
j=1
P @Ti
1 k1 <
si +
1 k1 <
P (Ti
si
i=1
E( ) para
j=1
0
1
i
X
P @N @
sj A
j=1
n + 1A
ki ; 1
ki ; 1
n + 1A
n + 1A
0
1
i 1
X
N@
sj A
j=1
ki
i 1
X
j=1
kj ; 1
n + 1A
s1 ; 1
n+1
Y
n+1) =
1 k1 <
<kn+1 i=1
s1 ; 1
0
1
i
X
P @N @
sj A
n + 1) =
j=1
P @N (si )
<kn+1 i=1
1 k1 <
s1 ; 1
n + 1)
j=1
n+1
Y
0
1
i 1
X
N@
sj A
1
X
n+1
Y
ki
j=1
P (N (si )
k1 ;:::;kn+1 =1 i=1
n+1
Y
1
X
i=1
n+1
Y
kj A
ki )
P (N (si )
k)
k=1
(1
i 1
X
P (N (si ) = 0))
i=1
n+1
Y
si
i=1
si ; 1
n + 1) =
n+1
Y
si
i=1
si ; 1
n) =
n
Y
si
i=1
entonces
P(
si ; 1
n
Y
n + 1) =
P(
si )
i=1
sn+1
si ; 1
n + 1)
lm
s !1
i
n
Y
P(
1 i n i=1
1 i n
P(
n+1
sn+1 )
=
12
sn+1
si ) 1
sn+1
ki
i 1
X
j=1
kj A
Por lo tanto, 8 n
1, las variables aleatorias 1 ; : : : ;
tienen la misma distribucin exponencial E ( ).
son independientes y
m
X
k,
(3)
k=0
entonces, como E ( ) = G 1; 1 y la suma de n variables aleatorias independientes con la misma distribucin G (k; ) tiene distribucin G (nk; ), tenemos
que
1
Tm G m;
.
Ejercicio 4 Probar (3).
5.3.
Denicin 5 (Tiempo de prxima falla) Dado un tiempo t queremos estudiar el tiempo que tardaremos en tener otra falla. Denamos
t
:= nf fs
0 ; N (s + t)
N (t) = 1g
= P(
> s + h)
= P(
> t + s + h)
= P(
> t + s ; N (t + s + h)
N (t + s) = 0) .
= P(
> t + s) P (N (t + s + h)
= P(
> s) P (N (h) = 0)
= g(s)e
N (t + s) = 0)
5 Esto
13
As,
h
g(s) e
g(s + h) g(s)
=
h
h
y tomando lmites nos queda que
g 0 (s)
lm
g(s) e
h!0
= g (s) l m
h!0
g (s) .
g (s) = ke
k 2 R;
y tambin que
g (0) = P (
> 0) = 1.
Entonces
P(
> s) = e
por lo tanto
P(
Esto es, 8t
s) = 1
s > 0.
0
t
P (X > t) = e
t) = 1
0. Entonces
P (T > t + s j T > s)
=
=
=
P (T > t + s ; T > s)
P (T > s)
P (T > t + s)
P (T > s)
(t+s)
= e
e
t
= P (T > t) .
Por lo tanto X
5.4.
Denicin 6 (Tiempo desde ltima falla) Dado un tiempo t queremos estudiar el tiempo que ha pasado desde la ltima falla. Denamos
lt := nf fs
0 : N (t)
N (t
s) = 0g
s) = 1
80
s < t.
= P (N (t)
N (t
t) = 0)
= P (N (t) = 0)
= P (T1
= e
t)
s) = P (N (t)
s<t
N (t
s)
1)
y
P (lt > s)
= P (N (t)
N (t
s) = 0)
= P (N (s) = 0)
= P (T1
= e
s)
entonces
P (lt
s) = 1
15
6.
Proposicin 8 Sean U
U (0; 1) y
> 0. Entonces
ln (1
x
x
0
0.
U)
E ( ).
ln (1
ln (1
U)
U)
1
0
P (ln (1
U)
x)
P 1
P U
Recordemos que
x
0
FU (x) =
0 x 1
en otro caso,
entonces
P U
como queramos.
Por lo tanto
ln (1
U)
1
0
x
x
0
0,
E ( ).
La proposicin anterior nos muestra un mtodo para simular en una computadora una variable aleatoria con distribucin E ( ) usando un generador de
nmeros aleatorios uniforme en (0; 1). Entonces,
como en un proceso de Poisson
Pm
de parmetro > 0, m E ( ) y Tm = k=0 k , podemos simular los tiempos
de llegada como una suma de variables aleatorias exponenciales E ( ).
7.
Denicin equivalente
N (t) = 1) = h + o (h).
16
b) P (N (t + h)
Observaciones:
La condicin 4.a nos dice que la probabilidad de que ocurra exactamente
un evento en un intervalo de tiempo pequeo, es "proporcional.a la longitud del intervalo.
La condicin 4.b nos dice que la probabilidad de que ocurran dos o ms
eventos en un intervalo de tiempo pequeo es despreciable.
N (t) = 1)
= P (N (h) = 1)
=
( h) e
h+ h e
Luego, como
lm
h e
h!0
lm e
h!0
1 = 0,
tenemos que
P (N (t + h)
N (t) = 1) = h + o (h) .
b)
P (N (t + h)
N (t) > 1)
P (N (h) > 1)
1
h
X
k e
=
( h)
k!
k=2
y como
k e
lm
h!0
( h)
hh
k!
tenemos que
lm
h!0
esto es,
l m hk
k! h!0
1
X
( h)
k=2
P (N (t + h)
hk
=0 k
e
k!
= 0,
P (N (t + h) = 0)
P (N (t) = 0 ; N (t + h)
P (N (t) = 0) P (N (t + h)
f (t; 0) (1
P (N (t + h)
f (t; 0) (1
(P (N (t + h)
f (t; 0) (1
(( h + o (h)) + o (h)))
f (t; 0) (1
( h + o (h)))
f (t; 0) (1
h + o (h)) .
N (t) = 0)
N (t) = 0)
N (t)
1))
N (t) = 1) + P (N (t + h)
Tenemos entonces
lm
h!0
f (t + h; 0)
h
f (t; 0)
f 0 (t; 0)
f (t; 0) (
lm
h!0
h + o (h))
h
f (t; 0) ,
de donde
f (t; 0) = e
(f (t; n
18
1)
f (t; n)) .
f (t + h; n)
= P (N (t + h) = n)
n
X
=
P (N (t) = n k ; N (t + h)
=
k=0
n
X
P (N (t) = n
N (t) = k)
k) P (N (t + h)
N (t) = k)
k=0
1) P (N (t + h)
k=2
= f (t; n) (1 P (N (t + h) N (t)
1
X
e t
n k
o (h)
( t)
+
(n k)!
1)) + f (t; n
1) ( h + o (h))
k=2
= f (t; n) (1
(P (N (t + h)
+ h f (t; n
= f (t; n) (1
N (t) = 1) + P (N (t + h)
1) + o (h)
(( h + o (h)) + o (h))) + h f (t; n
= f (t; n) + h (f (t; n
1)
1) + o (h)
Entonces
lm
h!0
f (t + h; n)
h
f (t; n)
d
f (t; n)
dt
n+1
( t)
e t
(n + 1)!
=
=
lm
h (f (t; n
1)
h!0
(f (t; n
1)
t
n e
0, f (t; n) = ( t)
n!
f (t; n)) .
.
n+1
d n+1
t
e
(n + 1)! dt
n+1
=
=
(n + 1)!
( t)
(n + 1) tn e
t
e
n!
n+1
( t)
tn+1 e
e t
(n + 1)!
Luego, por el Teorema de Existencia Unicidad de solucin de ecuaciones diferenciales, tenemos el resultado.
Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parmetro (de
acuerdo con las denicin (3).
) Las dos deniciones son equivalentes.
19
N (t) = 1)
8.
Teorema 5 Sean fN1 (t) ; t 0g y fN2 (t) ; t 0g procesos de Poisson independientes con parmetros 1 y 2 respectivamente. Sea N (t) = N1 (t) +
N2 (t) ; t 0. Entonces fN (t) ; t 0g es un proceso de Poisson de parmetro
1 + 2.
Demostracin. ClaramentePN (0) 0.
Pn
n
Recordemos que si Sn = i=1 Xi y Xi P ( i ), entonces Sn P ( i=1 i ).
Entonces 8t 0 tenemos que N (t) P (t ( 1 + 2 )).
Recordemos tambin que si tenemos fAi g y fBi g dos sucesiones de variables
aleatorias independientes, independientes entre s, entonces fAi + Bi g es una
sucesin de variables aleatorias independientes.
Esto nos dice que N (t) tiene incrementos independientes, pues dados t0 =
0 < t1 < t2 <
< tn tenemos que fNi (tj ) Ni (tj 1 ) ; j = 1; : : : ; ng i = 1; 2
son independientes, y por tanto N (tj ) N (tj 1 ) ; j = 1; : : : ; n tambin lo son.
Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parmetro 1 + 2 .
Corolario 3 Sean fN1 (t) ; t 0g ; fN2 (t) ; t 0g ; : : : ; fNn (t) ; t 0g procesos de Poisson
con parmetros 1 ; 2 ; : : : ; n respectivamente.
Pindependientes
n
Sea N (t) =
N
(t)
;
t
0. Entonces fN (t) ; t 0g es un proceso de
k=1 kP
n
Poisson de parmetro k=1 k .
9.
X (t) =
Xi
i=1
20
Demostracin. Sea f k gk
parmetro p1 . Entonces
N1 (t) =
k=1
y
N (t)
N2 (t) =
(1
k)
= N (t)
N1 (t) .
k=1
Es claro que N1 (t) y N2 (t) tienen incrementos independientes y estacionarios, pues N (t) los tiene. Adems tambin es fcil darse cuenta de que P (Ni (t + h)
o (h), pues P (N (t + h) N (t) > 1) = o (h) y Ni (h) = s ) N (t) s.
Veamos que para h pequea P (N1 (t + h) N1 (t) = 1) = p1 h + o (h).
0
1
N (t+h)
N (t)
X
X
A
P (N1 (t + h) N1 (t) = 1) = P @
k
k =1
0
k=1
k=1
N (t+h)
= P@
= 1A
N (t)+1
= P (N (t + h)
N (t) = 1 ;
= P (N (t + h)
0g y fN2 (t) ; t
( h + o (h)) p1
p1 h + o (h) .
s1 ; N2 (t)
s2 )
= 1)
k
= 1)
N2 (t) = 1) = p2 h + o (h).
N (t) = 1) P (
Ni (t) > 1) =
s1
X
0 y s1 ; s2 2 R.
k1 =0
s1 X
s2
X
s2 )
k1 =0 k2 =0
21
k1 + k2 k1 k2
p1 p2
k1
entonces
P (N1 (t)
s1 ; N2 (t)
s2 )
s2
s1 X
X
e t
k1 + k2 k1 k2
k +k
p1 p2 ( t) 1 2
k1
(k1 + k2 )!
k1 =0 k2 =0
s2
s1 X
X
k1 =0 k2 =0
s2
s1 X
X
k1 =0 k2 =0
s2
s1 X
X
1
k
k
pk1 ( t) 1 pk22 ( t) 2 e
k1 !k2 ! 1
( p1 t)
k1
p1 t
k1 !
P (N1 (t) = k1 )
k1 =0
k2
p2 t
k2 !
k1 =0 k2 =0
s1
X
( p2 t)
(p1 +p2 )t
P (N1 (t)
s1 ) P (N2 (t)
s2
X
P (N2 (t) = k2 )
k2 =0
s2 ) .
Ni (t) =
i Xk
k=0
donde
ij
0
1
si i 6= j
si i = j.
Entonces fN1 (t) ; t 0g ; : : : ; fNn (t) ; t 0g son procesos de Poisson independientes con parmetros p1 ; : : : ; pn respectivamente.
10.
( (t)
(s))
k!
(t) es no
t)
P (N (t)
P (N (t) = 0)
1)
(t)
FT1 (x) = 1
(t)
Esto es
Si
(t) e
(t), entonces
(t)
donde
(s)
0 8 s.
23