Está en la página 1de 19

Probabilidad y Estad´ ıstica (Borradores, Curso 23) Proceso de Poisson

Sebastian Grynberg 2 de mayo de 2011

ollin tonatiuh el tiempo solo es tardanza ´ de lo que esta por venir ´ (Mart´ Fierro) ın 1

. . . . . . . esto es. . . . . . . . . . Proceso puntual de Poisson Procesos puntuales Informalmente. . . El ejemplo b´sico de este tipo de procesos es el proceso de Poisson. . . Superposici´n de Procesos de Poisson: competencia o 1. . . . .1. . . . . . . . . . . . . En la mayor´ de las aplicaciones un punto de un ıa proceso puntual es el instante en que ocurre algun evento. . . . . . . Por ejemplo. . . . Proceso puntual de Poisson 1. Procesos puntuales .3. . . . . . . . . un proceso puntual aleatorio es un conjunto enumerable de puntos aleatorios ubicados sobre la recta real.1 (Proceso puntual aleatorio). .5.´ Indice 1. Procesos de Poisson . . . . . La condici´n (c) significa que o a o no hay explosiones. . . . . Coloraci´n y adelgazamiento de procesos de Poisson o 1. . . . . . . 2. 1.7. 1. . . . . . (a) S0 ≡ 0. a Definici´n 1. Distribuci´n condicional de los tiempos de llegada . . . . . . Procesos de Poisson compuestos . ´ (1) 2 . . . o 1. . . no hay una acumulaci´n de arribos en tiempos finitos. . . . . . . . . . . un evento podr´ ser el instante en que ocurre una ıa ıa falla. . . . .1. . . ´ casi seguramente. . . . .2. . En teor´ fiabilidad. . . . . . . . . . . . . . . . . . . . . . Bibliograf´ consultada ıa . . . . ım La condici´n (b) significa que no hay arribos simult´neos. . .6. . (c) l´ n→∞ Sn = +∞. . . . motivo por el cual los puntos ´ tambi´n se llaman eventos o arribos. . los tiempos de arribo de clientes a la e caja de un supermercado o de los trabajos al procesador central de una computadora son procesos puntuales. Un proceso puntual aleatorio sobre la semio recta positiva es una sucesion {Sn : n ≥ 0} de variables aleatorias no negativas tales que. . (b) 0 < S1 < S2 < · · · . . . . o La sucesi´n de variables aleatorias {Tn : n ≥ 1} definida por o Tn := Sn − Sn−1 se llama la sucesion de tiempos de espera entre arribos. . . 2 2 4 5 11 12 15 16 19 1. . . . . . .4. 1. . o 1. . . Construcci´n . . . . .

T2 . de la siguiente manera: para cada t ≥ 0 definimos N (t) como la cantidad de arribos ocurridos durante el intervalo de tiempo (0. 3 (7) (6) . . De all´ se desprende que ı N (t) = n ⇐⇒ Sn ≤ t < Sn+1 . T1 . . Introducimos una familia de nuevas variables aleatorias N (t). . N (s. t] ⊂ R+ . . Indicaremos esa relaci´n de la siguiente manera o N (t) = Ψ(t. donde Ψ es la relaci´n definida en (2). t]. t]. . t ≥ 0. ). . a valores enteros no negativos. Notar que N (t) es una funci´n de t y de las variables aleatorias o o T1 . T2 .N (t) 5 4 3 2 1 S1 T1 T2 S2 T3 S3 T4 S4 T5 S5 t Figura 1: Realizaci´n t´ o ıpica de un proceso puntual aleatorio sobre la semi-recta positiva. t] := N (t) − N (s) = 1{s < Sn ≤ t}. (5) n≥1 (4) De (3) se obtiene la relaci´n b´sica que conecta a las variables N (t) con las Sn : o a N (t) ≥ n ⇐⇒ Sn ≤ t. X N (t) := 1{Sn ≤ t} (2) n≥1 = m´x{n ≥ 0 : Sn ≤ t}. o La cantidad de arribos ocurridos durante el intervalo de tiempo (s. a (3) Observaci´n 1. es el incremento N (t) − N (s) X N (s.2.

. . y (b) Si A1 .Proceso de conteo. la distribuci´n de los incrementos e o depende solamente de la longitud del intervalo de tiempo pero no de su posici´n) y (b) la o la Definici´n 1. el gr´fico de la funci´n aleatoria N : R+ → N0 es una escalera no a o decreciente. Por definici´n. (ii) N (0) = 0 y l´ t→∞ N (t) = ∞. . 0 ≤ s < t. (8) Nota Bene. . a o Debido a que la sucesi´n de arribos se puede reconstruir a partir de N . . ım (iii) Si s < t. . la variable aleatoria N (t) tiene valores enteros no negativos. . . la funci´n (aleatoria) N : R+ → N0 o es continua a derecha. t] = n) = e−λ(t−s) (λ(t − s)) . 1. entonces N (s) ≤ N (t). A2 . 1. t] es cerrado a la derecha. Procesos de Poisson Existen varias definiciones equivalentes de procesos de Poisson. Programa. N tambi´n recibe o e la denominaci´n “proceso puntual ”. An ∈ B(Rd ) son conjuntos disjuntos. en los puntos de discontinuidad tiene saltos de longitud 1. t] = N (t) − N (s) tienen la distribuci´n Poisson: o P(N (s. La condici´n (ii) de la Definici´n 1. N (An ) son variables aleatorias independientes. ti ] = N (ti ) − N (ti−1 ).3 (Proceso de Poisson).3 porque tiene la virtud de que se puede extender a Rd sin ninguna dio ficultad: un subconjunto aleatorio (numerable) Π de Rd se llama un proceso de Poisson de intensidad λ si. Un proceso puntual {Sn : n ≥ 0} sobre la semi-recta o positiva es un proceso de Poisson de intensidad λ > 0 si satisface las siguientes condiciones (i) El proceso tiene incrementos independientes : para cada colecci´n finita de tiempos o 0 = t0 < t1 < · · · < tn . . 1 Elegimos 4 .e. En lo que sigue estudiaremos la distribuci´n conjunta de las N (t) bajo ciertas o condiciones sobre los tiempos de espera entre arribos Tn y vice versa. a En otras palabras. (iv) Como el intervalo (0. i = 1. N (A2 ). para todo A ∈ B(Rd ). Adem´s. Adoptamos la que nos parece m´s sencilla y generalizable. 1 a Definici´n 1. La familia de variables aleatorias {N (t) : t ≥ 0} es un proceso estoc´stico denominado el proceso de conteo de la sucesi´n de arribos {Sn : n ≥ 0}. . . el proceso de conteo satisface las siguientes propiedades: o (i) Para cada t ≥ 0. n son independientes. . . n! n = 0.3 se puede descomponer en dos partes. o o (a) Los incrementos son temporalmente homog´neos (i. continua a derecha y con saltos de longitud 1 en cada uno de los arribos del proceso puntual. (ii) Los incrementos individuales N (s. o Propiedades. . los incrementos N (ti−1 . entonces o ´ N (A1 ). . las variables aleatorias N (A) = |Π ∩ A| satisfacen (a) N (A) tiene la distribuci´n Poisson de para metro λ|A|. .2.

k! k! k=0 k=n 5 . 2. Sea {Tn : n ≥ 1} una sucesion de variables aleatorias independientes. o 1. 2. Por lo tanto. entonces las variables Sn tienen distribuci´n Γ(n. de la relaci´n b´sica (6) se deduce que si {Sn : n ≥ 0} es un proceso de o a Poisson de intensidad λ. cada ´ una con distribuci´n exponencial de intensidad λ. En otras palabras. P(Tn > 0) = 1 y por la ley fuerte de los grandes Pn 1 numeros 1 i=1 Ti → λ casi seguramente. el proceso as´ obtenido es independiente de todo lo que ocurri´ previamente (por tener incrementos ı o independientes) y que tiene la misma distribuci´n que el proceso original (por ser tempoo ralmente homog´neo). . se construyen utilizando una sucesi´n de o variables aleatorias a valores positivos {Tn : n ≥ 1}: n X S0 := 0. o Demostraci´n. Sn . .3). k! 1. {Sn : n ≥ 0} es un proceso ´ n puntual. En efecto. Los arribos. los tiempos de espera entre arribos tienen que ser variables aleatorias independientes. λ): o n−1 X n−1 X P(Sn > t) = P(N (t) < n) = k=0 P(N (t) = k) = k=0 e−λt (λt)k . Construcci´n o En lo que sigue mostraremos una forma de construir un proceso puntual de Poisson {Sn : n ≥ 0} de intensidad λ. Sn = T1 + · · · + Tn tiene distribuci´n o Γ(n. Esto ultimo es consistente con la condici´n sobre la distribuci´n que tienen los a ´ o o incrementos individuales (8). El proceso de arribos {Sn : n ≥ 0} o definido en (9) es un proceso puntual de Poisson de intensidad λ. Proceso Puntual. bajo esas condiciones. Sn := i=1 Ti . Que un proceso puntual sea temporalmente homog´neo y que tenga incrementos indee pendientes significa que si se lo reinicia desde cualquier instante de tiempo t. (9) Teorema 1. cada una con distribuci´n exponencial del mismo o ´ par´metro. Distribuciones Poisson. Para cada n ≥ 1. n = 1. λ): ! ! n−1 ∞ X (λt)k X (λt)k FSn (t) = P(Sn ≤ t) = 1 − e−λt 1{t ≥ 0} = e−λt 1{t ≥ 0}. el proceso no tiene memoria. . (Ver la Definici´n 1.distribuci´n de cada incremento individual es Poisson de media proporcional a la cantidad o de tiempo considerado. e Es de suponer que. Para cada n ≥ 1. .3.4.

. (13) Para probarlo condicionaremos sobre la variable Sn . para cada t > 0 fijo. S n+1 − t > t1 ) = P(Sn ≤ t. y as´ siguiendo. son variables aleatorias independientes y que (t) (t) (T1 . la tercera se obtiene condicionando sobre 6 . . El tiempo de espera desde t hasta el primer arribo posterior a t es SN (t)+1 − t. . T2 . Tn+1 > t1 + t − Sn ) Z t = P(Tn+1 > t1 + t − s)fSn (s)ds 0 Z t −λt1 P(Tn+1 > t − s)fSn (s)ds = e 0 = e P(Sn ≤ t. el tiempo de espera entre el primer y el segundo arribo posteriores a t es TN (t)+2 . . (t) P(N (t) = n. 1. T3(t) := TN (t)+3 . T2 . . el incremento N (t) tiene una distribuci´n Poisson de o media λt: N (t) ∼ P oisson(λt). . (11) definen los tiempos de espera entre arribos posteriores a t. (10) = e−λt = e−λt − e−λt k! k! n! k=0 k=0 Por lo tanto. . P´rdida de memoria. . T 1 . . n = 0. vale que (t) (t) P(N (t) = n. . . . . parece intuitivamente claro que condicionando al evento {N (t) = o n} las variables aleatorias (11) son independientes y con distribuci´n exponencial. (12) Basta mostrar que para todo n ≥ 0 y para toda elecci´n de numeros positivos t1 .Observando que {N (t) = n} = {N (t) < n + 1} \ {N (t) < n} y usando la relaci´n b´sica. o a N (t) < n ⇐⇒ Sn > t. . ) ∼ (T1 . −λt1 Para obtener la segunda igualdad hay que observar que {Sn+1 > t} ∩ {Sn+1 − t > t1 } = {Sn+1 > t1 + t} y escribir Sn+1 = Sn + Tn+1 . T1 > t1 ) = P(Sn ≤ t < Sn+1 . Tm > tm ) = P(N (t) = n)e−λt1 · · · e−λtm . . T 2 . o ´ m ∈ N. . Por (3) tenemos que SN (t) ≤ t < SN (t)+1 . . se deduce que P(N (t) = n) = P(N (t) < n + 1) − P(N (t) < n) = P(Sn+1 > t) − P(Sn > t) n n X (λt) X (λt) (λt) . . o (t) (t) En lo que sigue mostraremos que N (t). T 1 > t1 . . . . ). Tn+1 > t − Sn ) = P(N (t) = n)e−λt1 . Fijamos t > 0 y consideramos los arribos posteriores al instante e t. . . 3. Debido a la independencia de las Tk y la propiedad de p´rdida de memoria de la e distribuci´n exponencial. tm . (t) T2 := TN (t)+2 . . De este modo ı T1(t) := SN (t)+1 − t.

. Usando (16) se concluye que (N (t2 ) − N (t1 ). . < tn . T 1 . . Tm > tm ) = P(Sn ≤ t < Sn+1 . De acuerdo con (12) o o {N (t + s) − N (t) : s ≥ 0} ∼ {N (s) : s ≥ 0}. . . . N (t3 − t1 ) − N (t2 − t1 ). tenemos que o N (t1 ) y (N (t2 ) − N (t1 ). As´ ı (t) (t) N (t + s) − N (t) = m´x{m : T 1 + · · · + Tm ≤ s}. . N (tn − t1 ) − N (tn−1 − t1 )). T 2 . ). . Por la independencia de las variables Tn . . En otras e o palabras. . Por (6). . a (14) Comparando (14) y (3) se puede ver que para t fijo las variables aleatorias N (t + s) − N (t) para s ≥ 0 se definen en t´rminos de la sucesi´n (11) exactamente de la misma manera en e o que las N (s) se definen en t´rminos de la sucesi´n original de tiempos de espera. . . N (t + s) − N (t) ≥ m. . (t) (t) N (t + s) − N (t) = Ψ(s. . N (tn ) − N (tn−1 )) son independientes. . se obtiene la la independencia de los incrementos para el caso en que n = 2: P(N (t1 ) = m1 . N (t3 ) − N (t2 ). . . . . Sn+1 − t > t1 . . N (t2 ) − N (t1 ) = m2 . . Como (N (t2 ) − N (t1 ). N (tn ) − N (tn−1 )) es una funci´n de {N (t1 + s) − N (t1 ) : s ≥ 0}. 7 (17) . Sn+1 − t > t1 )e−λt2 · · · e−λtm = P(N (t) = n)e−λt1 · · · e−λtm . la cuarta se obtiene usando la propiedad de p´rdida de memoria de la exponencial e (P(Tn+1 > t1 + t − s) = P(Tn+1 > t1 )P(Tn+1 > t − s) = e−λt1 P(Tn+1 > t − s)). Tn+m > tm ) = P(Sn ≤ t < Sn+1 . . (15) donde Ψ es la funci´n definida en la Observaci´n 4. . . se deduce que N (t) y {N (t + s) − N (t) : s ≥ 0} son independientes. Tn+2 > t2 . . N (tn ) − N (tn−1 ) = mn ) = P(N (t1 ) = m1 )P(N (t2 ) − N (t1 ) = m2 . (16) De (15) y lo visto en 3. . . P(N (t1 ) = m1 . Incrementos estacionarios e independientes. (t) (t) P(N (t) = n. . o N (t+s) ≥ N (t)+m. . . si y solo si SN (t)+m ≤ t+s. Esto es. . T1 > t1 . N (t2 ) − N (t1 ) = m2 ) = P(N (t1 ) = m1 )P(N (t2 ) − N (t1 ) = m2 ). 4. N (tn ) − N (tn−1 )) ∼ (N (t2 − t1 ). N (tn ) − N (tn−1 ) = mn ) En particular. que es la misma cosa que T ( +· · ·+T (t) ≤ s.Sn . . Sean n ≥ 2 y 0 < t1 < t2 < .

t1 + t2 . Esto es. . . k=2 = = = = = Por lo tanto. o (T1 . = ∂tj ∂tj 8 1 ≤ i. Sn ). N (tk ) − N (tk−1 ) = mk . . . . t1 + · · · + tn ) y sus derivadas parciales ∂si ∂ k=1 tk = 1{j ≤ i}. . sn ) ∈ Rn : 0 < s1 < s2 < · · · < sn } y G = {(t1 .El caso general se obtiene por iteraci´n del mismo argumento. sn − sn−1 ). La funci´n inversa h = g −1 es de la forma o h(t1 . . j ≤ n . s2 . entonces P(N (tk ) − N (tk−1 ) = mk . . s2 − s1 . tn ) = (t1 . . . . Sea {Sn : n ≥ 0} un proceso puntual de Poisson de intensidad λ sobre la semi-recta positiva. . En lo que sigue mostraremos que vale la rec´ ıproca. . 3 ≤ k ≤ n) P(N (t2 − t1 ) = m2 )P(N (tk − t1 ) − N (tk−1 − t1 ) = mk . (18) De (18) y (10) se obtienen las dos condiciones que definen a un proceso de Poisson.5. . . 1 ≤ k ≤ n) = n Y k=1 P(N (tk − tk−1 ) = mk ). o Teorema 1. . . . . Sn ) usando el m´todo del Jacobiano. los tiempos de espera entre arribos de un proceso de Poisson de intensidad λ son variables aleatorias independientes cada una con distribuci´n exponencial de intensidad λ. . 3 ≤ k ≤ n) P(N (t2 − t1 ) = m2 . . . definidos en (1). 3 ≤ k ≤ n) P(N (t2 ) − N (t1 ) = m2 )P(N (tk ) − N (tk−1 ) = mk . tn ) : t1 > 0. tn > 0} definida por g(s1 . . La densidad conjunta de T = (T1 . . . Tn ) = g(S1 . donde g : G0 → G es la transformaci´n lineal biyectiva entre los conjuntos abiertos G0 = o {(s1 . . Demostraci´n. . . Tn ) se obtendr´ a partir de la o a densidad conjunta de las variables S = (S1 . . aplicado al lado derecho de o (17): P(N (t2 ) − N (t1 ) = m2 . . . . . . constituyen una sucesion de variables aleatorias independientes cada una con distribuci´n ´ o exponencial de intensidad λ. Los tiempos de espera entre arribos Tn . T2 . . S2 . . . 3 ≤ k ≤ n) ··· n Y P(N (tk ) − N (tk−1 ) = mk ). . . n ≥ 1. N (tk − t1 ) − N (tk−1 − t1 ) = mk . . T2 . e Por definici´n. si 0 = t0 < t1 < · · · < tn . sn ) = (s1 . S2 . . . .

. ... . sn ) = λ e−λsn 1{0 < s1 < · · · < sn }. A = (a 1. Sn ) es f(S1 .Sn ) (s1 . n (20) i=1 La identidad (20) significa que los tiempos de espera entre arribos son independientes cada uno con distribuci´n exponencial de intensidad λ. t > 0} f(T1 . i=1 ti 1{t > 0. . . . . .... .. . Supongamos que 0T b0 ≤ a1 < b1 < a2 < b2 < · · · < an < bn y calculemos la proba= T bilidad del evento n {ai < Si ≤ bi }. S2 ) queda un´ ıvocamente determinada por la relaci´n o Z P(S ∈ A) = fS (s)ds. . N (bi )−N (ai ) = 1}∩{N (an )−N (bn−1 ) = 0. .Tn ) (t1 . Para ello observamos que n {ai < Si ≤ bi } = i=1 {N (ai )−N (bi−1 ) = 0..son continuas en G. tn ) = λ e 1 n n Y = λe−λti 1{ti > 0}.. . . N (bn )−N (an ) ≥ 1} y usamos las propiedades de independencia y homogeneidad temporal que caracterizan a los incrementos de un proceso de Poisson de intensidad λ: ! n \ P {ai < Si ≤ bi } = = i=1 n−1 Y i=1 n−1 Y −λ(ai −bi−1 ) A ! λ(bi − ai )e−λ(bi −ai ) e−λ(an −bn−1 ) (1 − e−λ(bn −an ) ) e i=1 n−1 Y ! λ(bi − ai ) ! λ(bi − ai ) Z Z (e−λan − e−λbn ) bn−1 e−λan (1 − e−λ(bn −an ) ) = Z = Z = a1 a1 b1 i=1 b1 Z λdsn−1 λds1 · · · bn−1 an−1 bn λe−λsn dsn (19) ··· an−1 Z bn an an λn e−λsn ds1 · · · dsn−1 dsn De (19) se deduce que la densidad conjunta de (S1 . Por lo tanto. . b1 ] × · · · (a n . La densidad conjunta de las variables (S1 . . El jacobiano es J (s. t) = ∂si ∂tj =1 debido a que se trata de una matriz triangular inferior con 1’s en la diagonal. . . o 9 . bn ] ⊂ G0. . Bajo esas condiciones tenemos que fT (t) = fS (h(t))1{t ∈ G}. .

(b) B(t) se distribuye como T1 (exponencial de intensidad λ) . En un sistema electr´nico se producen fallas de acuerdo con un proceso de Poisson de o tasa 2. (b) P(T11 > 2) = e−2λ = e−2 ≈ 0. Mostrar que o (a) A(t) y B(t) son independientes. 2. Dar una resoluci´n intuitiva de esta paradoja. Suponga que el flujo de inmigraci´n de personas hacia un territorio es un o proceso de Poisson de tasa λ = 1 por d´ ıa. Ejercicios adicionales 1.133. Por motivos de seguridad se ha decidido cambiarlo cuando ocurran 196 fallas.Ejemplo 1. • • 4. Hallar Cov(T . Esto parece una paradoja debido a que L(t) es uno de los Tn . h Sea L(t) = A(t) + B(t) = SN (t arribos que contiene a t. t ≥ 0} o un proceso de Poisson de tasa 10 (independiente de T ). N (T )). o 10 . h Sea A(t) = t − SN (t el tiempo reverso al evento m´s reciente en un proceso de Poisson y sea B(t) = SN (t)+1 − t el tiempo directo hasta el pr´ximo evento. Sean T una variable aleatoria con distribuci´n exponencial de media 2 y {N (t). (a) Mostrar que L(t) tiene densidad − SN (t) la longitud del intervalo de tiempo entre dt (x) = λ2 xe−λx 1{0 < x < t} + λ(1 + λt)e−λx 1{x ≥ t}.6.5 por mes. (a) ¿Cu´l es el tiempo esperado hasta que se produce el arribo del d´cimo inmigrante? a e (b) ¿Cu´l es la probabilidad de que el tiempo de espera entre el d´cimo y el und´cimo a e e arribo supere los dos d´ ıas? Soluci´n: o (a) E[S10 ] = 10 = 10 d´ ıas. a 3. (b) Mostrar que E[L(t)] converge a 2E[T1 ] cuando t → ∞. Hallar la media y la varianza del tiempo de uso del sistema. t): ın(T P(A(t) ≤ x) = (1 − e−λx )1{0 ≤ x < t} + 1{x ≥ t}. (c) A(t) se distribuye como m´ 1 .

. Demostraci´n. t] deben tener la misma probabilidad de contener al arribo. Sea Π un proceso de Poisson de intensidad λ sobre R+ . t]) P(N (t) = 1) P(1 arribo en (0. t]. . Sea A1 . t]. Condicional al evento N (t) = n. (21) n1 !n2 ! · · · nk ! i t Por una parte la distribuci´n condicional de las posiciones de los n arribos queda compleo tamente caracterizada por esta funci´n de A1 . . para s ≤ t. t]. En otras palabras. a P(T1 < s|N (t) = 1) = = = = = Este resultado puede generalizarse Teorema 1.7 (Propiedad condicional). los n arribos ocurridos en el intervalo [0. . Queremos determinar la distribuci´n del tiempo en que el arribo o ocurri´. En otras palabras. o Por otra parte la distribuci´n multinomial (21) es la distribuci´n conjunta de n puntos o o independientes elegidos al azar de acuerdo con la distribuci´n uniforme sobre el intervalo o [0. . t]. s]. Como el proceso de Poisson es temporalmente homog´neo y tiene incrementos o e independientes es razonable pensar que los intervalos de igual longitud contenidos en el intervalo [0. t] tienen la misma distribuci´n conjunta que la de n puntos independientes elegidos al azar o sobre el intervalo [0. Ak una partici´n del intervalo [0. . N (t) = 1) P(N (t) = 1) P(1 arribo en (0. Esto es f´cil de verificar puesto que.4. Si n1 +n2 +· · ·+nk = o o n. 11 P(T1 < s. t]. A2 . el tiempo en que ocurri´ el arribo debe estar distribuido uniformemente sobre el intervalo o [0.1. t]. Distribuci´n condicional de los tiempos de llegada o Supongamos que sabemos que ocurri´ exactamente un arribo de un proceso de Poisson o en el intervalo [0. t]) P(N (t) = 1) −λs −λ(t−s) λse e λte−λt s t . s])P(0 arribos en (s. cada una con distribuci´n uniforme o sobre el intervalo [0. 0 arribos en (s. . 1 ≤ i ≤ k|N (t) = n) = P(N (t) = n) Q −λ|Ai | (λ|Ai |)ni /ni ! ie = e−λt (λt)n /n! n! |Ai | ni = . Ak . entonces Q i P(N (Ai ) = ni ) P(N (Ai ) = ni . condicional a N (t) = n los puntos en cuestion se ´ distribuyen como n variables aleatorias independientes. .

cada uno con distribuci´n uniforme sobre Ai . (Para m´s detalles a ver el Chap 7 de Ferrari. En consecuencia.5. Cada punto de Π se pinta de rojo con probabilidad p o de negro con probabilidad 1 − p. . 58 1.9 (Coloraci´n). Si entre las 13:30 y las 13:35 aterrizaron 8 insectos. Sea Π un proceso de Poisson de intensidad λ sobre R+ . Galves (2001)) Ejemplo 1. Colo oreamos los puntos de Π de la siguiente manera. Sea λ > 0 y sea A1 . 5]. Coloraci´n y adelgazamiento de procesos de Poisson o Teorema 1. y M (B) = i 1{Ui ∈ B}. Los puntos se pintan independientemente unos de otros. Entonces Π1 y Π2 son procesos de Poisson independientes de intensidades pλ y (1 − p)λ. . respectivamente. Por lo tanto. . como una variable uniforme a sobre el intervalo [0. t]. . La propiedad condicional permite probar la existencia de procesos de Poisson mediante simulaci´n. Se infiere que la distribuci´n conjunta de los puntos en Π ∩ [0. k) = n1 ! · · · nk ! i=1 k |Bi | |Ai | .8 (Insectos en un asado). . . es la misma que la de n puntos independientes elegidos al azar con la distribuci´n uniforme sobre el intervalo [0. i = 1. t] condicional a que hay o exactamente n de ellos.En efecto. Sean Π1 y Π2 los conjuntos de puntos pintado de rojo y de negro. la distribuci´n de cada o o aterrizaje se distribuye. . La uni´n sobre i o o de tales conjuntos de puntos es un proceso de Poisson de intensidad λ. . . Luego muestreamos n puntos elegidos indeo a pendientemente sobre Ai . 12 . respectivamente. Todo tipo de insectos aterrizan en la mesa de un asado a la manera de un proceso de Poisson de tasa 3 por minuto. basta observar que si U1 . la probabilidad de que cada insecto hubiese aterrizado durante el primer minuto es 1/5. . simulamos una variable aleatoria Ni con distribuci´n Poisson de par´metro λ|Ai |. Para cada i.1468 . la probabilidad de que exactamente 3 insectos hayan aterrizado durante el primer minuto es 8 3 1 5 3 4 5 5 = 56 45 = 0. . . o Nota Bene. una partici´n de Rd en conjuntos o o borelianos de medida de Lebesgue finita. independientemente de los dem´s. cu´l es la probabilidad de que exactamente 3 de ellos hayan a aterrizado durante el primer minuto? Soluci´n: Dado que aterrizaron 8 insectos durante 5 minutos. Un son variables aleatorias independientes con P distribuci´n uniforme sobre un conjunto A. . A2 . entonces o n! Y P(M (Bi ) = ni .

la ecuaci´n anterior o se reduce a P(N1 (t) = n. N2 (t) = n2 |N (t) = n) = n! pn1 (1 − p)n2 . N2 (t) = m | N (t) = i)P(N (t) = i) Puesto que P(N1 (t) = n. Condicionando a los valores de N (t) y usando probabilidades totales se obtiene ∞ X P(N1 (t) = n. Los arribos de tipo I (II) son un proceso puntual aleatorio debido a que son una subsucesi´n (aleatoria) infinita de los arribos del proceso original y heredan su propiedad de o independencia para intervalos disjuntos. La independencia de las contadoras de puntos en intervalos disjuntas sigue trivialmente del hecho de que Π tiene esa propiedad. t ≥ 0} y que {N2 (t). Otra prueba. t] son independientes y tienen distribuciones Poisson de intensidades pλt y (1 − p)λt. respectivamente. N2 (t) = m) = P(N1 (t) = n. 1 2 n1 !n2 ! Por lo tanto. Sean N1 (t) y N2 (t) la cantidad de arribos de tipo I y de tipo II que ocurren en [0. (n + m)! . t]. t] de acuerdo con la distribuci´n uniforme. las cantidades N1 (t) y N2 (t) de puntos rojos y negros en el intervalo [0. las cantidades N1 (t) y N2 (t) de puntos rojos y negros en [0. condicional a N (t) = n. Sea t > 0 fijo. la distribuci´n binomial o P(N1 (t) = n1 . N2 (t) = m | N (t) = i) = 0 cuando i = n + m. Por la independencia de los puntos. N2 (t) = m) = P(N1 (t) = n)P(N2 (t) = m). Por tanto. sus colores son independientes unos de los otros. Es claro que N (t) = N1 (t) + N2 (t). t] tienen. si N (t) = n. la probabilidad incondicional es P(N 1 (t) = n 1 . podemos considerar n puntos o elegidos al azar de esa manera. donde n + n = n. N2 (t) = m) = i=0 P(N1 (t) = n. esos puntos o tienen la misma distribuci´n que n puntos independientes elegidos al azar sobre el intervao lo [0. respectivamente. N2 (t) = n 2 ) = = (λt)n1 +n2 (n1 + n2 )! pn1 (1 − p)n2 e−λt n 1!n ! (n1 + n2 )! −(1−p)λt n1 e ((1 − p)λt) n2 −pλt (pλt) e . n2 ! n1 ! Vale decir. conjuntamente. La prueba de que {N1 (t). respectivamente. t ≥ 0} son procesos de Poisson independientes de intensidades pλ y (1 − p)λ. se completa observando que P(N1 (t) = n. Por la propiedad condicional.Demostraci´n. N2 (t) = m | N (t) = n + m)P(N (t) = n + m) = P(N1 (t) = n. N2 (t) = m | N (t) = n + m)e 13 −λt (λt)n+m . Como la probabilidad de que un punto dado sea pintado de rojo es p y la probabilidad de sea pintado de negro es 1 − p se deduce que.

los aterrizajes de moscas ocurren cada tiempos exponenciales independientes de intensidad 2. la probabilidad de que n sean de tipo I (y m sean de tipo II) es la probabilidad binomial de que ocurran n ´xitos en n + m ensayos. cu´l es la probabilidad de que la tercer mosca a tarde m´s de 2 minutos en aterrizar en la mesa? a Soluci´n: Las moscas aterrizan en la mesa a la manera de un proceso de Poisson de o 2 tasa 3 = 2 por minuto. Si a las 13:30 se sirven los chorizos. En consecuencia. Todo tipo de insectos aterrizan en la mesa de un asado a la manera de un proceso de Poisson de tasa 3 por minuto y cada insecto puede ser una mosca con probabilidad 2/3. 500].2381 . independientemente de la naturaleza de los dem´s a insectos.10 (Insectos en un asado). e n+m n+m n m −λt (λt) P(N1 (t) = n.Dado que ocurrieron n + m arribos. o Ejemplo 1. 2). En forma independiente de los dem´s. 900] y cada extracci´n o o como una variable U[100. Por lo tanto. S3 tiene distribuci´n Γ(3. o cu´l es la probabilidad de que se trate de un dep´sito? a o 14 . cada cliente realiza un dep´sito con probabila o idad 1/4 o una extracci´n con probabilidad 3/4. cu´l es la probabilidad de que el segundo a dep´sito se efectu´ pasadas las 10:30? o e (b) Cada dep´sito (en pesos) se distribuye como una variable U[100. o (a) Si el banco abre sus puertas a las 10:00. i! i=0 Ejercicios adicionales 5. Por lo tanto. Si un cliente realiza una operaci´n bancaria de 200 pesos. . De aqu´ se deduce que el tiempo que tarda ı en aterrizar la tercer mosca. A un banco llegan clientes de acuerdo con un proceso de Poisson de intensidad 20 por hora. . n! m! Lo que completa la demostraci´n. N2 (t) = m) = p (1 − p) e n (n + m)! (n + m)! n (λt)n (λt)m = p (1 − p)m e−λpt e−λ(1−p)t (n + m)! n! m! n (λpt) (λ(1 − p)t) = e−λpt e−λ(1−p)t . la probabilidad de o que la tercer mosca tarde m´s de 2 minutos en aterrizar en la mesa es a P(S3 > 2) = e −2·2 3−1 X (2 · 2)i = e−4 (1 + 4 + 8) = 0.

t]| y N2 (t) = |Π2 ∩ [0. . El conjunto Π = Π1 ∪ Π2 es un proceso de Poisson de intensidad λ1 + λ2 . o Sean {N1 (t). t ≥ 0} los procesos de conteo de los procesos de Poisson 1 2 {Sn : n ≥ 0} y {Sn : n ≥ 0}. N (A2 ). ´ Demostraci´n. ım ım n→∞ n→∞ Pero P(Dc ) = P 2n −1 Y 2 \ −1 n ! N1 i i+1 . son independientes. . .11 (Superposici´n). sobre R . . 2n − 1] ´ . N (t) = |Π ∩ [0. Dos procesos de Poisson Π1 = {S 1 : n ≥ 0} y Π2 = {Sn : n ≥ 0} independin entes y de tasas λ1 y λ2 . n 2 2 2n 2 n 15 . 2n 2 n decrece a D cuando n tiende a infinito.12. respectivamente. ≤1 2n 2 n i=1 = i=1 P N1 i i+1 i i+1 . .1. casi seguramente. Sean N1 (t) = |Π1 ∩ [0. donde D(t) es el evento o definido por D(t) := {existen puntos en comun en el intervalo (0. no tienen puntos en comun.12) y la prueba puede omitirse en una primera e lectura. que es lo mismo que decir que Π1 y P12 no tienen puntos en comun. o Teorema 1. t]|. n + N2 . por la continuidad de la probabilidad para sucesiones mon´tonas de eventos. El evento Dn := N1 i i+1 + N2 . Superposici´n de Procesos de Poisson: competencia o El siguiente teorema de superposici´n puede verse como complementario del teorema o de coloraci´n. son intervalos disjuntos las variables aleatorias a ´ N (A1 ). t]| para todo t > 0.6. + N2 2n 2 n i i+1 . t ≥ 0} y {N2 (t). Demostraci´n. o P(D) = l´ P(Dn ) = 1 − l´ P(Dcn ). y por lo tanto. respectivamente. Basta probar que P(D(t)) = 0 para todo t. Entonces N1 (t) y N2 (t) o son variables aleatorias independientes con distribuci´n Poisson de par´metros λ1 t y λ2 t. o a Se infiere que la suma N (t) = N1 (t) + N2 (t) tiene la distribuci´n de Poisson de par´metro o a λ1 t+λ2 t = (λ1 +λ2 )t. ≤1 . Sean Π1 y Π2 +dos procesos de Poisson independientes de o intensidades λ1 y λ2 . 2 Lema 1. M´s aun. . 2n 2n i i + 1 ≥ 2 para algun i ∈ [0. Falta mostrar que. . A2 . t]} ´ Para simplificar la notaci´n lo demostraremos para D = D(1). ´ Este es un paso t´cnico (ver el Lema 1. si A1 .

para cada i vale que e i i+1 i i+1 −n ≤1 = N1 2−n + N2 2 . n ≤1 n n 2 2 2 2 Y el problema se reduce a calcular P (N1 (2−n ) + N2 (2−n ) ≤ 1). Cu´l es la probabilidad de que el primer insecto en aterrizar en la mesa sea una a mosca? Rta. P(J = j) = nencial de intensidad λ1 + λ2 . Moscas y abejas aterrizan en la mesa de un asado a la manera de dos procesos de Poisson independientes de tasas 2 y 1 por minuto. = e−λ1 2 e−λ2 2 λ2 2−n . Procesos de Poisson compuestos Un proceso estoc´stico se dice un proceso de Poisson compuesto si puede representarse a como N (t) X X (t) = Yi i=1 donde {N (t). y se concluye que P(D) = 0. En la situaci´n del Teorema 1. n + N2 . = e−λ1 2 −n −n −n −n P N1 2−n = 1. 16 .13 (Competencia).14 (Insectos en un asado). respectivamente. N 2−n = 0 2−n = 1 = e−λ1 2 e−λ2 2 . ´ Teorema 1. Entonces P(J = j. J y T son independientes. sea T el primer arribo o del proceso N = N1 + N2 y J el ´ ındice del proceso de Poisson responsable por dicho arribo. y T tiene distribuci´n expoo Demostraci´n.Debido a que los procesos son temporalmente homog´neos. N 2−n = 0. P N Por lo tanto. N2 2−n = 0 En consecuencia. 2/3. T ≥ t) = P(J = j)P(T ≥ t) = λj e−(λ1 +λ2 )t . y las variables {Yi . 2n (22) P(D c ) = e−(λ1 +λ2 ) 1 + (λ1 + λ2 )2−n .7. 2−n + N λ1 2−n e−λ2 2 . λ1 + λ2 λj En particular. −n 2−n ≤ 1 = e−(λ1 +λ2 )2 1 + (λ1 + λ2 )2−n . Ejemplo 1. Ver la demostraci´n del Teorema que caracteriza la distribuci´n del o o o m´ ınimo de dos exponenciales independientes.11. (23) La ultima cantidad tiende a 1 cuando n → ∞. i ≥ 1} son iid e independientes de N . La ultima probabilidad ´ puede expresarse como la suma de los siguientes t´rminos e P N P N P N 2−n = 0. 1. en particular T es el primer arribo de NJ . t ≥ 0} es un proceso de Poisson.

Demostraci´n.15. usaremos la f´rmula de la o varianza condicional V(X (t)) = E[V(X (t)|N (t))] + V(E[X (t)|N (t)]). entonces E[X (t)] = λtE[Y1 ]. 17 . Sea X (t) un proceso de Poisson compuesto. Aunque podemos obtener E[X (t)2 ] condicionando sobre N (t). Para calcular la esperanza de X (t) condicionamos sobre N (t): o E [X (t)] = E [E [X (t) |N (t)]] Ahora bien. Si {N (t). E [X (t)] = E [N (t)E[Y1 ]] = E[N (t)]E[Y1 ] = λtE[Y1 ]. V [X (t) | N (t) = n] = V N (t) X i=1 n X Yi | N (t) = n ! Yi | N (t) = n ! Yi por la independencia de Yi y N (t) = V i=1 n X = V i=1 = nV[Y1 ]. t ≥ 0} tiene intensidad λ y las variables Y tienen esperanza finita. Esto implica que E [X (t) | N (t)] = N (t)E[Y1 ] y por lo tanto. E [X (t) | N (t) = n] = E " = E " i=1 n X = E i=1 N (t) X i=1 n X Yi | N (t) = n # Yi | N (t) = n # Yi por la independencia de Yi y N (t) = nE[Y1 ]. entonces. a ´ V(X (t)) = λtE[Y 2 ]. Ahora bien. si las variables Y tienen varianza finita. M´s aun.Lema 1.

cu´l es el tiempo medio de trabajo consumido por a todos los servicios? 18 . 9]. Una part´ ıcula suspendida en agua es bombardeada por mol´culas en movimiento t´rmico e e de acuerdo con un proceso de Poisson de intensidad 10 impactos por segundo. cu´l a es la posici´n media de la part´ o ıcula? 7. i = 1. Supongamos tambi´n que la cantidad de trabajadores damnificae dos en cada accidente es independiente de la cantidad de accidentes ocurridos. . Ejemplo 1. ˜ Utilizando los resultados del Lema 1. Un servidor recibe clientes de acuerdo con un proceso de Poisson de intensidad 4 clientes por hora. Al cabo de 8 horas. Cuando recibe un impacto la part´cula se mueve un mil´ ı ımetro hacia la derecha con probabilidad 3/4 o un mil´ ımetro hacia la izquierda con probabilidad 1/4. 3}. a Soluci´n: Sean N (t) la cantidad de accidentes en t meses e Yi el numero de trabao ´ jadores damnificados en el i-´simo accidente. . Supongamos que la cantidad de accidentes en una f´brica industrial se a rige por un proceso de Poisson de intensidad 4 por mes y que la cantidad de trabajadores damnificados en cada accidente son variables aleatorias independientes con distribuci´n o uniforme sobre {1. Transcurrido un minuto. El numero total de trabajadores e ´P damnificados en un ano puede expresarse en la forma X (12) = N (12) Yi . El tiempo de trabajo (en minutos) consumido en cada servicio es una variable aleatoria U[1.15 tenemos que E[X (12)] = (4 · 12)E[Y1 ] = 48E[Y1 ] = 48 · 2 = 96 14 V(X (12)) = (4 · 12)E[Y 12 ] = 48 · = 224. . 2. 3 Ejercicios adicionales 6.Esto implica que V (X (t) | N (t)) = N (t)V(Y1 ) y por lo tanto. Se quiere hallar la media y la varianza de la cantidad anual de trabajadores damnificados en dicha f´brica. 2. V (X (t)) = = = = E [N (t)V(Y1 )] + V(N (t)E[Y1 ]) V(Y1 )E[N (t)] + E[Y1 ]2 V(N (t)) V(Y1 )λt + E[Y1 ]2 λt λtE[Y 2 ].16. .

Galves. A.: Poisson Processes. D. (2001) 4. (1999) 2.. W. (2008) 7. P. 2. G. R. S. Meester.2. (2001) 5. F. Stirzaker. and Queues.: An introduction to Probability Theory and Its Applications. New York. New York. John Wiley & Sons. R. Kingman. J. New York. Monte Carlo Simulation. Oxford University Press. Berlin. A.: A Natural Introduction to Probability Theory. (1971) 3. K.: Construction of Stochastic Procecesses. (2002) 6. Birkhauser. R. Vol. New York. Coupling and Regeneration.: Probability and Random Processes. (2007) 19 . Br´maud. Ferrari. Feller. Ross. P. e Springer. Academic Press..: Markov Chains: Gibbs Fields. Oxford University Press.: Introduction to Probability Models. San Diego. Grimmett. Bibliograf´ consultada ıa Para redactar estas notas se consultaron los siguientes libros: 1.