Está en la página 1de 8

Notas para un curso de Probabilidad y Estadı́stica

Borradores: Procesos aleatorios (1)

27 de abril de 2009

Jakob Bernoulli (1654 - 1705)

En la “buena” te encontré
y en la “mala” te perdı́ ...
(Enrique Cadı́camo)

1
Índice
1. Ensayos Bernoulli 2
1.1. Cantidad de éxitos en n ensayos: la distribución binomial . . . . . . . . . . 4
1.2. Término central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Aproximación de Poisson de la distribución binomial . . . . . . . . . . . . 5
1.4. Tiempo de espera hasta el primer éxito: la distribución geométrica: . . . . 6
1.5. La distribución Pascal: tiempo de espera hasta el k-ésimo éxito . . . . . . . 8

2. Bibliografı́a consultada 8

1. Ensayos Bernoulli
Se trata de ensayos repetidos en forma independiente en los que hay sólo dos resultados
posibles, usualmente denominados “exito” y “fracaso”, cuyas probabilidades, denotadas
por p y q, se mantienen constantes a lo largo de los ensayos.
El espacio muestral de cada ensayo individual está formado por dos puntos S y F . El
espacio muestral de n ensayos Bernoulli contiene 2n puntos o sucesiones de n sı́mbolos
S y F , cada punto representa un resultado posible del experimento compuesto. Como
los ensayos son independientes las probabilidades se multiplican. En otras palabras, la
probabilidad de cada sucesión particular es el producto que se obtiene reemplazando los
sı́mbolos S y F por p y q = 1−p, respectivamente. Ası́, P(SSF SF . . . F F S) = ppqpq · · · qqp.

Ejemplo 1.1. Si repetimos en forma independiente un experimento aleatorio y estamos


interesados en la ocurrencia del evento A al que consideramos “éxito”, tenemos ensayos
Bernoulli con p = P(A).

Modelando ensayos Bernoulli. Probabilı́sticamente el modelo adecuado para describir


ensayos Bernoulli (con probabilidad de éxito p) consiste en una sucesión de variables aleato-
rias independientes e identicamente distribuidas (Xi : i ∈ N) cada una con distribución
Ber(p),
P(Xi = 1) = p y P(Xi = 0) = q,
donde q = 1 − p. En este contexto, Xi = 1 significa que “el resultado del i-ésimo ensayo
es éxito”.
Fijada una probabilidad de éxito p ∈ (0, 1), denotaremos mediante Pp (·) a la distribu-
ción de probabilidades asociada a los correspondientes ensayos Bernoulli. Observar que
para cada i ∈ N,

Pp (Xi = xi ) = pxi q 1−xi , xi ∈ {0, 1}. (1)

2
Construcción. Dada la probabilidad de éxito p ∈ (0, 1), las variables aleatorias que
describen el comportamiento de los ensayos Bernoulli pueden construirse del siguiente
modo: se considera una sucesión de variables aleatorias independientes Ui : i ∈ N, cada
una con distribución uniforme sobre el intervalo (0, 1) y se definen Xi := 1{Ui ≤ p}.

Preguntas elementales. Se pueden formular varios tipos de preguntas relacionadas con


los ensayos Bernoulli. Las más sencillas son las siguientes:

(a) Cuál es la cantidad total de éxitos en los primeros n ensayos?

(b) En n ensayos, cuál es el número de éxitos más probable?

(c) Cuánto “tiempo” hay que esperar para observar el primer éxito?

(d) Cuánto “tiempo” hay que esperar para observar el k-ésimo éxito?

En lo que sigue expresaremos las preguntas (a)-(d) en términos de las variables aleato-
rias Xi : i ∈ N que describen los ensayos Bernoulli.
La cantidad de éxitos en los primeros n ensayos se describe mediante la suma de las
primeras variables X1 , . . . , Xn
n
X
Sn := Xi . (2)
i=1

La pregunta (a) interroga por la distribución de probabilidades de la variable aleatoria Sn


definida en (2). Esto es, para cada k = 0, . . . , n, se trata de determinar cuánto valen las
probabilidades Pp (Sn = k). En cambio, la pregunta (b) interroga por el valor de k que
maximiza a la función de k, Pp (Sn = k).
El tiempo de espera hasta el primer éxito se describe mediante la variable aleatoria

T1 := mı́n{i ∈ N : Xi = 1}, (3)

y en general, el tiempo de espera hasta el k-ésimo éxito, k ≥ 1 se describe, recursivamente,


mediante

Tk := mı́n{i > Tk−1 : Xi = 1}. (4)

La pregunta (c) interroga por la distribución de probabilidades de la variable T1 definida


en (3): cuánto valen las probabilidades Pp (T1 = n), n ∈ N? Finalmente, la pregunta (d)
interroga por la distribución de probabilidades de las variables Tk , k ≥ 2, definidas en (4):
cuánto valen las probabilidades Pp (Tk = n), n ≥ k?

3
1.1. Cantidad de éxitos en n ensayos: la distribución binomial
La cantidad de éxitos puede ser 0, 1, . . . , n. El primer problema es determinar las corre-
spondientes probabilidades. El evento en n ensayos resultaron en k éxitos y n − k fracasos
( n
)
X
(X1 , . . . , Xn ) = (x1 , . . . , xn ) : xi = k (5)
i=1

puede ocurrir de tantas formas distintas como k sı́mbolos 1 se puedan ubicar en n lugares.
n

En otras palabras, el evento considerado contiene k puntos, cada uno de probabilidad
n
! n
\ Y Pn Pn
Pp {Xi = xi } = pxi q 1−xi = p i=1 xi q n− i=1 xi = pk q n−k . (6)
i=1 i=1

Por lo tanto,
 
n k n−k
Pp (Sn = k) = p q 0 ≤ k ≤ n. (7)
k

En particular, la probabilidad de ningún éxito es q n , y la probabilidad de al menos un éxito


es 1 − q n .
La distribución de Sn , determinada en (7), se denomina la distribución binomial de
parámetros n y p y se denota Bin(n, p).

Nota Bene. Por definición, la distribución binomial de parámetros n y p es la distribu-


ción de una suma de n variables aleatorias independientes cada con distribución Bernoulli
de parámetro p.

Ejemplo 1.2. Se tira un dado equilibrado 12 veces y se apuesta al 5 o al 6, cuál es la


probabilidad de ganar exactamente 4 veces? Como el dado es equilibrado, la probabilidad
de éxito es 1/3 y la cantidad de exitos en 12 tiros tiene distribución Bin(12, 1/3). Por lo
tanto, la probabilidad requerida es
   4  8
12 1 2
= 0.2384 . . .
4 3 3

Ejemplo 1.3. Si la probabilidad de éxito es p = 0.01, cuántos ensayos se deben realizar


para asegurar que la probabilidad de que ocurra por lo menos un éxito sea al menos
1/2? Buscamos el menor entero n tal que 1 − (0.99)n ≥ 21 , o equivalentemente 12 ≥ (0.99)n .
Tomando logaritmos − log 2 ≥ n log(0.99) y despejando n resulta n ≥ − log(2)/ log(0.99) ≈
68.96. Por lo tanto, n = 69.

4
1.2. Término central
De la fórmula (7) se puede ver que
n

Pp (Sn = k) pk q n−k (k − 1)!(n − k + 1)!p
= n
k =
Pp (Sn = k − 1) k−1
k−1
p q n−k+1 k!(n − k)!q
(n − k + 1)p (n + 1)p − k
= =1+ . (8)
kq kq
De (8) se deduce que Pp (Sn = k) crece cuando k < (n + 1)p y decrece cuando k > (n + 1)p.
Si (n + 1)p es un número entero, entonces Pp (Sn = (n + 1)p) = Pp (Sn = (n + 1)p − 1). En
otras palabras, la cantidad más probable de éxitos en n ensayos es m := [(n + 1)p]. Salvo
en el caso en que m = (n + 1)p, donde también lo es m − 1.
Cuando p = 21 el resultado anterior se puede observar directamente en el triángulo
de Pascal: en el centro de las filas pares está el máximo. En la región central de las filas
impares hay dos máximos.

1.3. Aproximación de Poisson de la distribución binomial


En diversas aplicaciones tenemos que tratar con ensayos Bernoulli donde, para decirlo
de algún modo, n es grande y p es pequeño, mientras que el producto λ = np es moderado.
En tales casos conviene usar una aproximación de las probabilidades Pp (Sn = k). Para
k = 0 tenemos
 n
n λ
Pp (Sn = 0) = (1 − p) = 1 − . (9)
n
Tomando logaritmos y usando el desarrollo de Taylor,
1 1 1
log(1 − t) = −t − t2 − t3 − t4 − · · · ,
2 3 4
se obtiene
λ2
 
λ
log Pp (Sn = 0) = n 1 − = −λ − − ··· (10)
n 2n
En consecuencia, para n grande se tiene que

Pp (Sn = 0) ≈ e−λ , (11)

donde el signo ≈ se usa para indicar una igualdad aproximada (en este caso de orden de
magnitud 1/n). Más aún, usando la identidad (8) se puede ver que para cada k fijo y n
suficientemente grande
Pp (Sn = k) (n − k + 1)p λ
= ≈ . (12)
Pp (Sn = k − 1) kq k

5
Recursivamente se concluye que
Pp (Sn = 1) ≈ λ · Pp (Sn = 0) ≈ λe−λ ,
λ λ2
Pp (Sn = 2) ≈ · Pp (Sn = 1) ≈ e−λ ,
2 2
y en general
λk −λ
Pp (Sn = k) ≈ e . (13)
k!
La igualdad aproximada (13) se llama la aproximación de Poisson de la distribución bino-
mial.
Ejemplo 1.4 (Artı́culos defectuosos). Una industria produce tornillos. Supongamos que la
probabilidad de que un tornillo resulte defectuoso sea p = 0.015, entonces la probabilidad
de que una caja de 100 tornillos no contenga ninguno defectuoso es (0.985)100 = 0.2206...
La aproximación de Poisson es e−1.5 = 0.2231... y es suficientemente próxima para la
mayorı́a de los propositos prácticos. Si se pregunta: Cuántos tornillos deberı́a contener la
caja para que la probabilidad de encontrar al menos 100 tornillos sin defectos sea 0.8 o
mejor? Si 100 + x es el número buscado, entonces x es un número pequeño. Para aplicar
la aproximación de Poisson para n = 100 + x ensayos debemos poner λ = np, pero np es
aproximadamente 100p = 1.5. Buscamos el menor entero x para el cual
(1.5)x
 
1.5
e−1.5
1+ + ··· ≥ 0.8 (14)
1 x!
Para x = 1 el valor del lado izquierdo de la inecuación (14) es aproximadamente 0.558,
para x = 2 es aproximadamente 0.809. Por lo tanto, la aproximación de Poisson permite
concluir que se necesitan 102 tornillos. En realidad la probabilidad de encontrar al menos
100 tornillos sin defectos en una caja de 102 es 0.8022 . . . .

1.4. Tiempo de espera hasta el primer éxito: la distribución ge-


ométrica:
El tiempo que hay que esperar para observar el primer éxito en una sucesión de ensayos
Bernoulli puede ser n = 1, 2, . . . . El evento T1 = 1 significa que se obtuvo éxito en el
primer ensayo y tiene probabilidad p. Para cada n ≥ 2, el evento T1 = n significa que en
los primeros n − 1 ensayos se obtuvieron fracasos y que en el n-ésimo se obtuvo éxito, lo
que tiene probabilidad q n−1 p. Por lo tanto, la distribucción de T1 es
Pp (T1 = n) = q n−1 p, n ∈ N. (15)
El evento T1 > n significa que los primeros n ensayos de la sucesión resultaron fracaso. Por
lo tanto,
Pp (T1 > n) = q n , n ≥ 1. (16)

6
La distribución de T1 se denomina distribución geométrica de parámetro p y se designa
mediante Geom(p).
Ejemplo 1.5. Se arroja repetidamente un dado. Cuál es la probabilidad de que el primer
as aparezca antes del quinto tiro?. Suponiendo que el dado es perfecto, la probabilidad
de obtener as es 1/6 y la cantidad de tiros hasta obtener el primer as tiene distribución
Geom(1/6). Por lo tanto, la probabilidad requerida es
1 − (5/6)4
 
2 3
1/6+(5/6)(1/6)+(5/6) (1/6)+(5/6) (1/6) = (1/6) = 1−(5/6)4 = 0.5177 . . .
1 − (5/6)

Pérdida de memoria
La variable aleatoria, T , con distribución geométrica de parámetro p tiene la siguiente
propiedad, denominada pérdida de memoria,

P(T > n + m|T > n) = P(T > m) n, m ∈ N (17)

La identidad (17) se obtiene de (16) y de la fórmula de probabilidad condicional:


P(T > n + m, T > n)
P(T > n + m|T > n) =
P(T > n)
P(T > n + m) q n+m
= = n
P(T > n) q
m
= q = P(T > m).

De hecho, la propiedad de pérdida de memoria definida en (17) caracteriza a la distribución


geométrica.
Teorema 1.6. Si T es una variable aleatoria a valores en N con la propiedad de pérdida
de memoria, entonces T ∼ Geom(p), donde p = P(T = 1).

Demostración. Sea G(n) := P(T > n). Si T pierde memoria, tenemos que

G(n + m) = G(n)G(m) (18)

De (18) sigue que G(2) = G(1)G(1) = G(1)2 , G(3) = G(2)G(1) = G(1)3 y en general
G(n) = G(1)n cualquiera sea n ∈ N. En otros términos, la distribución de T es tal que

P(T > n) = G(1)n .

Por lo tanto,

P(T = n) = P(T > n − 1) − P(T > n) = G(1)n−1 − G(1)n = G(1)n−1 (1 − G(1)).

7
1.5. La distribución Pascal: tiempo de espera hasta el k-ésimo
éxito
Para observar k-éxitos en una sucesión de ensayos Bernoulli, lo mı́nimo que hay que
esperar es k ensayos. ¿Cuándo ocurre el evento Tk = n, n ≥ k? El n-ésimo ensayo debe ser
éxito y en los n − 1 ensayos anteriores deben ocurrir exactamente k − 1 éxitos. Hay n−1 k−1
formas distintas de ubicar k − 1 sı́mbolos 1 en n − 1 lugares. Por lo tanto,
 
n − 1 k n−k
Pp (Tk = n) = p q n ≥ k. (19)
k−1
La distribución de Tk se denomina distribución Pascal de parámetros k y p y se designa
mediante Pascal(k, p).
La distribución Pascal de parámetros k y p es la distribución de una suma de k variables
aleatorias independientes cada una con ley Geom(p). Lo cual es intuitivamente claro si se
piensa en el modo que arribamos a su definición.
En efecto, definiendo T0 := 0 vale que
k
X
Tk = (Ti − Ti−1 ). (20)
i=1
Basta ver que para cada i = 1, . . . , k las diferencias Ti − Ti−1 son independientes y todas
se distribuyen como T1 ∼ Geom(p). Veamos que T1 y T2 − T1 son independientes
Pp (T1 = n, T2 − T1 = m) = Pp (T2 − T1 = m|T1 = n)P(T1 = n)
= Pp (T2 = m + n|T1 = n)P(T1 = n)
El evento T1 = n depende de X1 , . . . , Xn . Si se sabe que T1 = n, el evento T2 = m + n
depende de Xn+1 , . . . , Xn+m . Por definición,
Pp (T2 = n + m|T1 = n) = pq m−1 (21)
Ejemplo 1.7. Lucas y Pablo disputan la final de un campeonato de ajedrez. El primero
que gane 6 partidas (no hay tablas) resulta ganador. La probabilidad de que Lucas gane
cada partida es 3/4. Cuál es la probabilidad de que Lucas gane el campeonato en la novena
partida? La cantidad de partidas que deben jugarse hasta que Lucas gane el campeonato
tiene distribución Pascal(6, 3/4). Por lo tanto, la probabilidad requerida es
   6  3
8 3 1
= 0.1557 . . .
5 4 4

2. Bibliografı́a consultada
Para redactar estas notas se consultaron los siguientes libros:
1. Feller, W.: An introduction to Probability Theory and Its Applications. Vol. 1. John
Wiley & Sons, New York. (1957)

También podría gustarte