Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Py EC04
Py EC04
Distribución Binomial:
Ejemplos: 1) Se arroja una moneda n veces y se llama Éxito al suceso “sale cara”.
2) Se arroja un dado equilibrado n veces y se llama Éxito al suceso “se obtiene un as”.
4) Se extraen 4 bolillas con reposición de una urna que contiene 5 bolillas blancas y 3
negras y se denomina Éxito al suceso “las 4 bolillas son blancas”.
5) ¿Es el que sigue un experimento Binomial? Se extraen 2 bolillas sin reposición de una
urna que contiene 5 bolillas blancas y 3 negras y se denomina Éxito al suceso “la bolilla
extraída es blanca”.
4 5
P( B2 | B1 ) = ≠ P( B2 ) =
7 8
Notación: X ~ Bi (n,p).
37
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
Sea k ∈ RX, una secuencia posible con k éxitos y n-k fracasos es:
E2
1...3
E1F2
...3
F
k n−k
n
P( X = k ) = p X (k ) = p k (1 − p ) n − k ∀ k ∈{0,1,..., n}
k
n
Verifiquemos que ∑p
k =0
X (k ) = 1. En efecto,
n
n
n
∑p (k ) = ∑ p k (1 − p ) n − k = ( p + (1 − p ) ) = 1n = 1.
n
X
k =0 k =0 k
n
n
Hemos usado la fórmula del Binomio de Newton: (a + b) n = ∑ k a k
b n−k .
k =0
0 si x < 0
[ x ] n
FX ( x) = ∑ p k (1 − p ) n − k si 0 ≤ x ≤ n
k =0 k
1 si x > n
38
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
E ( X ) = np y V ( X ) = np (1 − p )
Dem: En el caso n=1, X es una v.a. Bernoulli y ya hemos demostrado que en este caso,
E(X)=p y V(X) = p(1-p). Sea ahora n>1,
n
n n
n n
n!
E ( X ) = ∑ k p k (1 − p) n − k =∑ k p k (1 − p) n − k =∑ k p k (1 − p) n − k =
k
k =0 k =1 k
k =1 k!(n - k)!
n
n! n
(n − 1)!
∑
k =1 ( k − 1)! ( n − k )!
p k
(1 − p ) n−k
= np ∑
k =1 ( k − 1)! ( n − k )!
p k −1 (1 − p ) n − k =
n
n − 1 k −1 n −1 n − 1
j
np ∑ p (1 − p ) (n −1)−(k −1) = np ∑ p (1 − p ) n −1− j = np ( p + (1 − p) ) = np.
n −1
k =1 k − 1 j
− =
j =0
( k 1) j
( )
Recordemos que V ( X ) = E X 2 − (E ( X ) ) = E X 2 − n 2 p 2 .
2
( )
n
n n
n
E ( X 2 ) = ∑ k 2 p k (1 − p ) n − k = ∑ (k (k − 1) + k ) p k (1 − p) n − k
k =0 k k =0 k
n
n k n
n k n
n
= ∑ k (k − 1) p (1 − p) + ∑ k p (1 − p) = ∑ k (k − 1) p k (1 − p) n − k + E ( X )
n−k
n−k
k =0 k k =0 k k =2 k
n n
n! n!
= ∑ k (k − 1) p k (1 − p) n − k + np = ∑ p k (1 − p) n − k + np
k =2 k!(n − k )! k = 2 ( k − 2)! ( n − k )!
n
(n − 2)!
= n(n − 1) p 2 ∑ p k − 2 (1 − p ) n − k + np
k =2 (k − 2)!(n − k )!
n−2
n − 2 j
∑ p (1 − p ) n − 2 − j + np = n(n − 1) p 2 ( p + (1 − p ) ) + np
n−2
= n(n − 1) p 2
( k −2)= j
j =0 j
= n(n − 1) p 2 + np
39
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
En realidad, para que la demostración anterior sea válida debe ser n ≥ 2, pero es
inmediato verificar que, si n=2, E ( X 2 ) = 2 p 2 + 2 p y por lo tanto la expresión hallada es
válida para todo n.
Finalmente,
V ( X ) = E ( X 2 ) − (E ( X ) ) = n(n − 1) p 2 + np − n 2 p 2 = − np 2 + np = np (1 − p )
2
0.30
p=0.15
0.3
0.3
0.20
0.2
0.2
p(x)
p(x)
p(x)
0.10
0.1
0.1
0.0
0.0
0.0
0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10
x x x
p=0.25 p=0.30 p=0.35
0.20
0.20
0.20
p(x)
p(x)
p(x)
0.10
0.10
0.10 0.0
0.0
0.0
0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10
x x x
p=0.40 p=0.45 p=0.50
0.20
0.20
0.20
p(x)
p(x)
p(x)
0.10
0.10
0.10 0.0
0.0
0.0
0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10
x x x
40
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
0.4
0.6
0.20
0.3
0.4
0.2
p(x)
p(x)
p(x)
0.10
0.2
0.1
0.0
0.0
0.0
0 1 2 3 4 5 0 2 4 6 8 10 0 5 10 15 20 25
x x x
p=0.50 n=5 p=0.50 n=10 p=0.50 n=25
0.15
0.20
0.25
0.10
p(x)
p(x)
p(x)
0.15
0.10
0.05
0.05
0.0
0.0
0 1 2 3 4 5 0 2 4 6 8 10 0 5 10 15 20 25
x x x
p=0.90 n=5 p=0.90 n=10
0.4
0.6
0.20
0.3
0.4
0.2
p(x)
p(x)
p(x)
0.10
0.2
0.1
0.0
0.0
0.0
0 1 2 3 4 5 0 2 4 6 8 10 0 5 10 15 20 25
x x x
41
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
Notación: X ~ G (p).
Al estudiar en general las v.a. discretas, hemos probado que la función de probabilidad
puntual de X está dada por
p X (k ) = (1 − p ) k −1 p ∀k ∈ N .
0 si x < 1
FX ( x) = [x ]
1 − (1 − p ) si x ≥ 1
1 (1 − p )
E( X ) = y V (X ) =
p p2
Dem: Ejercicio.
(Sugerencia: Demostrar que si X ~ G (p), P ( X > k ) = (1 − p ) k ).
Ejemplo: Sea X: número de tiros hasta obtener el primer as en una sucesión de tiros de
un dado equilibrado, entonces X ~ G (1/6).
42
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
6
15
P( X = 7) = = 0.06
66
5
5
P( X ≥ 6) = P( X > 5) = = 0.40
6
1 5/6
E( X ) = =6 V (X ) = = 30
1/ 6 (1 / 6)2
Geometrica
0.10
0.15
0.20
p=0.10 p=0.15 p=0.20
0.15
0.10
0.06
0.10
p(x)
p(x)
p(x)
0.05
0.05
0.02
0.0
0.0
0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 5 10 15 20
x x x
p=0.25 p=0.30 p=0.35
0.30
0.3
0.20
0.20
0.2
p(x)
p(x)
p(x)
0.10
0.10
0.1
0.0
0.0
0.0
0 5 10 15 20 0 5 10 15 20 0 5 10 15 20
x x x
p=0.40 p=0.45 p=0.50
0.4
0.5
0.4
0.4
0.3
0.2 0.3
0.2 0.3
p(x)
p(x)
p(x)
0.20.1
0.1
0.1
0.0
0.0
0.0
0 5 10 15 20 0 5 10 15 20 0 5 10 15 20
x x x
43
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
Notación: X ~ BN (r,p).
Observemos que RX = {r, r+1, r+2, ....} y hallemos su función de probabilidad puntual.
Sea k un número natural, k ≥ r. Para que sean necesarias k repeticiones para obtener el
primer Éxito, el r-ésimo Éxito debe ocurrir en la repetición k y en las (k-1) repeticiones
previas debe haber exactamente (k-1) Éxitos. Como las repeticiones son independientes
la probabilidad de una configuración de ese tipo es p r (1 − p ) k − r , pero hay varias
configuraciones de esta forma. ¿Cuántas? Tantas como formas de elegir entre las (k-1)
k − 1
primeras repeticiones, aquellas donde ocurrirán los (r-1) Éxitos, o sea .
r − 1
k − 1 r
P( X = k ) = p (1 − p) k − r ∀ k ∈{r , r + 1, r + 2,....}
r − 1
0 si x < r
FX ( x) =
[ x ] k − 1 r
∑ p (1 − p ) k − r si x ≥ r
k = r r − 1
Ejemplo: Se extraen con reposición bolillas de una urna que contiene 3 bolillas blancas y
7 rojas. Se define X: número de extracciones hasta obtener la cuarta bolilla roja.
X ~ BN (4,7/10)
4
5 − 1 7 3
P( X = 5) = = 0.29
4 − 1 10 10
44
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
4 k −4
7
k − 1 7 3
P (5 ≤ X ≤ 7) = ∑ = 0.49
k =5 3 10 10
r r (1 − p )
E( X ) = V (X ) =
p p2
Dem: Lo demostraremos más adelante usando que una v.a. Binomial Negativa puede
expresarse como suma de v.a. Geométricas independientes.
Observación: Esta v.a. suele también definirse como el número de Fracasos antes de
obtener el r-ésimo Éxito. Si la denotamos X, entonces su rango será
r + x − 1 r
y su función de probabilidad puntual: p X * ( x) = p (1 − p ) x
x
En este caso,
r (1 − p) r (1 − p )
E( X * ) = y V (X *) =
p p2
• Cada elemento o individuo puede ser clasificado como Éxito o Fracaso y hay D Éxitos
en la población.
X ~ H (n,N,D)
Ejemplo: De una urna que contiene 3 bolillas blancas y 7 negras se extraen 4 bolillas sin
reposición y se define X: número de bolillas blancas extraídas.
45
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
Como todos los conjuntos de 4 bolillas tienen la misma probabilidad de ser extraídos, la
1 3 7
probabilidad de uno cualquiera de ellos será . Por otro lado hay conjuntos
10 2 2
4
que contienen 2 bolillas blancas y 2 negras y, por lo tanto la probabilidad pedida será:
3 7
2 2 3 ⋅ 21 3
P( X = 2) = = = .
10 210 10
4
Proposición: Si X ~ H (n,N,D),
D N − D
k n − k
p X (k ) = max(0, n − ( N − D) ) ≤ k ≤ min (n, D )
N
n
Proposición: Si X ~ H (n,N,D),
D N −n D D
E( X ) = n V (X ) = n 1 −
N N −1 N N
46
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
N −n
Observaciones: 1) El factor que aparece en la expresión de la varianza se
N −1
denomina factor de corrección por población finita.
n k e −λ λk
p X (k ) = p (1 − p)
n. k
→ ∀k ∈ N o = N ∪ {0}
k k!
Dem:
k n−k
n n! λ λ
p X (k ) = p k (1 − p ) n − k = 1 −
k k!(n − k )! n n
n −k
n(n − 1)...(n − k + 1) λ λ λk
= 1 − 1 −
nk n n k!
n −k
n n − 1 n − k + 1 λ λ λk
= .... 1 − n 1 − n .
n n n k!
Observemos que:
n −1 n − k +1
1⋅ .... n
→1
→∞
n n
n
λ
→ e −λ
1 − n
→∞
n
−k
λ
1 − n
→1
→∞
n
e −λ λk
Entonces, p X (k )
→ , como queríamos demostrar.
k!
47
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
Esta proposición sugiere que la función de probabilidad puntual podría ser aproximada por
la función de probabilidad límite, pero ¿cuándo se considera que n es grande y p es
pequeño para que la aproximación sea buena?
e −λ λk
p X (k ) = ∀ k ∈ N o = N ∪ {0}
k!
Es obvio que p X (k ) ≥ 0 ∀k .
∞ ∞
e −λ λk ∞
λk
∑
k =0
p X (k ) = ∑
k =0 k!
=e ∑
−λ
k = 0 k!
= e −λ e λ = 1,
∞
xk
ya que ∑ es el desarrollo en serie de e x .
k =0 k!
48
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
e −5 5 2
P ( X = 2) = = 0.084
2!
2
e −5 5 k 52
P ( X ≤ 2) = ∑ = e −5 1 + 5 + =0.125
k =0 k! 2
E( X ) = λ y V (X ) = λ
Dem:
∞
e −λ λk ∞ e −λ λk ∞ e −λ λk ∞
e − λ λ k −1 ∞
e −λ λ j
E( X ) = ∑ k =∑ k =∑ =λ ∑ =λ ∑ = λ.
k =0 k! k =1 k! k =1 (k − 1)! k =1 (k − 1)! j =0 j!
∞
e −λ λk ∞ e −λ λk ∞ e −λ λk ∞
e −λ λk
E( X 2 ) = ∑ k 2 =∑ (k (k − 1) + k ) =∑ k (k − 1) + ∑k =
k =0 k! k =0 k! k =2 k! k =0 k!
∞
e −λ λk −2 e −λ λ j
= λ2 ∑ + E ( X ) = λ2 ∑ + λ = λ2 + λ.
k = 2 (k − 2 )! j =0 j!
Entonces
V ( X ) = E ( X 2 ) − (E ( X ) ) = λ 2 + λ − λ 2 = λ .
2
49
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
0.6
0.8
lambda =0.5
0.3
0.6
0.4
0.2
p(x)
p(x)
p(x)
0.4
0.2
0.1
0.2
0.0
0.0
0.0
0 5 10 15 20 0 5 10 15 20 0 5 10 15 20
x x x
lambda =2 lambda =3 lambda =5
0.20
0.15
0.20
0.10
p(x)
p(x)
p(x)
0.10
0.10
0.05
0.0
0.0
0.0
0 5 10 15 20 0 5 10 15 20 0 5 10 15 20
x x x
lambda =10 lambda =15 lambda =20
0.12
0.08
0.06
0.08
p(x)
p(x)
p(x)
0.04
0.04
0.02
0.0
0.0
0.0
0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 10 20 30 40
x x x
50
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
En particular, si todos los intervalos son de igual longitud t1/n, la v.a. X t1 : número de
eventos que ocurren en el intervalo (0, t1 ) es “casi” binomial, siendo Éxito la ocurrencia de
un evento en cada uno de los subintervalos y p = P(Éxito)=probabilidad de que ocurra un
evento. Si el número de subintervalos es suficientemente grande y por lo tanto el p
suficientemente pequeño, por el resultado límite que hemos probado, la variable X t1 tiene
distribución de Poisson.
Ejercicio: Para cada uno de estos ejemplos, discutir en que situaciones se verifican las
tres condiciones enunciadas.
g (h)
siendo o(h) una función g(h) tal que lim =0.
h →0 h
51
Probabilidades y Estadística (Computación)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martínez 2004
Puede interpretarse como la tasa media a la cual ocurren los eventos en la unidad de
tiempo. Se la suele llamar tasa media de ocurrencia o intensidad del Proceso de Poisson.
La definición anterior, que en realidad es un teorema, da las condiciones bajo las cuáles
ciertos experimentos aleatorios que producen como resultados eventos en el tiempo (o en
longitud, área, volumen, etc) pueden ser modelados mediante la distribución de Poisson.
Consideremos los ejemplos 1) a 5). Sólo bajo ciertas condiciones, satisfacen las
propiedades de un Proceso de Poisson.
Ejemplo: Supongamos que el número de mensajes de correo electrónico que llegan a una
casilla de correos sigue un proceso de Poisson de intensidad θ = 2 mensajes / minuto.
X3 ~ P(2 ⋅ 3) = P(6)
c) ¿Cuál es la probabilidad de que no se reciba ningún mensaje entre las 13:30 hs y las
13:33 hs?
52