Está en la página 1de 17

Variables aleatorias discretas

Distribucin Binomial:
Muchos experimentos aleatorios satisfacen las siguientes condiciones:

El experimento consiste de n pruebas, siendo n fijo.


Las pruebas son idnticas y en cada prueba hay slo dos resultados posibles, que
denominaremos xito (E) y Fracaso (F). Una prueba de este tipo se denomina ensayo
de Bernoulli.
Las pruebas son independientes, es decir que el resultado de una prueba no influye
sobre el de las otras.
La probabilidad de xito (P(E)=p) se mantiene constante en todas las pruebas.

Definicin: Un experimento que satisface estos cuatro requerimientos se denomina


experimento Binomial.
Ejemplos: 1) Se arroja una moneda n veces y se llama xito al suceso sale cara.
2) Se arroja un dado equilibrado n veces y se llama xito al suceso se obtiene un as.
3) Se arroja n veces un dardo a un blanco circular de radio R, el cul contiene en el centro
un crculo de radio R/4 y se denomina xito al suceso el dardo impacta en el crculo
central.
4) Se extraen 4 bolillas con reposicin de una urna que contiene 5 bolillas blancas y 3
negras y se denomina xito al suceso las 4 bolillas son blancas.
5) Es el que sigue un experimento Binomial? Se extraen 2 bolillas sin reposicin de una
urna que contiene 5 bolillas blancas y 3 negras y se denomina xito al suceso la bolilla
extrada es blanca.
NO, no lo es ya que si denominamos Bi al suceso la i-sima bolilla extrada es blanca,

P( B2 | B1 ) =

4
5
P ( B2 ) =
7
8

y, por lo tanto no se verifica la tercera condicin. En realidad tampoco se verifica la


segunda ya que las pruebas no son idnticas (la composicin de la urna vara).
Observemos que, sin embargo la cuarta condicin se satisface.
Variable aleatoria binomial: Consideremos un experimento binomial que consiste de n
repeticiones y en el cual P(E) = p. Denominaremos v.a. binomial a la variable
X: nmero de xitos en las n repeticiones.
Notacin: X ~ Bi (n,p).

34

Calculemos su funcin de probabilidad puntual. Para ello, observemos en primer lugar


que RX = {0,1,2,...,n}.
Sea k RX, una secuencia posible con k xitos y n-k fracasos es:

...!
...!
E"
E#
F"
F
#
nk

y su probabilidad, dada la independencia de las repeticiones, es p k (1 p ) n k . Pero, hay

n
secuencias posibles conteniendo k xitos, entonces
k
n
P( X = k ) = p X (k ) = p k (1 p) n k
k
n

Verifiquemos que

p
k =0

k {0,1,..., n}

(k ) = 1. En efecto,

n
n k
p (1 p ) n k = ( p + (1 p ) )n = 1n = 1.
(
)
p
k
=

X
k =0
k =0 k
n

Hemos usado la frmula del Binomio de Newton: (a + b) n =

k a
k =0

b nk .

Funcin de distribucin: Si X ~ Bi (n,p),

0
[x ] n k
FX ( x) = p (1 p ) n k
k =0 k
1

si x < 0
si 0 x n
si x > n

donde [x] denota la parte entera de x.


Ejemplo: Supongamos que se arroja un dado equilibrado 10 veces y se llama xito al
suceso se obtiene un as. La v.a. X: nmero de ases en los 10 tiros tiene distribucin
Binomial de parmetros 10 y 1/6, o sea X ~ Bi (10,1/6), entonces

10 1 5
P( X = 4) = = 0.054
4 6 6
4

10 1 5
P(3 X 5) =
k = 3 k 6 6
5

10 k

= FX (5) FX (2) =0.22

35

Esperanza y varianza de una variable aleatoria binomial: Sea X ~ Bi (n,p),

E ( X ) = np

V ( X ) = np (1 p )

Dem: En el caso n=1, X es una v.a. Bernoulli y ya hemos demostrado que en este caso,
E(X)=p y V(X) = p(1-p). Sea ahora n>1,
n
n
n
n k
n k
n!
nk
nk

(
)
(
1
)
(
1
)
E X = k p p
= k p p
= k
p k (1 p ) n k =
k!(n - k)!
k =1
k =1
k =0
k
k

n!

(k 1)!(n k )! p
k =1

(n 1)!
p k 1 (1 p) n k =
k =1 ( k 1)! ( n k )!
n

(1 p) n k = np

n
n 1 n 1
n 1 k 1

j
1
p (1 p ) (n 1)(k 1) = np
p (1 p ) n 1 j = np ( p + (1 p ) )n = np.
np
(
1
)

=
k
j
j
k =1 k 1
j =0

( )

( )

Recordemos que V ( X ) = E X 2 (E ( X ) ) = E X 2 n 2 p 2 .
2

n
n
n
n
E ( X 2 ) = k 2 p k (1 p) n k = (k (k 1) + k ) p k (1 p ) n k
k =0
k =0
k
k
n
n
n
n
n
n
= k (k 1) p k (1 p ) n k + k p k (1 p ) n k = k (k 1) p k (1 p ) n k + E ( X )
k =0
k =0
k =2
k
k
k

= k (k 1)
k =2

n
n!
n!
p k (1 p) n k + np =
p k (1 p) n k + np
(
2
)!
(
)!
k!(n k )!
k

k
k =2

= n(n 1) p 2
k =2

= n(n 1) p 2

( k 2) = j

(n 2)!
p k 2 (1 p ) n k + np
(k 2)!(n k )!
n 2 j
2
p (1 p ) n 2 j + np = n(n 1) p 2 ( p + (1 p ) )n + np
j
j =0

n2

= n(n 1) p 2 + np
En realidad, para que la demostracin anterior sea vlida debe ser n 2, pero es
2
2
inmediato verificar que, si n=2, E ( X ) = 2 p + 2 p y por lo tanto la expresin hallada es
vlida para todo n.

36

Finalmente,

V ( X ) = E ( X 2 ) (E ( X ) ) = n(n 1) p 2 + np n 2 p 2 = np 2 + np = np(1 p)
2

En el siguiente grfico se muestra la funcin de probabilidad puntual correspondiente a la


distribucin Binomial para distintos valores de p y n=10. Puede observarse cmo la
distribucin se simetriza a medida que p tiende a 0.5.
Cmo seran los grficos para valores de p>0.5?
Distribucion Binomial n=10

p=0.20
0.30
0.20

p=0.15

10

p(x)
0.10
0.0

0.0

0.0

0.1

0.1

p(x)
0.2

p(x)
0.2

0.3

0.3

0.4

p=0.10

10

10

10

10

10

p(x)
0.10

0.20

0.20
10

0.0

0.0
8

p=0.50

p(x)
0.10

0.20

6
x

p(x)
0.10

p=0.45

0.0

10

0.0
0

p=0.40

p(x)
0.10

0.20
0.0
6

p=0.35

p(x)
0.10

p(x)
0.10
0.20

4
x

p=0.30

0.0

0.20

p=0.25

6
x

10

6
x

37

En el siguiente grfico se muestra la funcin de probabilidad puntual correspondiente a la


distribucin Binomial para distintos valores de p y n.

p=0.10 n=10

p=0.10 n=25

0.20
p(x)
0.10
0.0

0.0

0.0

0.1

0.2

p(x)

p(x)
0.2

0.4

0.3

0.6

0.4

p=0.10 n=5

10

20

25

p(x)
0.10

0.20

0.05
0.0

0.0
3

15

p=0.50 n=25

p(x)
0.10

0.25
p(x)
0.15

10
x

p=0.50 n=10

0.05

0.15

p=0.50 n=5

10

10

20

25

15

20

25

p=0.90 n=10

0.20
p(x)
0.10
0.0

0.0

0.0

0.1

0.2

p(x)

p(x)
0.2

0.4

0.3

0.6

0.4

p=0.90 n=5

15
x

3
x

6
x

10

10
x

38

Variable aleatoria Geomtrica: Supongamos que se repite en forma independiente un


ensayo de Bernoulli con probabilidad de xito (P(E)=p) constante en todas las pruebas.
Se define la v.a.
X: nmero de repeticiones hasta obtener el primer xito.
Notacin: X ~ G (p).
Al estudiar en general las v.a. discretas, hemos probado que la funcin de probabilidad
puntual de X est dada por

p X (k ) = (1 p) k 1 p

k N .

y su funcin de distribucin acumulada por

0
FX ( x) =
[x ]
1 (1 p )

si x < 1
si x 1

donde [x ] denota la parte entera de x .


Esperanza y varianza de una variable aleatoria geomtrica: Sea X ~ G (p),

E( X ) =

1
p

V (X ) =

(1 p )
p2

Dem: Lo hemos demostrado al estudiar en general la esperanza y la varianza de una v.a.


discreta.
Proposicin (Propiedad de Falta de Memoria): Sea X ~ G (p) y sean n y m nmeros
naturales cualesquiera,

P ( X > n + m | X > n ) = P ( X > m)


Dem: Ejercicio.
(Sugerencia: Demostrar que si X ~ G (p), P ( X > k ) = (1 p ) k ).

Ejemplo: Sea X: nmero de tiros hasta obtener el primer as en una sucesin de tiros de
un dado equilibrado, entonces X ~ G (1/6).

39

15
P( X = 7) = = 0.06
66
5

5
P( X 6) = P( X > 5) = = 0.40
6
E( X ) =

1
=6
1/ 6

V (X ) =

5/6

(1 / 6)2

= 30

En el siguiente grfico se muestra la funcin de probabilidad puntual correspondiente a la


distribucin Geomtrica para distintos valores de p.

p(x)
0.10
0.05

0.05

p(x)

p(x)
0.06

10

15

20

25

30

10

15

20

25

30

10

p=0.25

p=0.30

p=0.35

15

20

15

20

15

20

p(x)
0.2

p(x)
10

15

20

10

15

20

10
x

p=0.40

p=0.45

p=0.50

0.4

0.4
10
x

15

20

0.0

0.0

0.1

0.1

p(x)
0.2 0.3

p(x)
0.2 0.3

0.3
p(x)
0.2
0.1

0.0
0

0.5

0.4

0.0

0.0

0.0

0.1

0.10

p(x)
0.10

0.20

0.20

0.3

0.30

0.0

0.0

0.02
0

p=0.20

0.15

p=0.15

0.10

p=0.10

0.20

0.15

0.10

Geometrica

10
x

15

20

10
x

40

Variable aleatoria Binomial Negativa: Supongamos que se repite en forma


independiente un ensayo de Bernoulli con probabilidad de xito (P(E)=p) constante en
todas las pruebas. Se define la v.a.
X: nmero de repeticiones hasta obtener el r-simo xito (r 1).
Notacin: X ~ BN (r,p).
Esta v.a. es una generalizacin de la v.a. Geomtrica, la cual corresponde al caso r = 1.
Observemos que RX = {r, r+1, r+2, ....} y hallemos su funcin de probabilidad puntual.
Sea k un nmero natural, k r. Para que sean necesarias k repeticiones para obtener el
primer xito, el r-simo xito debe ocurrir en la repeticin k y en las (k-1) repeticiones
previas debe haber exactamente (k-1) xitos. Como las repeticiones son independientes
la probabilidad de una configuracin de ese tipo es p r (1 p ) k r , pero hay varias
configuraciones de esta forma. Cuntas? Tantas como formas de elegir entre las (k-1)

k 1
.
r 1

primeras repeticiones, aquellas donde ocurrirn los (r-1) xitos, o sea


Por lo tanto la funcin de probabilidad puntual ser:

k 1 r
p (1 p ) k r
P( X = k ) =
1

k {r , r + 1, r + 2,....}

Funcin de distribucin: Si X ~ BN (r,p),

FX ( x) =
[ x ] k 1 r
p (1 p) k r

k = r r 1

si x < r
si x r

donde [x] denota la parte entera de x.


Ejemplo: Se extraen con reposicin bolillas de una urna que contiene 3 bolillas blancas y
7 rojas. Se define X: nmero de extracciones hasta obtener la cuarta bolilla roja.
X ~ BN (4,7/10)

5 1 7

P( X = 5) =
4 1 10

3
= 0.29
10

41

k 1 7

P(5 X 7) =
k =5 3 10
7

3

10

k 4

= 0.49

Proposicin: Sea X ~ BN (r,p),

E( X ) =

r
p

V (X ) =

r (1 p )
p2

Dem: Lo demostraremos ms adelante usando que una v.a. Binomial Negativa puede
expresarse como suma de v.a. Geomtricas independientes.

Observacin: Esta v.a. suele tambin definirse como el nmero de Fracasos antes de
obtener el r-simo xito. Si la denotamos X, entonces su rango ser
RX* = {0,1,2,...} = N {0}
y su funcin de probabilidad puntual:

r + x 1 r
p (1 p ) x
p X * ( x) =
x

En este caso,

E( X * ) =

r (1 p )
r (1 p )
y V (X * ) =
p
p2

Variable aleatoria Hipergeomtrica: Supongamos que

La poblacin a ser muestreada consiste de N elementos o individuos (poblacin finita)


Cada elemento o individuo puede ser clasificado como xito o Fracaso y hay D xitos
en la poblacin.
Se extrae de la poblacin una muestra de n elementos o individuos, de forma tal que
cualquier subconjunto de tamao n tiene la misma probabilidad de ser elegido.

Sea X : nmero de xitos en la muestra de tamao n. Se dice que X tiene distribucin


Hipergeomtrica de parmetros n, N y D y se denota
X ~ H (n,N,D)

Ejemplo: De una urna que contiene 3 bolillas blancas y 7 negras se extraen 4 bolillas sin
reposicin y se define X: nmero de bolillas blancas extradas.

42

Cmo calcularamos la probabilidad de que se extraigan 2 bolillas blancas (X = 2)?


Como todos los conjuntos de 4 bolillas tienen la misma probabilidad de ser extrados, la
probabilidad de uno cualquiera de ellos ser

3 7
1
. Por otro lado hay conjuntos
10
2 2

4

que contienen 2 bolillas blancas y 2 negras y, por lo tanto la probabilidad pedida ser:

3 7

2 2
3 21 3
P( X = 2) = =
= .
210 10
10

4
Proposicin: Si X ~ H (n,N,D),

D N D

k n k

p X (k ) =
N

n

max(0, n ( N D) ) k min (n, D )

Dem: El nmero de subconjuntos distintos de tamao n que se pueden extraer de una

D N D

que contienen k
poblacin de tamao N es . De esos conjuntos, hay
n
k n k
xitos y (n-k) Fracasos y se obtiene la funcin de probabilidad. El rango de valores
posibles de k resulta de observar que se deben satisfacer tres condiciones:
0k n

kD

n-kN-D

De las dos primeras se obtiene: k n, k D k min (n, D )


De la primera y la tercera se obtiene: k 0, k n ( N D ) k max (0, n ( N D ) ) .
Proposicin: Si X ~ H (n,N,D),

E( X ) = n

D
N n D
V (X ) =
n 1
N
N 1 N

D
N

Dem: Ejercicio opcional.

N n
que aparece en la expresin de la varianza se
N 1

Observaciones: 1) El factor

denomina factor de correccin por poblacin finita.

43

2) Si n es pequeo en relacin a N, la hipergeomtrica puede ser aproximada por la


distribucin Binomial de parmetros n y p=D/N. Observemos que, en este caso el factor
de correccin finita es aproximadamente 1.

Lmite de la funcin de probabilidad puntual de una v.a. Binomial:


Proposicin: Sea X ~ Bi(n,p) y supongamos que n y p 0 , de manera que n p =
(fijo), entonces:

n
e k
p X (k ) = p k (1 p ) n.k

k!
k

k N o = N {0}

Dem:

n
n!

p X (k ) = p k (1 p) n k =

k!(n k )! n
k


1
n

n(n 1)...(n k + 1)
=
1 1
n
n
nk

n n 1 n k + 1
....
=
1 n
n
n n


1
n

nk

k
k!
k
.
k!

Observemos que:

n 1 n k +1
....
n
1

n
n


e
1 n


1
n

n
1

e k

Entonces, p X (k )
, como queramos demostrar.
k!
Esta proposicin sugiere que la funcin de probabilidad puntual podra ser aproximada por
la funcin de probabilidad lmite, pero cundo se considera que n es grande y p es
pequeo para que la aproximacin sea buena?

44

Algunos autores sugieren n 100, p 0.01 y np 20.


En la siguiente tabla se presentan a modo de ejemplo, algunos valores exactos de la
probabilidad y su aproximacin para el caso X ~ Bi (100, 1/36)
k
0
1
2
5
8
9
10

Prob. exacta (Binomial)


0.0598
0.1708
0.2416
0.0857
0.0049
0.0014
0.0004

Aproximacin
0.0622
0.1727
0.2399
0.0857
0.0055
0.0017
0.0005

Como se observa, la aproximacin es bastante buena, an cuando no se cumple la


condicin p 0.01.

Variable aleatoria Poisson: Una v.a. cuya funcin de probabilidad puntual es la


obtenida en la proposicin anterior, se dice que tiene distribucin de Poisson de
parmetro ( > 0), y se nota X ~ P().
Es decir, X ~ P() si su funcin de probabilidad puntual est dada por:

e k
p X (k ) =
k!

k N o = N {0}

Verifiquemos que es, en efecto, una funcin de probabilidad puntual:


Es obvio que p X (k ) 0

k .

Por otra parte

k
e k
= e
= e e = 1,
!
!
k
k
k =0
k =0

p X (k ) =
k =0

ya que

xk
es el desarrollo en serie de e x .

!
k =0 k

Ejemplo: Sea X: nmero de mensajes rechazados por segundo por un servidor


supongamos que X ~ P(5).

a) Calcular la probabilidad de que se rechacen exactamente 2 mensajes en un segundo.

45

P( X = 2) =

e 5 5 2
= 0.084
2!

b) Calcular la probabilidad de que se rechacen a lo sumo 2 mensajes en un segundo.

52
e 5 5 k
5

= e 1 + 5 +
P( X 2) =
2
k!
k =0

=0.125

Proposicin: Si X ~ P(), entonces

E( X ) =

V (X ) =

Dem:

E( X ) = k
k =0

e k e k e k
e k 1
e j
= k
=
=
=
= .
k!
k!
j!
k =1
k =1 (k 1)!
k =1 (k 1)!
j =0

Por otra parte,

E( X 2 ) = k 2
k =0

e k
e k
e k
e k
= (k (k 1) + k )
= k (k 1)
+ k
=
k!
k!
k!
k!
k =0
k =2
k =0

e k 2
e j
+ E ( X ) = 2
+ = 2 + .
2
!
!
(
k

)
j
k =2
j =0

= 2
Entonces

V ( X ) = E ( X 2 ) (E ( X ) ) = 2 + 2 = .
2

46

En el siguiente grfico se muestra la funcin de probabilidad puntual correspondiente a la


distribucin de Poisson para distintos valores de . En l puede observarse cmo la
distribucin se simetriza alrededor de a medida que este parmetro crece.
Distribucion Poisson

0.8

10

15

20

0.3
0.1
0.0

0.0
5

0.2

p(x)

0.4
p(x)
0.2

0.4
0.0

0.2

10

15

20

10

lambda =3

lambda =5

20

15

20

30

40

0.10

p(x)

0.15

15

10

15

20

10

15

20

10

lambda =10

lambda =15

lambda =20

p(x)

0.06

0.08
p(x)
0

10

15
x

20

25

30

0.0

0.0

0.02

0.04

0.08
0.04
0.0

p(x)

0.12

0.0

0.0

0.0

0.05

0.10

p(x)

0.20

0.20

x
lambda =2

0.10

p(x)

0.6

lambda =0.5

p(x)

lambda =1

0.6

lambda=0.10

10

15
x

20

25

30

10

20
x

47

Proceso de Poisson: Una aplicacin importante de la distribucin de Poisson surge en


relacin con la ocurrencia de eventos a lo largo del tiempo, por unidad de rea, por unidad
de volumen, etc. En lo que sigue nos referiremos, sin prdida de generalidad a
ocurrencias de un evento a lo largo del tiempo, que podremos esquematizar en la forma:

A partir del instante 0 y hasta el momento t1 ocurrieron 5 eventos.


Imaginemos que dividimos el intervalo (0, t1 ) en un nmero muy grande de pequeos
subintervalos, de manera que se satisfacen las siguientes condiciones:

La probabilidad de que ocurra un evento en un subintervalo es proporcional a la


longitud del subintervalo.

La probabilidad de que ocurra ms de un evento en un subintervalo es despreciable


con respecto a la probabilidad de que ocurra uno.

La ocurrencia de un evento en un subintervalo es independiente de lo que ocurre en


otro subintervalo disjunto.

En particular, si todos los intervalos son de igual longitud t1/n, la v.a. X t1 : nmero de
eventos que ocurren en el intervalo (0, t1 ) es casi binomial, siendo xito la ocurrencia de
un evento en cada uno de los subintervalos y p = P(xito)=probabilidad de que ocurra un
evento. Si el nmero de subintervalos es suficientemente grande y por lo tanto el p
suficientemente pequeo, por el resultado lmite que hemos probado, la variable X t1 tiene
distribucin de Poisson.

Ejemplos: 1) Mensajes de correo electrnico que llegan a una casilla de correos.


2) Emisin de partculas por una sustancia radioactiva.
3) Accidentes que ocurren en un cruce de ruta.
4) Nmero de errores en una pgina de un libro.
5) Nmero de larvas de cierto insecto en un terreno.
Ejercicio: Para cada uno de estos ejemplos, discutir en que situaciones se verifican las
tres condiciones enunciadas.

48

Definicin: Supongamos que se observa la ocurrencia de un evento a lo largo del tiempo y


que existe una cantidad positiva > 0, tal que
1) La probabilidad de que ocurra exactamente un evento en un intervalo pequeo de
longitud t es aproximadamente igual a t , es decir:
P(ocurra un evento en t) = t + o(t)
siendo o(h) una funcin g(h) tal que lim
h 0

g (h)
= 0.
h

2) La probabilidad de que ocurra ms de un evento en un intervalo pequeo de longitud


t es despreciable cuando se la compara con la probabilidad de que ocurra un evento,
es decir:
P(ocurra ms de un evento en t) = o(t)
3) El nmero de eventos que ocurren en un intervalo es independiente del nmero de
eventos que ocurren en otro subintervalo disjunto.
Entonces, el nmero de ocurrencias del evento en un periodo de longitud t tiene
distribucin de Poisson de parmetro ( t), es decir que la v.a. Xt: nmero de ocurrencias
del evento en el intervalo de longitud t satisface
Xt ~ P( t)
Observaciones: 1) Cmo se interpreta la cantidad ?
Puede interpretarse como la tasa media a la cual ocurren los eventos en la unidad de
tiempo. Se la suele llamar tasa media de ocurrencia o intensidad del Proceso de Poisson.
2) Cul es la diferencia entre un Proceso de Poisson y una v.a. con distribucin
Poisson?
La definicin anterior, que en realidad es un teorema, da las condiciones bajo las cules
ciertos experimentos aleatorios que producen como resultados eventos en el tiempo (o en
longitud, rea, volumen, etc) pueden ser modelados mediante la distribucin de Poisson.
Consideremos los ejemplos 1) a 5). Slo bajo ciertas condiciones, satisfacen las
propiedades de un Proceso de Poisson.
Ejemplo: Supongamos que el nmero de mensajes de correo electrnico que llegan a una
casilla de correos sigue un proceso de Poisson de intensidad = 2 mensajes / minuto.
a) Cul es la probabilidad de que no se reciba ningn mensaje entre las 12 hs y las
12:03 hs?
Sea X3: nmero de mensajes en un periodo de 3 minutos
X3 ~ P(2 3) = P(6)
Entonces, P(X3 =0) = e-6 = 0.002

49

b) Cul es el nmero esperado de mensajes en media hora?


Sea X30: nmero de mensajes en un periodo de 30 minutos
X30 ~ P(2 30) = P(60) E(X30) = 60
c) Cul es la probabilidad de que no se reciba ningn mensaje entre las 13:30 hs y las
13:33 hs?
La respuesta es la misma del tem a) porque la distribucin depende slo de la longitud
del intervalo y no de su ubicacin.

50

También podría gustarte