Está en la página 1de 23

Autora: Ana María Lara Porras

Capítulo 6

Algunas distribuciones discretas


de probabilidad

En el capítulo anterior hemos estudiado propiedades generales de las variables aleatorias


discretas, en este capítulo vamos a desarrollar tipos específicos de variables aleatorias dis-
cretas. En primer lugar estudiamos la variable aleatoria de Bernouilli: "Cualquier variable
aleatoria que represente la presencia o ausencia de una determinada condición de un
fenómeno observado tendrá una distribución de Bernouilli". El nombre de Bernouilli lo
recibe del probabilista suizo Jacques Bernouilli (1645-1705) que desarrolló por primera vez
el concepto de ensayos independientes. La extensión a n ensayos independendientes nos
conduce a la variable aleatoria discreta binomial. Por último estudiamos la distribución de
Poisson, llamada así en honor al matemático francés Simeón Denis Poisson (1781-1840).

6.1. Distribución de Bernouilli


La distribución de Bernouilli (o distribución dicotómica), nombrada así por el matemático
y científico suizo Jacques Bernoulli, es una distribución de probabilidad discreta, que toma
valor 1 para la probabilidad de éxito p y valor 0 para la probabilidad de fracaso q = 1 - p.
Es decir, si consideramos un experimento aleatorio E en el que observamos si se presenta
o no un suceso A. Llamamos “éxito” a la ocurrencia del suceso A y “fracaso” a la no
ocurrencia del suceso A. A su vez, llamamos p a la Probabilidad de Éxito, P(A) = p, y q
a la Probabilidad de Fracaso, P(A) = q .

P(A) = p ⎬
⇒ p+q = 1

P(A) = 1 − P(A) = q

183

Autora: Ana María Lara Porras


184 Algunas distribuciones discretas de probabilidad

Sea X una variable aleatoria discreta que representa el número de éxitos (no de veces que
ocurre el suceso A) y toma dos valores 0 y 1
½ ½
1 si ocurre el suceso A 1 con probabilidad p
X= o X=
0 si no ocurre el suceso A 0 con probabilidad q

Por lo tanto P [X = 1] = p y P [X = 0] = q.
En estas condiciones se dice que X tiene una Distribución de Bernouilli de parámetros
1 y , y se denota X Ã B(1, p), donde 1 es el número de veces que se realiza el experimento
p
y p es la probabilidad de éxito.

6.1.1. Características
Esperanza matemática
X
E [X] = pi xi = p ×1 + q ×0 = p
i

Varianza
£ ¤
Var [X] = E X 2 − [E [X]]2 = p ×12 + q ×02 − p2 = p − p2 = p(1 − p) = p q

Función generatriz de momentos


£ ¤ X
ψ(t) = E etX = pi etxi = p ×et + q ×et0 = p et + q
i

La media y la varianza también se pueden obtener a partir de la función generatriz de


momentos ⎫
ψ 0 (t) = p et ⇒ ψ 0 (0) = p = m1 = E [X] ⎬

ψ 00 (t) = p et ⇒ ψ 00 (0) = p = m2
Por lo tanto
E [X] = p
Var [X] = m2 − m21 = p − p2 = p q

6.2. Distribución binomial


La distribución binomial es una distribución de probabilidad discreta, mide el número de
éxitos en una secuencia de n ensayos independientes de Bernoulli, con una probabilidad fija
6.2 Distribución binomial 185

p de ocurrencia del éxito entre los ensayos. La distribución binomial es una generalización
de la distribución de Bernoulli, a la que puede llegarse nuevamente haciendo n = 1.
Supongamos que el experimento aleatorio E, definido en la sección anterior, se realiza
n veces en las mismas condiciones y se anotan los valores para X1 , X2 , · · · , Xn , donde
½
1 si ocurre el suceso A en el i−ésimo ensayo
Xi = i = 1, 2, · · · , n
0 si no ocurre
o ½
1 con probabilidad p
Xi = i = 1, 2, · · · , n
0 con probabilidad q
Por tanto, se tiene una sucesión de n variables aleatorias de Bernouilli. Una función de
interés
Pn especial de X1 , X2 , · · · , Xn es la suma, X1 +X2 +· · ·+Xn , que denotamos por X =
i=1 i . Es decir, consideramos una v.a. X suma de n variables aleatorias independientes,
X
X = X1 +X2 +· · ·+Xn , distribuidas cada una de ellas según una distribución de Bernouilli
de parámetros 1 y p, Xi à B(1, p), (i = 1, 2, · · · , n).
Veamos qué distribución tiene la variable aleatoria X.
Sabemos que la función generatriz de momento de cada v.a. Xi es:
£ ¤
ψ Xi (t) = E etXi = p et + q .
Por lo tanto la función generatriz de la variable aleatoria X = X1 + X2 + · · · + Xn es
£ ¤ h i h i
ψ X (t) = E etX = E et(X1 +X2 +···+Xn ) = E et(X1 ) .et(X2 ) . · · · .et(Xn ) =(1)
h i h i h i ¡ ¢ ¡ ¢ ¡ ¢n
= E et(X1 ) . E et(X2 ) . · · · . E et(Xn ) = p et + q . · · · . p et + q = p et + q

De donde deducimos que X Ã B(n, p)


(1) : Xi son vv.aa. independientes ⇒ E [X1 .X2 . · · · .Xn ] = E [X1 ] . E [X2 ] . · · · . E [Xn ]
La variable aleatoria discreta X, que representa el número de éxitos en n ensayos
independientes y toma todos los valores correspondientes entre 0 y n (0, 1, 2, · · · , n) se
dice que se distribuye según una Distribución Binomial de parámetros n y p, y se denota
X Ã B(n, p), (donde n es el número de veces que se realiza el experimento y p es la
probabilidad de éxito).
½ ½
1 si ocurre el suceso A 1 con probabilidad p
X= o X=
0 si no ocurre el suceso A 0 con probabilidad q
Por lo tanto P [X = 1] = p y P [X = 0] = q .
Fácilmente se determina la distribución de probabilidad para X con la hipótesis de
que P [Xi = 1] = p, donde p es constante en todos los intentos.
186 Algunas distribuciones discretas de probabilidad

6.2.1. Función de probabilidad


Supongamos que una de las realizaciones del experimento aleatorio E es la siguiente

AAAAAAA · · · AAA

y supongamos también que el suceso A se presenta k veces y, por tanto, el suceso A se


presenta n − k veces, siendo k un entero positivo comprendido entre 0 y n. Como los
resultados obtenidos, cada vez que se repite el experimento aleatorio, son independientes
unos de otros la probabilidad de la secuencia anterior es
£ ¤
P AAAAAAA · · · AAA = p p p p q p q · · · p q p = pk qn−k .

Pero, ¿cuántas formas posibles hay de obtener k éxitos y n − k fracasos? o ¿de cuántas
formas diferentes se pueden ordenar los n elementos en los que la A se repite k veces y
A se repite n − k veces? El número posibles ordenaciones viene dado por el número de
permutaciones con repetición de n elementos siendo, por un lado k iguales entre sí y por
otro lado n − k también iguales entre sí, por lo tanto:
µ ¶
k,(n−k) n! n
Pn = =
k!(n − k)! k
En definitiva, la probabilidad de obtener k éxitos en n ensayos independientes es
µ ¶
n k n−k
P [X = k] = p q (6.1)
k
µ ¶
n
donde es el número de combinaciones sin repetición de orden k entre n elementos y
k
n!
su valor es .
k!(n − k)!
Comprobamos que (6.1) es una función de probabilidad, para ello se tiene que verificar
que
n
X
P [X = k] = 1
k=0
En efecto,
n
X n µ ¶
X n
P [X = k] = pk qn−k = (p + q)n = 1
k
k=0 k=0

Definición: Sea X una v.a. discreta que representa el número de éxitos en n ensayos
independientes entre sí y toma todos los valores posibles entre 0 y n. Sean p y q las
6.2 Distribución binomial 187

probabilidades de éxito y fracaso, respectivamente, de cualquiera de estos ensayos. Se dice


que X tiene una Distribución Binomial de parámetros n y p, y se denota X Ã B(n, p)
con función de probabilidad
⎧ µ ¶

⎪ n k n−k
⎨ p q k = 0, 1, 2, · · · n; n ∈ Z; 0 ≤ p ≤ 1
k
P [X = k] = b [k; n, p] =



0 para cualquier otro valor

Ejemplos:

1. Número de hijos con ojos verdes en una familia de 4 hijos

2. Número de plantas enfermas seleccionadas de un total de 10 plantas

3. Número de personas contagiadas de una enfermedad de un total de 20 que han


estado en contacto con el portador, con un 10 % de posibilidades de transmitir la
enfermedad

4. Número de reacciones negativas a un fármaco administrado a 30 pacientes.

En estos ejemplos, que aparentemente pueden parecer que no guardan ninguna relación,
podemos observar los siguientes puntos comunes:

a) Cada uno de estos experimentos se puede considerar formado por un número fijo de
pruebas o ensayos idénticos. En el ejemplo 1 hay cuatro pruebas y cada nacimiento
será una prueba. En el ejemplo 2, la prueba consiste en seleccionar una planta y
comprobar si está enferma, en total se hacen 10 ensayos idénticos. En el ejemplo 3,
el ensayo consiste en observar a un individuo que entra en contacto con el portador
de una enfermedad y comprobar si se ha contagiado, se hacen 20 ensayos idénticos.
En el ejemplo 4, la prueba consiste en comprobar si la reacción a un fármaco es
negativa, se hacen 30 pruebas idénticas.

b) Cada ensayo sólo puede tener un resultado de dos posibles, que reciben el nombre
de “éxito” y “fracaso”. Así, en los ejemplos anteriores el éxito consiste en: tener un
niño con ojos verdes, la planta seleccionada esté enferma, el individuo observado esté
contagiado, la reacción al fármaco sea negativa, respectivamente.

c) La probabilidad de éxito, p, permanece constante en cada ensayo. En los ejemplos


anteriores las probabilidades de éxito permanecen constantes en cada ensayo y sus
valores son: 1/4 en el Ejemplo 1; p = 0,1 en los ejemplos 2 y 3 y p = 0,3 en el
Ejemplo 4.
188 Algunas distribuciones discretas de probabilidad

d) Los ensayos son independientes entre sí (el resultado de un ensayo no tiene efecto
sobre el resultado de cualquier otro ensayo). En el Ejemplo 1 los nacimientos son
obviamente independientes entre sí, en los ejemplos 2, 3 y 4 también se satisface
la independencia ya que el hecho de que una planta, una persona seleccionada esté
enferma no influye en que lo esté otra, o el hecho de que un paciente tenga reacción
negativa a un fármaco no tiene influencia sobre la susceptibilidad de otro paciente.

e) La variable de interés es el número de éxitos en n ensayos.

Resumiendo: Una variable aleatoria discreta X tiene una distribución B(n, p) si cumple
las siguientes condiciones:

1. El experimento consiste en un número fijo de ensayos idénticos.

2. Cada ensayo sólo puede tener un resultado de dos posibles, que reciben el nombre
de “éxito” y “fracaso”.

3. La probabilidad de éxito, p, permanece constante en cada ensayo.

4. Los n ensayos son independientes entre sí.

5. Se define X como el número de éxitos en n ensayos.

La función de distribución de la v.a. X Ã B(n, p) se define de la siguiente manera:

k
X
P [X ≤ k] = b [i; n, p]
i=0

su gráfica es la de una función escalonada, continua por la derecha y monótona no decre-


ciente.
La distribución b [k; n, p] se encuentra tabulada para algunos valores de n y p en la
Tabla I del Apéndice B.
Ejemplo 6.1: Supongamos el experimento consistente en el lanzamiento de diez mone-
das, siendo, en cada una de ellas, la probabilidad de cara 0,7, P(cara) = 0,7. Se pide la
probabilidad de que:

a) El número de caras sea menor o igual a 2.

b) El número de caras esté entre 5 y 7 ambos inclusive.


6.2 Distribución binomial 189

Respuesta:
Suceso A: “Obtener cara en el lanzamiento de una moneda”.
La variable aleatoria discreta X : "Número de caras en el lanzamiento de 10 monedas" se
distribuye segúnµuna¶distribución Binomial B(10, 0,7) y su función de probabilidad es
10
P [X = k] = (0,7)k (0,3)10−k
k

a) P [X ≤ 2] = P [X = 0] + P [X = 1] + P [X = 2] =
µ ¶ µ ¶ µ ¶
10 0 10 10 1 9 10
= (0,7) (0,3) + (0,7) (0,3) + (0,7)2 (0,3)8 =
0 1 2

= (0,3)10 + 10(0,7)1 (0,3)9 + 45(0,7)2 (0,3)8

b) P [5 ≤ X ≤ 7] = P [X = 7] + P [X = 6] + P [X = 5] =
µ ¶ µ ¶ µ ¶
10 7 3 10 6 4 10
= (0,7) (0,3) + (0,7) (0,3) + (0,7)5 (0,3)5
7 6 5

6.2.2. Características
En primer lugar calculamos la función generatriz de momentos.

Función generatriz de momentos


n n µ ¶
£ tX ¤ X tk
X
tk n pk qn−k
ψ(t) = E e = e P [X = k] = e =
k
k=0 k=0
Xn µ ¶
n ¡ t ¢k n−k ¡ t ¢n
= pe q = pe + q
k
k=0

La media y la varianza se van a obtener a partir de la función generatriz de momentos,


para ello se calculan las dos primeras derivadas de dicha función y se particulariza
para t = 0
¡ ¢n−1 t
ψ 0 (t) = n p et + q p e ⇒ ψ 0 (0) = n (p + q)n p = n p = m1
¡ ¢n−2 ¡ t ¢2 ¡ ¢
ψ 00 (t) = n(n − 1) p et + q p e + n p et p et + q n−1 ⇒

⇒ ψ 00 (0) = n(n − 1) p2 +n p = m2

Por lo tanto:
190 Algunas distribuciones discretas de probabilidad

Esperanza matemática: E [X] = n p

Varianza

Var [X] = m2 − m21 = n(n − 1) p2 +n p −n2 p2 =


= n2 p2 −n p2 +n p −n2 p2 = n p (− p +1) = n p q

Propiedad aditiva. Sean X1 , X2 , · · · , Xk , k variables aleatorias independientes, dis-


tribuidas cada una de ellas según una distribución Binomial, Xi à B(ni , p), (i = 1,
2, · · · , k). Entonces la v.a. formada por la suma de las vv.aa. Xi , X1 + X2 + · · · + Xk , se
distribuye según una Binomial de parámetros n1 + n2 + · · · + nk y p .
En efecto, sabemos que la función generatriz de momento de cada v.a. Xi es:
£ ¤ ¡ ¢n
X1 : ψ X1 (t) = E £etX1 ¤ = ¡p et + q¢ 1
n
X2 : ψ X2 (t) = E etX2 = p et + q 2
..
. £ ¤ ¡ ¢n
Xk : ψ Xk (t) = E etXk = p et + q k

Por lo tanto la función generatriz de la variable aleatoria X1 + X2 + · · · + Xk es


h i h i
ψ X1 +X2 +···Xk (t) = E et(X1 +X2 +···+Xk ) = E et(X1 ) .et(X2 ) . · · · .et(Xk ) =(1)
h i h i h i ¡ ¢n
= E et(X1 ) . E et(X2 ) . · · · . E et(Xk ) = p et + q 1 ×
¡ ¢n ¡ ¢n ¡ ¢n +n +···+nk
× p et + q 2 · · · . p et + q k = p et + q 1 2

de donde deducimos que X1 + X2 + · · · + Xk à B(n1 + n2 + · · · + nk , p). Se dice que la


distribución Binomial es aditiva en el parámetro n. No sucede lo mismo con el parámetro
p.
(1) : Xi son vv.aa. independientes ⇒ E [X1 .X2 . · · · .Xn ] = E [X1 ] . E [X2 ] . · · · . E [Xn ] .

Figura 6.1: F. masa de probabilidad Figura 6.2: F. de distribución


6.2 Distribución binomial 191

Ejemplo 6.2: Una pareja formada por un hombre y una mujer ambos con un gen recesivo
y uno dominante para el color de los ojos, son padres de cuatro hijos. El gen recesivo es el
color verde en los ojos y el gen dominante es el color marrón. Sea X el número de hijos
con los ojos verdes. Determinar: a) La función de probabilidad; b) Tengan exactamente
dos hijos con ojos verdes; c) Ningún hijo tenga los ojos verdes; d) más de dos hijos
tengan los ojos verdes; e) entre uno y dos hijos tengan los ojos verdes; f ) menos de
tres hijos tengan los ojos verdes; g)La media; h) La varianza.
Respuesta:
Sean los sucesos V : “Color de ojos verdes” y M : “Color de ojos marrones” .
El Espacio muestral E: {(V V ), (V M ), (M V ), (M M )}; P (V V ) = 1/4; n = 4
X: "No de hijos con ojos verdes de un total de 4 hijos" es una variable aleatoria discreta
1
Binomial B(4, p), con P (V V ) = . Por tanto X Ã B(4, 1/4)
4
µ ¶ µ ¶k µ ¶4−k
4 1 3
a) P [X = k] =
k 4 4
µ ¶ µ ¶2 µ ¶4−2
4 1 3
b) P [X = 2] = = 0,2109
2 4 4
µ ¶ µ ¶0 µ ¶4−0
4 1 3
c) P [X = 0] = = 0,3164
0 4 4
µ ¶ µ ¶3 µ ¶4−3 µ ¶ µ ¶4 µ ¶4−4
4 1 3 4 1 3
d) P [X > 2] = P [X = 3] + P [X = 4] = + =
3 4 4 4 4 4
= 0,4609 + 0,0039 = 0,4648

e) P [X = 1] + P [X = 2] = 0,4219 + 0,2109 = 0,6328

f) P [X < 3] = 1 − P [X ≥ 3] = 1 − (P [X = 3] + P [X = 4]) = 1 − 0,4648 = 0,5352


1
g) E [X] = n p = 4 × =1
4
1 3 3
h) Var [X] = n p q = 4 × × = .
4 4 4
Ejemplo 6.3: Un portador de una determinada enfermedad contagiosa tiene un 10 % de
posibilidades de transmitir la enfermedad. Durante el transcurso de un día el portador
entra en contacto con 20 personas cada una de ellas propensa a la enfermedad. ¿Cuántos
individuos se espera que contraigan la enfermedad?
Respuesta:
192 Algunas distribuciones discretas de probabilidad

X: "No de personas que contraen la enfermedad"es una v.a. discreta Binomial B(20; 0,1).
Por tanto X Ã B(20; 0,1).
Cada individuo que entra en contacto con el portador tiene un 10 % de posibilidades de
contraer la enfermedad, por lo tanto se espera que se contagien un 10 % de las personas que
entran en contacto con el portador, es decir 10 % de 20, (0,1 × 20 = 2). O bien aplicando
la expresión de la Esperanza matemática
E [X] = n p = 20 × 0,1 = 2

6.3. Distribución de Poisson


La distribución de Poisson fue descubierta por Siméon-Denis Poisson (1781—1840). En el
trabajo publicado en 1838, Recherches sur la probabilité des jugements en matières cri-
minelles et matière civile" ("Investigación sobre la probabilidad de los juicios en materias
criminales y civiles"), estudia unas variables aleatorias discretas que cuentan el número
de ocurrencias que tiene lugar durante un intervalo de tiempo de duración determinada.
Si el número esperado de ocurrencias en este intervalo es λ, entonces la probabilidad de
que haya exactamente r ocurrencias (siendo r un entero no negativo, r = 0, 1, 2, ...) es
λr
igual a P [X = r] = p(r, λ) = e−λ .
r!
Definición: Se dice que una variable aleatoria discreta, X, sigue una distribución de
Poisson de parámetro λ no negativo, y se denota por X Ã P (λ), cuando puede tomar
todos los valores enteros positivos 0, 1, 2, · · · , n, · · · ; siendo la probabilidad de X = r la
siguiente:
λr −λ
P [X = r] = p(r, λ) = e , r = 0, 1, 2, · · · , n, · · · ; λ > 0 (6.2)
r!
dónde:

e es el base del logaritmo natural o neperiano (e = 2.71828...)


r! es el factorial de r
r es el número de ocurrencias de un evento
λ es un número real positivo, equivalente al número esperado de ocurrencias durante
un intervalo dado.

Veamos que efectivamente la expresión (6.2) define una función de probabilidad. Para ello
hay que comprobar que

X
P [X = r] = 1
r=0
6.3 Distribución de Poisson 193

En efecto,

X ∞
X ∞
X
λr λr
P [X = r] = e−λ = e−λ = eλ e−λ = 1
r=0 r=0
r! r=0
r!

La función de distribución de la ley de Poisson viene dada por


r
X
P [X ≤ r] = p(i, λ)
i=0

Dicha función de distribución está tabulada en la Tabla II del Apéndice B y su gráfica,


como en la distribución Binomial, es la de una función escalonada, continua por la derecha
y monótona no decreciente.
La distribución Poisson, Se aplica a varios fenómenos discretos de la naturaleza (esto
es, aquellos fenómenos que ocurren 0, 1, 2, 3, ... veces durante un periodo definido de
tiempo o en una área determinada) cuando la probabilidad de ocurrencia del fenómeno es
constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados
por la distribución Poisson incluyen:

El número de coches que pasan a través de un cierto punto en un tramo determinado


de una vía (con los semáforos suficientemente distantes) durante un periodo definido
de tiempo.

El número de errores de ortografía que una persona comete al escribir una única
página.

El número de llamadas telefónicas en una central telefónica por minuto.

El número de servidores Web accedidos por minuto.

El número de leucocitos en una gota de sangre.

El número de animales muertos encontrados por unidad de longitud.

El número de mutaciones de determinada cadena de ADN después de cierta cantidad


de radiación.

El número de estrellas en un determinado volumen de espacio.

Ejemplo 6.4: En una gasolinera la llegada de vehículos sigue la distribución de Poisson de


parámetro 1,6. Calcúlese la probabilidad de que:

a) El número de vehículos que lleguen sea superior a tres.


194 Algunas distribuciones discretas de probabilidad

b) El número de vehículos que lleguen esté comprendido entre 2 y 5.

c) Llegue algún vehículo.

Respuesta: Se trata de una distribución de Poisson de parámetro λ = 1,6; X Ã P (λ = 1,6)

a) P [X > 3] = 1 − P [X ≤ 3] = 1 − P [X = 0] − P [X = 1] − P [X = 2] − P [X = 3] =
= 1 − 0,2019 − 0,3230 − 0,2584 − 0,1378 = 0,0789

b) P [2 ≤ X ≤ 5] = P [X = 2] + P [X = 3] + P [X = 4] + P [X = 5] =
= 0,2584 + 0,1378 + 0,0551 + 0,0176 = 0,4689

c) P [X ≥ 1] = 1 − P [X < 1] = 1 − P [X = 0] = 1 − 0,2019 = 0,7981.

6.3.1. Características
La ley de Poisson viene caracterizada por un único parámetro λ y es sencillo de probar
que E [X] = λ y Var [X] = λ, es decir, que la media y la varianza de una ley de Poisson
coinciden y que las dos son iguales a λ. Para ello, en primer lugar calculamos la función
generatriz de momentos y a partir de ella obtenemos la media y la varianza.

Función generatriz de momentos.


∞ ∞
£ ¤ X X λr
ψ(t) = E etX = etr P [X = r] = etr e−λ =
r=0 r=0
r!
∞ ¡ ¢r
X et λ t
= e−λ eλe = eλ(e −1)
t
= e−λ
r=0
r!

La media y la varianza, como en la distribución Binomial, se van a obtener a partir de


la función generatriz de momentos, para ello se calculan las dos primeras derivadas
de dicha función y se particularizan para t = 0
t −1
ψ 0 (t) = λet eλ(e ) ⇒ ψ 0 (0) = λ = m
1

t −1
ψ 00 (t) = λet eλ(e ) + λ2 e2t eλ(et −1) ⇒ ψ 00 (0) = λ + λ2 = m
2

Por lo tanto

Esperanza matemática: E [X] = λ

Varianza: Var [X] = m2 − m21 = λ + λ2 − λ2 = λ


6.3 Distribución de Poisson 195

Comentario 6.1 : En la distribución de Poisson la media y la varianza coinciden entre


sí y con el parámetro que la caracteriza.

Propiedad aditiva. Sean X1 , X2 , · · · , Xk , k variables aleatorias independientes, dis-


tribuidas cada una de ellas según una distribución de Poisson, Xi à P (λi ), ( i = 1,
2, · · · , k). Entonces la v.a. formada por la suma de las vv.aa. Xi , X1 + X2 + · · · + Xk , se
distribuye según una distribución de Poisson de parámetros λ1 + λ2 + · · · + λk . En efecto:
Sabemos que la función generatriz de momento de cada v.a. Xi es:
£ ¤ t
X1 : ψ X1 (t) = E etX1 = eλ1 (e −1)
£ ¤ t
X2 : ψ X2 (t) = E etX2 = eλ2 (e −1)
..
.
£ ¤ t
Xk : ψ Xk (t) = E etXk = eλk (e −1)

Por lo tanto la función generatriz de la variable aleatoria X1 + X2 + · · · + Xk es


h i h i
ψ X1 +X2 +···Xk (t) = E et(X1 +X2 +···+Xk ) = E et(X1 ) .et(X2 ) . · · · .et(Xk ) =(1)
h i h i h i t
= E et(X1 ) . E et(X2 ) . · · · . E et(Xk ) = eλ1 (e −1) ×

t −1
× eλ2 (e ) × · · · × eλk (et −1) = e(λ1 +λ2 +···+λk )(et −1)

De donde deducimos que X1 + X2 + · · · + Xk à P (λ1 + λ2 + · · · + λk ). Se dice que la


distribución de Poisson es aditiva en el parámetro λ.
(1) : Xi son vv.aa. independientes ⇒ E [X1 .X2 . · · · .Xn ] = E [X1 ] . E [X2 ] . · · · . E [Xn ].

Figura 6.3: F. masa de probabilidad Figura 6.4: F. de distribución


196 Algunas distribuciones discretas de probabilidad

6.4. Aproximación de una distribución binomial por una


Poisson.

Consideremos la función de probabilidad de una distribución Binomial de parámetros n


y p, B(n, p), vamos a comprobar que cuando n −→ ∞ y p −→ 0 ( lı́m (n p) es finito o
n→∞
constante)1 entonces la distribución de Poisson se puede obtener como una aproximación
de la distribución Binomial. Así, vamos a examinar el límite de la distribución Binomial
de probabilidad cuando n −→ ∞ y p −→ 0. En la expresión de la función de probabilidad
de una distribución Binomial
µ ¶
n k n−k
P [X = k] = p q (6.3)
k

λ λ
llamamos: n p = λ ⇒ p = y q=1− , por lo tanto, sustituyendo en (6.3)
n n

µ ¶ µ ¶k µ ¶
n λ λ n−k
P [X = k] = 1− =
k n n
µ ¶
λ n
1−
n(n − 1)(n − 2) · · · (n − k + 1) λk n
= × k×µ ¶ =
k! n λ k
1−
n
k µ ¶n
λ λ n(n − 1)(n − 2) · · · (n − k + 1)
= × 1− × µ ¶k
k! n λ
nk 1 −
n

dividiendo el numerador y denominador por nk , la expresión anterior queda de la siguiente


forma:
µ ¶µ ¶ µ ¶
1 2 k−1
µ ¶ 1 1− 1− ··· 1 −
λk λ n n n n
P [X = k] = × 1 − × µ ¶k
k! n λ
1−
n

1
Para simplificar se estima el límite con la restricción de que el promedio np, en el caso binomial,
permanece constante en un valor que llamaremos λ.
6.4 Aproximación de una distribución binomial por una Poisson. 197

A continuación calculamos el límite cuando n −→ ∞


µ ¶µ ¶ µ ¶
1 2 k−1
µ ¶ 1 1− 1− ··· 1 −
λk λ n n n n
lı́m P [X = k] = lı́m × 1− × µ ¶k =
n→∞ n→∞ k! n λ
1−
n
µ ¶µ ¶ µ ¶
1 2 k−1
µ ¶ 1 1− 1− ··· 1 −
λk λ n n n n
= × lı́m 1 − × lı́m µ ¶ k
=
k! n→∞ n n→∞ λ
1−
n
λk −λ λk −λ
= e ×1= e
k! k!
que es la función de probabilidad de una distribución de Poissson2 de parámetro λ.

Comentario 6.2 : En el cálculo del límite anterior hemos utilizado


⎡ ⎤−λ
⎛ ⎞− n
µ ¶ λ⎥
λ n ⎢
⎝1 + 1 ⎠ ⎥ = e−λ
lı́m 1− = lı́m ⎢ n
n→∞ n n→∞ ⎣ ⎦

λ
y
∙µ ¶µ ¶ µ ¶¸ µ ¶
1 2 k−1 λ k
lı́m 1− 1− ··· 1 − = 1 = lı́m 1−
n→∞ n n n n→∞ n

En general, cuando en la distribución binomial, B(n, p), n ≥ 50 y p ≤ 0,1 o cuando


n < 5, dicha distribución se puede sustituir por la distribución de Poisson, P (λ = n p),
p
para el cálculo de las probabilidades de los valores de la v.a. X.
Ejemplo 6.5: El 2 % de los libros encuadernados en cierto taller tiene encuadernación
defectuosa, obtener la probabilidad de que 5 de 400 libros encuadernados en este taller
tengan encuadernaciones defectuosas.
Respuesta: Si consideramos la v.a. X que contabiliza el número de libros defectuosos
encuadernados en cierto taller, esta v.a. sigue una disribución binomial B(n = 400, p =
0,02). Como n ≥ 50 y p ≤ 0,1, se puede aproximar la distribución binomial por una
distribución de Poisson de parámetro λ = np = 400 × 0,02 = 8; X Ã P (λ = 8)
2
La distribución de Poisson se puede utilizar para modelizar conteos en áreas o volúmenes, así como en
el tiempo. Por ejemplo, el número de accidentes que ocurren en un determinado cruce de una carretera en
el periodo de una semana, el número de colonias de bacterias en un cc. de agua, el número de veces que
falla una máquina en el transcurso de un día de trabajo.
198 Algunas distribuciones discretas de probabilidad

λr −λ 85 −8
P [X = 5] = e = e = 0,092
r! 5!
Ejemplo 6.6: Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p = 1 /100 ,000 .
Calcular la probabilidad de que en una ciudad con 500.000 habitantes haya más de 3 per-
sonas con dicha enfermedad. Calcular el número esperado de habitantes que la padecen.
Respuesta: Si consideramos la v.a. X que contabiliza el número de personas que padecen
la enfermedad, es claro que sigue un modelo binomial, pero que puede ser muy bien
aproximado por un modelo de Poisson, de modo que
X Ã B(n = 500,000, p = 1/100,000) ⇒ X Ã P (λ = 5)

P [X > 3] = 1 − P [X ≤ 3] = 1 − P [X = 0] − P [X = 1] − P [X = 2] − P [X = 3] =
= 1 − 0,0067 − 0,0337 − 0,0842 − 0,1404 = 0,735

El número esperado de personas que padecen la enfermedad es E[X] = 5.

6.5. Ejercicios propuestos: Relación VI


1. Una compañía de telefonía comienza una campaña con el propósito de aumentar el
número de miembros. Con base en experiencia previa, se sabe que una de cada 20
personas que reciben la llamada se une a la compañía. Si en un día 25 personas
reciben la llamada telefónica ¿Cuál es la probabilidad de que por lo menos dos de
ellas se inscriban en la compañía? ¿Cuál es el número esperado? (Sol: a) 0,3576; b)
1,25).

2. En un proceso de manufactura se seleccionan todos los días, de manera aleatoria,


15 unidades con el propósito de verificar el porcentaje de unidades defectuosas en
la producción. Con base en la información previa, la probabilidad de tener una
unidad defectuosa es de 0.05. La producción se detiene cada vez que una muestra
de 15 unidades tenga 2 o más defectuosas. Determinar la probabilidad de que la
producción se detenga. (Sol: 0.1709).

3. Un comprador de circuitos integrados ha adoptado un plan para aceptar un envio


de éstos y que consiste en inspeccionar una muestra aleatoria de 100 circuitos prove-
nientes del lote. Si el comprador encuentra no más de dos circuitos defectuosos en la
muestra, acepta el lote; de otra forma, lo rechaza. Si se envía al comprador un lote
que contiene 1 % de circuitos defectuosos, ¿Cuál es la probabilidad de que éste sea
aceptado? (Sol.: 0,9197).

4. Una máquina automática dedicada a la fabricación de comprimidos laxantes, produce


defectuosos a razón de 1 %. Calcular: a) Si los comprimidos se colocan en tubos de
6.5 Ejercicios propuestos: Relación VI 199

25 unidades, ¿Cuál es la probabilidad de que el tubo tenga 0 defectuosos? b) Si los


tubos se colocan en cajas de 10, ¿Cuál es la probabilidad de que una caja contenga
los 10 tubos con ningún comprimido defectuoso? (Sol: a) 0.778; b) 0,0812).

5. Una compañia de seguros ha determinado que 1 de cada 5000 personas fallecen


anualmente por accidente laboral. La compañía tiene 50000 seguros de vida de este
tipo en todo el país teniendo que abonar a los afectados por cada póliza 6000 euros.
Determinar la probabilidad de que la compañía tenga que pagar en un año por lo
menos 72.000 euros a los familiares de los asegurados. (Sol: 0,303).

6. Sabiendo que el número medio de enfermos recibidos cada 10 minutos en un centro


sanitario entre las 10 h. y las 15 h. es 1,8. Suponiendo que dicho número de enfermos
sigue una distribución de Poisson. Calcular la probabilidad de que entre las 12 h. y
las 12 h. 10 m. haya: a) Ningún enfermo; b) un enfermo; c) Dos enfermos; d) Al
menos dos enfermos; e) Más de 2 enfermos. (Sol: a) 0,1653; b) 0,2975; c) 0,2678;
d) 0,5372; e) 0,2694).

7. La probabilidad de que se rompa la lámpara de un televisor en un mes es 0,02. Si


tenemos 5 años el televisor: Calcular: a) La distribución del número de roturas, X;
b) Esperanza y varianza de X; c) Probabilidad de que no haya ninguna rotura; d)
Probabilidad de que haya más de una rotura. (Sol: a) (60 r
r )(0,02) (0,98)
60−r ; b) 1.2;

1.176; c) 0.301; d) 0.3376).

8. El delegado de zona de una casa dedicada a la fabricación de calculadoras electrónicas


vende, el mismo día a distintas empresas de una misma localidad, 5 máquina iguales.
La probabilidad de que este tipo de calculadoras estén en funcionamiento 3 años
después es 0,8. Calcular la probabilidad de que: a) Las cinco calculadoras estén
fuera de servicio 3 años más tarde; b) Estén en servicio 3 años más tarde; c) Dos
calculadoras a lo sumo estén fuera de servicio; d) Tres calculadoras estén fuera de
servicio. (Sol: a) 3,2x10−4 ; b) 0.3277; c) 0.9421; d) 0,0512).

9. Una solución contiene virus bacteriófagos T4 en una concentración de 6x106 por


mm3 . En la misma solución hay 3x106 bacterias E. coli por mm3 . Suponiendo que
los virus se distribuyen al azar entre las bacterias, se pide el porcentaje de bacterias
que: a) No están infectadas por virus; b) Están infectadas; c) Tengan al menos 2
virus fijados sobre ellas; d) Tengan exactamente 2 virus fijados sobre ellas. (Sol: a)
13.5 %; b) 86.5 %; c) 59.4 %; d) 27.1 %).

10. Por larga experiencia se ha determinado que la meningitis por salmonelas, enfer-
medad rara, pero muy grave de los lactantes, produce una mortalidad aproximada
del 60 %, aún cuando sean tratados con cloranfenicol, seguido de tetraciclinas. En
un hospital ingresaron 16 niños lactantes atacados por la enfermedad, en un brote
200 Algunas distribuciones discretas de probabilidad

epidémico en una gran ciudad. Se pide la probabilidad de que: a) Sobrevivan más de


la mitad; b) Sobrevivan todos; c) Mueran todos; d) El número de sobrevivientes es-
té comprendido entre 6 y 10, incluidos estos extremos. (Sol: a) 0,142; b) 0,000000429;
c) 0,0002821; d) 0,652).

11. La incidencia de una enfermedad en un determinado país fue de aproximadamente


25 casos por cada 100000 habitantes, se pide la probabilidad de que: a) En una
ciudad de 60000 habitantes se dieran 6 casos o menos; b) En una ciudad de 80000
habitantes se dieran: b1) 6 casos o menos; b2) 10 casos o menos. (Sol: a) 0.007632;
b1) 0.000255122; b2) 0.0108116).

12. El número de capturas diarias de loros en la cuenca del Amazonas para su utilización
como animales domésticos sigue una distribución de Poisson de parámetro 5. Se pide
las probabilidades: a) En un día no se produzcan más de 4 capturas; b) En una
semana no se produzcan más de 4 capturas ningún día (Sol: a) 0.4405; b) 0.003218)
(Examen 2006).

13. Para estudiar la regulación hormonal de una línea metabólica se les inyecta a ratas
albinas un fármaco que inhibe la síntesis de proteínas del organismo. En general,
cuatro de cada veinte ratas mueren a causa del fármaco antes de que el experimento
haya concluido. Si se trata a 10 animales con el fármaco, calcular las probabilidades:
a) Al menos 8 lleguen vivas al final del experimento; b) El número de muertes no
se separe en más de una unidad de la media. (Sol: a) 0.6778; b) 0.7717) (Examen
2006).

14. En unos laboratorios se preparan los tres fármacos que se están utilizando contra
una enfermedad. Las probabilidades de obtener en el mercado cada uno de ellos
son, 1/6 para el fármaco A; 1/3 para el fármaco B y 1/2 para el fármaco C. Las
probabilidades de curación con cada uno de ellos son: 0.9 con el fármaco A; 0.94
con el fármaco B y 0.88 con el fármaco C. Determinar: a) la probabilidad de que
utilizando cualquiera de ellos, el sujeto administrado resulte curado; b) Si el sujeto
se ha curado calcula la probabilidad de que se le haya administrado el fármaco B; c)
Se sabe por experiencia que una de cada 5000 personas fallece al año por ingestión
de cierto contaminante fatal. Si se exponen 50000 personas a dicho contaminante y
se ha de indemnizar con 3000 euros si una persona fallece, calcula la probabilidad
de que se tenga que pagar al año al menos 36000 euros. (Sol: a) 0.903; b) 0.3486; c)
0.3032) (Examen 2007).

15. Un grupo de investigadores está estudiando la concentración de bacterias de un


cierto tipo (A) en la cuenca de un río. Han detectado una concentración media
de 3 bacterias de tipo A por cada cc de agua y se sabe que las bacterias están
6.6 Comentarios bibliográficos 201

aleatoriamente distribuidas. Se pide: a) ¿Qué distribución de probabilidad se puede


aplicar en esta situación?; b) Obtener la probabilidad de que en un cc de agua se
encuentren: b1) cuatro bacterias de tipo A; b2) al menos 2 bacterias de tipo A; c)
En un punto determinado se une al río un afluente que aporta otro tipo distinto de
bacterias (B), con una concentración media de dos bacterias por cada cc de agua.
Obtener las probabilidades de que en un cc de agua se encuentren: c1) seis bacterias
de tipo A o B; c2) como máximo tres bacterias de tipo A o B. (Sol: b1) 0.1680; b2)
0.8008; c1) 0.1462; c2) 0.265) (Examen de Junio de 2008).

6.6. Comentarios bibliográficos


Familia Bernouilli

A lo largo de la historia de las matemáticas ninguna familia ha producido tantos


matemáticos famosos como la familia Bernoulli. Unos doce miembros de esta familia con-
siguieron destacar en matemáticas y física y cuatro de ellos fueron elegidos corresponsales
extranjeros de la Académie des Sciences. Los Bernoulli fueron una de las muchas familias
202 Algunas distribuciones discretas de probabilidad

protestantes que huyeron de Amberes en 1583 para escapar de la matanza de los católicos
en su prolongada persecución de los hugonotes. La familia buscó primeramente refugio
en Francfort, y luego pasó a Suiza estableciéndose en Basilea. El fundador de la dinastía
Bernoulli, fue un gran comerciante, Jacob el viejo, que encabeza el árbol genealógico. El
primero que alcanzó una posición destacada en matemáticas fue Jacques Bernouilli.

Jacob Bernoulli, Johann Bernouilli y Daniel Bernouilli

Jacob Bernouilli Johann Bernouilli Daniel Bernouilli


Jacob Bernoulli (Nació en 1654 en Basilea (Suiza), murió en 1705 en Basilea)
Johann Bernoulli (Nació en 1667 en Basilea y murió en 1748 en Basilea)
Daniel Bernoulli (Nació en 1700 en Groninga (Holanda) y murió en 1782 en Basilea).

Jacob Bernoulli, el iniciador de la dilatada saga de los Bernoulli, nació en el seno de


una familia de comerciantes procedentes de los Países Bajos; era hermano de Johann
Bernoulli y tío de Daniel Bernoulli. Completó los estudios de filosofía y teología debido a
la insistencia de sus padres, se graduó en la Universidad de Basilea con grado de master
en Filosofía en 1671 y se licenció en Teología en 1676.
Al mismo tiempo que Jacob Bernoulli se graduaba en Filosofía y Teología recibió
enseñanza en matemáticas y astronomía contra los deseos de sus padres. Este fue un
modelo a seguir para muchos de la familia Bernoulli que estudiaron matemáticas además
de otras áreas. Sin embargo Jacob Bernoulli fue el primero en seguir este camino en una
familia donde no había tradición de matemáticos antes de él. Tras licenciarse en teología
entre 1677 y 1682 viajó a Francia (donde se familiarizó con el pensamiento de Descartes),
los Países Bajos e Inglaterra. De regreso en Suiza, desde 1683 enseñó mecánica en Basilea
y en secreto introdujo en el estudio de las matemáticas a su hermano Johann, a quien su
padre había destinado a la medicina. En 1687 se hizo cargo de la cátedra de matemáticas
en la Universidad de Basilea. Con su hermano, estudió las aportaciones de Leibniz al
cálculo infinitesimal y lo aplicó al estudio de la curva catenaria. A pesar de que Jacob y
6.6 Comentarios bibliográficos 203

Johann Bernoulli trabajaron en problemas similares sus relaciones cambiaron pronto de


colaboradores a rivales.
La primera de las contribuciones importantes fue un trabajo sobre el paralelismo de
la lógica y el álgebra publicado en 1685, trabajó en probabilidades en 1685 y geometría
en 1687. Su resultado en geometría fue una construcción para dividir cualquier triángulo
en cuatro partes iguales con dos líneas perpendiculares. Entre 1682 y 1704 publicó cinco
tratados en series infinitas y su ley de los grandes números en teoría de la probabilidad.
En 1690 escribió un artículo donde el término integral aparece por primera vez con su
significado. En 1696 resolvió la ecuación, ahora llamada “la ecuación de Bernouilli”.
En 1713, ocho años después de su muerte se publicó Ars conjectandi (o ‹ ‹Arte de la
conjetura› ›). Se trata del primer volumen importante sobre la teoría de probabilidades,
donde se encuentra la primera demostración correcta del teorema binomial para exponentes
enteros positivos, los ‹ ‹Números de Bernoulli› ›, ‹‹Ley de los grandes números› ›.

Johann I, hermano de Jacob I, no se inició como matemático, sino como doctor en


medicina. Su primer cargo académico lo obtuvo en Groninga, en 1695, como profesor de
Matemática, y a la muerte de Jacob I, en 1705, Johann le sucedió en la cátedra de Basilea.
Johann I fue todavía más prolífico que su hermano en el campo de la Matemática, y
difundió el Cálculo en Europa. Sus estudios abarcan la Física, la Química, y la Astronomía,
aparte de la Matemática. En las ciencias aplicadas Johann I contribuyó notablemente a los
estudios de la óptica, escribió sobre la teoría de las mareas, y sobre la teoría matemática
de las velas de los barcos, y enunció el principio de los desplazamientos virtuales en la
mecánica. Johan I fue un hombre de extraordinario vigor físico e intelectual, permaneciendo
activo hasta pocos días antes de su muerte a la edad de 80 años.
Para muchos y sobre todo para él mismo, Johann Bernoulli era el más afamado de
todos los geómetras de su época. “Aquí yace el Arquímedes de su tiempo” es el epitafio,
que Johann mandó a colocar sobre su sepulcro. En los múltiples desafíos intelectuales en
que se vió envuelto fueron tantos sus partidarios como sus adversarios. Gracias a algunos
de estos retos, que él mismo lanzara a la comunidad científica, se abrió una de las ramas
más fructíferas de la Matemática: el Cálculo de Variaciones.
De los dos hermanos, Johann fue el más intuitivo y el que con mayor soltura manejaba
el formulismo matemático, mientras que Jacob era de inteligencia más lenta pero más
penetrante.

Daniel Bernouilli hijo de Johann, se doctoró en medicina como su padre y pasó los
primeros 5 años de su vida en Groninga donde su padre trabajaba como catedrático. Fue
cuando la familia regresó a Basilea que empezaron a hacerse notables sus dotes para las
Ciencias Matemáticas.
204 Algunas distribuciones discretas de probabilidad

En su famoso libro Hydrodynamica, analizó la mecánica de fluidos y produjo el primer


tratado sobre la teoría cinética de los gases. Mucho lo consideran como el primer verdadero
fisicomatemático.
Es el más multifacético de los magníficos geómetras Bernoulli, tenía una facilidad
especial para obtener resultados originales. Se destacó en las Matemáticas Puras como la
teoría de las ecuaciones diferenciales, el cálculo de probabilidades y la sumación de series
infinitas, pero sobre todo se apasionó por las Matemáticas Mixtas como la hidromecánica,
la náutica, la mecánica racional, la teoría de la elasticidad, la teoría de la música,....
Muchas leyendas y anécdotas se cuentan respecto a los famosos Bernoulli. En cierta
ocasión, viajando Daniel en compañía de un muchacho joven, se presentó él mismo a su
simpático compañero de viaje. "Soy Daniel Bernoulli", a lo que el joven contestó sarcás-
ticamente "Y yo soy Isaac Newton". Daniel, hacia el fin de sus días, encontró en estas
palabras el más sincero tributo que hasta entonces había recibido.

Simeon Denis Poisson

Nacido el 21 de Junio 1781 en Pithiviers, Francia


Muere el 25 Abril 1840 en Sceaux (cercano a Paris), Francia

Poisson, un físico y matemático francés al que se le conoce por sus diferentes trabajos en
el campo de la electricidad, también hizo publicaciones sobre la geometría diferencial y la
teoría de probabilidades.
En un principio, Poisson fue obligado a estudiar medicina. Comenzó a estudiar matemáti-
cas en 1798 en la escuela Politécnica. El trabajo más importante de Poisson fue una serie
de escritos de las Integrales Definidas y sus avances en las Series de Fourier. Sus profesores
Laplace y Lagrange llegaron a ser sus amigos de toda la vida. Escribió una memoria de
Diferencias Finitas cuando tenía sólo 18 años, esto atrajo la atención de Legendre.
6.6 Comentarios bibliográficos 205

Poisson enseñaba en la escuela Politécnica desde el año 1802 hasta 1808, en que
llegó a ser un astrónomo del Bureau des Longitudes. En el campo de la astronomía estuvo
fundamentalmente interesado en el movimiento de la Luna. En 1809 fue nominado como
profesor de matemáticas puras en la Facultad de Ciencias.
La primera memoria de Poisson sobre la electricidad fue en 1812, en que intentó
calcular matemáticamente la distribución de las cargas eléctricas sobre la superficie de
los conductores, y en 1824, también demostró que estas mismas formulaciones podían
aplicarse de igual forma al magnetismo.
En “Recherchés sur la probabilité des jugementes en matières criminelles et matière
civile” ("Investigación sobre la probabilidad de los juicios en materias criminales y civiles"),
un importante trabajo sobre la probabilidad publicado en 1837, aparece por primera vez la
Distribución de Poisson. El trabajo estaba enfocado en ciertas variables aleatorias que
cuentan, entre otras cosas, un número de ocurrencias discretas (muchas veces llamadas
“arribos”) que tienen lugar durante un intervalo de tiempo de duración determinada.
“La distribución de Poisson describe la probabilidad de que un suceso aleatorio ocurra
en el tiempo o en el espacio, bajo la condición de que aunque la probabilidad de que ocurra
dicho suceso sea pequeña, el número de realizaciones del experimento es lo suficientemente
grande como para que el suceso se produzca un determinado número de veces”.
Poisson publicó entre 300 y 400 trabajos matemáticos en los que incluía aplicaciones
a la electricidad, el magnetismo y la astronomía. Su Traité de mécanique publicado en
1811 y de nuevo en 1833 sentó las bases de la mecánica durante muchos años.
Su nombre es asociado a diversas áreas: Integral de Poisson, Teoría de ecuaciones de
potencia de Poisson, Avances de Poisson en ecuaciones diferenciales y La constante de
Poisson en electricidad.

También podría gustarte