Está en la página 1de 14

© V.

Paino / ESIC 2004

9.- DISTRIBUCIONES DE PROBABILIDAD DE VARIABLES DISCRETAS.

Como ya sabemos por el capítulo anterior, conociendo la función de densidad de una variable aleatoria
queda descrito el comportamiento estadístico de la misma.

Con frecuencia, los resultados de diferentes experimentos aleatorios suelen seguir las mismas pautas de
comportamiento en términos generales, por lo tanto se les puede asignar el mismo tipo de distribución
de probabilidad, sin más que adecuar los parámetros de la misma.

Realmente, salvo casos especiales, casi todas las variables aleatorias que se analizan en la práctica, se
pueden representar mediante unas pocas distribuciones de probabilidad muy conocidas. Algunas de las
cuales estudiaremos a continuación.

9.1.- DISTRIBUCIÓN UNIFORME DISCRETA.

Es la más simple de todas las distribuciones de probabilidad y asocia, a cada uno de los valores de la
variable aleatoria, la misma probabilidad.

Si una variable aleatoria discreta, asume los valores x1, x2, ..., xn, todos ellos con igual probabilidad, a la
función de probabilidad de dicha variable se la llama distribución uniforme discreta y vale:
1
P ( x = xn ) =
n

La media y la varianza de una distribución uniforme discreta valen:


n n
1 1 n
µ= Σ xi p i =
1
Σ xi
1 n
=
nΣ1
xi
n n
1 1 n
σ = Σ ( xi - µ ) p i = Σ ( xi - µ ) Σ ( xi - µ )2
2 2 2
=
1 1 n n 1
Ejemplo: Escribir la función de distribución de la variable aleatoria que representa la
puntuación obtenida al lanzar un dado. Calcular la media y la varianza.

La función de distribución es una función discreta uniforme y viene dada por la expresión:

1
x = { 1 , 2 , 3 , 4 , 5 ,6 } p( x ) =
6

la media y la varianza de la puntuación obtenida en el lanzamiento de un dado, valen:

1+ 2 + 3 + 4 + 5 + 6 ( 1 - 3,5 )2 + ( 2 - 3,5 )2 + ...+ ( 6 - 3,5 )2 35


µ = = 3,5 σ =
2
=
6 6 12

9.2.- El Proceso de Bernoulli y sus distribuciones asociadas.

Capítulo 9 - 1
© V. Paino / ESIC 2004

Si disponemos de una población finita o infinita, y hacemos un experimento aleatorio consistente en


observar los elementos de la población, de acuerdo con las siguientes condiciones:

I - Como resultado de la observación clasificamos los elementos elegidos en dos categorías: B,


buenos y D, defectuosos.

II - La proporción de elementos pertenecientes a cada una de las categorías permanece


constante y no se modifica a lo largo del experimento a pesar de las extracciones realizadas, lo
que implica que, en el caso de población finita, se debe reemplazar el elemento una vez
observado. Se llama p a la probabilidad de obtener un elemento defectuoso y q (= 1 - p) a la de
uno bueno.

III - El resultado de cada una de las observaciones es independiente de lo que hubiera ocurrido
anteriormente a ellas, es decir, no está condicionado por los resultados anteriores.

A este proceso se le conoce con el nombre de Proceso de Bernoulli.

Un ejemplo con población finita, es el resultado de la extracción de una bola de una urna en la que
existe un número limitado de bolas de dos o más colores diferentes. Después de cada extracción
tenemos que devolver la bola a la urna para que la probabilidad permanezca constante.
Un caso de población infinita sería, por ejemplo, la producción continua de piezas por una máquina,
siempre que sea estable (la proporción de piezas buenas y malas no varia) y sin memoria, es decir que
una pieza es buena o mala sin depender de lo que fue la anterior.

9.2.1.- Distribución de Bernoulli.

Fue propuesta por J. Bernoulli a finales del siglo XVII y consiste en definir una variable aleatoria, que
representa al experimento de extraer un elemento y observar su calidad, de la siguiente manera:

⎧ vale 0 si el elemento es bueno



x= ⎨
⎪ vale 1 si el elemento es defectuoso

La función de probabilidad de esta variable es:
x 1- x
P( x ) = p q

Su media vale : µ = E ( x ) = 0 . ( 1 - p ) + 1 . p = p

y la desviaci n tÍpica : σ =
2 2
( 0 - p ) ( 1- p ) + ( 1- p ) p = pq

La varianza será máxima cuando: p = 0,5 , en este caso existirá mayor incertidumbre y, después de
realizar muchas veces el experimento... (¡infinitas veces!), aparecerán igual número de ceros que de
unos.

9.2.2.- Distribución binomial.

Capitulo 9 - 2
© V. Paino / ESIC 2004

La variable aleatoria, x, de una distribución binomial se define como:

“x es el número de elementos defectuosos, al analizar un grupo de n elementos”.

El conjunto de los valores posibles de x (espacio muestral) son los valores 0, 1, ...r... , n . Para calcular
la probabilidad de obtener "r" defectuosos, al analizar una muestra de "n" elementos, consideremos
una de las posibles composiciones de la muestra en la que, los r-ésimos primeros elementos son
defectuosos y los (n-r)ésimos siguientes, buenos (llamaremos D a los defectuosos y B a los buenos).
La probabilidad de obtener un elemento defectuoso valdrá "p" y la de obtener uno bueno "q = 1-p".
Tendremos:

D D . .(r ..D B . .(n- r ..B


La probabilidad de este suceso valdrá :
p .(r .p.( 1 - p ) .(n- r .( 1 - p ) = p r ( 1 - p )n- r

Pero como los elementos pueden aparecer en cualquier orden, no necesariamente estarán los "r"
defectuosos juntos y los buenos también juntos, debemos considerar todos los casos de ordenación en
los que existan r defectuosos y n-r buenos, para ello calcularemos todas las permutaciones de n
elementos en las que se repiten "r" defectuosos y "n-r" buenos, por tanto la expresión que nos da la
función de probabilidad de esta distribución valdrá:

n! ⎛ n⎞ ⎛n⎞
= ⎜⎜ ⎟⎟ con lo que : P ( x = r, n, p ) = ⎜⎜ ⎟⎟ pr qn-r
r! ( n - r )! ⎝r⎠ ⎝r⎠
La media vale : µ = E ( x ) = n p Y la desviación típica : σ = n pq

Ejemplo: La probabilidad de aprobar un cierto examen es de 3/4, calcular la probabilidad de


que, escogidos al azar cuatro alumnos, dos pasen el examen.

Supondremos que la población de alumnos es lo suficientemente grande para que la


probabilidad de elegir un suspenso no varíe durante el experimento. Consideremos el suceso
suspender como el de obtener un elemento defectuoso del párrafo anterior, por tanto
tendremos:

⎛4⎞
2 2
3 ⎛3⎞ ⎛1⎞
P ( n, r, p ) = P ( 4, 2, ) = ⎜⎜ ⎟⎟ ⎜ ⎟ ⎜ ⎟ = 0,211
4 ⎝2⎠ ⎝4⎠ ⎝4⎠

En este caso el cálculo no presenta mucha dificultad, pero en otros puede ser bastante complejo. Para
los valores más usuales de "n" y "p" el cálculo de la función de probabilidad y el de la función de
distribución están tabulados.

Ver en el anexo las Tablas de probabilidades para la distribución binomial.

Capítulo 9 - 3
© V. Paino / ESIC 2004

En las figuras se puede ver las representaciones gráficas de diferentes funciones de probabilidad, para
n = 9 y distintos valores de p. Obsérvese como se aproxima a una distribución simétrica cuanto mas
próximo está p a 0,5.

9.2.3.- Distribución multinomial.

A veces ocurre que un experimento aleatorio tiene más de dos resultados posibles, por lo que la
distribución binomial no nos sirve, en este caso diremos que la variable es multinomial y nos dará el
número de veces que se presentan cada uno de los resultados posible en una muestra de tamaño "n" (o
en n" extracciones). Como ejemplos de esta distribución podemos citar los siguientes: determinación de
la nacionalidad (o de la profesión) de los asistentes a un congreso internacional, el resultado de extraer
bolas de una urna en la que hay de más de dos colores, los resultados del lanzamiento de un dado
varias veces, etc.

La distribución multinomial nos dará la probabilidad de que ocurra una cierta combinación de los
distintos resultados posibles del experimento, al repetirlo "n" veces ( o hacer "n" extracciones ).

Así, por ejemplo, si tenemos r posibles resultados diferentes: X1, X2, ..., Xr, con probabilidades para
cada uno de ellos: p1, p2, ..., pr , y realizamos el experimento n veces, la probabilidad (su función de
probabilidad) de que el resultado X1 se presente n1 veces, el X2 n2, y así sucesivamente viene dada por
la expresión:

Capitulo 9 - 4
© V. Paino / ESIC 2004

⎛ n! ⎞ n1 n 2
⎜⎜ ⎟⎟ p1 p2 ... pnr r
⎝ n1 ! n2 ! ... nr ! ⎠
r r
Con las condiciones : Σ ni = n y
1
Σp 1
i =1

Ejemplo: si lanzamos un dado 12 veces ¿cuál es la probabilidad de que salga cada valor dos
veces?
1
La probabilidad de que salga una de las caras de un dado es: por tanto la probabilidad
6
pedida será:

2 2 2 2 2 2
12! ⎛1⎞ ⎛1⎞ ⎛1⎞ ⎛1⎞ ⎛1⎞ ⎛1⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ = 0,0034
2! 2! 2! 2! 2! 2! ⎝ 6 ⎠ ⎝ 6 ⎠ ⎝ 6 ⎠ ⎝ 6 ⎠ ⎝ 6 ⎠ ⎝ 6 ⎠

9.2.4.- Distribución geométrica.

Si consideramos un experimento igual al de la distribución binomial, pero en el que en vez de contar el


número de defectuosos que aparecen en la muestra, lo que contamos es el número de elementos que
salen hasta el primer defectuoso; definiremos nuestra variable aleatoria x como:

“x es el número de elementos extraídos para obtener el primer defectuoso”

La función de probabilidad, y los parámetros característicos, de esta variable aleatoria, son:

P ( x = n ) = p ( 1 - p )n-1 con n = 1, 2 ...


1 1- p
La media vale : µ = E( x ) = y la desviación típica : σ = 2
p p

Ejemplo: en un proceso industrial se producen, por termino medio, un 1,5 % de piezas


defectuosas, calcular la probabilidad de que la cuarta pieza extraída sea la primera
defectuosa:
P(x=4) = (0,015).(0,985)3 = 0,014

9.2.5.- Distribución Hipergeométrica.

Cuando la población es finita y el muestreo es sin reemplazamiento, la probabilidad de obtener éxitos


(entendemos por éxito sacar un elemento con la característica deseada) en una muestra, va variando
según vamos extrayendo los elementos, esto hace que la distribución Binomial que hemos estudiado no
nos valga, porque allí suponíamos que la probabilidad no variaba. Para ello definimos la distribución
Hipergeométrica, en la que la variable X viene definida como:

“X es el número de éxitos en una muestra aleatoria de tamaño n, obtenida sin reemplazamiento


de una población de N elementos, de los que k son éxito y N-k fracasos.”

Capítulo 9 - 5
© V. Paino / ESIC 2004

⎛k ⎞ ⎛N -k⎞
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
Su función de probabilidad será: h ( x; N, n, k ) = ⎝ x ⎠ ⎝ n - x⎠ x = 0 ,1 ,2 ,3 ... , n
⎛N⎞
⎜⎜ ⎟⎟
⎝ n⎠
Y sus parámetros son:

Ejemplo: Se recepcionan lotes de 40 elementos, considerándose aceptables si no contienen más


de 3 defectuosos. El procedimiento de control consiste en seleccionar una muestra de 5
elementos aleatoriamente y rechazar la muestra si se encuentra un componente defectuoso.
¿Cuál es la probabilidad de que, exactamente, se encuentre un defectuoso en la muestra si hay
3 defectuosos en todo el lote?

Utilizaremos una distribución Hipergeométrica con n = 5, N = 40, K = 3 y x = 1:

⎛ 3 ⎞ ⎛ 37 ⎞
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
h ( 1; 40, 5, 3 ) = ⎝ 1⎠ ⎝ 4 ⎠ = 0,3011
⎛ 40 ⎞
⎜⎜ ⎟⎟
⎝ 5⎠

Obsérvese que la solución es la clásica de la probabilidad: número de casos favorables divididos por el
número de los posibles. En efecto, en el numerador tenemos los grupos de 1 defectuoso que podemos
formar con los 3 que hay, multiplicados por los grupos de 4 buenos que podemos formar con los 37
existentes, con lo que obtenemos todas las combinaciones de 5 elementos en las que hay 1 defectuoso;
en el denominador tenemos todas las combinaciones posibles de 5 elementos elegibles entre los 40.

9.2.5.- Distribución Binomial Negativa.

Si repetimos un experimento de Bernuilli, de forma que la probabilidad de éxito sea p y la del fracaso
q, la distribución de probabilidad de la variable x definida como:

“X es el número del intento en el que ocurre el éxito k-ésimo.”

Sigue una distribución binomial negativa, cuya función de probabilidad viene dada por:

⎛ x - 1⎞ k x - k
b ( x; k, p ) = ⎜⎜ ⎟⎟ p q
*

⎝ k - 1⎠
x = k, k + 1, k + 2, ...

Ejemplo: Encontrar la probabilidad de que al lanzar 3 monedas al aire, se obtengan sólo

Capitulo 9 - 6
© V. Paino / ESIC 2004

caras o sólo cruces, por segunda ocasión en el quinto lanzamiento. (Esto quiere decir que en
otro lanzamiento anterior se han conseguido también sólo caras o sólo cruces)

Usando una distribución binomial negativa con x = 5, k = 2 y p = 1/4, (¿por qué p vale 1/4?)
tendremos:

1 ⎞ ⎛4⎞ ⎛ 1 ⎞ ⎛ 3 ⎞
2 3
⎛ 27
b ⎜ 5; 2, ⎟ = ⎜⎜ ⎟⎟ ⎜ ⎟ ⎜ ⎟ =
*

⎝ 4 ⎠ ⎝ 1⎠ ⎝ 4 ⎠ ⎝ 4 ⎠ 256

9.3.- LA DISTRIBUCIÓN DE POISSON.

Supongamos un espacio muestral continuo tal como el tiempo o una región del espacio determinada, y
consideremos un experimento consistente en la aparición de un suceso, de forma puntual, sobre dicho
espacio muestral. Por ejemplo, las llamadas producidas durante un cierto período de tiempo en una
central telefónica, las erratas en un libro, las averías de dispositivos a lo largo del tiempo, la aparición
de una supernova en una región del firmamento, etc siguen una distribución de Poisson. El intervalo de
tiempo puede ser de cualquier duración, un segundo, una hora un día etc, y la región puede ser un
segmento, un área, un volumen, una pieza de material, un libro etc.

Las características del proceso de Poisson son:

I - El proceso no tiene memoria, es decir, el número de resultados que ocurren en el intervalo


considerado es independiente de lo que ocurra en otros intervalos distintos.

II - La probabilidad de ocurrencia de un suceso en un intervalo muy corto es proporcional a la


longitud del intervalo.

En realidad el proceso de Poisson es la aplicación del proceso de Bernoulli a un soporte continuo.


La variable de Poisson se define como:
“x es el número de éxitos en un intervalo de longitud fija”
La distribución de Poisson es el límite de la distribución binomial cuando el número de elementos que
componen la muestra tiende a infinito, "n" muy grande, y la probabilidad de éxito "p" es muy
pequeña.

Si estamos estudiando un suceso que ocurre λ veces en un intervalo determinado y dividimos el


intervalo (o el área) de observación en "n" segmentos muy pequeños, de forma que la probabilidad de
que ocurran más de dos sucesos en dicho intervalo sea despreciable, podemos considerar el
experimento como el correspondiente a una distribución binomial con una muestra de tamaño n y una
probabilidad de éxito p muy pequeña y de valor tal, que se cumpla que λ = n.p . Pues bien la
distribución de Poisson será el caso límite en el que n tienda a infinito y p tienda a cero, pero
permaneciendo constante la media, es decir λ = n.p.

λ λ
Por tanto podemos decir que la probabilidad de ocurrencia viene dada por: p = y q = 1-
n n

Capítulo 9 - 7
© V. Paino / ESIC 2004

⎛n⎞ ⎛ λ ⎞ ⎛ λ⎞
r n-r

P ( x = r ) = ⎜⎜ ⎟⎟ ⎜ ⎟ ⎜ 1 - ⎟
y como consecuencia: ⎝r⎠⎝ n ⎠ ⎝ n⎠

P ( x = r ) = λ e- λ
r

Si tomamos límites, nos queda:


r!

Que es la expresión de la distribución de Poisson. Su media y su varianza valen:

λ
∞ r
µ = Σr e = λe Σ

λ r -1 ∞
λr
-λ -λ
= λ σ = Σ( r - λ ) e = λ

2 2

0 r! 1 ( r - 1 )! 0 r!

Ejemplo: La llegada de enfermos a una cierta consulta siguen una distribución de Poisson de
media 2 enfermos cada 15 minutos. Calcular la probabilidad de que no llegue ningún enfermo
en un cuarto de hora, y de que lleguen menos de 6 en una hora.

0
λ= 2 P ( x = 0 ) = 2 e- 2 = 0,135
0!

La media en una hora ser : λ ′ = 4 . λ = 8 enfermos / hora

⎛ 2 3 4 5

p ( x ≤ 5 ) = e-8 ⎜ 1 + 8 + 8 + 8 + 8 + 8 ⎟ = 0,191
⎝ 2! 3! 4! 5! ⎠

Ver en el anexo las Tablas de la distribución de Poisson.

9.3.1.- Distribución Exponencial.

Cuando tenemos un proceso de Poisson, pero lo que nos interesa conocer en vez de las ocurrencias en
un cierto período (o espacio), es el tiempo (o la distancia) transcurrido entre dos sucesos consecutivos
recurrimos a la distribución exponencial, que estudia la variable continua:

“x es el tiempo transcurrido entre la ocurrencia de dos sucesos consecutivos.”

Esta variable toma cualquier valor entre 0 e ∞ , ya que es continua como se ha dicho antes.

La probabilidad de que el tiempo transcurrido entre dos sucesos consecutivos sea mayor que uno dado
t0 vendrá dado por: P(x > t0) que es igual a la probabilidad de que en el intervalo (0,t0) no se presente
ningún suceso (hemos empezado a contar el tiempo desde la última ocurrencia) , según la distribución
de Poisson, suponiendo que λ es la media de ocurrencias por unidad de tiempo, esto vale lo siguiente:
P( r = 0 ) = e- λ t0

Capitulo 9 - 8
© V. Paino / ESIC 2004

De aquí deducimos que su función de distribución vale: F(t0) = P(x≤t0) = 1 - e- λ t0 y, por tanto, la
función de densidad valdrá:

d F( x )
f (x)= = λ e-λ x para λ > , x > 0
dx

Los parámetros de esta distribución son:

1 1
E(x) = µ = y σ =
λ λ
El valor de la media es el inverso del obtenido para la distribución
de Poisson en el apartado anterior, sin embargo el de la varianza no, ya que aquí es el inverso del
cuadrado de la desviación típica. Si analizamos la separación entre las llegadas de enfermos a la
consulta del ejemplo anterior, vemos que la media es de 2 cada 15 minutos, es decir, uno cada siete
minutos y medio.

Ejemplo: En una consulta de medicina la separación media entre la llegada de pacientes es de


7,5 minutos. Calcular la probabilidad de que entre dos pacientes consecutivos transcurra un
tiempo comprendido entre 4 y 12 minutos.

1 1 1 -1x
f ( x ) = λ e- λ x λ = ⇒ λ = f(x)= e 7,5
E(x) 7,5 7,5

Lo que quiere decir que un 39 % de las veces el tiempo transcurrido entre dos pacientes estará
comprendido entre 4 y 12 minutos .

Capítulo 9 - 9
© V. Paino / ESIC 2004

9.4.- MANEJO DE LAS TABLAS DE PROBABILIDAD.

Aquí se explicará el manejo de las tablas incluidas en el anexo, es decir las funciones de probabilidad y
de distribución Binomial y de Poisson y las de densidad y distribución de la Normal.

Realmente con la tablas de las funciones de distribución sería suficiente, ya que restando entre dos
valores consecutivos en la misma columna podemos calcular la probabilidad del último valor
considerado.
También podemos entrar en las tablas a la inversa, es decir, entrando con la probabilidad total,
determinar el tamaño de la muestra o el valor de λ. Para valores intermedios se debe interpolar.

9.4.1.- Tablas de la Distribución Binomial.

La tabla de la función de probabilidad , nos da la probabilidad de ocurrencia de un número exacto de


éxitos en una muestra de tamaño n. Para entrar en ella necesitamos conocer el tamaño de la muestra n,
el número de éxitos que queremos r y la probabilidad de ocurrencia de éxito p (o q ya que p=1-q). La
tabla está organizada en columnas de la siguiente forma: en la primera columna figura el tamaño de la
muestra n, en la segunda el número de éxitos posibles para cada muestra, es decir, los valores de r
comprendidos entre 0 y n. Las siguientes columnas son las probabilidades correspondientes a cada
valor de la probabilidad simple p, que encabeza a cada una de ellas. Obsérvese que sólo llega hasta el
valor 0,5 ya que no es necesario extender la tabla, pues al ser un problema simétrico para valores
mayores de 0,5 usaríamos q y calcularíamos el suceso complementario.

Así, si queremos calcular la probabilidad de que en una muestra de tamaño 5, tengamos 2 éxitos con
una probabilidad simple de p=0,4 haríamos lo siguiente: entraríamos en la tabla por el valor de n = 5 ,
en la segunda columna buscaríamos el de r = 2 y, finalmente, siguiendo esa línea, en la columna
correspondiente a p = 0,4 encontraríamos la probabilidad buscada: 0,3456

N R 0,0 0,0 0,1 0,15 0,2 0,25 0,3 0,33 0,35 0,4 0,4 0,5
2 0 ... ... ... ... ... ... ... ... ... ↓ ... ...
... ... ... ... ... ... ... ... ... ... ... ↓ ... ...
5 0 ... ... ... ... ... ... ... ... ... ↓ ... ...
1 ... ... ... ... ... ... ... ... ... ↓ ... ...
2 → → → → → → → → → 0,345 ... ...

La tabla de la función de distribución contiene los valores de la probabilidad acumulada, el diseño de la


tabla es el mismo que el de la anterior, solo que en vez de la probabilidad de ocurrencia de un número
exacto de éxitos en la muestra, nos da la probabilidad de que ocurran, como mucho (≤), esa cantidad.

La probabilidad de que ocurran, como mucho, 2 éxitos en el ejemplo anterior, se calcularía entrando en
la tabla de la función de distribución (probabilidades acumuladas) con los mismos valores que antes y
obtendremos la probabilidad buscada: 68,26%

Capitulo 9 - 10
© V. Paino / ESIC 2004

n R 0,0 0,0 0,1 0,15 0,2 0,25 0,3 0,33 0,35 0,4 0,4 0,5
2 0 ... ... ... ... ... ... ... ... ... ↓ ... ...
... ... ... ... ... ... ... ... ... ... ... ↓ ... ...
5 0 ... ... ... ... ... ... ... ... ... ↓ ... ...
1 ... ... ... ... ... ... ... ... ... ↓ ... ...
2 → → → → → → → → → 0,6825 ... ...

9.4.2.- Tablas de la Distribución de Poisson.

Para la distribución de Poisson tenemos, también, dos tablas: la de la función de probabilidad, que nos
da la probabilidad de un número exacto de ocurrencias y la de la función de distribución que nos da
las probabilidades acumuladas, o de como mucho un número de ocurrencias.

Para usar las tablas necesitamos conocer el valor de λ y el del número de ocurrencias deseado, con lo
que obtendremos la probabilidad.

Para resolver el ejemplo de Poisson (3.3.- ) de estos apuntes entraremos en la tabla de la función de
probabilidad con los valores λ = 2 y r = 0 y obtenemos la probabilidad buscada: 13,5%

r 1 1,5 2 2,5 3 3,5 4 4,5 5


0 → → 0,1353 ... ... ... ... ... ...

Y, para resolver la segunda pregunta, entramos en la tabla de la función de distribución con los valores
λ=8yr=5

r 5,5 6 6,5 7 7,5 8 8,5 9 9,5


0 ... ... ... ... ... ↓ ... ... ...
1 ... ... ... ... ... ↓ ... ... ...
2 ... ... ... ... ... ↓ ... ... ...
3 ... ... ... ... ... ↓ ... ... ...
4 ... ... ... ... ... ↓ ... ... ...
5 → → → → → 0,191 ... ... ...

Capítulo 9 - 11
© V. Paino / ESIC 2004

9.5.- PROBLEMAS PROPUESTOS.

P 9.1 La probabilidad de que al lanzar una moneda, no equilibrada, salga cara es del 40%. Si se lanza
la moneda 10 veces, calcular la probabilidad de que:
1º Salgan exactamente tres caras.
2º Salgan más de tres caras.
3º Como mucho salgan cinco caras.
4º Salgan entre tres y cinco caras, ambas incluidas.
R-> 1º: 21,5% 2º: 61,77% 3º: 83,38% 4º: 66,65%

P 9.2 Una fábrica produce tornillos que luego se empaquetan en bolsas de 8 unidades. La probabilidad
de que un tornillo sea defectuoso es 0,05. Se toma un bolsa al azar; calcular la probabilidad de:
1º Que la bolsa no contenga ningún tornillo defectuoso.
2º Que la bolsa contenga, como mucho, un tornillo defectuoso.
3º Que la bolsa contenga más de dos tornillos defectuosos.
R-> 1º: 0,6634 2º: 0,9288 3º: 0,0058

P 9.3 Supongamos el siguiente juego: se lanza un dado, si sale un seis se ganan seis pesetas, en caso
contrario se pierde una peseta. Supongamos que un jugador decide jugar repetidamente hasta que gane
por primera vez seis pts., se pide:
1º Calcular el número esperado de jugadas.
2º Calcular el beneficio esperado.
3º Calcular la probabilidad de que el jugador gane dinero.
R-> 1º: 6 jugadas 2º: 1 pts. 3º: 66,51%

P 9.4 De la producción diaria de automóviles se estudian cinco durante 10 días, obteniéndose los
siguientes resultados:

DIA 1 2 3 4 5 6 7 8 9 10
Automóviles 1 2 1 2 0 0 1 1 0 2
con defecto

Ajustar una distribución binomial a estos datos. ¿Cuál es la probabilidad de que en un grupo de cinco
coches exista, como mucho, uno con defectos?

P 9.5 Una compañía aérea, observa que, como media, el 12 % de las plazas reservadas no se cubren.
Decide aceptar reservas por un 10% más de las plazas disponibles en aviones de 450 plazas.
Calcular la proporción de pasajeros con reserva que no tienen plaza al ir a formalizarla.
R-> 1,66%

P 9.6 En una moneda la probabilidad de obtener cara es P(C) = 0,3 y la de cruz P(+) = 0,7. Calcular el
número de veces que hay que debemos arrojar la moneda con objeto de obtener, al menos, 40 caras con
una probabilidad del 65%
R-> 126

Capitulo 9 - 12
© V. Paino / ESIC 2004

P 9.7 En un libro de 200.000 palabras, la probabilidad de que una palabra esté escrita incorrectamente
es de 1/50.000. Se pide:
1º La probabilidad de que no haya errores.
2º La de que haya más de seis errores.
Indíquense las hipótesis realizadas para resolver el problema.
R-> 1º: 1,8% 2º: 11,1%

P 9.8 En un proceso de fabricación de ejes, la probabilidad de fabricar un eje defectuoso es 0,002; la


producción semanal es de 2000 ejes ¿Cuál es la probabilidad de que en la producción de una semana
haya más de 3 ejes defectuosos?
R-> 56,7 %

P 9.9 Experimentalmente se ha comprobado que la probabilidad de que se produzca un accidente en un


día en un aparcamiento público es de uno por cada 125 coches que entran en el mismo.
En estas circunstancias calcular (indicando las hipótesis que se realicen) el número de coches que deben
entrar en ese aparcamiento, para que la probabilidad de que ocurran menos de tres accidentes sea de
0,1.
R-> 666 coches

P 9.10 Del estudio de tráfico en un semáforo durante 400 minutos, se han obtenido los resultados de la
tabla adjunta, correspondientes al número de coches por minuto que pasan por él.

Nº de 0 1 2 3 4 5 6
coches
Minutos 144 136 74 32 11 2 1

Ajustar una distribución de Poisson a estos datos. ¿Cual es la probabilidad de que pasen menos de tres
coches en un minuto?

P 9.11 Un libro tiene 1000 páginas y contiene 2000 erratas repartidas al azar, siendo la probabilidad
elemental de errata P= 1/1000. Se abre el libro por una página cualquiera y se designa por X el número
de erratas encontradas en dicha página. Calcular las probabilidades P(X=0) y P(X>=2), supuesto que
cada errata tiene la misma probabilidad de estar en cada página, independientemente de las demás.
R-> P(X=0): 13,53% P(X>=2): 59,4%

P 9.12 El número medio de averías en un taller sigue la distribución de Poisson de media 2


averías/semana. Calcula la probabilidad de:
1º Ninguna avería en una semana.
2º Menos de cinco en una semana.
3º Menos de seis en un mes.
R-> 1º: 0,1353 2º: 0,9474 3º: 0,1912

Capítulo 9 - 13
© V. Paino / ESIC 2004

P 9.13 El número de clientes que llegan a una empresa a informarse en un día sigue una distribución de
Poisson de media tres clientes/día. El servicio de información de la empresa tiene personal para atender
como máximo a cinco clientes por día, si llegan más de cinco clientes el servicio se satura y se le dice al
cliente que venga otro día. Por otro lado la empresa trabaja 300 días al año. Se pide:
1º Calcula la probabilidad de que un día se sature el servicio.
2º Calcula la probabilidad de que, durante un día no lleguen clientes.
3º Calcula el número medio anual de días en los que el servicio esta saturado.
4º Calcula el número medio anual de días que está el servicio sin funcionar por falta de clientes.
R-> 1º: 8,40% 2º: 5% 3º: 25,2 días 4º: 15 días

Capitulo 9 - 14

También podría gustarte