Está en la página 1de 25

Capitulo 6 Distribuciones de Probabilidad

Distribuciones teóricas de probabilidad


Podemos clasificar a las distribuciones de probabilidad en dos grandes grupos:

Distribuciones de V.A Distribuciones de V.A


DISCRETAS CONTINUAS
Distribucion de Bernoulli Distribucion Uniforme

Distribucion Binomial Distribucion Normal Estándar

Distribucion de Poisson Distribucion Normal

Distribucion Geométrica Distribucion Gamma

Distribucion Hipergeométrica Distribucion Beta

Distribución de Bernoulli
Experimento de Bernoulli
El experimento de Bernoulli se trata de un experimento dicotómico, es decir, de un
experimento que tiene dos posibles resultados: Éxito o No éxito (Fracaso).
Por ejemplo: Se realiza el experimento de lanzar un dado de colores. Si al tirar el dado
la cara superior que sale es la cara azul entonces lo consideraremos un éxito pero, si por
lo contrario, sale cualquier otra cara que no sea la azul, lo consideraremos un fracaso.

Cara superior
azul: Éxito
P = Probabilidad de éxito.
Q = (1-P) = Probabilidad de fracaso.
W = {Azul, rojo, amarillo, violeta, verde,
blanco}
Éxito → Azul → P = 1/6
Fracaso → No Azul → Q = (1-P) 5/6

Cara superior blanca,


amarilla, violeta,
verde, o Roja:
Fracaso
Página 1
Capitulo 6 Distribuciones de Probabilidad

¡Recordatorio!

Las particiones realizadas sobre un mismo espacio muestral son


mutuamente excluyentes y colectivamente exhaustivas, por lo tanto, la
suma de las probabilidades de todas ellas me va a dar siempre 1. Es por
este motivo que podemos calcular a la probabilidad de fracaso como 1
menos la probabilidad de éxito. (1-P)

P + (1-P) = 1

Variable aleatoria de Bernoulli:


No debemos confundir el experimento de Bernoulli con la variable aleatoria Bernoulli:
esta última es aquella función que convierte a cada una de las clases en un numero real.
En nuestro ejemplo del cubo podríamos decir que a partir de ahora no nos importa el
color en si que sale, sino el numero real que lo representa.

Variable aleatoria Bernoulli Ωw = { Éxito, Fracaso }

X(Éxito) = 1 → P( x = 1 ) = P
X(Fracaso) = 0 → P( x = 0) = 1 – P = Q
Para comprobar esto matemáticamente presentaremos a la función de Bernoulli y la
evaluaremos en 0 y 1.
función de Bernoulli:

𝑃(𝑋) = 𝑃 𝑥 (1 − 𝑃)1−𝑥
Evaluamos la función de Bernoulli en x = 0 y en x = 1
𝑃(0) = 𝑃0 (1 − 𝑃)1−0 = 1(1 − 𝑃) = 1 − 𝑃 = 𝑃(𝑥 = 0)
𝑃(1) = 𝑃1 (1 − 𝑃)1−1 = 𝑃1 = 𝑃 = 𝑃(𝑥 = 1)
Tal y como dijimos antes:
𝑃 + (1 − 𝑃) = 1

Ahora, utilizando la función generatriz de momentos (explicada en el capítulo 6 bis)


vamos a calcular la esperanza y la varianza de Bernoulli.

Página 2
Capitulo 6 Distribuciones de Probabilidad

Partimos entonces de la función generatriz de momentos (FGM):

𝜑𝑋 (𝑡) = 𝐸 (𝑒 𝑥𝑡 )
La distribución de Bernoulli es una distribución de probabilidad discreta, por lo tanto
la esperanza de “e” la calcularemos de la siguiente manera:
1

∑ 𝑒 𝑥𝑡 × 𝑃(𝑥 ) = 𝑒 0𝑡 × 𝑃(0) + 𝑒 1𝑡 × 𝑃(1) =


𝑥=0

𝑒 0𝑡 × 𝑃0 (1 − 𝑃)1−0 + 𝑒 1𝑡 × 𝑃1 (1 − 𝑃)1−1 =
Reemplace en P(0) y en P(1) la función de Bernoulli
valuada en 0 y en 1 respectivamente

Realizo las cuentas 𝑒 0𝑡 × (1 − 𝑃) + 𝑒 1𝑡 × 𝑃


para ordenar un
poco
(1 − 𝑃) + 𝑒 𝑡 𝑃
FGM para una
variable aleatoria
Bernoulli.

Una vez obtenida la función generatriz de momentos para una variable aleatoria
Bernoulli la derivamos para poder encontrar la media y la varianza:

𝑑𝑘 𝜑𝑥 (𝑡) .
𝑀𝐾 = |𝑡 = 0
𝑑𝑡

𝜑𝑥 (𝑡) = (1 − 𝑃) + 𝑒 𝑡 𝑃 Lo que voy a


derivar
Es una
constante

𝑑 ′ (1 − 𝑃) + 𝑒 𝑡 𝑃 .
𝑀1 = = 0 + 𝑒 𝑡 𝑃 |𝑡 = 0
𝑑𝑡
Me indica que Resultado de
derivamos en derivar
función de t

Página 3
Capitulo 6 Distribuciones de Probabilidad

Explicación de la derivada:
Por empezar tenemos una multiplicación entre una constante (P) y una función (𝑒 𝑡 ),
por lo tanto, por regla de derivación, el resultado de derivar eso será la constante por la
función derivada. Ahora bien, sabemos que la derivada de 𝑒 𝑡 es 𝑒 𝑡 pero acá le dejamos
el paso a paso:
𝑓(𝑥) = 𝑒 𝑥
ln 𝑓(𝑥) = 𝑥 lne
ln 𝑓(𝑥) = 𝑥
(ln 𝑓(𝑥))′ = 𝑥′
1
𝑓′(𝑥) = 1
𝑓(𝑥)
𝑓 ′ (𝑥) = 𝑓(𝑥)
𝑓 ′ (𝑥) = 𝑒 𝑥

.
𝑒 𝑡 𝑃 |𝑡 = 0
Evaluamos la derivada en t=0 y obtenemos que

𝑒 0𝑃 = 𝑃

Ahora procederemos a encontrar el Momento Absoluto de orden 2 ya que, como


vimos mas arriba, lo necesitamos para la conformación de la varianza:

𝑑 2 (1 − 𝑃) + 𝑒 𝑡 𝑃
𝑀2 = =
𝑑𝑡 2

𝑑[(𝑑1 − 𝑃) + 𝑒 𝑡 𝑃]
𝑀2 = =
𝑑𝑡

𝑑𝑒 𝑡 𝑃 .
𝑀2 = = 𝑒 𝑡 𝑃|𝑡 = 0 = 𝑃
𝑑𝑡

Una vez obtenidos M1 y M2 reemplazamos esos datos en las conclusiones que


obtuvimos mas arriba sobre la varianza y la esperanza:

Página 4
Capitulo 6 Distribuciones de Probabilidad

𝐸(𝑋 → 𝐵𝑒 (𝑃)) = 𝑀1 = 𝑃
Significa: La Esperanza de la variable
aleatoria X que sigue una distribución
de Bernoulli

𝑉𝐴𝑅(𝑋 → 𝐵𝑒 (𝑃)) = 𝑀2 − 𝑀12 = 𝑃 − 𝑃2 = 𝑃(1 − 𝑃)


Significa: La Varianza de la variable
aleatoria X que sigue una distribución Simplemente saco
de Bernoulli factor común

No debemos confundir:
𝑃(𝑥𝑖 ) ≠ 𝑃𝑥𝑖 × (1 − 𝑃)1−𝑥𝑖

Probabilidad
Probabilidad de que la variable de éxito de la
tome determinado valor distribución de
Bernoulli

Conclusiones:
Una primera diferencia que vamos a encontrar entre las
distribuciones de probabilidad son los distintos valores que
puede tomar la Variable Aleatoria: Por ejemplo, en la
distribución de Bernoulli solo puede tomar los valores 0 o 1.

Distribución Binomial
Para poder explicar la distribución binomial primero vamos a introducir un concepto
denominado Proceso de Bernoulli. Un proceso de Bernoulli es una repetición de n veces
de un experimento de Bernoulli, sin embargo, debe aclararse que no toda repetición de
n veces es un proceso de Bernoulli.
Para que esas repeticiones sean consideradas un proceso de Bernoulli deben cumplir
con ciertas características:
1) Las probabilidades de ocurrencia deben ser independientes una de las otras
2) Las probabilidades de éxito se deben mantener constantes

Página 5
Capitulo 6 Distribuciones de Probabilidad

Si nos detenemos a observar bien ambas condiciones están relacionadas entre si: Si las
variables aleatorias son independientes entre si en consecuencia las probabilidades de
éxito se van a mantener constante, y si las probabilidades de éxito se mantienen
constantes va a ser porque las variables son independientes una de las otras.
Ahora bien, ¿Cuándo puede suceder que se mantengan constantes las probabilidades
de éxito?
1- Cuando N, el tamaño poblacional, es infinito.
O
2- Cuando N es finita pero hay reposición de elementos
O
3- Cuando N es muy grande, tal que, sin haber reposición de elementos, la
cantidad de veces que se repita el experimento (n) sea de una proporción
𝑛
menor al 5% de N. 𝑁 ≤ 0,05

Volviendo a nuestro ejemplo del dado de colores, si realizo 5 veces el experimento de


Bernoulli, la probabilidad de que salga el color azul va a ser 1/6 en cada una de las
repeticiones del experimento, es decir, la probabilidad de éxito se va a mantener
constante.
Dicho esto, podemos definir a la distribución Binomial como aquella distribución que es
generada por un proceso de Bernoulli.
Ejemplo:
Se lanzan 5 dados.
X es una variable aleatoria que indica con 1 si el resultado de lanzar el dado es 1 o 2 y se
desea saber cual es la probabilidad de que 3 dados caigan en 1 o en 2.
X=3 (Sumo los resultados de las variables aleatorias individuales, de cada dado)
Éxito: En cada dado sale 1 o 2
Fracaso: En cada dado no sale ni 1 ni 2.
n=5
Una forma errónea de resolver esto sería suponer que P × P × P × Q × Q es la única
opción, ya que es una de las 10 posibles combinaciones.

Página 6
Capitulo 6 Distribuciones de Probabilidad

P×P×P×Q×Q
P×P×Q×P×Q
P×P×Q×Q×P
P×Q×P×P×Q
P×Q×Q×P×P 10 Posibles
Q×P×P×P×Q combinacio Por lo tanto, quiero
Q×Q×P×P×P nes para que de fracaso 2 veces
Q×P×Q×P×P que X=3 sabiendo que son 5 las
Quiero que repeticiones
Q×P×P×Q×P
de éxito 3
P×Q×P×Q×P Dos posibles veces
resultados para
tener éxito
Entonces…

2 3 4 5−3
Forma incorrecta de calcularlo: P × P × P × Q × Q = ( ) × ( )
6 6

P × P × P × Q × Q = 𝑃 𝑋 × 𝑄 𝑛−𝑋

¿Qué significa esto? Es el producto de la probabilidad de éxito, elevado a la


cantidad de éxitos que quiero tener, por la probabilidad de fracaso elevado a la
cantidad de repeticiones del experimento de Bernoulli menos la cantidad de veces
que quiero tener éxito (“la cantidad de fracasos que quiero”)

2 3 4 5−3
Forma correcta de calcularlo: 10 P × P × P × Q × Q = 10 × (6) × (6)

Formalización:
𝑛
P( X = 3 |n = 5 , P = 1/3 ) = ( 𝑥 ) × 𝑃𝑥 × 𝑄𝑛−𝑥

𝑛!
( ) × 𝑃 𝑥 × 𝑄 𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
Así obtengo la cantidad de
posibilidades distintas obtener
Por ejemplo, 3 éxitos en 5 repeticiones

También podría expresarlo así:


𝑛
( ) × 𝑃𝑎 × (1 − 𝑃)𝑛−𝑎
𝑎
Esa es la formula de la distribución Binomial.
Página 7
Capitulo 6 Distribuciones de Probabilidad

5! 120 120
= = = 10
3! × 2! 6 × 2 12

1 3 2 2 1 4 40
10 × ( ) × ( ) = 10 × × =
3 3 27 9 243

A partir de la esperanza y la varianza de Bernoulli puedo encontrar la esperanza y la


varianza de la distribución binomial:

Esperanza:
Variables Aleatorias de Bernoulli

𝐸(𝑋1 + 𝑋2 + 𝑋3 + 𝑋4 + ⋯ + 𝑋𝑛 ) = 𝐸(𝑛𝑋) = 𝑛 × 𝐸(𝑋)


𝐸(𝑋 → 𝐵𝑒(𝑃)) = 𝑃 ⇒ 𝐸(𝑋 → 𝐵𝑖) = 𝑛 × 𝑃
Varianza:

𝑉𝐴𝑅(𝑋~𝐵𝑖) = 𝑉𝐴𝑅(𝑋1 + 𝑋2 + 𝑋3 + 𝑋4 + ⋯ + 𝑋𝑛 )
= 𝑉𝐴𝑅(𝑋1 ) + 𝑉𝐴𝑅(𝑋2 ) + 𝑉𝐴𝑅(𝑋3 ) + 𝑉𝐴𝑅(𝑋4 ) + ⋯ + 𝑉𝐴𝑅(𝑋𝑛 )
𝑉𝐴𝑅(𝑋~𝐵𝑖) = 𝑛 × 𝑉𝐴𝑅(𝑋) = 𝑛 × 𝑃 × 𝑄

Distribución hipergeométrica
La distribución hipergeométrica es una repetición de n experimentos de Bernoulli. Estos
experimentos van a tener características completamente contrarias a las que requerían
los experimentos realizados en una distribución binomial: se van a realizar sobre una
población finita (N), los elementos se evaluaran sin reposición, y la cantidad de
𝑛
repeticiones sobre la población va a ser mayor a 0,05 𝑁 > 0,05.

Nótese que, debido a sus características, hablamos de repeticiones de experimentos y


no de procesos de Bernoulli.
𝑛
Que el análisis se realice sobre una población finita, con > 0,05 , y sin realizar
𝑁
reposición de elementos, significara que las probabilidades de ocurrencia no se van a
mantener constantes.
Por ejemplo:

En un cumpleaños se puso sobre la mesa un plato con 9


porciones de torta de dos sabores distintos, 5 de ellas
eran de chocolate y 4 de frutilla. Como no me podía
decidir le pedí a una amiga que me vende los ojos para
que de esa forma pudiera elegir una porción al azar.

Página 8
Capitulo 6 Distribuciones de Probabilidad

En un principio las probabilidades de que


agarrara una porción de chocolate era de
5/9, así como las probabilidades de que
agarrara una porción de frutilla era 4/9.

Resulta que la primera porción, elegida al azar, fue de chocolate. Como la torta
estaba muy rica decidí volver a realizar este experimento, pero, teniendo en
cuenta que una de las porciones de chocolate ya me la comí en el experimento
anterior, las probabilidades ahora van a ser distintas:

Ahora solo quedan 8 porciones de las cuales 4 son de


chocolates y 4 de frutilla. Por lo tanto la probabilidad
de que agarre una porción de chocolate va a ser igual
a 4/8 y la probabilidad de que agarre una porción de
frutilla también será 4/8.

Como podemos observar las probabilidades


cambiaron: a esto nos referimos al decir que las
probabilidades no se mantienen constantes.

Formalización:

(𝑁−𝑀
𝑛−𝑥
) × (𝑀
𝑋
)
𝑃(𝑋 = 𝑥 | 𝑁, 𝑀, 𝑛) =
(𝑁
𝑛
)

M : Cantidad de éxitos conocidos de la población (algunos libros lo


nomenclan con T o S)

N : Población

n : Cantidad de repeticiones sin reposición de elementos. (Por lo tanto


nunca van a poder ser mayor que el tamaño de la población)

X : Variable Aleatoria Hipergeometrica

x : Valor puede tomar la variable aleatoria

Como puede verse en el recuadro, para calcular la probabilidad vamos a utilizar una
construcción de números combinatorios:

Página 9
Capitulo 6 Distribuciones de Probabilidad

𝑆! (𝑁 − 𝑆)!
(𝑥𝑠 )(𝑁−𝑆 ) ×
𝑛−𝑥 𝑥! (𝑆 − 𝑥)! (𝑛 − 𝑥)! (𝑁 − 𝑆 − 𝑛 + 𝑥)!
𝑃(𝑋 = 𝑥) = =
(𝑁 ) 𝑁!
𝑛
𝑛! (𝑁 − 𝑛)!

¡A no entrar en Pánico!
Expliquemos parte por parte l
Veamos lo que significa esta formula:
En un primer lugar podemos diferenciar con dos colores todo lo que sea poblacional
(marcado con rojo) de todo lo que sea muestral (marcado con azul).
Poblacional
(𝑥𝑠 )(𝑁−𝑆
𝑛−𝑥
) Muestral
𝑃(𝑋 = 𝑥 ) =
(𝑁
𝑛
) Poblacional
Muestral

Por otro lado podemos analizar que es lo que representa cada numero combinatorio,
cada paréntesis: Si tanto a la población como a la
Recordando lo que significa S y x muestra le restamos la cantidad de
podemos observar que acá vamos éxitos lo que nos va a quedar es la
a poner todo lo que sea éxito. cantidad de fracasos. Entonces, acá
vamos a poner todo lo que sea
(𝑥𝑆 )(𝑁−𝑆
𝑛−𝑥
) fracaso.
𝑃(𝑋 = 𝑥 ) =
(𝑁
𝑛
)
Cantidad de elementos
poblacionales y
muestrales

P á g i n a 10
Capitulo 6 Distribuciones de Probabilidad

Lo que hacemos posteriormente es desarrollar matemáticamente esta fórmula, pero


su significado sigue siendo el mismo, analicemos primero el numerador:

Es la cantidad de formas distintas en que pueden


seleccionarse x éxitos en la muestra de un total
de S éxitos contenidos en la población

𝑆! (𝑁 − 𝑆)!
(𝑥𝑆 )(𝑁−𝑆 ) ×
𝑛−𝑥 𝑥! (𝑆 − 𝑥)! (𝑛 − 𝑥)! (𝑁 − 𝑆 − 𝑛 + 𝑥)!
𝑃(𝑋 = 𝑥) = =
(𝑁 ) 𝑁!
𝑛
𝑛! (𝑁 − 𝑛)!

Es la cantidad de formas distintas en que pueden


seleccionarse n-x fracasos en la muestra de un total
de N – S fracasos contenidos en la población

En cuanto al denominador:

𝑆! (𝑁 − 𝑆)!
(𝑥𝑆 )(𝑁−𝑆 ) ×
𝑛−𝑥 𝑥! (𝑆 − 𝑥)! (𝑛 − 𝑥)! (𝑁 − 𝑆 − 𝑛 + 𝑥)!
𝑃(𝑋 = 𝑥) = =
(𝑁 ) 𝑁!
𝑛
𝑛! (𝑁 − 𝑛)!

Es el número total de muestras de tamaño n que


pueden obtenerse en una población de tamaño N

Realicemos un ejemplo para entenderlo mejor:


Una empresa recibe un envío de 20 artículos. Como es caro inspeccionarlos todos, tiene
la política de comprobar una muestra aleatoria de 6 artículos de ese envío y, si no hay
mas de 1 articulo defectuoso en la muestra, no comprueba el resto. ¿Cuál es la
probabilidad de que un envío de 5 artículos defectuosos no se someta a una
comprobación adicional?
Primero identifiquemos los datos que me da el enunciado:
Por un lado, la totalidad de artículos que la empresa recibe en el envío es 20, por lo tanto
esa va a ser mi población.
N = 20
Por otro lado, la empresa declara que de esos 20 artículos solo inspecciona una
muestra aleatoria de 6.

P á g i n a 11
Capitulo 6 Distribuciones de Probabilidad

n=6
Al realizar el control de calidad, lo que la empresa esta buscando es poder identificar a
los artículos defectuosos, por lo tanto se “articulo defectuoso” con “éxito”.
Aclaración: “éxito” y “fracaso” no deben ser vistos como algo bueno o algo malo, sino
como una simple asignación de la variable aleatoria para poder operar
matemáticamente y aplicarle medidas de resumen a variables que en un principio eran
cualitativas. Es por esto, que si bien intuitivamente podríamos pensar que se le asignaría
“fracaso” a un articulo defectuoso porque es una “mala noticia”, le asignaremos “éxito”
porque a la empresa no le interesa identificar a los artículos no defectuosos, sino a
aquellos que si lo están, para no aceptarlos cuando envían la compra.
Además, el enunciado también me dice que en uno de los envíos de 20 artículos se sabe
que 5 son defectuosos, es decir, que son 5 la cantidad de éxitos conocidos de esa
población de 20.
S=5

Ahora bien, supongamos que estos artículos del que habla el enunciado son
computadoras. Para realizar el control de calidad esta empresa va a tomar 1 muestra de
6 computadoras al azar de una población de 20 computadoras:

Muestra a

Muestra b

Muestra c

(Las cruces indican las computadoras con defectos que, en realidad no conocemos cuales son)

La muestra a, b y c son ejemplos de las muchas posibilidades de conformación de una


muestra hay, dado el tamaño poblacional y el tamaño muestral. Dependiendo cual sea

P á g i n a 12
Capitulo 6 Distribuciones de Probabilidad

la muestra tomada puede ocurrir que en la misma haya 0, 1, 2, 3, 4 o hasta 5


computadoras defectuosas.
Ya sea que la empresa extrae las 6 computadoras al mismo tiempo, o las va extrayendo
una a una no va a cambiar a nuestro análisis en si, pero nosotros vamos a extraer una a
una para poder ver que va ocurriendo paso a paso.
En un principio, la probabilidad de que extraiga una computadora defectuosa de la
totalidad de 20 computadoras (Población), es decir, la probabilidad de éxito va a ser
5/20. Mientras que la probabilidad de que extraiga una computadora no defectuosa de
la población, en otras palabras, la probabilidad de fracaso va a ser 15/20.

Primer computadora extraída. Se realizan los respectivos controles y se


detecta que la computadora no esta defectuosa.

Como dijimos, en la distribución hipergeométrica realizamos el análisis sobre una


población finita y sin reposición de elementos, lo que significa que no volveremos a
meter la computadora analizada dentro de la población nuevamente, por lo cual nuestra
población ahora se vera reducida a 19 computadoras. Si nos ponemos a pensar, esto
tiene sentido en este tipo de análisis, ya que si repusiéramos la computadora en la
población correríamos el riesgo de realizar el control de calidad dos veces sobre el
mismo articulo.
No solo debemos tener en cuenta que la población disminuye, sino que también se debe
tener en cuenta que la computadora extraída anteriormente fue no defectuosa, por lo
tanto solo nos quedaran 19 computadoras, de las cuales 14 no están defectuosas y 5 si.
A raíz de esto nuestras probabilidades van a cambiar: La probabilidad de extraer una

P á g i n a 13
Capitulo 6 Distribuciones de Probabilidad

computadora defectuosa va a ser 5/19 mientras que la probabilidad de extraer una


computadora no defectuosa será 14/19.

Segunda computadora extraída. Se realizan los respectivos controles y


se detecta que la computadora esta defectuosa.

En correlación con lo que paso al extraerse la primer computadora las probabilidades


van a volver cambiar antes de realizar la próxima extracción: solo 4, del total de 18
computadoras que quedan, son defectuosas, mientras que 14 son no defectuosas.
Entonces mi probabilidad de éxito va a ser 4/18 mientras que mi probabilidad de fracaso
será 14/18.
Este mismo procedimiento se va a repetir 4 veces mas, para extraer las 6 computadoras
que completaran la muestra sometida al control de calidad:

P á g i n a 14
Capitulo 6 Distribuciones de Probabilidad

Una vez extraídas y analizadas las 6 computadoras una posible muestra podría ser:

Tal y como decía el enunciado: si no hay más de 1 articulo defectuoso en la muestra, no


se comprueba el resto. Por lo tanto, en este caso, con esta muestra extraída al azar, la
empresa no analizaría el resto de las computadoras, pero ¡cuidado!, esta no es la única
muestra posible que cumple las condiciones señaladas para que no se analicen el resto
de los artículos.
Ejemplos de otras posibles muestras:

Muestra
a

Muestra
b

Muestra
c

Cuando la consigna nos pregunta “¿Cuál es la probabilidad de que un envío de 5 artículos


defectuosos no se someta a una comprobación adicional?” Nos esta preguntando sobre
todas las posibles muestras en las que haya 0 o 1 computadora defectuosa, eso es lo
que calculamos con la construcción de números combinatorios que vimos.

(𝑥𝑆 )(𝑁−𝑆
𝑛−𝑥
)
𝑃(𝑋 = 𝑥) =
(𝑁
𝑛
)
Para que no se verifiquen el resto de las computadoras, la muestra debe tener cero
éxitos (ósea cero artículos defectuosos) o un solo éxito (un solo artículo defectuoso), por
lo tanto necesitamos conocer:
P(X=0)
P(envío aceptado) = P(X=0) + P(X=1)
P(X=1)

P á g i n a 15
Capitulo 6 Distribuciones de Probabilidad

Recordando que en nuestro ejemplo S = 5 , N = 20 y n = 6 resolvemos el ejercicio


reemplazando:
5! (20 − 5)!
(𝑥𝑆 )(𝑁−𝑆 ) (50)(15 ) ×
𝑛−𝑥 6 0! (5 − 0)! (6 − 0)! (20 − 5 − 6 + 0)!
𝑃(𝑋 = 𝑥) = = = = 0,129
(𝑁
𝑛
) 20
(6) 20!
6! (20 − 6)!

5! (20 − 5)!
(𝑥𝑆 )(𝑁−𝑆 ) (51)(15 ) ×
𝑛−𝑥 6 1! (5 − 1)! (6 − 1)! (20 − 5 − 6 + 1)!
𝑃(𝑋 = 𝑥) = = = = 0,387
(𝑁
𝑛
) 20
(6) 20!
6! (20 − 6)!

𝑃(𝐸𝑛𝑣𝑖𝑜 𝑎𝑐𝑒𝑝𝑡𝑎𝑑𝑜) = 0,129 + 0,387 = 0,516


La probabilidad de que no se siga comprobando el envío de 20 artículos es 0,516.

Esta tasa de error es alta, e indica


que es necesario mejorar el proceso.

Distribución de Poisson
La distribución de Poisson, también denominada la “ley de casos raros”, la utilizaremos
cada vez que se tenga un espacio continuo de tiempo o un cuerpo denso.
Se puede utilizar la distribución de Poisson para determinar la probabilidad de que
ocurra un determinado numero de eventos en dicho lapso de tiempo o en algún punto
de dicho cuerpo denso, como podría ser una superficie. La distribución de Poisson
también son repeticiones de eventos de Bernoulli independientes entre si.
El único parámetro que se necesita determinar en Poisson es el numero promedio de
eventos ocurridos en dicho lapso de tiempo o en la dimensión de dicho cuerpo.

Formalización: ¡Importante!

Parámetro: 𝝀. Es el numero promedio de Poisson supone que existe


eventos ocurridos en un lapso de tiempo proporcionalidad de ocurrencia
de eventos en distintos espacios
𝜆𝑥 × 𝑒 −𝜆 temporales.
𝑃(𝑋 = 𝑥 | 𝜆) =
𝑥!
Por ejemplo, si en un local de
ropa entran 20 clientes por hora,
voy a suponer que en media
Por convención 0! = 1
hora entran 10.

P á g i n a 16
Capitulo 6 Distribuciones de Probabilidad

Si bien Poisson generalmente es utilizado en casos en los que se tiene espacios continuos
de tiempo, un ejemplo en el que aplicáramos Poisson sobre una superficie podría ser
una extensión de cañería muy grande, de la que se quiere conocer cual es la probabilidad
de que se encuentren puntos de fuga.
Varianza y Esperanza de Poisson:
𝐸(𝑋~𝑃𝑜) = 𝜆
𝑉𝐴𝑅(𝑋~𝑃𝑜) = 𝜆
Ejemplo:
Un departamento de reparación de maquinaria recibe un promedio de 10 solicitudes de
servicio por hora. ¿Cuál es la probabilidad de que en media hora (seleccionada al azar)
se reciban exactamente 3 solicitudes?

53 × 𝑒 −5 53 × 𝑒 −5 1 1
𝑃(𝑋 = 3 |𝜆 = 5) = = = × 125 × 5 = 0,1404
3! 6 6 𝑒

10 en una hora son


5 en media hora

Hasta este momento estuvimos calculando


probabilidades puntuales, que solo pueden ser
calculadas cuando trabajamos con variables aleatorias
discretas.
Ahora le prestaremos especial atención a las Variables
Aleatorias Continuas.

Distribución geométrica
𝑋: 𝑁𝑢𝑚𝑒𝑟𝑜 𝑑𝑒 𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖 𝑛𝑒𝑐𝑒𝑠𝑎𝑟𝑖𝑜𝑠 ℎ𝑎𝑠𝑡𝑎 𝑜𝑏𝑡𝑒𝑛𝑒𝑟 𝑒𝑙 𝑝𝑟𝑖𝑚𝑒𝑟 𝑒𝑥𝑖𝑡𝑜
𝑅𝑋 : (1; +∞) 𝐸𝑙 𝑟𝑒𝑐𝑜𝑟𝑟𝑖𝑑𝑜 𝑐𝑜𝑚𝑖𝑒𝑛𝑧𝑎 𝑒𝑛 1 𝑝𝑜𝑟𝑞𝑢𝑒 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑡𝑢𝑣𝑒 𝑞𝑢𝑒 𝑟𝑒𝑎𝑙𝑖𝑧𝑎𝑟 𝑢𝑛
𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 𝑝𝑎𝑟𝑎 𝑜𝑏𝑡𝑒𝑛𝑒𝑟 𝑒𝑙 𝑝𝑟𝑖𝑚𝑒𝑟 𝑒𝑥𝑖𝑡𝑜

𝑃(𝑋) = 𝑝𝑞 𝑥−1
1 𝑞
𝐸 (𝑋) = 𝑉𝐴𝑅 (𝑋) =
𝑝 𝑝2

P á g i n a 17
Capitulo 6 Distribuciones de Probabilidad

Distribución Normal
La distribución normal puede ser utilizada con variables aleatorias continuas.
Función de densidad de la distribución normal:

1 −(𝑥−𝜇)2
𝑓(𝑥) = 𝑒 2𝜎2 𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < +∞
√2𝜋𝜎 2

(No hay forma analítica de integrar esa fórmula)

Formalización:

Si una variable aleatoria sigue una distribucion normal van a


haber dos parametros que van a definir el comportamiento
de esa distribucion:

1) Su media (µ)
2) Su desvió estándar (𝝈)

𝑿~𝑵 ( 𝝁 ; 𝝈 )

Esos parámetros me indican dos cosas:


1) Cual es la forma que tiene la distribución normal (me lo indica el desvió)
2) Cual es el centro que tiene la distribución normal (me lo indica la media)

P á g i n a 18
Capitulo 6 Distribuciones de Probabilidad

Ejemplos:

a Si cambia la media se va a
b generar un desplazamiento
de la distribución.
Este ejemplo se trata de dos
distribuciones distintas, que
tienen el mismo desvío,
pero distinta media.
𝜇𝑎 𝜇𝑏
𝜇𝑎 < 𝜇𝑏 ∧ 𝜎𝑎 = 𝜎𝑏

Si cambia el desvío se
genera un cambio en la
b forma de la distribución.
a Este ejemplo se trata de dos
distribuciones distintas, que
tienen la misma media, pero
distinto desvío.

𝜇𝑎
𝜇𝑏
𝜇𝑎 = 𝜇𝑏 ∧ 𝜎𝑎 > 𝜎𝑏
• Si el desvío es muy grande voy a tener muy poca acumulación centrada con
respecto a la media, entonces voy a tener que trabajar con intervalos más largos,
más grandes.

• Si por lo contrario el desvío es chico, la acumulación de probabilidad va a requerir


intervalos más cortos.

• Sin importar el tamaño del desvío, si voy desde el límite inferior del dominio hasta
el límite superior del dominio, siempre acumulo 1.

• Varianza de una distribución Normal: 𝑉𝐴𝑅(𝑋) = 𝐸(𝑋 − 𝜇)2 = 𝜎 2

P á g i n a 19
Capitulo 6 Distribuciones de Probabilidad

Función de distribución acumulada de la distribución normal:


A la hora de analizar la función de distribución acumulada de la distribución normal
debemos preguntarnos como tenemos que hacer para saber cual es la probabilidad de
que una determinada variable que sigue una distribución normal acumule, por ejemplo,
un 60% o 40% de probabilidad.
Para obtener eso voy a tener que integrar la función de densidad vista mas arriba:

1 𝑥−𝜇 2
𝑏 1 − ( )
𝑋~𝑁( 𝜇 ; 𝜎 ) ⇒ 𝑃( 𝑋 ≤ 𝑏 ) = ∫−∞ 𝜎√2𝜋 ×𝑒 2 𝜎 𝑑𝑥

= 𝐹(𝑋 ≤ 𝑏)
Esta va a ser la función de acumulación hasta un determinado valor de x.
La forma de la función de densidad, tal como la vimos, es de una campana, mientras
que la forma de la función de acumulación es la siguiente:

1
Asíntota horizontal en
y = 1 porque nunca
llegas a acumular 1 si la
0,5 función esta evaluada
hasta +∞

𝜇
En la media se acumula siempre el
50% de la distribución

En este grafico la función de acumulación en −∞ acumula 0, en +∞ acumula 1 y en 𝜇


acumula 0,5.

Propiedades de la distribución normal:


Pasan bajo la curva de cualquier distribución normal sin importar la media
o el desvío que tengan:

P á g i n a 20
Capitulo 6 Distribuciones de Probabilidad

Propiedad de 1 desvío:

𝑓(𝑥)

68,3%
𝑥
−∞ 𝜇𝑥 − 𝜎 𝜇𝑥 𝜇𝑥 + 𝜎 +∞

Lo que me está indicando el grafico es que siempre entre 𝜇𝑥 − 𝜎 (como limite inferior)
y 𝜇𝑥 + 𝜎 (como límite superior) se va a acumular el 68,3% de la distribución, para
cualquier media y cualquier desvío (siempre y cuando se trate de una distribución
normal).
Por ejemplo:
𝑋~𝑁( 𝜇 = 50 ; 𝜎 = 3 )
53
𝐹(𝑥) = ∫ 𝑓(𝑥) = 0,683
47

Propiedad de 2 desvíos:

𝑓(𝑥)

95,4%
𝑥
−∞ 𝜇𝑥 − 2𝜎 𝜇𝑥 𝜇𝑥 + 2𝜎 +∞
Sin importar el valor de la media y del desvío, si sigue una distribución normal, entre la
media y dos desvíos para la izquierda y para la derecha se acumulará el 95,4%

P á g i n a 21
Capitulo 6 Distribuciones de Probabilidad

Propiedad de 3 desvíos:
𝑓(𝑥)

99,7%
𝑥
−∞ 𝜇𝑥 − 3𝜎 𝜇𝑥 𝜇𝑥 + 3𝜎 +∞

Por ejemplo:
𝑋~𝑁( 𝜇 = 50 ; 𝜎 = 3 )
59
𝐹(𝑥) = ∫ 𝑓(𝑥) = 99,7%
41

Problemas inversos de tabla


Tenemos un problema inverso de tabla cuando conozco cuanto se acumula entre los
límites, pero no el valor de uno de ellos.
Por ejemplo:
Suponemos que tengo la información de que una variable sigue una distribución normal
con una media igual a 50 y un desvío igual a 3 y yo quiero saber cual es el valor tal que
acumula por ejemplo un 80% de la probabilidad.

𝑓(𝑥) 𝑋~𝑁(𝜇 = 50 ; 𝜎 = 3)
𝑃(𝑋 < 𝑏) = 0,80

𝑏
𝐹(𝑋) = ∫−∞ 𝑓(𝑥)𝑑𝑥 = 0,80
80%

𝑥
−∞ 𝜇𝑥 = 50 +∞
b?

P á g i n a 22
Capitulo 6 Distribuciones de Probabilidad

Distribución Normal Estándar


Esta distribucion tiene las mismas características que la anterior, con la diferencia de
que su valor esperado será cero, es decir, tendrá 𝜇 = 0 y tendrá un desvío igual a 1.
𝑍~𝑁(0; 1)
Con función de densidad:

1 2
𝑓 (𝑥 ) = 𝑒𝑍 𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < +∞
√2𝜋

Distribución Uniforme
Esta distribucion nos plantea que, sea un intervalo definido [𝑎 ; 𝑏], la probabilidad de
que la variable aleatoria tome un valor en cada subintervalo de igual longitud es la
misma (equiprobabilidad de ocurrencia).

1
𝑎≤𝑥≤𝑏
𝑓(𝑋) = { 𝑏 − 𝑎
1
0 𝑓𝑢𝑒𝑟𝑎 𝑑𝑒 [𝑎; 𝑏]

𝑎+𝑏
𝐸(𝑋) = 𝑒𝑠 𝑒𝑙 𝑣𝑎𝑙𝑜𝑟 𝑚𝑒𝑑𝑖𝑜
2

(𝑏 − 𝑎)2
𝑉𝐴𝑅(𝑋) =
12

Distribución Gamma (𝛾)


𝑋~𝛾(𝛼; 𝛽)
Tiene como función de densidad:

1 𝑥
𝛼−1 −𝛽
𝑋 𝑒 𝑆𝑖 𝑋 ≥ 0
𝑓(𝑥) {𝛽 𝛼 × 𝛾(𝛼) .
0 𝑆𝑖 𝑋 < 0

P á g i n a 23
Capitulo 6 Distribuciones de Probabilidad

𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝐺𝑎𝑚𝑚𝑎 𝑑𝑒 𝐴𝑙𝑝ℎ𝑎 𝛾(𝛼)


+∞
𝛾(𝛼) = ∫ 𝑋 𝛼−1 𝑒 −𝑥 𝑑𝑥 𝛼>0 𝛽>0
0

Se puede probar que:

𝛾(𝛼) = (𝛼 − 1) × 𝛾(𝛼 − 1)
𝑦 𝑠𝑖 𝑛 ∈ 𝑁 ⇒ 𝛾(𝑛) = (𝑛 − 1)!
-----------
𝐸(𝑋) = 𝛼𝛽
𝑉𝐴𝑅(𝑋) = 𝛼𝛽 2

Casos particulares de Gamma:


Ji-Cuadrado
𝑛
Si 𝛼 = ∧ 𝛽=2
2

𝑛 → 𝐺𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑
Reemplazamos estos valores en la función de densidad, la esperanza y la varianza de la
distribucion gama para obtener:
1 𝑛 𝑥
𝑛 𝑋 2 −1 𝑒 −2 𝑆𝑖 𝑋 ≥ 0
𝑛
𝑓(𝑥) 22 × 𝛾 (2 )
.
{ 0 𝑆𝑖 𝑋 < 0
𝑛
𝐸(𝑋) = 2 = 𝑛
2
𝑛
𝑉𝐴𝑅(𝑋) = 22 = 2𝑛
2

Exponencial
Si 𝛼 = 1
Reemplazamos este valor en la función de densidad, la esperanza y la varianza de la
distribucion gama para obtener:
1 −𝛽𝑥
𝑒 𝑆𝑖 𝑋 ≥ 0
𝑓(𝑥) { 𝛽
.
0 𝑆𝑖 𝑋 < 0
P á g i n a 24
Capitulo 6 Distribuciones de Probabilidad

𝐸(𝑋) = 1𝛽 = 𝛽
𝑉𝐴𝑅(𝑋) = 1𝛽 2 = 𝛽 2

Distribución Beta
𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝐵𝑒𝑡𝑎
1
𝛾(𝛼)𝛾(𝛽)
𝐵(𝛼; 𝛽 ) = ∫ 𝑋 𝛼−1 (1 − 𝑋)𝛽−1 𝑑𝑥 =
0 𝛾(𝛼 + 𝛽)

𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛 𝐵𝑒𝑡𝑎

𝑋~𝛽(𝛼; 𝛽) 𝛼 > 0 𝛽 > 0


𝑅𝑋 : [0; 1] (𝑅𝑒𝑐𝑜𝑟𝑟𝑖𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑉𝐴 𝑋)

1𝑋 𝛼−1 (1 − 𝑋)𝛽−1
0≤𝑋≤1
𝐵(𝛼; 𝛽)
𝑓(𝑥)
.
{0 𝑆𝑖 𝑋 ∉ [0; 1]
𝛼
𝐸(𝑋) =
𝛼+𝛽

𝛼𝛽
𝑉𝐴𝑅 (𝑋) = (𝛼+𝛽+1)(𝛼+𝛽)2

P á g i n a 25

También podría gustarte