Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Distribución de Bernoulli
Experimento de Bernoulli
El experimento de Bernoulli se trata de un experimento dicotómico, es decir, de un
experimento que tiene dos posibles resultados: Éxito o No éxito (Fracaso).
Por ejemplo: Se realiza el experimento de lanzar un dado de colores. Si al tirar el dado
la cara superior que sale es la cara azul entonces lo consideraremos un éxito pero, si por
lo contrario, sale cualquier otra cara que no sea la azul, lo consideraremos un fracaso.
Cara superior
azul: Éxito
P = Probabilidad de éxito.
Q = (1-P) = Probabilidad de fracaso.
W = {Azul, rojo, amarillo, violeta, verde,
blanco}
Éxito → Azul → P = 1/6
Fracaso → No Azul → Q = (1-P) 5/6
¡Recordatorio!
P + (1-P) = 1
X(Éxito) = 1 → P( x = 1 ) = P
X(Fracaso) = 0 → P( x = 0) = 1 – P = Q
Para comprobar esto matemáticamente presentaremos a la función de Bernoulli y la
evaluaremos en 0 y 1.
función de Bernoulli:
𝑃(𝑋) = 𝑃 𝑥 (1 − 𝑃)1−𝑥
Evaluamos la función de Bernoulli en x = 0 y en x = 1
𝑃(0) = 𝑃0 (1 − 𝑃)1−0 = 1(1 − 𝑃) = 1 − 𝑃 = 𝑃(𝑥 = 0)
𝑃(1) = 𝑃1 (1 − 𝑃)1−1 = 𝑃1 = 𝑃 = 𝑃(𝑥 = 1)
Tal y como dijimos antes:
𝑃 + (1 − 𝑃) = 1
Página 2
Capitulo 6 Distribuciones de Probabilidad
𝜑𝑋 (𝑡) = 𝐸 (𝑒 𝑥𝑡 )
La distribución de Bernoulli es una distribución de probabilidad discreta, por lo tanto
la esperanza de “e” la calcularemos de la siguiente manera:
1
𝑒 0𝑡 × 𝑃0 (1 − 𝑃)1−0 + 𝑒 1𝑡 × 𝑃1 (1 − 𝑃)1−1 =
Reemplace en P(0) y en P(1) la función de Bernoulli
valuada en 0 y en 1 respectivamente
Una vez obtenida la función generatriz de momentos para una variable aleatoria
Bernoulli la derivamos para poder encontrar la media y la varianza:
𝑑𝑘 𝜑𝑥 (𝑡) .
𝑀𝐾 = |𝑡 = 0
𝑑𝑡
𝑑 ′ (1 − 𝑃) + 𝑒 𝑡 𝑃 .
𝑀1 = = 0 + 𝑒 𝑡 𝑃 |𝑡 = 0
𝑑𝑡
Me indica que Resultado de
derivamos en derivar
función de t
Página 3
Capitulo 6 Distribuciones de Probabilidad
Explicación de la derivada:
Por empezar tenemos una multiplicación entre una constante (P) y una función (𝑒 𝑡 ),
por lo tanto, por regla de derivación, el resultado de derivar eso será la constante por la
función derivada. Ahora bien, sabemos que la derivada de 𝑒 𝑡 es 𝑒 𝑡 pero acá le dejamos
el paso a paso:
𝑓(𝑥) = 𝑒 𝑥
ln 𝑓(𝑥) = 𝑥 lne
ln 𝑓(𝑥) = 𝑥
(ln 𝑓(𝑥))′ = 𝑥′
1
𝑓′(𝑥) = 1
𝑓(𝑥)
𝑓 ′ (𝑥) = 𝑓(𝑥)
𝑓 ′ (𝑥) = 𝑒 𝑥
.
𝑒 𝑡 𝑃 |𝑡 = 0
Evaluamos la derivada en t=0 y obtenemos que
𝑒 0𝑃 = 𝑃
𝑑 2 (1 − 𝑃) + 𝑒 𝑡 𝑃
𝑀2 = =
𝑑𝑡 2
𝑑[(𝑑1 − 𝑃) + 𝑒 𝑡 𝑃]
𝑀2 = =
𝑑𝑡
𝑑𝑒 𝑡 𝑃 .
𝑀2 = = 𝑒 𝑡 𝑃|𝑡 = 0 = 𝑃
𝑑𝑡
Página 4
Capitulo 6 Distribuciones de Probabilidad
𝐸(𝑋 → 𝐵𝑒 (𝑃)) = 𝑀1 = 𝑃
Significa: La Esperanza de la variable
aleatoria X que sigue una distribución
de Bernoulli
No debemos confundir:
𝑃(𝑥𝑖 ) ≠ 𝑃𝑥𝑖 × (1 − 𝑃)1−𝑥𝑖
Probabilidad
Probabilidad de que la variable de éxito de la
tome determinado valor distribución de
Bernoulli
Conclusiones:
Una primera diferencia que vamos a encontrar entre las
distribuciones de probabilidad son los distintos valores que
puede tomar la Variable Aleatoria: Por ejemplo, en la
distribución de Bernoulli solo puede tomar los valores 0 o 1.
Distribución Binomial
Para poder explicar la distribución binomial primero vamos a introducir un concepto
denominado Proceso de Bernoulli. Un proceso de Bernoulli es una repetición de n veces
de un experimento de Bernoulli, sin embargo, debe aclararse que no toda repetición de
n veces es un proceso de Bernoulli.
Para que esas repeticiones sean consideradas un proceso de Bernoulli deben cumplir
con ciertas características:
1) Las probabilidades de ocurrencia deben ser independientes una de las otras
2) Las probabilidades de éxito se deben mantener constantes
Página 5
Capitulo 6 Distribuciones de Probabilidad
Si nos detenemos a observar bien ambas condiciones están relacionadas entre si: Si las
variables aleatorias son independientes entre si en consecuencia las probabilidades de
éxito se van a mantener constante, y si las probabilidades de éxito se mantienen
constantes va a ser porque las variables son independientes una de las otras.
Ahora bien, ¿Cuándo puede suceder que se mantengan constantes las probabilidades
de éxito?
1- Cuando N, el tamaño poblacional, es infinito.
O
2- Cuando N es finita pero hay reposición de elementos
O
3- Cuando N es muy grande, tal que, sin haber reposición de elementos, la
cantidad de veces que se repita el experimento (n) sea de una proporción
𝑛
menor al 5% de N. 𝑁 ≤ 0,05
Página 6
Capitulo 6 Distribuciones de Probabilidad
P×P×P×Q×Q
P×P×Q×P×Q
P×P×Q×Q×P
P×Q×P×P×Q
P×Q×Q×P×P 10 Posibles
Q×P×P×P×Q combinacio Por lo tanto, quiero
Q×Q×P×P×P nes para que de fracaso 2 veces
Q×P×Q×P×P que X=3 sabiendo que son 5 las
Quiero que repeticiones
Q×P×P×Q×P
de éxito 3
P×Q×P×Q×P Dos posibles veces
resultados para
tener éxito
Entonces…
2 3 4 5−3
Forma incorrecta de calcularlo: P × P × P × Q × Q = ( ) × ( )
6 6
P × P × P × Q × Q = 𝑃 𝑋 × 𝑄 𝑛−𝑋
2 3 4 5−3
Forma correcta de calcularlo: 10 P × P × P × Q × Q = 10 × (6) × (6)
Formalización:
𝑛
P( X = 3 |n = 5 , P = 1/3 ) = ( 𝑥 ) × 𝑃𝑥 × 𝑄𝑛−𝑥
𝑛!
( ) × 𝑃 𝑥 × 𝑄 𝑛−𝑥
𝑥! (𝑛 − 𝑥)!
Así obtengo la cantidad de
posibilidades distintas obtener
Por ejemplo, 3 éxitos en 5 repeticiones
5! 120 120
= = = 10
3! × 2! 6 × 2 12
1 3 2 2 1 4 40
10 × ( ) × ( ) = 10 × × =
3 3 27 9 243
Esperanza:
Variables Aleatorias de Bernoulli
𝑉𝐴𝑅(𝑋~𝐵𝑖) = 𝑉𝐴𝑅(𝑋1 + 𝑋2 + 𝑋3 + 𝑋4 + ⋯ + 𝑋𝑛 )
= 𝑉𝐴𝑅(𝑋1 ) + 𝑉𝐴𝑅(𝑋2 ) + 𝑉𝐴𝑅(𝑋3 ) + 𝑉𝐴𝑅(𝑋4 ) + ⋯ + 𝑉𝐴𝑅(𝑋𝑛 )
𝑉𝐴𝑅(𝑋~𝐵𝑖) = 𝑛 × 𝑉𝐴𝑅(𝑋) = 𝑛 × 𝑃 × 𝑄
Distribución hipergeométrica
La distribución hipergeométrica es una repetición de n experimentos de Bernoulli. Estos
experimentos van a tener características completamente contrarias a las que requerían
los experimentos realizados en una distribución binomial: se van a realizar sobre una
población finita (N), los elementos se evaluaran sin reposición, y la cantidad de
𝑛
repeticiones sobre la población va a ser mayor a 0,05 𝑁 > 0,05.
Página 8
Capitulo 6 Distribuciones de Probabilidad
Resulta que la primera porción, elegida al azar, fue de chocolate. Como la torta
estaba muy rica decidí volver a realizar este experimento, pero, teniendo en
cuenta que una de las porciones de chocolate ya me la comí en el experimento
anterior, las probabilidades ahora van a ser distintas:
Formalización:
(𝑁−𝑀
𝑛−𝑥
) × (𝑀
𝑋
)
𝑃(𝑋 = 𝑥 | 𝑁, 𝑀, 𝑛) =
(𝑁
𝑛
)
N : Población
Como puede verse en el recuadro, para calcular la probabilidad vamos a utilizar una
construcción de números combinatorios:
Página 9
Capitulo 6 Distribuciones de Probabilidad
𝑆! (𝑁 − 𝑆)!
(𝑥𝑠 )(𝑁−𝑆 ) ×
𝑛−𝑥 𝑥! (𝑆 − 𝑥)! (𝑛 − 𝑥)! (𝑁 − 𝑆 − 𝑛 + 𝑥)!
𝑃(𝑋 = 𝑥) = =
(𝑁 ) 𝑁!
𝑛
𝑛! (𝑁 − 𝑛)!
¡A no entrar en Pánico!
Expliquemos parte por parte l
Veamos lo que significa esta formula:
En un primer lugar podemos diferenciar con dos colores todo lo que sea poblacional
(marcado con rojo) de todo lo que sea muestral (marcado con azul).
Poblacional
(𝑥𝑠 )(𝑁−𝑆
𝑛−𝑥
) Muestral
𝑃(𝑋 = 𝑥 ) =
(𝑁
𝑛
) Poblacional
Muestral
Por otro lado podemos analizar que es lo que representa cada numero combinatorio,
cada paréntesis: Si tanto a la población como a la
Recordando lo que significa S y x muestra le restamos la cantidad de
podemos observar que acá vamos éxitos lo que nos va a quedar es la
a poner todo lo que sea éxito. cantidad de fracasos. Entonces, acá
vamos a poner todo lo que sea
(𝑥𝑆 )(𝑁−𝑆
𝑛−𝑥
) fracaso.
𝑃(𝑋 = 𝑥 ) =
(𝑁
𝑛
)
Cantidad de elementos
poblacionales y
muestrales
P á g i n a 10
Capitulo 6 Distribuciones de Probabilidad
𝑆! (𝑁 − 𝑆)!
(𝑥𝑆 )(𝑁−𝑆 ) ×
𝑛−𝑥 𝑥! (𝑆 − 𝑥)! (𝑛 − 𝑥)! (𝑁 − 𝑆 − 𝑛 + 𝑥)!
𝑃(𝑋 = 𝑥) = =
(𝑁 ) 𝑁!
𝑛
𝑛! (𝑁 − 𝑛)!
En cuanto al denominador:
𝑆! (𝑁 − 𝑆)!
(𝑥𝑆 )(𝑁−𝑆 ) ×
𝑛−𝑥 𝑥! (𝑆 − 𝑥)! (𝑛 − 𝑥)! (𝑁 − 𝑆 − 𝑛 + 𝑥)!
𝑃(𝑋 = 𝑥) = =
(𝑁 ) 𝑁!
𝑛
𝑛! (𝑁 − 𝑛)!
P á g i n a 11
Capitulo 6 Distribuciones de Probabilidad
n=6
Al realizar el control de calidad, lo que la empresa esta buscando es poder identificar a
los artículos defectuosos, por lo tanto se “articulo defectuoso” con “éxito”.
Aclaración: “éxito” y “fracaso” no deben ser vistos como algo bueno o algo malo, sino
como una simple asignación de la variable aleatoria para poder operar
matemáticamente y aplicarle medidas de resumen a variables que en un principio eran
cualitativas. Es por esto, que si bien intuitivamente podríamos pensar que se le asignaría
“fracaso” a un articulo defectuoso porque es una “mala noticia”, le asignaremos “éxito”
porque a la empresa no le interesa identificar a los artículos no defectuosos, sino a
aquellos que si lo están, para no aceptarlos cuando envían la compra.
Además, el enunciado también me dice que en uno de los envíos de 20 artículos se sabe
que 5 son defectuosos, es decir, que son 5 la cantidad de éxitos conocidos de esa
población de 20.
S=5
Ahora bien, supongamos que estos artículos del que habla el enunciado son
computadoras. Para realizar el control de calidad esta empresa va a tomar 1 muestra de
6 computadoras al azar de una población de 20 computadoras:
Muestra a
Muestra b
Muestra c
(Las cruces indican las computadoras con defectos que, en realidad no conocemos cuales son)
P á g i n a 12
Capitulo 6 Distribuciones de Probabilidad
P á g i n a 13
Capitulo 6 Distribuciones de Probabilidad
P á g i n a 14
Capitulo 6 Distribuciones de Probabilidad
Una vez extraídas y analizadas las 6 computadoras una posible muestra podría ser:
Muestra
a
Muestra
b
Muestra
c
(𝑥𝑆 )(𝑁−𝑆
𝑛−𝑥
)
𝑃(𝑋 = 𝑥) =
(𝑁
𝑛
)
Para que no se verifiquen el resto de las computadoras, la muestra debe tener cero
éxitos (ósea cero artículos defectuosos) o un solo éxito (un solo artículo defectuoso), por
lo tanto necesitamos conocer:
P(X=0)
P(envío aceptado) = P(X=0) + P(X=1)
P(X=1)
P á g i n a 15
Capitulo 6 Distribuciones de Probabilidad
5! (20 − 5)!
(𝑥𝑆 )(𝑁−𝑆 ) (51)(15 ) ×
𝑛−𝑥 6 1! (5 − 1)! (6 − 1)! (20 − 5 − 6 + 1)!
𝑃(𝑋 = 𝑥) = = = = 0,387
(𝑁
𝑛
) 20
(6) 20!
6! (20 − 6)!
Distribución de Poisson
La distribución de Poisson, también denominada la “ley de casos raros”, la utilizaremos
cada vez que se tenga un espacio continuo de tiempo o un cuerpo denso.
Se puede utilizar la distribución de Poisson para determinar la probabilidad de que
ocurra un determinado numero de eventos en dicho lapso de tiempo o en algún punto
de dicho cuerpo denso, como podría ser una superficie. La distribución de Poisson
también son repeticiones de eventos de Bernoulli independientes entre si.
El único parámetro que se necesita determinar en Poisson es el numero promedio de
eventos ocurridos en dicho lapso de tiempo o en la dimensión de dicho cuerpo.
Formalización: ¡Importante!
P á g i n a 16
Capitulo 6 Distribuciones de Probabilidad
Si bien Poisson generalmente es utilizado en casos en los que se tiene espacios continuos
de tiempo, un ejemplo en el que aplicáramos Poisson sobre una superficie podría ser
una extensión de cañería muy grande, de la que se quiere conocer cual es la probabilidad
de que se encuentren puntos de fuga.
Varianza y Esperanza de Poisson:
𝐸(𝑋~𝑃𝑜) = 𝜆
𝑉𝐴𝑅(𝑋~𝑃𝑜) = 𝜆
Ejemplo:
Un departamento de reparación de maquinaria recibe un promedio de 10 solicitudes de
servicio por hora. ¿Cuál es la probabilidad de que en media hora (seleccionada al azar)
se reciban exactamente 3 solicitudes?
53 × 𝑒 −5 53 × 𝑒 −5 1 1
𝑃(𝑋 = 3 |𝜆 = 5) = = = × 125 × 5 = 0,1404
3! 6 6 𝑒
Distribución geométrica
𝑋: 𝑁𝑢𝑚𝑒𝑟𝑜 𝑑𝑒 𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖 𝑛𝑒𝑐𝑒𝑠𝑎𝑟𝑖𝑜𝑠 ℎ𝑎𝑠𝑡𝑎 𝑜𝑏𝑡𝑒𝑛𝑒𝑟 𝑒𝑙 𝑝𝑟𝑖𝑚𝑒𝑟 𝑒𝑥𝑖𝑡𝑜
𝑅𝑋 : (1; +∞) 𝐸𝑙 𝑟𝑒𝑐𝑜𝑟𝑟𝑖𝑑𝑜 𝑐𝑜𝑚𝑖𝑒𝑛𝑧𝑎 𝑒𝑛 1 𝑝𝑜𝑟𝑞𝑢𝑒 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑡𝑢𝑣𝑒 𝑞𝑢𝑒 𝑟𝑒𝑎𝑙𝑖𝑧𝑎𝑟 𝑢𝑛
𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 𝑝𝑎𝑟𝑎 𝑜𝑏𝑡𝑒𝑛𝑒𝑟 𝑒𝑙 𝑝𝑟𝑖𝑚𝑒𝑟 𝑒𝑥𝑖𝑡𝑜
𝑃(𝑋) = 𝑝𝑞 𝑥−1
1 𝑞
𝐸 (𝑋) = 𝑉𝐴𝑅 (𝑋) =
𝑝 𝑝2
P á g i n a 17
Capitulo 6 Distribuciones de Probabilidad
Distribución Normal
La distribución normal puede ser utilizada con variables aleatorias continuas.
Función de densidad de la distribución normal:
1 −(𝑥−𝜇)2
𝑓(𝑥) = 𝑒 2𝜎2 𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < +∞
√2𝜋𝜎 2
Formalización:
1) Su media (µ)
2) Su desvió estándar (𝝈)
𝑿~𝑵 ( 𝝁 ; 𝝈 )
P á g i n a 18
Capitulo 6 Distribuciones de Probabilidad
Ejemplos:
a Si cambia la media se va a
b generar un desplazamiento
de la distribución.
Este ejemplo se trata de dos
distribuciones distintas, que
tienen el mismo desvío,
pero distinta media.
𝜇𝑎 𝜇𝑏
𝜇𝑎 < 𝜇𝑏 ∧ 𝜎𝑎 = 𝜎𝑏
Si cambia el desvío se
genera un cambio en la
b forma de la distribución.
a Este ejemplo se trata de dos
distribuciones distintas, que
tienen la misma media, pero
distinto desvío.
𝜇𝑎
𝜇𝑏
𝜇𝑎 = 𝜇𝑏 ∧ 𝜎𝑎 > 𝜎𝑏
• Si el desvío es muy grande voy a tener muy poca acumulación centrada con
respecto a la media, entonces voy a tener que trabajar con intervalos más largos,
más grandes.
• Sin importar el tamaño del desvío, si voy desde el límite inferior del dominio hasta
el límite superior del dominio, siempre acumulo 1.
P á g i n a 19
Capitulo 6 Distribuciones de Probabilidad
1 𝑥−𝜇 2
𝑏 1 − ( )
𝑋~𝑁( 𝜇 ; 𝜎 ) ⇒ 𝑃( 𝑋 ≤ 𝑏 ) = ∫−∞ 𝜎√2𝜋 ×𝑒 2 𝜎 𝑑𝑥
= 𝐹(𝑋 ≤ 𝑏)
Esta va a ser la función de acumulación hasta un determinado valor de x.
La forma de la función de densidad, tal como la vimos, es de una campana, mientras
que la forma de la función de acumulación es la siguiente:
1
Asíntota horizontal en
y = 1 porque nunca
llegas a acumular 1 si la
0,5 función esta evaluada
hasta +∞
𝜇
En la media se acumula siempre el
50% de la distribución
P á g i n a 20
Capitulo 6 Distribuciones de Probabilidad
Propiedad de 1 desvío:
𝑓(𝑥)
68,3%
𝑥
−∞ 𝜇𝑥 − 𝜎 𝜇𝑥 𝜇𝑥 + 𝜎 +∞
Lo que me está indicando el grafico es que siempre entre 𝜇𝑥 − 𝜎 (como limite inferior)
y 𝜇𝑥 + 𝜎 (como límite superior) se va a acumular el 68,3% de la distribución, para
cualquier media y cualquier desvío (siempre y cuando se trate de una distribución
normal).
Por ejemplo:
𝑋~𝑁( 𝜇 = 50 ; 𝜎 = 3 )
53
𝐹(𝑥) = ∫ 𝑓(𝑥) = 0,683
47
Propiedad de 2 desvíos:
𝑓(𝑥)
95,4%
𝑥
−∞ 𝜇𝑥 − 2𝜎 𝜇𝑥 𝜇𝑥 + 2𝜎 +∞
Sin importar el valor de la media y del desvío, si sigue una distribución normal, entre la
media y dos desvíos para la izquierda y para la derecha se acumulará el 95,4%
P á g i n a 21
Capitulo 6 Distribuciones de Probabilidad
Propiedad de 3 desvíos:
𝑓(𝑥)
99,7%
𝑥
−∞ 𝜇𝑥 − 3𝜎 𝜇𝑥 𝜇𝑥 + 3𝜎 +∞
Por ejemplo:
𝑋~𝑁( 𝜇 = 50 ; 𝜎 = 3 )
59
𝐹(𝑥) = ∫ 𝑓(𝑥) = 99,7%
41
𝑓(𝑥) 𝑋~𝑁(𝜇 = 50 ; 𝜎 = 3)
𝑃(𝑋 < 𝑏) = 0,80
𝑏
𝐹(𝑋) = ∫−∞ 𝑓(𝑥)𝑑𝑥 = 0,80
80%
𝑥
−∞ 𝜇𝑥 = 50 +∞
b?
P á g i n a 22
Capitulo 6 Distribuciones de Probabilidad
1 2
𝑓 (𝑥 ) = 𝑒𝑍 𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < +∞
√2𝜋
Distribución Uniforme
Esta distribucion nos plantea que, sea un intervalo definido [𝑎 ; 𝑏], la probabilidad de
que la variable aleatoria tome un valor en cada subintervalo de igual longitud es la
misma (equiprobabilidad de ocurrencia).
1
𝑎≤𝑥≤𝑏
𝑓(𝑋) = { 𝑏 − 𝑎
1
0 𝑓𝑢𝑒𝑟𝑎 𝑑𝑒 [𝑎; 𝑏]
𝑎+𝑏
𝐸(𝑋) = 𝑒𝑠 𝑒𝑙 𝑣𝑎𝑙𝑜𝑟 𝑚𝑒𝑑𝑖𝑜
2
(𝑏 − 𝑎)2
𝑉𝐴𝑅(𝑋) =
12
1 𝑥
𝛼−1 −𝛽
𝑋 𝑒 𝑆𝑖 𝑋 ≥ 0
𝑓(𝑥) {𝛽 𝛼 × 𝛾(𝛼) .
0 𝑆𝑖 𝑋 < 0
P á g i n a 23
Capitulo 6 Distribuciones de Probabilidad
𝛾(𝛼) = (𝛼 − 1) × 𝛾(𝛼 − 1)
𝑦 𝑠𝑖 𝑛 ∈ 𝑁 ⇒ 𝛾(𝑛) = (𝑛 − 1)!
-----------
𝐸(𝑋) = 𝛼𝛽
𝑉𝐴𝑅(𝑋) = 𝛼𝛽 2
𝑛 → 𝐺𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑
Reemplazamos estos valores en la función de densidad, la esperanza y la varianza de la
distribucion gama para obtener:
1 𝑛 𝑥
𝑛 𝑋 2 −1 𝑒 −2 𝑆𝑖 𝑋 ≥ 0
𝑛
𝑓(𝑥) 22 × 𝛾 (2 )
.
{ 0 𝑆𝑖 𝑋 < 0
𝑛
𝐸(𝑋) = 2 = 𝑛
2
𝑛
𝑉𝐴𝑅(𝑋) = 22 = 2𝑛
2
Exponencial
Si 𝛼 = 1
Reemplazamos este valor en la función de densidad, la esperanza y la varianza de la
distribucion gama para obtener:
1 −𝛽𝑥
𝑒 𝑆𝑖 𝑋 ≥ 0
𝑓(𝑥) { 𝛽
.
0 𝑆𝑖 𝑋 < 0
P á g i n a 24
Capitulo 6 Distribuciones de Probabilidad
𝐸(𝑋) = 1𝛽 = 𝛽
𝑉𝐴𝑅(𝑋) = 1𝛽 2 = 𝛽 2
Distribución Beta
𝐹𝑢𝑛𝑐𝑖𝑜𝑛 𝐵𝑒𝑡𝑎
1
𝛾(𝛼)𝛾(𝛽)
𝐵(𝛼; 𝛽 ) = ∫ 𝑋 𝛼−1 (1 − 𝑋)𝛽−1 𝑑𝑥 =
0 𝛾(𝛼 + 𝛽)
𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛 𝐵𝑒𝑡𝑎
1𝑋 𝛼−1 (1 − 𝑋)𝛽−1
0≤𝑋≤1
𝐵(𝛼; 𝛽)
𝑓(𝑥)
.
{0 𝑆𝑖 𝑋 ∉ [0; 1]
𝛼
𝐸(𝑋) =
𝛼+𝛽
𝛼𝛽
𝑉𝐴𝑅 (𝑋) = (𝛼+𝛽+1)(𝛼+𝛽)2
P á g i n a 25