Está en la página 1de 16

Modelos de probabilidad

Distribución Bernoulli
Una variable aleatoria X sigue una distribución
Bernoulli con parámetro 𝜽, y se representa así
XBer(𝜽), si su función de probabilidad es:

𝑃 𝑋 = 𝑥 = 𝜽x (1 − 𝜽)1−x ; x =0, 1

Medidas de resumen:
𝑬 𝑿 =𝜽

𝑽 𝑿 = 𝜽 (𝟏 − 𝜽)
Distribución Binomial
Una variable aleatoria X sigue una distribución
Binomial con parámetros n y 𝜽, y se representa así
XBi(n, 𝜽), si su función de probabilidad es:

𝑷(𝑿 = 𝒙) = 𝑪𝒏𝒙 × 𝜽𝒙 × (𝟏 − 𝜽)𝒏−𝒙 ; x =0, 1, … , 𝒏

Medidas de resumen:
𝑬 𝑿 = 𝒏𝜽

𝑽 𝑿 = 𝒏𝜽 (𝟏 − 𝜽)
Distribución Poisson
Una variable aleatoria X sigue una distribución
Poisson con parámetro 𝜽, y se representa así
XP(𝜽), si su función de probabilidad es:

−𝛉
𝛉𝐱
P X=x =𝐞 × ; 𝐱 = 𝟎, 𝟏, …
𝐱!
Medidas de resumen:
𝑬 𝑿 =𝜽

𝑽 𝑿 =𝜽
Distribución Hipergeométrica
Una variable aleatoria X sigue una distribución
Hipergeométrica con parámetros N, A y n, y se
representa así XH( 𝑵, 𝑨, 𝒏 ), si su función de
probabilidad es:
𝑪𝑨𝒙 × 𝑪𝑵−𝑨
𝒏−𝒙
P X=x = ; 𝐱 = 𝟎, 𝟏, 𝟐, … , 𝐦𝐢𝐧 (𝐀, 𝐧)
𝑪𝑵
𝒏

Medidas de resumen:
𝑨
𝑬 𝑿 =𝒏×
𝑵
𝑨 𝑵−𝑨 𝑵−𝒏
𝑽 𝑿 = 𝒏× × ×
𝑵 𝑵 𝑵−𝟏
Distribución Geométrica
Una variable aleatoria X sigue una distribución
Geométrica con parámetro 𝜽, y se representa así
XG(𝜽), si su función de probabilidad es:

P X = x = (𝟏 − 𝛉)x−1 𝛉; 𝐱 = 𝟏, 𝟐, …

Medidas de resumen:
𝟏
𝑬 𝑿 =
𝜽

𝟏−𝜽
𝑽 𝑿 = 𝟐
𝜽
Distribución uniforme
Una variable aleatoria X sigue una distribución
uniforme en el intervalo (𝜽𝟏 , 𝜽𝟐 ), y se representa
así XU( 𝜽𝟏 , 𝜽𝟐 ), si su función de densidad de
probabilidad es:
1
𝑓 𝑥 = ; 𝜽 ≤ 𝑥 ≤ 𝜽𝟐
𝜽𝟐 − 𝜽𝟏 𝟏

Medidas de resumen:
𝜽𝟏 + 𝜽𝟐
𝐄 𝐗 =
𝟐

(𝜽𝟐 − 𝜽𝟏 )𝟐
𝐕 𝐗 =
𝟏𝟐
Distribución exponencial
Una variable aleatoria X sigue una distribución
exponencial con parámetro 𝜽, y se representa así
Xexp( 𝜽 ), si su función de densidad de
probabilidad es:
𝑓 𝑥 = 𝜽 𝑒 −𝜽𝑥 ; 𝑥 > 0

Medidas de resumen:

𝟏
𝐄 𝐗 =
𝛉

𝟏
𝐕 𝐗 = 𝟐
𝛉
Distribución normal
Una variable aleatoria X sigue una distribución
normal con parámetros 𝝁 𝒚 𝝈𝟐 , y se representa así
XN( 𝝁, 𝝈𝟐 ), si su función de densidad de
probabilidad es:
1 −(𝑥−𝜇) 2 2𝜎 2
𝑓 𝑥 = 𝑒 ; −∞ < 𝑥 < +∞
𝜎 2𝜋

Medidas de resumen:

𝑬 𝑿 =𝜇

𝑽 𝑿 = 𝜎2
Distribución gamma
Una variable aleatoria X sigue una distribución
gamma con parámetros 𝜶 > 𝟎 𝒚 𝜷 > 𝟎, y se
representa así XΓ 𝜶, 𝜷 , si su función de densidad
de probabilidad es:
𝑥 𝛼−1 𝑒 −𝑥 𝛽
𝑓 𝑥 = ; 0 ≤ 𝑥 < +∞
𝛽 𝛼 Γ(𝛼)
donde:
+∞

Γ 𝛼 = 𝑥 𝛼−1 𝑒 −𝑥 𝑑𝑥
0
Medidas de resumen:
𝐄 𝐗 = 𝜶𝜷 𝐕 𝐗 = 𝜶𝜷𝟐

Propiedades:
Γ 𝛼 + 1 = 𝛼Γ 𝛼 Γ 𝑥 + 1 = 𝑥!, para x natural
Distribución beta
Una variable aleatoria X sigue una distribución beta con
parámetros 𝜶 > 𝟎 𝒚 𝜷 > 𝟎, y se representa así X𝐵𝑒 𝜶, 𝜷 , si
su función de densidad de probabilidad es:
𝑥 𝛼−1 (1 − 𝑥)𝛽−1
𝑓 𝑥 = ; 0≤𝑥≤1
β(𝛼, β)
donde:
1
Γ 𝛼 Γ β
β 𝛼, β = 𝑥 𝛼−1 1 − 𝑥 𝛽−1
𝑑𝑥 =
Γ 𝛼+β
0
Medidas de resumen:

𝛼 𝛼β
𝐄 𝐗 = 𝐕 𝐗 =
𝛼+β (𝛼 + β + 𝟏)(𝛼 + β)𝟐

Un caso especial de la distribución beta es cuando 𝜶 = 𝜷 = 𝟏 ya que


coincide con la distribución uniforme en el intervalo [0, 1].
Función de probabilidad conjunta
Sean Y1, Y2,…, Yn n variables aleatorias discretas. La función de
probabilidad conjunta para Y1, Y2,…, Yn está dada por
P(y1, y2,…, yn ) y se cumple:

P(Y1=y1, Y2=y2, …, Yn=yn) = P(y1, y2,…, yn )

Sean Y1, Y2,…, Yn n variables aleatorias continuas. La función de


densidad conjunta para Y1, Y2,…, Yn está dada por 𝑓 𝑦1,𝑦2,…,𝑦n y
se cumple:

y1 y2 yn
P(Y1≤ y1,Y2≤ y2,…, Yn ≤ yn ) = −∞ −∞
… −∞
𝑓 𝑦1,𝑦2,…,𝑦n 𝑑𝑦1 𝑑𝑦2 … 𝑑𝑦𝑛
Distribuciones marginales
Sean Y1, Y2,…, Yn n variables aleatorias discretas con función de
probabilidad conjunta P(y1, y2,…, yn ). La función de probabilidad
marginal de Y1 está dada por:

𝑃1 (𝑦1) = … P(y1, y2,…, yn )


y2 y3 yn

Sean Y1, Y2,…, Yn n variables aleatorias continuas con función de


densidad conjunta f(y1, y2,…, yn). La función de densidad marginal
de Y1 está dada por:

+∞ +∞ +∞
𝑓1 (Y1) = … 𝑓 𝑦1,𝑦2,…,𝑦n 𝑑𝑦2 𝑑𝑦3 … 𝑑𝑦𝑛
−∞ −∞ −∞
Variables aleatorias independientes
Sean Y1, Y2,…, Yn n variables aleatorias discretas con función de
probabilidad conjunta P(y1, y2,…, yn ) y función de probabilidad
marginal P1(y1), P2(y2), …, Pn(yn), respectivamente, entonces Y1,
Y2,…, Yn son independientes si y solo si:

P(y1, y2,…, yn ) = P1(y1) P2(y2) ⋯ Pn(yn)

Sean Y1, Y2,…, Yn n variables aleatorias continuas con función de


densidad conjunta f(y1, y2,…, yn ) y función de densidad marginal
f1(y1), f2(y2), …, fn(yn), respectivamente, entonces Y1, Y2,…, Yn
son independientes si y solo si:

f(y1, y2,…, yn ) = f1(y1) f2(y2) ⋯ fn(yn)


Distribuciones condicionales
Sean Y1, Y2,…, Yn n variables aleatorias discretas con función de
probabilidad conjunta P(y1, y2,…, yn ) y función de probabilidad
marginal P1(y1), P2(y2), …, Pn(yn), respectivamente, entonces la
función de probabilidad condicional de Y1 dado Y2,…, Yn es:

P(Y1=y1, Y2=y2, …, Yn=yn)


P(y1/ y2,…, yn ) = ,
P(Y2=y2, …,Yn=yn)

𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑞𝑢𝑒 P(Y2=y2, …,Yn=yn) > 0.


Sean Y1, Y2,…, Yn n variables aleatorias continuas con función de
densidad conjunta f(y1, y2,…, yn ) y función de densidad marginal
f1(y1), f2(y2), …, fn(yn), respectivamente, entonces la función de
densidad condicional de Y1 dado Y2,…, Yn es:

f(y1, y2,…, yn )
f(y1/ y2,…, yn ) = ,
f(y2,…, yn)

𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑞𝑢𝑒 f(y2,…,yn) > 0.


La media y varianza condicional
Dadas dos variables X e Y , la media y la varianza de X cuando
Y = y se define de la siguiente manera:

• 𝐸(𝑋/𝑌=y)= 𝑥𝑓(𝑥/𝑦)dx
• 𝑉(𝑋/𝑌=y)= (𝑥 − 𝐸(𝑋/𝑌 = 𝑦))2 𝑓(𝑥/𝑦)dx

Teorema
Para dos variables X e Y se cumple

• 𝐸(𝑋) = E(𝐸(𝑋/𝑌))

• 𝑉(𝑋) = E(𝑉(𝑋/𝑌)) + V(𝐸(𝑋/𝑌))

También podría gustarte