Está en la página 1de 8

CONCRIVA EDUCACIÓN AC

Fundamentos de Probabilidad

Algebra de Eventos

- Leyes de Idempotencia
𝐴∪𝐴 =𝐴 𝐴∩𝐴 =𝐴

- Leyes Asociativas
(𝐴 ∪ 𝐵) ∪ 𝐶 = 𝐴 ∪ (𝐵 ∪ 𝐶) (𝐴 ∩ 𝐵) ∩ 𝐶 = 𝐴 ∩ (𝐵 ∩ 𝐶)

- Leyes Conmutativas
𝐴∪𝐵 =𝐵∪𝐴 𝐴∩𝐵 =𝐵∩𝐴

- Leyes Distributivas
𝐴 ∪ (𝐵 ∩ 𝐶) = (𝐴 ∪ 𝐵) ∩ (𝐴 ∪ 𝐶) 𝐴 ∩ (𝐵 ∪ 𝐶) = (𝐴 ∩ 𝐵) ∪ (𝐴 ∩ 𝐶)

- Leyes de Identidad
𝐴∪∅ =𝐴 𝐴∪𝑆 =𝑆 𝐴∩∅ =∅ 𝐴∩𝑆 =𝐴

- Leyes de Complemento
𝐴 ∪ 𝐴𝐶 = 𝑆 (𝐴𝐶 )𝐶 = 𝐴 𝐴 ∩ 𝐴𝐶 = ∅ 𝑆𝐶 = ∅ ∅𝐶 = 𝑆

- Leyes de De Morgan
(𝐴 ∪ 𝐵)𝐶 = 𝐴𝐶 ∩ 𝐵𝐶 (𝐴 ∩ 𝐵)𝐶 = 𝐴𝐶 ∪ 𝐵𝐶

Axiomas de Kolmogórov

A 1. Para cualquier evento E, de una familia determinada se cumple que:


𝑃(𝐸) ≥ 0

A 2. Para un espacio muestral S, se cumple que:


𝑃(𝑆) = 1

A 3. Para una sucesión finita de eventos mutuamente excluyentes de una familia dada, se cumple que:
𝑛 𝑛

𝑃 (⋃ 𝐸𝑘 ) = 𝑃(𝐸1 ) + 𝑃(𝐸2 ) + 𝑃(𝐸3 ) + ⋯ + 𝑃(𝐸𝑛 ) = ∑ 𝑃(𝐸𝑘 )


𝑘=1 𝑘=1

Teoremas de probabilidad

T 1. 𝑃(∅) = 0

T 2. 𝑃(𝐸 𝐶 ) = 1 − 𝑃(𝐸)

T 3. 𝑃(𝐸) ∈ [0,1]

T 4. 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)


CONCRIVA EDUCACIÓN AC

T 5. Para 𝐴, 𝐵 ∈ 𝑆, tal que 𝐴 ⊂ 𝐵, se cumple que 𝑃(𝐴) ≤ 𝑃(𝐵)

T 6. 𝑃(𝐴 − 𝐵) = 𝑃(𝐴) − 𝑃(𝐴 ∩ 𝐵)

Principio de la Multiplicación
𝑛1 × 𝑛2 × 𝑛3 × … × 𝑛𝑘

Técnicas de conteo

1. 𝑛𝑘
2. 𝑛!
𝑛!
3. 𝐶𝑘𝑛 = 0≤𝑘≤𝑛
𝑘!(𝑛−𝑘)!
𝑛!
4. 𝑃𝐾𝑛 = (𝑛−𝑘)! 0 ≤ 𝑘 ≤ 𝑛
𝑛!
5. 𝑃𝑛𝑛1 ,𝑛2,𝑛3 ,… ,𝑛𝑘 = con 𝑛1 + 𝑛2 + 𝑛3 + ⋯ + 𝑛𝑘 = 𝑛
𝑛1 !×𝑛2 !×𝑛3 !×…×𝑛𝑘!

Principio de la Suma
𝑛1 + 𝑛2 + 𝑛3 + ⋯ + 𝑛𝑘

Probabilidad Condicional

𝑃(𝐴 ∩ 𝐵)
𝑃(𝐴 ∖ 𝐵) =
𝑃(𝐵)
Eventos Independientes
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) 𝑃(𝐵)

Probabilidad Total

𝑃(𝐴) = 𝑃(𝐴 ∖ 𝐼1 ) 𝑃(𝐼1 ) + 𝑃(𝐴 ∖ 𝐼2 ) 𝑃(𝐼2 ) + 𝑃(𝐴 ∖ 𝐼3 ) 𝑃(𝐼3 ) + ⋯ + 𝑃(𝐴 ∖ 𝐼𝑘 ) 𝑃(𝐼𝑘 )

Teorema de Bayes

𝑃(𝐴 ∖ 𝐼𝑘 ) 𝑃(𝐼𝑘 )
𝑃(𝐼𝑘 ∖ 𝐴) =
𝑃(𝐴 ∖ 𝐼1 ) 𝑃(𝐼1 ) + 𝑃(𝐴 ∖ 𝐼2 ) 𝑃(𝐼2 ) + 𝑃(𝐴 ∖ 𝐼3 ) 𝑃(𝐼3 ) + ⋯ + 𝑃(𝐴 ∖ 𝐼𝑘 ) 𝑃(𝐼𝑘 )
CONCRIVA EDUCACIÓN AC

Variable Aleatoria Discreta


Distribución de Probabilidad
(𝑥𝑖 , 𝑃(𝑥𝑖) )

Función de distribución de Probabilidad (fdp)


𝑓(𝑥𝑖 ) = 𝑃(𝑥𝑖 ) con 𝑥𝑖 ∈ ℝ𝑥 , se debe cumplir que:

1. 𝑃(𝑥𝑖 ) ≥ 0, ∀𝑥𝑖 ∈ ℝ𝑥
2. ∑𝑖 𝑃(𝑥𝑖 ) = 1

Función de distribución Acumulada (fda)


𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = ∑𝑘𝑖 𝑃(𝑥𝑖 ) , ∀𝑥𝑖 ∈ ℝ𝑥

Valor Esperado
𝐸(𝑋) = 𝜇 = ∑𝑖 𝑥𝑖 𝑃(𝑥𝑖 )

Varianza
𝑉(𝑋) = 𝜎 2 = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2

Desviación Estándar
𝜎 = √𝑉(𝑋)

Distribuciones Discretas de Probabilidad


Distribución Binomial X  B (n, p, k)

Función de distribución de Probabilidad (fdp)


𝑓(𝑥) = 𝑃(𝑋 = 𝑘) = 𝐶𝑘𝑛 𝑝 𝑘 𝑞 𝑛−𝑘

Función de distribución Acumulada (fda)


𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = ∑𝑛𝑘=0 𝐶𝑘𝑛 𝑝 𝑘 𝑞 𝑛−𝑘

Valor Esperado
𝐸(𝑋) = 𝜇 = 𝑛𝑝

Varianza
𝑉(𝑋) = 𝜎 2 = 𝑛𝑝𝑞

Desviación Estándar
𝜎 = √𝑉(𝑋)=√𝑛𝑝𝑞
CONCRIVA EDUCACIÓN AC

Distribución Poisson X P (, k)

Función de distribución de Probabilidad (fdp)


 k e− 
𝑓(𝑥) = 𝑃(𝑋 = 𝑘) =
k!

Función de distribución Acumulada (fda)


k
 k e− 
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = 
k =0 k!

Valor Esperado
𝐸(𝑋) = 𝜇 = t

Varianza
𝑉(𝑋) = 𝜎 2 = t

Desviación Estándar
𝜎 = √𝜇 = √ t =

Distribución Hipergeométrica X H (n, N, m, k)

Función de distribución de Probabilidad (fdp)


𝑚 𝑁−𝑚
( )( )
𝑘 𝑛−𝑘
𝑓(𝑥) = 𝑃(𝑋 = 𝑘) = 𝑁
( )
𝑛

Función de distribución Acumulada (fda)


𝑚 𝑁−𝑚
( )( )
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = ∑0 𝑘 𝑁𝑛−𝑘
𝑘
( )
𝑛

Valor Esperado
𝑚𝑛
𝐸(𝑋) = 𝜇 =
𝑁

Varianza
𝑁−𝑛 𝑁−𝑚
𝑉(𝑋) = 𝜎 2 = 𝜇 [ ][ ]
𝑁−1 𝑁

Desviación Estándar
𝜎 = √𝑉(𝑋)
CONCRIVA EDUCACIÓN AC

Distribución Geométrica X  G (p, k)


Función de distribución de Probabilidad (fdp)
𝑓(𝑥) = 𝑃(𝑋 = 𝑘) = 𝑝𝑞 𝑘−1 con 𝑘 = 1,2,3, . ..

Función de distribución Acumulada (fda)


𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = 1 − 𝑞 𝑘 con 𝑘 = 1,2,3, . ..

Teorema:
𝑃(𝑋 ≥ 𝑘 + 1) = 𝑃(𝑋 > 𝑘) = 𝑞 𝑘 con 𝑘 = 1,2,3, …

Valor Esperado
1
𝐸(𝑋) = 𝜇 =
𝑝

Varianza
𝑞
𝑉(𝑋) = 𝜎 2 =
𝑝2

Desviación Estándar
𝑞
𝜎 = √𝑉(𝑋) = √
𝑝2

Aproximación de Poisson a la Binomial


Condiciones: 𝑛→∞ y 𝑝→0 𝑋 ∼ 𝐵(𝑛, 𝑝, 𝑘) ≈ 𝑋 ∼ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜇, 𝑘)

Función de distribución de Probabilidad (fdp)


n−k  k e− 
𝑓(𝑥) = 𝑃(𝑋 = 𝑘) = C p q n
k
k

k!
Función de distribución Acumulada (fda)
k k
 k e− 
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) =  Ckn p k q n−k  
k =0 k =0 k!
Valor Esperado
𝐸(𝑋) = 𝜇 = np =  t

Varianza
𝑉(𝑋) = 𝜎 2 = npq

Desviación Estándar
𝜎 = √𝑉(𝑋) = √𝑛𝑝𝑞
CONCRIVA EDUCACIÓN AC

Variable Aleatoria Continua

Función de densidad de Probabilidad (fdp)

𝑓(𝑥) = 𝑃(𝑋) con 𝑥 ∈ ℝ, se debe cumplir que:

1. 𝑓(𝑥) ≥ 0, ∀𝑥 ∈ ℝ

2. ∫−∞ 𝑓(𝑥) 𝑑𝑥 = 1

Función de distribución Acumulada (fda)


𝑘
𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑘) = ∫−∞ 𝑓(𝑥) 𝑑𝑥

Valor Esperado
𝑘
𝐸(𝑋) = 𝜇 = ∫−∞ 𝑥 𝑓(𝑥) 𝑑𝑥

Varianza
𝑉(𝑋) = 𝜎 2 = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2

Desviación Estándar
𝜎 = √𝑉(𝑋)

Distribución Uniforme X  Uniforme( k )

Función de distribución de Probabilidad (fdp)


1
𝑎≤𝑥≤𝑏
𝑓(𝑥) = 𝑃(𝑋 = 𝑥) = {𝑏−𝑎
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Función de distribución Acumulada (fda)


𝑘
1 𝑘−𝑎
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = ∫ 𝑑𝑥 =
𝑎 𝑏−𝑎 𝑏−𝑎
Valor Esperado
𝑏 𝑥 𝑎+𝑏
𝐸(𝑋) = 𝜇 = ∫𝑎 𝑑𝑥 =
𝑏−𝑎 2

Varianza
𝑏 𝑥2 (𝑏−𝑎)2
𝑉(𝑋) = 𝜎 2 = ∫𝑎 𝑑𝑥 =
𝑏−𝑎 2

Desviación Estándar
(𝑏−𝑎)2
𝜎 = √𝑉(𝑋) = √
2
CONCRIVA EDUCACIÓN AC

Distribución Exponencial X  Exp ( λ, k )

Función de distribución de Probabilidad (fdp)

−𝜆𝑥
𝑓(𝑥) = 𝑃(𝑋 = 𝑥) = {𝜆𝑒 𝑥≥0
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Función de distribución Acumulada (fda)


𝑘
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = ∫ 𝜆𝑒 −𝜆𝑥 𝑑𝑥 = 1 − 𝑒 −𝜆𝑥
0
Valor Esperado
1
𝐸(𝑋) = 𝜇 =
𝜆

Varianza
1
𝑉(𝑋) = 𝜎 2 =
𝜆2

Desviación Estándar
1
𝜎 = √𝑉(𝑋) = √
𝜆2

Distribución Normal X ~ N (μ, σ2)

Función de distribución de Probabilidad (fdp)

(𝑥−𝜇) 2
1 −
𝑓(𝑥) = 𝑃(𝑋 = 𝑥) =
𝜎 √2𝜋
𝑒 2𝜎2 para 𝑥 ∈ (−∞, ∞)

Función de distribución Acumulada (fda)


𝑘
1 (𝑥−𝜇)2

𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = ∫ 𝑒 2𝜎2 𝑑𝑥
𝜎√2𝜋
−∞
Valor Esperado
(𝑥−𝜇) 2
𝑘 1 −
𝐸(𝑋) = 𝜇 = ∫−∞ 𝑥 ( 𝑒 2𝜎2 ) 𝑑𝑥
𝜎√2𝜋
Varianza
(𝑥−𝜇) 2
𝑘 1 −
𝑉(𝑋) = 𝜎2 = ∫−∞ 𝑥 2 (𝜎 2𝜋 𝑒 2𝜎2 ) 𝑑𝑥

Desviación Estándar
𝜎 = √𝑉(𝑋)
CONCRIVA EDUCACIÓN AC

Distribución Normal Estándar 𝐗 ~ 𝐍(𝛍 = 𝟎, 𝛔𝟐 = 𝟏)

Función de distribución de Probabilidad (fdp)

𝑧 2
1
𝑓(𝑧) = 𝑃(𝑍 = 𝑧) = 𝑒− 2
√2𝜋

Función de distribución Acumulada (fda)


𝑧0
1 𝑧2
− 2
𝐹(𝑍) = 𝑃(𝑍 ≤ 𝑧0 ) = ∫ 𝑒 𝑑𝑧 = 𝛷(𝑧0 )
√2𝜋
−∞
Valor Esperado
𝐸(𝑋) = 𝜇 = 0

Varianza
𝑉(𝑋) = 𝜎 2 = 1

Desviación Estándar
𝜎=1

Aproximación de la Normal a la Binomial


Condiciones: 𝑛 → ∞ y 𝑝 → 0.5 𝑋 ∼ 𝐵(𝑛, 𝑝, 𝑘) ≈ 𝑋 ∼ 𝑁(𝜇 = 𝑛𝑝, 𝜎 2 = 𝑛𝑝𝑞)

Función de distribución de Probabilidad (fda)


1
1 𝑘 + 2 − (𝑛𝑝)
𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑘) = 𝑃(𝑋 < 𝑘 + 1) = 𝑃 (𝑋 ≤ 𝑘 + ) = 𝑃 (𝑍 ≤ )
2 √𝑛𝑝𝑞
Variable Discreta Variable Continua
Variable estandarizada
Teorema:

1 1
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑎 − 1 < 𝑋 < 𝑏 + 1) = 𝑃 (𝑎 − ≤𝑋≤𝑏+ )=
2 2
Variable Discreta Variable Continua

1 1
𝑎 − − (𝑛𝑝) 𝑘 + − (𝑛𝑝)
= 𝑃( 2 ≤𝑍≤ 2 )
√𝑛𝑝𝑞 √𝑛𝑝𝑞
Variable estandarizada
Valor Esperado
𝐸(𝑋) = 𝜇 = 𝑛𝑝

Varianza
𝑉(𝑋) = 𝜎 2 = npq

Desviación Estándar
𝜎 = √𝑉(𝑋) = √𝑛𝑝𝑞

También podría gustarte