Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Materia de Proyecto de Probabilidad
Materia de Proyecto de Probabilidad
Espacio muestral = {Todos los casos posibles del experimento son representado
por Ω}
σ-Algebra
1.- Ω ∈ F
2.-Si B ∈ F, entonces ∈F
Conjunto Potencia
σ-algebra de Borel
Sea la σ-algebra definida sobre (números reales) es una colección de todos los
intervalos de la forma (- ∞, a] con a ∈ y se llama σ-algebra de Borel ( )
Ω= ; (- ∞, a] ∈
1.- ∈
2.- B∈ entonces ∈
Si y Ω ∈ σ-algebra entonces:
: Evento inseguro
Ω : Evento seguro
MEDIDA DE PROBABILIDAD
Frecuencia Relativa
1. 𝑃(𝐵) ≥ 0
2. 𝑃(Ω) = 1
𝑃 (⋃ 𝐵𝑖 ) = ∑ 𝑃(𝐵𝑖)
𝑖=1 𝑖=1
Eventos Nulos
Medidas de probabilidad
𝑃: ∓→ ℝ
1. 𝑃(∅) = 0
2. 𝑃(Ω) = 1
3. 𝑺𝑖 𝐵 ∩ 𝐶 = ∅ 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃(𝐵 ∪ 𝐶) = 𝑃(𝐵) + 𝑃(𝐶)
4. 𝑆𝑖 𝐵 ⊆ 𝐶 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃(𝐵) ⊆ 𝑃(𝐶) 𝑦 𝑃(𝐶 − 𝐵) = 𝑃(𝐶) − 𝑃(𝐵)
5. 𝑃(𝐵 𝐶 ) = 1 − 𝑃(𝐵)
6. 𝑃(𝐵 ∪ 𝐶) = 𝑃(𝐵) + 𝑃(𝐶) − 𝑃(𝐴 ∩ 𝐵)
7. 𝑃(𝐵 ∪ 𝐵 𝐶 ) = 𝑃(𝐵) + 𝑃(𝐵𝐶 ) = 𝑃(Ω) = 1
8. Sea(𝐵𝑛)𝑛 𝑢𝑛𝑎 𝑠𝑢𝑐𝑒𝑠𝑖𝑜𝑛 𝑑𝑒 𝑒𝑣𝑒𝑛𝑡𝑜𝑠 𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛 𝐵𝑛 ∈
∓, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛 𝑦 𝐵𝑛 ⊆ 𝑩𝒏 + 𝟏,
∞
𝑙𝑖𝑚 𝑙𝑖𝑚 𝑙𝑖𝑚
𝑝𝑎𝑟𝑎 𝑛 = 1,2,3, . 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃( 𝑛→∞ 𝐵𝑛) = 𝑛→∞𝑃(𝐵𝑛); 𝑑𝑜𝑛𝑑𝑒 𝑛→∞𝐵𝑛 = ⋃ 𝐵𝑛
𝑛=1
VECTOR DE PROBABILIDAD
𝐴= ⋃𝑤
𝑤∈𝐴
𝑃(𝐴) = 𝑃(⋃ 𝑤)
𝑥∈𝐴
𝑃(𝐴) = ⋃ 𝑃(𝑤)
𝑥∈𝐴
1. 𝑃𝑗 ≥ 0
2. ∑∞
𝑗=1 𝑃𝑗 = 1
3. 𝑃(Ω) = 1
∑𝑤𝜖𝐵 1
𝑃(𝐵) = 𝑃(⋃ 𝑤 = = ∑ 𝑃(𝑤)
|Ω|
𝑤𝜖𝐵 𝑤𝜖𝐵
1 |𝐵|
∑ = 𝑃(𝐵) =
|Ω| |Ω|
𝑤𝜖𝐵
ANÁLISIS COMBINATORIO
Con Orden 𝑛𝑘 𝑛!
𝑛𝑃𝑘 =
(𝑛 − 𝑘)!
(𝐵 ∩ 𝐶)
𝐵 𝑃(𝐵 ∩ 𝐶) (Ω) |𝐵 ∩ 𝐶|
𝑃( ) = = =
𝐶 𝑃(𝐵) (𝐵) |𝐵|
(Ω)
con Pr(B)>0
Eventos dependientes:
Eventos independientes:
TEOREMA DE BAYES
Sea Bi,...,Bk los eventos que forman una partición del espacio S tal que Pr(Bi )>0
para j=1,2,...,k y sea A un evento tal que Pr(A) >0. Entonces para i=1,...,k
𝐏𝐫(𝑩𝒊) 𝐏𝐫(𝑨\𝑩𝒊)
𝐏𝐫(𝑩𝒊\𝑨) =
∑𝒌𝒋=𝟏 𝐏𝐫(𝑩𝒋) 𝐏𝐫(𝑨\𝑩𝒋)
DISTRIBUCIÓN A-PRIORI Y A- POSTERIORI
P(A1)P(A2),P(A3)……..(P(An))n
P(A1/B)P((A2/B),…..,P(An/B)n
Independencia de eventos
Suponga que los eventos forman una partición de S y para j=1,2,...k. Entonces para
cada evento A en S:
Para cualquier intervalo de la forma (−∞, 𝑥],se puede obtener su imagen inversa
bajo x, es decir : 𝑥 −1 (−∞, 𝑥] = {𝑤 ∈ Ω: 𝑥(𝑤) ≤ 𝑥}, como este conjunto pertenece a f
por la definición de variables aleatorias, se puede aplicar la medida de probabilidad
P, pues esta tiene como dominio f, así mediante la función x puede trasladarse la
medida de probabilidad P, a intervalos de la forma (−∞, 𝑥] y puede demostrarse que
ello es suficiente para extenderla a la totalidad de la 𝝈 − 𝑨𝒍𝒈𝒆𝒃𝒓𝒂 𝒅𝒆 𝑩𝒐𝒓𝒆𝒍 𝒅𝒆 ℝ.
Variable aleatoria
(−∞, 𝑎], 𝑎 ∈ ℝ
𝜷(ℝ)
{(ℝ, 𝜷(ℝ)}
((𝛀, ∓)
𝑋: Ω → ℝ
{𝑤 ∈ Ω: 𝑥(𝑤) ≤ 𝑥} ∈ ∓
Gráficamente:
.w
x ℝ
Ω
Notación
Gráficamente:
probabilidad de probabilidad
-A ∈ 𝛽(ℝ)
Evento Px ( x ∈ 𝐴) = 𝑃(𝑥 ∈ 𝐴)
VARIABLES ALEATORIAS DISCRETAS Y CONTINUAS
FUNCIÓN DE PROBABILIDAD
𝑋: Ω → ℝ
𝑥0 , 𝑥𝑖 , … … . ∈ ℝ
𝑃(𝑋 = 𝑋) Ω: 𝑋 = 𝑥0 , 𝑥1 , … .
𝑓(𝑥) = {
0 𝐸𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Tabla
X 𝑿𝟎 𝑿𝟏 𝑿𝟐
P(x=𝑥0 )=0
P(x=𝑥0 )=c ; c≠ 0
Propiedades
1. 𝑓(𝑥) ≥ 0
2. ∑ 𝑓(𝑥) = 1
CASO CONTINUO
𝑏
𝑃(𝑋 ∈ [𝑎, 𝑏]) = ∫ 𝑓(𝑥)𝑑𝑥
𝑎
1. 𝑓(𝑥) ≥ 0
∞
2. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1
Gráficamente:
𝒇(𝒙)
𝑏
𝑃(𝑥 ∈ [𝑎, 𝑏]) = ∫𝑎 𝑓(𝑥)𝑑𝑥
a 𝑥0 b X
Es decir, la probabilidad de que la variable aleatoria continua tome con valor dentro
del intervalo [a,b] se puede calcular o expresar como el área bajo la curva de la f(x)
en dicho intervalo. De esta forma el cálculo de una probabilidad se reduce al cálculo
de una integral. Recíprocamente toda función f(x): ℝ → ℝ que se satisfagan las 2
propiedades anteriores, sin necesidad de tener variable aleatoria de promedio se
llamara función de densidad.
FUNCION DE DISTRIBUCION
𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥)
𝐹(𝑋) = 𝑃(𝑋 ∈ (−∞, 𝑥])
~Caso Discreto
𝐹(𝑋) = 𝑃(𝑋 ≤ 𝑥)
𝐹(𝑋) = ∑ 𝑓(𝑢)
𝑢≤𝑥
~Caso Continuo
𝐹(𝑋) = 𝑃(𝑋 = 𝑥)
𝑥
𝐹(𝑋) = ∫ 𝑓(𝑢)𝑑𝑢
−∞
° Caso Continuo
Para obtener la función de densidad a partir de la función de distribución se lo realiza de la siguiente
manera:
𝑥
𝐹(𝑋) = ∫ 𝑓(𝑢)𝑑𝑢 = 𝑃(𝑋 ≤ 𝑥)
−∞
𝑓(𝑥) = 𝐹 ′(𝑋)
° Caso Discreto
Para el caso discreto se obtiene la función de probabilidad de la siguiente manera:
𝑓(𝑥) = 𝐹(𝑋) − 𝐹(𝑋 −) ;
𝐹(𝑋 −) = lim 𝐹(𝑥 − ℎ) = 𝑃(𝑋 < 𝑥)
ℎ→0
𝐹(𝑋 +) = lim 𝐹(𝑥 + ℎ)
ℎ→0
Proposiciones
Toda función de distribución F(x) satisface las siguientes proposiciones y son 4:
a) lim 𝐹(𝑥) = 1
𝑥→∞
b) lim 𝐹(𝑥) = 0
𝑥→−∞
c) Si 𝑋1 , 𝑋2 ∈ ℝ 𝑦 𝑋1 ≤ 𝑋2 → 𝐹(𝑋1 ) ≤ 𝐹(𝑋2 )
d) 𝐹(𝑥) = 𝐹(𝑥+)
~Caso Discreto
𝑃(𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥)
𝑥∈ 𝜑−1 (𝑦)
~Caso Continuo
−1 (𝑦))
𝑑 −1
𝑓𝑌 (𝑦) = {𝑓𝑋 (𝜑 | 𝜑 (𝑦)| 𝑝𝑎𝑟𝑎 𝑦 ∈ 𝑅𝑎𝑛𝑔(𝜑(𝑥))
𝑑𝑦
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
° Caso 1
𝑑 −1
𝑓𝑋 (𝜑−1 (𝑦)) | 𝜑 (𝑦)|
𝑑𝑦
° Caso 2
𝑑 −1
−𝑓𝑋 (𝜑−1 (𝑦)) | 𝜑 (𝑦)|
𝑑𝑦
INDEPENDENCIA DE VARIABLES ALEATORIAS
~Caso Discreto
𝑃(𝑋 = 𝑥) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑦
𝑃(𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑥
~Caso Continuo
∞
𝑓𝑥 (𝑥) = ∫ 𝑓𝑥,𝑦 (𝑥, 𝑦)𝑑𝑥
−∞
∞
𝑓𝑦 (𝑦) = ∫ 𝑓𝑥,𝑦 (𝑥, 𝑦)𝑑𝑦
−∞
ESPERANZA
~Caso Discreto
𝐸[𝑥] = ∑ 𝑥 𝑓(𝑥)
𝑥
~Caso Continuo
∞
𝐸[𝑥] = ∫ 𝑥 𝑓(𝑥) 𝑑𝑥
−∞
ESPERANZA DE UNA FUNCIÓN DE UNA VARIABLE ALEATORIA
𝑋; 𝜑(𝑥) = 𝑎𝑥 + 𝑏
𝜑(𝑥) = 𝑥 2
𝑦 = 𝜑(𝑥) = 𝑒 𝑥
𝐸[𝑌] = ∑ 𝑦 𝑓(𝑦)
𝑦
∞
𝐸[𝑌] = ∫ 𝑦 𝑓(𝑦) 𝑑𝑦
−∞
° Caso Discreto
° Caso Continuo
∞
𝐸[𝜑(𝑥)] = ∫ 𝜑(𝑥) 𝑓𝑥 (𝑥) 𝑑𝑥
−∞
1. 𝐸[𝑐] = 𝑐
2. 𝐸[𝑐𝑥] = 𝑐𝐸[𝑥]
3. 𝑠𝑖 𝑥 ≥ 0, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝐸[𝑥] ≥ 0
4. 𝐸[𝑋 + 𝑌] = 𝐸[𝑋] + 𝐸[𝑌]
5. 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:
𝐸[𝑋 𝑌] = 𝐸[𝑋] 𝐸[𝑌]
VARIANZA
~Caso Discreto
Sea una variable aleatoria discreta con función de probabilidad 𝑓(𝑥), su varianza es:
~Caso Continuo
Sea una variable aleatoria continua con función de densidad 𝑓(𝑥), su varianza es:
∞
𝑉𝑎𝑟(𝑥) = ∫ (𝑥 − 𝜇)2 𝑓(𝑥) 𝑑𝑥 ; 𝑑𝑜𝑛𝑑𝑒: 𝜇 = 𝐸[𝑥]
−∞
° Propiedades
1. 𝑉𝑎𝑟(𝑥) ≥ 0
2. 𝑉𝑎𝑟(𝑐) = 0
3. 𝑉𝑎𝑟(𝑐𝑥) = 𝑐 2 𝑉𝑎𝑟(𝑥)
4. 𝑉𝑎𝑟(𝑥 + 𝑐) = 𝑉𝑎𝑟(𝑥)
5. 𝑉𝑎𝑟(𝑋 + 𝑌) ≠ 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)
6. 𝑉𝑎𝑟(𝑥) = 𝐸[𝑥 2 ] − 𝐸 2 [𝑥]
7. 𝑠𝑖 𝑋 𝑦 𝑌 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:
𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)
1
𝑓(𝑥) = 𝑃(𝑥 = 𝑖) = ; 𝑖 = 1,2,3, … , 𝑛
𝑛
1
𝐹(𝑥) = ∑ 1(−∞,𝑥]
𝑛
𝑥
𝑛+1
𝐸[𝑥] =
2
𝑛2 − 1
𝑉𝑎𝑟[𝑥] =
12
~Distribución Hipergeométrica
𝑥~𝐻(𝑁, 𝑛, 𝑟)
(𝑛𝑥)(𝑁−𝑛
𝑟−𝑥
)
𝑓(𝑥) = { ; 𝑐𝑢𝑎𝑛𝑑𝑜 𝑥 = 0,1,2, … , 𝑚𝑖𝑛{𝑛, 𝑟}
(𝑁𝑟)
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
𝑛
𝐸[𝑥] = 𝑟
𝑁
𝑛 𝑛 𝑁−𝑟
𝑉𝑎𝑟[𝑥] = 𝑟(1 − )( )
𝑁 𝑁 𝑁−1
~Distribución de Bernoulli
𝑥~𝐵𝑒𝑟(𝑝)
𝑥 1−𝑥
𝑓(𝑥) = {𝑝 𝑞 𝑠𝑖 𝑥 = 0 , 1
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
𝐸[𝑥] = 𝑝
𝑉𝑎𝑟[𝑥] = 𝑝 ∙ 𝑞
~Distribución Binomial
𝑥~𝐵𝑖𝑛(𝑛, 𝑝)
𝑛
( ) 𝑝 𝑥 𝑞𝑛−𝑥 𝑠𝑖 𝑥 = 0 , 1, 2, … 𝑛
𝑓(𝑥) = { 𝑥
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
𝐸[𝑥] = 𝑛 ∙ 𝑝
𝑉𝑎𝑟[𝑥] = 𝑛 ∙ 𝑝 ∙ 𝑞
~Distribución Geométrica
𝑥~𝐺(𝑝)
𝑥−1
𝑓(𝑥) = {𝑝𝑞 𝑠𝑖 𝑥 = 1,2, …
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
1
𝐸[𝑥] =
𝑝
𝑞
𝑉𝑎𝑟[𝑥] =
𝑝2
𝑥~𝐵𝑁(𝑟, 𝑝)
𝑥 − 1 𝑟 𝑥−𝑟
𝑓(𝑥) = {(𝑟 − 1 ) 𝑝 𝑞 𝑠𝑖 𝑥 = 𝑥: 𝑟, 𝑟 + 1, 𝑟 + 2, … , 𝑟 ≥ 1
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
1
𝐸[𝑥] = 𝑟
𝑝
𝑞
𝑉𝑎𝑟[𝑥] = 𝑟
𝑝2
~Distribución de Poisson
𝑥~𝑃(λ)
−λ
λ𝑥
𝑓(𝑥) = { 𝑒 𝑠𝑖 𝑥 = 0,1,2, …
𝑥!
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
𝐸[𝑥] = 𝑉𝑎𝑟[𝑥] = λ
DISTRIBUCIONES CONTINUAS
𝑥~𝜇[𝑎, 𝑏]
1
𝑓(𝑥) = { 𝑠𝑖 𝑥 ∈ [𝑎, 𝑏]
𝑏−𝑎
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
0 𝑠𝑖 𝑥 < 𝑎
𝑥−𝑎
𝐹(𝑥) = { 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏
𝑏−𝑎
1 𝑠𝑖 𝑥 > 𝑏
𝑏+𝑎
𝐸[𝑥] =
2
(𝑏 − 𝑎)2
𝑉𝑎𝑟[𝑥] =
12
~Distribución Exponencial
𝑥~𝜀(λ) ; λ > 0
λ𝑒 −λx 𝑠𝑖 𝑥 ≥ 0
𝑓(𝑥) = {
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜 (𝑥 < 0)
0 𝑠𝑖 𝑥 < 0
𝐹(𝑥) = {
1 − 𝑒 −λx 𝑠𝑖 𝑥 ≥ 0
1
𝐸[𝑥] =
λ
1
𝑉𝑎𝑟[𝑥] =
λ2
(λx)0
𝐹𝑇 (𝑡) = 1 − 𝑒 −λx
0!
𝐹𝑇 (𝑡) = 1 − 𝑒 −λx
~Distribución Normal
𝑥~𝑁(𝜇, 𝜎 2 )
1 1 𝑥−𝜇 2
𝑓(𝑥) = 𝑒 −2( 𝜎
)
; 𝑝𝑎𝑟𝑎 𝑥 ∈ (−∞, ∞)
√2𝜋 𝜎
𝐸[𝑥] = 𝜇
𝑉𝑎𝑟[𝑥] = 𝜎 2
𝑌 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝑌 − 𝐸(𝑌) 𝑌 − 𝑛𝜇
𝑧= =
√𝑉𝑎𝑟(𝑦) 𝜎√𝑛
𝑍 ≅ 𝑁(0,1) 𝑠𝑖 𝑛 → ∞