Documentos de Académico
Documentos de Profesional
Documentos de Cultura
𝐿𝑢𝑒𝑔𝑜𝑑𝑒𝑎,𝑙𝑎𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑐𝑖𝑜𝑛𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛𝑎𝑙𝑡𝑖𝑒𝑛𝑒𝑙𝑎𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛𝑔𝑒𝑜𝑚𝑒𝑡𝑟𝑖𝑐𝑎𝑑𝑒𝑥
𝑥 =1 2 3 4 5 6
𝐹 𝐹𝐹 E E 𝐹𝐹𝐹𝐹𝐸
𝐹𝐹𝐹𝐹𝐹𝐸
𝑦 =1 2 3 4
𝐸 𝐹𝐸 E 𝐹𝐹𝐹𝐸
3
p qp 𝑞2 𝑝𝑞 𝑝
𝐷 𝐼𝑆𝑇𝑅𝐼𝐵𝑈𝐶𝐼𝑂𝑁 𝑃𝑂𝐼𝑆𝑆𝑂𝑁
𝑥:¿𝑑𝑒𝑒𝑣𝑒𝑛𝑡𝑜𝑠𝑞𝑢𝑒𝑜𝑐𝑢𝑟𝑟𝑒𝑛𝑒𝑛t 𝑚𝑖𝑛𝑢𝑡𝑜𝑠conmedia λ
t
No ocurra ninguna falla antes del minuto t
1 Es decir 0 fallas en el modelo de poisson
: 𝑇𝑖𝑒𝑚𝑝𝑜 𝑚𝑒𝑑𝑖𝑜 h𝑎𝑠𝑡𝑎 𝑞𝑢𝑒 𝑙𝑎 𝑓𝑎𝑙𝑙𝑎 𝑜𝑐𝑢𝑟𝑟𝑒
𝜆
𝑒 − 𝜆 𝑡 ( 𝜆𝑡 )𝑘
𝑃(𝑥= 0)= ¿ 𝑒− 𝜆 𝑡
𝑘!
=1-
𝑓 (𝑡 )= 𝜆 𝑒− 𝜆 𝑡
𝑐 𝑛= 𝐸( 𝑋 𝑛
)
𝑥
− 𝜆𝑇 𝑥
𝑒 ( 𝜆 𝑇 )
𝑀 (𝑡) =∑ 𝑒 𝑡𝑥 𝑑𝑥
𝑥 𝑥!
𝒙 𝒙
(𝑒 ¿ ¿ 𝑡) ( 𝜆 𝑇 )
𝑀 (𝑡) =𝑒− 𝜆𝑇 ∑ 𝑑𝑥 ¿
𝑥 𝑥!
𝑡
− 𝜆𝑇 𝑒 ( 𝜆𝑇 )
𝑀 ( 𝑡) =𝑒 𝑒
𝑡
− 𝜆 𝑇 +( 𝜆 𝑇 ) 𝑒
𝑀 ( 𝑡) =𝑒
( 𝜆 𝑇 ) (𝑒¿ ¿ 𝑡 −1) ¿
𝑀 ( 𝑡) =𝑒
−−− −−
[ ]
0 .8 0.1 0.1
[] 0.1
𝑃 = 0.1 0.7 0.2
0.2 0.2 0.6 𝑆1
𝑃 ( 𝑋 )= [ 0 .4 0.3 0.3 ] 0.1
0
𝑃( 𝑋 )=𝑃 ( 𝑋 ) ∗ 𝑃 𝑃( 𝑋 )= 𝑃 ( 𝑋 ) ∗ 𝑃 𝑛
𝑛 0
1 0
0.3 0.7
𝑆2
0.2
𝑆3
𝑆1
0.2
0.3
0.2 𝑆
𝑆 3
0.6 𝑆
𝑋0
𝑆
S= 𝑃 ( 𝑋 )= [ 𝑝( 𝑋 =1) , 𝑝(𝑋 =2) , 𝑝(𝑋 = 3) ] 𝑝( 𝑋 1
=1∨𝑥 0 = 1)
0 0 0 0
[ ]
𝑝 11 𝑝1 2 𝑝1 3 []
𝑃 = 𝑝 21 𝑝 22 𝑝 23 𝑝( 𝑋 =2∨𝑥 0 = 1)
𝑝 31 𝑝 32 𝑝 33 𝑝 21 =𝑝 ( 𝑋 1
=1∨𝑥 0 =2) 𝑆1 1
𝑝( 𝑋 =3∨ 𝑥0 = 1)
𝑃( 𝑋 )=𝑃 ( 𝑋 ) ∗ 𝑃
1 0
1
=*
𝑝( 𝑋 0
=1)
𝑝( 𝑋
𝑆
=1∨𝑥 0 = 2)
𝑝( 𝑋 ,𝑝(𝑋 , 𝑝( 𝑋 ]
1
=1) =2) = 3)
1 1 1 𝑝( 𝑋
𝑝( 𝑋 =2)
1
=2∨𝑥 0
0
𝑆2
𝑠=3 𝑝( 𝑋 =3∨ 𝑥0 =2)
= ∑ 𝑝( 𝑋
1
𝑝( 𝑋 𝑆3
) 0 =𝑖) 1 =1∨𝑥 0 =𝑖 )
𝑖=1
𝑠=3 𝑠=3 𝑝( 𝑋 𝑝(
=3)
𝑆1
∑ 𝑝 (𝑋 =𝑖) 𝑝( 𝑋 = 𝑗∨ 𝑥 =𝑖)
𝑋 1 =1∨𝑥 0 = 3)
= ∑ 𝑝( 𝑋
0
MARGINAL DISTRIBUTION
𝑃( 𝑋 )= 𝑃 ( 𝑋 ) ∗ 𝑃 𝑛
𝑛 0
….
Notar que:
:
Probabilidad de la intersección de dichos estados
Donde es un estado en particular
𝑃(𝑿 𝒏 +𝟏 =𝒙 𝒏+ 𝟏| 𝑋𝑛 = 𝑥 𝑛 , 𝑋 𝑛−1= 𝑥 𝑛−1 , … 𝑋 0= 𝑥 0 ¿
¿
𝑃( 𝑿 𝒏+ 𝟏
= 𝒙 𝒏+ 𝟏 , 𝑋𝑛 = 𝑥𝑛 , 𝑋𝑛 −1= 𝑥𝑛 −1 , … 𝑋 0= 𝑥 0)
𝑃 (𝑋 𝑛
=𝑥 𝑛 , 𝑋 𝑛− 1=𝑥 𝑛− 1 ,… 𝑋 0=𝑥 0)
OBS:
=
https://ocw.mit.edu/courses/electrical-engineering-and-
computer-science/6-262-discrete-stochastic-processes-spring-
2011/
https://www.cimat.mx/~jortega/modestoI10.html
)
)
𝑝( 𝑋 =1, 𝑋 =1, 𝑋 =1) = 1, 𝑋 0
=1
1 /𝑋1 2 1 0
=1
𝑥
=𝑝 𝑝( 𝑋
( 𝑿 =𝟏 , 𝑋 𝑝 𝑝
=1) 0
𝑝( 𝑋 =2 , 𝑋 =1, 𝑋 =1)
2
2 1 0
(𝑋 ( 𝑋 =2 / 𝑋 =1 , 𝑋 =1)
𝟏 0
1
∨ =2 /
𝑋 =
1, 𝑋 )
𝑝( 𝑋 =3, 𝑋 =1, 𝑋 =1)
2
2
1
1 0
= 2 1 0
𝑝(( 𝑋 =2∨𝑥 = 1)
𝑋
1
= 2 ,𝑋
=
= 11
𝑝)
( 𝑋 =1, 𝑋 =2, 𝑋 =1)
0
0
1/𝑋
𝑝( 𝑋 𝑝( 𝑋 =2, 𝑋 = 2, 𝑋 =1)
2 1 0
𝑝𝑝 𝑝( 𝑿 =𝟐 , 𝑋𝑝𝑝
1
1 𝑝 = 0
=1) (𝑋 2 ( 𝑋 2 =2 / 𝑋 1=2 , 𝑋 0 =1)
0 =1) 𝟏 0 ( 𝑋 2 1 0
(
𝑋
=
𝑝( 𝑋 =3, 𝑋 =2, 𝑋 =1) 2 =3
/𝑋
1 =2
, 𝑋
𝑝( 𝑋 =1, 𝑋 =3, 𝑋 =1)
1
=1 ) 2 1 0
0= 1)
3 , 𝑋0
∨ =3 2 1 0
𝑝
𝑥 /𝑋1
𝑝
𝑝( 𝑋 =2, 𝑋 = 3, 𝑋 =1)
1
= 𝑝 𝑝
=
𝑋 2 ( 𝑋 2 =2 / 𝑋 1 =3 , 𝑋 0 = 1)
1
( 𝑿 =𝟑 , 𝑋0
=1) 𝟏
( (
0 𝑋 2= 2 1 0
)
𝑝( 𝑋 =3, 𝑋 =3, 𝑋 =1)
3/
𝑋
1 = 3 ,
𝑋
2
)
𝑝( 𝑋 =1, 𝑋 =1, 𝑋 =2) 0=
1) 2 1
2 1
0
0
=
𝑥 𝑝( 𝑋 =1 , 𝑋 =2) 0
∨ 1 0
1
=
1
𝑋
𝑝(( 𝑋
𝑝( 𝑋 0=2)𝑝
𝑝 =1∨𝑥 0 = 2)
1
𝑝( 𝑋 =2 , 𝑋 = 2)
1 0
(
𝑋
1 =
1
∨
𝑝( 𝑋 =3 , 𝑋
𝑥
=
0
2 1 0
=2)
)
𝑝( 𝑋 0
=3)
Coin-flips of a coin with unknown fairness
𝑃 𝜃=𝜃 𝑃 𝑥=𝑥 / 𝜃 ¿ 𝜃
𝑃𝜃¿ 𝜃 /𝑥 ¿ 𝑋 = 𝑖 2 𝑖
𝑖 2
𝑝 ¿¿ ¿
12
𝐸 𝜃 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎 = =0.08
150
𝐸 𝜃 𝐴𝒑𝒐𝒔𝒕𝒆𝒓𝒊𝒐𝒓𝒊 =∑ 𝜃 𝑖 𝑷 𝜽 / 𝒙 𝒊
𝑖
𝐸 𝜃 𝐴𝑝𝑟𝑖𝑜𝑟𝑖 =∑ 𝜃𝑖 𝑃 𝜃 ¿ 𝜃 =0.1
𝑖
𝑖
Se presupone inicialmente
Es decir se presupone una distribución de probabilidad del parámetro
𝑥=𝑥1 𝑒𝑥𝑖𝑡𝑜𝑠 𝑒𝑛𝑛 𝑓𝑙𝑖𝑝𝑠
𝑝¿¿ 𝑃(𝜃 =𝜃 )
𝑃 𝑥=𝑥 /𝜃¿𝜃
𝜃=𝜃1
1 1
𝑛=150 ; 𝑥=12 1
https://www.quantstart.com/articles/Bayesian-Statistics-A-
Beginners-Guide/
θ ≔ [0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9]
n ≔ 10
p ≔ [1/9, 1/9, 1/9, 1/9, 1/9, 1/9, 1/9, 1/9, 1/9]
x≔8
z(m) ≔ p↓m·n!/(x!·(n - x)!)·θ↓m^x·(1 - θ↓m)^(n - x)[θ↓1, z(1); θ↓2, z(2); θ↓3, z(3); θ↓4, z(4); θ↓5, z(5); θ↓6, z(6); θ↓7,
z(7); θ↓8, z(8); θ↓9, z(9)]
c(n,x) Normalizacion
0.1 0.11 45.00 3.645E-07 4.02234E-07
0.2 0.11 45.00 7.3728E-05 8.13604E-05
0.3 0.11 45.00 0.0014467 0.001596465
0.4 0.11 45.00 0.01061683 0.011715902
0.5 0.11 45.00 0.04394531 0.048494597
0.6 0.11 45.00 0.12093235 0.133451451
0.7 0.11 45.00 0.23347444 0.257644066
0.8 0.11 45.00 0.30198989 0.333252335
0.9 0.11 45.00 0.19371024 0.21376342
0.3
0.25
0.2
0.15
0.1
0.05
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Posee una distribución inicial a priori, que no conocemos. Esto equivale a decir que no sabemos si la moneda en el
experimento de Bernoulli is a fear coin.
Para el caso de probabilidades a priori infinitas se
tratara mediante la distribución BETA(α,β). 𝑖 𝑘()
𝑝( 𝑋 =𝑘)=∑ 𝛽 (𝑎 , 𝑏, 𝜃 ) 𝑛 𝜃 𝑖 (1− 𝜃 𝑖)
𝑘 𝑛− 𝑘
()
1 𝑏− 1 𝑛
𝑝( 𝑋 =𝑘)=∑
𝑎 −1 𝑘 𝑛−𝑘
𝜃 1−𝜃 𝜃𝑖 (1 − 𝜃𝑖 )
𝑖 𝛽 ( 𝑎 ,𝑏 ) 𝑘
; if 0<x< 1,
()
𝑛 1
𝑝( 𝑋 =𝑘)= ∫
𝑎+ 𝑘− 1 𝑛−𝑘 +𝑏−1
𝜃 (1 − 𝜃) 𝑑𝜃
𝑘 𝛽 (𝑎 , 𝑏)
𝑃 𝜃 =𝜃 𝑃 𝑥 =𝑘 / 𝜃 ¿ 𝜃
𝑃𝜃¿ 𝜃 𝑖 / 𝑋 =𝑘
= 𝑖 𝑖
𝑝 ( 𝑋 = 𝑘)
𝑝( 𝑋 =𝑘)=∑ 𝑃 𝜃 ¿ 𝜃 𝑃 𝑥 =𝑘/ 𝜃 ¿ 𝜃
𝑖 𝑖
𝑎+𝑖
𝑖
𝐸 𝜃 𝐴 𝒑𝒐𝒔𝒕𝒆𝒓𝒊𝒐𝒓𝒊 =∫ 𝜃(𝑃 𝜃 / 𝑋 =𝑘 ¿ )𝑑 𝜃= ¿
BAYESIAN NETWORK
𝑓 𝑥 ( 𝑦 ) =∑ 𝑓 𝑤 ( 𝑥 ) 𝑃( 𝑦∨𝑥)
∑ 𝑓 𝑤 (𝑦 ,𝑣)𝑃 (𝑧∨𝑥 , 𝑦 )=𝑓 𝑦 (𝑧 ,𝑥 ,𝑣)
𝑦
𝑥
𝑃( 𝑧 , 𝑢)= 𝑃(𝑢) 𝑓 𝑥 ( 𝑧 , 𝑢)
BAYESIAN NETWORK
𝑃 𝑅 ∑ 𝑃 ( 𝑆∨𝑊 ) ∑ 𝑃 𝐶 𝑃 (𝑊 ∨𝑅 ,𝐶 )
𝑤 𝑐
𝑃( 𝑅∨𝑆) =
𝑃( 𝑠 )