Está en la página 1de 19

𝑇𝑅𝐼𝐵𝑈𝐶𝐼𝑂𝑁 𝐺𝐸𝑂𝑀𝐸𝑇𝑅𝐼𝐶𝐴

𝑥:𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜 𝑒𝑛𝑒𝑙 𝑞𝑢𝑒𝑠𝑒 𝑐𝑜𝑛𝑠𝑖𝑔𝑢𝑒𝑒𝑙𝑝𝑟𝑖𝑚𝑒𝑟 𝑒𝑥𝑖𝑡𝑜


𝑘 https://ocw.mit.edu/courses/electrical-engineering-and-computer-
𝑥 > 𝑘) =𝑞 science/6-041sc-probabilistic-systems-analysis-and-applied-
probability-fall-2013/resource-index/
𝑘 −𝑎
> 𝑘/ 𝑥 > 𝑎)=𝑞

𝐿𝑢𝑒𝑔𝑜𝑑𝑒𝑎,𝑙𝑎𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑐𝑖𝑜𝑛𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛𝑎𝑙𝑡𝑖𝑒𝑛𝑒𝑙𝑎𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛𝑔𝑒𝑜𝑚𝑒𝑡𝑟𝑖𝑐𝑎𝑑𝑒𝑥
𝑥 =1 2 3 4 5 6

𝐹 𝐹𝐹 E E 𝐹𝐹𝐹𝐹𝐸
𝐹𝐹𝐹𝐹𝐹𝐸

𝑦 =1 2 3 4

𝐸 𝐹𝐸 E 𝐹𝐹𝐹𝐸
3
p qp 𝑞2 𝑝𝑞 𝑝
𝐷 𝐼𝑆𝑇𝑅𝐼𝐵𝑈𝐶𝐼𝑂𝑁 𝑃𝑂𝐼𝑆𝑆𝑂𝑁
𝑥:¿𝑑𝑒𝑒𝑣𝑒𝑛𝑡𝑜𝑠𝑞𝑢𝑒𝑜𝑐𝑢𝑟𝑟𝑒𝑛𝑒𝑛t 𝑚𝑖𝑛𝑢𝑡𝑜𝑠conmedia λ

: Éxitos o eventos por unidad de tiempo o espacio


𝐸 𝑋𝑃𝑂𝑁𝐸𝑁𝑇𝐼𝐴𝐿 𝐷𝐼𝑆𝑇𝑅𝐼𝐵𝑈𝑇𝐼𝑂𝑁
𝑓 (𝑡 )= 𝜆 𝑒− 𝜆 𝑡 =

t
No ocurra ninguna falla antes del minuto t
1 Es decir 0 fallas en el modelo de poisson
: 𝑇𝑖𝑒𝑚𝑝𝑜 𝑚𝑒𝑑𝑖𝑜 h𝑎𝑠𝑡𝑎 𝑞𝑢𝑒 𝑙𝑎 𝑓𝑎𝑙𝑙𝑎 𝑜𝑐𝑢𝑟𝑟𝑒
𝜆
𝑒 − 𝜆 𝑡 ( 𝜆𝑡 )𝑘
𝑃(𝑥= 0)= ¿ 𝑒− 𝜆 𝑡
𝑘!
=1-

𝑓 (𝑡 )= 𝜆 𝑒− 𝜆 𝑡

𝛼 𝑒 𝑣𝑒𝑛𝑡𝑜𝑠 𝑑𝑒 𝑝𝑜𝑖𝑠𝑠𝑜𝑛𝑐𝑜𝑛 𝑚𝑒𝑑𝑖𝑎 𝜆=Γ (𝛼 , 𝜆)


)

𝑐 𝑛= 𝐸( 𝑋 𝑛
)

𝑀 (𝑡) =𝐸(𝑒 )=∑ 𝑒𝑡𝑥 𝑃 (𝑥)


𝑡𝑥

𝑥
− 𝜆𝑇 𝑥
𝑒 ( 𝜆 𝑇 )
𝑀 (𝑡) =∑ 𝑒 𝑡𝑥 𝑑𝑥
𝑥 𝑥!
𝒙 𝒙
(𝑒 ¿ ¿ 𝑡) ( 𝜆 𝑇 )
𝑀 (𝑡) =𝑒− 𝜆𝑇 ∑ 𝑑𝑥 ¿
𝑥 𝑥!
𝑡
− 𝜆𝑇 𝑒 ( 𝜆𝑇 )
𝑀 ( 𝑡) =𝑒 𝑒
𝑡
− 𝜆 𝑇 +( 𝜆 𝑇 ) 𝑒
𝑀 ( 𝑡) =𝑒
( 𝜆 𝑇 ) (𝑒¿ ¿ 𝑡 −1) ¿
𝑀 ( 𝑡) =𝑒
−−− −−

Find distribution of X+Y


X: poisson λ
Y: poisson u
La distribución de x and e independientes será el producto de MGF
( )(𝑒 ¿ ¿ 𝑡 − 1)¿
( 𝜆 𝑇 ) (𝑒¿ ¿ 𝑡 − 1) 𝑒 𝑢 𝑇 ¿
𝑀 ( 𝑡) =𝑒
𝑀 ( 𝑡) =𝑒( 𝜆+𝑢 ) 𝑇 (𝑒 ¿¿ 𝑡 − 1) ¿
S
S L
MATRIX TRANSITION N
0
0.5 L S
L
S 0.5 N
N L
N
S
S L
EXAMPLE: "La Tierra de Oz ha sido bendecida con muchas cosas, 0.25
pero no con un buen tiempo. Nunca tiene dos día soleados seguidos.
N
Si tiene un día soleado, es igual de probable que al día siguiente haya
tanto nieve como lluvia. Si un día nieva o llueve, al día siguiente hay L 0.5 L
L
la misma probabilidad de que el tiempo siga igual o de que cambie. Si
cambia, sólo la mitad de las veces cambia a soleado." N
0.25
N L
N
S
S L
0.25 N
N
0.25
L L
 http://www.estadistica-dma.ulpgc.es/EyPE/pdf/Tema%204-2_Cadenas_de_Marko
v.pdf
 https://www.fd.cvut.cz/department/k611/pedagog/THO_A/A_soubory/stoch_mark
ov.pdf
 http://www.columbia.edu/~ks20/stochastic-I/stochastic-I-MCI.pdf
 Leer procesos estoc discdretos del MIT
𝑋0
𝑆
S= 𝑃 ( 𝑋 )= [ 𝑝( 𝑋 =1) , 𝑝(𝑋 =2) , 𝑝(𝑋 = 3) ] 0.8
0 0 0 0

[ ]
0 .8 0.1 0.1
[] 0.1
𝑃 = 0.1 0.7 0.2
0.2 0.2 0.6 𝑆1
𝑃 ( 𝑋 )= [ 0 .4 0.3 0.3 ] 0.1
0

𝑃( 𝑋 )=𝑃 ( 𝑋 ) ∗ 𝑃 𝑃( 𝑋 )= 𝑃 ( 𝑋 ) ∗ 𝑃 𝑛
𝑛 0
1 0

𝑃( 𝑋 )=[ 0 .41 0.31 0.28 ] 0.4


1 𝑆
0.1

0.3 0.7
𝑆2
0.2
𝑆3
𝑆1
0.2
0.3
0.2 𝑆
𝑆 3
0.6 𝑆
𝑋0
𝑆
S= 𝑃 ( 𝑋 )= [ 𝑝( 𝑋 =1) , 𝑝(𝑋 =2) , 𝑝(𝑋 = 3) ] 𝑝( 𝑋 1
=1∨𝑥 0 = 1)
0 0 0 0

[ ]
𝑝 11 𝑝1 2 𝑝1 3 []
𝑃 = 𝑝 21 𝑝 22 𝑝 23 𝑝( 𝑋 =2∨𝑥 0 = 1)
𝑝 31 𝑝 32 𝑝 33 𝑝 21 =𝑝 ( 𝑋 1
=1∨𝑥 0 =2) 𝑆1 1

𝑝( 𝑋 =3∨ 𝑥0 = 1)
𝑃( 𝑋 )=𝑃 ( 𝑋 ) ∗ 𝑃
1 0
1

=*
𝑝( 𝑋 0
=1)

𝑝( 𝑋
𝑆
=1∨𝑥 0 = 2)
𝑝( 𝑋 ,𝑝(𝑋 , 𝑝( 𝑋 ]
1

=1) =2) = 3)
1 1 1 𝑝( 𝑋
𝑝( 𝑋 =2)
1
=2∨𝑥 0
0
𝑆2
𝑠=3 𝑝( 𝑋 =3∨ 𝑥0 =2)

= ∑ 𝑝( 𝑋
1

𝑝( 𝑋   𝑆3
) 0 =𝑖) 1 =1∨𝑥 0 =𝑖 )
𝑖=1
𝑠=3 𝑠=3 𝑝( 𝑋 𝑝(
=3)
𝑆1
 ∑ 𝑝 (𝑋 =𝑖) 𝑝( 𝑋 = 𝑗∨ 𝑥 =𝑖)  
𝑋 1 =1∨𝑥 0 = 3)

= ∑ 𝑝( 𝑋
0

0 =𝑖) 𝑝( 𝑋 𝑷 ( 𝑿 ) =𝑝( 𝑋=𝑖)


=2∨𝑥 1 𝟏= 𝑗)= 0 1 0 1 0 𝑝( 𝑋 1
=2∨𝑥 0 =
𝑖=1
𝑖=1
𝑠= 3
𝑆
= ∑ 𝑝( 𝑋 0 =𝑖 )
𝑝(𝑋 1 =3∨ 𝑥 0 =𝑖)
  𝑝( 𝑋
𝑆 3
𝑖=1 1
=3∨ 𝑥0 =3)
𝑆
𝑠=3
𝑷 ( 𝑿 ) =𝑝( 𝑋 = 𝑗)=∑ 𝑝 (𝑋 =𝑖) 𝑝( 𝑋 = 𝑗∨ 𝑥 =𝑖)  
𝟏 1 0 1 0
𝑖=1
𝑠=3
𝑷 ( 𝑿 ) =𝑝( 𝑋 = 𝑗)= ∑ 𝑝( 𝑋 =𝑖) 𝑝( 𝑋 = 𝑗∨ 𝑥 =𝑖)  
𝟐 2
𝑖=1
1 2 1
La letra mayúscula P indica que es una matriz, e
este caso es un vector fila donde cada columna o
𝑷 ( 𝑿 𝟐) =𝑝( 𝑋 2= 𝑗 )=𝑝 (𝑋 0 =𝑘) 𝑝 ( 𝑋1=𝑖|𝑥 0=𝑘 ¿ ¿ 𝑝( 𝑋 2= 𝑗 ∨𝑥 1=𝑖componente
) del vector la determina el valor “j”.
Aquí se esta hallando la probabilidad total de cada
estado.
n-step Probabilities El cuadrado de la matriz de tranmsicion
𝑠=3
𝑷 ( 𝑿 ) =𝑝( 𝑋 = 𝑗 )= ∑ 𝑝( 𝑋 =𝑘)   𝑝
𝟐 2 0
2
𝑘𝑗
𝑘=1

MARGINAL DISTRIBUTION

𝑃( 𝑋 )= 𝑃 ( 𝑋 ) ∗ 𝑃 𝑛
𝑛 0
….

Notar que:

:
Probabilidad de la intersección de dichos estados
Donde es un estado en particular
𝑃(𝑿 𝒏 +𝟏 =𝒙 𝒏+ 𝟏| 𝑋𝑛 = 𝑥 𝑛 , 𝑋 𝑛−1= 𝑥 𝑛−1 , … 𝑋 0= 𝑥 0 ¿
¿

𝑃( 𝑿 𝒏+ 𝟏
= 𝒙 𝒏+ 𝟏 , 𝑋𝑛 = 𝑥𝑛 , 𝑋𝑛 −1= 𝑥𝑛 −1 , … 𝑋 0= 𝑥 0)

𝑃 (𝑋 𝑛
=𝑥 𝑛 , 𝑋 𝑛− 1=𝑥 𝑛− 1 ,… 𝑋 0=𝑥 0)

OBS:

=
https://ocw.mit.edu/courses/electrical-engineering-and-
computer-science/6-262-discrete-stochastic-processes-spring-
2011/
https://www.cimat.mx/~jortega/modestoI10.html
)
)
𝑝( 𝑋 =1, 𝑋 =1, 𝑋 =1) = 1, 𝑋 0
=1

1 /𝑋1 2 1 0
=1
𝑥
=𝑝 𝑝( 𝑋
( 𝑿 =𝟏 , 𝑋 𝑝 𝑝
=1) 0
𝑝( 𝑋 =2 , 𝑋 =1, 𝑋 =1)
2

2 1 0
(𝑋 ( 𝑋 =2 / 𝑋 =1 , 𝑋 =1)
𝟏 0
1
∨ =2 /
𝑋 =
1, 𝑋 )
𝑝( 𝑋 =3, 𝑋 =1, 𝑋 =1)
2
2

1
1 0

= 2 1 0

𝑝(( 𝑋 =2∨𝑥 = 1)
𝑋
1
= 2 ,𝑋
=
= 11
𝑝)
( 𝑋 =1, 𝑋 =2, 𝑋 =1)
0
0

1/𝑋
𝑝( 𝑋 𝑝( 𝑋 =2, 𝑋 = 2, 𝑋 =1)
2 1 0
𝑝𝑝 𝑝( 𝑿 =𝟐 , 𝑋𝑝𝑝
1
1 𝑝 = 0
=1) (𝑋 2 ( 𝑋 2 =2 / 𝑋 1=2 , 𝑋 0 =1)
0 =1) 𝟏 0 ( 𝑋 2 1 0
(
𝑋
=
𝑝( 𝑋 =3, 𝑋 =2, 𝑋 =1) 2 =3
/𝑋
1 =2
, 𝑋
𝑝( 𝑋 =1, 𝑋 =3, 𝑋 =1)
1
=1 ) 2 1 0
0= 1)
3 , 𝑋0
∨ =3 2 1 0
𝑝
𝑥 /𝑋1
𝑝
𝑝( 𝑋 =2, 𝑋 = 3, 𝑋 =1)
1
= 𝑝 𝑝
=
𝑋 2 ( 𝑋 2 =2 / 𝑋 1 =3 , 𝑋 0 = 1)
1
( 𝑿 =𝟑 , 𝑋0
=1) 𝟏
( (
0 𝑋 2= 2 1 0
)
𝑝( 𝑋 =3, 𝑋 =3, 𝑋 =1)
3/
𝑋
1 = 3 ,
𝑋

2
)
𝑝( 𝑋 =1, 𝑋 =1, 𝑋 =2) 0=
1) 2 1

2 1
0

0
=
𝑥 𝑝( 𝑋 =1 , 𝑋 =2) 0

∨ 1 0
1
=
1
𝑋
𝑝(( 𝑋
𝑝( 𝑋 0=2)𝑝
𝑝 =1∨𝑥 0 = 2)
1
𝑝( 𝑋 =2 , 𝑋 = 2)
1 0
(
𝑋
1 =
1

𝑝( 𝑋 =3 , 𝑋
𝑥
=
0
2 1 0
=2)
)

𝑝( 𝑋 0
=3)
Coin-flips of a coin with unknown fairness
𝑃 𝜃=𝜃 𝑃 𝑥=𝑥 / 𝜃 ¿ 𝜃
𝑃𝜃¿ 𝜃 /𝑥 ¿ 𝑋 = 𝑖 2 𝑖

𝑖 2
𝑝 ¿¿ ¿

12
𝐸 𝜃 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎 = =0.08
150
𝐸 𝜃 𝐴𝒑𝒐𝒔𝒕𝒆𝒓𝒊𝒐𝒓𝒊 =∑ 𝜃 𝑖 𝑷 𝜽 / 𝒙 𝒊
𝑖

𝐸 𝜃 𝐴𝑝𝑟𝑖𝑜𝑟𝑖 =∑ 𝜃𝑖 𝑃 𝜃 ¿ 𝜃 =0.1
𝑖
𝑖
Se presupone inicialmente
Es decir se presupone una distribución de probabilidad del parámetro
𝑥=𝑥1 𝑒𝑥𝑖𝑡𝑜𝑠 𝑒𝑛𝑛 𝑓𝑙𝑖𝑝𝑠

𝑝¿¿ 𝑃(𝜃 =𝜃 )
𝑃 𝑥=𝑥 /𝜃¿𝜃
𝜃=𝜃1
1 1

𝑛=150 ; 𝑥=12 1

𝑥=𝑥2 𝑒𝑥𝑖𝑡𝑜𝑠 𝑒𝑛𝑛 𝑓𝑙𝑖𝑝𝑠

https://www.quantstart.com/articles/Bayesian-Statistics-A-
Beginners-Guide/
θ ≔ [0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9]
n ≔ 10
p ≔ [1/9, 1/9, 1/9, 1/9, 1/9, 1/9, 1/9, 1/9, 1/9]
x≔8
z(m) ≔ p↓m·n!/(x!·(n - x)!)·θ↓m^x·(1 - θ↓m)^(n - x)[θ↓1, z(1); θ↓2, z(2); θ↓3, z(3); θ↓4, z(4); θ↓5, z(5); θ↓6, z(6); θ↓7,
z(7); θ↓8, z(8); θ↓9, z(9)]

ITERATES([X_1+1,2X_2],X,[1,1],5) OBS: El sub índice es con flecha abajo


𝜃𝑖 𝑃 𝜃 =𝜃 𝑖
𝑃𝑥/𝜃 𝑖

    c(n,x)   Normalizacion
0.1 0.11 45.00 3.645E-07 4.02234E-07
0.2 0.11 45.00 7.3728E-05 8.13604E-05
0.3 0.11 45.00 0.0014467 0.001596465
0.4 0.11 45.00 0.01061683 0.011715902
0.5 0.11 45.00 0.04394531 0.048494597
0.6 0.11 45.00 0.12093235 0.133451451
0.7 0.11 45.00 0.23347444 0.257644066
0.8 0.11 45.00 0.30198989 0.333252335
0.9 0.11 45.00 0.19371024 0.21376342

8 éxitos en n =10 lanzamientos


0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Posee una distribución inicial a priori, que no conocemos. Esto equivale a decir que no sabemos si la moneda en el
experimento de Bernoulli is a fear coin.
Para el caso de probabilidades a priori infinitas se
tratara mediante la distribución BETA(α,β). 𝑖 𝑘()
𝑝( 𝑋 =𝑘)=∑ 𝛽 (𝑎 , 𝑏, 𝜃 ) 𝑛 𝜃 𝑖 (1− 𝜃 𝑖)
𝑘 𝑛− 𝑘

()
1 𝑏− 1 𝑛
𝑝( 𝑋 =𝑘)=∑
𝑎 −1 𝑘 𝑛−𝑘
𝜃 1−𝜃 𝜃𝑖 (1 − 𝜃𝑖 )
𝑖 𝛽 ( 𝑎 ,𝑏 ) 𝑘
; if 0<x< 1,

()
𝑛 1
𝑝( 𝑋 =𝑘)= ∫
𝑎+ 𝑘− 1 𝑛−𝑘 +𝑏−1
𝜃 (1 − 𝜃) 𝑑𝜃
𝑘 𝛽 (𝑎 , 𝑏)
𝑃 𝜃 =𝜃 𝑃 𝑥 =𝑘 / 𝜃 ¿ 𝜃
𝑃𝜃¿ 𝜃 𝑖 / 𝑋 =𝑘
= 𝑖 𝑖

𝑝 ( 𝑋 = 𝑘)

()𝑛 1 𝑎+𝑘 −1 𝑛 −𝑘+ 𝑏 −1


𝜃 (1 − 𝜃 )
𝑘 𝛽 ( 𝑎 ,𝑏 )
𝑃 𝜃 ¿ 𝜃 / 𝑋 =𝑘=
()𝑛 1

𝑖
𝑎+𝑘− 1 𝑛 − 𝑘+𝑏 −1
𝜃 (1− 𝜃 ) 𝑑𝜃
𝑘 𝛽 (𝑎 , 𝑏 )
𝜃 𝑎+𝑘 −1 (1 − 𝜃 )𝑛 − 𝑘+𝑏 − 1
𝑃 𝜃 / 𝑋 =𝑘=
𝛽 ( 𝑎+ 𝑘, 𝑛 −𝑘 +𝑏)
𝑃 𝜃 = 𝛽 (𝑎 , 𝑏 , 𝜃 )
𝑖 ; i éxitos j fracasos
𝑖
𝑘 ( )
𝑃 𝑋 =𝑘/ 𝜃 ¿ 𝜃 = 𝑛 𝜃 𝑖 (1 − 𝜃 𝑖 )
𝑘 𝑛 −𝑘

𝑝( 𝑋 =𝑘)=∑ 𝑃 𝜃 ¿ 𝜃 𝑃 𝑥 =𝑘/ 𝜃 ¿ 𝜃
𝑖 𝑖
𝑎+𝑖
𝑖
𝐸 𝜃 𝐴 𝒑𝒐𝒔𝒕𝒆𝒓𝒊𝒐𝒓𝒊 =∫ 𝜃(𝑃 𝜃 / 𝑋 =𝑘 ¿ )𝑑 𝜃= ¿
BAYESIAN NETWORK

𝑃(𝑥∨𝑢 ,𝑣) 𝑃( 𝑦∨𝑣 , 𝑤)

𝑃( 𝑦) =∑ ∑ ∑ 𝑃(𝑤) 𝑃 (𝑥∨𝑤)   𝑃( 𝑦∨𝑥 )   𝑃(𝑧∨ 𝑦)


𝑧 𝑥 𝑤

𝑓 𝑤 ( 𝑥 )=∑ 𝑃(𝑤) 𝑃 (𝑥∨𝑤) 𝑃( 𝑧∨ 𝑥 , 𝑦)


𝑤

𝑃( 𝑦) =∑ ∑ 𝑓 𝑤 ( 𝑥 ) 𝑃( 𝑦∨𝑥)   𝑃(𝑧∨ 𝑦) ∑ 𝑃 (𝑤) 𝑃( 𝑦∨𝑣 , 𝑤)=𝑓 𝑤 (𝑦 ,𝑣)


𝑧 𝑥 𝑤

𝑓 𝑥 ( 𝑦 ) =∑ 𝑓 𝑤 ( 𝑥 ) 𝑃( 𝑦∨𝑥)
∑ 𝑓 𝑤 (𝑦 ,𝑣)𝑃 (𝑧∨𝑥 , 𝑦 )=𝑓 𝑦 (𝑧 ,𝑥 ,𝑣)
𝑦
𝑥

𝑃( 𝑦) =∑ 𝑓 𝑥 ( 𝑦 ) 𝑃 (𝑧∨ 𝑦) ∑ 𝑓 𝑦 (𝑧 ,𝑣, 𝑥)𝑃 (𝑥∨𝑢, 𝑣) 𝑷(𝒗)= 𝑓 𝑣 (𝑧 ,𝑥 ,𝑢)


𝑣
𝑧
∑ 𝑓 𝑣 (𝑧 ,𝑥 ,𝑢)=𝑓 𝑥 (𝑧 ,𝑢)
𝑥

𝑃( 𝑧 , 𝑢)= 𝑃(𝑢) 𝑓 𝑥 ( 𝑧 , 𝑢)
BAYESIAN NETWORK

𝑃( 𝑅,𝑊 , 𝑆 ,𝐶) =𝑃 𝑅 𝑃 𝐶 𝑃 (𝑊 ∨ 𝑅, 𝐶) 𝑃 (𝑆∨𝑊 )

𝑃 𝑅 ∑ 𝑃 ( 𝑆∨𝑊 ) ∑ 𝑃 𝐶 𝑃 (𝑊 ∨𝑅 ,𝐶 )
𝑤 𝑐
𝑃( 𝑅∨𝑆) =
𝑃( 𝑠 )

También podría gustarte