Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Renato Vassallo
Octubre 2020
1 Introducción
2 Conceptos previos
4 Aplicaciones Empı́ricas
Contenido
1 Introducción
2 Conceptos previos
4 Aplicaciones Empı́ricas
Contenido
1 Introducción
2 Conceptos previos
4 Aplicaciones Empı́ricas
Teorema de Bayes
f (y |θ)P(θ)
P(θ|y ) = (1)
P(y )
Distribución Posterior
En la práctica utilizaremos:
Distribución Posterior
Contenido
1 Introducción
2 Conceptos previos
4 Aplicaciones Empı́ricas
La Likelihood
Se tiene el modelo:
yi = βxi + i , i ∼ iidN(0, σ 2 )
La Likelihood f (y |x, β, σ 2 )
I Como i ∼ iidN(0, σ 2 ) entonces f (i |σ 2 ) es Normal:
2
1
f (i |σ 2 ) = √ exp − i 2
2πσ 2 2σ
(yi − βxi )2
1
f (yi |β, σ 2 ) = √ exp −
2πσ 2 2σ 2
I La Likelihood es:
N
Y
f (y |β, σ 2 ) = f (yi |β, σ 2 )
i=1
La Likelihood
Usando la definición de normalidad de f (yi |β, σ 2 ), tenemos que:
N
!
2 1 1 X 2
f (y |β, σ ) = exp − 2 (yi − βxi )
(2π)N/2 σ N 2σ
i=1
En particular:
N
X N
X 2
(yi − βxi )2 = yi − β̂xi + β − β̂ xi
i=1 i=1
N
X 2 2
= yi − β̂xi − 2 β − β̂ xi yi − β̂xi + β − β̂ xi2
i=1
La Likelihood
Por tanto:
N
X N
X N
2 X 2
(yi − βxi )2 = yi − β̂xi + β − β̂ xi2
i=1 i=1 i=1
N
X
= υs 2 + (β − β̂)2 xi2
i=1
Donde: 2
P
yi − β̂xi
s2 = y υ =N −1
υ
Notar que β̂, s 2 y υ son los estimadores OLS para β, el error estándar y los
grados de libertad, respectivamente.
Asimismo, para facilidad de cálculo, es mucho más sencillo trabajar con el
error de precisión h = s12 , en lugar de la varianza.
La Likelihood
Distribución Posterior:
P(β, h) = P(β|h)P(h)
β|h ∼ N β, h−1 V
h ∼ G s −2 , υ
P(β, h) = NG β, V , s −2 , υ
β, V , s −2 , υ
La Posterior
La densidad Posterior es también de la forma Normal-Gamma, confirmando
ası́ que la Prior es Natural Conjugada:
P (β, h|y ) ∼ NG β, V , s −2 , υ
donde
1
V = −1 PN
V + 2
i=1 xi
N
!
X
−1
β=V V β + β̂ xi2
i=1
υ =υ+N
−2
y donde s se define a través de:
2
β̂ − β
υs 2 = υs 2 + υs 2 +
V+ PN1
i=1 xi2
La Posterior
h|y ∼ G s −2 , υ
Comparación de Modelos
P(β, h|y , Mj ) = NG β j , V j , s 2j , υ j
P (y |Mi ) P(Mi )
POij =
P (y |Mj ) P(Mj )
Contenido
1 Introducción
2 Conceptos previos
4 Aplicaciones Empı́ricas
Prior Posterior
Using Non-informative Using Informative
Informative Prior Prior
Properties of β
Mean 1.50 2.06 1.96
S.D. 0.56 0.24 0.22
Properties of h
Mean 1.00 1.07 1.04
S.D. 0.45 0.21 0.19
0.02
Prior
0.018 Posterior
Likelihood
0.016
0.014
probability density
0.012
0.01
0.008
0.006
0.004
0.002
0
1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3
Hemos elegido una Prior que contiene menos información que los datos. Esto se
puede ver en la figura (la Prior tiene mayor dispersión que la Likelihood), o en la
tabla (la S.D. Prior son mayores que las de la Likelihood).
λk e −λ
P(k|λ) =
k!
La dist. Poisson nos dice que si uno cree que va a tener λ casos por dı́a,
probablemente obtendrá dicha cantidad.
Sin embargo, en la realidad, solo observamos el número de ”llegadas”.
¿Cómo configuramos una distribución de λ a partir del número observado de
llegadas? A través de la Likelihood:
λk e −λ
L(λ|k) =
k!
Paso 2: conectando λ y Rt
1 Periodo de tiempo entre un caso primario (infector) que presenta sı́ntomas y un caso
Paso 2: conectando λ y Rt
λk e −λ
L(Rt |k) =
k!
Consideremos un ejemplo sencillo. Fijemos un rango de valores para
Rt ∈ [0, 12] con un paso pequeño de 0.1. Ademas tenemos que γ = 0.25 y
definamos k = 20, 40, 55, 90. Como kt−1 lo conocemos, entonces es sencillo
calcular el vector de λ para cada Rt ∈ [0, 12]. Con esto, ya es posible calcular
la función de verosimilitud condicional a cada uno de los k casos nuevos
observados.
Paso 2: conectando λ y Rt
Paso 3: estimación de Rt
Paso 3: estimación de Rt
Paso 3: estimación de Rt
Referencias
F. Canova.
Methods for applied macroeconomic research.
Princeton University Press, 2007.
G. Koop.
Bayesian econometrics.
John Wiley and Sons, 2003.
G. Koop, D. Poirier, and J. Tobias.
Bayesian econometric methods.
Cabridge University Press, 2007.
Renato Vassallo
Octubre 2020