Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Z +∞ Z +∞
π(µ|x) = π(µ, σ 2 |x)dσ 2 = π(µ|σ 2 , x)π(σ 2 |x)dσ 2 , (2.25)
0 0
Z +∞ Z +∞
2 2
π(σ |x) = π(µ, σ |x)dµ = π(σ 2 |µ, x)π(µ|x)dµ, (2.26)
−∞ −∞
Observemos que el cálculo de las marginales puede por tanto hacerse directa-
mente de la conjunta o bien como una mixtura de las distribuciones condicionadas
a posteriori.
En general por tanto, nos encontramos con una muestra aleatoria simple de
una población normal x = (x1 , ..., xn ) ∼ N (µ, σ 2 ), en tal caso la verosimilitud de
los datos tendrá la expresión
½ Pn ¾
1 i=1 (xi − µ)2
L(x|µ, σ 2 ) = (2π)−n/2 (σ 2 )−n/2 exp − . (2.27)
2 σ2
Frecuentemente en el análisis bayesiano suele utilizarse el parámetro τ de-
nominado precisión en lugar de la varianza, pues interpreta de forma directa la
1
dispersión de una variable aleatoria ya que viene definido por τ = 2 , en términos
σ
de µ y τ la verosimilitud anterior puede reescribirse como
( n
)
−n/2 n/2 τ X 2
L(x|µ, τ ) = (2π) (τ ) exp − (xi − µ) . (2.28)
2 i=1
µ ∼ N (µ1 , σ12 )
se tiene que y ∼ N (µ1 , σ 2 + σ12 ).
Observemos que en términos de precisión hemos obtenido que la precisión a
posteriori cumple la relación
τ1 = τ0 + nτ, (2.33)
es decir, que la precisión a posteriori es la suma de las precisiones a priori y la
suma n veces de la precisión de los datos (que se supone conocida). Para la media
a posteriori también podemos deducir que,
τ0 τ1
E(θ|x̄) = µ1 = µ0 · + x̄ ·
τ0 + nτ τ0 + nτ
es decir, la esperanza a posteriori se puede expresar como una media ponderada
de la media a priori y la media muestral. Vemos de nuevo que la familia de dis-
tribuciones a priori Normal bajo muestre también Normal (en el caso de varianza
conocida) es una familia conjugada.
Solución: Puesto que estamos en las condiciones del teorema 2.3 basta con que
identifiquemos cada elemento para obtener de forma inmediata la densidad a pos-
teriori. En este caso, n = 5, µ0 = 500, σ 2 = 200 = σ02 , x̄ = 550, de donde se deduce
que la densidad a posteriori de µ es N (541,7; 33,33). Con esta densidad a poste-
riori podemos desarrollar toda la inferencia sobre µ. El caso Normal-Normal es
especialmente bien comportado para la estimación puntual puesto que al ser una
distribución simétrica y unimodal, tanto media como mediana y moda coinciden.
En este caso valen 541,7 (es decir, un estimador bayesiano puntual de la cuantı́a
media de una reclamación para esta cartera es 541,7 euros). Un intervalo bayesiano
de credibilidad al 95 % se obtiene fácilmente de cualquier tabla de la distribución
Normal o bien, utilizando FirstBayes. En la figura 2.24 puede verse el caso de
este ejemplo. Sólo debemos considerar ahora que el análisis que haremos es con
varianza conocida (Normal sample, known variance en la pestaña de Analyses
de FirstBayes) y que en la opción Data variance (esquina superior derecha)
debemos indicar 200. Los resultados obtenidos pueden verse en la figura 2.25, de
90 Inferencia bayesiana
Solución: Los resultados del Teorema 2.3 nos determinan directamente que la
distribución predictiva de una nueva cantidad será N (541,7; 233,33). En la figura
2.26 pueden verse los mismos resultados obtenidos en FirstBayes donde se ha
incorporado también un intervalo bayesiano con probabilidad 0,95 para esta futura
observación. En este caso, obtenemos que dicho intervalo vale [511,72, 571,61],
que interpretaremos de la siguiente manera: con probabilidad 0,95 la cantidad
reclamada en una nueva observación estará comprendida entre 511,72 y 571,61
euros.
♦
Los contrastes bayesianos para esta situación también se realizan de forma
sencilla siguiendo los pasos de la sección 10.7.3. Para el caso hipótesis nula simple
frente alternativa simple H0 : µ = µ0 vs H1 : µ = µ1 , bastará con obtener el
2.3. Análisis bayesiano para datos normales 91
Solución: El contraste propuesto pasa por calcular los “odds” a priori y posteriori
ası́ como el factor Bayes asociados. Cada una de estas cantidades se obtienen
directamente de las densidades a priori y a posteriori utilizadas que en este caso son
N (500, 200) y N (541,7, 33,33), respectivamente. La figura 2.25 tiene las cantidades
necesarias:
π0 0,961 p0 0,002
= ≈ 2,835, = ≈ 0,002, B01 ≈ 0,0007,
π1 0,339 p1 0,998
de donde deducimos que los datos no aportan ninguna evidencia en favor de H0 .
♦
n
X
donde S = (xi − x̄)2 .
i=1
Como distribución a priori del parámetro σ 2 suponemos una distribución chi–
cuadrado inversa de parámetro S0 y ν0 grados de libertad, en notación χ−2 (S0 , ν0 ),
cuya densidad puede ser escrita en la forma:
µ ¶
2 2 −ν0 /2−1 1 2
π(σ ) ∝ (σ ) exp − S0 /σ .
2
Sus medidas descriptiva más usuales son:
S0
E[σ 2 ] = para ν0 > 2,
ν0 − 2
2S02
Var[σ 2 ] = para ν0 > 4,
(ν0 − 2)2 (ν0 − 4)
S0
Moda[σ 2 ] = .
ν0 + 2
La obtención de la distribución a posteriori para σ 2 se realiza teniendo en
cuenta que
½ ¾
2 2 −(ν0 +n)/2−1 1 S0 + S
π(σ |x) ∝ (σ ) exp − , (2.36)
2 σ2
y por tanto nuevamente tenemos una chi–cuadrado inversa de parámetro (S0 + S)
y ν0 + n grados de libertad. Nuevamente la propiedad de conjugación aparece en
este caso para facilitarnos el cálculo de las distribuciones a posteriori.
σ 2 ∼ χ−2 (S0 , ν0 ).
Los casos anteriores pueden considerarse casos particulares de esta situación
puesto que coinciden con ella bajo el supuesto (en muchas ocasiones prácticas uti-
lizado) de que ambos parámetros son independientes y cada uno de ellos conocido,
en cada caso.
La distribución a priori conjunta será del tipo Normal– chi–cuadrado inversa.
½ ¾
2 2 −(ν0 +1)/2−1 1 2 2
π(µ, σ ) ∝ (σ ) exp − (S0 + n0 (µ − µ0 ) )/σ =
2
µ ¶
2 −(ν0 +1)/2−1 1 2
∝ (σ ) exp − Q0 (µ)/σ
2
donde Q0 (µ) es la forma cuadrática
µ ¶
1
π(µ, σ 2 |x) ∝ π(µ, σ 2 ) · L(x|µ, σ 2 ) ∝ (σ 2 )−(ν1 +1)/2−1 exp − Q1 (µ)/σ 2 , (2.37)
2
siendo π(µ, σ 2 |x) la densidad a posteriori conjunta dada en (2.37). Ahora bien sepa-
rando los términos en los que no están implicados directamente términos en µ se de-
duce trivialmente que dicha distribución (marginal) a posteriori es χ−2 (S1 , ν0 +n).
Justamente lo deducido en la sección anterior para el caso de media conocida.
S1
siendo s21 = y n1 = n0 + n.
ν1
96 Inferencia bayesiana
Figura 2.27: Cantidades a posteriori para el ejemplo 2.21 con media y varianza
desconocidas
♦
La distribución predictiva (a posteriori) de una futura observación, y, puede
obtenerse como la mixtura
Z Z
p(y|x) = f (y|µ, σ 2 ) · π(µ, σ 2 |x)dµdσ 2 , (2.41)
De (2.42) se deduce que f (y|σ 2 , x) ∼ N (x̄, (1+ n1 )σ 2 ), que resulta ser la idéntica
distribución que la de µ dados σ 2 y x (cambiando el factor de escala).
Figura 2.28: Distribución predictiva para el ejemplo 2.21 con media y varianza
desconocidas
El intervalo bayesiano al 95 % es [485,88, 790,52], que nos indica que con prob-
abilidad 0,95 una próxima reclamación estará comprendida entre 485,88 y 790,52
euros.
♦