Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Bayes PDF
Bayes PDF
Estimadores de Bayes
1
2 CHAPTER 10. ESTIMADORES DE BAYES
f (x, θ)γ(θ)
f (θ|x) = R R . (10.1)
... f (x, t)γ(t)dt
También se tendrá
Z Z
r(δ, γ) = Eγ (E(l(q(Θ), δ(X))|Θ)) = ... R(δ, γ)γ(θ)dθ. (10.5)
Γ(a + b) a−1
γ(θ) = θ (1 − θ)b−1 I[0,1] (θ). (10.6)
Γ(a)Γ(b)
ab E(θ) (1 − E(θ)
var(θ) = = . (10.8)
(a + b)2 (a + b + 1) a+b+1
Luego si se conoce la media y la varianza de la distribución a priori de
Θ, se pueden determinar a y b. La fórmula (10.8) muestra que para un dado
valor de la esperanza, la varianza depende de a + b, tendiendo a 0 cuando
a + b → ∞.
La distribución de la muestra X1 , X, ...Xn dado el valor de θ está dada
por Pn Pn
f (x1 , ..xn , θ) = θ i=1 xi (1 − θ)n− i=1 xi . (10.9)
4 CHAPTER 10. ESTIMADORES DE BAYES
donde
1
D= . (10.15)
(n/σ 2 ) + (1/τ 2 )
Completando cuadrados en el exponenente de (10.14) se obtiene
µ µ ¶¶2
1 x̄ µ
fX,Θ (x, θ) = C2 (x, σ 2 , µ, τ 2 )exp − (θ − D( 2 + 2 (10.16)
2D σ τ
Luego esta densidad excepto una función que depende solo de x corre-
sponde a una distribución
µ µ ¶ ¶
nx̄ µ
N D + 2 ,D . (10.18)
σ2 τ
donde
n/σ 2
w= .
(n/σ 2 ) + (1/τ 2 )
Por lo tanto el estimador de Bayes es un promedio ponderado del estimador
IMVU de la teorı́a frecuentista X̄ y la media de la distribución a priori
µ. Los pesos son inversamente proporcionales a las variancias σ 2 /n y τ 2
de ambos estimadores. A medida que el tamaño de la muestra n crece, el
peso del estimador basado en la información a priori tiende a 0. Es decir
a medida que el tamaño de la muestra crece, la información a priori tiene
menos relevancia para determinar el estimador de Bayes.
Observación 2. En este ejemplo partimos de una distribución a priori
en la familia N(µ, τ 2 ), y obtenemos que la distribución a posteriori está dada
por (10.18), y por lo tanto está en la misma familia normal. Luego la familia
de distribuciónes conjugadas de la familia normal con varianza conocida es
la la familia normal.
R(δ ∗ , θ) ≤ R(δ, θ) ∀θ ∈ Θ.
R(δ, θ) ≤ C ∀θ ∈ Θ,
y por lo tanto
R(δ, θ) ≤ R(δγ , θ) ∀θ ∈ Θ. (10.26)
Integrando ambos miembros de (10.26) se tiene
Z Z Z Z
... R(δ, θ)γ ∗ (θ)dθ ≤ ... R(δγ ∗ , θ)γ ∗ (θ)dθ, (10.27)
r(δ, γ ∗ ) ≤ r(δγ ∗ , γ ∗ )
r(δ, γ ∗ ) = r(δγ ∗ , γ ∗ )
T +a
δa,b = ,
n+a+b
P
con T = ni=1 Xi .
Si encontramos a y b tales que R(δa,b , θ) es constante, ese estimador será
minimax. Como Eθ (T ) = nθ y var(T ) = nθ(1 − θ) se tiene
nθ + a
Eθ (δa,b ) = , (10.28)
n+a+b
y
nθ(1 − θ)
varθ (δa,b ) = , (10.29)
(n + a + b)2
10.2. UTILIZACIÓN DE MÉTODOS BAYESIANO PARA RESOLVER PROBLEMAS FRECUENTISTAS9
−n + (a + b)2 = 0, n − 2a(a + b) = 0
√
La solución a este sistema de ecuaciones es a = b = n/2, y por lo tanto el
estimador de Bayes correspondiente, que sera minimax, estará dado por
√
T + ( n/2)
δmmx = √ . (10.31)
n+ n
n/4 1
R(δmmx , θ) = √ − √ .
(n + n)2 4( n + 1)2
lim r(δγk , γk ) = C.
k→∞
Luego δ es minimax.
Demostración: Supongamos que δ no es minimax. Luego existe otro
estimador δ 0 tal que