Está en la página 1de 2

ESTIMACIÓN BAYESIANA:

Los métodos clásicos de estimación se basan únicamente en la información que


proporciona una muestra aleatoria. Las probabilidades que se derivan de ello se
denominan probabilidades objetivas; la estimación bayesiana combina información
muestral con otra información anterior que puede estar disponible antes de recopilar la
muestra (distribución a priori).

Las técnicas bayesianas utilizan la distribución a priori [f(θ)] junto con la información que brinda
la muestra [f(x1,x2,....,xn) para calcular la distribución a posteriori [f(x1,x2,...xn/θ]. Esta distribución
a posteriori expresa el grado de creencia del investigador en la posición del parámetro θ después
de observar la muestra.

Los métodos bayesianos pueden emplearse para construir intervalos para las estimaciones de
los parámetros que son similares a los intervalos de confianza. Si ya se tiene la función de
densidad posterior de θ, entonces puede construirse un intervalo, centrado alrededor de la
media a posteriori, que contenga al 100(1-α)% de la probabilidad posterior.

Ejemplo 3.14.

Suponga que la distribución a priori para la proporción p de artículos defectuosos que produce
una máquina es:

p 0.1 0.2
f(p) 0.6 0.4

Encuentre la estimación de Bayes para la proporción de defectuosos que produce esta máquina
si una muestra aleatoria de 10 artículos muestra 1 artículo defectuoso.

Solución:

10 
P(1D/p=0.1) =  (0.1)(0.9)9  0.3874
1

10 
P(1D / p  0.1)   (0.2)(0.8)9  0.2684
1

Como f(x,p) = f(x / p)*f(p), entonces:

p 0.1 0.2
f(1,p) 0.2324 0.1074
f (1)  0.3398

Y como f(p / x) = f(x,p)/f(x)

p 0.1 0.2
F(p / x = 1) 0.6839 0.3161

P* (estimada por Bayes) = 0.1*0.6839 + 0.2*0.3161 = 0.1316

Nota: En este caso la estimación bayesiana es un poco más alta que la estimación clásica.

También podría gustarte