Está en la página 1de 72

Introduccion a la estadstica bayesiana, aplicaciones y

metodos
Parte 1

Ana Paula Palacios y Peter Diko

Universidad Carlos III de Madrid

21 de Marzo de 2011

Instituto de Economa y Finanzas


Facultad de Ciencias Econ omicas
U.N.C.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 1 / 40


Programa

1 Introduccion al pensamiento bayesiano

2 Inferencia bayesiana

3 Ventajas del enfoque bayesiano

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 2 / 40


Pensamiento bayesiano

Programa

1 Introduccion al pensamiento bayesiano

2 Inferencia bayesiana

3 Ventajas del enfoque bayesiano

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 3 / 40


Pensamiento bayesiano

Inferencia estadstica

Procedimiento estadstico:
Formular la pregunta de investigaci
on

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 4 / 40


Pensamiento bayesiano

Inferencia estadstica

Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 4 / 40


Pensamiento bayesiano

Inferencia estadstica

Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 4 / 40


Pensamiento bayesiano

Inferencia estadstica

Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico
Estimar el modelo

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 4 / 40


Pensamiento bayesiano

Inferencia estadstica

Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico
Estimar el modelo
Resumir los resultados y concluir

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 4 / 40


Pensamiento bayesiano

Inferencia estadstica

Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico
Estimar el modelo
Resumir los resultados y concluir

Objetivo
Contestar nuestras preguntas de investigaci
on y sacar conlusiones a partir
de los datos observados.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 4 / 40


Pensamiento bayesiano

Inferencia estadstica

Enfoques:
Clasico: parametros fijos
Bayesiano: parametros variables

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 5 / 40


Pensamiento bayesiano

Inferencia estadstica

Enfoques:
Clasico: parametros fijos
Bayesiano: parametros variables

Objetivo del curso


Brindar una detallada introducci on a la estadstica bayesiana
comparandola con el enfoque clasico y focalizandonos en las etapas de
modelizacion, estimacion e interpretaci
on de los resultados.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 5 / 40


Pensamiento bayesiano

Ejemplo

Tras una noche de fiesta, una mujer sospecha que puede estar
embarazada. Para estar segura de su estado compra un test del cual se
conoce que tiene una eficacia del 90% en detectar embarazos. La mujer se
realiza el test y obtiene un resultado positivo. Pregunta: Cual es la
probabilidad de que dicha mujer este embarazada?

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 6 / 40


Pensamiento bayesiano

Ejemplo

Tras una noche de fiesta, una mujer sospecha que puede estar
embarazada. Para estar segura de su estado compra un test del cual se
conoce que tiene una eficacia del 90% en detectar embarazos. La mujer se
realiza el test y obtiene un resultado positivo. Pregunta: Cual es la
probabilidad de que dicha mujer este embarazada?

P(emb y +)
P(emb|+) =
P(+)
P(+|emb)P(emb)
=
P(+|emb)P(emb) + P(+|no emb)P(no emb)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 6 / 40


Pensamiento bayesiano

Ejemplo

Adicionalmente supongamos que el test da falsos positivos el 50% de las


veces y que, sin ninguna informaci
on adicional, la probabilidad de
concepcion luego de mantener una relaci
on sexual es del 15%.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 7 / 40


Pensamiento bayesiano

Ejemplo

Adicionalmente supongamos que el test da falsos positivos el 50% de las


veces y que, sin ninguna informaci
on adicional, la probabilidad de
concepcion luego de mantener una relaci
on sexual es del 15%.

P(+|emb)P(emb)
P(emb|+) =
P(+|emb)P(emb) + P(+|no emb)P(no emb)
0.90 0.15
=
0.90 0.15 + 0.50 0.85
= 0.241

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 7 / 40


Pensamiento bayesiano

Ejemplo

Supongamos que la mujer para confirmar su estado se realiza un nuevo


test de embarazo y obtiene nuevamente un resultado positivo. Con esta
informacon adicional como cambian nuestras conclusiones? Cual es la
probabilidad de que la mujer este embarazada?

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 8 / 40


Pensamiento bayesiano

Ejemplo

Supongamos que la mujer para confirmar su estado se realiza un nuevo


test de embarazo y obtiene nuevamente un resultado positivo. Con esta
informacon adicional como cambian nuestras conclusiones? Cual es la
probabilidad de que la mujer este embarazada?

P(+|emb)P(emb)
P(emb|+) =
P(+|emb)P(emb) + P(+|no emb)P(no emb)
0.90 0.241
=
0.90 0.241 + 0.50 0.759
= 0.364

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 8 / 40


Pensamiento bayesiano

Ejemplo

Supongamos que la mujer para confirmar su estado se realiza un nuevo


test de embarazo y obtiene nuevamente un resultado positivo. Con esta
informacon adicional como cambian nuestras conclusiones? Cual es la
probabilidad de que la mujer este embarazada?

P(+|emb)P(emb)
P(emb|+) =
P(+|emb)P(emb) + P(+|no emb)P(no emb)
0.90 0.241
=
0.90 0.241 + 0.50 0.759
= 0.364

Si sucesivamente repetimos el test obteniendo resultados positivos, la


probabilidad de embarazo sera: test 3 = 0.507, test 4 =0.649, test 5 =
0.769, test 6 = 0.857, test 7 = 0.915, test 8 = 0.951, test 9 = 0.972, test
10 = 0.984.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 8 / 40


Pensamiento bayesiano

Enfoque bayesiano

Probabilidad a priori: 0.15


Observacion de datos: resultado positivo en el test
Probabilidad a posteriori: 0.241
Actualizacion de las probabilidades al disponer de nueva informacion:
0.364

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 9 / 40


Pensamiento bayesiano

Teorema de Bayes para distribuciones


Los parametros del modelo son variables.
Probabilidad como incertidumbre.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 10 / 40


Pensamiento bayesiano

Teorema de Bayes para distribuciones


Los parametros del modelo son variables.
Probabilidad como incertidumbre.
Teorema de Bayes aplicado a distribuciones:

f (datos|)f ()
f (|datos) =
f (datos)
f (datos|)f ()
=R
f (datos|)f ()d

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 10 / 40


Pensamiento bayesiano

Teorema de Bayes para distribuciones


Los parametros del modelo son variables.
Probabilidad como incertidumbre.
Teorema de Bayes aplicado a distribuciones:

f (datos|)f ()
f (|datos) =
f (datos)
f (datos|)f ()
=R
f (datos|)f ()d

Proporcionalidad:

f (|datos) f (datos|)f ()
Posteriori Verosimilitud Priori

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 10 / 40


Pensamiento bayesiano

Evolucion del pensamiento estadstico

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 11 / 40


Inferencia bayesiana

Programa

1 Introduccion al pensamiento bayesiano

2 Inferencia bayesiana

3 Ventajas del enfoque bayesiano

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 12 / 40


Inferencia bayesiana

Un ejemplo electoral

Son las elecciones presidenciales de EEUU del ano 2004 con George W.
Bush y John F. Kerry como sus principales candidatos. Una consultora
realiza una encuesta en el estado de Ohio y obtiene que 556 personas de
los consultados elige a J. Kerry y 511 a G. Bush.
Quien ganara las elecciones?

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 13 / 40


Inferencia bayesiana

Ejemplo electoral
Definimos a la variable X como intenci
on de voto.
Tenemos 556 + 511 = 1067 observaciones de X .

encuestado respuesta X
1 Kerry 1
X Bernoulli(p)
2 Bush 0
3 Bush 0
.. .. ..

. . . 1 p
X =
1067 Kerry 1 0 1p

datos = (x1 , x2 , . . . , x1067 ) = x


funcion de verosimilitud
1067
Y
f (x|p) = f (xi |p) = p 556 (1 p)511 = L(p; x)
i=1

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 14 / 40


Inferencia bayesiana

Maxima verosimilitud

Funcion de verosimilitud: L(p; x) = p 556 (1 p)511


556
Estimador maximo verosmil: EMV = 1067 = 0.521
q
0.5210.479
Error estandar: 1067 = 0.015
Intervalo de confianza: IC95% = [0.492; 0.550]
Contraste de hipotesis: H0 : p < 0.5

(0.521 0.5)
t= = 1.4
0.015

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 15 / 40


Inferencia bayesiana

Estimacion bayesiana

1 Establecer un modelo probabilstico completo: una distribucion de


probabilidad conjunta para todas las cantidades del problema,
observables y no obervables.
Funcion de verosimilitud: f (x|p)
Distribuci
on a priori: f (p)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 16 / 40


Inferencia bayesiana

Estimacion bayesiana

1 Establecer un modelo probabilstico completo: una distribucion de


probabilidad conjunta para todas las cantidades del problema,
observables y no obervables.
Funcion de verosimilitud: f (x|p)
Distribuci
on a priori: f (p)
2 Condicionar a los datos: obtener la distribucion a posteriori, es decir,
la distribucion condicionada de los parametros del modelo, dados los
datos.
Teorema de Bayes: f (p|x) f (x|p)f (p)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 16 / 40


Inferencia bayesiana

Estimacion bayesiana

1 Establecer un modelo probabilstico completo: una distribucion de


probabilidad conjunta para todas las cantidades del problema,
observables y no obervables.
Funcion de verosimilitud: f (x|p)
Distribuci
on a priori: f (p)
2 Condicionar a los datos: obtener la distribucion a posteriori, es decir,
la distribucion condicionada de los parametros del modelo, dados los
datos.
Teorema de Bayes: f (p|x) f (x|p)f (p)
3 Resumir la distribuci
on a posteriori y evaluar el ajuste del modelo.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 16 / 40


Inferencia bayesiana

Distribucion a priori

C
omo construimos la distribuci
on a priori?
1 Distribucion a priori informativa
-Estudios empricos previos
-Conocimiento del investigador:
Por intervalos
Estimacion de momentos y supuesto de simetra
Reparametrizacion de distribuciones. Ej.: beta(m , (1 m) )

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 17 / 40


Inferencia bayesiana

Distribucion a priori

C
omo construimos la distribuci
on a priori?
1 Distribucion a priori informativa
-Estudios empricos previos
-Conocimiento del investigador:
Por intervalos
Estimacion de momentos y supuesto de simetra
Reparametrizacion de distribuciones. Ej.: beta(m , (1 m) )
2 Distribucion a priori no-informativa
Impropias: U(, ) o U(0, )
Jeffreys prior: p() |I ()|0.5
Distribuciones poco informativas: N(, 10000),
2 G (0.001, 0.001)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 17 / 40


Inferencia bayesiana

Distribucion beta como a priori

Funcion de densidad 0 p 1; , > 0

( + ) 1
f (p) = p (1 p)1
()()
p 1 (1 p)1

Estadsticos

E (p) =
+
1
moda(p) =
+2

var (p) = 2
( + ) ( + + 1)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 18 / 40


Inferencia bayesiana

Distribucion beta como a priori

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 19 / 40


Inferencia bayesiana

Distribucion beta como a posteriori

A posteriori: f (p|x) f (x|p)f (p)


funcion de verosimilitud: f (x|p) = p n1 (1 p)n2
(+) 1
distribucion a priori: f (p) = ()() p (1 p)1
distribucion a posteriori:

f (p|x) p n1 (1 p)n2 p 1 (1 p)1


= p n1 +1 (1 p)n2 +1

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 20 / 40


Inferencia bayesiana

Distribucion beta como a posteriori

A posteriori: f (p|x) f (x|p)f (p)


funcion de verosimilitud: f (x|p) = p n1 (1 p)n2
(+) 1
distribucion a priori: f (p) = ()() p (1 p)1
distribucion a posteriori:

f (p|x) p n1 (1 p)n2 p 1 (1 p)1


= p n1 +1 (1 p)n2 +1

f (p|x) beta(n1 + , n2 + )
Distribuciones Bernoulli y beta son conjugadas - la distribucion a
posteriori es de la misma familia parametrica que a priori.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 20 / 40


Inferencia bayesiana

Ejemplo electoral
Encuestas en 2004 de CNN/USAToday/Gallup:

fecha n % Kerry nK % Bush nB


17-20 Oct 706 49% 346 48% 339
25-28 Sep 664 47% 312 49% 325
4-7 Sep 661 43% 284 52% 344
TOTAL 2031 942 1008

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 21 / 40


Inferencia bayesiana

Ejemplo electoral
Encuestas en 2004 de CNN/USAToday/Gallup:

fecha n % Kerry nK % Bush nB


17-20 Oct 706 49% 346 48% 339
25-28 Sep 664 47% 312 49% 325
4-7 Sep 661 43% 284 52% 344
TOTAL 2031 942 1008

f (p) p 9421 (1 p)10081


f (p|x) p 556 (1 p)511 p 9421 (1 p)10081 = p 14981 (1 p)15191

f (p|x) beta(1498, 1519)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 21 / 40


Inferencia bayesiana

Desplazamiento de la distribucion a priori

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 22 / 40


Inferencia bayesiana

Distribucion a posteriori

C
omo se obtiene la distribuci
on a posteriori?

Analticamente Verosimilitud A priori conjugada


Distribuciones conjugadas Bernoulli Beta
Binomial Beta
Metodos numericos Multinomial Dirichlet
Markov Chain Monte Carlo Binomial Negativa Beta
(MCMC): Poisson Gamma
Gibbs Sampling Exponencial Gamma
Gamma(2 ) Gamma
Metropolis-Hastings
Normal Normal
Normal 2 Gamma Inversa
Pareto Gamma
Pareto Pareto

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 23 / 40


Inferencia bayesiana

Estimacion puntual

Problema de decision selecci


on de criterio.
Elegimos como estimador de tal que minimice la funcion de perdida

L(, )

Sin embargo, es desconocido, tan solo tenemos su distribucion a


posteriori f (|x).

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 24 / 40


Inferencia bayesiana

Estimacion puntual

Problema de decision selecci


on de criterio.
Elegimos como estimador de tal que minimice la funcion de perdida

L(, )

Sin embargo, es desconocido, tan solo tenemos su distribucion a


posteriori f (|x).
Minimizaremos la perdida esperada a posteriori
Z

min E [L(, )|x] = min (|x)d
L(, )f

El estimador bayesiano sera el argumento

= arg min E [L(, )|x]



(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 24 / 40


Inferencia bayesiana

Ejemplos de la funcion de perdida


Perdida cuadratica
= ( )
L(, ) 2

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 25 / 40


Inferencia bayesiana

Ejemplos de la funcion de perdida


Perdida cuadratica
= ( )
L(, ) 2

el estimador bayesiano es la media a posteriori


Z
E (|x) = f (|x)d.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 25 / 40


Inferencia bayesiana

Ejemplos de la funcion de perdida


Perdida cuadratica
= ( )
L(, ) 2

el estimador bayesiano es la media a posteriori


Z
E (|x) = f (|x)d.

Perdida de error absoluto


= | |
L(, )

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 25 / 40


Inferencia bayesiana

Ejemplos de la funcion de perdida


Perdida cuadratica
= ( )
L(, ) 2

el estimador bayesiano es la media a posteriori


Z
E (|x) = f (|x)d.

Perdida de error absoluto


= | |
L(, )

el estimador bayesiano es la mediana a posteriori


Z
: f (|x)d = 0.5.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 25 / 40


Inferencia bayesiana

Ejemplos de la funcion de perdida

Error absoluto asimetrico


si >

= s ( )
Lr ,s (, )
r ( ) si

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 26 / 40


Inferencia bayesiana

Ejemplos de la funcion de perdida

Error absoluto asimetrico


si >

= s ( )
Lr ,s (, )
r ( ) si
s
el estimador bayesiano es el cuantil r +s a posteriori
Z
s
: f (|x)d = .
r +s

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 26 / 40


Inferencia bayesiana

Estimador MAP

Una alternativa a la funcion de perdida es el estimador del maximo a


posteriori (MAP)

= arg max f (|x) = arg max f (x|)f ()


que corresponde a la moda a posteriori de f (|x).

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 27 / 40


Inferencia bayesiana

Estimador MAP

Una alternativa a la funcion de perdida es el estimador del maximo a


posteriori (MAP)

= arg max f (|x) = arg max f (x|)f ()


que corresponde a la moda a posteriori de f (|x).

El estimador MAP es una generalizaci


on del estimador clasico de maxima
verosimilitud.

on a priori no informativa f () 1, el estimador


Si suponemos la distribuci
MAP coincide con el estimador de maxima verosimilitud clasico.

= arg max f (x|)


(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 27 / 40


Inferencia bayesiana

Estimacion por intervalos

Intervalo de credibilidad
R qL R
f (|x)d = /2 qU f (|x)d = 1 /2

Pr (qL < < qU |x) = 1

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 28 / 40


Inferencia bayesiana

Estimacion por intervalos

Intervalo HPD (highest posterior density):

Sea R una region de contenido 1 , es decir Pr ( R) = 1 .


R se llama region de maxima densidad a posteriori si para cualquier
1 R y 2
/ R se cumple f (1 |x) f (2 |x).

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 29 / 40


Inferencia bayesiana

Ejemplo electoral

f (p|x) beta(1498, 1519)


Media=0.497
Moda=0.496
Mediana=0.497

Intervalo de credibilidad

Pr {p [0.479, 0.514]} = 95%

Clave: Cual es la probabilidad de ganar las elecciones?

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 30 / 40


Inferencia bayesiana

Ejemplo electoral

f (p|x) beta(1498, 1519)


Media=0.497
Moda=0.496
Mediana=0.497

Intervalo de credibilidad

Pr {p [0.479, 0.514]} = 95%

Clave: Cual es la probabilidad de ganar las elecciones?

Pr (p > 0.5) = 0.351

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 30 / 40


Inferencia bayesiana

Modelo normal-normal con 2 conocido


La distribucion normal es una de las mas utilizadas.
funcion de verosimilitud f (x|, 2 ) N(, 2 )
n
(xi )2
 
Y 1
f (x|) exp
2 2 2 2
i=1

a priori - N(m, 2 )

( m)2
 
1
f () = exp
2 2 2 2

a posteriori
Pn
( m)2 )2
 
1 i=1 (xi
f (|x) exp
2 2 2 2 2 2

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 31 / 40


Inferencia bayesiana

Modelo normal-normal con 2 conocido

El exponente
Pn
( m)2 i=1 (xi )2

2 2 2 2
se puede transformar en
2 2
2 2 nm+n
2 + 2
x
2 2
n 2 + 2

y completando los cuadrados obtenemos la distribucion a posteriori para el


parametro
 2
m + 2 n 2 2

x
f (|x) N ,
n 2 + 2 n 2 + 2

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 32 / 40


Inferencia bayesiana

Modelo normal generalizado


funcion de verosimilitud f (x|, 2 ) N(, 2 )
n
(xi )2
 
2
Y 1
f (x|, ) exp
2 2 2 2
i=1

ahora los dos parametros , 2 son desconocidos.


Distribucion a priori f (, 2 ) = f () f ( 2 ) asumiendo independencia.
Introducimos distribuciones a priori no informativas

f () 1
1
f (log ( 2 )) 1 f ( 2 )
2
estas distribuciones son el caso lmite de N(m, 2 ), 2 IG (a, b)
2)
f ( 2 ) ( 2 )(a+1) e b/(

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 33 / 40


Inferencia bayesiana

Modelo normal generalizado

La densidad a posteriori

(xi )2
 P 
2 1
f (, |x) 2 n/2+1 exp
( ) 2 2

se puede expresar en forma

f (, 2 |x) = f (| 2 , x)f ( 2 |x).

Suponiendo 2 fijo

n2 2n ( x)2
   
2 x
f (| , x) exp 2
exp
2 2 2 /n

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 34 / 40


Inferencia bayesiana

Modelo normal generalizado

La densidad a posteriori se puede factorizar como


P 2
( x)2 x2
  
2 1 1 xi n
f (, |x) exp exp .
2 2 /n ( 2 )(n+1)/2 2 2

de d
onde podemos identificar

n 1 (n 1)var (x)
f ( 2 |x) IG ( , )
2 2
El muestreo de la distribuci
on conjunta se puede realizar en dos pasos:
1 generar 2 de la distribuci
on f ( 2 |x)
2 on f (| 2 , x)
generar correspondiente de la distribuci

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 35 / 40


Inferencia bayesiana

Distribucion predictiva a posteriori

Para la prediccion se emplea la distribucion predictiva a posteriori


Z
f (y |x) = f (y |) f (|x)d

Es el valor esperado del modelo especificado, ponderando los posibles


valores del parametro por su densidad a posteriori.

La distribucion predictiva a posteriori es la alternativa correcta al plug-in



f (y |x) = f (y |)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 36 / 40


Inferencia bayesiana

Comparacion de modelos
DIC: Este indicador eval
ua tanto el ajuste del modelo como la complejidad
del mismo. Evalua el poder explicativo del modelo. Menores valores del
DIC indican mejor ajuste del modelo.
DIC + pD
= D
D()
= 2D

siendo D el estadstico de desvo


D() = 2 log f (x|)

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 37 / 40


Inferencia bayesiana

Comparacion de modelos
DIC: Este indicador eval
ua tanto el ajuste del modelo como la complejidad
del mismo. Evalua el poder explicativo del modelo. Menores valores del
DIC indican mejor ajuste del modelo.
DIC + pD
= D
D()
= 2D

siendo D el estadstico de desvo


D() = 2 log f (x|)
PPLC: Este indicador tambien penaliza por complejidad del modelo.
Eval
ua el poder predictivo del modelo.
n n
k X X
PPLP = (i xi )2 + i2
k +1
i=1 i=1

siendo i = E (xirep |x)


y = i2 Var (xirep |x) y k es el peso que le damos al
primer termino del indicador.
(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 37 / 40
Ventajas del enfoque bayesiano

Programa

1 Introduccion al pensamiento bayesiano

2 Inferencia bayesiana

3 Ventajas del enfoque bayesiano

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 38 / 40


Ventajas del enfoque bayesiano

Diferencias entre clasicos y bayesianos

Figure: Frecuentistas Figure: Bayesianos

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 39 / 40


Ventajas del enfoque bayesiano

Diferencias entre clasicos y bayesianos

Frecuentistas Bayesianos

Parametro fijo Parametro variable

Datos variables (repeticion) Datos fijos (observados)

Probabilidad como frecuencia lmite Probabilidad como incertidumbre

No incluye informacion previa Inclusi


on de informacion previa

Intervalos de confianza Intervalos de credibilidad

Contraste de hipotesis Distribuci


on a posteriori del
parametro

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 39 / 40


Ventajas del enfoque bayesiano

Ventajas del enfoque bayesiano

Provee una completa caracterizaci


on del parametro a traves de una
funcion de distribucion.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 40 / 40


Ventajas del enfoque bayesiano

Ventajas del enfoque bayesiano

Provee una completa caracterizaci


on del parametro a traves de una
funcion de distribucion.
Provee un modo sistematico y explcito de incorporar conocimientos
previos.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 40 / 40


Ventajas del enfoque bayesiano

Ventajas del enfoque bayesiano

Provee una completa caracterizaci


on del parametro a traves de una
funcion de distribucion.
Provee un modo sistematico y explcito de incorporar conocimientos
previos.
Formaliza el proceso de aprendizaje a partir de los datos al actualizar
los resultados probabilsticos a medida que se conoce nueva
informacion.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 40 / 40


Ventajas del enfoque bayesiano

Ventajas del enfoque bayesiano

Provee una completa caracterizaci


on del parametro a traves de una
funcion de distribucion.
Provee un modo sistematico y explcito de incorporar conocimientos
previos.
Formaliza el proceso de aprendizaje a partir de los datos al actualizar
los resultados probabilsticos a medida que se conoce nueva
informacion.
Mejora la precision de la estimaci
on al incluir informacion extra y
acumular conocimiento.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 40 / 40


Ventajas del enfoque bayesiano

Ventajas del enfoque bayesiano

Provee una completa caracterizaci


on del parametro a traves de una
funcion de distribucion.
Provee un modo sistematico y explcito de incorporar conocimientos
previos.
Formaliza el proceso de aprendizaje a partir de los datos al actualizar
los resultados probabilsticos a medida que se conoce nueva
informacion.
Mejora la precision de la estimaci
on al incluir informacion extra y
acumular conocimiento.
Mejora la estimacion en casos de datos espaciados y datos faltantes a
traves de borrowing strength.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 40 / 40


Ventajas del enfoque bayesiano

Ventajas del enfoque bayesiano

Provee una completa caracterizaci


on del parametro a traves de una
funcion de distribucion.
Provee un modo sistematico y explcito de incorporar conocimientos
previos.
Formaliza el proceso de aprendizaje a partir de los datos al actualizar
los resultados probabilsticos a medida que se conoce nueva
informacion.
Mejora la precision de la estimaci
on al incluir informacion extra y
acumular conocimiento.
Mejora la estimacion en casos de datos espaciados y datos faltantes a
traves de borrowing strength.
No asume infinitas muestras ni normalidad.

(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 40 / 40


Ventajas del enfoque bayesiano

Ventajas del enfoque bayesiano

Provee una completa caracterizaci


on del parametro a traves de una
funcion de distribucion.
Provee un modo sistematico y explcito de incorporar conocimientos
previos.
Formaliza el proceso de aprendizaje a partir de los datos al actualizar
los resultados probabilsticos a medida que se conoce nueva
informacion.
Mejora la precision de la estimaci
on al incluir informacion extra y
acumular conocimiento.
Mejora la estimacion en casos de datos espaciados y datos faltantes a
traves de borrowing strength.
No asume infinitas muestras ni normalidad.
Interpretacion mas directa que los intervalos de confianza, contrastes
de hipotesis y p-valor.
(Univ. Carlos III de Madrid) Estadstica bayesiana 21-03-11 40 / 40

También podría gustarte