Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Diapos Bayes PDF
Diapos Bayes PDF
metodos
Parte 1
21 de Marzo de 2011
2 Inferencia bayesiana
Programa
2 Inferencia bayesiana
Inferencia estadstica
Procedimiento estadstico:
Formular la pregunta de investigaci
on
Inferencia estadstica
Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Inferencia estadstica
Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico
Inferencia estadstica
Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico
Estimar el modelo
Inferencia estadstica
Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico
Estimar el modelo
Resumir los resultados y concluir
Inferencia estadstica
Procedimiento estadstico:
Formular la pregunta de investigaci
on
Recolectar datos
Construir un modelo probabilstico
Estimar el modelo
Resumir los resultados y concluir
Objetivo
Contestar nuestras preguntas de investigaci
on y sacar conlusiones a partir
de los datos observados.
Inferencia estadstica
Enfoques:
Clasico: parametros fijos
Bayesiano: parametros variables
Inferencia estadstica
Enfoques:
Clasico: parametros fijos
Bayesiano: parametros variables
Ejemplo
Tras una noche de fiesta, una mujer sospecha que puede estar
embarazada. Para estar segura de su estado compra un test del cual se
conoce que tiene una eficacia del 90% en detectar embarazos. La mujer se
realiza el test y obtiene un resultado positivo. Pregunta: Cual es la
probabilidad de que dicha mujer este embarazada?
Ejemplo
Tras una noche de fiesta, una mujer sospecha que puede estar
embarazada. Para estar segura de su estado compra un test del cual se
conoce que tiene una eficacia del 90% en detectar embarazos. La mujer se
realiza el test y obtiene un resultado positivo. Pregunta: Cual es la
probabilidad de que dicha mujer este embarazada?
P(emb y +)
P(emb|+) =
P(+)
P(+|emb)P(emb)
=
P(+|emb)P(emb) + P(+|no emb)P(no emb)
Ejemplo
Ejemplo
P(+|emb)P(emb)
P(emb|+) =
P(+|emb)P(emb) + P(+|no emb)P(no emb)
0.90 0.15
=
0.90 0.15 + 0.50 0.85
= 0.241
Ejemplo
Ejemplo
P(+|emb)P(emb)
P(emb|+) =
P(+|emb)P(emb) + P(+|no emb)P(no emb)
0.90 0.241
=
0.90 0.241 + 0.50 0.759
= 0.364
Ejemplo
P(+|emb)P(emb)
P(emb|+) =
P(+|emb)P(emb) + P(+|no emb)P(no emb)
0.90 0.241
=
0.90 0.241 + 0.50 0.759
= 0.364
Enfoque bayesiano
f (datos|)f ()
f (|datos) =
f (datos)
f (datos|)f ()
=R
f (datos|)f ()d
f (datos|)f ()
f (|datos) =
f (datos)
f (datos|)f ()
=R
f (datos|)f ()d
Proporcionalidad:
f (|datos) f (datos|)f ()
Posteriori Verosimilitud Priori
Programa
2 Inferencia bayesiana
Un ejemplo electoral
Son las elecciones presidenciales de EEUU del ano 2004 con George W.
Bush y John F. Kerry como sus principales candidatos. Una consultora
realiza una encuesta en el estado de Ohio y obtiene que 556 personas de
los consultados elige a J. Kerry y 511 a G. Bush.
Quien ganara las elecciones?
Ejemplo electoral
Definimos a la variable X como intenci
on de voto.
Tenemos 556 + 511 = 1067 observaciones de X .
encuestado respuesta X
1 Kerry 1
X Bernoulli(p)
2 Bush 0
3 Bush 0
.. .. ..
. . . 1 p
X =
1067 Kerry 1 0 1p
Maxima verosimilitud
(0.521 0.5)
t= = 1.4
0.015
Estimacion bayesiana
Estimacion bayesiana
Estimacion bayesiana
Distribucion a priori
C
omo construimos la distribuci
on a priori?
1 Distribucion a priori informativa
-Estudios empricos previos
-Conocimiento del investigador:
Por intervalos
Estimacion de momentos y supuesto de simetra
Reparametrizacion de distribuciones. Ej.: beta(m , (1 m) )
Distribucion a priori
C
omo construimos la distribuci
on a priori?
1 Distribucion a priori informativa
-Estudios empricos previos
-Conocimiento del investigador:
Por intervalos
Estimacion de momentos y supuesto de simetra
Reparametrizacion de distribuciones. Ej.: beta(m , (1 m) )
2 Distribucion a priori no-informativa
Impropias: U(, ) o U(0, )
Jeffreys prior: p() |I ()|0.5
Distribuciones poco informativas: N(, 10000),
2 G (0.001, 0.001)
( + ) 1
f (p) = p (1 p)1
()()
p 1 (1 p)1
Estadsticos
E (p) =
+
1
moda(p) =
+2
var (p) = 2
( + ) ( + + 1)
f (p|x) beta(n1 + , n2 + )
Distribuciones Bernoulli y beta son conjugadas - la distribucion a
posteriori es de la misma familia parametrica que a priori.
Ejemplo electoral
Encuestas en 2004 de CNN/USAToday/Gallup:
Ejemplo electoral
Encuestas en 2004 de CNN/USAToday/Gallup:
Distribucion a posteriori
C
omo se obtiene la distribuci
on a posteriori?
Estimacion puntual
Estimacion puntual
Estimador MAP
Estimador MAP
Intervalo de credibilidad
R qL R
f (|x)d = /2 qU f (|x)d = 1 /2
Ejemplo electoral
Intervalo de credibilidad
Ejemplo electoral
Intervalo de credibilidad
a priori - N(m, 2 )
( m)2
1
f () = exp
2 2 2 2
a posteriori
Pn
( m)2 )2
1 i=1 (xi
f (|x) exp
2 2 2 2 2 2
El exponente
Pn
( m)2 i=1 (xi )2
2 2 2 2
se puede transformar en
2 2
2 2 nm+n
2 + 2
x
2 2
n 2 + 2
f () 1
1
f (log ( 2 )) 1 f ( 2 )
2
estas distribuciones son el caso lmite de N(m, 2 ), 2 IG (a, b)
2)
f ( 2 ) ( 2 )(a+1) e b/(
La densidad a posteriori
(xi )2
P
2 1
f (, |x) 2 n/2+1 exp
( ) 2 2
Suponiendo 2 fijo
n2 2n ( x)2
2 x
f (| , x) exp 2
exp
2 2 2 /n
de d
onde podemos identificar
n 1 (n 1)var (x)
f ( 2 |x) IG ( , )
2 2
El muestreo de la distribuci
on conjunta se puede realizar en dos pasos:
1 generar 2 de la distribuci
on f ( 2 |x)
2 on f (| 2 , x)
generar correspondiente de la distribuci
Comparacion de modelos
DIC: Este indicador eval
ua tanto el ajuste del modelo como la complejidad
del mismo. Evalua el poder explicativo del modelo. Menores valores del
DIC indican mejor ajuste del modelo.
DIC + pD
= D
D()
= 2D
Comparacion de modelos
DIC: Este indicador eval
ua tanto el ajuste del modelo como la complejidad
del mismo. Evalua el poder explicativo del modelo. Menores valores del
DIC indican mejor ajuste del modelo.
DIC + pD
= D
D()
= 2D
Programa
2 Inferencia bayesiana
Frecuentistas Bayesianos