Documentos de Académico
Documentos de Profesional
Documentos de Cultura
omputo
Estadstica Bayesiana
Teora y Conceptos B
asicos
Eduardo Gutierrez Pe
na
Temario
1 Introducci
on
Conceptos fundamentales
M
etodos estadsticos tradicionales
2 Inferencia Estadstica
El enfoque bayesiano
Interpretaci
on subjetiva de la probabilidad
El proceso de aprendizaje
Predicci
on
An
alisis secuencial
El concepto de intercambiabilidad
3 Teora de la Decisi
on
Elementos de un problema de decisi
on
Funci
on de utilidad
Soluci
on bayesiana
Otros criterios
Problemas de decisi
on estadsticos
4 Aspectos Computacionales
Aproximaciones asint
oticas
Fundamentos M
etodos cl
asicos
Conceptos fundamentales
Que es la Estadstica?
Fundamentos M
etodos cl
asicos
Definiciones de Estadstica
Conjunto de tecnicas para describir un fen
omeno, a partir de un
conjunto de datos que presentan variabilidad.
Conjunto de metodos para alcanzar conclusiones acerca de una o
varias caractersticas de interes de una poblaci
on a partir de
informaci
on parcial provista por una muestra de dicha poblacion.
Fundamentos M
etodos cl
asicos
Ensayemos otra...
De manera muy general, puede decirse que la estadstica es la
disciplina que estudia los fen
omenos inciertos (aleatorios), es decir,
aquellos que no se pueden predecir con certeza.
El estudio se lleva a cabo a partir del posible conocimiento previo
sobre el fen
omeno y de observaciones que se realizan sobre el mismo.
Fundamentos M
etodos cl
asicos
Ensayemos otra...
De manera muy general, puede decirse que la estadstica es la
disciplina que estudia los fen
omenos inciertos (aleatorios), es decir,
aquellos que no se pueden predecir con certeza.
El estudio se lleva a cabo a partir del posible conocimiento previo
sobre el fen
omeno y de observaciones que se realizan sobre el mismo.
Variabilidad o incertidumbre?
Fundamentos M
etodos cl
asicos
Fundamentos M
etodos cl
asicos
En este u
ltimo caso,
Pero...
c
omo seleccionar la muestra?
c
omo medir el grado de aproximaci
on?
Fundamentos M
etodos cl
asicos
Soluci
on:
Selecci
on probabilstica de la muestra (i.e. por sorteo)
x
Dato
X
Variable (aleatoria)
Pr[X = x]
Modelo de probabilidad
As,
Describir el fen
omeno Describir el modelo
Fundamentos M
etodos cl
asicos
(si X es discreta)
Fundamentos M
etodos cl
asicos
- Estimaci
on por intervalo: (, )
- Prueba de hip
otesis: H0 : 0 vs H1 : 1
C
omo y cu
ando aplicar cada receta?
Fundamentos M
etodos cl
asicos
Veamos un ejemplo...
Problema: hacer inferencias sobre la proporci
on de individuos de una
poblaci
on determinada que sufren de cierta enfermedad.
Se selecciona una muestra aleatoria de individuos, de manera que
cada individuo en la muestra sufra de la enfermedad con probabilidad
independientemente de los otros individuos en la muestra ( denota
la proporci
on de individuos enfermos en la poblaci
on).
La variable aleatoria X denota el n
umero de individuos enfermos en
la muestra.
El valor observado X = x es usado para hacer inferencias acerca del
par
ametro (caracterstica poblacional) .
Fundamentos M
etodos cl
asicos
Fundamentos M
etodos cl
asicos
Principio de M
axima Verosimilitud : valores de que asignan una
probabilidad alta al valor observado x son m
as verosmiles que
aquellos valores de que asignan a x una probabilidad peque
na.
Fundamentos M
etodos cl
asicos
Fundamentos M
etodos cl
asicos
EB PS PA DP AS CI
El enfoque bayesiano
Idea: dise
nar una Teora Estadstica, basada en una peque
na serie de
principios b
asicos, que nos permita estructurar la solucion a cualquier
problema de inferencia.
La va: la Teora de la Decisi
on
EB PS PA DP AS CI
Pr(B|A) Pr(A)
.
Pr(B)
EB PS PA DP AS CI
Sean
A = la persona tiene VIH y Ac = la persona no tiene VIH
B = la prueba resulta positiva
- Sensitividad de 95 % significa que Pr(B|A) = 0.95
- Especificidad de 98 % significa que Pr(B c |Ac ) = 0.98
Queremos calcular Pr(A|B). El Teorema de Bayes nos dice que
Pr(A|B) =
Pr(B|A) Pr(A)
.
Pr(B|A) Pr(A) + Pr(B|Ac ) Pr(Ac )
Es decir,
Pr(A|B) =
0.95 0.001
= 0.045
(0.95 0.001) + (0.02 0.999)
M
as del 95 % de las personas cuya prueba resulta positiva
en realidad no tienen el VIH!
XXXI Foro de Estadstica
EB PS PA DP AS CI
Discusi
on
Nuestra intuici
on no es suficientemente buena al procesar
evidencia probabilstica.
El punto crucial es de que manera el resultado de la prueba debe
cambiar mis juicios sobre el evento de que la persona tenga VIH?
La prevalencia de VIH puede pensarse como la probabilidad a
priori que describe nuestros juicios sobre el evento de que la
persona tenga VIH antes de conocer el resultado de la prueba:
Pr(A) = 0.001.
Al observar un resultado positivo, nuestros juicios cambian y la
EB PS PA DP AS CI
Reformulaci
on del Ejemplo
Sea un par
ametro que toma el valor 1 si la persona tiene el VIH y el
valor 0 si no lo tiene.
Sea X una variable aleatoria que toma el valor 1 si la prueba resulta
positiva y el valor 0 en caso contrario.
Sabemos que
Pr(X = 1| = 1) = 0.95
Pr(X = 0| = 1) = 0.05
Pr(X = 1| = 0) = 0.02
Pr(X = 0| = 0) = 0.98
y
Pr( = 1) = 0.001
Pr( = 0) = 0.999
Entonces
Pr( = 1|X = 1) = 0.045
EB PS PA DP AS CI
EB PS PA DP AS CI
Pr(X = 1| = 1) Pr( = 1)
Pr(X = 1)
Es decir,
Pr( = 1|X = 1) =
0.95 0.001
= 0.045
0.021
EB PS PA DP AS CI
Discusi
on
Mucho m
as controversial es el uso del Teorema de Bayes en
an
alisis estadsticos generales, en los que los parametros son
las cantidades desconocidas de interes y por lo tanto se
requiere especificar probabilidades sobre sus valores.
EB PS PA DP AS CI
Diferencias
Inferencia estadstica tradicional :
Que nos dicen los datos X acerca del par
ametro ?
(Ignora toda evidencia externa)
Inferencia bayesiana:
C
omo cambian nuestros juicios originales acerca del valor de la
cantidad desconocida a la luz de los datos X?
(Puede tomar en cuenta cualquier evidencia externa)
EB PS PA DP AS CI
En general tenemos:
(1) Datos, X; y
(2) Cantidades desconocidas, , cuyo valor nos interesa.
Las cantidades desconocidas descritas por pueden ser: par
ametros del
modelo, observaciones faltantes, mediciones que no podemos observar
directamente o con suficiente precisi
on, etc.
EB PS PA DP AS CI
p() p(x|)
p() p(x|) d
*
El Teorema de Bayes es la clave del proceso de aprendizaje.
EB PS PA DP AS CI
EB PS PA DP AS CI
EB PS PA DP AS CI
EB PS PA DP AS CI
EB PS PA DP AS CI
EB PS PA DP AS CI
EB PS PA DP AS CI
El proceso de aprendizaje
Los cuatro pasos a seguir dentro del enfoque bayesiano:
1
Especificaci
on de un modelo muestral, p(x|)
Especificaci
on de una distribuci
on inicial, p()
C
alculo de la distribuci
on final, p(|x), va el Teorema de Bayes
Resumen de la informaci
on contenida en p(|x) para hacer
inferencias sobre las cantidades de interes (par
ametros,
observaciones futuras, etc.)
Modelo muestral
EB PS PA DP AS CI
(Verosimilitud)
Modelo muestral
EB PS PA DP AS CI
(Verosimilitud)
EB PS PA DP AS CI
Distribuci
on inicial
Este es un aspecto fundamental del enfoque bayesiano.
El an
alisis es subjetivo dado que depende del conocimiento que el
investigador tiene antes de observar los datos (y que describe a traves
de su distribuci
on inicial).
Sin embargo, si la distribuci
on inicial es razonable, su efecto sobre las
inferencias disminuye conforme se tienen m
as datos.
En ocasiones tenemos una idea vaga de la forma que debera tener la
distribuci
on inicial. Tal vez incluso somos capaces de asignar valores,
por ejemplo, a su media y su varianza, pero no podemos ser mas
precisos.
En estos casos es com
un usar una distribuci
on inicial consistente con
nuestra informaci
on pero cuya forma sea conveniente, e.g. tal que de
lugar a an
alisis m
as sencillos.
( Familias conjugadas)
EB PS PA DP AS CI
EB PS PA DP AS CI
Distribuci
on final
En terminos de variables aleatorias, el Teorema de Bayes toma la
forma
p()p(x|)
.
p(|x) = R
p()p(x|
)d
R
,
no depende de , por lo que
El denominador, p(x) = p()p(x|
)d
es com
un escribir
p(|x) p()p(x|).
* En la pr
actica, el c
alculo de la distribuci
on final puede ser un asunto
complicado, especialmente si la dimensi
on del par
ametro no es peque
na.
* Sin embargo, para ciertas combinaciones de distribuciones iniciales y
verosimilitudes es posible simplificar el an
alisis.
( Familias conjugadas)
* En otros casos se requieren aproximaciones analticas y/o tecnicas
computacionales relativamente sofisticadas.
( Sesi
on de ma
nana!)
EB PS PA DP AS CI
Inferencia
El enfoque bayesiano proporciona inferencias m
as completas en el
sentido de que toda la informaci
on disponible sobre el valor de
queda representada a traves de la distribuci
on final.
Es decir, desde el punto de vista bayesiano, el problema de inferencia
se reduce a encontrar p(|x): la distribuci
on final es la inferencia.
La u
nica receta de la Inferencia Bayesiana. . .
. . .consiste en encontrar la distribuci
on condicional de todas aquellas
cantidades de interes cuyo valor desconocemos dado el valor conocido
de las variables observadas.
Por supuesto, en la pr
actica generalmente es deseable resumir este tipo de
inferencias en la forma de una estimaci
on puntual, una estimaci
on por
intervalo, una prueba de hip
otesis, etc.
Ejemplo: eliminaci
on de par
ametros de ruido.
EB PS PA DP AS CI
Robustez
- En Estadstica, independientemente del enfoque que se utilice, es
importante entender hasta que punto el modelo usado es robusto
antes posibles violaciones a los supuestos.
- Lo anterior tambien es cierto dentro del enfoque bayesiano en lo
que se refiere a la especificaci
on de la distribucion inicial.
- En ocasiones el modelo es tal que las inferencias no se modifican
sustancialmente ante cambios moderados en la distribucion final.
Esto ocurre, por ejemplo, cuando el tama
no de la muestra es
suficientemente grande.
- En otros casos, sin embargo, puede ocurrir que incluso cambios
aparentemente insignificantes en la distribuci
on inicial produzcan
inferencias completamente distintas.
EB PS PA DP AS CI
EB PS PA DP AS CI
- Funci
on de verosimilitud:
n x
p(x|) = Bin(x|; n) =
(1 )nx x (1 )nx
x
EB PS PA DP AS CI
- Distribuci
on inicial:
p() = Beta(|a, b) =
(a + b) a1
(1 )b1 a1 (1 )b1
(a)(b)
- Distribuci
on final:
p(|x) p() p(x|)
x+a1 (1 )nx+b1
Beta(|x + a, n x + b)
Notemos que tanto la distribuci
on inicial como la final son Beta.
En este caso se dice que la familia de distribuciones Beta es
conjugada para el modelo Binomial.
EB PS PA DP AS CI
Para la distribuci
on Beta(a, b) se sabe que la media esta dada por
m = a/(a + b) y la varianza por s2 = m(1 m)/(a + b + 1)
Entonces, a priori, la media de es m = 0.40 y la desviacion estandar
es s = 0.1
EB PS PA DP AS CI
Exitos
Fracasos
Total
Inicial
9.2
13.8
23
Datos
15
5
20
Final
24.2
18.8
43
La media y la desviaci
on est
andar de la distribuci
on final de estan
dadas por E(|x) = 0.563 y sd(|x) = 0.075, respectivamente.
Notemos que Pr( > 0.54|x) = 0.62
EB PS PA DP AS CI
EB PS PA DP AS CI
Caso no informativo
Supongamos que no se tiene o no se desea utilizar la informacion
inicial.
Esto se puede especificar a traves de una distribuci
on inicial
uniforme, lo que implica que a = b = 1.
En este caso, con x = 15 individuos afectados de un total de n = 20
individuos expuestos, tenemos:
Desglose de la informaci
on
Exitos
Fracasos
Total
Inicial
1
1
2
Datos
15
5
20
Final
16
6
22
EB PS PA DP AS CI
La media y la desviaci
on est
andar de la distribuci
on final de estan
dadas por E(|x) = 0.727 y sd(|x) = 0.093, respectivamente.
Por otro lado, la moda de la distribuci
on final es igual a 0.75, valor
que coincide con el estimador de m
axima verosimilitud para en este
caso.
Cabe hacer notar que en este caso Pr( > 0.54|x) = 0.97
Supongamos ahora que estamos interesados en probar la hipotesis
H0 : 0.40. Entonces, la probabilidad Pr( 0.40|x) = 0.0008
puede usarse para determinar que los datos no apoyan esta hipotesis
nula.
EB PS PA DP AS CI
EB PS PA DP AS CI
Distribucion predictiva
Hasta el momento s
olo hemos discutido el problema de hacer
inferencias acerca del valor desconocido de un par
ametro.
En muchas situaciones, sin embargo, el prop
osito de formular un
modelo estadstico es hacer predicciones sobre el valor de una o
m
as observaciones futuras.
Este problema se resuelve de manera m
as elegante desde el punto de
vista bayesiano que desde el punto de vista cl
asico.
EB PS PA DP AS CI
EB PS PA DP AS CI
EB PS PA DP AS CI
Distribuci
on predictiva
Supongamos que tenemos una muestra observada x = (x1 , . . . , xn )0
de p(x|) y que se desea hacer inferencias acerca del valor futuro de
Y = Xn+1 .
Dada una distribuci
on inicial p(), el Teorema de Bayes produce la
distribuci
on final p(|x).
Siguiendo la
unica receta de la inferencia bayesiana, debemos
entonces encontrar la distribuci
on condicional de Y dado el valor
observado de x.
EB PS PA DP AS CI
Dicha distribuci
on est
a dada por
Z
p(y|x) =
p(y|, x)p(|x) d
Z
=
p(y|)p(|x) d
= Ep(|x) [p(y|)]
y se conoce como la distribuci
on predictiva (final).
EB PS PA DP AS CI
Continuaci
on del ejemplo (distribuci
on Binomial)
- Supongamos que estamos considerando detener el estudio si por lo
menos 25 de 40 nuevos individuos tratados presentan efectos adversos.
Con base en la informaci
on disponible, Cu
al es la probabilidad de
que detengamos el estudio?
- Estamos considerando observar n ensayos adicionales y nos interesa
predecir el n
umero de exitos, X , en esos n ensayos.
La distribuci
on predictiva (final) es Binomial-Beta:
n (n + a + b)(x + x + a)(n x + n x + b)
p(x |x) =
.
(x + a)(n x + b)(n + n + a + b)
x
- Esta distribuci
on tiene media E(X |x) = 22.5 y desviacion estandar
EB PS PA DP AS CI
Recapitulando...
Modelo de probabilidad p( x | ),
Informaci
on inicial p()
Muestra x = ( x1 , x2 , . . . , xn )
Distribuci
on final p( | x)
Inferencias a posteriori
Estimaci
on
Puntual
Prueba de Hip
otesis
Intervalo
Predicci
on p( xn+1 | x)
Puntual
Intervalo
EB PS PA DP AS CI
Analisis secuencial
Hemos visto que el Teorema de Bayes proporciona el mecanismo
para actualizar nuestro estado de informaci
on, llev
andonos de la
distribuci
on inicial a la distribuci
on final.
Esta distribuci
on final se convierte entonces en la nueva distribucion
inicial antes de observar nuevos datos.
Dado p(), supongamos que observamos X1 = x1 de la densidad
p(x|). Por el Teorema de Bayes,
p(|x1 ) p() p(x1 |).
Esta
es nuestra nueva distribuci
on inicial antes de observar X2 = x2
de la densidad p(x|), condicionalmente independiente de X1 .
EB PS PA DP AS CI
p(|x1 )p(x2 |, x1 )
Este
es el mismo resultado que hubiesemos obtenido de haber
actualizado de un solo golpe la distribuci
on inicial p() con base
en la muestra completa {x1 , x2 }.
Este argumento puede extenderse, por inducci
on, a cualquier n
umero
de observaciones.
Los procedimientos cl
asicos de an
alisis secuencial no necesariamente
son coherentes en este sentido.
EB PS PA DP AS CI
El concepto de intercambiabilidad
Definici
on. Las variables aleatorias X1 , . . . , Xn son (finitamente)
intercambiables bajo una medida de probabilidad P si la distribucion
inducida por P satisface
p(x1 , . . . , xn ) = p(x(1) , . . . , x(n) )
para toda permutaci
on definida sobre el conjunto {1, 2, . . . , n}.
- En otras palabras, las etiquetas que identifican a cada una
de las variables no proporcionan informaci
on alguna.
- Si las variables aleatorias X1 , . . . , Xn son independientes e
identicamente distribuidas entonces son intercambiables.
- Sin embargo, X1 , . . . , Xn pueden ser intercambiables sin ser
independientes.
EB PS PA DP AS CI
Definici
on. La sucesi
on infinita de variables aleatorias X1 , X2 , . . .
es (infinitamente) intercambiable si toda subsucesi
on finita es
intercambiable en el sentido de la definici
on anterior.
- El concepto de intercambiabilidad es fundamental en la construcci
on
de los modelos jer
arquicos que discutiremos en la sesi
on de ma
nana.
- El siguiente teorema, que presentaremos en su forma m
as simple,
permite integrar en un paradigma unificado los conceptos
estadsticos frecuentistas asociados a modelos parametricos con el
concepto de probabilidad como grado de creencia (interpretaci
on
subjetiva).
- El resultado proporciona una justificaci
on del enfoque Bayesiano.
- Otra justificaci
on la proporciona la Teora de la Decisi
on, que
discutiremos m
as adelante.
EB PS PA DP AS CI
Teorema de Representaci
on (Bruno de Finetti)
Si X1 , X2 , . . . es una sucesi
on infinita de variables aleatorias definidas
sobre {0, 1}, intercambiables con respecto a la medida de probabilidad
P , entonces existe una distribuci
on Q tal que la distribucion conjunta
p(x1 , . . . , xn ) tiene la forma
)
Z 1 (Y
n
1xi
xi
(1 )
dQ(),
p(x1 , . . . , xn ) =
0
i=1
EB PS PA DP AS CI
El Teorema de Representaci
on tiene un significado muy profundo desde el
punto de vista de la modelaci
on subjetiva.
El resutaldo nos dice que el modelo predictivo para una sucesi
on
intercambiable de variables aleatorias binarias puede ser descrito en
terminos de una situaci
on en la que:
(i) condicional en el valor de una variable aleatoria, , las variables
aleatorias Xi se consideran independientes con distribuci
on Bernoulli;
(ii) a se le asigna una distribuci
on de probabilidad Q.
Por la Ley de los Grandes N
umeros, = lmn Yn /n (c. s.), de manera
que Q puede interpretarse como una descripci
on de los juicios acerca del
lmite de la frecuencia relativa de los exitos en una sucesi
on de ensayos
Bernoulli.
EB PS PA DP AS CI
i=m+1
donde 1 m < n,
Qm
dQ(|x1 , . . . , xm ) = Z
xi (1 )1xi
dQ()
xi
1xi
dQ()
i=1 (1 )
i=1
(1)
Qm
0
Teora de la decision
- Nos hallamos frente a un problema de decisi
on cuando debemos
elegir entre dos o m
as formas de actuar.
La mayor parte de nuestras decisiones cotidianas son triviales
(e.g. elegir una pelcula para el fin de semana).
En otras ocasiones, las consecuencias de nuestras decisiones pueden
ser muy importantes y deben ser consideradas cuidadosamente antes
de llegar a una conclusi
on (e.g. elegir una carrera).
: Relaci
on de preferencia entre las distintas consecuencias
Se define de manera que c1 c2 si c1 no es preferible a c2 (c1 , c2 C).
Probabilidad y utilidad
De los axiomas se deriva lo siguiente:
La informaci
on que el decisor tiene sobre la verosimilitud de los
distintos eventos relevantes al problema de decision debe ser
cuantificada a traves de una medida de probabilidad.
De la misma manera, las preferencias del decisor entre las
distintas consecuencias debe de cuantificarse a traves de una
funci
on de utilidad.
A cada una de las consecuencias c se le asigna un n
umero u(c)
que mide la utilidad que c tiene para el decisor, de manera tal
que
ci cj si y s
olo si u(ci ) u(cj ).
Solucion bayesiana
Maximizaci
on de la utilidad esperada
El resultado fundamental de la teora bayesiana de decisiones en
ambiente de incertidumbre establece que debe elegirse aquella
acci
on ai tal que
u
(ai ) = m
ax u
(ai )
i
donde
u
(ai ) =
m
X
u(ai , Ej ) Pr(Ej )
(i = 1, . . . , k)
j=1
Otros criterios
Se han propuesto otras formas de resolver problemas de decision en
ambiente de incertidumbre. Aqu describiremos dos de ellas.
Notemos que si el conjunto de eventos relevantes es el mismo para
cada una de las acciones, entonces el problema de decision puede
representarse de manera conveniente mediante una tabla como la
siguiente:
Pr(E)
u(a, E)
a1
a2
..
.
ak
Pr(E1 )
E1
u(a1 , E1 )
u(a2 , E1 )
..
.
Pr(E2 )
E2
u(a1 , E2 )
u(a2 , E2 )
..
.
...
...
...
...
..
.
Pr(Em )
Em
u(a1 , Em )
u(a2 , Em )
..
.
u(ak , E1 ) u(ak , E2 ) . . .
u(ak , Em )
Criterio maximin
Sea
um (ai ) = mn u(ai , Ej )
j
(i = 1, . . . , k).
Criterio condicional
(Criterio de la consecuencia m
as probable)
(i = 1, . . . , k).
El criterio de la consecuencia m
as probable consiste en elegir la
acci
on ai tal que
up (ai ) = m
ax up (ai ).
i
p
E1
0.9
0.2
0.6
q
E2
0.2
0.9
0.6
1pq
E3
0.5
0.5
0.7
Por hip
otesis Pr(E2 ) > Pr(E1 ) y Pr(E2 ) > Pr(E3 ).
Criterio maximin:
En este caso um (a1 ) = 0.2, um (a2 ) = 0.2 y um (a3 ) = 0.6, por lo que el
criterio maximin recomienda elegir a3 .
Criterio condicional :
Dado que q > p y q > 1 p q, tenemos que up (a1 ) = 0.2, up (a2 ) = 0.9
y up (a3 ) = 0.6. Por lo tanto, el criterio condicional recomienda elegir a2 .
Por ejemplo,
Si p = 0.33 y q = 0.50 entonces la mejor acci
on es a3 .
mientras que
Si p = 0.33 y q = 0.60 entonces la mejor acci
on es a2 .
En la literatura estadstica es m
as com
un trabajar, de manera
equivalente, en terminos de una funci
on de perdida L(a, ).
Dicha funci
on de perdida puede definirse, a partir de una funcion
de utilidad, como
L(a, ) = B() A u(a, )
donde A > 0 y B() es una funci
on de cuyo valor esperado existe.
Lx (a) =
L(a, ) p(|x) d.
Entonces
R
=
) p(|x) d
Lx ()
L(,
= E|x [ ( )2 ].
Notemos que
E|x [ ( )2 ] = E|x [ ( E|x [] + E|x [] )2 ]
= E|x [ ( E|x [])2 ] + E|x [( E|x [])2 ]
= E|x [ ( E|x [])2 ] + Var|x [],
de manera que E|x [ ( )2 ] es mnimo cuando = E|x [].
Por lo tanto, la acci
on
optima (el estimador bayesiano) es
= E|x [].
Prueba de hip
otesis: supongamos que deseamos contrastar
Ho : = 0
vs.
H1 : = 1
En este caso
A = {a0 , a1 }
con
a0 =
a1 =
y
E = {0 , 1 }.
1
k0
0
Debe rechazarse H0 si y s
olo si
Lx (a0 ) > Lx (a1 ).
Es decir, si y s
olo si
k1
p(1 |x)
> .
p(0 |x)
k0
Equivalentemente, si y s
olo si
p(x|0 )
k0 p(1 )
<
.
p(x|1 )
k1 p(0 )
En particular, si k0 = k1 entonces H0 se rechaza si y solo si
p(1 |x) > p(0 |x).
Aproximaciones
Aproximaciones asintoticas
Aproximaci
on normal asint
otica
Bajo ciertas condiciones de regularidad, y para tama
nos de muestra
grandes,
V ()),
p(|x) N (|,
Aproximaciones
Ejemplo: Distribuci
on Binomial.
Verosimilitud: p(x|) = Bin(x|; n) x (1 )nx
EMV: = x/n
Informaci
on de Fisher: I() = n 1 (1 )1
Distribuci
on final: p(|x) = Beta(|x + a, n x + b)
(1
)/n)
Aproximaci
on normal: p(|x) N (|,
Ejercicio: Supongan que n = 10, x = 1, a = 1 y b = 1. Calculen y comparen
gr
aficamente la aproximaci
on con la verdadera densidad final de .
Ahora consideren la reparametrizaci
on = log{/(1 )}, encuentren
la distribuci
on final de y calculen la correspondiente aproximaci
on
asint
otica.
Comparen gr
aficamente esta aproximaci
on con la verdadera densidad final
de . Cu
al aproximaci
on es mejor?
Aproximaciones
Aproximaci
on de Laplace
Supongamos que se desea calcular una integral de la forma
Z
I = q() exp{n h()} d
donde q : IRd IR y h : IRd IR son funciones suaves de .
I = (2 /n)d/2 |()|
donde
() =
2 h()
T
1
.
Aproximaciones
Proposici
on. Conforme n ,
I = I {1 + O(n1 )}.
E(g()|x) g()
La aproximaci
on de Laplace es particularmente u
til para aproximar
densidades marginales.
Aproximaciones
2 h1 ( 2 )
T2 2
1
.
Aproximaciones
Ejemplo: Distribuci
on logstica bivariada
p(1 , 2 ) =
2e1 e2
, (1 , 2 ) IR2 .
(1 + e1 + e2 )3
La densidad marginal de 1 es
p(1 ) =
e1
,
(1 + e1 )2
1 IR.
La sesion de ma
nana sera mucho mas interesante!