Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Notas
ndice
1. INTRODUCCIN .............................................................................................................1
2. ESTADSTICA BAYESIANA ............................................................................................2
3. QU ES LA INFERENCIA BAYESIANA?......................................................................3
4. CONCEPTOS BAYESIANOS BSICOS .........................................................................5
4.1. Teorema de Bayes ..................................................................................................................................... 5
4.2. Naturaleza secuencial del teorema de Bayes ............................................................................................ 7
4.3. Distribucin a priori difusa o no informativa ............................................................................................... 7
4.4. Distribucin a priori conjugada ................................................................................................................. 10
5. INFERENCIA BAYESIANA............................................................................................12
5.1. Estimacin puntual ................................................................................................................................... 12
5.2. Intervalos de credibilidad o regiones veraces .......................................................................................... 16
5.3. Prueba de hiptesis para una muestra .................................................................................................... 17
5.4. Prueba de hiptesis para dos muestras................................................................................................... 18
6. CONCLUSIONES ..........................................................................................................20
7. BIBLIOGRAFA..............................................................................................................20
1. Introduccin
Como anunciaba Lindley en el primer Congreso Internacional de Estadstica Bayesiana, falta menos para el
2021 ao en el que el adjetivo bayesiano para la estadstica sera superfluo al ser bayesianas todas las
aproximaciones a la estadstica.
El objetivo de la estadstica, y en particular de la estadstica Bayesiana, es proporcionar una metodologa
para analizar adecuadamente la informacin con la que se cuenta (anlisis de datos) y decidir de manera
razonable sobre la mejor forma de actuar (teora de decisin).
Toma de
decisiones
Poblacin
Inferencia
Muestreo
Muestra
Anlisis de
datos
La metodologa estadstica clsica se puede ver como un conjunto de recetas que resultan apropiadas
en determinados casos y bajo ciertas condiciones.
Sin embargo, existe una metodologa unificada y general que se deriva de analizar el proceso lgico
que debe de seguirse para tomar una decisin (teora de la decisin), y que incluye como caso
particular al conjunto de recetas clsicas.
Pr ( A ) =
nA
n
(b) frecuentista: Supone que un experimento aleatorio puede ser repetido un nmero infinito de veces
bajo condiciones similares y propone como medida de probabilidad la proporcin de veces que
ocurri el evento de inters,
Pr ( A ) =
lim
nA
n
(c) subjetiva: Es simplemente una medida de la incertidumbre, asociada a un evento, asignada por un
decisor. En otras palabras, es un juicio personal sobre la verosimilitud de que ocurra un resultado.
Pr ( A ) =
2. Estadstica bayesiana
El inters por el teorema de Bayes trasciende la aplicacin clsica, especialmente cuando se ampla a otro
contexto en el que la probabilidad no se entiende exclusivamente como la frecuencia relativa de un suceso
a largo plazo, sino como el grado de conviccin personal acerca de que el suceso ocurra o pueda ocurrir
(definicin subjetiva de la probabilidad). Afirmaciones del tipo "es muy probable que el partido X gane las
prximas elecciones", "es improbable que Juan haya sido quien llam por telfono" o "es probable que se
encuentre un tratamiento eficaz para el sida en los prximos cinco aos", normales en el lenguaje comn,
no pueden cuantificarse formalmente; resultan ajenas, por tanto, a una metodologa que se desenvuelva en
un marco frecuentista. Una cuantificacin sobre base subjetiva resulta, sin embargo, familiar y fecunda para
el enfoque bayesiano. Al admitir un manejo subjetivo de la probabilidad, el analista bayesiano podr emitir
juicios de probabilidad sobre una hiptesis H y expresar por esa va su grado de conviccin al respecto,
tanto antes como despus de haber observado los datos. En su versin ms elemental y en este contexto,
el teorema de Bayes asume la forma siguiente:
Pr ( H | datos ) =
Pr ( datos | H )
Pr ( H )
Pr ( datos )
2
Pr ( H | datos ) , una vez incorporada la evidencia que aportan los datos. El caso considerado se
circunscribe a la situacin ms simple, aquella en que Pr ( H ) representa un nmero nico; sin embargo, si
se consiguiera expresar la conviccin inicial (y la incertidumbre) mediante una distribucin de
probabilidades.
Entonces una vez observados los datos, el teorema "devuelve" una nueva distribucin, que no es otra cosa
que la percepcin probabilstica original actualizada por los datos.
Esta manera de razonar de la inferencia bayesiana, radicalmente diferente a la inferencia clsica o
frecuentista (que desdea en lo formal toda informacin previa de la realidad que examina), es sin embargo
muy cercana al modo de proceder cotidiano, e inductivo. Debe subrayarse que esta metodologa, a
diferencia del enfoque frecuentista, no tiene como finalidad producir una conclusin dicotmica (significacin
o no significacin, rechazo o aceptacin, etc.) sino que cualquier informacin emprica, combinada con el
conocimiento que ya se tenga del problema que se estudia, "actualiza" dicho conocimiento, y la
trascendencia de dicha visin actualizada no depende de una regla mecnica.
Los mtodos bayesianos han sido cuestionados argumentando que, al incorporar las creencias o
expectativas personales del investigador, pueden ser caldo de cultivo para cualquier arbitrariedad o
manipulacin. Se podra argir, por una parte, que el enfoque frecuentista no est exento de decisiones
subjetivas (nivel de significacin, usar una o dos colas, importancia que se concede a las diferencias, etc.);
de hecho, la subjetividad (algo bien diferente de la arbitrariedad o el capricho) es un fenmeno inevitable,
especialmente en un marco de incertidumbre como en el que operan las ciencias biolgicas y sociales. Por
otra parte, las "manipulaciones" son actos de deshonestidad, que pueden producirse en cualquier caso
(incluyendo la posibilidad de que se inventen datos) y que no dependen de la metodologa empleada sino
de la honradez de los investigadores.
Aunque las bases de la estadstica bayesiana datan de hace ms de dos siglos, no es hasta fechas
recientes cuando empieza a asistirse a un uso creciente de este enfoque en el mbito de la investigacin.
Una de las razones que explican esta realidad y que a la vez anuncian un impetuoso desarrollo futuro es la
absoluta necesidad de clculo computarizado para la resolucin de algunos problemas de mediana
complejidad. Hoy ya existe software disponible (BUGS, macros para MINITAB, prxima versin de EPIDAT
y First Bayes, entre otros) que hace posible operar con estas tcnicas y augura el "advenimiento de una era
Bayesiana".
El proceso intelectual asociado a la inferencia bayesiana es mucho ms coherente con el pensamiento
usual del cientfico que el que ofrece el paradigma frecuentista. Los procedimientos bayesianos constituyen
una tecnologa emergente de procesamiento y anlisis de informacin para la que cabe esperar una
presencia cada vez ms intensa en el campo de la aplicacin de la estadstica a la investigacin clnica y
epidemiolgica.
3. Qu es la inferencia bayesiana?
El marco terico en que se aplica la inferencia bayesiana es similar a la clsica: hay un parmetro
poblacional respecto al cual se desea realizar inferencias y se tiene un modelo que determina la
probabilidad de observar diferentes valores de X, bajo diferentes valores de los parmetros. Sin embargo, la
diferencia fundamental es que la inferencia bayesiana considera al parmetro como una variable aleatoria.
Esto parecera que no tiene demasiada importancia, pero realmente si lo tiene pues conduce a una
aproximacin diferente para realizar el modelamiento del problema y la inferencia propiamente dicha.
Algunos ejemplos que justifican lo anterior son: la verdadera proporcin de artculos defectuosos que
produce un proceso de manufactura puede fluctuar ligeramente pues depende de numerosos factores, la
verdadera proporcin de casas que se pierden por concepto de hipoteca varia dependiendo de las
condiciones econmicas, la demanda promedio semanal de automviles tambin fluctuar como una
funcin de varios factores incluyendo la temporada.
En esencia, la inferencia bayesiana esta basada en la distribucin de probabilidad del parmetro dado los
datos (distribucin a posteriori de probabilidad Pr
( y)
parmetro. Esta diferencia conduce a inferencias mucho ms naturales, lo nico que se requiere para el
proceso de inferencia bayesiana es la especificacin previa de una distribucin a priori de probabilidad
Pr ( ) , la cual representa el conocimiento acerca del parmetro antes de obtener cualquier informacin
respecto a los datos.
La nocin de la distribucin a priori para el parmetro es el corazn del pensamiento bayesiano. El anlisis
bayesiano hace uso explcito de las probabilidades para cantidades inciertas (parmetros) en inferencias
basadas en anlisis estadsticos de datos.
El anlisis bayesiano lo podemos dividir en las siguientes etapas:
1. Eleccin de un modelo de probabilidad completo. Eleccin de una distribucin de probabilidad conjunta
para todas las cantidades observables y no observables. El modelo debe ser consistente con el
conocimiento acerca del problema fundamental y el proceso de recoleccin de la informacin;
2. Condicionamiento de los datos observados. Calcular e interpretar la distribucin a posteriori apropiada
que se define como la distribucin de probabilidad condicional de las cantidades no observadas de
inters, dados los datos observados;
3. Evaluacin del ajuste del modelo y las implicancias de la distribucin a posteriori resultante. Es el
modelo apropiado a los datos?, son las conclusiones razonables?, qu tan sensibles son los
resultados a las suposiciones de modelamiento de la primera etapa?. Si fuese necesario, alterar o
ampliar el modelo, y repetir las tres etapas mencionadas.
La inferencia bayesiana se basa en el uso de una distribucin de probabilidad para describir todas las
cantidades desconocidas relevantes a un problema de estimacin, la concrecin tcnica de este resultado
consiste en lo siguiente:
Si se dispone de una coleccin de variables aleatorias intercambiables
{x , x
1
, , x n } es decir que su
distribucin slo depende del valor de esas variables y no del orden en que han sido observadas, entonces
la distribucin de probabilidad
n
f ( x 1 , x 2 , , x n ) =
donde
f ( x | ) ( ) d
i =1
es la distribucin inicial
f ( x i | ) es el modelo de probabilidad;
( )
El concepto de intercambiabilidad es ms dbil que el de muestra aleatoria simple. Por ejemplo, si las
variables intercambiables x i toman el valor 0 1, el teorema de representacin toma la forma
f ( x 1 , x 2 , , x n ) =
(1 )
xi
1 x i
( ) d
i =1
donde:
= n lim
x
i =1
Es importante notar que lo que quiere decir el anterior resultado es que siempre que se tenga una coleccin
de variables intercambiables, y en una muestra aleatoria sencilla lo son, existe una distribucin inicial sobre
el parmetro . Adems, el valor del parmetro puede obtenerse como lmite de las frecuencias relativas.
La aproximacin bayesiana implica entonces, que la informacin muestral y la distribucin inicial se
actualizan mediante el teorema de Bayes para dar lugar a la distribucin final.
( | x1 , x 2 , , x n ) =
( ) f ( x1 , x 2 , , x n | )
( ) f ( x
, x 2 , , x n | ) d
Ahora todas las inferencias, la estimacin por punto, la estimacin por regiones veraces y los contrastes de
hiptesis, se realizan mediante la distribucin final.
Pr ( y | ) = Pr ( y | ) Pr ( ) = Pr ( | y ) Pr ( y )
de donde la distribucin de probabilidad condicional de dado el vector de observaciones Y resulta:
Pr ( | y ) =
Pr ( y | ) Pr ( )
Pr ( y )
con Pr ( y ) 0
A esta ecuacin se lo conoce como el teorema de Bayes, donde Pr ( y ) es la distribucin de probabilidad
marginal de Y y puede ser expresada como:
Pr ( y | ) Pr ( ) d
Pr ( y ) =
Pr ( y | ) Pr ( )
si es continuo
si es discreto
donde la suma o integral es tomada sobre el espacio paramtrico de . De este modo, el teorema de
Bayes puede ser escrito como:
Pr ( | y ) = c Pr ( y | ) Pr ( ) Pr ( y | ) Pr ( )
donde: Pr ( )
[1]
Pr ( |y ) l ( |y ) Pr ( )
Ejemplo. Sea el parmetro que a priori tiene una distribucin uniforme en el intervalo [0,1] y la variable
aleatoria Y que tiene una distribucin de probabilidades binomial con parmetros m y , m conocido por
conveniencia. Entonces se tienen las siguientes funciones de distribucin:
Pr ( )
0 1
= 1
m
m y
Pr ( y | ) = y (1 )
y = 0,1, , m
y
Ahora, para una muestra aleatoria de tamao n la funcin de verosimilitud estar dada por:
n m
nm
y
y
l ( | y ) = i (1 ) i
y
i =1 i
5
y i = 0,1, , m
Pr ( | y ) = c
n ( m !)
n
y ! ( m y )!
i
i =1
yi
(1 )
mn
yi
i =1
Pr ( | y ) = c
n ( m !)
n
y ! ( m y )!
i =1
y i + 1 1
(1 ) (
nm
y i +1) 1
i =1
c =
y + 1
i
y ! m y !
i
i
n ( m !)
n m y + 1
i
( n m + 2)
Ntese que es a travs de l ( | Y ) que los datos (informacin muestral) modifican el conocimiento previo
de q dado por Pr ( ) . Este proceso de revisin de las probabilidades iniciales, dada la informacin
muestral, se ilustra en la figura 3.
Informacin
inicial
Informacin
nueva
Distribucin
a priori
Pr()
Teorema de
Bayes
Distribucin
a posteriori
Funcin de
verosimilitud
l( | y)
Figura 3.
Por ultimo, es conveniente sealar que la informacin muestral Y por lo general ser introducida en el
modelo a travs de estadsticas suficientes para , dado que estas contienen toda la informacin referente
a los datos. As, dado un conjunto de estadsticas suficientes t para los parmetros en
, Pr ( y | )
podr
ser intercambiada por Pr ( t | ) , para lo cual bastara con calcular la distribucin condicional de t dado .
Componente subjetivo
Factor de Bayes
Probabilidad de la veracidad
Pr ( | y 1 ) l ( | y 1 ) Pr ( )
Ahora supngase que se tiene una segunda muestra y 2 independiente de la primera muestra, entonces:
Pr ( | y 1 , y 2 ) l ( | y 1 , y 2 ) Pr ( ) = l ( | y 1 ) l ( | y 2 ) Pr ( )
Pr ( | y 1 , y 2 ) l ( | y 2 ) Pr ( | y 1 )
De esta manera, la distribucin a posteriori obtenida con la primera muestra se convierte en la nueva
distribucin a priori para ser corregida por la segunda muestra.
En este proceso puede repetirse indefinidamente. As, si se tienen r muestras independientes, la
distribucin a posteriori puede ser recalculada secuencialmente para cada muestra de la siguiente manera:
Pr ( | y 1 , y 2 , , y m ) l ( | y m ) Pr ( | y 1 , y 2 , , y m 1 )
Ntese que
( | y
para m = 2,3, , r
Mtodo de Jeffreys
En situaciones generales, para un parmetro el mtodo mas usado es el de Jeffreys (1961) que sugiere
que, si un investigador es ignorante con respecto a un parmetro , entonces su opinin a cerca de
dado las evidencias X debe ser la misma que el de una parametrizacin para o cualquier
transformacin uno a uno de
donde I ( )
I ( )
Si =
( ,
1
2 Lnf ( y | )
= E
donde I ( )
I ( )
det I ( )
[2]
2 Lnf ( y | )
I i j = E0
i j
Por transformacin de variables, la densidad a priori Pr ( ) es equivalente a la siguiente densidad a priori
para
:
Pr ( ) = Pr ( = h 1 ( ) )
d
d
[3]
El principio general de Jeffreys consiste en que al aplicar el mtodo para determinar la densidad a priori
I ( ) =
I ( )
d
d
n
n y
= Pr ( y | ) = y (1 )
y
n
= log + y log + ( n y ) log (1 )
y
f ( y | )
log f ( y | )
d log f ( y | )
d
d log f ( y | )
d 2
y
n y
E 2 +
2
(1 )
y
n y
E 2 +
2
(1 )
n y
1
n y
(1 )
n E ( n y )
2 +
2
(1 )
n
(1 )
n
1
Pr ( )
esto es,
es:
Ejemplo. Se aplicara el mtodo de Jeffreys para calcular una distribucin conjunta a priori para los
parmetros de un modelo normal.
Sea y N
( y )2
1
exp
2
2
f ( y| )
ln f ( y | )
( y)
1
= ln
ln
2 2
2
I ( )
2
ln f ( y | , )
= E0
2
ln f ( y | , )
I ( )
1
2
= E0
2( y )
2
ln f ( y | , )
2
ln f ( y | , )
2
2( y )
y
3
(
)
1
2
4
1
2
= E0
0
I ( )
2
2
Pr ( , )
Ntese que aplicando las reglas anteriores, dado que
escala, las distribuciones a priori para
= ( , )
ser:
es un parmetro de posicin y
serian Pr ( ) = 1 y Pr ( ) =
un parmetro de
en vez de
2.
Jeffreys resolvi este problema estableciendo que y deberan ser tratados a priori
independientemente y por separado. As, cuando el mtodo de Jeffreys es aplicado al modelo normal con
fijo, resulta una a priori uniforme para y cuando es aplicado con fijo, se obtiene la a priori
denominada una familia conjugada para la clase de funciones de densidad F , si Pr ( | y ) est en la clase
P para todo f ( y | ) F y Pr ( ) P .
En este caso, la distribucin inicial dominar a la funcin de verosimilitud y Pr ( | y ) tendr la misma forma
que Pr ( ) , con los parmetros corregidos por la informacin muestral.
Ejemplo. Sea el parmetro
Pr ( )
y la variable
, m conocido por
( + )
1
1 (1 )
I 0,1 ( )
( ) ( )
m
m y
y = 0,1, , m
Pr ( y | ) = y (1 )
y
Ahora para una muestra aleatoria de tamao n la funcin de verosimilitud estar dada por:
n m
m n
y
y
l ( y | ) = i (1 ) i
i =1 y
y al aplicar el teorema de Bayes, la distribucin posterior de
siguiente manera:
Pr ( | y )
y = 0,1, , m
y i 1 (1 ) + m n y i 1
( + y )
i
+ n m yi .
Luego, la
distribucin tiene la misma forma que la distribucin a priori por lo que la clase de distribuciones a priori beta
es una familia conjugada para la clase de funciones de densidad binomial.
10
Sea el parmetro
( , ) donde
2
Pr ( )
2 0
1 ( 0 )
exp
2
02
1
1 ( x )
exp
2 2
2
Pr ( x | ) =
Pr ( | x ) =
1
donde
1 =
2
0
0 +
1
2
1
2
0
2
0
2 0
1 ( 1 )
exp
2 12
Luego Pr ( | x ) N
2
1
2
0
N ( 0 , 02 )
x N ( , 2 )
Entonces al aplicar el teorema de Bayes, la distribucin posterior de
Pr ( | x ) Pr ( ) Pr ( x | ) = Pr ( ) Pr ( x1 | ) Pr ( x 2 | ) Pr ( x n | )
n
Pr ( | x ) Pr ( ) Pr ( x | ) = Pr ( ) Pr ( x i | )
i =1
11
2
2
1 ( 0 ) n
1 ( x i )
Pr ( | x ) exp
exp
2 02
2 2
i =1
2
n n
1 ( 0 )
+ 2 ( x i )
Pr ( | x ) exp
i =1
2 02
( ,
Ya que, x | N
donde
n =
2
0
NOTA: Si
valor
2
n
0 +
1
2
0
Pr ( | x1 , x 2 , , x n ) = Pr ( | x ) N ( | n , n2 )
i =1
anteriores, luego:
2
0
02 = 2
2
entonces la distribucin a priori tiene el mismo peso como una observacin extra con el
0 . Es decir, si 0
02
fijo, entonces:
2
Pr ( | x ) N | x ,
5. Inferencia bayesiana
Dado que la distribucin posterior, contiene toda la informacin concerniente al parmetro de inters
(informacin a priori y muestral), cualquier inferencia con respecto a consistir en afirmaciones hechas a
partir de dicha distribucin.
Sin embargo,
para algunas aplicaciones es deseable (o necesario) resumir esta informacin en alguna forma.
Especialmente, si se desea proporcionar un simple mejor estimado del parmetro desconocido. (Ntese la
distincin con la estadstica clsica en que los estimados puntuales de los parmetros son la consecuencia
natural de una inferencia).
Por lo tanto, en el contexto bayesiano, cmo se puede reducir la informacin en una Pr ( | y ) a un simple
mejor estimado?, qu se debe entender por mejor?
Existen dos formas de enfrentar el problema:
(a) Estimador de Bayes posterior
(b) Aproximacin de teora de decisin
12
{x , x
1
( ( ) | x , x
1
{x , x
1
( )
, , x n ) .
1 x
para
x = 1, 0 y
g ( ) f ( x i | )
f ( | x1 , x 2 , , x n ) =
i =1
i =1
g ( ) f ( x | ) d
f ( | x1 , x 2 , , x n ) =
xi
(1 )
x i I ( )
( 0,1)
x i (1 )n x i d
x i (1 )n x i d
E ( | x1 , x 2 , , x n ) =
x i (1 )n x i d
E ( | x1 , x 2 , , x n )
n
n
B x i + 2 , n x i + 1
i =1
i =1
=
n
n
B x i + 1 , n x i + 1
i =1
i =1
E ( | x1 , x 2 , , x n ) =
i =1
+1
2
n
x
i =1
+1
es un estimador sesgado. El estimador mximo
n+2
verosmil de
x
i =1
es un estimador insesgado.
1
E ( (1 ) | x1 , x 2 , , x n ) =
(1 )
x i (1 )n x i d
13
x i (1 )n x i d
E ( (1 ) | x1 , x 2 , , x n )
n
n
xi + 2 n xi + 2
i =1
i =1
=
=
( n + 4)
E ( (1 ) | x1 , x 2 , , x n )
estimador de
(1 )
( n + 2)
n
x i + 1 n
i =1
x
i =1
+ 1
n
n
x i + 1 n x i + 1
i =1
i =1
=
( n + 3) ( n + 2 )
y a.
Se especifica una funcin de perdida L ( , a ) que cuantifica las posibles penalidades en estimar
por a .
Hay muchas funciones prdida que se pueden usar. La eleccin en particular de una de ellas depender de
contexto del problema. Las ms usadas son:
1. Prdida cuadrtica:
L ( , a ) = ( a ) ;
2
L ( , a ) = a ;
3. Prdida 0,1:
a
a >
0
L ( , a ) = si
1
a >
g ( a )
L ( , a ) =
si
a <
h ( a )
En cada uno de los casos anteriores, por la minimizacin de la prdida esperada posterior, se obtienen
formas simples para la regla de decisin de Bayes, que es considerado como el estimado punto de para
la eleccin en particular de la funcin prdida.
Nota: L ( , a ) es la prdida incurrida al adoptar la accin a cuando el verdadero estado de la naturaleza
es
. Pr ( a , x )
R a ( ) = E ( L ( , a ) ) = Pr ( a , x ) = L ( , a ) Pr ( | x ) d
Regla de decisin de Bayes (estimador de Bayes): d ( x ) es la accin que minimiza Pr ( a , x ) .
Riesgo de Bayes: RB ( d ) =
Ejemplo. Sean
{x , x
1
( d ( x ) , x ) ( x ) dx
L ( , a ) = ( a ) , y N ( 0 ,1) .
2
14
N ( ,1) ,
f ( | x ) =
1 n
2
2
1
1
exp ( 0 )
exp ( x i )
2
2 i =1
2
n
1 n
2
2
1
1
1
exp ( 0 ) d
exp ( x i )
2
2
2 i =1
2
1
2
Considerando x 0 = 0 :
f ( | x ) =
f ( | x ) =
1 n
2
1
exp ( x i )
2
2 i =1
n
1
2
1
exp ( x i ) d
2
2 i =1
n +1
1
exp
2
2
n +1
E ( | x1 , x 2 , , x n ) =
xi
i =1 n + 1
n
xi
n +1
i=0
var ( | x1 , x 2 , , x n ) =
1
n +1
Por lo tanto; el estimador de Bayes o regla de Bayes con respecto a la perdida cuadrado del error es:
n
x0 + xi
i =1
n +1
0 + xi
i =1
n +1
= E ( ) .
en el momento de
d ( x) =
d ( x) =
Si L ( , a ) = q a
( | x )
( w ( ) )
( w ( ) )
( | x )
w ( ) f ( x | ) d
w ( ) f ( x | ) d
K 0 ( a ) a 0
K0
si
cualquier
fractil de ( | x ) es un estimador de Bayes
a < 0
K 0 + K1
K 1 ( a )
Si L ( , a ) =
de
15
Resumen
En el contexto bayesiano, un estimado puntual de un parmetro es una simple estadstica descriptiva de la
distribucin posterior ( | x ) .
1 Pr ( C | x ) =
dF
( | x )
es un subconjunto C de
( )
( | x ) d
C
=
( | x )
C
tal que:
( caso continuo )
( caso discreto )
Un aspecto importante con los conjuntos veraces (y lo mismo sucede con los intervalos de confianza) es
que ellos no son nicamente definidos.
Cualquier regin con probabilidad (1 ) cumple la definicin. Pero solamente se desea el intervalo que
contiene nicamente los valores ms posibles del parmetro, por lo tanto es usual imponer una restriccin
adicional que indica que el ancho del intervalo debe ser tan pequeo como sea posible.
Para hacer esto, uno debe considerar solo aquellos puntos con ( | x ) ms grandes. Esto conduce a un
intervalo (o regin) de la forma:
donde
C = C ( x ) = { : f ( | x ) }
f ( | x ) d = 1
La regin C que cumple las anteriores condiciones se denomina regin de densidad posterior ms grande
(HPD), mxima densidad.
Generalmente, un HPD es encontrado por mtodos numricos, aunque para muchas distribuciones
univariadas a posteriori, los valores de la variable aleatoria correspondientes son tabulados para un rango
de valores de .
Ejemplo (media de una normal). Sean
{x , x
1
b nx
d 2 + 2
1
|x N
,
1
n
1
n
2+ 2
+ 2
2
d
d
Si n , entonces x z
n
16
luego el conjunto veraz es igual al de estadstica clsica. Pero sus interpretaciones son distintas.
Cmo se obtiene el intervalo de mnima longitud (mxima densidad)?
Los pasos a seguir son:
1. Localizar la moda de la funcin de densidad (posterior) de
2. A partir de la moda trazar lneas rectas horizontales en forma descendiente hasta que se acumule
(1 ) de probabilidad.
H 0 : 0
H 1 : 1
Se considera el caso simple donde 0 y 1 consisten de puntos simples, por lo tanto la prueba es de la
forma:
H 0 : = 0
H 1 : = 1
Aproximacin clsica
Ejecutar la prueba utilizando la razn de verosimilitud
f ( x | 1 )
f ( x | 0 )
Si asume valores grandes significa que los datos observados X son mas probables que hayan ocurrido
si es el verdadero valor de en lugar de 0 .
Aproximacin bayesiana
La aproximacin natural es realizar la prueba bajo las consideraciones en las probabilidades a posteriori
relativas de los valores formulados en las hiptesis. Es decir:
B =
f ( 1 | x )
f ( 2 | x )
f ( 1 ) f ( x | 1 )
f ( 0 ) f ( x | 0 )
17
Definicin: la razn
f ( 1 | x )
1
=
0
f ( 0 | x )
B =
1
0
es la razn
f ( 1 | x )
f ( 0 | x )
f ( 1 )
f ( 0 )
B =
f ( 1 | x ) f ( 0 )
f ( x | 1 )
1 0
= =
0 1
f ( x | 0 )
f ( 0 | x ) f ( 1 )
B es una medida del peso de la informacin que contienen los datos en favor de H 1 sobre H 0 . Si B es
grande, este anula cualquier preferencia a priori por H 0 . La preferencia a posteriori es H 1 .
H 0 : 1 = 2
H 1 : 1 2
Sean
1 = { x 1 , x 2 , , x n }
2 = { y 1 , y 2 , , y n }
Pr ( 1 , 2 | x ) =
Pr ( 1 , 2 ) Pr ( x | 1 , 2 )
Pr (
, 2 ) Pr ( x | 1 , 2 )
f ( 1 , 2 | x) =
f ( 1 , 2 ) f ( x | 1 , 2 )
f (
, 2 ) f ( x | 1 , 2 ) d 1 d 2
x1 , x 2 , , xn N ( , )
y 1 , y 2 , , yn N ( , )
Que son independientes, aunque realmente el valor de inters es la distribucin a posteriori de:
=
18
El problema se da en situaciones comparativas, por ejemplo, al comparar los valores de colesterol entre
nios y nias.
Combinaciones pareadas
Antes de continuar, se debera tomar precauciones contra una posible mala aplicacin del modelo. Si
m = n y cada una de las x esta de algn sentido emparejados con las y , es decir que x i e y i deben
estar definidos: w i = x i y i y entonces investigar los w como una muestra w1 , w 2 , , w n N ( , ) ,
para algn
y son conocidos;
y son desconocidos.
Cindose al primer caso, ya que esta situacin implica menor complejidad cuando las varianzas son
conocidas. Si
entonces, como se ha visto anteriormente con varias observaciones normales con una a priori normal, la
distribucin a posteriori para
ser N x ,
N y , que es independientemente de . De lo cual se deduce:
n
= Nxy , +
m n
es N
N ( 1 , 1 )
1
1 1
donde: 1 = 0 + ; y
0
x
1 = 1
+
0
m
es N
es N
= N ( 1 1 , 1 + 1 )
y las inferencias se proceden igual que antes.
19
6. Conclusiones
Los procedimientos basados en la distribucin en el muestreo son ad hoc para prcticamente cada
aplicacin o grupo de aplicaciones con los que se est trabajando. En contraposicin, los procedimientos
bayesianos siempre funcionan de la misma manera; hay que determinar una distribucin inicial que recoja la
informacin que se tenga del problema, construir la distribucin final y esta es la que recoge, en forma de
una distribucin de probabilidad, la informacin suministrada por la muestra.
Una crtica que suele hacerse a la aproximacin bayesiana es que est influenciada por la distribucin
inicial, pero es hoy perfectamente factible examinar el problema con una variedad de distribuciones iniciales,
o bien emplear distribuciones iniciales objetivas, y en todo caso se debe tener en cuenta que para tamaos
muestrales grandes la verosimilitud domina a la distribucin inicial por lo que las inferencias se ven poco
afectadas por la distribucin inicial. A cambio, los mtodos bayesianos siempre tratan la incertidumbre
mediante la probabilidad y la precisin de los mismos se mide siempre en trminos de probabilidad.
7. Bibliografa
1. Berger JO. Statistical decision theory and Bayesian analysis. Springer-Verlag: New York, 1985.
2. Bernardo JM. Intrinsic credible regions. An objetcive Bayesian approach to interval estimation. Test
2005;14(2): 317-384 (disponible en http://www.uv.es/~bernardo/2005Test.pdf)
3. Chu J. Bayesian function estimation using overcomplete dictionaries with application in genomics.
Department of Statistical Science. Duke University, 2007 (disponible en www.stat.duke.edu/people/theses/
jenhwa.html)
4. Gunn LH. Bayesian order restricted methods with biomedical applications. Institute of Statistics and
Decision Sciences. Duke University, 2004 (disponible en www.isds.duke.edu/people/theses/laura.ps).
5. House LL. Nonparametric bayesian models in expression proteomic applications. Institute of Statistic and
Decision Sciences. Duke University, 2006 (disponible en: http://www.isds.duke.edu/people/theses/
leanna.pdf)
6. OHagan A, Luce BR. A primer on bayesian statistics in health economics and outcomes Research.
MEDTAP International Inc., 2003 (disponible en http://www.shef.ac.uk/content/1/c6/07/15/10/primer.pdf).
7. Rodriguez A. Some advances in Bayesian nonparametric modelling. Institute of Statistic and Decision
Sciences. Duke University, 2007 (disponible en: http://www.stat.duke.edu/people/theses/abel.pdf).
8. Thornburg H. Introduction to bayesian statistics. CCRMA. Stanford University 2006 (disponible en
http://ccrma.stanford.edu/~jos/bayes/bayes.pdf).
9. Yupanqui Pacheco RM: Introduccin a la estadstica bayesiana. UNMSM. Facultad de Ciencias
Matemticas. EAP de Estadstica, Lima, 2005 (disponible en: http://sisbib.unmsm.edu.pe/
bibvirtualdata/Tesis/Basic/yupanqui_pr/yupanqui_pr.pdf).
10.
http://halweb.uc3m.es/esp/Personal/personas/mwiper/docencia/Spanish/Bayesian_Methods/apuntes
.html
20