Documentos de Académico
Documentos de Profesional
Documentos de Cultura
por
Jose Antonio Belinchon
Ultima
actualizacion Diciembre 2007
ii
Indice general
.
Pr
ologo
1. Muestreo aleatorio.
1.4. Ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2. Estimaci
on puntual
15
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Metodo de los momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Metodo de maxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1. Introduccion a los metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2. Estimadores puntuales bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Propiedades deseables de los estimadores. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.1. Error cuadratico medio. Estimadores insesgados. . . . . . . . . . . . . . . . . 19
2.5.2. Estimadores eficientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3. Estimadores consistentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3. Intervalos de confinaza
37
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
i
INDICE GENERAL
ii
X N (, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
55
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2. Metodo de la razon de verosimilitud. . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1. Asignacion de hipotesis en la practica. . . . . . . . . . . . . . . . . . . . . . . 59
4.2.2. Concepto de p-valor de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4. Resumen de contrastes de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1. X N (, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.2. X Bernoulli(p) (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.3. X Poisson() (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.4. Dos poblaciones Normales independientes . . . . . . . . . . . . . . . . . . . . 63
4.4.5. Comparacion de proporciones (muestras grandes e independientes) . . . . . . 65
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5. Distribuciones.
81
INDICE GENERAL
iii
5.1.3. Geometrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.1.4. Binomial negativa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.5. Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.6. Hipergeometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2. Variables continuas (v.a.c.). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.1. Uniforme en [a, b]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2. Gamma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.3. Exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.4. Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2.5. Normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2.6. Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.7. 2n . Chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.8. t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.9. F Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
iv
INDICE GENERAL
Pr
ologo
La idea fundamental de esta notas confecionadas a modo de resumen (personal) es la de tener a
mano un recordatorio de por donde iban los tiros. Solo se demuestran los teoremas fundamentales y
se acompo
na el texto con una serie de ejercios mas o menos trabajados. En modo alguno pretenden
sustituir (porque es implosible) los manuales clasicos o las notas de clase de un profesor. Es decir,
estas notas estan confeccionadas a modo de refrito entre las notas de clase y de distintos libros
clasicos como los siguientes:
1.
2.
3.
4.
Daniel Pe
na. Fundamentos de Estadstica. Alianza Editorial (2001)
5.
todo ello aderezado (como he indicado antes) con una serie de ejemplos (ejercicios donde se aplica
de forma inmediata los conceptos teoricos expuestos) desarrollados (eso espero) al final de cada
capitulillo (todos ellos muy sencillos).
Agradezco al Prof. Julian de la Horra el haberme pasado las secciones 3.4 y 4.4 de estas notas,
estas son enteramente suyas.
ADVERTENCIA: No estan concluidas y es muy posible que hayan sobrevivido numerosas erratas. Toda observacion en este sentido es bien recibida.
vi
INDICE GENERAL
Captulo 1
Muestreo aleatorio.
1.1.
La distribuci
on marginal de cada Xi viene dada por la misma distribuci
on que la caracterstica
n
i.e. (Xi )i=1 f (x) .
2.
2.
Fundamentalmente por lo tanto la funcion de masa o de densidad de una muestra aleatoria vendra dada por
Y
f (x1 , ....., xn ) =
f (xi ).
(1.1)
indpen.
i=1
Ejemplo 1.1.1 Supongamos que X es del tipo, estatura, etc... entonces es razonable pensar que
X N (, 2 ),
donde falta por conocer y 2 .
i=1
Definici
on 1.1.2 Un estadstico T es una funci
on medible de la muestra T : Rn Rn . Formalmente T es un variable o vector aleatorio. T viene a ser el resumen de la muestra.
Media muestral
1X
X=
Xi ,
n
(1.3)
i=1
2.
Varianza muestral
n
2
1 X
1
Xi X =
var(X) =
n
n
i=1
3.
n
X
(1.4)
Cuasi-varianza muestral
n
2
1
1 X
Xi X =
S2 =
n1
n1
i=1
4.
i=1
Xi2 nX
n
X
i=1
Xi2 nX
(1.5)
Estasticos de orden
donde
(1.6)
(1.7)
Proposici
on 1.1.1 Propiedades de los estadsticos. Sea (X1 , ...., Xn ) una m.a. tal que E (X) =
y var(X) = 2 , entonces:
1.
E X = ,
se observa que
E
2.
var X =
1X
Xi
n
i=1
1X
indp. 1
nE [Xi ] =
E [Xi ] =
=
n
n
i=1
2
n ,
Vemos que
var X = var
3.
1X
Xi
n
i=1
n
!
X
2
1
indp. 1
Xi
= 2 var
= 2 nvar(Xi ) =
n
n
n
i=1
E S 2 = 2.
P
Pn
on anterior, que
Sea X = n1 ni=1 Xi , o
i=1 Xi . En general tenemos, a partir de la proposici
Pn
2
E X = , var X = n , etc... pero si estamos en la distribucion de X o en la de
i=1 Xi ,
que podemos hacer?. Estudiar su funcion caracterstica. Sea (X1 , ...., Xn ) una m.a. de X con
funcion caracterstica X (t), entonces encontramos que
Y
(1.8)
Xi (t) = nX (t),
P Xi (t) =
i.d.
indpen.
mientras que
t
t
= P ni=1 Xi ( ) = nX ( ),
n
n
basandonos en las propiedades de las funciones caractersticas.
X (t) = 1 P n
n
i=1
Xi (t)
(1.9)
X (t) = eit 2 t
Teorema 1.1.1 Consideramos una muestra aleatoria (X1 , ...., Xn ) , de X continua con una funci
on
de densidad f y una funci
on de distribuci
on F, entonces:
fX(j) =
n!
[F (x)]j1 f (x) [1 F (x)]nj .
(j 1)! (n j)!
(1.10)
1.2.
Inferencia param
etrica.
Sea (X1 , ...., Xn ) una m.a. de X f (X). Empezaremos repasando algunas de las propiedades
fundamentales sobre las principales distribuciones que se emplearan mas adelante y que se derivan
de la normal.
Definici
on 1.2.1 2n . Distribuci
on Chi-cuadrado con n-grados de libertad. Consideramos (X1 , ...., Xn )
v.a.i.i.d. que siguen una N (0, 1). Definimos
2n =
n
X
Xi2 .
(1.13)
i=1
Definici
on 1.2.2 t-Student, con n-grados de libertad, tn .
Considermos X N (0, 1) e Y 2n de tal forma que (X, Y ) son independientes, definimos
X
N (0, 1)
tn = q = p
Y
2n /n
n
(1.14)
n N (, 2 ),
X
n
2.
3.
(n 1) Sn2
=
2
(Xi )2
2n1 ,
2
(1.16)
1.3.
Estadsticos suficientes.
Empezaremos con una idea intuitiva. Como siempre consideramos (X1 , ...., Xn ) una m.a. de X
f (X). La muestra aleatoria (X1 , ...., Xn ) quedara reducida a un determinado estadstico T , que
pasaremos a denominar estadstico suficiente. Cuanta informacion perdemos al resumir la m.a. en
T ?. Llegamos a la conclusion de que si T es suficiente entoncesno hay perdida de informacion.
Definici
on 1.3.1 Estadstico suficiente. Sea (X1 , ...., Xn ) una m.a. de X f (X), Un estadstico
T es suficiente para si (X1 , ...., Xn | T = t) no depende de .
Esta definicion no ayuda demasiado a encontrar un estadstico ademas el calculo de las distribuciones condicionadas puede resultar algo pesado, por eso consideramos el siguiente teorema
Teorema 1.3.1 de Factorizaci
on. Consideramos (X1 , ...., Xn ) una m.a. de X f (X), entonces
T ser
a estadstico suficiente para sii f (x1 , ..., xn ) puede factorizarse de la siguiente forma:
f (x1 , ..., xn ) = g (t, ) h (x1 , ..., xn ) ,
donde t = T (x1 , ..., xn ) .
(1.17)
6
Ejemplo 1.3.1 Sea
(log ) x
I
(x) ,
> 1,
1 (0,1)
entonces un estadstico sufiente puede ser
n
n
n
Y
Y
(log ) n P xi Y
(log ) xi
I(0,1) (xi ) =
I(0,1) (xi )
f (xi ) =
1
1
f =
i=1
i=1
i=1
por lo tanto
T =
xi
ser
a un estadstico suficiente en virtud del teorema de factorizaci
on.
Ejemplo 1.3.2 Si
2x
I(0,) (x) ,
> 0,
2
entonces un estadstico sufiente puede ser
!
n
Y
T =
xi , X(n)
f =
i=1
i=1
i=1
i=1
i=1
n Y
n
2
=
(xi ) I(X(n) ,) () ,
2
i=1
por lo tanto
ser
a un estadstico suficiente y T =
n
Y
i=1
1.4.
T = X(n)
!
xi , X(n)
tambien.
Ejercicios.
Ejercicio 1.4.1
1.4. EJERCICIOS.
Soluci
on. Con respecto al primer apartado, vemos que las (Xi )ni=1 son v.a.i.d. pero no independientes. Lo usual es trabajar con v.a.i.i.d. Por lo tanto vemos que
P (X1 = x) =
P (X2 = x)
y por lo tanto
prob.total
1
,
N
P (X1 = y) P (X2 = x | X1 = y)
y6=x
P (X1 = y) P (X2 = x | X1 = y) =
X 1
1
1
1
1
1
0+
= (N 1)
=
N
N N 1
N N 1
N
1 1
N N
por lo que no son independientes. Es grave esta perdida?,es importante?.
P (X1 = x) P2 (X2 = x) =
Sea (X1 , ...., X10 ) una muestra sin reemplazamiento de la poblacion finita:
{1, 2, ......, 1000}
queremos calcular
P (todas las observaciones sean > 200)
para ello definimos la v.a.
Y := n
umero de observaciones mayores que 200 entre las 10.
Calculo exacto: al no ser independientes los sucesos entonces las nBernoullis no forman una
Binomial sino una hipergeometrica
200
800
0
10
P (Y = 10) =
0,10616,
1000
10
mientras que el calculo aproximado lo haremos considerando que los sucesos son independientes y
por lo tanto siguen un Binomial Bin (n, p) , donde la probabilidad de exito vendra dada por
800
p = P Exito
=
= 0,8
1000
10
P (Y = 10) = Bin (10, 0,8) =
(0,8)n (0,2)0 = (0,8)n 0,107,
10
por lo que la moraleja del ejercio es que no hay mucha perdida de informacion al considerar la
independencia.
Ejercicio 1.4.2 Supongamos que (X1 , ...., Xn+1 ) es una muestra aleatoria de una poblaci
on X con
2
E[X] = , y V (X) = , sea
n
X
n = 1
Xi .
X
n
i=1
n
n .
Xn+1 X
T =
n+1
Soluci
on. Vemos que
r
n
n
E [T ] = E
Xn+1 X
=0
n+1
r
r
n
n
n = 0,
=
E Xn+1 Xn =
E (Xn+1 ) E X
n+1
n+1
n = , mientras que
ya que E (Xn+1 ) = E X
n
n
n
n
Xn+1 X
=
var Xn+1 X
var [T ] = var
n+1
n+1
n
n
n 2cov Xn+1 , X
=
var (Xn+1 ) + var X
n+1
ya que no se de antemano si se tratade dos v.a. independientes, pero vemos que
n,
(X1 , ...., Xn+1 ) X
Xn+1 Xn+1 ,
var (Xn+1 ) = 2 ,
2
n =
var X
n
var [T ] =
n
n+1
2
2 +
= 2,
n
1.4. EJERCICIOS.
Ejercicio 1.4.3 Sea (X1 , ...., Xn ) una muestra aleatoria de una N (0, 1). Probar:
1.
2.
Pn
n
1
2
2
i=1 Xi Gamma a = 2 ; p = 2 , que es la n .
Soluci
on. Con respecto al primer apartado vemos que:
1
1
2
X1 Gamma a = ; p =
2
2
donde
2
x
1
exp 1
X1 N (0, 1)
=
fX1 =
2
2
1
|J| =
2 y
por lo que
y
1
fY = exp
y 1/2 ,
2
2
ap
exp (ax) xp1 ,
(p)
1 .
2
Xi2
1
n
Gamma a = , p =
2
2
operamos de forma parecida. Teniendo en cuenta las funciones caractersticas etc... vemos que al
ser independientes
n
X
Y
Xi2 =
X 2
i
i=1
Y
Y
1
it 2
n
it p
P
Gamma a = , p =
= 1
ni=1 X 2 =
X 2 =
1
i
i
a
1/2
2
2
donde la funcion caracterstica de la funcion Gamma es:
it p
(a,p) = 1
a
tal y como queramos hacer ver.
10
Ejercicio 1.4.4 Sea (X1 , ...., Xn ) una muestra aleatoria de una poblaci
on U (0, 1). Hallar la esperanza y la varianza de X(j) .
Soluci
on. En primer lugar recordemos que
fX(j) =
n!
[F (x)]j1 f (x) [1 F (x)]nj .
(j 1)! (n j)!
1
xp1 (1 x)q1 I(0,1) (x),
B (p, q)
p
,
p+q
var(X) =
pq
(p + q) (p + q + 1)
2
De esta forma vemos que necesitamos conocer la F (x) y la f (x) de la distribucion uniforme siendo
estas:
Z x
1dx = x,
x (0, 1) ,
f = 1,
F =
por lo que
fX(j)
=
=
n!
[F (x)]j1 f (x) [1 F (x)]nj =
(j 1)! (n j)!
n!
[x]j1 1 [1 x]nj Beta (p, q)
(j 1)! (n j)!
xfX(j) =
E X(j) =
var X(j) =
j
p
=
,
p+q
n+1
j (n j + 1)
pq
=
,
2
(p + q) (p + q + 1)
(n + 1)2 (n + 2)
< + 5 = 0,0954.
P 5<X
1.4. EJERCICIOS.
11
Soluci
on. Vemos que
N
X
100
10
,
= N ,
,
n
n
por lo que
donde
<+5 =P
P 5<X
Z=
5
10
<
X
10
<
+5
10
X
X
N (0, 1) ,
=
10/ n
1 0,0954
n
=
= 0,0230,
P Z>
2
2
por lo que
2...
mirar tablas
2
n 16,
Ejercicio 1.4.6 Sean (X1 , ...., X25 ) e (Y1 , ...., Y25 ) dos muestras aleatorias de dos distribuciones
> Y .
independientes N ( = 0, 2 = 16) y N ( = 1, 2 = 9) respectivamente. Calcular P X
Soluci
on. Vemos que
N ( = 0, 2 = 16),
(X1 , ...., X25 ) X
(Y1 , ...., Y25 ) Y N ( = 1, 2 = 9),
> Y = P X
Y > 0 = P (Z > 1) = 0,1587
P X
ESTAD
ISTICOS SUFICIENTES
Ejercicio 1.4.7 Encontrar un estadstico suficiente en cada uno de los siguientes casos basado en
una muestra aleatoria de tama
no n de:
12
1.
X Beta(, ).
2.
X Gamma(p, a).
3.
f (x) =
ex+ x (, ) ,
0
resto,
4.
f, =
x 2
exp
1
2
log (x ) ,
2 2
con x > 0.
Soluci
on. En todos los casos se trata de una aplicacion sistematica del teorema de factorizacion.
1. X Beta(, )
= (, )
1
x1 (1 x)1 ,
f =
B(, )
por lo que
f (x1 , ...., xn ) =
f (xi ) =
1
B(, )
n Y
x1
(1 xi )1 ,
i
de esta forma
f (x1 , ...., xn ) = K
x1
i
T =
(1 xi )1
X
X
log xi ,
log (1 xi )
T =
log
xi = e
xi
=e
log xi
luego reescribiendo adecuadamente todas estas transformaciones biyectivas obtenemos lo mismo, la moraleja esta en que dado cualquier estadstico suficiente (e.s.), entonces cualquier
transformacion biyectiva nos da otro e.s..
1.4. EJERCICIOS.
13
f(a,p) =
ap
exp (ax) xp1
(p)
f (xi ) =
ap
(p)
n Y
exp (axi )
xp1
i
Observaci
on 1.4.1 En realidad se han omitido los detalles m
as sangrientos, ya que hasta
que se llega al estadstico T , la verdad, hay que hacer unas cuantas cuentas:
Y
X
exp (axi ) = exp na
xi ,
Y
Y p1
=
.... . f (n, p)
xi
xi
manipular
h(xi ) = e
xi
de esta forma
T = n
sera el estadstico suficiente. NO. Hemos operado mal intencionadamente. Aqu hay que tener
muy en cuenta que x > , por lo que empezamos reescribiendo la f como
f = ex+ I(,) (x)
y volvemos a rehacer el ejercicio con esta nueva consideracion
P
Y
Y
Y
f (x1 , ...., xn ) =
f (xi ) =
exi + I(,) (xi ) = en
I(,) (xi )e xi
donde
h(xi ) = e
xi
Y
observar que
I(,) (xi ) = I(,) (X(1) ), donde X(1) = mn (x1 , ...., xn ) por lo que podemos
definir el e.s. T como
T = X(1) ,
sorprendente, no?.
14
4.
En este caso
1
2
log
(x
)
2 2
x 2
i.e. el modelo log-normal. En este caso el estadstico sufiente sera
X
X
log xi ,
log x2i .
T =
f, =
exp
Para llegar a esta conclusion podemos considerar (X1 , ...., Xn ) m.a. de X una N (, 2 ), por
lo que
X X
xi ,
x2i
T =
S 2 es un e.s.
sera un e.s. para este caso, aplicando el teorema de Fisher, entonces T = X,
(falta probarlo).
Ejercicio 1.4.8 Sea (X1 , ...., Xn ) una muestra aleatoria de X U (0, ), ( > 0). Estudiar la
suficiencia de T = X(n)
Soluci
on. Vemos que
1
1
=
f (x1 , ...., xn ) = I(0,) (xi )I(,) (xi )
fU = ,
obteniendo as T
T = X(n)
sera el estadstico suficiente. Lo principal del problema esta en ver
1
f (x1 , ...., xn ) = I(0,) (xi )I(,) (xi ),
Captulo 2
Estimaci
on puntual
2.1.
Introducci
on
Sea (Xi )ni=1 una muestra aleatoria (m.a.) donde X f (x), , el parametro es lo que
queremos estimar. El objetivo es por lo tanto intentar decir algo sensato sobre a partir de los
datos que tenemos i.e. de la m.a. (Xi )ni=1 . Para ello podemos seguir tacticas:
1.
2.
3.
Contraste de hipotesis.
Los objetivos de la estimacion puntual son los siguientes: Estimar el parametro (o ()) mediante
un u
nico valor (un punto) a apartir de la muestra (Xi )ni=1 .
Definici
on 2.1.1 Sea (Xi )ni=1 m.a. donde X f (x), , un estimador puntual para es
simplemente un estadstico T = T (x1 , ..., xn ) cuyo objetivo es estimar lo mejor posible (
o ()).
Los metodos de construccion son los siguientes:
1.
2.
3.
Metodos bayesianos.
PUNTUAL
CAPITULO 2. ESTIMACION
16
2.2.
M
etodo de los momentos
Definici
on 2.2.1 Sea (Xi )ni=1 m.a. donde X f (x), , un estimador puntual para por el
metodo de los momentos (MM) y denotado por , es el valor que se obtiene al resolver el siguiente
sistema de ecuaciones:
1X
Xi ,
n
..
.
h i
1X k
E X k =
Xi ,
n
E [X] =
(2.1)
Ejemplo 2.2.1 Sea (Xi )ni=1 m.a. donde X f (x), , donde X Bernoulli(p), lo que
queremos estimar es p as que
1X
Ep [X] =
Xi ,
n
por lo tanto
1X
p =
xi .
n
Ver la secci
on de ejercicios para aclarar este metodo con ejemplos m
as complicados.
2.3.
M
etodo de m
axima verosimilitud
Definici
on 2.3.1 Sea (Xi )ni=1 m.a. donde X f (x), . Definimos para cada muestra fija
n
on de verosimilitud L () = probabilidad o densidad que los diferentes valores de
(Xi )i=1 la funci
n
Y
dan a (Xi )ni=1 = f (xi )ni=1 =
f (xi ). Por lo tanto
i=1
L () =
n
Y
f (xi ).
i=1
El estimador de m
axima verosimilitud es el valor del par
ametro que maximiza L () .
Observaci
on 2.3.1 En la mayora de los casos para la obtenci
on de se maximiza la funci
on
log L() en vez de L()
2.4. METODOS
BAYESIANOS.
17
Ejemplo 2.3.1 Se trata del mismo ejemplo que el del MM i.e. sea (Xi )ni=1 m.a. donde X f (x),
, donde X Bernoulli(p), i.e.
X Bernoulli(p) = px (1 p)1x ,
lo que queremos estimar es p as que
indp.
n
Y
Pp (xi ) = p
i=1
xi
(1 p)n
xi
tomamos logaritmos
log (L(p)) =
y pasamos a calcular el m
aximo i.e.
despejamos p, encontr
andose que
X
xi log (p) + n
xi log (1 p)
p log (L(p)) = 0
1
X
1
xi n
xi
= 0
p
1p
p =
1X
xi .
n
Vemos que en tos ejemplos hemos obtenido que p = p, pero esto no siempre pasa.
2.4.
M
etodos bayesianos.
2.4.1.
Introducci
on a los m
etodos bayesianos.
Sea (Xi )ni=1 m.a. donde X f (x), . En primer lugar advertir que en este caso cambia la
notacion y se emplea
f (x) = f (x | ) ,
(2.2)
considerando a como una v.a.
1.
n
Y
i=1
f (xi | ).
(2.3)
2.
3.
(2.4)
PUNTUAL
CAPITULO 2. ESTIMACION
18
4.
Obtenemos la densidad o funcion de masa de condicionada por (Xi )ni=1 , densidad a posteriori,
f (x1 , ..., xn | ) ()
( | x1 , ..., xn ) = R
f (xi | ) () .
(2.5)
f (x1 , ..., xn | ) d
esta expresion no es mas que la expresion de Bayes para el caculo de la probabilidad condicionada.
Los metodos bayesianos obtienen todas sus conclusiones sobre a partir de ( | xi ) (densidad
condicionada) que recibe el nombre de densidad a posteriori.
El problema en la practica esta en la eleccion de () . A menudo se utilizan familias conjungadas
de densidades a priori facilitandose as los calculos.
Definici
on 2.4.1 Familia conjungada. Sea (Xi )ni=1 m.a. donde X f (x | ) , . Una
familia P = { ()} de densidades a priori es conjungada para muestras de X f (x | ) cuando
() P, entonces
( | x1 , ..., xn ) f (xi | ) () P.
(2.6)
La idea en la practica es que cualquier tecnica estadsitica basada en metodos bayesianos obtendra conclusiones a partir de ( | xi ) .
2.4.2.
Un estimador puntual bayesiano sera una medida de centralizacion de la densidad a posteriori. Los
mas habituales son:
1.
Media a posteriori
2.
Mediana a posteriori
Z
( | x1 , ..., xn ) d,
(2.7)
1
( | x1 , ..., xn ) d = .
2
(2.8)
1 P (E) =
X=
0 P (F ) = 1
por lo que X Bernoulli(), tal que (0, 1) , as que sabemos que X f (x | ) = x (1 )1x .
Consideramos la siguiente densidad a priori
() Beta (p = a, q = b)
19
f (x1 , ..., xn | ) =
f (xi | ) =
i=1
a1
() =
xi
(1 )n
xi
(1 )b1
B(a, b)
entonces
( | x1 , ..., xn ) f (xi | ) ()
!
P
P a1 (1 )b1
n xi
xi
(1 )
B(a, b)
a+
xi 1
(1 )n+b
xi 1
Beta (p, q)
as llegamos a la conclusi
on de que
p=a+
xi ,
q =n+b
xi .
Beta (p, q) d
0
pero para hecharse esta cuenta uno debe considerar las constantes que hemos ido despreciando. Lo
mejor en estos casos es fijarse en los resultados ya conocidos, por lo que
P
p
a + xi
E [Beta (p, q)] =
=
.
p+q
a+b+n
Vemos que la densidad a priori era una Beta y que la densidad a posteriori ha salido otra Beta i.e.
hemos tomado una familia conjugada
P = {Beta (p, q) , p, q > 0}
si p = q = 1 = Beta (1, 1) U ([0, 1]) , la uniforme sera el caso en el que no tenemos ni idea
sobre . Si P (E) = = 12 (o se aproxima mucho a este valor) entonces tomamos p, q tales que 1/2
sea el m
aximo para la funci
on Beta (p, q) .
2.5.
2.5.1.
Error cuadr
atico medio. Estimadores insesgados.
Definici
on 2.5.1 El error cuadr
atico medio de un estimador T para estimar () es:
h
i Z
ECM = E (T ())2 = f (xi ) (T ())2 dxn .
(2.9)
PUNTUAL
CAPITULO 2. ESTIMACION
20
(2.10)
sesgo := E [T ] () .
(2.11)
Definici
on 2.5.2 Un estimaodor es insesgado o centrado para estimar una funci
on del par
ametro
si E [T ] = () , i.e. el sesgo, (E [T ] () = 0) es cero i.e.
h
i
ECM = E (T ())2 = var (T ) + (E [T ] ())2 = var (T ) .
(2.12)
2.
3.
1 P
2
xi X
recordar que S 2 = n1
Teorema 2.5.1 Cota de Frechet-Cramer-Rao. Sea (Xi )ni=1 m.a. donde X f (x), .
para cualquier estimador T insesgado para () se verifica:
2
2
var (T )
d ()
d
Lema 2.5.1
E
"
d
d
d ()
d
h
2 i =
2 i .
d
nE d
log f (x1 , ..., xn )
log f (x)
2
2 #
d
d
log f (x)
= nE
log f (x)
d
d2
por lo tanto
var (T )
nE
d ()
d
d2
d2
i
log f (x)
(2.13)
(2.14)
(2.15)
2.5.2.
21
Estimadores eficientes.
Definici
on 2.5.3 Un estimador T es eficiente para estimar un par
ametro () si:
1.
Es insesgado,
2.
(2.16)
Obtenci
on de un estimador eficiente.
Si T es eficiente su varianza alcanza la cota de FCR por lo que
d
2
log f (xi ) = 1,
T,
d
el coeficiente de correlacion vale uno, de este modo casi seguro
y y =
cov(x, y)
(x x
)
var(x)
d
log f (xi )) d
cov(T, d
d
log f (xi ) E
log f (xi )
T E [T ] =
d
d
d
log f (xi ))
var( d
d
T =+
(log f ) ,
IF
observandose que
d
d
d
var(
d
cov(T,
E [T ] = () ,
d ()
log f (xi )) =
= () ,
d
d2
log f (x) ,
log f (xi )) = nE
d2
PUNTUAL
CAPITULO 2. ESTIMACION
22
2.5.3.
Estimadores consistentes.
Sea (Xi )ni=1 m.a. donde X f (x), . Queremos estimar (), Buscamos estimadores que se
aproximen todo lo posible a lo que queremos estimar a medida que el n
umero de observaciones n
crece i.e. T (Xi ) () i.e. hay convergencia en distribucion (en Ley). Buscamos estimadores que
L
Definici
on 2.5.5 Decimos que un estimador Tn es consistente para estimar () si el estimador
converge en probabilidad a () i.e.
P
Tn () .
(2.18)
1.
0 y < ()
L
(2.19)
FTn F (y) =
1 y ()
P
(2.20)
1.
2.
lmn E [Tn ] = () ,
2.6. EJERCICIOS
2.6.
23
Ejercicios
X P oisson(),
2.
X Exponencial(),
3.
X N (, 2 ), conocido,
4.
X N (, 2 ), conocido,
5.
X N (, 2 ).
Soluci
on. Siguiendo el mismo esquema que el propuesto en los ejemplos de teora vemos que:
1. X P oisson(), Veremos los dos metodos
MM Sabemos que X P oisson(), = E [X] =
E [X] = =
1X
xi
n
i=1
por lo que
X
= 1
xi .
n
i=1
!
Pn
en i=1 xi
=
log (L()) = log
(x1 !) ... (xn !)
!
n
n
X
X
log ((xi )!)
= n +
xi log
i=1
i=1
y por lo tanto
log (L()) = 0,
!
n
X
1
= 0
n +
xi
i=1
X
= 1
xi
n
i=1
PUNTUAL
CAPITULO 2. ESTIMACION
24
2. X Exponencial(), por lo que
f (x) = ex ,
E [X] = 1 =
1X
xi
n
i=1
por lo que
= Pnn
i=1 xi
Pn
i=1 xi
y por lo tanto
n
log (L()) = +
= n log
n
X
i=1
i=1 xi
xi
n
X
xi
i=1
=0
3. X N (, 2 ), conocido,
MM Sabemos que X N (, 2 ), = E [X] =
n
E [X] = =
1X
xi ,
n
i=1
1X
xi
n
i=1
f (xi ) =
n
1 X
(xi )2
n exp 2
2
2
i=1
!!
n
1 X
2
log (L()) = log
=
(xi )
n exp 2
2
2
n
i=1
!
n
1 X
2
= n log n log
2
(xi )
2 2
i=1
2.6. EJERCICIOS
25
y por lo tanto
n
1 X
log (L()) = 2
xi n = 0
i=1
1X
xi .
=
n
i=1
E [X] = =
1X
xi
n
i=1
no sirve en este caso pues este dato es conocido, por lo que tendremos que recurrir al
momento de orden 2 i.e.
n
1X
E X2 =
x2i
n
i=1
de donde se obtiene que (recordar la definicion de varianza, var(X) = E X 2 E [X]2 )
n
2 + 2 =
1X 2
xi
n
i=1
despejando
1X 2
xi 2
=
n
2
i=1
pero este resultado nos lleva a obtener un absurdo pues puede ser negativa esta magnitud
! Por ejemplo tomando = 3, xi = (1, 2, 4).
MMV Tomamos como funcion de verosimilitud
L() =
f (xi ) =
n
1 X
(xi )2
n exp 2
2
2
i=1
n
1 X
(xi )2
2 2
i=1
n
n
1 X
log (L()) = + 3
(xi )2 = 0,
i=1
PUNTUAL
CAPITULO 2. ESTIMACION
26
despejando se llega con facilidad a:
n
2 =
1X
(xi )2 .
n
i=1
1X
xi ,
E [X] = =
n
1X
=
xi ,
n
i=1
i=1
n
1X 2
E X 2 = 2 + 2 =
xi
n
2 =
i=1
1X
(xi )2 .
n
i=1
f (xi ) =
n
1 X
(xi )2
n exp 2
2
2
i=1
n
1 X
(xi )2
2 2
i=1
y por lo tanto
log (L(, )) =
n
1 X
xi n = 0,
2
i=1
n
n
1 X
log (L(, )) = + 3
(xi )2 = 0,
i=1
1X
xi ,
n
i=1
2 =
1X
(xi )2 .
n
i=1
Ejercicio 2.6.2 Para cada uno de los siguientes casos encontrar la familia conjugada natural y
hallar la distribuci
on a posteriori.
2.6. EJERCICIOS
27
1.
2.
3.
Soluci
on. Seguimos el guion expuesto en el ejemplo de la teora
1.
e x
, x = 0, 1
x!
P (xi | ) en
xi
P (x | ) es el n
ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)}
recordamos que
f
ap ax p1
e x
(p)
por lo que
()
a a p1
e
()
as que
( | x1 , ..., xn ) P (xi | ) () en
xi
P
a a p1
e
e(n+a) p+ xi 1
()
X
( | x1 , ..., xn ) Gamma p = +
xi , a = + n .
x 11
e x
= ex ,
(1)
x>0
P (xi | ) n e
xi
PUNTUAL
CAPITULO 2. ESTIMACION
28
P (x | ) es el n
ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)} ,
recordamos que
f
ap ax p1
e x ,
(p)
por lo que
()
a a p1
e ,
()
as que
( | x1 , ..., xn ) f (xi | ) () n e
para > 0. por lo tanto
xi
X
( | x1 , ..., xn ) Gamma p = +
xi , a = + n .
2x
I(0,) (x) ,
2
> 0,
2x
I(0,) (x) ,
2
> 0,
y suponemos que
() = U [0, 1] = 1,
(0, 1) ,
entonces:
2x
2x
21= 2,
(0, 1) ,
2x
f (xi | ) ()
x
2
,
( | xi ) R 1
= R 1 2x
= 2
(1 x)
x f (xi | ) d
x 2 d
Para calcular la media a posteriori vemos que
1
=
2
( | xi ) d =
x
d
(1 x)
2
(x, 1) .
2.6. EJERCICIOS
29
por lo que
M=
2x
,
1+x
Ejercicio 2.6.4 Encontrar la cota de FCR y el estimador eficiente (si existe) en los siguientes
casos:
1.
m.a. de
f (x) =
para estimar
2.
m.a. de
x
1
exp
,
f (x) = (1 )x ,
> 0,
x > 0,
x = 0, 1..,
(0, 1) ,
para estimar
3.
m.a. de
x2
1
f (x) = exp 2 ,
2
2
d 2
h d2
d log f (x)
d2
d
d
i,
d log f (xi )
,
I.F isher
d
I.F. = nE
T =+
d2 log f (x)
d2
(log f ) ,
IF
as que:
1.
En este caso
x
1
exp
,
> 0,
x > 0,
x
1
x
log f (x) = log
exp
= log ,
f (x) =
1
x
log f (x) = + 2 ,
1
2x
22 log f (x) =
2 3,
PUNTUAL
CAPITULO 2. ESTIMACION
30
1
1
2x
2
1
2
1
E 2 3 = 2 3 E [x] = 2 3 = 2
ya que
E [X] =
ademas podemos observar que
x
1
x exp
dx =
E [X] =
p
=
a
d 2
h d2
d log f (x)
d2
i=
1
2
= .
n
n 12
P
1
xi
f (xi ) = n exp
P
P
1
xi
xi
exp
=
n
log
y por lo tanto
P
P
xi
xi
n
n
(log (f (xi ))) =
= + 2
2.
d
d
d log f (xi )
=
I.F isher
d P
P P
xi
2
1
n
xi
xi
n
=+
=
= +
+ 2
.
+ 2
1
n 2
= +
1
,
por lo que
F CR =
sin embargo
T =
2 (1 )
n
x = 0, 1..,
I.F. =
(0, 1) ,
n
(1 )
2
2 (1 )
n
d log f (xi )
d
= 2 2 2
xi
2.6. EJERCICIOS
31
P
log (f (xi )) = log n (1 ) xi .
P
d log f (xi )
xi
n
=
,
d
(1 )
3.
En este caso
1
x2
f (x) = exp 2 N 0, 2 ,
2
2
d 2
hd2
d log f (x)
d 2
i=
1
nE
1
2
3x2
4
i=
1
n2
3n
E
4
[X 2 ]
observandose que: var(X) = E X 2 E2 [X]
E X 2 = var(X) + E2 [X] = var(X) = 2
ya que X N 0, 2 , as que
2
F CR =
.
2n
El estimador eficiente:
d
2 d log f (xi )
d log f (xi )
d
=+
T =+
I.F isher
d
2n
d
donde
d log f (xi )
d
d
log
=
d
entonces
P 2
P 2 !
xi
1
n
xi
= +
n exp
2
3
2
2
T =+
2n
P 2
n
xi
+
3
d 2
hd2
d log f (x)
d 2
luego T =
x2i
n
i=
4 2
n2 +
d
d
3n
2
2 4
.
n
d log f (xi )
=
I.F isher
d P
P
2
x2i
x2i
n
=
= 2 + 2n +
3
n
2
= +
PUNTUAL
CAPITULO 2. ESTIMACION
32
Tal y comoqueramos hacer ver.
on tipo Poisson .
Ejercicio 2.6.5 Sea (Xi )ni=1 m.a. de una distribuci
1.
2.
Soluci
on. De forma inmediata vemos que
F CR =
nE
d 2
hd2
d log f (x)
d2
i=
nE
e2
h 2
d log f (x)
d2
i=
e2
n
E [T ] = e
por lo tanto
h
X i Y
e = E [T ] = E exp c
Xi =
E [exp (cxi )] = (E [exp (cxi )])n
= (exp ( (1 ec )))n = exp (n (1 ec ))
despejando se obtiene
1
.
c = log 1
n
veamos un paso delicado de la anterior cadenas de igualdades:
E [exp (cx)] =
cx
P (X = x) =
X
x=0
x
cx e
x!
=e
x
X
(ec )
x=0
x!
= e ee .
2.
3.
Hallar el estimador de m
axima verosimilitud para .
2.6. EJERCICIOS
33
Soluci
on. En este caso vemos que
Z
E [T ] = E X(n) =
tfX(n) (t)dt
para calcular fX(n) (t) puedo mirar la funcion de densidad del maximo:
FX(n) (t) =
t < 0,
t (0, ) ,
t > ,
tn
n
vemos que
FX(n) (t) =
0
1
as
fX(n) =
n1
n t n
0
1
dx
tn
n
t (0, )
resto
de esta forma
E [T ] = E X(n) =
n Z
f dx
=
tfX(n) (t)dt =
n
tn
dt =
n
n+1
x (0, ) ,
f (xi ) =
1
,
n
log L () =
n
=0
= ,
PUNTUAL
CAPITULO 2. ESTIMACION
34
Ejercicio 2.6.7 Sea (Xi )ni=1 m.a. de la densidad
f (x) = exp (x) ,
x 0, > 0.
Encontrar el estimador de m
axima versimilitud de . Es consistente para ?.
Soluci
on. En este caso f (x) es una exponencial (ver primer ejercicio), ademas el rango no
P
depende del parametro. = Pnxi , Es consistente para ? .i.e. .?? Para verlo tendremos
h i
h i
n
n
que comprobar si E , y var 0.
Por lo tanto:
Z
hni Z n
h i
n n y n1
n
f (y) dy =
e y
dy =
=
=E
E = E P
Y
y
y (n)
xi
0
0
Z
n (n 1)
n
n
ey y n2 dy = n
= n
=
(n) 0
(n) n1
n1
por lo tanto
h i
hni
n
E = E
,
=
Y
n1
h i
n
E
P
en estos calculos hemos empleado los siguientes trucos: Y =
xi Gamma(p = n, a = ). las
exponenciales son casos particulares de una Gamma y la suma de Gammas es otra Gamma. Si X
Gamma(p, a) entonces:
Z
ap ax p1
(p)
f (x) =
e x ,
eax xp1 dx = p ,
(p) = (p 1) (p 1) .
(p)
a
0
Mientras que
h i
n
1
2
P
= n2 E Y 2 E 2 Y 1 =
var = var
= n var
Y
xi
Z
n
1
2
2
2
2
y n1
= n2
=
n
e
y
dy
y 2 (n)
(n 1) (n 2) (n 1)2
(n 1)2
0
h i
n
de esta forma var 0, as que es consistente.
Ejercicio 2.6.8 Sea (Xi )ni=1 m.a. de una distribuci
on tipo uniforme U (0, ) , (0, ) . Demostrar que X(n) es consistente para . Es Yn = 2X n consistente para ?
Soluci
on. Seguimos los mismos que en ejercicios anteriores viendo que
0 t < 0,
tn
FX(n) (t) =
t (0, ) ,
n
1 t > ,
2.6. EJERCICIOS
35
observamos que
FX(n) (t) =
comprobando que
L
0 t<0
1 t
n
E [Yn ] = E 2X n = 2E X n = 2E [X] = 2 = ,
2
var(X)
4 2
2 n
var(Yn ) = var(2X n ) = 4var(X n ) = 4
=
=
0,
n
n 12
3n
por lo que es consistente para . Sin embargo tiene una peque
na pega pues si tomamos X U (0, 10)
= 6, entonces Yn = 2X n = 12, por lo que a veces sobre-estima.
supongamos que X
x = 1, 2, ..., (0, 1)
1.
Estudiar si T =
2.
3.
Obtener el estiamdor de m
axima verosimilitud de .
4.
5.
6.
Soluci
on. De forma telegrafica vemos que
1.
2.
P
Y
(1 )xi 1 = n (1 ) xi n
P
por lo tanto T =
Xi , es un estadstico suficiente para
Sabemos que al tratarse de un geometrica
E [X] =
y por lo tanto
1
1
=
p
= Pn ,
xi
PUNTUAL
CAPITULO 2. ESTIMACION
36
3.
Vemos que
as que tomando logaritmos
P
L () = n (1 ) xi n
log L = n log +
calculamos el maximo, encontrando
xi n log (1 )
P
n ( xi n)
=0
(1 )
de esta forma llegamos a:
4.
= Pn ,
xi
X
( | xi ) Beta p = n + 1, q =
xi n + 1
E [X] =
5.
p
n+1
=P
p+q
xi + 2
T =
xi
n
1
x (1 )x1 = .
Captulo 3
Intervalos de confinaza
3.1.
Introducci
on
Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Como siempre queremos estimar .
Definici
on 3.1.1 Un estimador por intervalos de confienza para estimar i es una funci
on que a
n
cada muestra (Xi )i=1 le asigna un intervalo
(L, U ) = (L (xi )ni=1 , U (xi )ni=1 ) .
Definici
on 3.1.2 El nivel de confianza de un intervalo (L, U ) es 1 cuando
P { (L, U )} = P {(xi )ni=1 : L < < U } = 1 .
Consideramos los siguientes metodos de construccion
1.
Metodo clasico (cantidad pivotal), intervalos de confianza mas frecuentes en las aplicaciones.
2.
Metodos bayasianos.
3.2.
M
etodo de la cantidad pivotal.
Definici
on 3.2.1 Una cantidad pivotal para estimar i es una funci
on
T ((xi )ni=1 : i )
cuya distribuci
on no depende de i .
La idea es la de obtener una cantidad pivotal T para i , que sea una funcion continua y monotona
de i . Queremos hallar ( (1 ) , (2 )) tales que
P {(xi )ni=1 : (1 ) < T < (2 )} = 1 .
37
38
3.2.1.
1.
2
N , 0 y tipificando i.e.
Consideramos X
n
X
N (0, 1)
0/ n
nos preguntamos si
T =
0/ n
es una cantidad pivotal para estimar . Ademas, para una muestra fija es T continua y
monotona?. Ambas respuestas son afirmativas.
P {(xi )ni=1 : (1 ) < T < (2 )} = 1 ,
X
n
< (2 ) = 1 ,
P (xi )i=1 : (1 ) <
0/ n
vemos que T N (0, 1) entonces por simetra la u
ltima ecuacion la podemos reescribir como
Z/2 < T,
T < Z/2 ,
0
Z/2
>X
,
n
= (L, U ) = X Z/2
.
n
Vemos de esta forma que al aumentar n la longitud del intervalo decrece (i.e. la estimacion es
mas precisa). De igual forma se observa que al aumentar el NC 1 entonces Z/2 aumenta
i.e. la longitud del intervalo aumenta y por lo tanto la estimacion es menos precisa).
3.2. METODO
DE LA CANTIDAD PIVOTAL.
2.
39
2
N , 0 y
(NC) 1 . Podemos intentar seguir la tactica anterior i.e. consideramos X
n
tipificando i.e.
X
N (0, 1) ,
/ n
y nos preguntamos si
T =
/ n
es una cantidad pivotal para estimar . Ademas, para una muestra fija es T continua y
monotona?. En esta caso no, ya que T depende de un parametro desconocido, , por lo tanto
no puede ser cantidad pivotal.
En este caso deberemos apelar al teorema de Fisher (recordar el primer captulillo) viendo
que
(n 1) S 2
X
N (0, 1) ,
2n1
2
/ n
por lo tanto
/ n
X
q
tn1
=
=q
S/ n
(n1)S 2
2n1 / (n 1)
/
(n
1)
2
N (0, 1)
T =
S/ n
ahora s es cantidad pivotal para estimar . Por lo tanto y siguiendo el procedimiento anterior
vemos que
donde hemos vuelto a tener en cuenta las simetras de la distribucion. As que despejando se
llega a que
IC1 () = X tn1;/2
.
n
Siguiendo los mismos paso, podemos ahora estimar 2 . Para ello consideramos
T =
(n 1) S 2
,
2
!
2
(n 1) S 2 (n 1) S 2
IC1 =
,
.
2n1;/2 2n1;1/2
3.
T a De Moivre
N = np, 2 = npq
40
por lo tanto
n
X
i=1
tipificando
Xi N = np, 2 = npq
Pn
Xi np
pi=1
N (0, 1)
np (1 p)
p
p
p
X
X
X
q
q
=q
N (0, 1)
(1X
)
p(1p)
p(1
p)
X
n
as que
p
X
.
T =q
(1X
)
X
n
observamos que para llegar a este resultado hemos utilizado resultdos previos como p = X.
Por lo tanto y siguiendo los mismos pasos que los anteriores casos vemos que
Z/2 X 1 X .
IC1 (p) = X
n
3.2.2.
Sea (Xi )ni=1 m.a. de X F distribucion continua. Podemos definir una cantidad pivotal generica
como sigue:
n
X
T =
log F (xi )
i=1
es cantidad pivotal para estimar el parametro , pues depende de (Xi )ni=1 y y se comprueba con
facilidad que la funcion de distribucion de T no depende de .
Definici
on 3.2.2 Definimos el error en la estimaci
on de un intervalo de confienaza como
E=
Ejemplo 3.2.1 Sea (Xi )ni=1 m.a. de X N , 20 donde 20 es una cantidad conocida. Cu
al es
el mnimo valor de n para que el error en la estimaci
on de un intervalo con nivel de confianza 1
sea inferior a E?
41
Sabemos que
IC1 =
por lo tanto
0
Z/2
X
n
0
E = Z/2
n
Z/2 0 E n
as que
3.3.
Z/2 0
E
n
Y
f (xi | )
i=1
()
as que aplicando Bayes
()
( | x1 , ...., xn ) =
n
Y
f (xi | )
i=1
n
Y
()
i=1
f (xi | )
() f (x1 , ...., xn | )
Definici
on 3.3.2 El intervalo de confianza bayesiano con m
axima densidad a posteriori (HPD) al
nivel 1 es el intervalo (L, U ) tal que
Z U
( | x1 , ...., xn ) d = 1 ,
L
y 1 (L, U ) y 2
/ (L, U ) ,
(1 | x1 , ...., xn ) > (2 | x1 , ...., xn ) .
El intervalo HPD es el de mnima longitud para un nivel 1 fijado.
42
3.4.
Resumen de intervalos
INTERVALOS DE CONFIANZA
NOTACION:
(X1 , . . . , Xn ) muestra aleatoria (m. a.) de X.
x
=
3.4.1.
1X
xi
n
s2 =
1 X
(xi x
)2 .
n1
X N (, )
I= x
z/2
.
n
2. desconocida
I=
s
x
tn1;/2
n
3.4.2.
(n 1)s2
(n 1)s2
,
2n1;/2
2n1;1/2
3.4.3.
x
z/2
x
(1 x
)
n
p
/n .
I= x
z/2 x
3.4.4.
43
2. 1 , 2 desconocidas, 1 = 2 :
I=
y z/2
I = x
21
n1
x
y tn1 +n2 2;/2 sp
22
n2
1
1
+
n1 n2
3. 1 , 2 desconocidas, 1 6= 2 :
I = x
y tf ;/2
s21
n1
s22
n2
(s22 /n2 )2
n2 1
3.4.5.
s21 /s22
Fn1 1;n2 1;/2
s21 /s22
Fn1 1;n2 1;1/2
Comparaci
on de proporciones (muestras grandes e independientes)
s
y z/2
I = x
x
(1 x
) y(1 y)
+
.
n1
n2
44
3.5.
Ejercicios
Ejercicio 3.5.1 Sea (X1 , X2, X3 , X4 ) una m.a. de X N , 2 = 1 . Hallar el nivel de confianza
1, X
+1 .
del estimador por intervalos X
Soluci
on. Queremos calcular el NC que como sabemos
n
1, X
+ 1 = P X
1<<X
+1
N C = P (Xi )4i=1 : X
si tenemos en cuenta que
P
Xi
X=
= ,
n
N
X
2
,
n
entonces
1<<X
+1 =P
P X
1
= N ,
,
4
= 1/2,
X
+1
1
<
<
1/2
1/2
1/2
simplificando queda:
X
1/2 .
P {2 < Z < 2}
Teniendo en cuenta las simetras de la N (0, 1) la anterior
2P (Z > 2) = 0,9544
Nivel de confianza del estimador por intervalos aX(n) , bX(n) tal que 1 a < b.
Soluci
on. Para el primero de los apartados vemos que
1 a < b,
o lo que es lo mismo
3.5. EJERCICIOS
45
as que
fX(n) = n
n1
t
1
ntn1
=
,
t (0, )
por lo tanto
P
fX(n) dt =
1
1
ntn1
dt = n n
n
a
b
1 c < d,
d n
c n
1
P X(n) + c < < X(n) + d = P d < X(n) < c = 1
Ejercicio 3.5.3 Sea (Xi )ni=1 una m.a. de X cuya densidad viene dada por
ex x > 0
f (x | ) =
0
resto
P
probar que T = ni=1 Xi es una cantidad pivotal y obtener los intervalos de confianza correspondintes.
Soluci
on. Observamos que T es funcion solo de la muestra y del parametro y tenemos que ver que
la distribucion es funcion continua y monotona.
X f
definimos la v.a. Y = X as que aplicando el c.v.
T =
n
X
Xi =
n
X
i=1
i=1
Yi Gamma (p = n, a = 1)
vemos que si
Y = X
por lo tanto
X=
dX
y
= e 1 = ey ,
fY = fX
dY
dX
1
=
dY
y (0, )
ademas se observa que fY Gamma (p = 1, a = 1) . De esta forma vemos que al solo depender de
(Xi )ni=1 se trata de una cantidad pivotal para el parametro , igualmente se observa que es continua
y monotona creciente en .
46
Buscamos ahora (1 , 2 ) tales que
P {1 < T < 2 } = 1
as que teniendo en cuenta las simetras de la funcion gamma etc... despejamos y vemos que
(
)
n
X
Xi < 2 = 1
P 1 <
i=1
1 <
n
X
Xi ,
()
P1n
<
i=1 Xi
i=1
n
X
Xi < 2 ,
IC1 () =
i=1
2 ()
< Pn
i=1 Xi
2 ()
()
P1n
, Pn
i=1 Xi
i=1 Xi
fT dt = ,
2
fT dt =
2 ()
,
2
donde
T =
n
X
i=1
fT (t) =
Xi Gamma (p = n, a = 1)
1 t n1
e t
,
(n)
t > 0,
Ejercicio 3.5.4 Sea (Xi )ni=1 una m.a. de X cuya densidad viene dada por
(x)
e
x>>0
f (x | ) =
0
resto
Hallar el intervalo bayesiano de m
axima densidad a posteriori con nivel 4/5 si la densidad a priori
viene dada por
e
>0
.
() =
0 resto
Soluci
on. Teniendo en cuenta resultados del captulo anterior vemos que
n
P
P
Y
( | Xi ) () f (xi | ) = e e xi +n = e(n1) xi e(n1) ,
i=1
0, X(1)
3.5. EJERCICIOS
el termino e
xi
47
e(n1)
( | xi ) = R X
(1) (n1)
e
d
0
( | xi ) =
0, X(1)
e(n1)
(n1)X(1)
1
e
1
n1
0, X(1)
(L, U ) = 1 , X(1)
tal que
Z
X(1)
( | xi ) d = 1 =
4
5
as que
Z
X(1)
1
e(n1)
1
n1
(n1)X(1)
d =
4
5
e(n1)X(1) e(n1)1
4
=
5
e(n1)X(1) 1
y tomando logaritmos
1 =
1
e(n1)X(1) 1
log e(n1)X(1)
n1
5
on a
Ejercicio 3.5.5 Sea (Xi )ni=1 una m.a. de X N , 2 = 1 y supongamos que la distribuci
priori viene dada por N (0, 1) . Hallar el IC bayesiano (L, U ) de m
axima densidad a posteriori con
NC 1 .
Soluci
on. Teniendo en cuenta resultados del captulo anterior vemos que
1
xi
1
+ nrX
,
,
=N
( | xi ) N
+ nr + nr
n+1 n+1
ya que = r = 1 y = 0. Apelando a las simetras de la normal entonces:
P
P
xi
xi
a, 2 =
+a
(L, U ) = 1 =
n+1
n+1
48
as que
Z
i.e.
P
( | xi ) d = 1
xi
xi
a<Y <
+a =1
n+1
n+1
n+1
n+1
q
< q n+1 <
P
1
1
n+1
simplificamos
o lo que es lo mismo
n+1
xi
n+1
+a
q
1
n+1
xi
n+1
P a n + 1 < Z < a n + 1 = 1
=1
P Z >a n+1 =
2
a n + 1 = Z/2
Z/2
a=
n+1
Z/2
Z/2
xi
xi
,
+
n+1
n+1 n+1
n+1
x1 x (0, 1) , > 0
,
f (x) =
0
resto
1.
2.
1
1
,
I=
2 ( log X) log X
Estudiar si T = log X es una cantidad pivotal para .
3.
3.5. EJERCICIOS
49
Soluci
on. Vemos que Y = log X, consideramos el c.v.
y = log x,
y = log x,
dx
= ey
dy
x = ey ,
por lo tanto
luego
dx
1 y
e = ey
fY (y) = fX (x) = x1 ey = ey
dy
fY (y) =
ey (0, ) ,
.
0
resto
Para calcular el nivel de confianza seguimos los mismos pasos como en los ejercicios anteriores y
vemos que (se trata simplemente de despejar en y)
NC = P
1
1
Y
2
= e1/2 e1 .
De igual forma vemos que la densidad T = log X (utlizando el c.v. anterior) se llega a
fT =
et t > 0,
.
0 resto
Por ultimo
( | xi ) e1 , si (0, 1)
por lo tanto
( | xi ) =
e1
e2
(0, 1) ,
resto
x = 1/e
e I = (a, 1)
Z/2 X 1 X
Z/2 p (1 p) = X
IC0,95 = X
n
n
50
y lo u
nico que hacemos es calcular
Xi
no alergicos
10
=
=
= 0,10,
n
n
100
= Z0,025 = 1, 96
=
X
Z/2
as que
IC0,95 =
0,10 1,96
(0,10) (0,90)
100
= (0,04, 0,16)
1X
X
error = Z/2
< 0,01
n
la obetenida en la prueba piloto i.e. X
= 0,10, por lo tanto
y tomamos como estimacion para X
r
(0,10) (0,90)
1,96
< 0,01
n
y despejamos n obteniendo
n > 3458
por lo que concluimos que necesitamos del orden de 3500 pruebas para hacer un buen estudio.
Z/2 X
Z/2
=X
IC0,90 () = X
n
n
3.5. EJERCICIOS
51
X=
=
= 0,98,
n
95
por lo que
IC0,90 () = (0,82, 1,16) .
Si queremos afinar mas entonces hacemos lo mismo que en el ejercicio anterior i.e.
r
X
error = Z/2
n
y despejamos n.
2
Soluci
on. Tenemos por lo tanto (Xi )20
i=1 m.a. de X N , , para estimar a un NC del 90 %
tenemos
IC90 % () = X tn1;/2
= X tn1;/2
= (90,11, 92,39)
n
n
ya que
P
Xi
=
= 91,25
X
n
1 X
2 = 8,61,
2= 1
S2 =
Xi2 20X
= S = 2,94,
Xi X
n1
19
tn1;/2 = t19;0,005 = 1, 729.
Como en ejercicios anteriores si queremos mas precision para estimar entonces tendremos que
hacer mas ensayos, de esta forma
2,94
2,94
2
19 (8,61) 19 (8,61)
(n 1) S 2 (n 1) S 2
,
=
,
= (5,43, 16,19)
IC90 % =
30,144
10,117
2n1;/2 2n1;1/2
52
as
= X Z/2
n
error = Z/2 2
n
n 38
donde estamos suponiendo que 21 = 22 . Queremos estimar la diferencia de presiones medias en las
poblaciones con un NC del 95 %.
son las poblciones independientes? podemos tener estas dos situaciones:
1.- Datos estan emparejados, entonces las poblaciones NO son independeintes,
2.- Datos no emparejados, por lo tanto las poblaciones son independientes.
3.5. EJERCICIOS
53
En este caso seobserva que las dos poblaciones son independientes y por lo tanto utilizaremos el
siguiente formulon:
!
r
1
1
Y tm+n2;/2 Sp
IC1 (1 2 ) = X
+
m n
donde
9 (22,4) + 9 (78,6)
(m 1) S12 + (n 1) S22
=
= 50,51
m+n2
18
es la varianza residual. De esta forma
!
r
p
1
1
IC1 (1 2 ) = 97,2 105,8 (2,101) 50,51
+
= (15,28, 1,92) .
10 10
Sp2 =
Si las muestras no son independientes entonces lo que habra que hacer sera lo siguiente. Considerar
Sdif
(X Y ) tn1;/2
n
54
Captulo 4
Contraste de hip
otesis
4.1.
Introducci
on
Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Como siempre queremos estimar
.Queremos elegir entre dos posibilidades
Hipotesis nula: H0 : 0 ,
Hipotesis alternativa : H1 : 1 = c0 ,
Definici
on 4.1.1 Un test de hip
otesis para contrastar H0 : 0 , frente a H1 : 1 consiste
en dividir el espacio muestral en dos regiones complementarias:
R : regi
on de rechazo de H0 (Regi
on Crtica), si (x1 , ..., xn ) R, entonces rechazamos H0 .
A : region de aceptaci
on de H0 , si (x1 , ..., xn ) A, entonces acpetamos H0 .
Errores que se pueden cometer:
1. Error de tipo I: Rechazar la hipotesis nula, H0 , cuando 0 ,
2. Error de tipo II: Aceptar H0 , cuando 1 ,
Se suelen elegir H0 , H1 de modo que el error de tipo I sea el mas serio.
Definici
on 4.1.2 La funci
on de potencia de un test con regi
on crtica R es la siguiente funci
on
de :
R () = P (R)
CAPITULO 4. CONTRASTE DE HIPOTESIS
56
Definici
on 4.1.3 El nivel de significaci
on o tama
no de un test R para contrastar H0 : 0
frente a H1 : 1 es:
= sup P (R)
0
i.e. m
axima probabilidad de rechazar H0 cuando H0 es cierta o lo que es lo mismo, la m
axima
probabilidad de cometer un error de tipo I.
Se suelen utilizar test de hipotesis que tienen un nivel de significacion, 0,01, 0,05, 0,1.
Veremos dos metodos de construccion de un test:
1.
2.
Metodo bayesiano.
4.2.
M
etodo de la raz
on de verosimilitud.
(x1 , ..., xn ) =
sup L ()
=
supL ()
Proposici
on 4.2.1 Relaci
on con los estadsticos sufucientes. El test de raz
on de verosimilitudes
es funci
on de cualquier estadstico suficiente T
Consideramos a continuacion un ejemplo que nos permite ver la relacion entre el contraste de
hipotesis y los intervalos de confianza.
Considermos (Xi )ni=1 m.a. de X f (x) tal que . En este caso f (x) := N , 2 donde
estamos interesados en estimar (aqu 2 es un parametro perturbador). Consideramos el siguiente
contraste de hipotesis
H0 : = 0 ,
H1 : 6= 0 ,
DE VEROSIMILITUD.
4.2. METODO
DE LA RAZON
57
= = , 2 : R, > 0
0 = = , 2 : = 0 , > 0
as que
(x1 , ..., xn ) =
sup L ()
=
(4.1)
supL ()
1
1
2
f (x) = exp 2 (x ) ,
2
2
!
n
n
Y
1
1 X
2
f (xi ) =
L () = f (x1 , ..., xn ) =
(xi )
n exp 2
2
n
2
i=1
i=1
el supL () se alcanza en el EMV
1X
(xi x
)2
=
n
2
=x
,
i=1
Pn
2
1
Pn n
exp
(x
P
i
2
n
n/2
0
i=1
2 i=1 (xi 0 )
( 1 n (xi 0 )2 ) ( 2)
(x
)
P
i
n
n/2
i=1
2 n
x)2
i=1 (xi
( n1 ni=1 (xi x)2 ) ( 2)
simplificamos
(x1 , ..., xn ) =
P
n
)2
i=1 (xi x
Pn
i=1 (xi
0 )2
Pn
i=1 (xi
2
Pn
!n/2
x
)
Pn
2
1
1+
2
0)
n P n(x
x )2
i=1 (xi
)2
i=1 (xi x
i=1 (xi
) + n (
x 0 )
i=1 (xi x
n/2
Pn
!n/2
x
+x
0 )2
Pn
= Pn
1
1+
(
x0 )2
n (n1)S
2
!n/2
(xi
x)2
x)2
i=1 (xi
i=1
Pn
x)2 +n(
x0 )2
i=1 (x
Pin
x)2
i=1 (xi
n/2
1+
1
n1
n/2
x
0
S/ n
=
n/2
(x1 , ..., xn ) :
1+
1
n1
x
0
S/ n
n/2
0
c = (x1 , ..., xn ) : > c1
S/ n
(4.2)
CAPITULO 4. CONTRASTE DE HIPOTESIS
58
y que
x
0
x
0
= sup P (R) = = sup P (x1 , ..., xn ) : > c1 = sup P ((x1 , ..., xn ) : |tn1 | > c1 )
S/ n
=0
0
0
ya que cuando (Xi )ni=1 m.a. de X N 0 , 2 sabemos que una cantidad para estimar
x
0
tn1
S/ n
x 0 | > tn1;/2 S/ n
R = (x1 , ..., xn ) : > tn1;/2 = (x1 , ..., xn ) : |
S/ n
sera la region de rechazo del test de razon de verosimilitud. Veamos ahora la relacion con el
IC1 (). La situacion hasta ahora es la siguiente:
X= R A,
A = (x1 , ..., xn ) : |
x 0 | < tn1;/2 S/ n ,
esto significa que aceptamos H0 :
H0 : = 0 |
x 0 | < tn1;/2 S/ n tn1;/2 S/ n < x
0 < tn1;/2 S/ n
+ tn1;/2 S/ n 0 x
tn1;/2 S/ n
x
tn1;/2 S/ n < 0 < x
0 IC1 () .
y fijamos un nivel de significacion . Entonces IC1 () . = x
tn1;/2 S/ n , por lo tanto si
0 IC1 ()
0
/ IC1 ()
aceptamos H0 ,
rechazamos H0
de esta forma hemos visto la relacion existente entre el contraste de hipotesis y los intervalos de
confianza.
Si la distribucion de (x1 , ..., xn ), bajo H0 , es desconocida o muy complicada de calcular entonces
existe una solucion aproximada (asintotica) para contrastar H0 : 0 , frente a H1 : 1 .
DE VEROSIMILITUD.
4.2. METODO
DE LA RAZON
59
Teorema 4.2.1 Sea (Xi )ni=1 m.a. de X f (x) tal que , y dim = k. Queremos contrastar
H0 : 0 , frente a H1 : 1 , donde dim 0 = k < k, entonces bajo certas condiciones de
regularidad
d
2 log (x1 , ..., xn ) 2kk
bajo H0 .
n
Con el ejemplo
que
venimos arrastrando, si (Xi )i=1 m.a. de X f2 (x) tal que . En este caso
2
f (x) := N , donde estamos interesados en estimar (aqu es un parametro perturbador).
Consideramos el siguiente contraste de hipotesis
H0 : = 0 ,
H1 : 6= 0 ,
y fijamos un nivel de significacion . Formalmente la situacion es la siguiente:
=
dim = 2
= = , 2 : R, > 0
2
0 = = , : = 0 , > 0
=
dim 0 = 1
as que
4.2.1.
1.
Asignaci
on de hip
otesis en la pr
actica.
Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Es razonable aceptar que = 0 ?.
Elegimos entre = 0 y 6= 0
La situacion es por lo tanto la siguiente:
H0 : = 0 ,
H1 : 6= 0 ,
y fijamos un nivel de significacion . Los papeles, en la practica, de hipotesis nula y alternativa
siempre se asignan igual, la igualdad para H0 y la desigualdad para H1 . Por lo tanto
si aceptamos H0 concluimos que es razomable aceptar = 0 ,
si rechazamos H0 concluimos que NO es razomable aceptar = 0 .
2.
Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Podemos considerar estadsticamente probado que > 0 ?
La situacion es por lo tanto la siguiente:
H0 : 0 ,
H1 : > 0 ,
CAPITULO 4. CONTRASTE DE HIPOTESIS
60
4.2.2.
Ejemplo 4.2.1 (Xi )ni=1 m.a. de X f (x) tal que . En este caso f (x) := N , 2 = 1 .
Consideramos el siguiente contraste de hip
otesis
H0 : 10,
H1 : > 10,
10
1
,
9
as que
P
12 10
x
10
>
1/3
1/3
=P
12 10
Z>
0.
1/3
2.
La regla practica que se sigue para tomar decisiones a un nivel de significacion previamente fijado
es la siguiente:
4.3. METODOS
BAYESIANOS.
4.3.
61
M
etodos bayesianos.
que recoje la informacion sobre que llevan los datos y tambien disponemos de la informacion a
priori
()
que recoje la informacion sobre antes que los datos, as que aplicando Bayes obtenemos
n
Y
() f (xi | )
( | x1 , ...., xn ) =
i=1
n
Y
()
i=1
f (xi | )
() f (x1 , ...., xn | )
( | x1 , ...., xn ) d,
( | x1 , ...., xn ) d = 1 P (0 | x1 , ...., xn ) ,
4.4.
CONTRASTES DE HIPOTESIS
NOTACION:
= nivel de significacion del contraste.
n= tama
no de la muestra.
H0 = hipotesis nula.
R= region crtica o de rechazo de H0 .
CAPITULO 4. CONTRASTE DE HIPOTESIS
62
4.4.1.
X N (, )
1. H0 : = 0 ( conocida);
R=
|
x 0 | > z/2
.
n
2. H0 : = 0 ( desconocida);
s
.
R = |
x 0 | > tn1;/2
n
3. H0 : 0 ( conocida);
R= x
0 > z
.
n
4. H0 : 0 ( desconocida);
s
.
R= x
0 > tn1;
n
5. H0 : 0 ( conocida);
R= x
0 < z1
.
n
6. H0 : 0 ( desconocida);
s
R= x
0 < tn1;1
.
n
4.4. RESUMEN DE CONTRASTES DE HIPOTESIS
7. H0 : = 0 ;
R=
n1 2 2
2
s
/ n1;1/2 , n1;/2
.
20
8. H0 : 0 ;
R=
9. H0 : 0 ;
R=
n1 2
2
s
<
n1;1 .
20
|
x p0 | > z/2
2. H0 : p p0 ;
R=
3. H0 : p p0 ;
R=
x
p 0 > z
x
p0 < z1
p0 (1 p0 )
n
p0 (1 p0 )
n
2. H0 : 0 ;
3. H0 : 0 ;
p0 (1 p0 )
n
n
o
p
R= x
0 > z 0 /n .
o
n
p
R= x
0 < z1 0 /n .
o
n
p
R = |
x 0 | > z/2 0 /n .
1. H0 : = 0 ;
4.4.4.
n1 2
2
s > n1; .
20
1. H0 : p = p0 ;
4.4.3.
R=
4.4.2.
63
CAPITULO 4. CONTRASTE DE HIPOTESIS
64
1. H0 : 1 = 2 ( 1 , 2 conocidas);
2. H0 : 1 = 2 ( 1 = 2 );
21 22
R = |
x y| > z/2
+
.
n1 n2
r
1
1
.
+
R = |
x y| > tn1 +n2 2;/2 sp
n1 n2
3. H0 : 1 = 2 ( 1 6= 2 );
s21
s22
+
.
x y| > tf ;/2
R = |
n1 n2
4. H0 : 1 2 ( 1 , 2 conocidas);
R=
5. H0 : 1 2 ( 1 = 2 );
x
y > z
21
n1
22
n2
1
1
R= x
y > tn1 +n2 2; sp
.
+
n1 n2
6. H0 : 1 2 ( 1 6= 2 );
R=
7. H0 : 1 2 ( 1 , 2 conocidas);
8. H0 : 1 2 ( 1 = 2 );
x
y > tf ;
s21
s22
+
.
n1 n2
2
2
1 2
+
.
y < z1
R= x
n1 n2
r
1
1
+
.
R= x
y < tn1 +n2 2;1 sp
n1 n2
9. H0 : 1 2 ( 1 6= 2 );
10. H0 : 1 = 2 ;
s22
s21
.
+
y < tf ;1
R= x
n1 n2
R = s21 /s22
/ Fn1 1;n2 1;1/2 , Fn1 1;n2 1;/2 .
4.5. EJERCICIOS
65
11. H0 : 1 2 ;
12. H0 : 1 2 ;
4.4.5.
(s22 /n2 )2
n2 1
Comparaci
on de proporciones (muestras grandes e independientes)
2. H0 : p1 p2 ;
R=
3. H0 : p1 p2 ;
R=
|
x y| > z/2
x
y > z
4.5.
x
y < z1
donde p =
p(1 p)
p(1 p)
p(1 p)
1
1
+
n1 n2
1
1
+
n1 n2
1
1
+
n1 n2
P
n1 x
+ n2 y
xi + yi
=
.
n1 + n2
n1 + n2
Ejercicios
x1 0 < x < 1
f =
0
resto
donde = {1, 2}. Para contrastar H0 : = 1 frente a H1 : = 2, definimos la regi
on de
rechazo
R = {(x1 , x2 ) : 4x1 x2 3} .
Hallar la funci
on de potencia test.
CAPITULO 4. CONTRASTE DE HIPOTESIS
66
Soluci
on. Queremos contrastar H0 : = 1 frente a H1 : = 2, en R = {(x1 , x2 ) : 4x1 x2 3} , por
lo tanto nos preguntamos si
R () = P (R) ,
= 1, 2.
Represetamos la region, 4x1 x2 3, por lo tanto cuando = 1, tenemos:
f=1 (x1 , x2 ) = f=1 (x1 ) f=1 (x2 ) = 1 1 = 1
de esta forma
P=1 (R) =
Z Z
x1 =1
x1 =3/4
4x1 x2 dx2
x1 =3/4
x2 =3/4x1
1dx2
x2 =3/4x1
x2 =1
P=1 (R) =
x2 =1
1 3
dx1 = + log
4 4
7
9
dx1 =
+ log
16 8
3
0,03
4
3
0,11.
4
ya que
f=2 (x1 , x2 ) = f=2 (x1 ) f=2 (x2 ) = 2x1 2x2 = 4x1 x2 .
El nivel de significacion es por lo tanto
sup P (R) = P=1 (R) 0,03
x
k 1
k 1
1
q
> q
=P Z> p
= sup P (R) = P1 (R) = P1 (
x > k) = P
1
1
1/n
0
n
recordar que
XN
1 ,
1
n
4.5. EJERCICIOS
67
por lo tanto
k 1
p
= Z
1/n
obteniendo as
Z
k = 1 +
n
Soluci
on. La situacion es la siguiente: (Xi )12
i=1 una m.a. X P oisson ()
H0 : = 1/2,
H1 : < 1/2,
(
R=
(xi )12
i=1
12
X
i
x1 2 .
En = 1/2
R () = P (R) = P=1/2 (R) = P=1/2
12
X
i
x1 2
= P {P oisson ( = 6) 2} =
ya que
12
X
i
x1 =
1 12veces 1
+ ..... +
2
2
2 P oisson ( = 6) ,
Xi = e(e
it 1
CAPITULO 4. CONTRASTE DE HIPOTESIS
68
Cu
al es el nivel de significaci
on de este contraste?.
2.
Calcular la potencia del contraste si en realidad hay un 20 % de peces que miden menos de
20cm.
Soluci
on. Modelizamos mediante una Bernoulli(p) i.e. disponemos de una m.a. (Xi )6i=1 donde
X Bernoulli(p)
H1 : p > 0,10,
R = {Mas de un pez con longitud inferior a 20 cm} = {T > 1} .
el estadstico que estamos usando en este contraste es:
T = no de peces, de entre los 6, que miden de 20cm Bin(n = 6, p = 0,10).
Por lo tanto, el nivel de significacion de este contraste es:
sup Pp (R) = Pp=0,10 (R) = Pp=0,10 (T > 1) = P (Bin(n = 6, p = 0,10) > 1) =
p0,10
Ejercicio 4.5.5 Para estudiar si una prueba de laboratorio puede resultar demasiado nociva para
la salud, contrastamos la hip
otesis H0 de que la probabilidad de que una persona sometida a esa
prueba resulte afectada sea como m
aximo 0, 001. Para ello sometemos a esa prueba a 1000 personas
elegidas al azar y aceptamos H0 si como m
aximo ha habido un afectado.
1.
Cu
al es el nivel de significaci
on de este contraste?.
2.
4.5. EJERCICIOS
69
Soluci
on. En este ejercicio disponemos de una m.a. (Xi )1000
i=1 donde X Bernoulli(p)
1
si resulta afectada
X=
0 si no resulta afectada
as que
H0 : p 0,001,
H1 : p > 0,001,
R = {Hay como maximo un afectado entre 1000} = {T 1} .
el estadstico que estamos usando en este contraste es:
T = no de afectados entre 1000 Bin(n = 1000, p = 0,001),
al ser n = 1000 y p = 0,001 entonces aproximamos la binomial mediante una Poisson
Bin(n = 1000, p = 0,001) P oisson ( = np) .
De esta forma encontramos que el nivel de significacion de este contraste es:
sup Pp (R) = Pp=0,001 (R) = Pp=0,001 (T > 1) = P (Bin(n = 1000, p = 0,001)) > 1) =
p0,001
H1 : > 0 ,
nivel de significacion
queremos calcular c
CAPITULO 4. CONTRASTE DE HIPOTESIS
70
tal que
= sup P (R)
0
(x1 , ..., xn ) =
sup L ()
=
donde
(4.3)
supL ()
R
n
P
Y
f (xi ) = en e xi ,
L () = f (x1 , ..., xn ) =
si
i=1
X(1)
observamos que x , significa (xi )ni=1 y por lo tanto X(1) , de este modo obtenemos la
siguiente funcion
n P x
i
e e
X(1)
L () =
0
> X(1)
y por lo tanto
supL () = enX(1)
R
en0
xi
nX(1) P x
i
e
xi
enX(1) P xi
en0 xi
X(1) 0
X(1) > 0
1
= en0 nX(1)
X(1) 0
X(1) > 0
sup L () =
por lo tanto
C0 = 0
log
n
ya que
C0
f (x) dx
n
Y
P (Xi > C0 ) = (P (X > C0 ))n =
=
i=1
C0
(x)
dx
as que
log
n
R = (xi )i=1 : X(1) > 0
n
= en(0 C0 )
(4.4)
4.5. EJERCICIOS
71
(1 x)1 0 x 1, > 0
0
resto
Deseamos
contrastar H0 : = 2 frente a H1 : 6= 2, al nivel de significaci
on 0,1. Si n = 60 y
Y
(1 xi ) = 0,0003. Cu
al sera la decisi
on adoptada utilizando el test de raz
on de verosimilitudes
i
asint
oticamente?
Soluci
on. En este ejercicio queremos ver
R = R = {(xi )ni=1 : (x1 , ..., xn ) c} (x1 , ..., xn ) : 2 log (x1 , ..., xn ) > 2kk ; = 21;0,1
en este caso
2n
sup L ()
(x1 , ..., xn ) =
supL ()
ya que
n
Y
f (xi ) = ()n
L() = f (x1 , ..., xn ) =
i=1
Y
i
(1 xi )
!1
(1 xi )
(1 xi )
!
Y
d log L()
n
= + log
(1 xi ) = 0
d
(1 xi )
!1
n
log
Y
i
(1 xi )
n
log
Y
i
!=
(1 xi )
(60)
= 7,3967
ln (0,0003)
por lo tanto
2 log (x1 , ..., xn ) = 2 ln
21;0,1 = 2,706
260 (0,0003)
(7,3967)60 (0,0003)6,3967
= 69,39,
CAPITULO 4. CONTRASTE DE HIPOTESIS
72
e > 0
0 resto
H1 : < 1,
nivel de significacion
queremos calcular c
tal que
entonces
=
P (R) = P x(1) c = P x(1) c
dx
c=
= enc
log
.
n
>0
4.5. EJERCICIOS
73
por lo que
( | x) Gamma(p = 2, a = x + 1) =
=
ap p1 a
e
=
(p)
(x + 1)2 (x+1)
e
= (x + 1)2 e(x+1) ,
(2)
>0
=1
Ejercicio 4.5.9 Se van a probar dos medicamentos A y B contra una enfermedad. Para esto
tratamos 100 ratones enfermos con A y otros 100 con B. El n
umero medio de horas que sobreviven
con A es x
= 1200 y para B y = 1400. Suponiendo normalidad en mabos casos se pide:
1.
(tomar = 0, 10)
2.
Es m
as efectivo el medicamento B?. Plantear el contraste adecuado para estudiar esto con
un nivel de confianza del 95 %.
Soluci
on. Tenemos
X N (1 , 21 ),
Y N (2 , 22 )
R=
donde
S12
/ Fm1;n1;1/2 , Fm1;n1;/2
S22
S12
=
S22
1
m1
1
n1
i (xi
i (yi
x
)2
2
y)
90
0,95,
95
CAPITULO 4. CONTRASTE DE HIPOTESIS
74
1
Fm,n,
H1 : 1 < 2 ,
= 0, 05
con
R=
Y < tm+n2;1 Sp
X
1
1
+
m n
donde
Sp =
(m 1) S12 + (n 1) S22
96,66,
m+n1
puede aceptarse que las varianzas, antes y despues del cambio de filamento sean iguales?
2.
Ha aumentado la duraci
on media de las bombilla?
Soluci
on. Se puede aceptar igualdad de varianzas? i.e.
H0 : 1 = 2 ,
H1 : 1 6= 2 ,
= 0, 10
R=
S12
/
F
,
F
m1;n1;1/2
m1;n1;/2
S22
4.5. EJERCICIOS
75
donde
S12
=
S22
1
m1
1
n1
i (xi
i (yi
x
)2
y)
13225
= 1,18,
11236
1
Fm,n,
H1 : 1 < 2 ,
= 0, 10
con
R=
Y < tm+n2;1 Sp
X
1
1
+
m n
donde
Sp =
(m 1) S12 + (n 1) S22
110,14,
m+n1
Ejercicio 4.5.11 Con objeto de estudiar si las pulsaciones en los hombres (X) pueden considerarse
menores que en las mujeres (Y ) se tomaron muestrasde 16 hombre y mujeres obteniendose los
siguientes resultados (ya resumidos)
P16
i=1 xi
X
Y
Que podemos decir al respecto?
1248
1288
P16
2
i=1 xi
97570
103846
CAPITULO 4. CONTRASTE DE HIPOTESIS
76
Soluci
on. Los datos no estan emparejados y por lo tanto tenemos
X N (1 , 21 ),
Y N (2 , 22 )
Y = 80,5
nos preguntamos si esta diferencia a favor de las mujeres es concluyente. podemos afirmar que
1 < 2 ?. As que
H0 : 1 2 ,
H1 : 1 < 2 ,
= 0, 05
Al ser 1 = 3,7 y 2 = 3,2, podemos concluir que son razonablemente identicas (comprobar todas
estas cuentecillas) i.e.
" 16
#
1 X 2
2 , etc..
xi nX
var(X) =
n
i=1
por lo tanto al considerar igualdad de varianzas (si esto no fuese as tendramos que utilizar otro
modelo), tenemos
(
)
r
1
1
Y < tm+n2;1 Sp
R= X
+
= {2,5 < 2,16}
m n
y por lo tanto al verificarse la condicion debemos rechazar H0 y aceptar H1 i.e. podemos concluir
que 1 < 2 .
Si hubiesemos aceptado H0 no podramos concluir que 1 2 (no sera coherente con los datos
obtenidos) y por lo tanto diramos que los datos no son concluyentes.
H1 : < 30,
= 0, 01
4.5. EJERCICIOS
77
tenemos
R=
30 < t49;0,99 S
X
= {0,5 < 0,30}
50
donde
1
S2 =
49
50
X
i=1
x2i 49X
= 0,76,
t49;0,99 = 2, 403
por lo que debemos rechazar H0 y aceptar H1 i.e. podemos concluir que 1 < 30 i.e. que NO nos
estafan.
1 A
X=
0 B
i.e. una Bernoulli (muestras grande n = 1000). podemos concluir que p > 0,5? entonces haremos
las siguientes hipotesis
H0 : p 0,50,
H1 : p > 0,50,
= 0, 01
tenemos
R=
p0 > Z
X
p0 (1 p0 )
n
0,060 > Z
0,5 (1 0,5)
1000
donde
Z = Z0,01 = 2,33,
X
560
= 1
xi =
= 0,56
X
n
1000
i=1
CAPITULO 4. CONTRASTE DE HIPOTESIS
78
i.e. apoyo de los datos a H0 ?.
luego un p valor < rechazar H0 . Como nosotros hemos rechazado H0 entonces el p valor
debe ser menor que = 0,01 (esto nos evita el tener que calcular explcitamente el p valor).
Hallar la relaci
on entre p =Probabilidad de dar positivo y r =Probabilidad de padecer
hepatitis vrica.
2.
Soluci
on. Tenemos la siguiente situacion
P (positivo | sano) = 0,02
luego
p = 0,02 + 0,93r.
Con respecto al segundo apartado modelizaremos de la siguiente manera:
1 positivo
X=
0 negativo
i.e. mediante una Bernoulli(p). Cuando podremos concluir que r < 0,08? i.e. cuando podremos
concluir que p < 0,02 + 0,93r = 0,094?, entonces haremos las siguientes hipotesis
H0 : p 0,094,
H1 : p < 0,094,
= 0, 01
4.5. EJERCICIOS
79
tenemos
R=
p0 < Z1
X
p0 (1 p0 )
n
0,094
(1
0,094)
(0,094) < Z1
(0,094) > Z1 1,031 8 102
X
= X
800
donde
Z1 = Z0,99 = 2,33,
= # de positivos
X
800
y obtenemos que
as que despejamos X
< 55,92
X
por lo que podemos concluir que la proporcion de enfermos es menor que 0,08 cuando el n
umero
de positivos sea menor que 55.
80
Captulo 5
Distribuciones.
5.1.
Distribuciones discretas
5.1.1.
1.
Bernoulli.
Funcion generatriz
GX (s) = q + ps.
2.
Funcion de masa
pk = P (X = k) = pk q 1k = pk (1 p)1k
3.
4.
MX (t) = q + pet .
Esperanza y varianza
E [X] = p,
5.
con k = 0, 1.
Resumen
5.1.2.
pq
pk
X (t) MX (t) E [X] var [X]
pk q 1k q + peit q + pet
p
pq
Binomial.
Funcion generatriz
n
X
n
GX (s) =
pk q nk sk = (q + ps)n .
k
k=0
81
CAPITULO 5. DISTRIBUCIONES.
82
2.
Funcion de masa
Bin(n, p) =
3.
4.
n
k
pk q nk
X (t) = q + peit ,
Esperanza y varianza
E(X) = np,
5.
Resumen
n
k
con
k = 0, 1, ....
MX (t) = q + pet .
var(X) = npq,
npq
X (t)
MX (t)
E [X] var [X]
pk
n
n
np
npq
pk q nk q + peit
q + pet
X
Xi Bin
ni , p .
5.1.3.
Geom
etrica.
Funcion generatriz
GX (s) =
pk q k1 sk =
k=1
2.
3.
Funcion de masa
Geo(p) = (1 p)k1 p
peit
,
1 qeit
MX (t) =
pet
.
1 qet
Esperanza y varianza
1
E(X) = ,
p
5.
con k = 1, ....
4.
ps
.
1 qs
Resumen
var(X) =
q
,
p2
q
.
p2
pk
X (t) MX (t) E [X] var [X]
k1
peit
pet
q
1
(1 p)
p 1qe
it
p
1qet
p2
5.1.4.
83
Binomial negativa.
Funcion generatriz
GX (s) =
2.
4.
n+k1
k
pn q k
con k = 0, 1, ....
MX (t) =
p
1 qet
n
,
p
var(X) =
nq
,
p2
nq
p2
Resumen
5.1.5.
pk
X (t)
MX (t) E [X] var [X]
n
n
n+k1
nq
p
p
n
pn q k
p
1qet
p2
1qeit
k
Poisson.
Funcion generatriz
GX (s) = exp((s 1)).
2.
Funcion de masa
P oisson() = exp()
3.
Esperanza y varianza
1.
p
,
X (t) =
1 qeit
E(X) =
5.
p
1 qs
Funcion de masa
BinN (n, p) =
3.
k
k!
con
k = 0, ....
X (t) = e eit 1 ,
MX (t) = e(e
).
t 1
CAPITULO 5. DISTRIBUCIONES.
84
4.
Esperanza y varianza
E(X) = ,
var(X) = ,
5.1.6.
1.
Hipergeom
etrica
Funcion de masa
N n k
var(X) =
n
N 1 N
fX (x) =
2.
5.2.
k
1
N
5.2.1.
1.
Funcion de distribucion.
2.
Funcion de densidad.
t<a
0
t t [a, b]
FX (t) =
1
t>b
fX (t) =
1
ba
t [a, b]
t
/ [a, b]
4.
N k
nx
N
n
Esperanza y varianza
kn
,
E(X) =
N
3.
k
x
eitb eita
,
it (b a)
MX (t) =
etb eta
.
t (b a)
Esperanza y varianza.
1
E(X) = (a + b),
2
var(X) =
1
(b a)2 .
12
5.2.2.
1.
85
Gamma.
ap p1 ax
e
(p) x
donde
(p) =
x>0
resto
xp1 ex dx
2.
3.
it p
,
X (t) = 1
a
Esperanza y varianza.
E(X) =
5.2.3.
1.
var(X) =
p
.
a2
Exponencial.
Funcion de distribucion.
FX (t) =
donde > 0.
2.
p
,
a
t p
MX (t) = 1
.
a
1 exp(t) t > 0
0
t0
Funcion de densidad.
exp(t) t > 0
fX (t) =
0
t0
vemos que
exp () = (p = 1, ) .
3.
4.
it 1
,
X (t) = 1
a
Esperanza y varianza.
E(X) =
1
,
t 1
MX (t) = 1
.
a
var(X) =
1
2
CAPITULO 5. DISTRIBUCIONES.
86
Teorema 5.2.2 (Xi )ni=1 exp () v.a.i.i.d., entonces
X
Xi (n, ) .
5.2.4.
1.
Beta
Funcion de densidad.
1
xp1 (1 x)q1 I(o,1) (x),
B (p, q)
fX (t) =
2.
Esperanza y varianza.
E(X) =
5.2.5.
1.
p
,
p+q
pq
(p + q) (p + q + 1)
2
Normal.
Funcion de distribucion.
1
FX (t) =
2
2.
var(X) =
"
1
exp
2
2 #
x R
X (t) = eit 2
4.
x R
Funcion de densidad.
"
#
1
1 x 2
fX (t) = exp
2
3.
dx
2 t2
MX (t) = et 2
2 t2
Esperanza y varianza.
E(X) = ,
var(X) = 2
X
= Z N (0, 1)
Observaci
on 5.2.1 Aproximaci
on Normal de una binomial. Versi
on m
as simple del TCL (ver
captulo 7)
Binomial N ormal.
87
Si Bin(n, p) tal que np 5 y nq 5, entonces podemos aproximar dicha binomial mediante una
distribuci
on normal.
La probabilidad binomial P (k) puede aproximarse por la probabilidad normal
P (k) P (k 0,5 X k + 0,5)
Teorema 5.2.3 Si {Xi }ni=1 son v.a. independientes tales que Xi N (i , i ) i = 1, ..., n entonces
sX
X
X
i ,
Xi N
i .
i
Teorema 5.2.4 Si {Xi }ni=1 son v.a. independientes tales que Xi N (, ) i.e. son v.a.i.i.d., entonces
P
2
i Xi
.
N ,
n
n
5.2.6.
1.
Cauchy
Funcion de densidad.
1
1
xp 2 .
1 +
fX (t) =
2.
Funcion caracterstica
X (t) = eitp|t| .
3.
Esperanza y varianza.
5.2.7.
E(X) =,
var(X) = .
2n . Chi-cuadrado
2n . Distribucion Chi-cuadrado con n-grados de libertad. Consideramos (X1 , ...., Xn ) v.a.i.i.d. que
siguen una N (0, 1). Definimos
n
X
Xi2 .
(5.1)
2n =
i=1
1.
Funcion de densidad.
fX (t) =
viendose que
1
2n/2
n e 2 x x 2 1 I(o,) (x)
2
2n
n 1
,
2 2
x R
CAPITULO 5. DISTRIBUCIONES.
88
2.
3.
MX (t) = (1 2t)n/2 .
Esperanza y varianza.
E(X) = n,
5.2.8.
var(X) = 2n.
t-Student
1.
Funcion de densidad.
n+1
2
x2
1 n+1
2
1 n 1 +
,
fX (t) =
n
n 2 2
2.
3.
x R
MX (t) = (1 2t)n/2 .
Esperanza y varianza.
E(X) = 0, si n > 1,
var(X) =
4.
tn;1 = tn;
n
, si n > 2.
n2
5.2.9.
89
F Fisher-Snedecor
2.
Funcion de densidad.
m
m+n
m 2 m2
m m+n
2
2
x 2 1+ x
,
fX (t) = m n
n
n
2 2
Esperanza y varianza.
m
E(X) =
, m > 2,
m2
3.
x R
var(X) = 2
n
n2
Propiedades
a) Si X Fm,n =
1
X
Fn,m
Fm;n;1 =
Fm;n;1 =
1
Fn;m;1
1
Fm;n;
m+n2
,
m (n 4)
n > 4.