ndice general
I Estadstica descriptiva 3
I.1 Estadstica descriptiva de datos univariantes . . . . . . . . . . . . . . 3
I.1.1 Estadsticos de tendencia central . . . . . . . . . . . . . . . . 3
I.1.2 Estadsticos de dispersin . . . . . . . . . . . . . . . . . . . . 3
I.1.3 Representacin grfica de datos . . . . . . . . . . . . . . . . . 4
I.2 Estadstica descriptiva de datos bivariantes . . . . . . . . . . . . . . . 8
I.2.1 Representacin grfica . . . . . . . . . . . . . . . . . . . . . . 8
I.2.2 Regresin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
II Muestreo aleatorio 11
II.1 Conceptos de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 11
II.1.1 Distribuciones aleatorias . . . . . . . . . . . . . . . . . . . . . 12
II.2 Problema de inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.2.1 Interpretacin estadstica de la ley de los grandes nmeros . . . 15
II.2.2 Funcin de distribucin emprica . . . . . . . . . . . . . . . . . 15
II.3 Estadsticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
II.3.1 Media muestral y poblacional . . . . . . . . . . . . . . . . . . 18
II.3.2 Varianza muestral y poblacional . . . . . . . . . . . . . . . . . 20
II.3.3 Estadsticos de orden . . . . . . . . . . . . . . . . . . . . . . 20
IV Contraste de hiptesis 50
IV.1 Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
IV.1.1 Teora de Neyman-Pearson . . . . . . . . . . . . . . . . . . . 51
IV.2 Problema de una muestra . . . . . . . . . . . . . . . . . . . . . . . . 52
IV.2.1 Regiones de rechazo para contrastes habituales . . . . . . . . . 53
IV.3 Contrastes para dos muestras . . . . . . . . . . . . . . . . . . . . . . 54
0
Documento compilado el 14 de junio de 2016 a las 13:10
1 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
A Anexos 65
A.1 Condiciones suficientes para permutar la derivada con la integral . . . . 65
A.2 Distribuciones notables . . . . . . . . . . . . . . . . . . . . . . . . . . 66
A.3 Regiones de rechazo . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
B Ejercicios 75
B.1 Tema 1 - Estadstica descriptiva . . . . . . . . . . . . . . . . . . . . . 76
B.2 Tema 2 - Muestreo aleatorio . . . . . . . . . . . . . . . . . . . . . . . 91
B.3 Tema 3 - Estimacin puntual paramtrica . . . . . . . . . . . . . . . . 99
B.4 Tema 4 - Intervalos de confianza . . . . . . . . . . . . . . . . . . . . 110
B.5 Tema 5 - Contraste de hiptesis . . . . . . . . . . . . . . . . . . . . . 120
B.5.1 Hoja 5A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
B.5.2 Hoja 5B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
C Exmenes 142
C.1 Enero 2013 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
C.1.1 Solucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
C.2 Junio 2013 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
C.2.1 Solucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
C.3 Enero 2014 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
C.3.1 Solucin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
2 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Captulo I
Estadstica descriptiva
Mediana Definicin I.2 Mediana. Es el valor que divide a los datos en dos mitades, de tal
forma que la mitad son menores y la otra mitad mayores que la mediana.
La mediana se calcula de la siguiente forma: dado un conjunto de datos
{x1 , . . . , xn }, la mediana es x n+1 si n es impar y el promedio entre x n2 y x n2 +1 si
2
n es par.
3 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Cuantil Definicin I.5 Cuantil. Para p (0, 1) se llama cuantil p o qp al valor que deja el
100p % de los datos a la izquierda.
Cuartil Definicin I.6 Cuartil. Los cuartiles son los tres datos que dejan a la izquierda el 25,
50 y 75 por ciento de los datos respectivamente. Es decir:
Q1 = q0.25
Q2 = q0.5 . El cuartil dos es la mediana.
Q3 = q0.75
Hay varios mtodos para el clculo de cuantiles. Para hacerlo a mano, podemos
usar el siguiente mtodo.
Si el dato en la posicin p(n + 1) no es un nmero entero,
entonces
se interpola
entre las observaciones ordenadas que estn en la posicin p(n + 1) y p(n + 1) +1
de la siguiente forma: sea j la parte entera de p(n + 1) y m la parte decimal. Entonces,
qp = (1 m)xj + mxj+1
Coeficiente Definicin I.7 Coeficiente de asimetra. El tercer momento con respecto a la media
de asime- se define como n
tra 1X
(xi x)3
n i=1
que, en su versin adimensional dividimos por 3 .
Un valor diferente de 0 indica asimetra de las muestras. Sin embargo, 0 no garantiza
simetra, solo que ambas colas se compensan.
Box-plot Definicin I.8 Box-plot. El diagrama de caja o box-plot (imagen I.1) nos permite
visualizar las medidas de dispersin respecto a la mediana. Hay que aadir una nueva
medida, el rango intercuartlico, la diferencia entre el primer y el tercer cuartil:
RI = Q3 Q1
4 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Lmite Definicin I.9 Lmite inferior/superior. Se define el lmite superior (LS) y el inferior
inferior/- (LI) de la siguiente forma:
superior
LS = Q3 + 1.5RI
LI = Q1 1.5RI
5 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Mtodo de Definicin I.11 Mtodo de ventana mvil. El mtodo de ventana mvil nos da una
ventana estimacin de la funcin de densidad en un punto t midiendo los xi que estn en el
mvil
intervalo de radio hn centrado en t. Matemticamente:
n n
1 X 1 X t xi
fn (t) = 1[thn ,t+hn ] (xi ) = 1[1,1]
n2hn i=1 n2hn i=1 hn
Estimador Definicin I.12 Estimador ncleo. Dada una funcin de densidad K simtrica, no
ncleo necesariamente positiva, definimos el estimador kernel como:
n n
1X 1 X t xi
fn (t) = Kh (t xi ) = K
n i=1 nhn i=1 hn
con Kh (x) = h1 K( hx ).
La eleccin del ncleo K no afecta especialmente a lo bien aproximada que est la
funcin de densidad. Sin embargo, s que influye la seleccin de la ventana hn (figura
6 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
I.3), tambin llamada bandwith en ingls. Si escogemos una ventana muy pequea,
damos demasiado peso a los datos de nuestra muestra. Si elegimos una ventana muy
grande, nuestra muestra pierde importancia y podemos perder informacin importante.
La eleccin del hn ms habitual Zes el que minimiza la distancia L2 entre f y f ,
2
es decir, el parmetro que minimice
fh f . Sin embargo, hay un problema: no
sabemos qu es f . Hay trucos que imagino que veremos ms tarde.
Figura I.3: Los efectos que causa elegir una ventana ms grande o ms pequea en
el estimador
t2
Las funciones kernel ms usadas son la uniforme, 12 1[1,1] , la gaussiana 12 e 2 y
la de Epanechnikov, que matemticamente es la que mejor aproxima f .
El estimador kernel fn (t) es la funcin de densidad de una medida de probabilidad
que es la convolucin 1 de dos medidas de probabilidad: una, Kh (x) (el kernel
reescalado) y otra que da probabilidad n1 a cada punto de la muestra {xi } (distribucin
o medida emprica).
x0i = xi + hn Zi , i = 1, . . . , k
donde xi es una observacin elegida al azar entre los datos originales y Zi una
observacin aleatoria con probabilidad N (0, 1). Es decir, lo que hacemos es aadir un
dato aleatorio de la muestra y sumamos una pequea perturbacin aleatoria.
1
http://en.wikipedia.org/wiki/Convolution
7 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
8 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
I.2.2. Regresin
b = x,y
x2
y despus, sabiendo que la recta pasa por el punto (x, y), obtenemos a
= y bx
a
n
X n
X Xn
ei = yi a
bxi =
yi (y bx) bxi =
i=1 i=1 i=1
n
X
= yi bxi ny + nbx = ny nbx ny + nbx = 0
i=1
P
Esta ecuacin ( ni=1 ei = 0) junto con
n
X
xi e 1 = 0
i=1
son las dos restricciones entre los residuos que nos dan la recta.
n
1X 2
e2 =
s2R = e
n i=1 i
9 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
0 r2 1
e2 =
y2 (1 r2 )
x
r = b
y
nos indica el grado de ajuste lineal entre las dos variables. Un valor absoluto ms
cercano a 1 indica una correlacin ms fuerte. Un valor absoluto cercano a cero indica
una correlacin dbil. El signo, positivo o negativo, indica si la correlacin es creciente
o decreciente.
10 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Captulo II
Muestreo aleatorio
1
variable aleatoria
2
repasa PROB I
11 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
En particular Z
E (X) := = x dF (x)
R
y Z
V (X) := = 2
(x )2 dF (x)
R
lm P Xn (, x] = P X (, x]
n
Notacin:
d w
Xn X Xn X
n n
12 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Es decir, que para cualquier error que tomemos el error cometido en la aproximacin
va a tender a cero siempre que tomemos un Xn suficientemente grande.
Notacin:
P
Xn X
n
Convergencia Definicin II.7 Convergencia casi segura. Tambin denotada c.s o a.s en ingls,
casi segura convergencia en casi todo punto (c.t.p) o convergencia con probabilidad 1.
Se dice que Xn converge a X casi seguro si el conjunto de puntos que no son
convergentes tiende a ser vaco. Es decir
P Xn X = 1
n
Notacin
c.s
Xn X
n
Teorema II.2. Se puede probar que si {Xn } es una sucesin de variables aleatorias
y X es variable aleatoria,
c.s P d
Xn X = Xn X = Xn X
n n n
La recproca no es cierta.
13 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
d
a. Xn + Yn X + c
n
d
b. Xn Yn X c
n
Xn d X
c. si c 6= 0.
Yn n c
14 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Teorema II.6 (Ley de los grandes nmeros). Sea {xk } una sucesin de v.a.i.i.d.
con media finita . Se verifica entonces que
n
1X c.s
X= xi
n i=1 n
c.s
Fn (t) F (t) (II.1)
n
15 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Tenemos que
n
1X
Fn (t) = 1(,t] (xi )
n i=1
A cada uno de los trminos de los trminos de la suma 1(,t] (xi ) los podemos
llamar yi . Estos valores son una muestra de la distribucin
Y = 1(,t] (X)
pero
E (Y ) = E 1(,t] (X) = P X (, t] = F (t)
por lo tanto hemos demostrado (II.1).
Ahora tenemos que demostrar que el lmite por la izquierda converge. Es decir,
hay que demostrar que
c.s
Fn (t ) F (t ) (II.2)
n
Sabemos que
Seguimos:
F (t ) = lm F (x) > 0 > 0 x (t, t) = F (x) F (t ) <
xt 2
(II.5)
Tomamos x (t , t) con un delta que cumpla tanto la condicin en (II.4)
como en (II.5). Entonces
Fn (t ) F (t ) = Fn (x) F (x) + F (x) F (t ) Fn (x) F (x) + F (x) F (t )
| {z } | {z }
(a) (b)
Sabemos que (a) es menor que 2
por (II.3) y que (b) tambin es menor que 2
por (II.5), por lo tanto
16 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Fn (t ) F (t ) <
Fn (t) F (t) Fn (t
i ) F (ti ) +
sup Fn (t) F (t) max max Fn (ti ) F (ti ) , max Fn (ti ) F (ti ) +
n
tR i=1,...,k i=1,...,k
c.s
Por (II.1), sabemos que Fn (ti ) F (ti ) 0, y por lo tanto
n
c.s
max Fn (ti ) F (ti ) 0
i=1,...,k n
Por lo tanto, todo ese mximo enorme vale 0, de tal forma que
lm sup Fn (t) F (t) = lm kFn F k
n tR n
17 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
II.3. Estadsticos
Cuando extraemos una muestra {xn } de X se pueden calcular algunas medidas
resumen. Cualquiera de ellas se puede expresar matemticamente como una funcin
T (x1 , . . . , xn ) de la muestra.
Estadstico Definicin II.9 Estadstico. Sea T (x1 , . . . , xn ) una funcin cuyo dominio incluye el
espacio muestral del vector aleatorio (X1 , . . . , Xn ). Entonces la variable aleatoria T se
denomina estadstico. La nica restriccin es que un estadstico no puede ser funcin
de un parmetro.
Como la distribucin de T se calcula a partir de la distribucin de las variables
Xi que constituyen la muestra, la denominaremos distribucin de T en el muestreo
(sampling distribution).
Error tpi- Definicin II.10 Error tpico. El error estndar o error tpico de un estadstico T ,
co es la desviacin tpica de su distribucin en el muestreo. Como en ocasiones depende
de alguna cantidad desconocida, tambin se denomina error tpico a una estimacin
de ese valor.
T
En ocasiones, se cumple que sigue una distribucin t de Student, lo que nos
permitir definir intervalos de confianza.
3
mtodo plugin
18 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Teorema II.8 (Teorema central del lmite). Suponemos que {Xn } son v.a.i.i.d.
con media y desviacin tpica finitas. Entonces
X d
n Z N (0, 1)
n
19 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Z n
1X
n2
2
= (x X) dFn (x) = (Xi X)2
R n i=1
n1 2
E
n2 =
n
c.s
n2 2
n
n1 2 1 2
E
n2 2 = 2 =
n n
tambin tiende a cero. Es decir, es asintticamente insesgado.
Cuasivarianza n2 usamos la
Definicin II.13 Cuasivarianza muestral. En lugar de usar
muestral cuasivarianza muestral, definida como
n
S2 = n2
n1
de tal forma que se tiene
E S 2 = 2
c.s
S 2 2
n
20 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Estadstico Definicin II.14 Estadstico de orden. Dada una muestra {Xn }, se denotan como
de orden
X(1) X(n)
Los estadsticos de orden pueden utilizarse para definir la mediana o los cuartiles.
Sin embargo, podemos usar la funcin cuantlica para definir mejor estos conceptos.
Funcin Definicin II.15 Funcin cuantlica. La funcin cuantlica en p es el punto que deja
cuantlica una probabilidad p a la izquierda, de tal forma que una proporcin p de los individuos
de la poblacin X sera menor que el cuantil poblacional de orden p.
La funcin cuantlica correspondiente a la funcin de distribucin F se define
F 1 : R 7 (0, 1)
F 1 (p) = nf x F (x) p
21 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Captulo III
Estimacin paramtrica
III.1. Estimadores
Estimador Definicin III.1 Estimador. Sean {Xn } v.a.i.i.d. con distribucin comn caracterizada
por la funcin de densidad/masa f (; ), con un parmetro desconocido del que slo
se sabe que pertenece al espacio paramtrico R.
El estimador es una funcin medible n = Tn (X1 , . . . , Xn ) que se utiliza para
estimar o aproximar el valor de .
Cuando tenemos una muestra aleatoria {Xn }, cada Tn (X1 , . . . , Xn ) es un
estimador de , una variable aleatoria. Si por el contrario tenemos una serie de
observaciones de una muestra {xn } entonces Tn (x1 , . . . , xn ) es una estimacin de .
Podemos evaluar la calidad de un estimador con el error cuadrtico medio
(ECM):
ECM(Tn ) = E (Tn )2
que nos describe el error cuadrtico medio en funcin de la varianza y del sesgo de
Tn .
22 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
III.1.1.2. Consistencia
d d
Si Xn X entonces g(Xn ) g(X).
n n
P P
Si Xn X entonces g(Xn ) g(X).
n n
c.s c.s
Si Xn X entonces g(Xn ) g(X).
n n
Otra forma de probarlo sera usar la desigualdad de Markov (II.4). Buscamos probar
que
P |Tn | > 0
n
entonces
P |Tn | > = P (Tn )2 > 2
E (Tn )2
P (Tn ) >
2 2
2
23 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
X
P |Tn | > < > 0
n=1
c.s
entonces Tn .
n
Ejemplo: Sean {Xn } v.a.i.i.d. con distribucin uniforme en el intervalo [0, ] con
> 0. Estudiar la consistencia de los siguientes estimadores de
a)
Tn = 2X
c.s
Tn = g(X) g() = 2 = 2E (X) =
n
b)
Tn = X(n) = max{X1 , . . . , Xn }
n o
P |Tn | > = P X(n) > = P X(n) > = P X(n) <
Si pedimos que el mximo sea menor que , es lo mismo que pedir que lo sean
todas las observaciones:
24 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
P X(n) < = P {X1 < , . . . , Xn < }
Y con esto logramos quitarnos los estadsticos de orden, que nos causan problemas
al tratar de seguir con la demostracin. Como las variables de la muestra son
independientes, podemos expresarlo todo como producto
n
Y n
P {Xi < } =
i=1
X n
X
P |Tn | > = <
n=1 n=1
d
n(Tn ) N (0, )
n
n(g(X) g()) = g 0 ( ) n(X )
TV M
c.s c.s
Como X entonces y por lo tanto y usando el Thm. de la
n n
c.s
aplicacin continua (III.1) g 0 ( ) g 0 (). Al final
n
d
g 0 ( ) n(X ) N (0, g 0 () )
n
25 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
n
X
log Ln = log f (; xi ) = 0
i=1
Ejemplos
26 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
P
n
n n n xi
Y Y Y x
n i=1
Ln () = f (xi ; ) = P {X = x} = e =e
i=1 i=1 i=1
x! x1 ! xn !
Tomamos logaritmos:
n
X
log Ln () = n + log xi log (x1 ! xn !)
i=1
y derivando
n
1X
log Ln () = n + xi
i=1
27 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
28 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
La funcin de verosimilitud es
n P
n
Y 1 12
2
(xi )2
Ln = f (xi ; , ) = e i=1
i=1
(2)n/2 ( 2 )n/2
Tomamos logaritmos:
n
n 1 X
log Ln = log(2) n log 2 (xi )2
2 2 i=1
n
X Xn
log Ln 1 1
= 2 (xi )(1) = 2 xi n = 0 = x
i=1 i=1
2 = 2.
luego
k1
k x x k
f (x; , k) = e( ) 1[0,) (x)
n
Y Y n k1
k xi xi k
Ln (k, ) = f (xi , , k) = e( ) =
i=1 i=1
k1 k1
n P
n n P
n
Y 1k xki Y 1k xk
n n n(k1) i=1 n nk i=1 i
=k xi e =k xi e
i=1 i=1
Tomamos logaritmos:
29 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
n
X n
1 X k
log L = n log k nk log + (k 1) log xi k x
i=1
i=1 i
X n X n
log L n xi k x1
= n log + log xi log =0
k k i=1 i=1
k1
Xn Xn
1 1
k = xki = xk
n i=1 n i=1 i
que por la L.G.N. (II.6) converge a una funcin () que es el valor esperado de
esos logaritmos de las muestras:
1
logLn () ()
n n
donde Z
() = E0 log f (X; ) = log f (x; )f (x; 0 ) dx
30 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
P0 Ln (0 ; X1 , . . . , Xn ) > Ln (; X1 , . . . , Xn ) 1 6= 0
n
soporte f = {x R f (x) 6= 0}
Teorema III.5 (Desigualdad de Jensen). Supongamos que X es una v.a. tal que
E (X) < (su 1
esperanza existe y es finita) y que es una funcin convexa tal
que E (X) < .
Entonces
E (X) (E (X))
Ln (0 ; X1 , . . . , Xn ) > Ln (; X1 , . . . , xn )
1
como una parbola y = x2 , ms o menos
31 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
es equivalente a que
Entonces
Z Z
f (Xi ; ) f (x; )
E0 = f (x; 0 ) dx = f (x; ) dx = 1
f (Xi ; 0 ) f (x; 0 )
y por lo tanto
f (Xi ; )
E0 log = log 1 = 0
f (Xi ; 0 )
Entonces, > 0
1 X n
f (X i ; ) f (X; )
P log E0 log > 0
n i=1 f (Xi ; 0 ) f (X; 0 )
n
1 X n
f (Xi ; ) f (X; )
P log E0 log 1
n i=1 f (Xi ; 0 ) f (X; 0 )
n
1 f (X; )
Tomo = E0 log y entonces
2 f (X; 0 )
1 Xn
f (Xi ; ) 1 f (X; )
P log < E0 log < 0 1
n f (Xi ; 0 ) 2 f (X; 0 ) n
i=1
32 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Teorema III.6 (Teorema MV2). Supongamos que se cumplen las condiciones del
teorema MV1 (III.4) y adicionalmente
log Ln (; X1 , . . . , Xn ) = 0 (III.1)
tiene una raz n = n (x1 , . . . , xn ) que converge en probabilidad a 0 (el
verdadero valor del parmetro). Si adems suponemos que la raz es nica, entonces
n maximiza la verosimilitud Ln y por lo tanto es el estimador de mxima
verosimilitud.
Ln (0 )
Ln (0 ) Ln (0 + )
0 0 0 +
Sn = {(x1 , . . . , xn ) Ln (0 ; x1 , . . . , xn ) > Ln (0 ; x1 , . . . , xn )
Ln (0 ; x1 , . . . , xn ) > Ln (0 + ; x1 , . . . , xn )}
En algn punto del interior del intervalo hay un mximo local. Como puede
haber varios mximos locales, tomo n como el punto de mximo local ms cercano
a 0 .
Se cumple que cada uno de esos puntos de mximo satisfacen la ecuacin de
verosimilitud (III.1). En consecuencia n satisface tambin esa misma ecuacin. Por
lo tanto
P n 0 < 1 P n 0 0
n n
33 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
y entonces
P
n 0
n
Si queremos buscar el mejor estimador, buscamos los que minimicen el ECM. Por
lo tanto, nos interesaremos en el subconjunto de estimadores insesgados (sesgo = 0).
Sin embargo, no tenemos una forma clara de distinguir cul es mejor entre esos
estimadores insesgados. En esta seccin vamos a buscar una escala, a la que llamaremos
la informacin de Fisher, que nos dar una cota para la varianza de un estimador.
R
Suponemos que en la integral f (x; ) dx se puede derivar dos veces bajo el signo
R 2
integral (esto es, que 2 f (x; ) dx existe) y que adems se puede permutar la integral
Z Z
2 2
f (x; ) dx = 0 = f (x; ) dx =
2 2
Z Z
2
= log f (x; )f (x; ) dx + log f (x; ) f (x; ) dx = (?)
2
Z Z 2
2
= log f (x; )f (x; ) dx + log f (x; ) f (x; ) dx =
2
" # " 2 #
2
= E log f (X; ) + E log f (X; ) =0
2
34 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Informacin Definicin III.5 Informacin de Fisher. Se denota por I() la informacin de Fisher
de Fisher del parmetro
! 2 !
2
I() = E 2 log f (X; ) = E log f (X; )
X n
Z= log Ln (X, ) = log f (Xi ; )
i=1
3
La desigualdad de Cauchy-Schwartz establece que
Cov2 (Z, Tn )
V (Tn )
V (Z)
Veremos que el numerador vale 1 si Tn es un estimador insesgado, y que
V (Z) = nI().
Primero observamos que
Xn
E (Z) = E log f (Xi ; ) = 0
i=1
Y la varianza
n
X X n 2 !
V (Z) = V log f (Xi ; ) = E log f (X; ) [] = nI()
i=1
i=1
35 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Z
E (ZTn ) = E Z(X1 , . . . , Xn ) Tn (X1 , . . . , Xn ) = Z(x1 , . . . , xn )Tn (x1 , . . . , xn )f (x1 , . . . , xn )
Rn
n
Y
f (x1 , . . . , xn ) = f (xi ; )
i=1
Z Z n
Y
Z(x1 , . . . , xn ) Tn (x1 , . . . , xn ) f (xi ; ) dxi
R R i=1
n
X f (xi ; )
Z= log f (xi ; ) =
i=1
f (xi ; )
Pero
n
X n
Y n
X n
Y
f (xi ; )
f (xj ; )
f (xi ; )
f (xi ; ) dxi = f (xi ;
i=1 i=1 i=1 j=1
j6=i
Yn
f (xi ; )
i=1
36 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Z Z n
Y
cov ( Z, Tn ) = E (ZTn ) = . . . Tn (x1 , . . . , xn ) f (xi ; ) dxi =
R R i=1
Z Z Yn
= . . . Tn (x1 , . . . , xn ) f (xi ; ) dxi =
R R i=1
= E (Tn )
2
dpaE (Tn )
V
nI()
y por lo tanto
2
E
(Tn )
ECM(Tn ) + Sesgo 2 (Tn )
nI()
R
MV4) La integral f (x; ) dx se puede derivar dos veces bajo el signo
integral.
MV5) Para cada x la densidad f (x; ) es tres veces diferenciable con respecto
a , con la tercera derivada continua en .
3
Por ejemplo, porque no tengo ni idea de dnde sale esto.
37 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
MV7) Para cada 0 existen un nmero c > 0 y una funcin M (x), que
pueden depender de 0 , tales que
E0 M (X) <
y
3 log f
(x; ) M (x) x; (0 c, 0 + c)
3
Demostracin.
n () = Ln
(III.2)
0n = n ()
(III.3)
f
f0 = f (III.4)
2
n 0
n (n ) =
0n (0 ) + (n 0 )00n (0 ) + 000
n (n )
2
0 ()2
1
n n
n n 0 =
n1 00n (0 ) 1
2n
n 0 000 ( )
n n
38 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Parte 1: Numerador
X n
" 0 #
1 0 n f 0 (Xi ; 0 ) f (Xi ; 0 )
n (0 ) = E0
n n i=1 f (Xi ; 0 ) f (Xi ; 0 )
f 0 (Xi ;0 )
Como E0 f (Xi ;0 )
= 0 (vete t a saber por qu), la aplicacin del TCL (II.8)
f 0 (Xi ;0 )
a las variables Yi = f (Xi ;0 ) y la definicin de I(0 ) proporcionan directamente
1 0 d
p
(0 ) N (0, V (Y ))
n n n
V (Y ) = E Y 2 E (Y )2 = E Y 2 =
2 !
= E log f (X; ) = I()
1 0 p
d
(0 ) N 0, I(0 )
n n n
1
00n (0 )
n
00n con respecto a tenemos que
Si derivamos de nuevo
n 2
X f 00
(x i ; )f (x i ; ) f 0
(x i ; )
00n () =
i=1
f 2 (xi ; )
39 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
2
00 0
1 P f (xi ; )f (xi ; ) f (xi ; )
00n (0 ) E0 =
n n f 2 (xi ; )
0 2 ! 00
f (Xi ; 0 ) f (Xi ; 0 )
= E0 E0
f (Xi ; 0 ) f (Xi ; 0 )
| {z }
I(0 )
Z
f 00 (Xi ; 0 ) f 00 (Xi ; 0 )
E0 = f (Xi ; 0 ) dx =
f (Xi ; 0 ) R f (Xi ; 0 )
Z
2
= f (x; ) dx
R 2
=0
Z Z
2 2 2
f (x; ) dx = f (x; ) dx = 0 =0
R 2 2 R 2
=0 =0 =0
Por lo tanto
1 P
00n (0 ) I(0 )
n n
000 ( ), y demostraremos
Analizaremos ahora la segunda parte de esa ecuacin, n n
que tiende a una constante.
n
000 1 X 3
n (n ) = log f (Xi ; )
n i=1 3
40 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
n
000 1 X
n (n ) < M (Xi )
n i=1
Este trmino converge a una constante por lo tanto, y entonces se cumple que
1
000 ( ) P 0
n 0 n n
2n n
41 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
m1 = 1 ()
mp = p ()
n
1X k
mk = X
n i=1 i
La idea es estimar el parmetro de tal forma que los momentos muestrales coincidan
con los momentos poblacionales. Por la LGN, cuando n entonces mk k (0 ).
El mtodo de los momentos se utiliza poco ya que da peores estimadores que el
EMV. Sin embargo, puede resultar muy til en casos en los que el EMV se calcula
difcilmente o directamente no se puede calcular. Ah hay que usar mtodos numricos
de aproximacin, y usando el mtodo de los momentos podemos encontrar una primera
aproximacin que mejore la convergencia de los algoritmos numricos de bsqueda de
races.
III.1.3.1. Ejemplos
Si se tiene el modelo
1 + x
f (x; ) = 1[1,1](x) [1, 1]
2
no es sencillo calcular el EMV pero s obtener el estimador por el mtodo de los
momentos:
Z 1
E (X) = xf (x; ) dx =
1 3
2 3 2
V n = V 3X = 9 =
n n
ya que
1 2
2 = V (X) = E X 2 E (X)2 =
3 9
42 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
(a + b) a1
f (x; a, b) = x (1 x)b1 1[0,1] (x)
(a)(b)
y
Z 1
(a + b) a
E (X) = x (1 x)b1 dx =
0 (a)(b)
Z 1
(a + b) (a + 1) (a + b + 1) a
= x (1 x)b1 dx =
(a) (a + b + 1) 0 (a + 1)(b)
| {z }
=1 (f. densidad)
(a + b) (a + 1) (a + b) a(a) a
= =
(a) (a + b + 1) (a) (a + b)(a + b) a+b
!
X(1 X)
a
=X 1
s2
!
b = (1 X) X(1 X)
1
s2
43 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
f (x1 , . . . , xn |)()
(|x1 , . . . , xn ) = Z (III.5)
f (x1 , . . . , xn | )( ) d
Estimador Definicin III.7 Estimador Bayes. Se define, para cada muestra dada (x1 , . . . , xn )
Bayes como la esperanza de la distribucin a posteriori:
Z
Tn (x1 , . . . , xn ) = (|x1 , . . . , xn ) d
44 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
III.1.4.1. Ejemplos
i=1
(14)
() = 3 (1 )9 1[0,1] ()
(4)(10)
45 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Familia Definicin III.8 Familia conjugada. Sea F una familia de distribuciones paramtricas
conjugada f (|), ; y sea una familia de distribuciones a priori () sobre el parmetro
.
Diremos que es la familia de dsitribuciones a priori conjugada de F si la
distribucin a posteriori (|x1 , . . . , xn ) tambin pertence a para toda muestra
(x1 , . . . , xn ) y para toda a priori de .
Tenemos varias familias conjugadas identificadas:
F
Binomial Beta
Normal Normal
Intervalo Definicin III.9 Intervalo de confianza. Sea una muestra X1 , . . . , Xn de una v.a.
de con- con una funcin de distribucin F (.; ), con R un parmetro desconocido.
fianza (1) (2) (1) (2)
Sean dos estadsticos Tn (X1 , . . . , Xn ) y Tn (X1 , . . . , Xn ) con Tn < Tn y un valor
(0, 1). Supongamos que se verifica
n o
P Tn(1) (X1 , . . . , Xn ) < < Tn(2) (X1 , . . . , Xn ) = 1
IC1 ()
46 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
XN ,
n
y, tipificando,
X
N (0, 1)
n
y, despejando
P X z/2 < < X + z/2 =1
n n
47 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
X p
q N (0, 1)
p(1p)
n
P q1 () < Q(; X1 , . . . , Xn ) < q2 () = 1
De hecho, aplicando esto a una suma de varias v.a. X1 , . . . , Xn S 2 , nos queda que
(n 1)S 2
2n1
2
Este resultado proporciona directamente una cantidad pivotal y, en consecuencia,
un intervalo de confianza de nivel 1 para 2 :
!
(n 1)s2 (n 1)s2
,
2n1;/2 2n1;1/2
48 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Z
T =p
W/k
49 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Captulo IV
Contraste de hiptesis
Funcin de Definicin IV.1 Funcin de potencia. La funcin de potencia de un test con regin
potencia de rechazo R para contrastar H0 : 0 frente a H1 : 1 es la funcin
n : 7 [0, 1]
7 n () = P (X1 , . . . , Xn ) R
50 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
max P {R}
0
Tal y como hemos definido , se puede considerar que el nivel de significacin nos
indica la probabilidad de cometer un error de tipo I, es decir, de rechazar H0 cuando
es cierta. Por lo tanto, cuanto menor es el nivel de significacin ms seguros estamos
de que no estamos rechazando H0 por error.
51 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
R = {(x1 , . . . , xn ) (x1 , . . . , xn )
/ IC1 ()}
P-valor del Definicin IV.2 p-valor del contraste. Se define el p-valor del contraste como el
contraste nfimo de los niveles de significacin para los que se rechaza H0 .
De esta forma, si es menor que el p-valor, aceptaremos H0 y si es mayor, la
rechazaremos.
Qu informacin nos va a dar el p-valor? Supongamos que tenemos, por ejemplo,
un p-valor pequeo (< 0.01). Con este valor rechazaramos la hiptesis nula para
los valores ms habituales de niveles de significacin (0.01, 0.05, 0.1). Por lo tanto, en
este caso lo razonable sera rechazar H0 .
Por otra parte, supongamos que tenemos un p-valor grande (> 0.1). En este
caso, aceptaramos la hiptesis nula para los valores ms habituales de , y entonces
lo razonable sera aceptar H0 .
Un p-valor que se encuentra entre 0.01 y 0.1 se considera dudoso. Lo razonable
es revisar la muestra, y si es posible, aumentar su tamao. No se puede decidir de
manera razonable entre H0 y H1 .
De forma general, el p-valor de contraste nos dice la probabilidad de observar la
muestra que hemos obtenido suponiendo que H0 es cierta. Si es muy bajo, nos indicar
que es muy poco probable que la muestra obtenida haya salido as por pura casualidad.
52 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
X 0
Z=
/ n
H0 R
= 0 {(x1 , . . . , xn ) |Z| z 2 }
0 {(x1 , . . . , xn ) Z z 2 }
0 {(x1 , . . . , xn ) Z z 2 }
X 0
T =
s/ n
H0 R
= 0 {(x1 , . . . , xn ) |T | t 2 }
0 {(x1 , . . . , xn ) T t 2 }
0 {(x1 , . . . , xn ) T t 2 }
53 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
X 0 T CL
Z= N (0, 1)
S/ n
H0 R
= 0 {(x1 , . . . , xn ) |Z| z 2 }
0 {(x1 , . . . , xn ) Z z 2 }
0 {(x1 , . . . , xn ) Z z 2 }
H0 : 1 = 2
H0 : 1 2
H0 : 1 = 2
Este ltimo caso (si las varianzas son iguales) suele ser un requisito previo antes de
plantearte contrastes como el segundo ejemplo.
Uno de los test ms usuales es el de igualdad de medias para dos poblaciones
homocedsticas , es decir, con 1 = 2 .
Si
X N (1 , ) X 1 N 0, n1
Independientes
Y N (2 , )
Y 2 N 0, n2
Entonces:
(X 1 ) (Y 2 )
q N (0, 1)
n11 + n12
Todo esto suponiendo que 1 = 2 , desconociendo su valor real. Nos gustara por
tanto, tener en el estadstico un estimador de .
54 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Q1 2n1 ; Q2 2n2
Q1 /n1
F
Q2 /n2
(n1 1)S12
12 (n1 1)
(n2 1)S22
Fn1 1,n2 1
22 (n2 1)
siendo
(n1 1)s21 + (n2 1)s22
s2p =
n1 + n2 2
la varianza combinada.
55 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
D = X Y N (d , )
E (D) = d = 1 2
Si H0 : 1 2 H0 : d 0
Si H0 : 1 2 H0 : d 0
56 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Sucesin Definicin IV.3 Sucesin consistente. Se dice que una sucesin de tests con un
consisten- nivel prefijado es consistente cuando
te
lm n () = 1 1 = \ 0
n
Es decir, que la probabilidad de rechazar la hiptesis nula cuando es falsa, dada por
la funcin de potencia (IV.1), tienda a uno con muestras suficientemente grandes.
Test inses- Definicin IV.4 Test insesgado. Se dice que un test es insesgado cuando
gado
n () 0
n () 1
Test UMP Definicin IV.5 Test UMP. Se dice que un test es uniformemente ms potente
(UMP) dentro de una clase Bn, de tests de nivel basados en muestras de tamao
n cuando
n () n (), 1
57 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
H0 : = 0
H1 : = 1
Denotemos n
Y
fn (x1 , . . . , xn ; ) = f (xi ; )
i=1
verifica P0 (R ) = . Entonces
P1 {R } P1 {R}
Por definicin de R
Z Z
fn (x; 1 ) dx k fn (x; 0 ) dx
R Rc R Rc
y tambin
Z Z
fn (x; 1 ) dx k fn (x; 0 ) dx
Rc R Rc R
Por lo tanto,
Z Z
P1 {R } P1 {R} k fn (x; 0 ) dx fn (x; 0 ) dx =
R Rc Rc R
Z Z
=k fn (x; 0 ) dx fn (x; 0 ) dx =
R R
= k P0 {R } P0 {R} 0
58 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Familia Definicin IV.6 Familia paramtrica CVM. Se dice que f (|) es una familia
para- paramtrica con cociente de verosimilitudes montono (CVM) si existe un
mtrica estadstico Tn (x1 , . . . , xn ) tal que, para todo 1 , 2 con 1 < 2 la razn de
CVM
verosimilitudes
fn (x1 , . . . , xn ; 2 )
fn (x1 , . . . , xn ; 1 )
es una funcin montona no decreciente de Tn (x1 , . . . , xn ).
Podemos ver algunos ejemplos de este tipo de familias.
1 X
Tn (x1 , . . . , xn ) = P Tn (x1 , . . . , xn ) = xi
xi
P0 {tn > k } =
H0 : 0
H1 : > 0 .
59 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
donde
Xn
1
P 0 Xi < =
k
i=1
Ejemplo: Sea f (; ) una uniforme en (0, ). Se deja como ejercicio para el lector
la comprobacin de que la propiedad de CVM y la obtencin del estadstico (que es el
mximo de la muestra)
H0 : i = ci para i = 1, . . . , r k
H1 : 1 6= ci para algn i = 1, . . . , r.
60 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Hallar k segn la probabilidad de error que queramos es algo complejo. Por eso
nos apoyamos en el siguiente teorema:
b. Para todo x, la funcin log f (x; ) tiene derivadas parciales terceras respecto
a los componentes de contnuas.
Entonces, bajo H0 ,
d
2 log n 2r
n
H0 : pi = pi0 i = 1, . . . , k
61 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
O1 ! Ok !
siendo Oj = i xi = aj las frecuencias observadas de los distintos valores
de la variable. Ntese que, bajo H0 , (O1 , . . . , Ok ) tiene distribucin multinomial
M(n : p10 , . . . , pk0 ).
En el denominador tenemos que poner los e.m.v. de cada p, de la siguiente forma
ok
pk =
n
y por lo tanto el denominador queda
O1 Ok
n! O1 Ok
O1 ! Ok ! n n
9 3 3 1
p10 = , p20 = , p30 = , p40 =
16 16 16 16
Observados n = 556 guisantes en la segunda generacin del experimento, se
obtuvieron los siguientes nmeros de guisantes con estos fenotipos:
9 3 1
e1 = 556 = 312.75, e2 = e3 = 556 = 104.25, e4 = 556 = 34.75,
16 16 16
62 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Obtenemos el estadstico
k
X
Oi
2 log n = 2 Oi log = 0.4754
i=1
ei
63 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
H0 : 0 frente a H1 : \ 0
fn (x1 , . . . , xn |)()
(|x1 , . . . , xn ) = R , donde
f (x , . . . , xn |)()d
n 1
n
Y
fn (x1 , . . . , xn |) = f (xi ; ).
i=1
64 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apndice A
Anexos
1
Para todo x salvo los que tienen probabilidad 0
65 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
66 de 160
La distribucion normal
Funci
on de densidad:
1 1 x 2
f (x; , ) = e 2 ( ) , x R, R, > 0
2
Momentos:
E(X ) = , V(X ) = 2
Aplicaciones: Es un modelo muy habitual para la distribuci on de
magnitudes (en fsica, genetica, etc.) que se pueden considerar
como la suma de muchos peque nos efectos independientes (TCL).
En Estadstica aparece como distribuci on lmite de muchos
estadsticos que se usan para la inferencia.
La distribucion exponencial
Funci
on de densidad:
Momentos:
1 1
E(X ) = , V(X ) = 2
Aplicaciones: en modelos de fiabilidad (tiempo de espera hasta que
se produce una avera en un sistema).
Una propiedad interesante (falta de memoria): Si X sigue una
distribuci
on exponencial de parametro , se tiene para a > 0 y
x > 0,
P{X > x + a|X > x} = e a
(no depende de x).
La distribucion gamma
Funci
on de densidad:
ap ax p1
f (x) = e x I[0,) (x), (a > 0, p > 0),
(p)
R
donde (p) = 0 x p1 e x dx. Esta funci on verifica
(p) = (p 1)! cuando p N y (p + 1) = p(p)
Momentos:
p p
E(X ) = , V(X ) = 2
a a
Aplicaciones: Cuando p N se llama distribuci on de Erlang y se
usa en problemas de fiabilidad (tiempo de espera hasta p fallos),
cantidad de lluvia cada, cuanta de las reclamaciones a las
compa nas de seguro, modelos de supervivencia,.... Para a = 1/2
p = n/2, con n N, se llama distribuci on 2 con n grados de
libertad y desempe na un importante papel en Estadstica.
La distribucion uniforme
Funci
on de densidad:
1
f (x; a, ) = I (x), (a, R, a < )
a [a,]
Momentos:
+a ( a)2
E(X ) = , V(X ) =
2 12
Aplicaciones:
La uniforme se relaciona con otras distribuciones a traves de la
siguiente propiedad: si X es v.a. con f. de dist. F continua,
entonces Y = F (X ) tiene distribuci
on uniforme estandar (i.e. con
a = 0, = 1). Esta propiedad se utiliza en los metodos de
generaci
on de numeros (pseudo-)aleatorios: se generan n umeros de
una v.a. Y uniforme estandar y se transforman con F 1 para
obtener observaciones aleatorias con la distribuci
on F .
La distribucion beta
Funci
on de densidad:
(a + b) a1
f (x; a, b) = x (1 x)b1 I[0,1] (x),
(a)(b)
La distribucion de Weibull
Funci
on de densidad:
k x k1 (x/)k
f (x; , k) = e I[0,) (x), (k > 0, > 0)
Momentos:
1 2 2 2 1
E(X ) = 1 + , V(X ) = 1 + 1+
k k k
Aplicaciones:
Tiempos de supervivencia, problemas de fiabilidad en ingeniera,
distribuciones de velocidad del viento en ingeniera, de periodos de
incubacion de algunas enfermedades, etc.
La distribucion de Pareto
Funci
on de densidad:
a
f (x; a, ) = I[a,) (x), (a > 0, > 1)
x +1
Momentos:
2
a a
E (X ) = , V (X ) = , si > 2
1 1 2
Aplicaciones:
Distribuci
on de ingresos, de reservas de petr
oleo, de area
quemadas en bosques, de tama nos de ficheros enviados por e-mail,
de tamanos de partculas,...
La distribucion de Cauchy
Funci
on de densidad:
1
f (x; , a) = h i
x 2
a 1 + a
La distribucion lognormal
Funci
on de densidad:
1 1 log xm 2
f (x; m, a) = e 2 ( a )I
[0,) (x), (m R, a > 0)
xa 2
Momentos:
1 2 2 2
E(X ) = e m+ 2 a , V(X ) = (e a 1)e 2m+a
P(X = 1) = p, P(X = 0) = 1 p.
Momentos:
E(X ) = p, V(X ) = p(1 p)
Aplicaciones: Experimentos aleatorios binarios, i.e. con s
olo dos
posibles resultados.
La distribucion binomial
Funci
on de probabilidad: Se dice que una v.a. X tiene distribuci
on
binomial de parametro p [0, 1] (y se denota X B(n, p)) si
n k
P(X = k) = p (1 p)nk , k = 0, 1, . . . , n
k
Momentos:
E(X ) = np, V(X ) = np(1 p)
Aplicaciones: N
umero de exitos en n pruebas de Bernoulli
independientes en cada una de las cuales la probabilidad de exito
es p. La suma de n v.a. independientes con distribucion B(1, p) es
B(n, p).
La distribucion de Poisson
Funci
on de probabilidad: Se dice que una v.a. X tiene distribuci
on
de Poisson de parametro > 0 (y se denota X P()) si
k
P(X = k) = e , k = 0, 1, 2, . . .
k!
Momentos:
E(X ) = , V(X ) =
Aplicaciones: Frecuentemente se utiliza como modelo
probabilstico para el estudio de fen
omenos como el n umero de
sucesos (tales como llegadas de clientes a un servicio, llamadas
telef
onicas a una centralita, accidentes,...) que se producen en un
periodo de tiempo prefijado. Aparece como lmite de la binomial
en el siguiente sentido: Si Xn B(n, pn ) y npn > 0, entonces
k
lim P(Xn = k) = e , k = 0, 1, 2, . . .
n k!
La distribucion binomial negativa
Funci
on de probabilidad: Se dice que una v.a. X tiene distribuci on
binomial negativa de parametros p [0, 1] y r N (y se denota
X BN(r , p)) si
k 1 r
P(X = k) = p (1 p)kr , k = r , r + 1, r + 2, . . .
r 1
Momentos:
r 1p
E(X ) = , V(X ) = r 2
p p
Aplicaciones: Es un modelo discreto de tiempo de espera: En
una sucesi on de experimentos de Bernoulli con probabilidad exito
p, la distribuci
on del n
umero de pruebas necesarias para obtener r
exitos es BN(r , p). La distribuci
on BN(1, p) se denomina
geometrica.
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
72 de 160
CONTRASTES DE HIPOTESIS
NOTACION:
= nivel de significacion del contraste.
n= tama no de la muestra.
H0 = hipotesis nula.
R= region crtica o de rechazo de H0 .
1) X N (, ).
n o
H0 : = 0 ( desconocida); R = | x 0 | > tn1;/2 sn
n o
H0 : 0 ( desconocida); R= x 0 > tn1; sn
n o
H0 : 0 ( desconocida); R= x 0 < tn1;1 sn (tn1;1 = tn1; )
n h io
H0 : = 0 ; R = n1 02
s 2
/ 2
n1;1/2 , 2
n1;/2
n o
H0 : 0 ; R = n1 02
s2 > 2n1;
n o
H0 : 0 ; R = n1 2
s 2 < 2
n1;1
0
q
p0 (1p0 )
H0 : p p0 ; R= p0 > z
x n
q
p0 (1p0 )
H0 : p p0 ; R= p0 < z1
x n (z1 = z )
P P
x i + yi n1 x
+ n2 y
donde p = =
n1 + n2 n1 + n2
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apndice B
Ejercicios
75 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 1.1:
> hist(x)
Histogram of x
1500
Frequency
500
0
0 2 4 6 8
x
1
76 de 160
> plot(density(x,kernel=gaussian))
density.default(x = x, kernel = "gaussian")
0.6
Density
0.4
0.2
0.0
0 2 4 6 8
N = 6711 Bandwidth = 0.08785
> sum(x>2)/length(x)
[1] 0.0606467
> skewness(x)
[1] 1.797857
2
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
buscamos su derivada n
X
0
g (a) = 2 (xi a)
i=1
e igualamos a cero:
n
X
2 (xi a) = 0
i=1
n
X n
X
xi a=0
i=1 i=1
nx = na
x=a
Esto quiere decir que la media muestral es el valor que minimiza la distancia con
cada uno de los datos de la muestra.
78 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 1.3:
Soluci
on:
X = read.table("tortugas.txt",header=T)
boxplot(X$Largo,X$Largo[X$Sexo==1],X$Largo[X$Sexo==0],
names=cbind("Total","Machos","Hembras"),col=cbind("green","blue","red"))
180
160
140
120
100
79 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 1.4:
Los datos del fichero Datos-kevlar.txt corresponden al tiempo hasta el fallo (en horas) de
101 barras de un material utilizado en los transbordadores espaciales, llamado Kevlar49/epoxy,
sometidas a un cierto nivel de esfuerzo. Los datos han sido tomados de Barlow et al. (1984).
(a) Calcula las principales medidas numericas descriptivas de estos datos.
(b) Representa un diagrama de cajas.
(c) Representa un histograma con un n
umero de clases apropiado.
(d) Estudia la presencia de datos atpicos en la muestra. Si hay datos atpicos, suprmelos y
repite todos los apartados anteriores. Compara los resultados obtenidos.
> x = scan(Datos-kevlar.txt)
Read 101 items
> mean(x)
[1] 1.024018
> median(x)
[1] 0.799838
> var(x)
[1] 1.248112
> sd(x)
[1] 1.117189
> skewness(x)
[1] 3.009575
> boxplot(x)
8
6
4
2
0
0 2 4 6 8
x
1
80 de 160
> hist(x)$breaks
[1] 0 1 2 3 4 5 6 7 8
> n=length(x)
> sqrt(n)
[1] 10.04988
> n=length(x)
> sqrt(n)
[1] 10.04988
> (max(x)-min(x))/sqrt(n)
[1] 0.7840221
> max(x)
[1] 7.889078
> min(x)
[1] 0.00975351
> hist(x,breaks=seq(0,8,0.5))
Histogram of x
30
Frequency
20
5 10
0
0 2 4 6 8
x
> plot(density(x,kernel=gaussian))
density.default(x = x, kernel = "gaussian")
0.0 0.1 0.2 0.3 0.4 0.5
Density
0 2 4 6 8
N = 101 Bandwidth = 0.3231
2
> xOrd=sort(x)
> xOrdSin=xOrd[1:(n-3)]
> mean(xOrdSin)
[1] 0.8841606
> median(xOrdSin)
[1] 0.7889238
> var(xOrdSin)
[1] 0.5386131
> boxplot(xOrdSin)
3.0
2.0
1.0
0.0
> skewness(xOrdSin)
[1] 0.9158652
> xOrdSin=xOrd[1:(n-4)]
> boxplot(xOrdSin)
3.0
2.0
1.0
0.0
3
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado a)
Falso. Aadir siete a todos los datos es una traslacin, as que la distribucin de
los datos no cambia. El rango intercuartlico se mantiene y el cuantil tambin.
Apartado b)
Teniendo en cuenta que si multiplicamos todos los datos del conjunto por 2 la
media tambin se multiplica por 2, y sustituyendo en la frmula de la varianza:
s s
0 1X 1X
= n(2xi )2 (2x)2 = 4 nx2i x2 = 4 2 = 2
n i=1 n i=1
Apartado c)
Usando los clculos del apartado anterior vemos que la varianza se multiplica por
cuatro.
Apartado d)
Efectivamente: cambiar el signo hara una reflexin de los datos sobre el eje Y y la
asimetra estara orientada hacia el lado contrario.
Apartado e)
83 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Teniendo en cuenta que si multiplicamos todos los datos del conjunto por 3 la
media tambin se multiplica por 3
El coeficiente de asimetra se calcula:
n
1X
(xi x)3
n i=1
n n n
1X 1X 3 1X
(3xi 3x)3 = 3 (xi x)3 = 27 (x x)3
n i=1 n i=1 n i=1
Apartado f)
Falso.
n
(
1X y j = xj 1
2 =
(yj y)2 = P P
n j=1 y = n1 nj=1 (xj 1) = n1 ( nj=1 xj ) 1 = x 1
n n
1X 1X
= (xj 1 (x 1))2 = (xj x)2 = 2
n j=1 n j=1
Apartado g)
Falso. 2 variables pueden tener una correlacin creciente aunque yi < xi .
Apartado h)
Falso. La desviacin tpica se mantiene (los datos siguen estando igual de
separados).
Apartado i)
Verdadero. Al hacer el clculo de la media no vara (en la frmula del ejercicio 2 se
puede comprobar que si aadimos un xi = x el sumatorio de la derecha queda igual)
y la desviacin tpica disminuye.
84 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 1.6:
Call:
lm(formula = CircAbd ~ Peso)
Coefficients:
(Intercept) Peso
34.2604 0.3258
> cor(Peso,CircAbd)
[1] 0.8879949
> zz=abline(lm(CircAbd~Peso))
140
120
CircAbd
100
80
85 de 160
> hist(Peso)
> hist(CircAbd) Histogram of Peso Histogram of CircAbd
80
80
60
60
Frequency
Frequency
40
40
20
20
0
0
100 150 200 250 300 350 60 80 100 120 140
Peso CircAbd
> hist(log(Peso))
> hist(log(CircAbd))
Histogram of log(Peso) Histogram of log(CircAbd)
80
50
60
Frequency
Frequency
40
30
20
10
0
4.8 5.0 5.2 5.4 5.6 5.8 4.2 4.4 4.6 4.8 5.0
log(Peso) log(CircAbd)
> skewness(Peso)
[1] 1.198077
> skewness(log(Peso))
[1] 0.317743
> skewness(log(CircAbd))
[1] 0.3548225
plot(log(Peso),log(CircAbd))
5.0
4.8
log(CircAbd)
4.6
4.4
Call:
lm(formula = y ~ x)
Coefficients:
(Intercept) x
33.83 10.74
> cor(x,y)
[1] 0.8584273
90
80
70
y
60
50
40
Fijndose en los intervalos entre los que se mueven los datos es la forma ms fcil.
12
21
33
Apartado a)
Parece que s.
Apartado b)
Bastante obvio que s
Apartado c)
0.83. Como la nube de puntos parece que se aproxima a una recta con pendiente
positiva, la correlacin debe ser positiva. Adems, como se parece bastante a una
recta, la correlacin debe ser cercana a 1.
88 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 1.9:
Temperatura (x) -5 -4 -3 -2 -1 0 1 2 3 4 5
Rendimiento (y) 1 5 4 7 10 8 9 13 14 13 18
# Temperatura:
x = -5:5
# Rendimiento:
y = c(1,5,4,7,10,8,9,13,14,13,18)
# Diagrama de dispersion
plot(x,y)
# Coeficiente de correlacion
cor(x,y)
# Recta de regresion:
zz = lm(y~x)
abline(zz)
4 2 0 2 4
x
y = 9,27 + 1,44x r = 0,956 y(3,5) = 9,27 + 1,44 3,5 = 14,30
89 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Para que el coeficiente de correlacin sea exactamente 1, los puntos tienen que
estar en la misma recta. Buscamos el x que cumpla eso.
Apartado a)
x=6
Apartado b)
Imposible (porque los 3 puntos dados no estn alineados)
90 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 2.1: Se desea estimar el momento de orden 4, 3 = E X 3
en una v.a. X con distribucin exponencial de parmetro 2, es decir, la funcin
de distribucin de X es F (t) = P {X t} = 1 e2t para t 0. Definir un
estimador natural para 3 y calcular su error cuadrtico medio.
3 ) = E (
ECM( 3 3 )2 = E (
3 E (
3 ) + E (
3 ) 3 ) 2 =
E (3 E (3 ))2 + (E (3 ) 3 )2 + 2 (
3 E (3 )) (E (3 ) 3 )
| {z } | {z } | {z }
(a) (b) (c)
3 ) = E (
sesgo( 3 ) 3 = 3 3 = 0
X X
1 1 1 X V X 3
V (
3 ) = V Xi3 = 2 V Xi3 = 2 V Xi3 =
n n n n
y por lo tanto
171 1
ECM(
3 ) = =O 0
16n n n
donde lo que ms nos importa es la convergencia a cero, que indica que cuanto
ms muestras tenemos mejor ser el estimador.
91 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado a)
Como = 4, la desigualdad de Chebichev nos da una cota de
V X
V (X)
P X 4 > 0.3 2
= ' 0.22
0.3 n 0.32
Apartado b)
Normalizamos
X 4
Z= N (0, 1)
1
50
y calculamos.
( )
0.3
P X 4 > 0.3 = P |Z| > 1 = 2 P {Z > 2.12} = 0.034
50
92 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
a = 3
b = 6
n = 20
t = seq(0,1,0.01)
densidad = dbeta(t, a, b, ncp = 0, log = FALSE)
fndistrib = pbeta(t, a, b, ncp = 0, log = FALSE)
X = rbeta(n,a, b, ncp = 0)
kernelest = density(X,kernel="gaussian")
M = max(max(densidad),max(kernelest$y))
distremp = ecdf(X)
layout(matrix(1:2,2,1))
layout.show(2)
plot(t,densidad,type="l",lwd=2,col="tomato3",xlab="",ylab="",ylim=c(0,M),
main="Densidad y estimador kernel",font.main=1,cex.main=1)
lines(kernelest,type="l",lwd=2,col="navyblue")
mtext("Distribucin beta(3,6)",side=3,line=3,cex=1.5)
plot(t,fndistrib,type="l",lwd=2,col="tomato3",xlab="",ylab="",ylim=c(0,1),
main="Funcin de distribucin poblacional y emprica",font.main=1,cex.main=1)
lines(distremp,do.points=FALSE,lwd=2,col="navyblue")
93 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado a)
Z Z
2 2
Cn = Fn (t) F (t) dF (t) = Fn (t) F (t) f (t) dt
R R
Tenemos que
Fn (t) F (t) sup Fn (t) F (t) = kFn F k
t
entonces
Z Z
2
Fn (t) F (t) f (t) dt kFn F k2 f (t) dt = kFn F k2
R R
c.s
kFn F k2 0
n
Apartado b)
Para calcular la distribucin asinttica de
Dn = n Fn (t) F (t)
usamos el Teorema Central del Lmite (II.8). Necesitamos algo que se asemeje a
una media muestral, y de hecho
n n
1X 1X
Fn (t) = 1(,t] (Xi ) = Yi = Y
n i=1 n i=1
Ya podemos aplicar el TCL, pero nos falta saber cul es la desviacin tpica de Y .
Como es una distribucin de Bernoulli
94 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Viendo la funcin, vemos que es simtrica con respecto al eje x = . Por lo tanto, el
punto que deja a izquierda y derecha la misma probablidad, la mediana, es precisamente
.
La moda es el valor mximo de la distribucin,
1 2(x )
f 0 (x; ) = = 0 x =
(1 + (x )2 )2
n o V (X)
P X E (X) >
2
Tenemos que = E X , tenemos que hallar V X :
V (X) 2
V X = = = 0.015
n n
Y por lo tanto,
95 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
P X < 0.1 = 1 P X > 0.1 0.5
| {z }
1.5
X
Z= N (0, 1)
n
Entonces:
P X < 0.1 = 1 P X > 0.1 =
( ) ( )
0.1 n 0.1 n
= 1 P |Z| > =12P Z > = 0.582
V(X)
(Recordemos que V X = n
y que E X = = E (X))
FX(r) (x) = P X(r) x
n
X
P exactamente j observaciones de la muestra1 son x =
j=r
n
X n
X
n nj
= P B(n, F (x)) = j = j
F (x) 1 F (x)
j=r j=r j
96 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
fX(r) (x) =
Xn
n
= j(F (x)j1 (1 F (x))nj f (x) (F (x))j (n j)(1 F (x))nj1 f (x) =
j=r j
n
X n
X
n j1 nj n j nj1
= j(F (x) (1 F (x)) f (x) (F (x)) (n j)(1 F (x)) f (x) =
j=r j j=r j
Xn
n n
= r(F (x))r1 (1 F (x))n1 f (x) + j1
j(F (x)) f (x)(1 F (x))
nj
r j=r+1 j
n
X n
j nj1
(n j)(F (x)) (1 F (x)) f (x) =
j=r j
n1
X
n 1 r1 nr n 1 l nl1
n (F (x)) (1 F (x)) f (x) + n (F (x)) (1 F (x)) f (x)
r1 l=r l
n1
X n 1 j nj1
n (F (x)) (1 F (x)) f (x)
j=r j
Consideremos los dos casos particulares del mnimo y mximo de la muestra. Con
el mnimo, r = 1 y entonces:
n
X n
FX(1) (x) = P X(1) x = j
(F (x)) (1 F (x))
nj
= 2 1 (1 F (x))n
j=1 j
P
n n
2
1 = 1n = (1 F (x) + F (x))n = (F (x))j (1 F (x))nj
j=0 j
3
j X(j) X = P {X x} = F (x)
97 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Xn Xn !
1 t X i 1 t X i
E fn (t) = E K = E K =
nh i=1 h nh i=1 h
! Z
1 tX 1 tx
= E K = K f (x) dx = ...
h h h R h
Z Z Z
1 tx 1
... = K f (x) d(x) = K(z)f (thz)(h) dz = K(z)f (thz) dz
h h h
R
Usando que K es funcin de densidad = K = 1, (B.1) nos queda
Z Z Z
... = K(z)f (t hz) dz K(z)f (t) dz = K(z) f (t hz) f (t) dz =
Z Z Z
0 1 2 00 2 1 3 000
= hf (t) zK(z) dz + h f (t) z K(z) dz + h f (t) z 3 K(z) dz +
2 6
98 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Y
4
Como X exp() ( > 0) Y = X 1/3 X = ( )3
y 3 ( y )3
3
y2
f (x) = f (( ) ) = e = e = f (y)
Z
Y 3 y y2
F (X) = F (( ) ) = f (( )3 )(3 3 )dy =
Z 2
y y 3 y 3
= 3 2 e 2 dy = e 2 + C = F (Y ), C R
y3
Finalmente, como e 2 es creciente con valor mximo 0 y mnimo -1 = C = 1.
La funcin cuantlica por definicin es: F 1 (p) = inf {y F (y) p}, luego
y3
F 1 (p) = nf {y 1 e 2 p}
p[0,1]
Apartado a)
Buscamos el mximo de la funcin de verosimilitud
n
Y 1 1 P 2
2 xi
Ln (; X1 , ..., Xn ) = f (xi ; ) = n e
i=1
( 2 ) 2
99 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
n n 1 X 2
logLn () = log(2) log() xi
2 2 2
Para ello derivamos e igualamos a 0.
n 1 X 2
logLn () = + 2 xi = 0
2 2
P 2!
1 n x 1X 2
+ 2 i = 0 = Tn = e.m.v.() = xi
2 n
Apartado b)
P
E (Tn ) = E 1
n
x2i = E X 2 =
Nos tenemos que dar cuentade que V (X) = E X 2 E (X)2 . En este caso
E (X) = = 0 por lo que E X 2 = por hiptesis. Vamos a calcular la informacin
de fisher para comprobar si el estimador es eficiente o no.
1 1 1
logf (x; ) = log(2) log() X 2
2 2 2
Derivamos:
1 1
logf (x; ) = + 2 X 2
2 2
Elegimos derivar otra vez o elevar al cuadrado (2 alternativas para calcularlo).
En este caso vamos a elevar al cuadrado:
!
1 X4 X2
logf (X; ) = 2 1+ 2 2
4
! !
1 X 4
X 2 E X 4 E X 2
I() = E 2 1+ 2 2 = 1 1+ 2
4 42 2
Aplicamos por hiptesis: E X 4 = 32
!
1 32 1
I() = 2 1+ 2 2 =
4 22
Vamos a calcular
X
1 1 X n
V (Tn ) = V x2i = 2 V x2i = 2 V X 2 =
n n n
100 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
1 1 22 1
E X 4 E X 2 = (32 2 ) = =
n n n nI()
Tn asintticamente normal.
Apartado c)
Vamos a estudiar la distribucin asinttica:
d
n(Tn ) N (0, ())
n
Llamando Yi = Xi2 = E (Y ) = E X 2 =
Entonces por el TCL (Teorema Central del Lmite):
d
p
n(Y E (Y )) N (0, V (Y ))
n
2
Donde V (Y ) = V X 2 = E (X 2 )2 E X 2 = 32 2 = 22
Apartado a)
La probabilidad sigue una distribucin geomtrica de parmetro p:
P {X = k} = (1 p)k1 p
Apartado b)
Calculamos la funcin de verosimilitud:
101 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
n n P
n
Y Y xi 1
xi 1
Ln (p; x1 , . . . , xn ) = f (xi ; p) = (1 p) p = (1 p)i=1 pn
i=1 i=1
Tomamos logaritmos
n
X
log Ln (p) = log(1 p) (xi 1) + n log p
i=1
y derivando
n
1 X n
log Ln (p) = (xi 1) + = 0
p 1 p i=1 p
n
1 p 1 X 1
= (xi 1) 1 p = p(x 1) emv(p) = p =
p n i=1 x
p
d
n(g(X) g(E (X))) = p p) N 0, g 0 (E (X)) V (X)
n(
n
1p
Como g 0 (x) = 1
x2
, y V (X) = p2
, entonces
!
p 1 1p p
N 0, g 0 (E (X)) V (X) = N 0, 1 = N 0, p 1 p
p2
p
x
P (X = x) = e
x!
El clculo del estimador de mxima verosimilitud se hizo en clase llegando a = x
(III.1.2.1).
Para ver si es eficiente vemos si es su varianza es igual a la cota de FCR. Necesitamos
la informacin de Fisher para comprobar eso.
102 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
x
log f (; x) = 1 + + 0
Para calcular la informacin de Fisher podemos volver a derivar o elevar al cuadrado.
Elegimos volver a derivar
2 x
2
log f (; x) = 2
Entonces tenemos que
!
2 x 1 1
I() = E 2 log f (; x) = E = E (X) =
2 2
1
La cota de FCR ser entonces 1 = .
n n
Calculamos la varianza:
V (x)
V () = V (x) = =
n n
Como tenemos la igualdad podemos afirmar que si es un estimador eficiente.
Apartado a)
103 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
P P ! 21
x2i x2i
= 2 = = = emv() =
2n 2n
p 2
2
Estimador razonable porque E x 2
= V (x) + E (x) =
2
+ 4 2
2
=
2 2 1
2 = 2
E(x2 )
Buscamos ahora el estimador por el mtodo de los momentos
r
E (X) = =X
2
y entonces el estimador es r
2
= X
Apartado b)
Consistencia: 2 = 12 Y , Yi = Xi2
Por la ley fuerte de los grandes nmeros (II.6) sabemos que:
cs
Y E (Y ) = E (X 2 ) = 22
n
Apartado c)
Queremos aplicar el mtodo delta:
d p
n( ) = n g Y g E(Y ) N (0, g 0 (E(Y )) V (Y )
n
E (Y ) = E (X 2 ) = 22
V (Y ) = E(X 4 ) E 2 (X 2 ) = 84 44 = 44
1 1
Entonces tenemos que g 0 (E(Y )) = p = .
2 2E(Y ) 4
Con esta informacin completamos:
r !
d 1
n( ) N 0,
n 2
104 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
r
2 2 2
n( ) = n X E (X) = n(X E (X))
r r r ! r !
2 d 2 4 4
n(X E (X)) N 0, =N 0,
n 2
Ejercicio 3.6: Se dice que una v.a. X tiene distribucin Beta de parmetros
a>0y
b > 0 (y se denota X Beta(a, b)) si su funcin de densidad es
(a + b) a1
f (x; a, b) = x (1 x)b1 1[0,1] (x).
(a)(b)
Z1 Z1
(a + b) a1
E (X) = xf (x)dx = x x (1 x)b1 dx = (B.2)
(a)(b)
0 0
Z1
(a + b) (a + 1)(b) (a + 1 + b) (a+1)1
= x (1 x)b1 dx =
(a)(b) (a + 1 + b) (a + 1)(b)
0
| {z }
=1 porque es la funcin de densidad de una Beta(a + 1, b)
(a + b) a (a)(b) a
= =
(a)(b) (a + b) (a + b) a+b
105 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Z1 Z1
(a + b) a1
E X 2
= x2 f (x)dx = x2 x (1 x)b1 dx = (B.4)
(a)(b)
0 0
Z1
(a + b) (a + 2)(b) (a + 2 + b) (a+2)1
= x (1 x)b1 dx =
(a)(b) (a + 2 + b) (a + 2)(b)
0
| {z }
=1 porque es la funcin de densidad de una Beta(a + 2, b)
Ejercicio 3.7:
Ejercicio 3.8: Sea X N (, ). Estamos interesados en la estimacin
de basados en muestras X1 , . . . , Xn de tamao n. Calcular la cota de Frchet-
Cramer-Rao (III.7) para estimadores insesgados.
La cota FCR es
1
nI()
2 ! !
2
I() = E log f (X; ) = E log f (X; )
2
1 1 1
log f (X; ) = log 2 log (x )2
2 2 2
y derivamos dos veces
106 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
1 1
log f (X; ) = log f (X; ) = + 2 (x )2
2 2
2 1 2 2 1 1 1 2
log f (X; ) = 2 3 (x ) = 2 (x )
2 2 2 2
22
y por lo tanto la cota FCR vale , el valor mnimo.
n
f (x; ) = x1
Sea n
1 X
Tn (X1 , . . . , Xn ) = log Xi
n i=1
a) Probar que
1 1
E (Tn ) = ; V (Tn ) = 2
n
b) Es eficiente Tn como estimador de 1 ?
Apartado a)
Aplicamos que la esperanza de la media muestral de una variable es la esperanza
de la variable. En este caso nuestra variable es logX.
Z 1
1
E (Tn ) = E (log X) = log xx1 dx =
0
V (X)
Calculamos ahora la varianza (aplicando V X = ).
n
V (log X)
V (Tn ) = =
n
1
= E log2 X E (log X)2 = 2
107 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
e(n+a) ( xi +p)1
(a + n, xi + p)
108 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Dibujoo!
n = e.m.v.() = max Ln ()
109 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 4.1 y 2:
a) Representa un estimador de la funcin de densidad de la v.a. X = cantidad
de contaminacin por mercurio (en p.p.m.) en los peces capturados en los ros
norteamericanos Lumber y Wacamaw (ver fichero Datos-mercurio.txt). Comparar
esta densidad estimada con la densidad normal de igual media y desviacin tpica
(representada en la misma grfica). En vista de las dos funciones diras que la
funcin de densidad de X es aproximadamente normal?
b) Obtener un intervalo de confianza de nivel 0.95 para la media de X.
c) Se puede considerar fiable este intervalo a pesar de la posible no-normalidad
de X?
d) Qu tamao muestral habr que tomar para estimar la contaminacin media
con un error mximo de 0.06?
Ejercicio 4.3:
a) Representa en un mismo grfico las densidades de las distribuciones 2k con
k = 4,8,20,30.
b) X (5, 10). Calcular P{X 3}
c) Sea Y 2200 . Calcular P{Y 3}
Apartado a)
El cdigo R utilizado para generar las grficas es:
> x = seq(0,20,length.out=1000)
> d1=dchisq(x,df=4)
> d2=dchisq(x,df=8)
> d3=dchisq(x,df=10)
> d4=dchisq(x,df=20)
> plot(x,d1,type=l)
> lines(x,d2,type=l,col=blue)
> lines(x,d3,type=l,col=green)
> lines(x,d4,type=l,col=red)
110 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado b)
Vamos a usar el resultado visto en clase: Si X (a, p) entonces tenemos que
a a
X c ( , p) = c X ( , p)
c c
a 1 k
Como ,p , y a = 5, p = 10
c 2 2
P {10X 30} = P 220 30
Y la otra es irse a las tablas y vemos que P{220 30} ' 1 0.1+0.05
2
= 0.93, ya
que en las tablas estamos entre 28.4 y 31.4.
Apartado c)
Sea Y 2200
Podemos hacerlo en R directamente y nos da P {Y 3} = 10141
A mano, aplicamos el T.C.L, que dice:
d
n(X ) N (0, )
n
111 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
r !
V (X)
Entonces tenemos: X N E (X) ,
n
Donde5 E (X) = E Z 2 = V (Z) = 1 y V (X) = V Z 2 = V 21 = 2
Con lo que: r !
2 1
XN 1, = N 1,
200 10
Sustituyendo y estandarizando:
( )
3
3 1
P X 'P Z 200
1 = P {Z 9.85} = 3 1023
20 10
Una diferencia bastante distinta a lo que deca R. Tras un debate entre Miguel y
Amparo de 10 minutos no se ha llegado a ninguna conclusin.
Ejercicio 4.4:
a) Utilizando el fichero Datos-lipidos.txt, estima, mediante un intervalo de
confianza de nivel 0.95, la proporcin de pacientes que tienen una concentracin
de colesterol superior o igual a 220 mg/dl. Qu tamao muestral habr que usar
para tener una probabilidad aproximada de 0.95 de no cometer un error mayor que
0.01 en la estimacin de esta proporcin?
b)
Ejercicio 4.5: Sea una v.a. con funcin de densidad f (x; ) = x(+1) 1[1,)
a) Obtener el e.m.v.
b) Obtener su distribucin asinttica
c) Calcular la cantidad pivotal aproximada y, a partir de ella, un intervalo de
confianza de nivel aproximada 1 para
Apartado a)
logL() 1
= 0 = e.m.v.() =
Y
donde Y = logXi
Apartado b)
5
Recuerda: V 2k = 2 k
112 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Posibles caminos:
d
a) ?
n
d
b) n( ) N (0, ?)
n
113 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
= E (X) ; = V (X)
n g(X) g(u) N (0, g 0 (u) )
n
d 0 1 p
n( ) =
n g(y) g(E (Y )) N 0, g V (Y )
= N (0, )
n
| {z }
2
Peeero... hay que tener cuidado con que = g(E (Y )) porque sino no podemos
aplicar el mtodo delta.
Z
1 1
V (Y ) = E Y 2
E 2
Y = (log x)2 x(+1) dx 2 = 2
|1 {z }
2
2
Apartado c)
La cantidad pivotal es un estadstico que depende de la muestra y del parmetro
desconocido (del que estamos calculando el intervalo) y cuya distribucin, al menos
asintticamente) es totalmente conocida.
En el apartado b) hemos encontrado la distribucin asinttica para poder construir
la cantidad pivotal.
Tipificamos el resultado anterior para evitar que la distribucin dependa del
parmetro desconocido.
!
1
n( ) = n 1 = Q(; X1 , ..., XN )
y depende
Esta es nuestra cantidad pivotal, que depende de la muestra (por el )
del parmetro.
1 = P = {q1 () Q(; X1 , ..., XN ) q2 ()}
Tras despejar obtenemos
IC1 () = ( , )
1+ 1 z/2 1 1 z/2
n n
114 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
El e.m.v es
emv() = = max Xi
La cantidad pivotal para = Q(; X1 , . . . , Xn )
n o Yn 0
x<0
x n
FX(n) (x) = P n x = P X(n) x = P {Xi x} = 0x
i=1 1 x>1
X(n)
Tomo Q(; X1 , . . . , Xn ) = = , que es vlido como cantidad pivotal porque
n
0 x<0
X(n)
P {Q x} = P n
x = x 0x
1 x>1
1 = P q1 () Q(; X1 , . . . , Xn ) q2 ()
Es decir, tenemos que buscar que q1 q2 sea ms pequeo y adems tienen que
ser lo mayores posible. Por lo tanto, la eleccin ptima es
q2 = 1, q1 = 1/n
115 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado a)
El TCL (II.8) nos dice que
X d
n N (0, 1)
n
Entonces tenemos que
( )
X
1 = P z/2 n z/2 (B.5)
P,c.s
Sustituyo en el denominador por una estimacin consistente :
n
X d
n p N (0, 1)
n
X d
n N (0, 1)
X n
X
y por lo tanto tomamos n como nuestra cantidad pivotal. Despejamos
X
ahora en (B.5):
s s
X X
P X z/2 X + z/2
n n
Apartado b)
Partimos de nuevo de (B.5), pero no tenemos que estimar . Esta ecuacin es
equivalente a
116 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
( )
(X )2
P n 2
z/2
Apartado c)
Tenemos que buscar que se satisfaga la ecuacin
d
n(g(X) g()) N (0, 1)
n
d p
n(g(X) g()) N (0, g 0 () V (X))
n
0
g () = 1 = g 0 () = 1
e integrando vemos que g() = 2 .
Ejercicio 4.8:
a) Se desea evaluar aproximadamente, por el mtodo de Montecarlo, la integral
Z 1
p= f (x) dx
0
de una funcin continua f : [0, 1] 7 [0, 1]. Para ello se generan 500 observaciones
independientes (Xi , Yi ) con i = 1, . . . , 500 con distribucin uniforme en el cuadrado
[0, 1] [0, 1] y se estima p mediante
500
X Zi
p =
i=1
500
Apartado a)
La v.a. sigue una distribucin de Bernoulli, de tal forma que
P {Z = 1} = P Y f (X) (B.6)
117 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Z 1 Z f (x) Z 1
P {Z = 1} = P (X, Y ) {(x, y) y f (x) } = dy dx = f (x) dx = p
0 0 0
r ! r !
z(1 z) p(1 p)
IC0.99 (p) = z Z0.005 = p 2575 ) = (0.45 0.057)
500 500
Apartado b)
En este caso sabemos el valor de
Z 1
1
p= x2 dx =
0 3
Buscamos un n que cumpla:
s
1
3
23
z0.005 = n > 14734.72
n
Ejercicio 4.9: Sea X una v.a. con distribucin normal de media y varianza
. Estamos interesados en la estimacin de basados
en muestras X1 , ..., Xn . Si
s denota la cuasivarianza muestral, calcular V s y compararla con la cota de
2 2
118 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Si X N (, ) entonces
(n 1)s2
2n1
2
Vamos a utilizar la segunda opcin6 y que V 2n1 = 2(n 1):
!
n1 2 2 4 n1 2
V s 2
=V s = V s =
2 n1 (n 1)2 2
4 2 = 2 22
= V 2
n1 = 2(n 1) =
(n 1)2 (n 1)2 n1
2 2
s por lo tanto no es eficiente porque la Cota de FCR es: . Por ser la
n
varianza de una N (, ), cuya cota de FCR se calcula en el problema 8H3.
6
ver (III.2.3.1)
119 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
B.5.1. Hoja 5A
Ejercicio 5.1: En octubre de 2007 el peridico The New York Times realiz
un muestreo en 20 restaurantes y tiendas de Nueva York con objeto de analizar la
variable X, que representa el contenido en ppm de metilmercurio en el sushi de atn
que se pone a la venta. La media y la cuasi-desviacin tpica muestrales obtenidas
con estas 20 observaciones de X fueron x = 0.794, s = 0.2953. Supongamos que
X tiene distribucin aproximadamente normal.
a) Proporcionan estos datos suficiente evidencia estadstica a nivel 0.05 a favor
de la hiptesis de que la concentracin media de metilmercurio en las raciones de
sushi de atn en la poblacin considerada es superior a 0.6 ppm? El p-valor, es
menor o mayor que 0.01?
b) Obtener, a partir de estos datos, un intervalo de confianza de nivel 0.95
para la concentracin media de metilmercurio en toda la poblacin. Calcular el
mnimo tamao muestral mnimo que habra que utilizar para, con una probabilidad
de 0.95, estimar la concentracin media de metilmercurio con un error mximo de
0.06 ppm.
Apartado a)
Empezamos definiendo la hiptesis nula, que ser que 0.6 ya que queremos
una evidencia muy fuerte para rechazar que la concentracin suba del nivel mnimo.
Tenemos el siguiente contraste a nivel = 0.05:
H0 : 0.6
H1 : > 0.6
R = {T > t19; }
donde
x 0.6
T = = 2.938
0.2953/ 20
Por otra parte, t19; = 1.729. Se cumple la condicin de la regin de rechazo, por
lo tanto rechazamos H0 . El p-valor del contraste tendr que ser menor entonces que
0.05.
Para saber si el p-valor es menor que 0.01 calculamos t19;0.01 = 2.53. Como sigue
siendo menor que T , seguimos rechazando H0 y por lo tanto el p-valor del contraste
ser menor que 0.01.
Si quisisemos obtener el p-valor concreto del contraste, buscaramos el valor de
tal que t19; = 2.938. En R, obtendramos este valor con la orden
120 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
El p-valor es por lo tanto 0.004. Esto quiere decir que la probabilidad de obtener la
muestra que hemos conseguido suponiendo que H0 sea cierta (esto es, suponiendo que
la media de ppm de metilmercurio en el atn es menor que 0.6) es extremadamente
baja, y o bien hemos obtenido una muestra muy, muy extraa o H0 es falsa. Por
lo tanto, lo razonable sera rechazar la hiptesis nula y decir que, de media, la
concentracin de metilmercurio es mayor que 0.6.
Apartado b)
El intervalo de confianza sera
s
IC0.95 () = x tn1; 2 = (0.656, 0.932)
n
IC0.95 () = (x 0.06)
s
tn1;0.025 < 0.06
n
121 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 5.2:
En vista de los datos Datos-mercurio.txt hay suficiente evidencia estadstica para afirmar que
el nivel medio de contaminacion por mercurio en los dos ros es diferente? Contrastar la hipotesis
de igualdad de varianzas.
Indicar, en cada caso, las suposiciones previas necesarias para garantizar la validez de los procedi-
mientos empleados.
Suponemos que X = Nivel de contaminaci on por mercurio en un pez (de la especie large mouth bass)
elegido al azar en el ro Lumber e Y = Nivel de contaminaci
on por mercurio en un pez (de la misma
especie) del ro Wacamaw son v.a. independientes y siguen una distribucion normal: X N (1 , 1 )
e Y N (2 , 2 ).
Contrastemos primero la hipotesis de igualdad de varianzas a nivel :
H0 : 1 = 2 (1)
H1 : 1 6= 2 .
H0 : 1 = 2 (2)
H1 : 1 6= 2
a nivel de significacion es
s
s21 s22
R = |
x y| tf ;/2 + ,
n1 n2
122 de 160
q
s21 s22
Como |x y| = 0,198 y t169;0,025 n1 + n2 = 0,223, no tenemos suficiente evidencia estadstica para
rechazar H0 : 1 = 2 .
Con R podemos hacer t-tests (contrastes en los que el estadstico del contraste sigue una distribucion
t) de la siguiente manera:
t.test(ContHg ~ Rio, alternative = "two.sided", mu = 0, paired = FALSE, var.equal
= FALSE, conf.level = 0.95)
o equivalentemente
t.test(ContHgL, ContHgW, alternative = "two.sided", mu = 0, paired = FALSE, var.
equal = FALSE, conf.level = 0.95)
Obtenemos como resultado
Welch Two Sample t-test
Con t.test tambien podemos hacer contrastes para una sola muestra (es decir, contrastes acerca
de la media de una N (, ) con desconocido). Por ejemplo, si quisieramos contrastar H0 = 1 1
frente a H1 : 1 < 1 escribiramos:
t.test(ContHgL, alternative = "less", mu = 1, conf.level = 0.95)
2
Otra posibilidad para hacer el contraste (2) sin suponer normalidad de X e Y (ver figura)
density.default(x = ContHgL) density.default(x = ContHgW)
0.5
0.6
0.4
0.4
0.3
Density
Density
0.2
0.2
0.1
0.0
0.0
0 1 2 3 4 0 1 2 3 4
N = 73 Bandwidth = 0.2475 N = 98 Bandwidth = 0.2983
aprox aprox
es utilizar que, por el TCL, X N (1 , 1 / n1 ) e Y N (2 , 2 / n2 ). Si X e Y son indepen-
dientes entonces s
12 2
X Y aprox
N 1 2 , + 2
n1 n2
q
s2 s2
A nivel = 0,05 no podemos rechazar la hipotesis nula (2) porque |
x y| = 0,198 < z/2 n11 + n22 =
0,222, pero s podemos rechazar a nivel = 0,1.
Observemos que, como el tama no muestral es grande, las regiones de rechazo suponiendo normalidad
y utilizando la aproximacion del TCL son practicamente iguales.
3
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 5.3:
Xi 169.7 168.5 165.9 177.8 179.6 168.9 169.2 167.9 181.8 163.3
Yi 168.2 166.4 166.7 177.2 177.9 168.0 169.5 166.7 182.5 161.1
Proporcionan estos datos suficiente evidencia estadstica, al nivel 0.05, a favor de la hip
otesis de
que la estatura disminuye a lo largo de la jornada?
Definimos D = X Y , la variacion que experimenta la estatura (en cm.) de una mujer entre el
momento de levantarse y el de acostarse. Suponemos que D N (, ) con y desconocidos. A
nivel de significacion = 0,05, queremos contrastar
di 1.5 2.1 -0.8 0.6 1.7 0.9 -0.3 1.2 -0.7 2.2
125 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 5.4: Los niveles en sangre de una hormona denominada FSH estn
asociados con la fertilidad femenina. Las mujeres que tienen un nivel de FSH alto
(superior a 10 IU/L) tienen en general ms dificultad para concebir que aquellas
que tienen niveles bajos de FSH. En un estudio realizado recientemente, se analiz
la posible relacin entre el grupo sanguneo y la fertilidad. Para ello se midieron los
niveles de FSH en una muestra de 254 mujeres en edad frtil con grupo sanguneo
O y result que 43 de ellas tenan niveles altos de FSH y, por tanto, podran
tener dificultades para concebir. En otra muestra, independiente de la anterior, de
309 mujeres cuyo grupo sanguneo no es O, result que 27 tenan niveles altos de
FSH.
a) Proporcionan estos datos suficiente evidencia estadstica, al nivel 0.05,
a favor de la hiptesis de que las mujeres con grupo sanguneo 0 tienen ms
dificultades para concebir que las que tienen otro grupo sanguneo?
b) Calcular el tamao muestral necesario para, con probabilidad 0.95, estimar
en la poblacin de mujeres del grupo 0 el porcentaje de las que tienen un nivel alto
de FSH, con un error mximo de 2 puntos.
Consideramos la v.a. X que vale 1 si una mujer del grupo 0 tiene nivel alto de FSH
y 0 si no, y que sigue una distribucin de Bernoulli con probabilidad p1 . Anlogamente,
definimos la v.a. Y que vale 1 si una mujer del grupo no 0 tiene nivel alto de FSH y 0
si no, y que sigue una distribucin de Bernoulli con probabilidad p2 .
Tenemos que
254
X
xi = 43
i=1
309
X
yi = 27
i=1
Apartado a)
Primero tenemos que definir la hiptesis nula:
H0 : p1 p2
es decir, que las mujeres con grupo 0 no tienen ms dificultad para concebir.
Tomamos esto como la hiptesis nula porque es la que aceptamos por defecto, y
queremos una evidencia muy fuerte para poder decir que es falsa.
Para construir la regin de rechazo, usamos la regin del formulario para
comparacin de proporciones. Usando el TCL, tenemos que si p1 = p2 = p entonces
tanto X como Y van a seguir una distribucin normal con ni = n1 o n2 segn sea X
Y
126 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
s
p(1 p)
N p,
ni
X Y
Z=r
p(1 p) n11 + 1
n2
s
1 1
R= x y > z0.05 p(1 p) + {0.0819 > 0.0460 }
n1 n2
p-valor = P N (0, 1) > z =
Apartado b)
Necesitamos un intervalo de confianza
s
x(1 x
IC0.95 (p1 ) = x z0 .025
n1
q
donde z0 .025 x(1x
n1
es el error cometido al estimar p1 con el IC, y que tiene que
ser menor que 0.02. Como no tenemos el valor de x, lo sustituimos por el valor de
la media muestral obtenido en la anterior medicin, de tal forma que tenemos que
n1 1351 para obtener la confianza requerida.
Si quisisemos ser ms conservadores, sustituiramos x por el valor mximo que
podemos obtener, aunque en este caso saldra un tamao muestral mucho ms grande.
127 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado a)
Definimos las dos variables aleatorias que tenemos: X es el gasto medio bimensual
en la primera ciudad, y Y el gasto en la segunda. Tomamos las esperanzas y varianzas:
E (X) = 1 , V (X) = 12
E (Y ) = 2 , V (Y ) = 22
x y = 10 y s2p = 109.45
R = {10 > 7.73 }
Apartado b)
Calculamos la regin de rechazo para = 0.01:
128 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
y por lo tanto para nivel 0.01 no hay evidencia para rechazar H0 . Entonces, el
p-valor es mayor que 0.01.
129 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado a)
Tenemos que las variables no son independientes (porque son muestras tomadas
de los mismo voluntarios). A este tipo de datos le llamamos datos emparejados
H0 : 1 2
H1 : 1 > 2
0 :0
H1 : > 0
130 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
es normal (si no fuera normal, tendramos que aplciar el TCL (para lo que necesitamos
n grande) y con este tamao muestral (6) no podramos aplicarlo)
Mirando en la tabla de regiones de rechazo tenemos:
sd
R = d > tn1;
n
d
Donde es el estadstico del contraste, que sigue una tn1 .
sd / n
De los datos extraemos d = 12.5; sd = 10.97.
Para = 0.05 calculamos el cuantil correspondiente de la t de Student. Para
= 0.05 es 9.02.
De aqu deducimos que s hay evidencia para rechazar la hiptesis nula (porque
d
> 9.02).
sd / n
Apartado b)
Tomando = 0.01 no se cumple la condicin de rechazo, no pudiendo negar
entonces la hiptesis nula.
Apartado c)
Es el tpico ejercicio mecnico de extraer el tamao muestral.
Apartado a)
P
100
Sea X Bernouilli(p), luego xi = nmero de pacientes que se curan.
i
Tenemos el siguiente contraste a nivel = 0.05:
H0 : p 0.4
H1 : p > 0.4
131 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
La regin de rechazo es
x 0.4
R = {z = q > z0.05 }
0.40.6
100
Como x0.4
0.40.6
= 2.041 > 1.645 = hay evidencia muestral para afirmar que el
100
medicamento es eficaz a nivel = 0.05 (rechazo H0 ).
El pvalor se calcula as
Luego a nivel = 0.01 < p-valor, no habra suficiente evidencia muestral para rechazar
la hiptesis nula.
Apartado b)
100
X
x 0.4
q > z0.001 = xi > 55.1
0.40.6
100
Apartado c)
Como p = 0.5 H1 es cierta = solo puede cometerse el error de tipo II. Luego
132 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 5.8:
a) Supongamos que en una determinada poblacin de referencia, formada por
adultos sanos, el nivel en sangre de la enzima heptica GGT (gamma-glutamil-
transpeptidasa) sigue aproximadamente una distribucin normal con media
poblacional 42IU/L y desviacin tpica poblacional 13. Calcular aproximadamente
el porcentaje de personas en la poblacin que tienen un nivel de GGT superior a
80.
b) Supongamos ahora que se selecciona una muestra de 61 personas en otra
poblacin formada por bebedores habituales no diagnosticados de alcoholismo y
se obtiene una media muestra de 58 IU/L con una desviacin tpica de 21. Hay
suficiente evidencia estadstica, al nivel 0.05, para afirmar que la concentracin
media de GGT en la poblacin de bebedores es mayor que 42?
Apartado a)
Sea X N (42, 13),
X 42 80 42
P {X > 80} = P > = 0.0017
13 13
Apartado b)
Sea Y el nivel de GGT en sangre
Tenemos el siguiente contraste a nivel = 0.05:
H0 : 42
H1 : > 42
La regin de rechazo es
y 42
R = {z = > Z0.05 }
s/ 61
Y por lo tanto rechazamos H0 ya que 5.95 > 1.645. Podemos calcular el p-valor
de la siguiente manera
p-valor = P N (0, 1) > 5.95 = 7 108
133 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
B.5.2. Hoja 5B
Apartado a)
Primero comprobamos la propiedad de CVM7 :
n
fn (x1 , . . . , xn ; 1 ) 1 P
n
= e(1 5) xi
fn (x1 , . . . , xn ; 5) 5
Ya que una vez fijado 1 lo que determina la cota superior es el sumatorio, tenemos
que
nX o
R = xi < c tal que P=5 {R } =
y entonces
P=5 {R } = = P (5, n) < c
c = q5;n ()
134 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
( n )
X
R = xi < q5;n (0.01)
Apartado b)
Calculamos el error de tipo II, (IV.1)
nX o
P1 {Rc } = 1P1 {R} = 1P1 xi < q5;n (0, 01) = 1P (1 , n) < q5;n (0, 01)
1 1
P1 {R } = 1 P (5, n) < q5;n (0, 01) = P (5, n) q5;n (0, 01) 0
c
5 5 1
1 1
P1 {R } = 1 0.01 P q5;n (0.01) (5, n) < q5;n (0, 01) = 0.99 O(1 )
c
5 5
Apartado c)
Nuestra muestra nos da una estimacin puntual de x = 1.
Bajo la hiptesis nula, la media de la poblacin debera ser 15 , ya que E (X) = 1 .
Bajo la hiptesis alternativa, la media debera ser < 15 .
Intuitivamente, no tenemos evidencia muestral en contra de H0 . Comprobmoslo
ahora calculando la regin de rechazo: tenemos que calcular el cuantil de la distribucin
Gamma:
Luego no hay evidencia muestral para rechazar la hiptesis nula, tal y como
habamos intuido.
135 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 5.2:
En una piscifactora se desea contrastar la hiptesis nula de que el porcentaje
de peces adultos que miden menos de 20 cm es como mximo del 10 % . Para ello,
se toma una muestra de 6 peces y se rechaza H0 si se encuentra ms de uno con
longitud inferior a 20 cm.
a) Cul es el nivel de significacin de este contraste?
b) Calcula la potencia del contraste si en realidad hay un 20 % de peces que
miden menos de 20 cm.
H0 : p 0.1
H1 : p > 0.1
P
6
Ntese que xi es una binomial (6, p).
Apartado a)
Tamao del test = max P {error tipo I} = maxp0.1 Pp {R} .
Tenemos que maximizar la siguiente expresin:
X6 X6 X6
(p) = Pp {R} = Pp X i 2 = 1 Pp Xi = 0 Pp Xi = 1 =
Luego
136 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado b)
Simplemente debemos calcular el valor de la funcin de potencia. Es decir, sustituir:
1 x2
f (x; ) = e 2
2
siendo > 0 un parmetro que se desea estimar. Obtener el test uniformemente
ms potente de nivel para contrastar H0 : 0 frente a H1 : > 0
Sea X N (0, ), > 0, donde X es el error cometido por el aparato de
medicin.
Tenemos que comprobar primero que el cociente de verosimilitudes es montono.
Para ello tomamos 1 < 2 y calculamos la razn de verosimilitudes:
n2 P
f (x1 , . . . , xn ; 2 ) 1 12 1
1 x2i
= e 2 1
f (x1 , . . . , xn ; 1 ) 2
P 2
que s es una funcin creciente8 de Tn = xi . Por lo tanto esta es una familia
paramtrica CVM (ver definicin IV.6). Aplicando el teorema (IV.2)
( n )
X
R = {Tn > k } P0 {R} = = P0 Xi2 > k
k = 0 2n;
Por lo que
( n )
X
R = P0 Xi2 > 0 2n;
8
Porque el exponente de la exponencial es siempre positivo
137 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Ejercicio 5.4:
Soluci
on: La funcion de verosimilitud es
n
n
{ n
en i=1 xi si x(1) ,
fn (x1 , . . . , xn ; ) = f (xi ; ) = e i=1 (xi ) 1[,) (x(1) ) = (1)
0 si > x(1) ,
i=1
Como el supremo del denominador de n se alcanza cuando es igual al e.m.v., tenemos que
n
sup fn (x1 , . . . , xn ; ) = en i=1 xi
.
ax P(R)
m
0
138 de 160
Para completar la expresion de la region de rechazo, determinemos c . Observemos que
Intuitivamente es una region crtica razonable, pues rechazamos que 0 cuando la menor de las
observaciones de la muestra esta demasiado alejada de estos valores de . Recordemos que, para un
fijo el soporte de la densidad f (; ) es precisamente el intervalo [, ) y f (x, ) es decreciente en
x. As que esperamos que, al muestrear de f (, ), salgan observaciones justo a la derechade . Es
decir, si estoy contrastando H0 : < 3 y todas las observaciones de la muestra son mucho mayores
que 0 = 3, intuimos que H0 es falsa.
2
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado a)
Sea X N (, 1), calculamos la funcin de verosimilitud:
1 P
12 (xi )2
f (x1 , . . . , xn ; ) = e
(2)n/2
0 = { = 0 }
=R
f (x1 , . . . , xn ; 0) 1 P 2 P
= e 2 ( xi (xi x) ) = e 2 nx
2 1 2
n =
f (x1 , . . . , xn ; x)
Y la regin de rechazo es
140 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apartado b)
Tenemos que
n 2 o
n ( = 0.75) = P=0.75 {rechazar H0 } = P=0.75 {R} = P=0.75 nX > 21;
Evaluando
2
nX = n(X 0.75 + 0.75)2 = n(X 0.75)2 +0.752 + 2(X 0.75) 0.75
| {z } | {z }
21 nueva v.a. problemn
Amparo observa que esto nos complica la vida, as que toma otro camino:
n 2 o n 2 o X
P=0.75 nX > 21; = 1 P=0.75 nX 21; = 1 P=0.75 (21; )1/2 =
1/ n
( )
X N (0.75, 1n ) X
= 1 P=0.75 (21; )1/2 (21; )1/2 = ...
1/ n
( )
X 1 ,
X Z
, = n
= 0.75
... = 1 P=0.75 (3.84) 1/2
(3.84)1/2 =
1/ n
( )
1.96 1n 0.75 1.96 1n 0.75 n = 16
= 1 P=0.75 Z =
1/ n 1/ n
*
= 1 P {4.96 Z 1.04} = 1 (P {Z > 1.04} P {Z > 4.96}) 0.85
| {z } | {z }
0.15 0
(*) Aqu utilizo que la normal es simtrica para poder calcular esa probabilidad con
las tablas que tenemos.
141 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Apndice C
Exmenes
142 de 160
Estadstica I Examen
Grado en Matematicas / Doble Grado Matematicas-Ing. Informatica 10 de enero de 2013
1. Sea X1, . . . , Xn una muestra aleatoria de una variable discreta X con funcion de probabilidad
( log )x
P (X = x) = f (x; ) = , x = 0, 1, 2, . . . , (0, 1). (1)
x!
on: E (X) = log = V (X).
Indicaci
(a) Calcular el estimador n de por el metodo de maxima verosimilitud, probar que es asintotica-
mente normal y obtener la distribucion asintotica.
[3 p.]
2. Una marca de detergente concentrado vende su producto en paquetes cuyo contenido nominal
medio es 800 gramos. Se seleccionan al azar 20 paquetes y se obtiene para ellos un contenido medio
de 793 gr. con una cuasi-desviaci
on tpica de 15. Hay suficiente evidencia estadstica, al nivel 0.05,
para afirmar que la empresa fabricante vende su producto con un peso medio menor que el valor
nominal 800? Indicar si el p-valor del correspondiente contraste es mayor o menor que 0.01. Explicar
claramente las suposiciones que se necesiten para garantizar la validez del procedimiento que se
utilice. [2 p.]
5. En el directorio de trabajo del R tenemos un fichero con 1000 datos (en dos columnas de 500)
llamado datos.txt. Redactar un c
odigo que realice las siguientes o operaciones:
(b) Definir un vector llamado x con los valores de la primera columna y otro llamado y con los de
la segunda.
[1 p.]
Estadstica I
Soluciones a los problemas del examen 10 de enero de 2013
La u
nica soluci
on de la ecuaci
on log Ln (X1 , . . . , Xn ; ) = 0 es
n = eX .
d
Aplicando el TCL sabemos que n(X E (X)) N (0, ()), siendo () = V (X)1/2 . Como
n = g(X)
con g(u) = eu y esta funci
on es derivable con derivada continua, podemos aplicar el
metodo delta para obtener
d
g()) N (0, |g 0 ()|()),
n(g(X)
(b)
2
I() = E 2 log f (X; )
Tenemos
1 1
log f (X; ) = + X
log
2 1 X X
log f (X; ) = 2 2 2
2 log log2
2 1 E (X) E (X) 1
I() = E 2 log f (X; ) = 2 + 2 + = 2
log 2 log2 log
La cantidad I() es importante por varios motivos: bajo ciertas condiciones se verifica V (Tn )
1/(nI()) (cota de Frechet-Cramer-Rao) para estimadores insesgados Tn de . Tambien (bajo condi-
ciones de regularidad) el estimador de maxima verosimilitud n verifica
d p
n(n ) N (0, 1/ I()),
de manera que I()1 es la varianza de la distribucion asintotica. En efecto, observese que en este
caso I()1 coincide con la varianza de la distribucion lmite obtenida en el apartado anterior.
(n )2 = (g(X)
g( log ))2 (X
( log ))2 . ()
Para obtener esta desigualdad hemos usado el Teorema del Valor Medio, junto con el hecho de que
|g 0 (u)| = |eu | 1 para u 0.
Tomando esperanzas,
f (x1 , . . . , xn |) (),
donde
n
Y n
Y n
Y Pn
f (x1 , . . . , xn |) = f (xi |) = P {X = xi } = (1 )xi = n (1 ) i=1 xi
i=1 i=1 i=1
es la funci
on de verosimilitud de la muestra. Como
Pn ( + ) 1
f (x1 , . . . , xn |) () = n (1 ) i=1 xi
(1 )1 I[0,1] ()
()()
c.s.
olo si 1 = P {w : Tn (X1 (w), . . . , Xn (w)) }, es decir, si
Recordemos que Tn si y s
n n
la probabilidad del conjunto en el que se da la convergencia de Tn a es uno. Por la ley fuerte de
c.s. 1+
los grandes n
umeros sabemos que X E (X) = . Ademas el denominador de Tn siempre
n
ser
a mayor o igual que 1. Por tanto, para todo w salvo en un conjunto de probabilidad 0, se cumple
que
1 + n 1
Tn (X1 (w), . . . , Xn (w)) = = ,
1 + X(w) + + n 1 + 1+
n
c.s.
es decir, Tn .
n
5)
xx<-read.table(datos.txt)
x<-xx$V1
y<-xx$V2
boxplot(x,y)
lm(y ~ x)
Estadstica I Examen
Grado en Matematicas / Doble Grado Matematicas-Ing. Informatica. 14 de junio de 2013
1. La v.a. X = ingresos (en miles de euros) de un habitante elegido al azar en una cierta ciudad
sigue una distribuci
on de Pareto dada por la siguiente densidad:
2. Sea X una v.a. con distribucion Beta(, 1) cuya funcion de densidad es f (x; ) = x1I(0,1)(x),
para > 0.
[4 p.]
3. En una encuesta realizada a una muestra aleatoria de 1500 personas, el 43 % de los encuestados
se mostraba de acuerdo con endurecer la ley antitabaco.
(a) Calcula el intervalo de confianza de nivel 0.95 para la proporcion p de personas en la poblacion
que est
an de acuerdo con endurecer la ley.
(b) Seg
un los resultados obtenidos, existe evidencia estadstica suficiente para afirmar que la
mayora de los ciudadanos se opone a endurecer la ley? Para responder a la pregunta, calcula
aproximadamente el p-valor del test e interpreta el resultado.
[3p.]
4. Supongamos que se tiene en el directorio de trabajo un fichero llamado datos que consiste
en una matriz de 200 filas y 10 columnas. Cada fila es una muestra aleatoria de tama
no 10 de la
distribuci
on N (2, 1). Redacta un c
odigo en R que calcule las medias y las medianas muestrales de
esas 200 muestras, las almacene en dos vectores llamados medias y medianas, respectivamente, y
aproxime los errores cuadr
aticos medios de ambos estimadores del valor del parametro = 2. [1 p.]
n de posible intere
Informacio s sobre distribuciones:
on normal, N (, ), R, > 0.
Distribuci
Funcion de densidad: f (x) = 1 exp 21 2 (x )2 , x R.
2
Distribuci
on gamma, (a, p), a > 0, p > 0. Cuando p = 1 se denomina distribucion
exponencial de par
ametro a.
a p
Funcion de densidad: f (x) = (p) eax xp1 , para x > 0. Aqu (p) denota la llamada funcion
R x p1
gamma, (p) = 0 e x dx que verifica (p + 1) = p(p) para p > 0.
Momentos: E(X) = ap , V (X) = p
a2
.
Distribuci
on beta, Beta(a, b), a > 0, b > 0.
(a+b) a1
Funcion de densidad: f (x) = (a)(b) x (1 x)b1 , para x (0, 1).
a ab
Momentos: E(X) = a+b , V (X) = (a+b+1)(a+b)2
.
Estadstica I
Soluciones a los problemas del examen 14 de junio de 2013
E|Tn | 1
P{|Tn | > } = 0 cuando n .
3n 1
1
b) La funcion de verosimilitud es
n n
!1
Y Y
Ln (; x1 , . . . , xn ) = xi1 = n
xi .
i=1 i=1
2
d) Observemos que la region de rechazo del contraste es la que aparece sombreada en la
siguiente figura, es decir, R = {(x1 , x2 ) R2 : 3/4 x1 1, 3/(4x1 ) x2 1}
1.0
(3/4,1)
R
0.8 4x1x2 = 3
(1,3/4)
0.6
0.4
0.2
0.0
3
b) Planteamos el contraste
H0 : p 0.5
H1 : p < 0.5 (la mayora de los ciudadanos se opone a endurecer la ley),
siendo
x 0.5
z=p = 5.42
0.52 /n
el estadstico del contraste. El p-valor del contraste es la probabilidad de que una
N (0, 1) sea mayor que 5.42. Con la informacion de la tabla (P{Z > 3.99} = 0.0010)
llegamos a la conclusion de que el p-valor es menor que 0.0010. Utilizando R (pnorm(-5.42))
obtenemos que el p-valor es 2.979952e-08: es razonable rechazar la hipotesis nula.
4. medias = apply(datos,1,mean)
medianas = apply(datos,1,median)
ECMmedia = (mean(medias)-2)^2 + var(medias)
# Se ha usado que ECM(T)=Sesgo^2(T)+V(T)
ECMmediana = (mean(medianas)-2)^2 + var(medianas)
Otro codigo alternativo (sin usar la funcion apply sino un for, y utilizando directamente
la definicion de ECM: ECM (T ) = E[(T )2 ]), sera
medias<-rep(0,200)
medianas<-rep(0,200)
for (i in 1:200){medias[i]<-mean(datos[i,])}
for (i in 1:200){medianas[i]<-median(datos[i,])}
ECMmedia<-mean((medias-2)^2)
ECMmediana<-mean((medianas-2)^2)
4
ESTAD ISTICA I (2013-2014)
Grado en Matem
aticas / Doble grado Ing. Inform
atica/Matem
aticas
Examen final, 18 de enero de 2014
Nombre:
Grupo:
1. Se desea comparar la concentracion observada de tiol (mM) en el lisado sanguneo de dos grupos
de voluntarios, siendo el primer grupo normal (X) y padeciendo el segundo grupo de artritis
reumatoide (Y ). Para ello se analizan los datos con R de la siguiente manera
data: X and Y
t = -8.759, df = 5.263, p-value = 0.0002473
alternative hypothesis: true difference in means is not equal to 0
sample estimates:
mean of x mean of y
1.921429 3.486667
a) (1 punto) Que contraste se esta haciendo? Especificar las hipotesis necesarias para garan-
tizar la validez del metodo empleado. Que conclusiones se obtienen acerca del contraste?
b) (1 punto) Calcular un intervalo de confianza al 95 % para la diferencia de concentraciones
medias de tiol entre los dos grupos. Que relacion hay entre este intervalo y el contraste de
(a)?
2. Sea
f (x; ) = x1 , 0 < x < 1, > 0,
la funcion de densidad de una v.a. X con distribucion beta de parametros y 1.
H0 : = 1
H1 : = 2.
Dada una muestra X1 de tama no n = 1 de X, determina la region de rechazo del test mas
potente con nivel de significaci
on . Para = 0.05 calcula la funcion de potencia de ese test.
on: si X beta(, 1), entonces Y = log(X) sigue una distribucion exponencial de
Indicaci
ametro , es decir, la densidad de Y es g(y) = ey , y > 0.
par
b) (1.5 puntos) A nivel de significacion , cual sera la region de rechazo del test de razon
de verosimilitudes para el siguiente contraste?:
H0 : = 1
H1 : 6= 1
2
ESTAD ISTICA I (2013-2014)
Grado en Matem
aticas / Doble grado Ing. Informatica/Matem
aticas
Examen final, 18 de enero de 2014. SOLUCIONES
donde
|
x y|
t= q 2 = 8.759
s1 s22
n1 + n2
es el estadstico del contraste y f = 5 es el entero mas proximo a 5.263 (los grados de
libertad, df). Seg un la salida de R, el p-valor del contraste es 0.0002473. Por tanto, es
razonable rechazar la hip otesis nula. Concluimos que la concentracion esperada de tiol es
distinta en el grupo normal y en el grupo con artritis reumatoide.
b) Bajo las mismas hip otesis que en (1a), el intervalo pedido es
s
2
s1 s2
IC95 % (1 2 ) = x y t5,0.025 + 2 .
n1 n2
q
s21 s22
x y
Como x = 1.921429, y = 3.486667 y t = 8.759, tenemos que n1 + n2 = t = 0.1787.
Por tanto,
IC95 % (1 2 ) = (1.565238 2.571 0.1787) = (2.024676, 1.105800).
El intervalo no contiene al 0, luego rechazamos la hipotesis nula simple H0 : 1 = 2 al
nivel = 0.05, pues la region de rechazo R de (a) equivale a rechazar H0 cuando 0 /
IC1 (1 2 ).
2. a) Por el lema de Neyman-Pearson, el test mas potente es el que tiene region de rechazo
fn (x1 , . . . , xn ; = 2)
R= > k ,
fn (x1 , . . . , xn ; = 1)
Q
donde k se elige de tal manera que P=1 (R) = y fn (x1 , . . . , xn ; ) = ni=1 f (xi ; ) =
Q
n ( ni=1 xi )1 , si 0 x1 , . . . , xn 1, es la funcion de verosimilitud de la muestra. Como
nY
fn (x1 , . . . , xn ; = 2)
= 2n xi ,
fn (x1 , . . . , xn ; = 1)
i=1
Qn
tenemos que R = {2ni=1 xi > k }. Si n = 1, entonces R = {2X1 > k } = { log X1 < c },
donde c es una constante tal que
k
= P=1 (R) = 1 . (1)
2
En la u
ltima igualdad de (1) se ha utilizado que, si = 1, X1 sigue una distribucion uniforme
en [0,1]. Despejando en (1) obtenemos k = 2(1 ) (tambien se poda utilizar la indicacion
del enunciado para obtener c = log(1 )). Por tanto, si n = 1, R = {X1 > 1 }.
Si = 0.05, entonces R = {X1 > 0.95}. La funcion de potencia es la probabilidad de
rechazar la hipotesis nula: () = P (R) = P { log X1 < log 0.95} = 1 0.95 . Si = 1,
obviamente (1) = 0.05. Si = 2, (2) = 0.0975.
b) El estadstico del contraste de razon de verosimilitudes para el contraste propuesto es
n
!1
fn (X1 , . . . , Xn ; = 1) 1 Y
n = = xi ,
fn (X1 , . . . , Xn ; )
n i=1
P
siendo = n/ ni=1 log Xi el estimador de maxima verosimilitud (e.m.v.) de . La region de
rechazo de un test con nivel aproximado es R = {2 log n > 21; }. Es sencillo comprobar
P
que 2 log n = 2n(log + 1 1). Si = 0.05, n = 50 y 50
i=1 log(xi ) = 19.342, entonces
= 2.59, 2 log n = 33.66 y 2 = 3.84, luego rechazamos la hipotesis nula.
1;0.05
n
!1
Y Pn
x
on de verosimilitud: L(; x1 , . . . , xn ) = n n
b) Funci xi e i=1 i
i=1
n
!1 n
Y X
on de logverosimilitud: log L() = n log + log n
Funci xi xi
i=1 i=1
Para hallar el punto de m
aximo de la logverosimilitud:
n
n X
log L() = xi = 0,
i=1
Pn
de donde obtenemos que = e.m.v.() = n/ i=1 Xi .
c)
2 2
1
I() = E log(f (X; )) = E log(f (X; )) = 2
2
n 1
d) Observemos que = Pn
= , donde Y1 , . . . , Yn es una muestra de la v.a. Y = X .
i=1 Xi
Y
c.s. 1
Por la ley fuerte de los grandes n umeros, sabemos que Y E(Y ) = E(X ) = . Sea
c.s.
g(x) = 1/x. Por el teorema de la aplicacion continua, = g(Y ) g(E(Y )) = . Por lo
tanto, el e.m.v. de es consistente c.s.
Para demostrar la normalidad asintotica de utilizamos el metodo delta:
1 1 d p
n( ) = n = n(g(Y ) g(EY )) N (0, |g 0 (EY )| V(Y )) = N (0, ).
Y EY n
2
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
ndice alfabtico
Asintticamente Diagrama
insesgado, 20 de dispersin, 8
normal, 25 Distribucin, 11
F de Fisher, 55
Box-plot, 4 2 , 48
Cantidad t de Student, 49
pivotal, 48 a posteriori, 44
Coeficiente a priori, 43
de asimetra, 4 Ecuacin
de correlacin lineal, 10 de verosimilitud, 26
de Pearson, 10 Error
Condicin de tipo I, 50
de Borel-Cantelli, 24 de tipo II, 50
Consistencia estndar, 18
casi segura, 23 tpico, 18
en probabilidad, 23 Espacio
fuerte, 23 paramtrico, 22
Convergencia Esperanza, 11
casi segura, 13 Estadstico, 18
dbil, 12 de Kolmogorov-Smirnov, 15
en distribucin, 12 de contraste, 53
en probabilidad, 13 de orden, 21
Cota del contraste de razn de verosimilitu-
de Frchet-Cramr-Rao, 35 des, 60
Covarianza muestral, 9 Estimador, 22
Cuantil, 4 Bayes, 44
muestral, 21 centrado, 19
poblacional, 21 de mxima verosimilitud, 26
Cuartil, 4 eficiente, 37
Cuasivarianza insesgado, 19, 23
muestral, 20 ncleo, 6
Datos emparejados, 130 por el mtodo de los momentos, 42
Desigualdad Familia
de Chebichev, 14 conjugada, 46
de Jensen, 31 paramtrica CVM, 59
de Markov, 14 Funcin
Desviacin cuantlica, 21
tpica, 4 de distribucin, 11
159 de 160
Guillermo Julin Moreno
Estadstica I - 13/14 C1 - UAM Eduardo Miravalls Sierra
Nivel
de significacin, 51
Normalidad
asinttica, 25
Rango
intercuartlico, 4
Recta de regresin, 9
Regin
creble, 49
Regresin lineal
coeficiente de, 9
Residuo, 9
Skewness, 4
Soporte, 31
160 de 160