Está en la página 1de 12

ESTIMACIÓN I

2oB
Soluciones de la hoja de problemas no 2

1.- La función de densidad de la muestra es


n
( + ) Q 1 Q 1
f (x1 ; : : : ; xn ) = ( ni=1 xi ) ( ni=1 (1 xi )) ,
( ) ( )
y por tanto
Q 1 Q 1 Qn 1 Qn 1
( ni=1 xi ) ( ni=1 (1 xi )) xi (1 xi )
C = Qn 1 Qn
= Qi=1
n 0
Qi=1
n .
( i=1 x0i ) ( i=1 (1 x0i ))
1
i=1 xi i=1 (1 x0i )
El estadístico sm para cada caso es:
Qn Qn X
n
Si = : i=1 Xi (ó log i=1 Xi = log Xi ) ,
i=1
Qn X
n
Si = : i=1 (1 Xi ) (ó log(1 Xi ))
i=1
!
X
n Xn
Si =( ; ): log Xi ; log(1 Xi )
i=1 i=1

2.- La función de densidad de la muestra es


n
ap Q p 1
f (x1 ; : : : ; xn ) = ( ni=1 xi ) e anx
,
(p)
y por tanto
Q p 1 Qn p 1
( ni=1 xi ) e anx
xi an(x x0 )
C = Qn 0 p 1 = Qi=1
n 0
e .
anx0
( i=1 xi ) e i=1 xi

El estadístico sm para cada caso es:


X
n X
n
Si =p: log Xi , Si = a : X (ó Xi )
i=1 i=1
!
X
n X
n
Si = (p; a) : log Xi ; Xi
i=1 i=1

3.- El estimador T es centrado:


1 Pn 2 1 Pn 2
ET = E i=1 (Xi 0) = E (Xi 0)
n n i=1
1 Pn 1 2
= i=1 V [Xi ] = n = 2.
n n

1
Para estudiar la consistencia incluimos en la notación para T el subíndice n: Tn = T .
Si expresamos Tn como un media de vaiid, podemos aplicar la ley débil de los grandes
números (LDGN) para comprobar la convergencia de esta media a la esperanza de
las vaiid consideradas. Y esto nos permitirá comprobar o descartar la consistencia.
Así lo hacemos.
2
Sea Zi = h (Xi ) con h (x) = (x 0 ) , esto es:

2
Zi = (Xi 0) .

Puesto que X1 ; : : : ; Xn son vaiid, se tiene que Z1 ; : : : ; Zn , son también vaiid, y se


tiene que
1 Pn
Tn = Zi = Z ,
n i=1
variable aleatoria a la que aplicaremos la LDGN. Se tiene que
2
E [Zi ] = E (Xi 0) = E (Xi E [Xi ])2 = V [Xi ]
2
=
p 2 2
Entonces, por la LDGN se tiene que Tn ! , es decir, T es consistente para .

No hemos tenido que suponer normalidad para la obtención de los resultados,


y entonces estos son válidos para cualquier familia paramétrica con esperanza y
varianza …nitas.

4.- Las funciones de distribución y densidad de la U (0; ) son: F (x) = x= para


0<x< y f (x) = 1= si 0 < x < . Por tanto, las funciones de distribución y
densidad de Z = X(n) = max fX1 ; : : : ; Xn g son
z n
G(z) = Gn (z) = [F (z)]n = si 0 z .

n 1 z n 1 1 nz n 1
g(z) = n [F (z)] f (z) = n = n
si 0 < z < .

Se tiene que
Z 1 Z n+1
n n n
E X(n) = zg(z)dz = n
z n dz = n
= ,
0 0 n+1 n+1
n
y de aquí se obtiene que ET = E cX(n) = cE X(n) = c n+1 . Si ET = , entonces
n n+1
debe ser c n+1 = 1, y de aquí se obtiene que c = n .
Por tanto, T = n+1 n
X(n) es centrado para .
n
Para z < se tiene que z < 1, y entonces l mn!1 Gn (z) = l mn!1 z = 0. Para
z = se tiene que Gn (z) = 1, y entonces l mn!1 Gn (z) = 1. Por tanto, l mn!1 Gn (z)

2
d
es la función de distribución de una degenerada en , y entonces X(n) ! . Puesto
d p
que l mn!1 n+1n
= 1, se tiene que T ! , y entonces T ! . Por tanto, T = n+1
n
X(n)
es consistente para .

El máximo de la muestra de tamaño n = 12 obtenida, es x(12) = 7:2, y de aquí


se obtiene la estimación t = n+1
n
x(n) = 12+1
12
7:2 = 7:8 .

5.- Un estimador c0 X(n) que sea preferible a otro estimador cX(n) debe tener
menor ECM para todo . A priori, no tiene porqué existir un c0 X(n) preferible a
cualquier otro estimador cX(n) con c 6= c0 . Con los siguientes cálculos, comprobamos
que sí existe y lo obtenemos.
n
En el ejercicio anterior hemos obtenido que E X(n) = n+1 . Se tiene que
Z 1 Z
2 2 n n n+2 n 2
E X(n) = z gX(n) (z)dz = n z n+1 dz = n = , (1)
0 0 n+2 n+2
y de aquí se obtiene que el sesgo y la varianza de cX(n) son:
n n
bcX(n) ( ) = E cX(n) =c = c 1 y
n+1 n+1
!
2
2 2 2 n 2 n
V cX(n) = E X(n) E X(n) c = c2
n+2 n+1
n n2 2 2
= c .
n+2 (n + 1)2
El error cuadrático medio de cX(n) como estimador de es:
2
ECMcX(n) ( ) = V cX(n) + bcX(n) ( )
" #
2
n n2 n
= 2 c2 + c 1 2
n + 2 (n + 1) n+1
n n2 2 n2 2 n 2
= c + 2c + 1 2 c
n + 2 (n + 1)2 (n + 1) n+1
n 2 n
= c +1 2 c 2 = h(c) 2 ,
n+2 n+1
n 2 n
con h(c) = n+2 c 2 n+1 c + 1 , que es un polinomio de segundo grado en c. El
n 2
coe…ciente n+2 de c es positivo, y entonces la parábola (c; h(c)) tiene el vértice
hacia abajo. Por tanto, h(c) tiene un mínimo único, que calculamos. Resolviendo la
ecuación h0 (c) = 0, se obtiene:
n n n+2
h0 (c) = 2 c 2 =0; c= .
n+2 n+1 n+1

3
Entonces, tomando c0 = n+2 n+1
, se tiene que h(c) > h(c0 ) si c 6= c0 , y por tanto
2 2
h(c) > h(c0 ) para todo .
Por tanto, si c 6= c0 , se tiene que ECMcX(n) ( ) > ECMc0 X(n) ( ) para todo , y
entonces
n+2
c0 X(n) = X(n)
n+1
es preferible a cX(n) para cualquier valor c 6= n+2
n+1
.
Obsérvese que este estimador no es el insesgado, con c = n+1 n
, obtenido en el
ejercicio anterior.

6.- Es sencillo comprobar que


1 2
ECM 2c X(n) ( ) = ECM 2c X(n) ( =2) = 2
ECMcX(n) ( ) .

Utilizando los cálculos del ejercicio anterior, obtenemos que el ECM del estimador
c
X = 21 n+2
2 (n)
X de = =2 es:
n+1 (n)

1 2 2
ECM 2c X(n) ( ) = 2
ECMcX(n) ( ) = 14 h n+2
n+1
h i
1 n n+2 2 n n+2 2
= 4 n+2 n+1
2 n+1 n+1
+1
n(n+2)+(n+1)2 2 1 2
= 4(n+1)2
= 4(n+1)2
.

Por otra parte, X siempre es un estimador centrado de , con varianza


2 2
V X = = ,
n 12n
que coincide con el ECM , en este caso insesgado.
Comprobamos que 4 (n + 1)2 > 12n, y de aquí se obtiene que

ECM 2c X(n) ( ) < ECMX ( )

para todo (y para todo n), y por tanto 2c X(n) es preferible a X para estimar = =2.
Se tiene que

4 (n + 1)2 12n = 4n2 4n + 4 = 4 [n (n 1) + 1] ,

que es positivo para todo n, y de aquí se obtiene el resultado.


Además, se observa que ECM 2c X(n) ( ) converge a 0 de un modo mas rápido del
que lo hace ECMX ( ).

7.- La función de masa de la muestra es f (x1 ; : : : ; xn ) = pn (1 p)n(x 1) .


a) mm: Estimamos E [X] = = 1=p mediante la media muestral, lo que
proporciona la ecuación “ p1 = X”. Despejando, se obtiene “p = 1=X”, y entonces el
estimador es pb = 1=X.

4
b) mv: Se tiene que

log L (p) = n log p + n (x 1) log (1 p) , y


d n n (x 1)
log L (p) = .
dp p 1 p
d
Resolviendo la ecuación “ dp log L (p) = 0” se obtiene la solución única “p = 1=x”.
La solución de la ecuación es el estimador de p que buscamos, y entonces el emv es
también pb = 1=X.
Se tiene que log fp (x) = log p + (x 1) log (1 p) ,
1
d 1 x 1 p
x
log fp (x) = = ,
dp p 1 p 1 p
y de aquí se obtiene
2 !2 3 " #
1 2
p
X 1 1
i (p) = Ep 4 5= Ep X
1 p (1 p)2 p
1 1 1 p 1
= 2 Vp [X] = 2 = .
(1 p) (1 p) p2 p2 (1 p)

Entonces, la distribución asintótica es


p
1 p 1 p
pb = AN p; p .
X n

c) Puesto que = p1 = g(p), por la propiedad 3 de los emv se tiene que


b = g(bp) = X .
0
d) Se tiene que C = (1 p)n(x x ) , y de aquí se obtiene que X es sm. Puesto
que el estadístico sm X es centrado para (y es completo), entonces es el ECUMV
para .

8.- Sea p la probabilidad de obtener cara. Los resultados x1 = 3, x2 = 1, x3 = 5


y x4 = 3 son una realización muestral (m.a.s.) de una distribución geométrica con
parámetro p. Por el ejercicio anterior, la estimación es:
1 1
pb = = = 0:333 .
x 3

9.- Obsérvese que la distribución teórica es una Be( + 1; 1). La función de


densidad de la muestra es
Yn
f (x1 ; : : : ; xn ) = ( + 1)n xi .
i=1

5
+1 +1
a) mm: Se tiene que = E [X] = E [Be( + 1; 1)] = +1+1 = +2
. Aunque
ya es innecesario, calculamos también de un modo directo:
Z 1 Z 1
+1
E [X] = xf (x)dx = ( + 1) x +1 dz = .
1 0 +2

Estimamos E [X] mediante la media muestral, lo que proporciona la ecuación


+1
“ +2 = x”. Despejando, se obtiene “ = 2x
1 x
1
”, y entonces el estimador es

e = 2X 1 .
1 X
Pn
b) mv: Se tiene que log L ( ) = n log( + 1) + i=1 log xi , y

d n Xn
log L ( ) = + log xi .
d +1 i=1

Resolviendo la ecuación “ dd log L ( ) = 0”se obtiene la solución única


1
Pn 1
“ = n i=1 log xi 1”, y por tanto el emv es
! 1
1X
n
b= log Xi 1.
n i=1

d 1
Se tiene que log f (x) = log ( + 1) + log x , y log f (x) = +1 + log x. En
d
este caso es mas rápido y sencillo obtener i( ) utilizando la expresión que considera
d2
la derivada segunda. Se tiene que 2
log f (x) = ( + 1) 2 , y entonces la in-
d
d2 1
formación de Fisher es i( ) = E log f (X) = . De aquí se obtiene
d 2
( + 1)2
que
b AN ; p +1
.
n
Qn
xi Q
c) Se obtiene C = Qi=1 n 0
, y entonces el estadístico sm es ni=1 Xi , ó
i=1 xi
Pn 1
S = i=1 log Xi . El emv veri…ca que b = 1
n
S 1.

10.- Suponemos que ninguno de los parámetros es conocido, puesto que no se dice
nada al respecto.
a) Los cuartiles son los valores xp para p = 14 ; 24 ; 34 con P fN ( ; ) xp g = p .
Los expresamos en función de y , y obtenemos el estimador utilizando la propiedad
3 de los emv. Se tiene que
xp
P fN ( ; ) xp g = P N (0; 1) < =p.

6
Utilizando las tablas de la N (0; 1) se obtiene

P fN (0; 1) < 0:67g = 0:25, P fN (0; 1) < 0g = 0:5 y P fN (0; 1) < 0:67g = 0:75 ,

y entonces debe ser

x0:25 x0:5 x0:75


= 0:67 , =0 y = 0:67 .

De aquí se obtiene

x0:25 = 0:67 , x0:5 = y x0:75 = + 0:67 .

El emv de ( ; ) es (b; b) = (X; s), y por la propiedad 3 se tiene que

b0:25 = b
x 0:67b = X 0:67s ,
b0:5 = b = X
x y
b0:75 = b + 0:67b = X + 0:67s .
x

b) Se obtiene x = 63:44 y s = 7:90 (por ejemplo, utilizando el modo estadís-


tico de la calculadora, que conviene aprender a utilizar para comodidad y precisión
en los cálculos en los exámenes). Entonces las estimaciones son:

b0:25 = x
x 0:67s = 58:15 ,
b0:5 = x = 63:44
x y
b0:75 = x + 0:67s = 68:74 .
x

11.- mm: se plantean las ecuaciones


2
)
expf + 2 g = x
1
Pn
expf2 + 2 2 g = n i=1 x2i = s2 + x2

Tomando logaritmos transformamos el sistema en uno lineal. Despejando y se


obtienen los estimadores
s
2
X s2
e = log q , e = log 1 + 2
s2 + X
2 X

Haciendo los cálculos (modo estadístico de la calculadora) se obtiene x = 34:2 y


s2 = 52:26. Con ello, se obtienen las siguientes estimaciones:

e = 3:510 , e = 0:2091

7
mv: La función de densidad de la muestra es
( )
1 X
n
(2 ) n=2 n
f ; (x1 ; : : : ; xn ) = Qn exp 2
(log xi )2 .
i=1 xi 2 i=1

Se tiene que

n Yn 1 X
n
log L ( ; ) = log (2 ) n log log xi 2
(log xi )2
2 i=1 2 i=1
!
d 1 X
n
1 X
n
log L ( ; ) = 2 ( 1) (log xi )= log xi n
d 2 2 i=1
2
i=1

1X
n
d n 3
log L ( ; ) = ( 2) (log xi )2
d 2 i=1
1 X
n
n
= + 3
(log xi )2 .
i=1

Resolviendo el sistema de ecuaciones “ dd log L ( ; ) = 0 , dd log L ( ; ) = 0 ” se


Pn q P
n
1
obtiene la solución única “ = n i=1 log xi , = 1
n i=1 (log xi b)2 ”. La
solución es el estimador de ( ; ) que buscamos, y entonces el estimador de mv es
v
u n
1 X
n
u1 X
b= log Xi , b = t (log Xi b)2 .
n i=1
n i=1

Realizando los cálculos se obtienen las estimaciones

b = 3:511 , b = 0:2029 .

Obsérvese que b = z y b2 = s2z , con zi = log xi para i = 1; : : : ; n.


Aunque la expresión de los estimadores sea aparentemente muy diferente para
los dos métodos, se comprueba que coinciden asintóticamente (e con b y e con b).
De hecho, con los datos presentados con n = 20, los valores de las estimaciones han
resultado ser muy similares.

12.- En general, la varianza muestral s2 no se puede expresar en función solo de


X. Sin embargo, en el caso de una muestra de una B (1; ), sí se puede expresar en
función del estadístico X: puesto que en este caso Xi2 = Xi (02 = 0 y 12 = 1), se

8
tiene que
!
1X X
n n
1 2
s2 = (Xi X)2 = Xi2 nX
n i=1 n i=1
!
1 X
n
2 1 2
= Xi nX = nX nX
n i=1
n
=X 1 X ,

y entonces
n
S2 = X 1 X .
n 1
La cuasivarianza muestral S 2 es siempre centrada para 2 y, en este caso de
distribución teórica B (1; ), se expresa en función del estadístico su…ciente minimal
X. Es la única función con estas características, y entonces S 2 es el ECUMV para
2
= (1 ).

13.- Sea la probabilidad de obtener cara con esa moneda. Sea Xi la v.a. que
vale 1 si sale cara en el lanzamiento i-ésimo y 0 si sale cruz. Las v.a X1 ; : : : ; Xn , con
n = 100, son iid, y entonces constituyen una m.a.s. de una B (1; ). Hemos observado
P
una realización muestral x1 ; : : : ; xn con ni=1 xi = 68, y entonces x = 0:68.
El ECUMV de es b = X, que da lugar a la estimación

b = x = 0:68 .
h i
Se tiene que V b = V X = n , y, puesto que el ECUMV para 2 es S 2 , el
2

h i h i
ECUMV para V b es Vb b = Sn . Calculamos el valor de la estimación:
2

h i S2 1
Vb b = = x (1 x) = 0:00220 .
n n 1
h i
(Su raiz cuadrada es un buen estimador de b , aunque no es su ECUMV. Da lugar
h i q
a la estimación b b = n 1 1 x (1 x) = 0:0469).

14.- Se tiene que g( ) = P fX = 1g = e .


a) La familia de las distribuciones de Poisson es completa y por tanto, par-
tiendo de cualquier estimador centrado T1 , el estimador T2 del teorema de Rao-
Blackwell es el ECUMV.
Partimos del siguiente estimador, que denotamos por T en vez de T1 :
(
1 si X1 = 1
T =
0 si X1 6= 1

9
(Obsérvese que es un mal estimador, puesto que es función de la muestra a tra-
ves solamente de X1 , pero tiene una estructura muy sencilla que va a facilitar los
cálculos).
T es centrado:

E [T ] = 1:P fT = 1g + 0:P fT = 0g = P fT = 1g = P fX1 = 1g = g( ) .

El estadístico su…ciente minimal es


X
n
S= Xi ,
i=1

y tiene distribución P(n ), puesto que la distribución de Poisson es reproductiva. Se


tiene que

E[T =S = s] = 1:P fT = 1=S = sg + 0:P fT = 0=S = sg


= P fT = 1=S = sg = P fX1 = 1=S = sg
Pn
P fX1 = 1; S = sg P fX1 = 1; i=1 Xi = sg
= =
P fS = sg P fS = sg
Pn
P fX1 = 1; i=2 Xi = s 1g
=
P fS = sg
P
P fX1 = 1g P f ni=2 Xi = s 1g
= (2)
P fS = sg
P fP( ) = 1g P f P((n 1) ) = s 1 g
= (3)
P fP(n ) = sg
(n 1)
e e [(n 1) ]s 1 =(s 1)!
=
e n [n ]s =s!
s 1
(n 1)s 1 s 1 s
= = 1 .
ns n n
La igualdad (2) se obtiene por la independencia de las Xi , y (3) por la reproductividad
de la distribución de Poisson.
Por tanto, el ECUMV para g( ) es
S 1
1 S
U= 1 .
n n

(Puesto que el estimador mv de es b = X, se tiene que el estimador mv de g( )


b
es g(b) = be = Xe X . Obsérvese que los estimadores U y V = Xe X son muy
n
parecidos cuando n es grande, puesto que l mn!1 1 n1 = e 1 y por tanto
1
nX 1 n (X )
1 1 n
X
U= 1 X= 1 X ' Xe = V .)
n n

10
b) Se tiene que

d2 X 1 1 1
i( ) = E log f (X) = E = E [X] = = ,
d 2 2 2 2

y por tanto, si T es centrado se tiene que


g 0 ( )2 1
V [T ] = (1 )2 e 2
.
n i( ) n

15.- Se tiene que


( + ) 1 1 ( + ) ( 1) log x ( 1) log(1 x)
f (x) = x (1 x) = e e ,
( ) ( ) ( ) ( )
a partir de lo cual es inmediato obtener que la familia paramétrica de las dis-
tribuciones beta es de tipo exponencial, en los tres casos. En todos los casos es
( + )
c( ) = , y el resto de elementos se presentan en la siguiente tabla.
( ) ( )

h (x) q( ) q1 ( ) q2 ( )
V (x) V1 (x) V2 (x)
1
= (1 x) 1 log x
= x 1 1 log (1 x)
=( ; ) 1 1 1 log x log (1 x)
P P P P
El estadístico sm es ni=1 V (Xi ) = ni=1 log (Xi ) , ni=1 V (Xi ) = ni=1 log (1 Xi )
P P P P
y ( ni=1 V1 (Xi ) ; ni=1 V2 (Xi )) = ( ni=1 log (Xi ) ; ni=1 log (1 Xi )) , respectiva-
mente.

16.- Se tiene que


ap p 1 ax ap (p 1) log x ax
f (x) = x e = e e ,
(p) (p)
a partir de lo cual es inmediato obtener que la familia paramétrica de las dis-
tribuciones gamma es de tipo exponencial, en los tres casos. En todos los casos
ap
es c ( ) = , y el resto de elementos se presentan en la siguiente tabla.
(p)

h (x) q ( ) q1 ( ) q2 ( ) V (x) V1 (x) V2 (x)


=p e ax p 1 log x
p 1
=a x a x
= (p; a) 1 p 1 a log x x
P Pn Pn Pn
El estadístico sm es ni=1 log (Xi ) , i=1 Xi y ( i=1 log (Xi ) ; i=1 Xi ) , res-
pectivamente.

11
k
17.- a) Se tiene que g( ) = P fX = kg = e =k! . Consideramos un estimador
T centrado para g( ) y calculamos E[T =S], que es el ECUMV para g( ), siendo
P
S = ni=1 Xi el estadístico sm. Se tiene que
(
1 si X1 = k
T =
0 si X1 6= k

es centrado:

E [T ] = 1:P fT = 1g + 0:P fT = 0g = P fT = 1g = P fX1 = kg = g( ) .

Se tiene que

E[T =S = s] = P fX1 = k=S = sg


Pn
P fX1 = k; i=1 Xi = sg
=
P fS = sg
P
P fX1 = kg P f ni=2 Xi = s kg
=
P fS = sg
k s k
(n 1) [(n 1) ]
e k!
e (s k)!
= s
e n [ns!]
s k
s [(n 1)]
= ,
k ns
S [(n 1)]S k
y entonces el ECUMV para P fX = kg es Uk = k nS
.

b) El ECUMV para P fX > 2g = 1 P fX = 0g P fX = 1g P fX = 2g


es
S
1 S S (S 1)
1 U0 U1 U2 = 1 1 1+ + .
n n 1 2 (n 1)2

12

También podría gustarte