Está en la página 1de 8

1

PRCTICA 9: PROPIEDADES DESEABLES DE LOS ESTIMADORES


EJERCICIO 1 (CANAVOS 8.2)
Recordemos primero la siguiente definicin:
Un estimador T se dice insesgado respecto a un parmetro E(T) =
1) a) E (T1) = (linealidad de la esperanza) =

1
1
1
[ E(X1) + E(X2) ] +
[ E(X3) + E(X4) ] =
6
3
6

1
( + ) = . Y por lo tanto es insesgado.
3
1
1
b) E (T2) = (linealidad) =
[ E(X1) + 2 E(X2) + 3 E(X3) + 4 E(X4) ] =
10 = 2 . En este
5
5
caso no es insesgado.
1
c) E (T3) =
[ E(X1) + E(X2) + E(X3) + E(X4) ] = , con lo cual es insesgado. Obsrvese
4
( + ) +

que T3 = X 4 , es decir el promedio de las cuatro observaciones.


d) E (T4) =

1
[ E(X1) + E(X4) ] = , con lo cual es insesgado.
2

1
1
(X1 + X2) ] + V [ (X3 + X4) ] =
6
3
1
1
1
1
5 2
2
2
.
= 2 [ V(X1) + V(X2) ] + 2 [ V(X3) + V(X4) ] =
2 +
2 =
36
9
18
6
3
1 2
b) V(T3) = V( X 4 ) =
.
16

2) a) V(T1) = (independencia) = V [

d) V(T4) = V [

1
1
1 2
1
2
(X1 + X4) ] = 2 [ V(X1) + V(X2) ] = .2. =
2
4
2
2

Por lo tanto, T3 = X 4 es el estimador insesgado de varianza ms pequea.


Recordemos que un estimador T1 es ms eficiente que otro T2 (ambos insesgados) si V(T1) <
V(T2). Y la eficiencia relativa se mide mediante el cociente de las varianzas.
En nuestro caso la eficiencia relativa de T1 respecto de T3 (estimador insesgado que tiene la
menor varianza) es:

1 2

V (T3 ) 16
18
9
=
= 0,225
=
=
5
80
40
V (T1 )
2

18
lo que significa que la varianza de T3 es tan solo el 22,5% de la varianza de T1; y la eficiencia
relativa de T4 respecto de T3 (estimador insesgado que tiene la menor varianza) es:

1 2

V (T3 ) 16
2
1
=
=
=
V (T4 ) 1 2
16 8

2
EJERCICIO 2
n

1) E(T) = E (

a
i =1

Xi ) = (linealidad de la esperanza) =

a
i =1

E ( Xi ) =

a
i =1

a = .
i

i =1

2) V(T) = V (

Xi ) = (independencia) =

i =1

V (a

Xi ) =

i =1

2
i

V ( Xi ) =

i =1

2
i

2 =

i =1

1
1
1

ya que la expresin de la sumatoria


ai + 2 , que es mnimo cuando ai =
n
n
n
i =1

es positiva o cero y por ello su mnimo se alcanza cuando ella es mula.


2

n X = X

Observacin: Ntese que lo demostrado implica que T es

i =1

3) El Error Cuadrtico Medio de un estimador T respecto a un parmetro se define como


2
E [ (T ) ]. Se puede demostrar fcilmente adems que:
2
ECM (T) = V(T) + [ Sesgo(T) ] donde Sesgo(T) = E(T)
Observacin: si T es insesgado, entonces ECM(T) = V(T)
a) E(T) = , que se deduce de 1) pues: (0,2 + 0,1 + 0,4 + 0,3) = 1
b) ECM(T) es entonces V(T):
2
2
2
2
2
V(T) = (independencia) = 0,2 V(X1) + 0,1 V(X2) + 0,4 V(X3) + 0,3 V(X4) = 0,3
4) si E(X ) = 2 , entonces V(X) = E(X ) E (X) = 2 = =
2
Por lo tanto: ECM(T) = V(T) = 0,3
2
2
2
Por otra parte el ECM(T*) = V(T*) + [ Sesgo(T*) ] = 0 + [ Sesgo(T*) ] = (2 )
2

ECM(T) < ECM(T*)


0,3 < (2 ) 0,7 4 + 4 > 0 < 1,29
> 4,42. En otras palabras, cuando est relativamente cerca de 2 (entre 1,29 y 4,42), T*
es ms eficiente que T.
2

EJERCICIO 3
1) Para que sea una densidad es necesario que

k e x dx = 1 k e

x +

=1

k = 1.
2) E(X) =
= + 1.
2

E(X ) =

x e x dx = x e

x +

x 2 e x dx = x e
2

x +

e x dx = (T. De denes) = +

3) Como Z = mn X1, ..., Xn , por el Ejercicio 32 de la Prctica 7 sabamos que:


n-1
fZ(z) = n [ 1 FX(z) ] fX(z)
Calculemos pues FX:
FX(z) = 0 si z <
FX(z) =

e x dx = e

x z

= 1 e

e x dx

2x e x dx = + 2 E(X) = + 2 ( + 1).

V(X) = E(X ) E (X) = + 2 ( + 1) ( + 1) = 1.


2

, si z

Por lo tanto:
fZ(z) = 0, si z <
n( z)
z n-1 z
z n
e
= n [e ] = n e , si z
fZ(z) = n [e ]

4) E(Z) =

x n en ( x ) dx = x e

n ( x) +

en ( x ) dx =

1 n ( x)
e
n

=+

1
n

1
1
1
1
= .
) = E(Z) = +
n
n
n
n
6) E(*) = y E(**) = E( Xn 1) = E( Xn ) 1 = E(X) 1 = + 1 1 = . Por lo tanto ambos
estimadores son insesgados. En cuanto a la varianza:
1
V( X)
1
1
V(*) = V(Z ) = V(Z) = 2 y V(**) = V( Xn 1) = V( Xn ) =
= .
n
n
n
n
5) E(*) = E(Z

Concluimos, entonces, que * es ms eficiente que **, ya que ambos son insesgados
pero V(*) < V(**) ( la varianza de * tiende ms rpidamente a cero que **, pues es un
infinitsimo orden es 2, mientras que el orden de * es 1).

EJERCICIO 4
2

1) y 2) ECM(T1) = ECM( 2 Xn ) = V(2 Xn ) + [ Sesgo(2 Xn ) ] . Pero:


b+0
E( Xn ) = E(X) =
E(2 Xn ) = b Sesgo(2 Xn ) = 0
2
2

V( X)
b2
b2
b 0 1
=
V(2 Xn ) =
ECM(T1) =

n
3n
3n
12 n

V( Xn ) =

Por el Ejercicio 39, Prctica 7 deducimos que:


t
b

f T2 (t ) = n FXn 1( t ) f X ( t ) = n

n 1

1
, para 0 t b
b

= 0, en otro caso

E(T2) =
E( T22 ) =

t
tn
b
b

n 1

t
t2 n
b

n
1
dt = n
b
b

n 1

1
n
dt = n
b
b

t n dt =

n
bn

t n +1 dt =

t n +1
n +1
n
bn

b
0

tn + 2
n+2

n
bn
b
0

b n +1
n
b
=
n +1
n+1
n
bn

bn + 2
n
2
b
=
n+2
n+2

n
n
n

2
b =
b
b2
n+2
(n + 2) (n + 1)2
n +1
Por lo tanto:
n
n b2
b2
2 b2
n
2
+
=
ECM(T2) =
b2 + (
b b) =
2
2
2
n +1
(n + 2) (n + 1)
(n + 2) (n + 1)
(n + 1)
(n + 2) (n + 1)
V(T2) =

Concluimos, entonces que si bien T1 es insesgado, T2 es asintticamente insesgado, esto


n

es, E(T2) b . Adems, la V(T1) y el ECM(T1) son infinitsimos de orden uno, y como
V(T2) y el ECM(T2) lo son de orden 2, resulta ms conveniente, para un tamao de muestra
suficientemente grande, el estimador T2. Si se calcula el cociente de los errores cuadrticos
medios, se encuentra que para n = 1 y n = 2 ambos estimadores son igualmente eficientes,
mientras que para n 3 es ms eficiente T2.
b2
y como X, cumple las
3n
hiptesis del Teorema del Lmite Central, es decir, E(X) y V(X) ambas finitas, podemos
concluir que:
b2
d
T1 N (b,
)
n+
3n

3) Vimos anteriormente que: E(T1) = E(2 Xn ) = b y V(T1) =

4) Hacer una representacin grfica de la distribucin exacta obtenida en 2) y la


distribucin aproximada obtenida en 3). A mayor n, ambas densidades se concentran
cada vez ms en b. Reflexionar sobre la velocidad de convergencia.

EJERCICIO 5 (CANAVOS 8.7)


1. La Desigualdad de Cramer-Rao nos plantea una cota para la varianza de los estimadores
insesgados siempre que su funcin de probabilidad (continua, discreta o mixta) sea regular.
Si n es un estimador insesgado, entonces:

V (n )

1
L f ( X , )

n E

Adems, si existe un estimador n que alcanza la cota, ste se dice eficiente.


En nuestro caso:
1
e

f (X, ) =

L [f (X, ) ] = L

L [ f ( X, ) ]
X
X
1

= + 2

L [ f ( X, ) ] 2
X 2 E ( X ) 2
V( X)
1
=
= 2
) =E( 2 ) =
4
4

E(
Por lo tanto:

2
V ( n )
n
Pero recordemos que:
E( Xn ) = = (en este caso) y V( Xn ) =

2
2
=
n
n

2. Entonces Xn es insesgado y alcanza la cota de Cramer-Rao y por ello es eficiente para


estimar .

EJERCICIO 6
1) Calculemos primero la esperanza y varianza de Yi, para los i tales que 1 i n:
E(Yi) = 1.P(Xi = 0) + 0.P(Xi 0) = 1. + 0 =
2
2
2
E( Yi2 ) = 1 .P(Xi = 0) + 0 .P(Xi 0) = 1 . + 0 =
V(Yi) = E( Yi2 ) E (Yi) = = (1 )
2

Observemos que Yi tiene distribucin Bernoulli() para i = 1, 2, .... , n


Por lo tanto:
E(*) = E (

1
n

2) V(*) = V (

Y ) = n E ( Y ) = (igual distrib.)
1

i =1

1
n

i =1

i =1

Yi ) =

1
n2

1
n

V(

i =1

Yi )) = (indep.) =

= .
i =1

1
n2

V(Y )
i

= (igual distrib.) =

i =1

(1 )
1
n (1 ) =
n
n2
Encontremos ahora la Cota de Cramer-Rao para los estimadores insesgados de . Para
ello utilizaremos las Yi, dado que si X1, ..., Xn son independientes e idnticamente

distribuidas, tambin los son Y1, ..., Yn. Incluso, por lo visto en 1) observamos que cada Yi
se distribuye Bernoulli() y por lo tanto:
Y
1Y
L [p (Y, ) ] = Y L + (1 Y) L (1 )
p (Y, ) = (1 )
Y
L [ p ( Y, ) ]
L [ p( Y, ) ] 2 E ( Y )2
V( Y )
1 Y
Y

E(
= 2
=
+
=
) = 2
(1 )

(1 )2
(1 )2
=

(1 )
2 (1 )2

1
(1 )
V ( n )
, por lo que * es de mnima varianza.
n
(1 )

3) Como * es de mnima varianza, entonces es eficiente y por lo tanto asintticamente


eficiente. Adems, aplicando el Teorema del Lmite Central, como {Yi }1 i n es una M.A.S.
c/r, donde cada Yi Bernoulli() se tiene que:
Y n = * N (,

(1 )
)
n

EJERCICIO 7 (NOVALES 9.8)


Un estadstico U se dice suficiente para estimar un parmetro (Teorema de Factorizacin), si
dada una muestra X1, ..., Xn, la funcin de probabilidad conjunta muestral L puede
descomponerse como el producto de una funcin del estadstico por otra funcin h,
independiente del parmetro . Esto es:
L(x1, ..., xn; ) = [ u(x1, ..., xn); ) ] h(x1, ..., xn)
Si tenemos una M.A.S. c/r entonces:
n

L(x1, ..., xn; ) =

i =1

1
e

xi

1
n

xi

i =1

1
e
n

n xn

La demostracin se completa observando que:


[ u(x1, ..., xn); ) ] =

1
n

n Xn

y h(x1, ..., xn) 1; donde u(x1, ..., xn) =

xn

EJERCICIO 8 (NOVALES 9.9)


En este caso:
n

L(x1, ..., xn; ) =

i =1

xi

= e n i =1
xi !
xi

i =1

1
= e n n Xn
xi !

Entonces tomando:
[ u(x1, ..., xn); ) ] = e n n Xn y h(x1, ..., xn) =

i =1

queda demostrado el ejercicio.

1
xi !

i =1

1
xi !

EJERCICIO 9
2
. Por otra parte,
n

1) Por un lado se prueba que la Cota de Cramer-Rao para la varianza es

2
, con lo que deducimos que
n
Xn es un estimador de mnima varianza para , y por lo tanto es eficiente.

ya habamos visto que Xn es insesgado y que V ( Xn ) =

2) L(x1, ..., xn; ) =

f ( x , ) =
i

i =1

1
2

21

i =1

( x i x + x )2

i =1

(x x) = 0 ) = (

2 )

i =1

2 )n

1
2

1
2

1
2

xi

2 )

1
2

( x i )2

i =1

2 )n

( x i x ) 2 2 ( x i x ) ( x ) + ( x )2

i =1

= (observar que

( x i x ) 2 + ( x )2

i =1

2 )n

1
2

( x i x )2

i =1

1
2

( x )2

i =1

Ahora si tomamos:

[ u(x1, ..., xn); ) ] = e

( x )2

1
2

i =1

; h(x1, ..., xn) =

2 )n

( x i x )2

1
2

i =1

x queda completa la demostracin.

con u(x1, ..., xn) =

3) Para el caso de ( X ) la factorizacin es la misma, la funcin h tambin y slo vara


mnimamente:
3

[ u(x1, ..., xn); ) ] = e

1
2

( x )3 )2

i =1

; con u(x1, ..., xn) = ( x )

Cuando tomamos como estadstico ( X ) y llevamos a cabo el mismo procedimiento que


3

para ( X ) el problema surge con las dos races (una positiva y otra negativa) de ( X ) .
4) Observamos que:
n

L(x1, ..., xn; ) =


2

f (x ,
i

) =

i =1

2 )n n

(
1
(

n
2 )n

n
2 2

1
2

i =1

1
2

xi

n ( x x x )2
i +

n
2 2

i =1

1
(

2 )n n

2 )n

(
n
2 2

1
2

i =1

n ( x x )2 x 2
+
i
n
i =1

2
(S2 + x )

, con lo cual no se puede factorizar como en la definicin.


n

Sin embargo, si definimos un nuevo estimador S* =


razonamiento que arriba obtenemos que:

X
i =1

2
i

, entonces siguiendo el mismo

L(x1, ..., xn; ) =

2 )n

1
2

i =1

1
(

2 )n n

n
2 2

n ( x )2
i

i =1

2 )n n

2 2

S* 2

Por lo que tomando:


[ u(x1, ..., xn); ) ] =
2

n
2 2

S* 2

; h(x1, ..., xn) =

(
queda demostrado que este s es un estimador suficiente.

1
2 )n

, con u(x1, ..., xn) = S*

EJERCICIO 10 (NOVALES 9.31)


Recordemos, previamente,

que un estimador Xn de es consistente

Xn .
n +

Asimismo la Desigualdad de Chebychev dice que dada una v.a. X, con E(X) = < y V(X) <
, entonces se cumple que:
V( X)
P ( X ) 2

Sea, luego, un estimador Xn de , asintticamente insesgado, esto es: E(Xn) = n y


n

n +

n +

con V(Xn) 0 . Debemos probar que Xn , es decir que: P ( Xn ) 0 .


ECM(Xn) = V(Xn) + [Sesgo(Xn)]

0 , ya que V(Xn) 0 y

Xn es asintticamente

insesgado respecto de y por lo tanto Sesgo(Xn) 0 .


2
2
2
Pero como ECM(Xn) = E [(Xn ) ] = E [(Xn ) 1
2
2 ] + E [(Xn ) 1 ( X )2 < 2 ]

( Xn )

(ambas expresiones son positivas) E [(Xn ) 1


2

2
( Xn )

P [(Xn ) ] = P (
2

2 ] E [ 1

2 ] =

2
( Xn )

Xn ) 0 , pues ECM(Xn) 0 . Por lo tanto

concluimos que:
P ( Xn ) 0 y que P ( Xn ) 0
n

n +

EJERCICIO 11
Observemos que X Bernoulli(p) es un caso particular de X FX(x) con y finitas.
Notemos ahora que cumple las condiciones del ejercicio anterior:
2
n
E( Xn ) = y V( Xn ) =
0 , por lo visto en el Ejercicio 2. Finalmente, si Xn es
n
insesgado respecto de , tambin es asintticamente insesgado y por lo tanto es consistente
como estimador de .
2

EJERCICIO 12
1) Fn*(a) es un estadstico pues es una variable aleatoria que slo depende de la muestra, si
a es una constante conocida, y el tamao de la muestra fijo. Fn*(a) se llama funcin de
distribucin emprica de la muestra pues proporciona la frecuencia acumulada hasta a.
2) E (Fn*(a)) = E (
distribucin) =
V (Fn*(a)) =

1
n

1
n

i =1

1{ Xi

a} ) = (linealidad) =

1
n

i =1

E (1{ Xi

a}) =

1
n

P (X a )
i

= (igual

i =1

1
n P ( X a ) = P ( X a ) = p.
n
n

V(

1{
i =1

Pero V ( 1{ Xi a }) = E

X i a }) )

= (independencia) =

( 1{ Xi a })2

] E2 [

1
n

( 1{ Xi a })

V (1{
i =1

]= E[

X i a}) )

( 1{ Xi a })

] E2 [

= P ( Xi a ) P ( Xi a ) = (igual distribucin) = p (1 p)
Finalmente:
2

V (Fn*(a)) =

1
n

V (1{
i =1

X i a})

1
n

n p (1 p) =

3) Fn*(a) es consistente ya que E (Fn*(a)) = p y V (Fn*(a)) =

p (1 p)
n

p (1 p)
n
0 .
n

( 1{ Xi a })

También podría gustarte