Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometria
Econometria
1
1
1
[ E(X1) + E(X2) ] +
[ E(X3) + E(X4) ] =
6
3
6
1
( + ) = . Y por lo tanto es insesgado.
3
1
1
b) E (T2) = (linealidad) =
[ E(X1) + 2 E(X2) + 3 E(X3) + 4 E(X4) ] =
10 = 2 . En este
5
5
caso no es insesgado.
1
c) E (T3) =
[ E(X1) + E(X2) + E(X3) + E(X4) ] = , con lo cual es insesgado. Obsrvese
4
( + ) +
1
[ E(X1) + E(X4) ] = , con lo cual es insesgado.
2
1
1
(X1 + X2) ] + V [ (X3 + X4) ] =
6
3
1
1
1
1
5 2
2
2
.
= 2 [ V(X1) + V(X2) ] + 2 [ V(X3) + V(X4) ] =
2 +
2 =
36
9
18
6
3
1 2
b) V(T3) = V( X 4 ) =
.
16
2) a) V(T1) = (independencia) = V [
d) V(T4) = V [
1
1
1 2
1
2
(X1 + X4) ] = 2 [ V(X1) + V(X2) ] = .2. =
2
4
2
2
1 2
V (T3 ) 16
18
9
=
= 0,225
=
=
5
80
40
V (T1 )
2
18
lo que significa que la varianza de T3 es tan solo el 22,5% de la varianza de T1; y la eficiencia
relativa de T4 respecto de T3 (estimador insesgado que tiene la menor varianza) es:
1 2
V (T3 ) 16
2
1
=
=
=
V (T4 ) 1 2
16 8
2
EJERCICIO 2
n
1) E(T) = E (
a
i =1
Xi ) = (linealidad de la esperanza) =
a
i =1
E ( Xi ) =
a
i =1
a = .
i
i =1
2) V(T) = V (
Xi ) = (independencia) =
i =1
V (a
Xi ) =
i =1
2
i
V ( Xi ) =
i =1
2
i
2 =
i =1
1
1
1
n X = X
i =1
EJERCICIO 3
1) Para que sea una densidad es necesario que
k e x dx = 1 k e
x +
=1
k = 1.
2) E(X) =
= + 1.
2
E(X ) =
x e x dx = x e
x +
x 2 e x dx = x e
2
x +
e x dx = (T. De denes) = +
e x dx = e
x z
= 1 e
e x dx
2x e x dx = + 2 E(X) = + 2 ( + 1).
, si z
Por lo tanto:
fZ(z) = 0, si z <
n( z)
z n-1 z
z n
e
= n [e ] = n e , si z
fZ(z) = n [e ]
4) E(Z) =
x n en ( x ) dx = x e
n ( x) +
en ( x ) dx =
1 n ( x)
e
n
=+
1
n
1
1
1
1
= .
) = E(Z) = +
n
n
n
n
6) E(*) = y E(**) = E( Xn 1) = E( Xn ) 1 = E(X) 1 = + 1 1 = . Por lo tanto ambos
estimadores son insesgados. En cuanto a la varianza:
1
V( X)
1
1
V(*) = V(Z ) = V(Z) = 2 y V(**) = V( Xn 1) = V( Xn ) =
= .
n
n
n
n
5) E(*) = E(Z
Concluimos, entonces, que * es ms eficiente que **, ya que ambos son insesgados
pero V(*) < V(**) ( la varianza de * tiende ms rpidamente a cero que **, pues es un
infinitsimo orden es 2, mientras que el orden de * es 1).
EJERCICIO 4
2
V( X)
b2
b2
b 0 1
=
V(2 Xn ) =
ECM(T1) =
n
3n
3n
12 n
V( Xn ) =
f T2 (t ) = n FXn 1( t ) f X ( t ) = n
n 1
1
, para 0 t b
b
= 0, en otro caso
E(T2) =
E( T22 ) =
t
tn
b
b
n 1
t
t2 n
b
n
1
dt = n
b
b
n 1
1
n
dt = n
b
b
t n dt =
n
bn
t n +1 dt =
t n +1
n +1
n
bn
b
0
tn + 2
n+2
n
bn
b
0
b n +1
n
b
=
n +1
n+1
n
bn
bn + 2
n
2
b
=
n+2
n+2
n
n
n
2
b =
b
b2
n+2
(n + 2) (n + 1)2
n +1
Por lo tanto:
n
n b2
b2
2 b2
n
2
+
=
ECM(T2) =
b2 + (
b b) =
2
2
2
n +1
(n + 2) (n + 1)
(n + 2) (n + 1)
(n + 1)
(n + 2) (n + 1)
V(T2) =
es, E(T2) b . Adems, la V(T1) y el ECM(T1) son infinitsimos de orden uno, y como
V(T2) y el ECM(T2) lo son de orden 2, resulta ms conveniente, para un tamao de muestra
suficientemente grande, el estimador T2. Si se calcula el cociente de los errores cuadrticos
medios, se encuentra que para n = 1 y n = 2 ambos estimadores son igualmente eficientes,
mientras que para n 3 es ms eficiente T2.
b2
y como X, cumple las
3n
hiptesis del Teorema del Lmite Central, es decir, E(X) y V(X) ambas finitas, podemos
concluir que:
b2
d
T1 N (b,
)
n+
3n
V (n )
1
L f ( X , )
n E
f (X, ) =
L [f (X, ) ] = L
L [ f ( X, ) ]
X
X
1
= + 2
L [ f ( X, ) ] 2
X 2 E ( X ) 2
V( X)
1
=
= 2
) =E( 2 ) =
4
4
E(
Por lo tanto:
2
V ( n )
n
Pero recordemos que:
E( Xn ) = = (en este caso) y V( Xn ) =
2
2
=
n
n
EJERCICIO 6
1) Calculemos primero la esperanza y varianza de Yi, para los i tales que 1 i n:
E(Yi) = 1.P(Xi = 0) + 0.P(Xi 0) = 1. + 0 =
2
2
2
E( Yi2 ) = 1 .P(Xi = 0) + 0 .P(Xi 0) = 1 . + 0 =
V(Yi) = E( Yi2 ) E (Yi) = = (1 )
2
1
n
2) V(*) = V (
Y ) = n E ( Y ) = (igual distrib.)
1
i =1
1
n
i =1
i =1
Yi ) =
1
n2
1
n
V(
i =1
Yi )) = (indep.) =
= .
i =1
1
n2
V(Y )
i
= (igual distrib.) =
i =1
(1 )
1
n (1 ) =
n
n2
Encontremos ahora la Cota de Cramer-Rao para los estimadores insesgados de . Para
ello utilizaremos las Yi, dado que si X1, ..., Xn son independientes e idnticamente
distribuidas, tambin los son Y1, ..., Yn. Incluso, por lo visto en 1) observamos que cada Yi
se distribuye Bernoulli() y por lo tanto:
Y
1Y
L [p (Y, ) ] = Y L + (1 Y) L (1 )
p (Y, ) = (1 )
Y
L [ p ( Y, ) ]
L [ p( Y, ) ] 2 E ( Y )2
V( Y )
1 Y
Y
E(
= 2
=
+
=
) = 2
(1 )
(1 )2
(1 )2
=
(1 )
2 (1 )2
1
(1 )
V ( n )
, por lo que * es de mnima varianza.
n
(1 )
(1 )
)
n
i =1
1
e
xi
1
n
xi
i =1
1
e
n
n xn
1
n
n Xn
xn
i =1
xi
= e n i =1
xi !
xi
i =1
1
= e n n Xn
xi !
Entonces tomando:
[ u(x1, ..., xn); ) ] = e n n Xn y h(x1, ..., xn) =
i =1
1
xi !
i =1
1
xi !
EJERCICIO 9
2
. Por otra parte,
n
2
, con lo que deducimos que
n
Xn es un estimador de mnima varianza para , y por lo tanto es eficiente.
f ( x , ) =
i
i =1
1
2
21
i =1
( x i x + x )2
i =1
(x x) = 0 ) = (
2 )
i =1
2 )n
1
2
1
2
1
2
xi
2 )
1
2
( x i )2
i =1
2 )n
( x i x ) 2 2 ( x i x ) ( x ) + ( x )2
i =1
= (observar que
( x i x ) 2 + ( x )2
i =1
2 )n
1
2
( x i x )2
i =1
1
2
( x )2
i =1
Ahora si tomamos:
( x )2
1
2
i =1
2 )n
( x i x )2
1
2
i =1
1
2
( x )3 )2
i =1
para ( X ) el problema surge con las dos races (una positiva y otra negativa) de ( X ) .
4) Observamos que:
n
f (x ,
i
) =
i =1
2 )n n
(
1
(
n
2 )n
n
2 2
1
2
i =1
1
2
xi
n ( x x x )2
i +
n
2 2
i =1
1
(
2 )n n
2 )n
(
n
2 2
1
2
i =1
n ( x x )2 x 2
+
i
n
i =1
2
(S2 + x )
X
i =1
2
i
2 )n
1
2
i =1
1
(
2 )n n
n
2 2
n ( x )2
i
i =1
2 )n n
2 2
S* 2
n
2 2
S* 2
(
queda demostrado que este s es un estimador suficiente.
1
2 )n
Xn .
n +
Asimismo la Desigualdad de Chebychev dice que dada una v.a. X, con E(X) = < y V(X) <
, entonces se cumple que:
V( X)
P ( X ) 2
n +
n +
0 , ya que V(Xn) 0 y
Xn es asintticamente
( Xn )
2
( Xn )
P [(Xn ) ] = P (
2
2 ] E [ 1
2 ] =
2
( Xn )
concluimos que:
P ( Xn ) 0 y que P ( Xn ) 0
n
n +
EJERCICIO 11
Observemos que X Bernoulli(p) es un caso particular de X FX(x) con y finitas.
Notemos ahora que cumple las condiciones del ejercicio anterior:
2
n
E( Xn ) = y V( Xn ) =
0 , por lo visto en el Ejercicio 2. Finalmente, si Xn es
n
insesgado respecto de , tambin es asintticamente insesgado y por lo tanto es consistente
como estimador de .
2
EJERCICIO 12
1) Fn*(a) es un estadstico pues es una variable aleatoria que slo depende de la muestra, si
a es una constante conocida, y el tamao de la muestra fijo. Fn*(a) se llama funcin de
distribucin emprica de la muestra pues proporciona la frecuencia acumulada hasta a.
2) E (Fn*(a)) = E (
distribucin) =
V (Fn*(a)) =
1
n
1
n
i =1
1{ Xi
a} ) = (linealidad) =
1
n
i =1
E (1{ Xi
a}) =
1
n
P (X a )
i
= (igual
i =1
1
n P ( X a ) = P ( X a ) = p.
n
n
V(
1{
i =1
Pero V ( 1{ Xi a }) = E
X i a }) )
= (independencia) =
( 1{ Xi a })2
] E2 [
1
n
( 1{ Xi a })
V (1{
i =1
]= E[
X i a}) )
( 1{ Xi a })
] E2 [
= P ( Xi a ) P ( Xi a ) = (igual distribucin) = p (1 p)
Finalmente:
2
V (Fn*(a)) =
1
n
V (1{
i =1
X i a})
1
n
n p (1 p) =
p (1 p)
n
p (1 p)
n
0 .
n
( 1{ Xi a })