Está en la página 1de 7

Estimadores puntuales

Guía de ejercicios

Prof. Alejandro Nasif Salum

Docentes auxiliares:
Sergio Chouza
Romina Boero

1. Sea X1 , X2 , X3 una muestra aleatoria de una distribución E(θ). Se con-


sideran los siguientes estimadores de θ:

θ̂1 = X1 + X2 + X3
1 1 1
θ̂2 = X1 + X2 + X3
2 4 4
1 1 1
θ̂3 = X1 + X2 + X3
3 3 3
1 1 1
θ̂4 = X1 + X2 + X3 .
4 4 4
a) ¿Cuáles son insesgados?
b) De los insesgados, ¿cuál es más eficiente?
c) ¿Alguno tiene menor ECM que los demás para todos los valores
de θ?

2. Se tiene una muestra aleatoria X1 , X2 de una distribución P(λ) y se


consideran los estimadores
1 1
λ̂1 = X1 + X2
2 2
1 3
λ̂2 = X1 + X2
4 4
1 1
λ̂3 = X1 + X2 .
3 3

a) Calcular y graficar el ECM de cada estimador en función de λ.

1
b) ¿Para qué valores de λ es mejor cada uno de ellos (según el criterio
del ECM )?
c) Inadmisibilidad. Se dice que θ̂ es inadmisible (según el criterio
del ECM ) si existe θ̂0 tal que ECMθ (θ̂0 ) ≤ ECMθ (θ̂), ∀θ y la de-
sigualdad es estricta al menos para un valor de θ. ¿Puede afirmarse
que alguno de los estimadores de λ planteados es inadmisible?

3. Para una muestra aleatoria X1 , X2 , ..., Xn de una población con es-


peranza α y varianza β se consideran todos los posibles estimadores
lineales de α, es decir, aquellos de la forma

α̂ = c0 + c1 X1 + c2 X2 + ... + cn Xn .

a) Hallar condiciones necesarias y suficientes sobre c0 , c1 , c2 , ..., cn pa-


ra que α̂ sea insesgado.
b) De todos los estimadores lineales insesgados de α hallar el de mí-
nima varianza.1 (Sugerencia: si resulta muy complicado el caso
general, hacer primero las cuentas para n = 2 y para n = 3.)

4. Sea X1 , X2 , ..., Xn una muestra aleatoria de una población con esperan-


za µ y varianza σ 2 finitas. Se consideran los siguientes estimadores de
σ2: n
2 1X 2
S = Xi − X̄
n i=1
n
2 1 X 2
Sn−1 = Xi − X̄
n − 1 i=1
n
1X
σ̂µ2 = (Xi − µ)2 .
n i=1

(Notar que σ̂µ2 solo es un estimador de σ 2 si el valor de µ es conocido).

Calcular la esperanza de cada uno2 . ¿Cuáles son insesgados? ¿Cuáles


son asintóticamente insesgados?

1
Un tal estimador se suele denominar ELIO (Estimador Lineal Insesgado Óptimo).
Otras siglas comunes son MELI (Mejor Estimador Lineal Insegado) y, en inglés, BLUE
(Best Linear Unbiassed Estimate).
2
Pn  2 Pn 2 2
Recordar que i=1 Xi − X̄ = i=1 (Xi − µ) − n X̄ − µ

2
~ = (X1 , ..., Xn ) una muestra aleatoria de una familia
5. Suficiencia. Sea X
parametrizada por θ y T = t(X1 , ..., Xn ) un estadístico de dicha mues-
tra. Se dice que T es un estadístico suficiente para θ si la distribución
~ = t no depende de θ.3
de X|T
En general, la suficiencia de T se prueba más simplemente mediante el

Teorema de factorización de Fisher-Neyman: T = t(X) ~ es suficiente


para θ si y solo si existen funciones no negativas g y h tales que la
densidad (o probabilidad) conjunta de la muestra puede expresarse como

fX~ (~x, θ) = g t(~x), θ · h(~x).

Usar el teorema de factorización, explicitando en cada caso las g y h


elegidas, para probar:

a) Si Xi ∼ Be(p), T = ni=1 Xi es suficiente para p.


P

b) Si Xi ∼ P(λ), T = ni=1 Xi es suficiente para λ.


P

c) Si Xi ∼ N (0, σ 2 ), T = ni=1 Xi2 es suficiente para σ 2 .


P

d ) Si Xi ∼ Γ(α, 1), T = ni=1 Xi es suficiente para α.


Q

e) Si Xi ∼ Γ(α, λ), T~ = ( ni=1 Xi , ni=1 Xi ) es suficiente para el


Q P
parámetro bidimensional (α, λ).

6. Para los casos (a), (b) y ∗(c) del punto anterior, analizar qué distribu-
ción tiene T y calcular la cantidad de información de Fisher de X ~ y de
T para el parámetro en cuestión. ¿Qué se observa?
T
(Ayuda: en (c), es claro que σ2
∼ χ2n = Γ( n2 , 12 ). Deducir la distribución
de T = σ 2 · σT2 .)

7. Sea X1 , X2 , ..., Xn una muestra aleatoria de una población N (µ, σ 2 ). Se


consideran los mismos estimadores de σ 2 que en el punto 4.

a) ¿Cuáles de estos son estimadores consistentes?


3
La interpretación usual de esta definición es que una vez conocido el valor de T , la
muestra no contiene más información sobre el parámetro θ.

3
b) Calcular el ECM de cada uno de los estimadores propuestos. En
particular, probar que ECM (S 2 ) < ECM (Sn−1
2
) cualquiera sea
n.
c) Calcular la cota de Cramer-Rao para σ 2 y probar que

Var(S 2 ) < CCR(σ 2 ) = Var(σˆµ2 ) < Var(Sn−1


2
).

d ) ¿Cómo es posible que Var(S 2 ) < CCR(σ 2 )?

8. Dada una muestra aleatoria X1 , X2 , ..., Xn de una distribución P(λ), se


consideran los estimadores de λ
n
1X
λ̂1 = Xi
n i=1

n n
!2
1 X 2 1 X
λ̂2 = Xi − Xi .
n − 1 i=1 n(n − 1) i=1

a) Probar que ambos son insesgados y que λ̂1 es consistente y efi-


ciente. (Sugerencia: para probar que λ̂2 es insesgado, recordar que
P n
i=1 Xi ∼ P(nλ).)

b) Probar que Var(λ̂2 ) ≥ Var(λ̂1 ). (Sugerencia: releer el ítem ante-


rior.)
c) *Probar que λ̂2 es consistente.

9. Considérese la distribución discreta con función de probabilidad dada


por la siguiente tabla:

x pX (x)
0 α
1 α
2 1 − 2α

1
donde 0 ≤ α ≤ 2
es un parámetro desconocido.

4
a) Si una muestra aleatoria de tamaño n = 3 arroja los valores x1 =
2, x2 = 1, x3 = 1, escribir la función de verosimilitud L(α) y
estimar α por el criterio de máxima verosimilitud.
b) Repetir el procedimiento para una muestra aleatoria de tamaño
n = 4 que arroja los valores x1 = 0, x2 = x3 = x4 = 1.

10. En base a una muestra aleatoria de tamaño n, hallar estimadores por


el método de los momentos y por el de máxima verosimilitud para el
parámetro α de la distribución dada por

0
 si x < 0
α
FX (x) = x si 0 ≤ x < 1

1 si x ≥ 1.

11. Hallar los estimadores de máxima verosimilitud basados en una mues-


tra de tamaño n para los parámetros desconocidos de las siguientes
distribuciones:

a) P(λ);
b) Be(p);
c) G(p);
d ) N (µ, σ 2 ), considerando los casos
1) µ y σ 2 son desconocidos,
2) µ es desconocido y σ 2 es conocido,
3) µ es conocido y σ 2 es desconocido;
e) E(λ);
f ) U(0, θ);
g) Γ(α, λ) y Γ(α, β), suponiendo α conocido. ¿Qué sucede cuando α
es desconocido?

12. Hallar estimadores por el método de los momentos basados en una


muestra de tamaño n para los parámetros desconocidos de las siguientes
distribuciones:

a) P(λ);

5
b) Be(p);
c) G(p);
d ) N (µ, σ 2 ), considerando los casos
1) µ y σ 2 son desconocidos,
2) µ es desconocido y σ 2 es conocido,
3) µ es conocido y σ 2 es desconocido;
e) E(λ);
f ) Γ(α, β), considerando los casos
1) α y β son desconocidos,
2) α es desconocido y β es conocido,
3) α es conocido y β es desconocido;
g) χ2n ;
h) B(α, β);
i ) U(0, θ).

13. Analizar sesgo, consistencia y eficiencia de los estimadores obtenidos


en los puntos:
a) 9.b.;
b) 9.g. (para β);
c) *10.f.ii.4

14. Analizar la expresión de los estimadores de MV obtenidos en el ejercicio


(11), en los ítems (a), (b) y (d.iii), y comparar con los resultados del
ejercicio (5), ítems (b), (a) y (c), respectivamente. ¿Qué se observa?

15. *En base a una muestra aleatoria de tamaño n, hallar estimadores por
el método de los momentos y por el de máxima verosimilitud para el
parámetro γ de la distribución dada por
(
0 si t < γ
FX (t) =
1 − eγ−t si t ≥ γ.

4 d d
Para este último caso se definen las funciones ψ0 (α) = dα ln(Γ(α)) y ψ1 (α) = dα ψ0 (α),
denominadas funciones digamma y trigamma, respectivamente. Para este ejercicio, el único
dato relevante es que tales funciones existen y que ψ1 (α) > α1 , ∀α > 0.

6
16. Hallar el estimador de máxima verosimilitud del parámetro α > 0 en
base a una muestra X1 , X2 , ..., Xn de una distribución
t
FX (t) = 1 − e−αe .

También podría gustarte