De una población en la que se analiza la variable aleatoria ζ, con función
de probabilidad f(x;θ), se extraen m.a.s de tamaño n. Se eligen dos estimadores del parámetro θ, tales que:
E(θ*1) = 2θ y V(θ*1) = 3θ2
E(θ*2) = θ + 1 y V(θ*2) = 4θ2
CUESTIONES a) ¿son insesgados?
b) Proponer, a partir de los estimadores anteriores, otros dos que sean
insesgados compararlos según el criterio de eficiencia. EJERCICIO 2: Una vez obtenido el intervalo: μ ε [10 -0’784; 10 + 0’784] = [9’216; 10’784]0’95
CUESTIONES
a) Aumentar la confianza de la estimación hasta el 99%, manteniendo
constante la precisión.
b) Aumentar al doble la precisión de la estimación obtenida, manteniendo
constante la confianza de la estimación en el 95%. Solución
Ejercicio 1:
Los Parámetros muéstrales son resúmenes de la información de la muestra
que nos "determinan" la estructura de la muestra. Los Parámetros muéstrales no son constantes sino variables aleatorias pues sus valores dependen de la estructura de la muestra que no es siempre la misma como consecuencia del muestreo aleatorio
Un estimador es un valor que puede calcularse a partir de los datos
muéstrales y que proporciona información sobre el valor del parámetro. E(θ*1) = 2θ V(θ*1) = 3θ2 E(θ*2) = θ + 1 V(θ*2) = 4θ2
a) ¿son insesgados?
Cuando un estimador es insesgado si la Media de la distribución del
estimador es igual al parámetro. O si la diferencia entre un valor matemático y el valor numérico del parámetro que estima es nula. Por lo tanto, no es insesgado. Un estimador es más eficiente o más preciso que otro estimador, si la varianza del primero es menor que la del segundo. A menor eficiencia, menor es la confianza de que el estadístico obtenido en la muestra aproxime al parámetro poblacional.