Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Por empezar definiendo el concepto de estimador, diremos que dada una muestra
aleatoria cualquiera {x1,x2,x3, … ,xn} un estimador representa a una población que
depende de φ un parámetro que desconocemos.
Este parámetro al que nosotros denotamos con la letra griega fi (φ), puede ser, por ejemplo,
la media de una variable aleatoria cualquiera.
Insesgado
Podemos ver que el sesgo es la diferencia entre el valor esperado del estimador, E(Q), y el
verdadero valor del parámetro poblacional, φ.
Eficiente o con varianza mínima
Dicho de forma intuitiva, suponiendo que tenemos dos estimadores con la propiedad de
insesgadez, podemos decir que uno (Q1) es más eficiente que otro (Q2) si la variabilidad de
los resultados de uno (Q1) es menor que la del otro (Q2). Es lógico pensar que una cosa que
varía más que otra es menos ‘precisa’.
Kervyn Alejandro Tello Canto 2-EA
Por tanto, sólo podemos usar este criterio de selección de estimadores cuando son
insesgados. En el enunciado anterior cuando estamos definiendo la eficiencia ya suponemos
que los estimadores tienen que ser insesgados.
Para comparar estimadores que no son necesariamente insesgados, esto es, que puede
existir sesgo, se recomienda calcular el Error Cuadrático Medio (ECM) de los estimadores.
El Error Cuadrático Medio (ECM) calcula la distancia promedio que existe entre el valor
esperado del estimador muestral Q y el estimador poblacional. La forma cuadrática del
ECM se debe a que los errores pueden ser por defecto, negativos, o por exceso, positivos,
respecto al valor esperado. De este modo, ECM siempre computará valores positivos.
ECM depende de la varianza y del sesgo (en el caso que lo hubiera) permitiéndonos
comparar dos estimadores cuando uno o ambos son sesgados. Aquel cuyo ECM sea mayor
se entenderá que es menos preciso (tiene más error) y, por tanto, menos eficiente.
Consistencia
Existe una dimensión de muestra mínima para llevar a cabo el análisis asintótico
(comprobar la consistencia del estimador a medida que aumenta la muestra).
Aproximaciones de muestras grandes funcionan correctamente para muestras de alrededor
de 20 observaciones, (n = 20). En otras palabras, queremos ver como se comporta el
estimador cuando aumentamos la muestra, pero este aumento tiende a infinito. Dado esto,
hacemos una aproximación y a partir de 20 observaciones en una muestra (n ≥ 20), es
apropiado el análisis asintótico.
Esto nos dice que las diferencias entre el estimador y su valor poblacional, |Qn – φ|, tienen
que ser mayores que cero. Por esto lo expresamos en valor absoluto. La probabilidad de
esta diferencia tiende a 0 (se hace cada vez más pequeña) cuando el tamaño de la muestra
(n) tiende a infinito (se hace cada vez más grande).
Dicho de otro modo, cada vez es menos probable que Qn se aleje mucho de φ cuando
aumenta el tamaño de la muestra.