Está en la página 1de 3

ESTIMADORES PUNTUALES

Propiedades deseables de un estimador

Las propiedades deseables de un estimador son las siguientes:

• Insesgadez: Un estimador es insesgado cuando la esperanza matemática del este es


igual al parámetro que se desea estimar. Por tanto, la diferencia entre el parámetro a
estimar y la esperanza de nuestro estimador tendría que ser 0.
• Eficiente: Un estimador es más eficiente o tiene la capacidad de estimar de forma
precisa cuando su varianza es reducida. Por lo tanto, ante 2 estimadores, siempre
elegiremos el que tenga una varianza menor.
• Consistencia: Un estimador consistente es aquel que a medida que la medida que la
muestra crece se aproxima cada vez más al valor real del parámetro. Por lo tanto, cuantos
más y valores entran en la muestra, el parámetro estimado será más preciso

Ahora veremos que X es un estimador puntual de μ muy razonable. Como resultado, el


importante estimador del intervalo de confianza de μ depende del conocimiento de la
distribución muestral de 𝑥̅ .

• Una sola muestra: estimación de la media

La distribución muestral de 𝑥̅ está centrada en μ y en la mayoría de las aplicaciones la varianza


es más pequeña que la de cualesquiera otros estimadores de μ. Por lo tanto, se utilizará la media
2
muestral 𝑥̅ como una estimación puntual para la media de la población μ. Recordemos que 𝜎 𝑥 =
𝜎2
𝑛
, por lo que una muestra grande producirá un valor de 𝑥̅ procedente de una distribución
muestral con varianza pequeña. Por consiguiente, es probable que 𝑥̅ sea una estimación muy
precisa de μ cuando n es grande.

De acuerdo con el teorema del límite central, podemos esperar que la distribución muestral de
𝑥̅ esté distribuida de forma aproximadamente normal con media 𝜇𝑥̅ = 𝜇 y desviación estándar
𝜎𝑥̅ = 𝜎/√𝑛 . Al escribir 𝑧𝛼/2 para el valor z por arriba del cual encontramos un área de α/2 bajo
la curva normal.
Si multiplicamos cada término en la desigualdad por σ/√n y después restamos 𝑥̅ de cada
término, y en seguida multiplicamos por – 1 (para invertir el sentido de las desigualdades),
obtenemos.

Se selecciona una muestra aleatoria de tamaño n de una población cuya varianza σ 2 se conoce𝑥̅
y se calcula la media para obtener el intervalo de confianza 100(1 – α)%. Es importante enfatizar
que recurrimos al teorema del límite central citado anteriormente. Como resultado, es
importante observar las condiciones para las aplicaciones que siguen.

Si 𝑥̅ es la media de una muestra aleatoria de tamaño n de una población de la que se conoce


su varianza σ 2 , lo que da un intervalo de confianza de 100(1 – α)% para μ es.

donde zα/2 es el valor z que deja un área de α/2 a la derecha. En el caso de muestras pequeñas
que se seleccionan de poblaciones no normales, no podemos esperar que nuestro grado de
confianza sea preciso. Sin embargo, para muestras de tamaño n ≥ 30, en las que la forma de las
distribuciones no esté muy sesgada, la teoría de muestreo garantiza buenos resultados. Queda
claro que los valores de las variables aleatorias Θˆ L y Θˆ U, son los límites de confianza.

Muestras diferentes producirán valores diferentes de x¯ y, por lo tanto, producirán diferentes

estimaciones por intervalos del parámetro μ, como se muestra en la fi gura 9.3. Los puntos en
el centro de cada intervalo indican la posición de la estimación puntual 𝑥̅ para cada muestra
aleatoria. Observe que todos los intervalos tienen el mismo ancho, pues esto depende sólo de
la elección de zα/2 una vez que se determina 𝑥̅ . Cuanto más grande sea el valor de zα/2 que
elijamos, más anchos haremos todos los intervalos, y podremos tener más confianza en que la
muestra particular que seleccionemos producirá un intervalo que contenga el parámetro
desconocido μ. En general, para una elección de zα/2 , 100(1 – α)% de los intervalos contendrá
μ.
• Estimadores insesgados

Una primera propiedad deseable para un estimador es que el centro de la distribución de los
valores que puede tomar coincida con el valor del parámetro que queremos aproximar.

A esta propiedad se le llama insesgadez. Así, un estimador insesgado es aquel cuya media
coincide con el valor del parámetro a estimar.

Veámoslo con un ejemplo para entenderlo mejor: supongamos que deseamos tener una
estimación de la estatura media de los hombres mayores de 18 en una población. Podriamos
ponernos en medio de la calle y seleccionar aleatoriamente una muestra de n hombres, medir
su estatura (o preguntársela) y calcular después la media aritmética de los datos obtenidos.
Esa sería una estimación puntual; llamémosla 𝑋1 .

Por medio de R podemos hacer una simulación de este proceso. En vez de bajar a la calle,
parar a la gente y preguntarle lo que mide, simulamos cien datos correspondientes a 100
estaturas de varones mayores de 18. En este caso, tenemos que “simular” que medimos a cien
personas, de una población de varones españoles mayores de 18.

La media muestral de esos 100 valores es 𝑋1 = 178.3424.

Si vamos al dia siguiente a la misma calle y seleccionamos aleatoriamente otra muestra del
mismo número n de personas, medimos su estatura y calculamos la media aritmética,
tenemos otra estimación puntual 𝑋2

La media es 𝑋2 =177.4769.

Obviamente, estos valores 𝑋1 Y 𝑋2 no coinciden, y no tienen por qué coincidir. En cada caso,
hemos seleccionado 100 personas aleatoriamente, hemos medido su estatura y hemos
calculado la media muestral. Los datos no van a ser los mismos, y por lo tanto las medias
muestrales tampoco. Cada vez que seleccionemos otra muestra, el estimador media muestral
da un valor diferente. Esto es, la media muestral es una variable aleatoria.

BIBLIOGRAFÍA

Kahneman, D. 2014. Pensar Rápido, Pensar Despacio / Thinking, Fast and Slow. Debolsillo
Mexico.

Wainer, Howard. 2007. “The Most Dangerous Equation.” American Scientist 95 (3): 249.

Villardón, J. L. (2004). Introducción a la inferencia estadística: muestreo y estimación puntual y


por intervalos. Salamanca, España: Departamento de Estadística–Universidad de Salamanca.

También podría gustarte