Está en la página 1de 10

TEMA 3 DATOS II

Estimación de parámetros

Hemos visto como el objetivo de la estadística inferencial es estimar (inferir) propiedades de


la población (parámetros) a través de la información proporcionada por la muestra
(estadísticos).

Estas inferencias puede realizarse de varias formas, no obstante, las más habituales son
dos:
1. La estimación de parámetros
2. El contraste de hipótesis

ESTIMACIÓN DE PARÁMETROS

Trata de responder a la pregunta de: ¿Cuál es el valor de un determinado parámetro?

CONTRASTE DE HIPÓTESIS

Trata de responder a la pregunta de: ¿Es razonable pensar que un parámetro tiene tal
valor?

Hay dos formas de hacer estimación de parámetros:

● Estimación puntual: Consiste en asignar un valor muestral concreto al parámetro


poblacional que se desea estimar.

Ya vimos que un estadístico es un valor


numérico descriptivo de la muestra. Por lo
tanto, existen multitud de estadísticos que
podemos utilizar para estimar un mismo
parámetro. Si bien conocemos algunos
estadísticos cuya utilidad ha sido contrastada
(media, varianza, proporción, etc.), no existe
ningún procedimiento que nos muestre cuál es
el estadístico adecuado para cada parámetro.

Por ejemplo, para estimar la media poblacional (μ) podemos utilizar los siguientes
estadísticos: la media aritmética, o la mediana, o la moda. Para poder elegir entre distintos
estadísticos debemos conocer cuáles son las propiedades de un buen estimador.

Un parámetro cualquiera se representa:

Un estimador cualquiera se representa:

1
Propiedades de un buen estimador:

1. Carencia de sesgo: Un estimador es insesgado si su valor


esperado coincide con el parámetro que estima.

2. Consistencia: Un estimador es consistente si a medida que aumenta el tamaño de


la muestra, también aumenta el de la probabilidad de que el estadístico coincida
exactamente con el parámetro.

De esto se deduce que todo estadístico que verifique las siguientes dos condiciones, es
consistente (aunque no todo estadístico consistente tiene que verificarlas). Estas
condiciones (estimador insesgado y además el error típico tiende a 0 a medida que
aumentamos el tamaño muestral) no son necesarias para que sea consistente pero si son
suficientes para que ese estimador sea consistente. Aunque no se cumplan cabe la
posibilidad de que el estimador sea consistente

3. Eficiencia: Un estimador es tanto más eficiente cuanto menor sea su varianza.


Aunque un estimador insesgado ofrece en promedio estimaciones correctas, si el
estimador no es eficiente (es decir, si su varianza es muy grande) dará lugar a
estimaciones que estén muy por encima o por debajo del verdadero valor. Aunque
unas estimaciones se contrarrestan para ofrecer una estimación promedio correcta,
al utilizar uno cualquiera de esas estimaciones se corre el riesgo de cometer un error
muy grande. Un estadístico eficiente varía menos de muestra en muestra y, por
tanto, ofrece estimaciones más precisas que otro menos eficiente.

Si el estimador es insesgado pero poco eficiente lo que nos va a decir es que en promedio
el valor del estadístico o estimador va a ser igual al estimador.

Si es poco eficiente un estadístico el error de estimación es muy grande y por tanto el valor
estimado se aleja del real sin embargo si es eficiente hay un error menor y por tanto estos
valores son más cercanos. Error típico mayor menor precisión y por tanto menos eficiencia.
Error típico pequeño mayor eficiencia del estimador y por tanto mayor precisión.

2
4. Suficiencia: Decimos que un estadístico es suficiente si al estimar el parámetro

utiliza toda la información muestral relacionada con ese parámetro .

Para calcular la media aritmética necesitamos conocer todos los valores sin embargo para
la mediana o la moda solo necesitamos un valor.

1. Carencia de sesgo:

2. Consistencia: cuando n → infinito

La varianza sesgada, insesgada y la proporción son consistentes.

3. Eficiencia:

Es más eficiente la varianza muestral sesgada (S2n) en comparación con la insesgada


(S2n-1) pero se utiliza la insesgada puesto que se estima mejor.

4. Suficiencia:

3
Tanto la media como la proporción como la varianza sesgada e insesgada son suficientes
porque incluyen xi que son todos los valores.

Analogía de las propiedades de los estimadores con el tiro con arco:

Nos interesa el Insesgado - Eficientes puesto que el promedio de los tiros coincide con el
medio de la diana y la dispersión es menor.

● Estimación por intervalos:

Acabamos de ver que la estimación puntual consiste en atribuir un valor concreto por medio
de un estadístico a un parámetro.
Es muy poco probable que el valor tomado por el estadístico coincida con el valor del
parámetro. Debido a la variación muestral existirá cierta discrepancia entre el valor estimado
y el valor real del estadístico. A esta discrepancia se le llama error muestral y se puede
expresar de esta manera:

En la estimación puntual no se conoce el error muestral que se está cometiendo. Es decir,


no sabemos si estamos cometiendo un error grande o pequeño. Este problema, el de
conocer el tamaño del error cometido en la estimación puede resolverse con la estimación
por intervalos.

4
La estimación por intervalos consiste en atribuir al parámetro que se desea estimar, no un
valor concreto, sino un rango de valores entre los que se espera que pueda encontrarse el
verdadero valor del parámetro con una probabilidad alta y conocida.

Este procedimiento permite determinar el tamaño del error muestral máximo (Emáx)
cometido en la estimación. Es decir, la distancia máxima que, con una determinada
probabilidad, esperamos que exista entre el valor verdadero del parámetro y el valor del
estadístico utilizado como estimador.

En este caso el margen de error es el 3% tanto


por encima como por debajo. Esperamos que
el valor verdadero este entre ese rango de
valores.

Con un nivel de confianza (1-α) de 0,95,


cabe esperar que de cada 100 intervalos
que construyamos, 95 sean correctos
(incluyan el parámetro μ) y 5 sean
incorrectos (no incluya el parámetro μ).

Conocemos una distribución muestral


normal, la dividimos en su zona central y
sus dos colas.

Valor estadístico (líneas contínuas) le


sumamos y le restamos una cantidad, justo
le sumamos la distancia que hay entre el
centro hasta la línea de la cola.

Si utilizamos la zona central de 0.95 de 100 intervalos construidos el 95% recogerán el valor
del parámetro y el 5% no. Habla de la probabilidad de antes de que se construya el
intervalo.

Es un error común pensar que los valores más centrales de un intervalo de confianza tienen
una probabilidad más alta de ser ciertos que los valores más alejados.
Los intervalos de confianza son una medida de la incertidumbre en la estimación de un
parámetro poblacional y no una medida de la probabilidad de que el parámetro esté dentro
del intervalo.
Por lo tanto, no se puede decir que los valores más centrales del intervalo tengan una
probabilidad más alta de ser ciertos que los valores más alejados.

5
A la probabilidad de efectuar una estimación
incorrecta se le llama nivel de riesgo y se
simboliza α (las dos colas azules)

A la probabilidad de efectuar una estimación


correcta se le llama nivel de confianza y se
simboliza 1-α (la zona blanca central)

Tradicionalmente, en la literatura estadística se suelen escoger niveles de riesgo de 0,05 y


0,01 (y, por tanto, los niveles de confianza se sitúan entre 0,95 y 0,99, respectivamente).

Cuanto mayor sea la amplitud del intervalo,


también mayor será la probabilidad de que el
intervalo incluya el valor verdadero.

Asimismo, cuanto mayor sea la amplitud del


intervalo, menor será la precisión de nuestra
estimación. Es decir, mayor será el error
máximo que podemos cometer.

Estimación de intervalos de confianza cuando el estimador sigue una distribución


normal

Pasos a seguir:

1.- Determinar el nivel de riesgo con el que se desea trabajar:

2.- Buscar la puntuación típica correspondiente a ese nivel de riesgo:

3.- Calcular el error típico de la distribución muestral del estimador:

6
4.- Establecer el valor del error máximo:

5.- Obtener los límites confidenciales:

Precisión de la estimación y del tamaño de la muestra:

Cuanto más estrecho es un intervalo confidencial más informativo y útil nos resulta. Ahora
bien, la amplitud de un intervalo confidencial depende de dos factores:

1. el nivel de riesgo

2. el error típico del estimador

La amplitud del intervalo confidencial (trabajar con un estimador de distribución normal)


no depende del valor de su estimador. Este intervalo sí que determina su posición pero no
su amplitud.

Depende de alfa (nivel de riesgo: si alfa es mayor tendremos un intervalo de confianza más
estrecho) y de la desviación típica del estimador.
Un mayor nivel de confianza: una mayor amplitud de los intervalos confidenciales pero los
intervalos confidenciales estrechos no significa un nivel de confianza bajo puesto que
también afecta el tamaño muestral (si este es alto).
Un intervalo más estrecho es más preciso.

Si aumentamos el nivel de riesgo, la amplitud del intervalo disminuirá, pero a costa de


incrementar la probabilidad de cometer errores, lo cual no es una solución razonable.

7
Nuestro interés debe orientarse hacia la reducción de la amplitud del intervalo manteniendo
constante el nivel de riesgo, y eso pasa necesariamente por la reducción del error típico del
estimador. En el caso de la media, depende de tanto la varianza poblacional como del
tamaño de la muestra. Esta ecuación nos muestra como incrementando el tamaño muestral
podemos disminuir el error típico muestral. Y puesto que éste determina el error máximo y, a
su vez, el tamaño del intervalo, podemos buscar el tamaño necesario para conseguir un
intervalo con el grado de precisión que deseemos.

El teorema de Tchebychev nos permite conocer el tamaño necesario de la muestra para


alcanzar una determinada precisión de cualquier estadístico.

De todos modos, a partir de las ecuaciones de los intervalos de confianza se pueden


deducir las ecuaciones para cada estadístico.

Veamos a continuación, las ecuaciones concretas para cada los estadísticos más comunes:
la media, la varianza y la proporción.

● Estimación de intervalos de confianza para la MEDIA:

Si la muestra es grande (n>30), la distribución muestral de la media se aproximará a la


normal siguiendo una distribución N(μ, σ).
Cuando conocemos sigma:

8
Si la muestra es pequeña (n<30), la distribución muestral de la media sigue una distribución
t de Student. Cuando desconocemos sigma:

EJEMPLO DE ESTIMACIÓN PARA LA MEDIA:

n= 100
media = 80
Sn - 1 (desviación típica insesgada) = 10
¿LS? (límite superior)
¿LI? (límite inferior)
1- alfa = 0.99 (nivel de confianza)

No dicen nada de que la


distribución poblacional sea
normal, tamaño muestral
grande sí (100). No
conocemos sigma.
Tenemos un tamaño
muestral grande sí. En este
caso se puede usar la
distribución normal
tipificada y la distribución t
de Student

DISTRIBUCIÓN NORMAL TIPIFICADA:

La probabilidad de 0.005 se tiene que buscar en


las tablas para ver las puntuaciones z.

9
DISTRIBUCIÓN T DE STUDENT:

En las tablas t student:


- grados libertad n-1 → 100 -1 = 99
- puntuación (t)
- probabilidad asociada = α medio

10

También podría gustarte