Está en la página 1de 20

Temas de investigación conceptual

1.- Los dos problemas que atiende la estadística inferencial.

Los dos tipos de problemas que resuelven las técnicas estadísticas


son: estimación y contraste de hipótesis. En ambos casos se trata de generalizar
la información obtenida en una muestra a una población. Estas técnicas exigen
que la muestra sea aleatoria. En la práctica rara vez se dispone de muestras
aleatorias, por la tanto la situación habitual es la que se esquematiza en la figura.

Entre la muestra con la que se trabaja y la población de interés, o población diana,


aparece la denominada población de muestreo: población (la mayor parte de las
veces no definida con precisión) de la cual nuestra muestra es una muestra
aleatoria. En consecuencia la generalización está amenazada por dos posibles
tipos de errores: error aleatorio que es el que las técnicas estadísticas permiten
cuantificar y críticamente dependiente del tamaño muestral, pero también de la
variabilidad de la variable a estudiar y el error sistemático que tiene que ver con la
diferencia entre la población de muestreo y la población diana y que sólo puede
ser controlado por el diseño del estudio.

Tamaño muestral

El tamaño muestral juega el mismo papel en estadística que el aumento de la


lente en microscopía: si no se ve una bacteria al microscopio, puede ocurrir que:
- la preparación no la contenga
- el aumento de la lente sea insuficiente.
Para decidir el aumento adecuado hay que tener una idea del tamaño del objeto.

Del mismo modo, para decidir el tamaño muestral:


i) en un problema de estimación hay que tener una idea de la magnitud a estimar y
del error aceptable.
ii) en un contraste de hipótesis hay que saber el tamaño del efectoque se quiere
ver.

Estimación estadística
Vicente Manzano Arrondo – 2012-2014
Estimar qué va a ocurrir respecto a algo (o qué está ocurriendo, o qué ocurrió), a
pesar de ser un elemento muy claramente estadístico, está muy enraizado en
nuestra
cotidianidad. Dentro de ello, además hacemos estimaciones dentro de un intervalo
de
posibilidades. Por ejemplo: “creo que terminaré la tarea en unos 5-6 días”.
Lo que hacemos en el terreno del análisis de datos es aplicar matizaciones
técnicas a este hábito. Vamos a dedicar este documento al concepto de
estimación,
comenzando con la estimación puntual. Después nos ocuparemos de desarrollar
un
modelo de estimación por intervalo donde identificaremos los elementos
fundamentales,
con su significado y símbolo. Y, por último, habrá que desarrollar cómo se calculan
esos
elementos.
La estimación puntual
Estimar puede tener dos significados interesantes. Significa querer e inferir. Desde
luego, el primer significado es más trascendente. Pero no tiene ningún peso en la
estadística, disciplina que no se ocupa de los asuntos del amor. El segundo
significado es
el importante aquí. Una estimación estadística es un proceso mediante el que
establecemos qué valor debe tener un parámetro según deducciones que
realizamos a
partir de estadísticos. En otras palabras, estimar es establecer conclusiones sobre
características poblacionales a partir de resultados muestrales.
Vamos a ver dos tipos de estimaciones: puntual y por intervalo. La segunda es la
más natural. Y verás que forma parte habitual de nuestro imaginario como
personas sin
necesidad de una formación estadística. La primera, la estimación puntual, es la
más
sencilla y, por ese motivo, vamos a comenzar por ella. Ocurre, además, que la
estimación
por intervalo surge, poco más o menos, de construir un intervalo de posibles
valores
alrededor de la estimación puntual.
Una estimación puntual consiste en establecer un valor concreto (es decir, un
punto) para el parámetro. El valor que escogemos para decir “el parámetro que
nos
preocupa vale X” es el que suministra un estadístico concreto. Como ese
estadístico sirve
para hacer esa estimación, en lugar de estadístico suele llamársele estimador. Así,
por
ejemplo, utilizamos el estadístico “media aritmética de la muestra” como estimador
del
parámetro “media aritmética de la población”. Esto significa: si quieres conocer
cuál es el
valor de la media en la población, estimaremos que es exactamente el mismo que
en la
muestra que hemos manejado.
Insesgadez
Del párrafo anterior podemos concluir erróneamente que todo parámetro se infiere
a partir de un estadístico que resulta ser la misma fórmula o función pero
calculado en la
muestra. Si queremos estimar la media poblacional, le asignamos directamente la
media
de la muestra. Si queremos estimar la proporción poblacional, le asignamos el
valor de la
proporción en la muestra. Si queremos estimar la varianza poblacional, le
asignamos el
valor de la varianza de la muestra. Esa norma general tiene excepciones, por lo
que es
mejor no pensar en ella como norma. De los tres ejemplos, es cierto en los dos
primeros
1casos: estimación puntual de una media o de una proporción; pero no en el
tercero:
estimación puntual de una varianza. La razón proviene del objetivo de la
insesgadez.
Un sesgo es una tendencia constante. En un ejemplo clásico, solemos afirmar que
las escopetas de feria están diseñadas para errar, para desviarse. Si esa
desviación es
fija, es decir, si esa desviación es una tendencia a errar hacia un sentido concreto,
entonces hablamos de sesgo. Si no es fija, entonces se trata de una variación
aleatoria.
Observa la figura 1. El objetivo es dar al centro de la diana. El área de disparos A
muestra
una variación aleatoria, pero sin sesgo pues apunta correctamente alrededor del
objetivo.
El área B muestra un sesgo claro: todos los disparos dan en un mismo punto y ese
punto
no es el centro de la diana, estamos errando. El área C ejemplifica una mezcla de
ambos:
existe sesgo y variación aleatoria, puesto que los disparos impactan en un área
con cierta
dispersión aleatoria pero concentradas en torno a un punto desplazado del
objetivo.
Figura 1. Sesgo y variación.
Los estimadores siempre suministran dispersión aleatoria. Como sabemos del
monográfico sobre muestreo, el conjunto de todas las muestras de un mismo
diseño que
provienen de una misma población suministran valores diferentes. Esta
circunstancia
indica que existe una variación aleatoria con la que hay que vivir porque es
inevitable.
Pero todavía sería peor. Es posible que el estimador escogido tenga sesgo, es
decir, que
no solo esté variando alrededor de un punto, sino que el punto sobre el que varía
no es el
valor poblacional, verdadero u objetivo de nuestro interés. Esto si es evitable. Así
que los
estimadores que utilizamos intentamos que sean insesgados, es decir, que
carezcan de
sesgo.
El recurso que utilizamos para ello es el valor esperado, es decir, la media
aritmética de la distribución muestral del estimador. Ya lo viste en el monográfico
sobre
muestreo. El valor esperado es, como dice la expresión, el valor que esperamos.
Cabe
elegir un estimador tal que el valor esperado coincida con el parámetro. Esto
ocurre si
utilizamos la media aritmética de la muestra como estimador de la media
aritmética de la
población, pues E(X̄ ) =μ . También ocurre con las proporciones, pues E(p) = π .
Pero no ocurre así con la varianza (y, por tanto, tampoco con la desviación tipo)
pues
E(S
2
)≠σ
2
. Esto ya lo hemos abordado en el monográfico sobre muestreo. Lo que
hacemos entonces es escoge otro estimador. En el muestreo aleatorio simple
donde las
poblaciones son de gran tamaño, es la cuasivarianza el estadístico escogido como
estimador de la varianza poblacional, pues E(Ŝ
2
)= σ
2
, es decir, la cuasivarianza es un
estimador insesgado de la varianza poblacional.
2
Además de medias, proporciones y variaciones, un parámetro habitual es el total.
Llamamos total a una frecuencia absoluta calculada en la población. Por ejemplo,
podemos tener interés en conocer cuántas personas votarán al partido HH en las
próximas elecciones o cuántos cigarrillos van a consumirse en el mes de abril.
Para
responder, utilizamos un recurso indirecto que parte de una estimación previa,
bien sea de
una media aritmética o de una proporción. Supongamos que la población que nos
interesa
cuenta con un millón de habitantes. Hemos trabajado con una muestra de 200. De
los que
38 dicen que votarán al partido HH. Esto significa 38/200*100=19%. Una
estimación
puntual establece que el 19% de la población votará a HH. Como hay un millón de
habitantes, entonces, hablamos de 1,000,000*19/100=190,000 personas.
Supongamos
también que se fuman 50 cigarrillos por término medio cada mes. Si ese es el
valor de la
media aritmética de la muestra, la estimación puntual afirmará que en la población
se
fumarán 50 cigarrillos por persona durante el mes de abril, por término medio.
Como hay
un millón de habitantes, el mes de abril verá consumidos 50 millones de cigarrillos.
Así
pues, en la estimación de totales no realizamos un camino alternativo específico
sino que
ampliamos la estimación realizada previamente, sea de una proporción o de una
media.
Estimación por intervalo
Las estimaciones puntuales no son una buena opción cuando constituyen el
centro
del objetivo, aunque solucionan problemas de procedimiento, por lo que son
absolutamente necesarias.
Por qué estimar por intervalo
He comenzado prácticamente por el final. Intentemos comprender la afirmación
del
párrafo anterior. Por un lado, una estimación puntual es una mala opción. Que el
parámetro tenga exactamente el valor del estimador es una casualidad de difícil
ocurrencia. Queremos estimar el tiempo medio que una persona pasa entre una
respiracion y la siguiente cuando duerme. Acotamos la población: nos preocupan
los
adultos (al menos 18 años de edad) europeos. Demasiados millones como para
pensar
que podemos abordar a toda la población. Así que seleccionamos una muestra
aleatoria
simple de 350 habitantes del continente con 18 o más años. El tiempo medio en la
muestra es de 5 segundos. Si hacemos una estimación puntual diremos que el
tiempo
medio en la población es también de 5 segundos. Imaginemos que somos
capaces de
conocer el valor real en la población. Es 5,2 segundos. ¿Hemos acertado?
¿Qué significa 5 segundos? En principio, son 5 segundos exactamente. Esto lo
diferencia de, por ejemplo, 5,0013 o de 4,9987. Sin embargo, la gran mayoría de
las
personas seguramente aceptarían cualquiera de ambas aproximaciones como un
acierto
meritorio, pues solo se alejan de 5 en 13 diezmilésimas, una cantidad demasiado
pequeña como para penalizar el estudio y afirmar que no acertó. Si nos
comportamos de
ese modo es que no estamos haciendo una estimación puntual, sino considerando
un
intervalo alrededor de 5 que marca la desviación admisible o una especie de
cuantía
máxima de error que nos permite afirmar que realmente se trata de un acierto.
Demasiado
enrevesado ¿no crees? Si la estimación puntual es utilizar un punto, no podemos
estar
utilizando un intervalo y seguir hablando de estimación puntual. Así pues, 5
segundos es
un error, pues no coincide exactamente con el valor del parámetro, que es 5,2. Le
daremos más o menos importancia, pero la estimación no acertó en el valor real.
Con
poco que pensemos sobre esto, la conclusión es muy clara: en sentido estricto, las
estimaciones puntuales yerran.
Lo que hacemos o deseamos hacer en la práctica son estimaciones por intervalo.
Consiste en utilizar el célebre más o menos. Diremos, en nuestro ejemplo, que el
tiempo
medio que una persona dormida ocupa entre dos respiraciones es más o menos 5
segundos. No obstante, desde el campo de la estadística, ese más o menos es
demasiado impreciso. Está incompleto. Es necesario responder a ¿más o menos
qué?
Hay que manejar alguna precisión. Por ejemplo: más o menos 0,4 segundos. Si la
estimación es así, entonces estamos concluyendo con un intervalo: el tiempo
medio es de
5 ± 0,4 = {4,6 ; 5,4}. Acabamos de ver nuestro primer ejemplo de estimación por
intervalo.
Dos elementos en la estimación
En una estimación por intervalo podemos observar dos elementos: un centro y un
radio o distancia al centro. En el ejemplo, el centro es 5 y el radio es 0,4. El centro
es el
valor aportado por el estimador. El radio expresa una medida de imprecisión.
Cuanto
menor es su valor, mayor es la precisión. Así que vamos a llamarlo
coherentemente error
de precisión, utilizando el símbolo ep. En nuestro ejemplo, el estimador es la
media
aritmética con valor 5, mientras que el error de precisión tiene el valor 0,4. Con
ambos
elementos podemos construir un intervalo. Antes de pasar al tercer elemento
fundamental
de una estimación por intervalo, retomemos la estimación puntual.
He iniciado este apartado afirmando que “Las estimaciones puntuales no son una
buena opción cuando constituyen el centro del objetivo, aunque solucionan
problemas de
procedimiento, por lo que son absolutamente necesarias”. Ya has leído el
razonamiento
por el que la estimación puntual parece una mala opción. Sin embargo, llegará un
momento, dentro de unas páginas, en el que tendremos que calcular el error de
precisión.
Es algo por lo que hay que pasar comprensiblemente antes de construir el
intervalo, ya
que este surge de sumar y restar el error de precisión sobre el valor del estimador.
En el
cálculo del error de precisión veremos que nos hace falta el valor de algún
parámetro
más. ¿Qué hacemos? Si la estimación por intervalo es la opción razonable,
entonces
pondremos en marcha un nuevo proceso, anidado en el anterior, donde
necesitaremos
construir un nuevo intervalo, es decir, calcular un nuevo error de precisión, es
decir,
encontrar el valor de un nuevo parámetro... y así sucesivamente. Esto debe tener
un fin.
El fin es la estimación puntual. En pocas palabras:
– cuando la estimación es un objetivo finalista, es decir un fin que deriva de los
objetivos de la investigación, entonces la llevamos a cabo por intervalo, pero
– cuando la estimación es un objetivo instrumental, es decir, una necesidad
temporal
que surge en el proceso de construcción de un intervalo, entonces la estimación
será puntual.
Por ejemplo, para estimar la media de la población mediante un intervalo, el
cálculo
del error de precisión (como veremos) exige contar con el valor de la desviación
tipo de la
población. Nuestro objetivo no es encontrar ese valor, pero no tenemos más
remedio que
acotarlo de algún modo para seguir el proceso que realmente nos interesa.
Entonces,
para esta segunda necesidad, realizaremos una estimación puntual que, como
hemos
visto, consistirá en tomar el valor de la cuasidesviación tipo de la muestra. El
tercer elemento
Imagina que hacemos una apuesta. Apuesto contigo a que la siguiente persona
que va a pasar por delante nuestra tiene 30 años.
En el contexto en el que nos encontramos, yo de ti aceptaría la apuesta. Acabo de
arriesgar una estimación puntual, así que me equivocaré con seguridad. Si esa
persona
tiene, por ejemplo, 30 años, 9 meses y 17 días, en sentido estricto no son 30 años.
Así
que para prevenir estos problemas, utilizaremos una estimación por intervalo.
Mejor, me lo
pienso. Y pensando no termino de decidir entre dos posibilidades:
A. Esa persona tiene entre 28 y 32 años.
B. Esa persona tiene entre 10 y 50 años.
¿Con cuál de las dos estimaciones por intervalo es más fácil acertar? Es obvio
¿verdad?, con la B. Cuanto más amplio sea el intervalo, es decir, cuanto mayor
sea el
valor del error de precisión, cabrán más resultados posibles y el acierto será más
probable. Ganaré más fácilmente la apuesta si me decido por la versión B que no
por la A.
He aquí el tercer elemento fundamental de la estimación: la seguridad.
Cuanto más seguro quiera estar cuando hago una estimación, es decir, cuanto
más
difícil quiero que sea la probabilidad de equivocarme ¿qué hago? Una opción que
parece
clara es incrementar el error de precisión, es decir, aumentar el intervalo.
Así pues, contamos con tres elementos en una estimación por intervalo: el
estimador, el error de precisión y la seguridad. El valor del estimador viene
determinado
por la muestra. No es algo que podamos decidir. Pero ¿y los otros dos? Uno está
en
función del otro, como hemos razonado. Lo que hacemos es decidir uno y calcular
qué
valor ha de tener el otro hasta encontrar un equilibrio. La figura 2 expresa esta
idea. Los
dos elementos se apoyan sobre las características de la muestra, representadas
por el
valor del estimador. Conforme aumenta la seguridad disminuye la precisión.
Conforme
aumenta la precisión disminuye la seguridad. Esto del equilibrio es cosa difícil de
explicar.
Depende de varios factores, entre los que las consecuencias prácticas deberían
constituir
el factor protagonista. Pero, como ya veremos, otros criterios menos confesables,
como la
tradición, el hábito o el miedo a dar explicaciones, han generado otro tipo de
soluciones.
Abordaremos esto más adelante.
Figura 2. Equilibrio entre precisión y seguridad.
Vayamos por orden
Es posible seguir caminos alternativos, pero el orden más lógico en una
estimación
por intervalo viene a ser decidir la seguridad y, a partir de ella, calcular el valor que
ha de
tener el error de precisión, construyendo acto seguido el intervalo. Si entramos en
un
esquema más sistemático, he aquí el proceso:
1. Decidir cuáles son los valores deseados para la seguridad y la precisión, siendo
conscientes de que valores muy ambiciosos generarán situaciones muy exigentes.
2. Calcular el tamaño que ha de tener la muestra para conseguir esos objetivos
iniciales de precisión y seguridad. Este asunto será abordado específicamente en
otro monográfico (Tamaño de muestra). Obtener la muestra.
4. Obtener el valor del estadístico utilizado como estimador, que suministra el
punto
central del intervalo.
5. Calcular el error de precisión a partir de la información de la muestra y de la
seguridad deseada.
6. Construir el intervalo.
De todos estos puntos del esquema, el primero está repartido entre este
monográfico y el siguiente, sobre el tamaño de la muestra. El segundo punto se
cuentra
íntegramente en ese otro monográfico. El tercero no nos compete en esta
asignatura. El
cuarto se encuentra ya abordado en el monográfico Conocer una variable. El
quinto será
objeto del siguiente apartado. El sexto ya sabemos cómo hacerlo, si contamos con
todo lo
anterior. Antes de entrar en ese quinto punto, sobre cómo calcular el error de
precisión,
vamos a ocuparnos brevemente de reflexionar acerca de cuál debería ser la
seguridad.
Qué hacer con la seguridad
Es obvio que queremos tener la máxima seguridad posible. Esto ocurre desde
siempre, pero cada vez es más observable. Vivimos un momento histórico muy
incierto,
con varias dimensiones sujetas a cambios bruscos. Otra de las características de
este
momento es la intensidad con que se cultiva el miedo, un miedo pronunciado con
multitud
de objetos: la delincuencia, la inestabilidad laboral, el terrorismo, la gripe de las
gallinas,
de las vacas o de los cerdos, el tráfico, etc. Así que no es de extrañar que si
preguntamos
a cualquier persona cuánta seguridad quiere tener en una escala de 0 a 100,
responda
con 100.
No obstante, es pedir por pedir, además algo imposible. Imagina que decides
tirarte
con un paracaídas y que las empresas que los fabrican están obligadas a imprimir
sobre
la mochila que guarda la tela un valor de probabilidad. Es la probabilidad de que el
paracaídas se abra cuando has saltado de avión y tiras de la anilla. ¿Qué
probabilidad
debería ser esa? Posiblemente digas 1 (en tantos por uno) o 100 (en porcentaje).
Vale. Te
entiendo. Pero sabes que no es viable. Los paracaídas son inventos humanos.
Los
humanos somos seres muy entretenidos que, entre otras muchas características,
nos
dedicamos a la fabricación de productos no perfectos. Todo falla en algún
momento y
respecto a algún criterio. De vez en cuando un paracaídas no se abre. De vez en
cuando,
cuando alguien cruza una calle es atropellado, sea por un camión de veinte ruedas
o por
un niño en monopatín. Si fuera obligatorio que todas las casas en alquiler
informaran no
solo de las características de la vivienda, de su situación y del precio, sino también
de la
probabilidad de atropello en las inmediaciones, olvídate de aspirar a una casa
cuyo valor
de probabilidad de atropello sea 0. Eso no existe. Aún cuando marches en medio
de una
montaña, dentro de una hermita, nada garantiza que jamás te caerá encima un
helicóptero de las fuerzas armadas que perdió el control en medio de unas
maniobras.
Todo puede ocurrir, aunque sea difícilmente.
La seguridad absoluta no existe. Y sabemos que cuanto más seguridad queramos
tener, habremos a su vez que pagar un precio. Ese precio puede ser una baja
precisión
en las estimaciones, según hemos visto. O puede ser un tamaño de muestra tan
grande
que no tengamos tiempo, medios humanos ni dinero suficientes como para
abordar a
todas las unidades de esa muestra gigante. Esto lo veremos en otro documento.
Así que
hay que tomar una decisión medianamente razonable, que no es escoger el 100%
de
seguridad.
Estimación estadística
Problemas de la página
En inferencia estadística se llama estimaciónal conjunto de técnicas que permiten
dar un valor aproximado de un parámetro de una población a partir de los datos
proporcionados por una muestra. Por ejemplo, una estimación de la media de una
determinada característica de una poblaciónde tamaño N podría ser la media de
esa misma característica para una muestra de tamaño n.[1]
La estimación se divide en tres grandes bloques, cada uno de los cuales tiene
distintos métodos que se usan en función de las características y propósitos del
estudio:

 Estimación puntual:[2]
 Método de los momentos;

 Método de la máxima verosimilitud;


 Método de los mínimos cuadrados;
 Estimación por intervalos.
 Estimación bayesiana.

EstimadorEditar

Un estimador es una regla que establece cómo calcular una estimación basada en
las mediciones contenidas en una muestra estadística.

Estimación puntualEditar

Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido
de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de
un determinado grupo de individuos, puede extraerse una muestra y ofrecer como
estimación puntual la talla media de los individuos. Lo más importante de un
estimador, es que sea un estimador eficiente. Es decir, que sea
insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza
mínima) Estimación puntual. Sea X una variable poblacional con distribución Fθ ,
siendo θ desconocido. El problema de estimación puntual consiste en,
seleccionada una muestra X1, ..., Xn, encontrar el estadístico T(X1, ..., Xn) que
mejor estime el parámetro θ. Una vez observada o realizada la muestra, con
valores x1, ..., xn, se obtiene la estimación puntual de θ, T(x1, ..., xn) = ˆ θ .
Vemos a continuación dos métodos para obtener la estimación puntual de un
parámetro: método de los momentos y método de máxima verosimilitud. Método
de los momentos: consiste en igualar momentos poblacionales a momentos
muestrales. Deberemos tener tantas igualdades como parámetros a estimar.
Momento poblacional de orden r αr = E(Xr) Momento muestral de orden r ar = Xn
i=1 Xr i n

Método de máxima verosimilitud: consiste en tomar como valor del parámetro


aquel que maximice la probabilidad de que ocurra la muestra observada. Si X1, ...,
Xn es una muestra seleccionada de una población con distribución Fθ o densidad
fθ(x), la probabilidad de que ocurra una realización x1, ..., xn viene dada por:
Lθ(x1, ..., xn) = Yn i=1 fθ(xi)

A Lθ(x1, ..., xn) se le llama función de verosimilitud.(credibilidad de la muestra


observada). Buscamos entonces el valor de θ que maximice la función de
verosimilud, y al valor obtenido se le llama estimación por máxima verosimilitud de
θ. Nota: si la variable X es discreta, en lugar de fθ(xi ) consideramos la función
masa de probabilidad pθ(xi).

Ejemplo 7.1: Sea X → N(µ, σ), con µ desconocido. Seleccionada una m.a.s. X1,
..., Xn, con realización x1, ..., xn, estimamos el parámetro µ por ambos métodos.
Según el método de los momentos: E(X) = Xn i=1 Xi n = − X, y al ser µ = E(X) se
obtiene que ˆ µ = − x. Por el método de máxima verosimilitud: Lµ(x1, ..., xn) = Yn
i=1 fµ(xi ) = = Yn i=1 1 √ 2πσ e −(xi−µ) 2 2σ

Estimación por Intervalos de confianza 109 y maximizamos en µ tal función; en


este caso resulta más fácil maximizar su logaritmo: lnLµ(x1, ..., xn) = − 1 2σ 2 Xn
i=1 (xi − µ) 2 − n ln( √ 2πσ) ∂ ∂µ lnLµ(x1, ..., xn) = 1 σ 2 Xn i=1 (xi − µ) = n − x − nµ
σ 2 = 0 ⇐⇒ ˆ µ = −

Estimación por intervalosEditar

Consiste en la obtención de un intervalo dentro del cual estará el valor del


parámetro estimado con una cierta probabilidad. En la estimación por intervalos se
usan los siguientes conceptos:

Intervalo de confianzaEditar
El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es
el parámetro a estimar. Este intervalo contiene al parámetro estimado con un
determinado nivel de confianza. Pero a veces puede cambiar este intervalo
cuando la muestra no garantiza un axioma o un equivalente circunstancial.
Variabilidad del ParámetroEditar
Si no se conoce, puede obtenerse una aproximación en los datos aportados por la
literatura científica o en un estudio piloto. También hay métodos para calcular el
tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa
como medida de esta variabilidad la desviación típicapoblacional y se denota σ.
Error de la estimaciónEditar
Es una medida de su precisión que se corresponde con la amplitud del intervalo
de confianza. Cuanta más precisión se desee en la estimación de un parámetro,
más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o
disminuir el error, más observaciones deberán incluirse en la muestra estudiada.
En caso de no incluir nuevas observaciones para la muestra, más error se comete
al aumentar la precisión. Se suele llamar E, según la fórmula E = (θ2 - θ1)/2.
Límite de ConfianzaEditar
Es la probabilidad de que el verdadero valor del parámetro estimado en la
población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se
denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-
α)·100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se
corresponden con valores α de 0,05 y 0,01 respectivamente.

Valor αEditar
También llamado nivel de significación. Es la probabilidad (en tanto por uno) de
fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de
confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del
95%, el valor α es (100-95)/100 = 0,05
Valor críticoEditar
Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución
que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza.
Normalmente los valores críticos están tabulados o pueden calcularse en función
de la distribución de la población. Por ejemplo, para una distribución normal, de
media 0 y desviación típica 1, el valor crítico para α = 0,1 se calcularía del
siguiente modo: se busca en la tabla de la distribución ese valor (o el más
aproximado), bajo la columna "Área"; se observa que se corresponde con -1,28.
Entonces Zα/2 = 1,64. Si la media o desviación típica de la distribución normal no
coinciden con las de la tabla, se puede realizar el cambio de variable t =(X-μ)/σ
para su cálculo.
Con estas definiciones, si tras la extracción de una muestra se dice que "3 es una
estimación de la media con un margen de error de 0,6 y un nivel de confianza del
99%", podemos interpretar que el verdadero valor de la media se encuentra entre
2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen
restando y sumando, respectivamente, la mitad del error, para obtener el intervalo
de confianza según las definiciones dadas.

Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van
relacionados. Si admitimos un error mayor, esto es, aumentamos el tamaño del
intervalo de confianza, tenemos también una mayor probabilidad de éxito en
nuestra estimación, es decir, un mayor nivel de confianza.

Otros usos del términoEditar


El término estimación también se utiliza en ciencias aplicadas para hacer
referencia a un cálculo aproximado, que normalmente se apoya en la herramienta
estadística aunque puede no hacerlo. En este sentido, un ejemplo clásico son los
poco conocidos pero útiles en economía problemas de Fermi.

Características de un buen estimador puntual

1) Sesgo. Se dice que un estimador es insesgado si la Media de la distribución


del estimador es igual al parámetro.

Estimadores insesgados son la Media muestral (estimador de la Media de la


población) y la Varianza (estimador de la Varianza de la población):

Ejemplo

En una población de 500 puntuaciones cuya Media (m) es igual a 5.09 han hecho
un muestreo aleatorio (número de muestras= 10000, tamaño de las muestras=
100) y hallan que la Media de las Medias muestrales es igual a 5.09, (la media
poblacional y la media de las medias muestrales coinciden). En cambio, la
Mediana de la población es igual a 5 y la Media de las Medianas es igual
a 5.1 esto es, hay diferencia ya que la Mediana es un estimador sesgado.

La Varianza es un estimador sesgado. Ejemplo: La Media de las Varianzas


obtenidas con la Varianza

en un muestreo de 1000 muestras (n=25) en que la Varianza de la población es


igual a 9.56 ha resultado igual a 9.12, esto es, no coinciden. En cambio, al utilizar
la Cuasivarianza

la Media de las Varianzas muestrales es igual a 9.5, esto es, coincide con la
Varianza de la población ya que la Cuasivarianza es un estimador insesgado.
2) Consistencia. Un estimador es consistente si aproxima el valor del parámetro
cuanto mayor es n (tamaño de la muestra).

Algunos estimadores consistentes son:

Ejemplo

En una población de 500 puntuaciones cuya Media (m) es igual a 4.9 han hecho
tres muestreos aleatorios (número de muestras= 100) con los siguientes
resultados:

vemos que el muestreo en que n=100 la Media de las Medias muestrales toma el
mismo valor que la Media de la población.

3) Eficiencia. Diremos que un estimador es más eficiente que otro si la Varianza


de la distribución muestral del estimador es menor a la del otro estimador. Cuanto
menor es la eficiencia, menor es la confianza de que el estadístico obtenido en la
muestra aproxime al parámetro poblacional.

Ejemplo

La Varianza de la distribución muestral de la Media en un muestreo aleatorio


(número de muestras: 1000, n=25) ha resultado igual a 0.4. La Varianza de la
distribución de Medianas ha resultado, en el mismo muestreo, igual a 1.12, (este
resultado muestra que la Media es un estimador más eficiente que la Mediana).

Introducción
La estimación puntual consiste en atribuir un valor (la estimación) al parámetro
poblacional. Si la muestra es representativa de la población, podemos esperar que
los estadísticos calculados en las muestras tengan valores semejantes a los
parámetros poblacionales, y la estimación consiste en asignar los valores de los
estadísticos muestrales a los parámetros poblacionales. Los estadísticos con que
obtenemos las estimaciones se denominan estimadores.
Ejemplo
Se desea estimar la Media de las puntuaciones del curso 2003/4, pero solo se
dispone de 50 puntuaciones seleccionadas aleatoriamente. La Media de la
muestra (el estimador), es igual a 5.6 y atribuimos este valor (la estimación) a la
Media del curso completo.
Resumiendo:

Podemos utilizar como estimadores de la Media de la población otros estadísticos


de tendencia central como la Moda o la Mediana, pero NO todos los estimadores
son apropiados. Los estimadores deben satisfacer ciertos requisitos, y por esta
razón, interesa conocer sus propiedades a fin de utilizar los que sean adecuados
según las circunstancias de la estimación.

También podría gustarte