Está en la página 1de 3

ESTIMACIÓN DE PARÁMETROS

Sea θ una característica o parámetro poblacional cuyo valor se desea conocer a partir de
una muestra. Sea X1,... Xn una muestra aleatoria y sea θ̂ = T(X1,... Xn) un estadígrafo
(función de la muestra) que utilizamos para estimar el valor de θ.
Obsérvese que el estadístico θ̂ es una función que depende de la muestra y se nombra
estimador. El valor concreto que toma θ̂ en una muestra determinada es la estimación.

Hay dos tipos básicos de estimación: estimación puntual y estimación por intervalo
(intervalo de confianza).

Métodos de estimación puntual


• Método de los momentos
• Método de máxima verosimilitud
• Método de mínimos cuadrados

Propiedades deseables de un Estimador

1) Ausencia de sesgo (insesgado)


2) Consistencia
3) Eficiencia
4) Suficiencia

Si θ̂ es un estimador θ, se llama sesgo del estimador a la cantidad E( θ̂ ) − θ.

Estimador Insesgado
Se dice que un estimador puntual θ̂ es un estimador insesgado de θ si E( θ̂ ) = θ.

En otras palabras, un estimador insesgado es aquél para el cual la media de su


distribución muestral es el parámetro estimado. O también, el estimador cuyo sesgo es
cero.

En general, se prefiere un estimador insesgado a uno que no lo sea.

Por ejemplo:
1) la media muestral ( X ) es un estimador insesgado de la media poblacional μ.
2) la varianza muestral es un estimador sesgado de la varianza poblacional σ2.
3) la cuasivarianza muestral es un estimador insesgado de la varianza poblacional σ2.
4) la proporción muestral (p) es un estimador insesgado de la proporción poblacional
π.

Analicemos los estimadores de la varianza. En una población N(μ, σ2) si


consideremos los estimadores de la varianza poblacional: varianza muestral y
cuasivarianza muestral.
(n − 1) s*2
Se conoce que se distribuye como χ n2−1
σ2
σ2
E[σˆ 22 ] = E[s*2 ] = E[χ 2n −1 ] = σ 2
n −1
n −1 n −1 2 σ2
E[σˆ 12 ] = E[σˆ 22 ] = σ = σ2 −
n n n
sesgo

Propiedades en muestras grandes

Muchos estimadores no tienen buenas propiedades para muestras pequeñas, pero


cuando el tamaño muestral aumenta, muchas de las propiedades deseables pueden
cumplirse. En esta situación se habla de propiedades asintóticas de los estimadores.
Como el estimador va a depender del tamaño de la muestra vamos a expresarlo
utilizando el símbolo θ̂ n
Por ejemplo, el sesgo puede depender del tamaño de la muestra. Si el sesgo tiende a
cero cuando el tamaño de la muestra crece hasta infinito decimos que el estimador es
asintóticamente insesgado.

Definición:
Un estimador θ̂ n se dice que es asintóticamente insesgado si lim E (θˆ n ) = θ
n →∞

o equivalentemente lim [E[θˆ n ] − θ] = 0


n →∞

Estimador Consistente
Se dice que un estimador θ̂ n es consistente con θ si se cumple que nlim
→∞
( )
P θ̂ n − θ > ε = 0

para ∀ε > 0. O, lo que es equivalente, si nlim


→∞
( )
P θ̂ n − θ ≤ ε = 1 para ∀ ε > 0.

Es decir, a medida que se incrementa el tamaño muestral, el estimador se acerca más y


más al valor del parámetro. La “consistencia” es una propiedad asintótica. Dicho de otro
modo, que θ̂ sea un estimador consistente de θ “significa” que para muestras grandes
es poco probable que θ̂ se aleje de θ.

Propiedad
Si Var ( θ̂ n ) → 0 y E( θ̂ n )→ θ entonces θ̂ n es consistente.

Tanto la media muestral como la cuasivarianza son estimadores consistentes. La


varianza muestral es también un estimador consistente de la varianza poblacional, dado
que a medida que el tamaño muestral se incrementa, el sesgo disminuye.

Eficiencia
Para decidir cuál estimador seleccionar entre varios estimadores insesgados se puede
utilizar las varianzas de los mismos. La varianza de una variable aleatoria mide la
dispersión alrededor de la media. Menor varianza para una variable aleatoria significa
que, en promedio, sus valores fluctúan poco alrededor de la media comparados con los
valores de otra variable aleatoria con la misma media y mayor varianza. Menor varianza
implica mayor precisión y entonces el estimador que tenga menor varianza es
claramente más deseable porque, en promedio, está mas cerca del verdadero valor de q.

Estimador Eficiente
Si θ̂ es un estimador insesgado de θ, se dice que θ̂ es un estimador insesgado
eficiente o de varianza mínima para θ, si para cualquier otro estimador insesgado de θ,
~
digamos θ , se verifica que
() ()
~
Var θ̂ ≤ Var θ .

Sean θ̂1 y θ̂ 2 dos estimadores insesgados del parámetro θ. Si Var ( θ̂1 ) < Var ( θ̂ 2 )
decimos que θ̂1 es más eficiente que θ̂ 2 .

El cociente Var ( θ̂1 ) / Var ( θ̂ 2 ) se llama eficiencia relativa.

También podría gustarte