Está en la página 1de 11

Problema de Estimación Puntual.

Propiedades y Métodos de Estimación

Estimación puntual y por intervalos

La estimación de un parámetro involucra el uso de los datos muestrales en conjunción con alguna estadística.
Existen dos formas de llevar a cabo lo anterior: La estimación puntual y la estimación por intervalos

En la estimación puntual se busca un estimador que, con base en los datos muestrales, de origen a una
estimación univaluada del valor del parámetro y que recibe el nombre de estimador puntual.

En la estimación por intervalos, se determina un intervalo en el que, en forma probable, se encuentra el valor
del parámetro, este intervalo recibe el nombre de intervalo de confianza estimado.

Propiedades deseables de los estimadores puntuales.

Sea 𝑓 𝑋; 𝜃 la función de densidad de probabilidad de X. Se puede suponer el conocimiento de f pero no del


vector de parámetros 𝜃 que la determina; 𝜃 se estima con base en los datos de una muestra.

Es posible definir varios estadísticas para estimar un parámetro desconocido 𝜃.


Entonces,

• ¿Cómo seleccionar un buen estimador del parámetro 𝜃?

• ¿Cuáles son los criterios para juzgar cuándo un estimador es bueno o es malo?

• ¿Qué es un buen estimador?

Ejemplo:

Suponga que un grupo de personas se encuentra al tanto del volumen de ventas y adquisiciones de tres
comerciante (A, B y C) quienes compiten en el mismo mercado. Como el inventario es siempre un aspecto
importante en los negocios, cada uno de estos comerciantes predice la demanda mensual de sus productos y, con
base en ésta, realiza las adquisiciones necesaria. Supóngase que se determina la diferencia entre la demanda real
y esperada para varios mese y con base en esto se obtienen las distribuciones de frecuencia que se muestran en la
siguiente figura.

(Ver figura en el pizarrón )


Propiedades deseables de un estimador:

El estimador de un parámetro 𝜃 debe tener una distribución de muestro concentrado alrededor de 𝜃 y la


varianza del estimador debe de ser la menor posible.

Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de tamaño n proveniente de una población con función de densidad
de probabilidad 𝑓 𝑋; 𝜃 y sea 𝑇 = 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) cualquier estadística. El problema es encontrar una
función 𝑔(. ) que sea la que proporcione la mejor estimación de 𝜃.

Definición 4.1. Sea T cualquier estimador de un parámetro desconocido 𝜃. Se define el Error Cuadrático
Medio de (ECM) de T como el valor esperado del cuadrado de la diferencia entre T y 𝜃.

(Ver trabajo en el pizarrón)


Estimadores Insesgados

Definición 4.2. Se dice que la estadística 𝑇 = 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) es un estimador insesgado del parámetro 𝜃,
si 𝐸 𝑇 = 𝜃 para todos los valores posibles de 𝜃.

De esta manera, para cualquier estimador insesgado de 𝜃, la distribución de muestreo de T se encuentra


centrada alrededor de 𝜃 y ECM(T) = Var(T).

Ejemplo 1: Se demostró que, sin importar la distribución de la población de interés, 𝐸 𝑋 = 𝜇 por lo tanto
𝑋 es un estimador insesgado de la media poblacional 𝜇 para todos los valores de 𝜇.

Ejemplo 2. Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de alguna distribución con función de densidad de
probabilidad no especificada, tal que 𝐸 𝑋𝑖 = 𝜇 𝑦 𝑉𝑎𝑟 𝑋𝑖 = 𝜎 2 para toda 𝑖 = 1,2, … , 𝑛 , entonces

(Ver trabajo en el pizarrón)


Estimadores Consistentes:

Es razonable esperar que un buen estimador de un parámetro 𝜃 sea cada vez mejor conforme crece el
tamaño de la muestra. Esto es, conforme la información en una muestra aleatoria se vuelve más completa,
la distribución de muestreo de un buen estimador se encuentra cada vez más concentrada alrededor del
parámetro 𝜃.

Definición 4.3. Sea T el estimador de un parámetro 𝜃, y sea 𝑇1 , 𝑇2 , … , 𝑇𝑛 una sucesión de estimadores que
representa a T con base en muestras de tamaño 1,2,…,n, respectivamente. Se dice que T es un estimador
consistente para 𝜃 si
lim 𝑃 |𝑇𝑛 − 𝜃| ≤ 𝜀 = 1 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝜃 𝑦 𝜀 > 0
𝑛→∞

𝑃
(Convergencia en probabilidad 𝑇𝑛 → 𝜃)

Esto implica que la varianza de un estimador consistente disminuye conforme n crece.


Teorema 4.1 (desigualdad de Chebychev). Sea X una variable aleatoria con función de densidad de
probabilidad 𝑓 𝑋; 𝜃 tal que 𝐸 𝑋 = 𝜇 𝑦 𝑉𝑎𝑟 𝑋 = 𝜎 2 < ∞. Entonces,

𝑃 |𝑋 − 𝜇| < 𝑘𝜎 ≥ 1 − 1Τ𝑘 2
O
𝑃 |𝑋 − 𝜇| ≥ 𝑘𝜎 ≤ 1Τ𝑘 2
Para cualquier 𝑘 ≥ 0.

Teorema 4.2. Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria tal que 𝐸 𝑋 = 𝜇 𝑦 𝑉𝑎𝑟 𝑋 = 𝜎 2 < ∞. Entonces,
σ𝑛𝑖=1 𝑋𝑖
𝑋𝑛 =
𝑛
Es un estimador consistente de 𝜇.

Demostración:
(Ver trabajo en el pizarrón )
Ejemplo: Considérese el proceso de selección de una muestra aleatoria de alguna función de densidad de
probabilidad que tiene una varianza conocida de 𝜎 2 = 10, pero con una media 𝜇 desconocida. ¿Cuál debe
ser el tamaño de la muestra para que la media 𝑋𝑛 se encuentre dentro de un intervalo igual a dos unidades
de la media poblacional con una probabilidad de, por lo menos, 0.9?

Solución.

(Ver trabajo en el pizarrón)


Estimadores insesgados de Varianza mínima
Considérese la clase de estimadores insesgados para el parámetro 𝜃. Entonces si T se encuentra en esta clase,

𝐸𝐶𝑀 𝑇 = 𝑉𝑎𝑟(𝑇)

Puesto que es deseable que la varianza de un estimador se lo más pequeña posible, debe buscarse uno en la clase
de estimadores insesgados, si es que existe, que tenga varianza mínima para todos los valores posibles de 𝜃. Este
estimador recibe el nombre de Insesgado de varianza mínima.

Definición 4.4. Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de una distribución cuya función de densidad de
probabilidad es 𝑓 𝑋; 𝜃 . Sea la estadística 𝑇 = 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) un estimador de 𝜃 tal que 𝐸 𝑇 = 𝜃 y la
𝑉𝑎𝑟(𝑇) es menor que la varianza de cualquier otro estimador insesgado de 𝜃 para todos los posibles valores de 𝜃.
Se dice entonces que T es un estimador insesgado de varianza mínima de 𝜃.

La varianza de un estimador insesgado es la cantidad más importante para decidir que tan bueno es el estimador
para estimar un parámetro 𝜃.

Se dice que 𝑇1 es un estimador más eficiente de 𝜃 que 𝑇2 , si 𝑉𝑎𝑟 𝑇1 ≤ 𝑉𝑎𝑟 𝑇2 𝑦𝑉𝑎𝑟 𝑇1 < 𝑉𝑎𝑟 𝑇2 para
algún 𝜃.
𝑉𝑎𝑟(𝑇1 )
Eficiencia relativa de 𝑇2 con respecto a 𝑇1 ,
𝑉𝑎𝑟(𝑇2 )

𝐸𝐶𝑀(𝑇1 )
𝐸𝐶𝑀(𝑇2 )
Si son insesgados.

¿Cómo obtener un estimador eficiente?

Cota inferior de Cramér-Rao.


Teorema 4.3. Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de una distribución con función de densidad de
probabilidad 𝑓 𝑋; 𝜃 . Si T es un estimador insesgado de 𝜏(𝜃), entonces la varianza de T debe satisfacer la
siguiente desigualdad.

𝜏´(𝜃) 2
𝑉𝑎𝑟(𝑇) ≥ 2
𝜕𝑙𝑛𝑓 𝑋; 𝜃
𝑛𝐸
𝜕𝜃

Este resultado establece un límite inferior para la varianza de un estimador de 𝜃.

Sin embargo, lo anterior no necesariamente implica que la varianza de un estimador insesgado de varianza
mínima de 𝜃 tenga que ser igual al limite inferior de Cramér-Rao. En otras palabras, es posible encontrar un
estimador insesgado de 𝜃 que tenga la varianza más pequeña posible entre todos los estimadores insesgados de
𝜃, para cuyas varianzas son más grandes que la cota inferir de Crámer-Rao.

Definición 4.5. Si T es cualquier estimador insesgado del parámetro 𝜃 tal que


𝜏´(𝜃) 2
𝑉𝑎𝑟 𝑇 = 2
𝜕𝑙𝑛𝑓 𝑋; 𝜃
𝑛𝐸
𝜕𝜃
Entonces se dice que T es un estimador eficiente de𝜏(𝜃)
Ejemplo: Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 una muestra aleatoria de una distribución de Poisson cuya función de probabilidad es

𝑒 −𝜆 𝜆𝑥
𝑃 𝑋, 𝜆 =
𝑥!
Obtener el estimador eficiente de 𝜆.

Solución
(Ver trabajo en el pizarrón)

También podría gustarte