Está en la página 1de 13

ESTIMACIÓN

INFERENCIA ESTADÍSTICA:

Es la colección de técnicas que permiten obtener información acerca de una


población, a partir de una muestra aleatoria.

Ejemplos de estimación:

1.-Un Ingeniero puede estar interesado en estimar la proporción de artículos


defectuosos en la producción de un día determinado.

2.-Un fabricante de neveras podría estimar la proporción de aparatos que se


espera que fallen antes que se acabe la garantía.

3.-Una persona que va al supermercado quiere estimar ¿Cuánto va a gastar?.

ESTIMACIÓN DE PARÁMETROS:

1.-ESTIMACIÓN PUNTUAL.

2.-ESTIMACIÓN POR INTERVALOS


DEFINICIÓN: Un estimador es una regla, a menudo expresada como una
fórmula, que indica cómo calcular el valor de una estimación con base en las
mediciones contenidas en una muestra.

Ejemplo 1: La media muestral


𝑛
1
𝑌̅ = ∑ 𝑌𝑖
𝑛
𝑖=1

Es un posible estimador puntual de la media poblacional. (los estimadores


puntuales son estimadores que asignan un solo valor al parámetro).

Ejemplo 2: Un investigador que necesite encontrar la estimación por intervalo


de un parámetro debe utilizar los datos de la muestra para calcular los valores
de los extremos del intervalo (Los estimadores por intervalo contienen el
parámetro con un nivel de confianza dado).

Observación: Muchos estimadores diferentes (reglas de estimación) pueden


obtenerse para el mismo parámetro poblacional. Analogía con los actores de
una obra de teatro.

Notación: Se denotará con la letra 𝜃 un parámetro poblacional. Un estimador


puntual de este parámetro se denotará como 𝜃̂.

DEFINICIÓN: Si 𝜃̂ es un estimador puntual de un parámetro 𝜃, entonces es un


estimador INSESGADO si E(𝜃̂ )= 𝜃. De lo contrario se dice que es sesgado.

DEFINICIÓN: El sesgo de un estimador está determinado por B(𝜃̂ ) = E(𝜃̂ )- 𝜃.


Ejemplo 1: ¿El estimador 𝜃̂ = 𝑌̅ de la media poblacional µ es insesgado?

Se supone que Y1, Y2, . . . . . , Yn es una muestra aleatoria con:

𝐸(𝑌𝑖 ) = 𝜇 𝑦 𝑉𝑎𝑟(𝑌𝑖 ) = 𝜎 2 .

Solución: Se quiere demostrar que 𝐸(𝑌̅) = 𝜇


𝑛 𝑛
1 1
𝐸(𝑌̅) = 𝐸 ( ∑ 𝑦𝑖 ) = ∑ 𝐸(𝑦𝑖 )
𝑛 𝑛
𝑖=1 𝑖=1
𝑛
1 1
= ∑ 𝜇 = 𝑛𝜇 = 𝜇
𝑛 𝑛
𝑖=1

En conclusión, el estimador 𝜃̂ = 𝑌̅ de la media poblacional µ es insesgado

Ejemplo 2: Suponga que 𝐸( 𝜃̂1 ) = 𝐸( 𝜃̂2 ) = 𝜃. Considere el estimador

𝜃̂3 = 𝑎 𝜃̂1 + (1 − 𝑎)𝜃̂2 ; 𝑎𝜖ℝ

Demostrar que 𝜃̂3 es un estimador insesgado de 𝜃.

Demostración: Debemos demostrar que 𝐸(𝜃̂3 ) = 𝜃

𝐸(𝜃̂3 ) = 𝐸(𝑎 𝜃̂1 + (1 − 𝑎)𝜃̂2 )

= 𝑎𝐸(𝜃̂1 ) + (1 − 𝑎)𝐸(𝜃̂2 )

= 𝑎𝜃 + (1 − 𝑎)𝜃 = 𝜃

Por lo tanto, 𝜃̂3 es un estimador insesgado de 𝜃.


Ejemplo 3.-Sea Y1,Y2, ………..Yn una muestra aleatoria de una variable aleatoria
Y Normal con media cero y varianza 𝜎 2 . Demostrar que:

∑𝑛𝑖=1 𝑌𝑖2
𝜃̂ =
𝑛
Es un estimador insesgado de 𝜎 2 .

𝑌~𝑁(0, 𝜎 2 )

DEMOSTRACIÓN: Se quiere demostrar que 𝐸(𝜃̅) = 𝜎 2

Pero:
𝑛
∑𝑛𝑖=1 𝑌𝑖2 1
̅
𝐸(𝜃) = 𝐸 ( ) = ∑ 𝐸(𝑌𝑖2 )
𝑛 𝑛
𝑖=1
𝑛
1
= ∑{𝑉𝑎𝑟(𝑌𝑖 ) + [𝐸(𝑌𝑖 )]2 }
𝑛
𝑖=1
𝑛
1
= ∑ 𝜎2 = 𝜎2
𝑛
𝑖=1
𝑛 2
∑ 𝑌
Por lo tanto; 𝜃̂ = 𝑖=1 𝑖 es un estimador insesgado de 𝜎 2 .
𝑛

Observación: además de preferir un estimador insesgado, necesitamos que la


varianza de la distribución del estimador V(𝜃̂) sea lo más pequeña posible.
Dados dos estimadores insesgados de un parámetro u seleccionaríamos el
estimador con la menor varianza mientras, todo lo demás permanece igual.

Mas que usar el sesgo y la varianza de un estimador puntual para caracterizar


2
su bondad, podríamos emplear E(( 𝜃̂ − 𝜃) ), el promedio del cuadrado de la
distancia entre el estimador y su parámetro objetivo.
DEFINICIÓN: el ERROR CUADRÁTICO MEDIO, ECM, de un estimador puntual 𝜃̂
es el valor esperado de ( 𝜃̂ − 𝜃)2 , esto es:
2
ECM = E(( 𝜃̂ − 𝜃) )

Teorema: ECM = Var(𝜃̂ ) + (B(𝜃̂ ))2

Ejemplo: Para 𝑌̅
𝑛
1 𝜎2
̅
𝑉𝑎𝑟(𝑌) = 𝑉𝑎𝑟 ( ∑ 𝑦𝑖 ) =
𝑛 𝑛
𝑖=1

y B(𝑌̅) = 0
𝜎2
Entonces; ECM =
𝑛

Algunos Estimadores Puntuales insesgados Comunes:Tabla 8.1, pag. 397,


Wackerly, et al.

Parámetro Tamaño(s) Estimador 𝐸(𝜃̂) Error Estándar


Objetivo Muestral(es) Puntual 𝜎𝜃̂
θ 𝜃̂
µ n 𝑌̅ 𝜇 𝜎
√𝑛
p n 𝑌 p 𝑝𝑞
𝑝̂ = √
𝑛 𝑛
𝜇1 − 𝜇2 𝑛1 𝑦 𝑛2 * 𝑌̅1 − 𝑌̅2 𝜇1 − 𝜇2
𝜎12 𝜎22
√ +
𝑛1 𝑛2
𝑝1 − 𝑝2 𝑛1 𝑦 𝑛2 * 𝑝̂1 − 𝑝̂ 2 𝑝1 − 𝑝2 𝑝1 𝑞1 𝑝2 𝑞2
√ +
𝑛1 𝑛2
*Se supone que las muestras son independientes.
Ejemplo: Sea Y1, Y2, . . . . . , Yn una muestra aleatoria con 𝐸(𝑌𝑖 ) =
𝜇 𝑦 𝑉𝑎𝑟(𝑌𝑖 ) = 𝜎 2 . Demostrar que
𝑛
1
𝑆 ∗2 = ∑(𝑌𝑖 − 𝑌̅ )2
𝑛
𝑖=1

es un estimador sesgado de 𝜎 2 .

Solución: ver pag. 398 del libro guía.

Ejemplo: A partir del resultado anterior, construya un estimador insesgado de


𝜎 2:

Solución:
𝑛
1
𝑆2 = ∑(𝑌𝑖 − 𝑌̅ )2
𝑛−1
𝑖=1

Es un estimador insesgado de 𝜎 2 .

MÉTODOS PARA CONSTRUIR ESTIMADORES PUNTUALES:


➢ MÉTODO DE MÁXIMA VEROSIMILITUD.

➢ MÉTODO DE LOS MOMENTOS.

➢ MÉTODO DE MÍNIMOS CUADRADOS. Ejemplo:


Multiple Linear Regression Model:

𝐲 = 𝜷𝟎 + 𝜷𝟏 𝒙𝟏 + 𝜷𝟐 𝒙𝟐 + . . . + 𝜷𝒌 𝒙𝒌 + 𝝐
MÉTODO DE MÁXIMA VEROSIMILITUD
Method of Maximun Likelihood

Sir Ronald Fisher, (1890, 1962), Rothamsted.

1.-Se construye la Función de Verosimilitud.

Definición: Si Y1, Y2, . . . . . , Yn son variables aleatorias continuas la función de


verosimilitud es:

L(y1 , y2 , .. . . . ., yn /θ ) = f(y1/θ) * f(y2/θ) * .. . . . .* f(yn /θ).

2.-Se aplica logaritmo neperiano a ambos lados de la expresión matemática.

3.-Se deriva parcialmente con respecto a cada parámetro que se desea estimar
y se iguala a cero.

4.-Se resuelven las ecuaciones resultantes, despejando él o los parámetros


deseados.

Ejemplo 1: Sean Y1, Y2, . . . . . , Yn los valores de una muestra aleatoria de una
población distribuida exponencialmente con parámetro desconocido θ. Usar
el método de MÁXIMA VEROSIMILITUD para estimar θ.

Solución: La función de verosimilitud es:

L(y1 , y2 , .. . . . ., yn /θ ) = f(y1/θ) * f(y2/θ) * .. . . . .* f(yn /θ).


1 −𝑦1 1 −𝑦2 1 𝑦𝑛
= 𝑒 𝜃 ∗ 𝑒 𝜃 ∗ ∗ ∗ 𝑒− 𝜃
𝜃 𝜃 𝜃
1 −𝑦1−𝑦2…−𝑦𝑛
=( )𝑒 𝜃 𝜃 𝜃
𝜃𝑛
1 𝑛
−𝑛 −𝜃 ∑1 𝑦𝑖
= 𝜃 𝑒

Aplicando logaritmos:
𝑛
1
𝑙𝑛(𝐿(𝜃)) = −𝑛 ln(𝜃) − ∑ 𝑦𝑖
𝜃
𝑖=1

Derivando respecto a 𝜃
𝑛
𝑑(𝑙𝑛(𝐿(𝜃))) 𝑛 1
= − + 2 ∑ 𝑦𝑖
𝑑𝜃 𝜃 𝜃
𝑖=1

Igualando a cero:
𝑛
𝑛 1
− + 2 ∑ 𝑦𝑖 = 0
𝜃 𝜃
𝑖=1

Entonces:
𝑛
1
𝜃 = ∑ 𝑦𝑖
𝑛
𝑖=1

Por lo tanto:
𝑛
1
𝜃̂ = ∑ 𝑦𝑖 = 𝑌̅
𝑛
𝑖=1

Ejercicio: Verificar que es un máximo.


Ejemplo 2: Sean Y1, Y2, . . . . . , Yn los valores de una muestra aleatoria de una
población distribuida normalmente con media µ y varianza σ2 . Obtener los
estimadores de máxima verosimilitud de µ y σ2.

Solución: Pag.478 del libro guía.

MÉTODO DE LOS MOMENTOS


DEFINICIÓN 1: Los k-ésimos momentos poblacionales de la variable aleatoria
Y son los valores esperados de orden k, es decir, los términos de la forma:

𝐸(𝑌 𝑘 ) , k= 1, 2, …., n.

Se denotaran como: 𝜇𝑘′ = 𝐸(𝑌 𝑘 ). Ejemplo, el momento poblacional de orden


1 es: 𝜇1′ = 𝐸(𝑌) = 𝜇.

DEFINICIÓN 2: Los k-ésimos momentos muestrales de la variable aleatoria Y


son los términos de la forma:
𝑛
1
𝑚𝑘′ = ∑ 𝑌𝑖𝑘 ; 𝑘 = 1, … … , 𝑛
𝑛
𝑖=1

Por ejemplo, el primer momento muestral es:

𝑛
1
𝑚1′ = ∑ 𝑌𝑖 = 𝑌̅
𝑛
𝑖=1
MÉTODO DE LOS MOMENTOS:

Se eligen como estimaciones aquellos valores de los parámetros que sean


soluciones de las ecuaciones 𝜇𝑘′ = 𝑚𝑘′ para k=1, ….., t; donde t es el número
de parámetros a estimar.

EJEMPLO 1: Una muestra aleatoria de n observaciones Y1, Y2, . . . . . , Yn se elige


de una población en la que Yi, i=1,2, …, n, posee una función de densidad de
probabilidad uniforme en el intervalo (0, 3θ), donde se desconoce el valor de
θ. Aplique el método de los momentos para estimar el parámetro θ.

EJEMPLO 2: Una muestra aleatoria de n observaciones Y1, Y2, . . . . . , Yn se elige


de una población en la que Yi, i=1,2, …, n, posee una función de densidad de
probabilidad GAMMA con parámetros α y β. Encontrar los estimadores, por
el método de los momentos, para los parámetros desconocidos α y β.
PROBLEMAS
1.-Sea Y1,Y2, ………..Yn una muestra aleatoria de una variable aleatoria Y Normal
con media cero y varianza 𝜎 2 . Demostrar que:
∑𝑛𝑖=1 𝑌𝑖2
̂
𝜃=
𝑛
2
Es un estimador insesgado de 𝜎 .

2.-Considere una variable aleatoria "X" ,con la siguiente función de densidad:

f(x) = ( − 1) x−2 ; 0 < x <1 .

y una muestra aleatoria X1, X2,....., Xn proveniente de “X”.

¿Es  = 1 - X , un estimador insesgado para el parámetro “”?. Resp. NO

3.-Sea Y1, Y2, ….. , Yn , una muestra aleatoria proveniente de una variable aleatoria
“Y”, con función de densidad:

2 (𝜃 − 𝑦)
𝑓(𝑦) = ; 0<𝑦<𝜃
𝜃2

Considere los estimadores de la forma: 𝜃̂ = c𝑌̅ donde “c” es una constante.


¿Para qué valor de “c” el estimador es insesgado?. Resp. C=3.

4.-Si X1, X2, ….. , X6, es una muestra aleatoria de una variable normal de media "", y
varianza 2, ambos desconocidos.

Determinar la constante "C" de forma que:



 = C [ (X1 – X2)2 + (X3 – X4)2 + (X5 – X6)2 ]
2

sea un estimador insesgado de 2. Res: C=1/6.

5.-En base a una muestra aleatoria de tamaño n, encuentre el estimador de máxima


verosimilitud de θ si la función de densidad de probabilidad de la población viene dada
por:
𝜃−1 9.60 del libre pag 470
𝑓(𝑦) = {𝜃 𝑦 0 < 𝑦 < 1; 𝜃 > 0
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

6.-Una variable aleatoria Y tiene la siguiente función de densidad de probabilidad:

𝑓(𝑦) = { 𝑒 −(y− θ) y> 0


0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
Se obtuvo una muestra aleatoria de tamaño 6 de esta variable cuyos valores son:

3,0 3,3 3,4 3,5 3,2 4,7

Obtener el estimador mediante momentos de θ. ¿Qué puede decirse sobre el


estimador Máximo Verosímil de Ɵ?. Resp.𝜃̂ = 𝑌̅ − 1. 𝜃̂ = 2,5167. El EMV NO existe.

7.-Se tienen dos muestras independientes de tamaños 𝑛1 𝑦 𝑛2 para una misma


población normal de parámetros 𝜇 y 𝜎 2 ambos desconocidos. Suponga que 𝑌̅1 𝑒 𝑌̅2
representan sus medias muestrales, mientras que 𝑆12 𝑦 𝑆22 sus varianzas muestrales
respectivamente. Demostrar que:

(𝑛1 − 1) 𝑆12 + (𝑛2 − 1)𝑆22


𝑆𝑝2 =
𝑛1 + 𝑛2 − 2

es un estimador insesgado para 𝜎 2 .

8.-El número de fallas por semana para cierto tipo de microcomputadora es


una variable aleatoria Y con una distribución de Poisson con media λ. Se
dispone de las observaciones con respecto al número de fallas semanales; a)
Sugiera un estimador insesgado para λ; b) El costo semanal para reparar estas
fallas es c= 3Y + Y2. Demuestre que E( c ) =4λ + λ2.

9.- Una variable aleatoria Y tiene la siguiente función de densidad de probabilidad:


𝑐
𝑓(𝑦) = {(𝜃) 0<𝑦<𝜃 .
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

¿Para qué valor o valores de c el estimador 2𝑌̅ es insesgado?. Res. c=1.


10.-En base a una muestra aleatoria de tamaño n, encuentre el estimador por el
método de los momentos de θ si la función de densidad de probabilidad de la población
viene dada por:
𝜃−1
𝑓(𝑦) = {𝜃 𝑦 0 < 𝑦 < 1; 𝜃 > 0
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

11.- Si 𝑌1 , … , 𝑌𝑛 es una muestra aleatoria en la función de densidad de probabilidad


dada por:

2
𝑓(𝑦) = { 𝜃 2 ) (𝜃 − 𝑦)
( 0<𝑦<𝜃
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Obtener un estimador para θ por el método de los momentos. Resp: 3 𝑌̅

12.-Sea Y una variable aleatoria con la siguiente distribución de probabilidad:


(𝛼 + 1) 𝑦 𝛼 0<𝑦<1
𝑓(𝑦) = {
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜

Encontrar el estimador mediante momentos y el estimador máximo verosímil


de α.
2𝑌̅−1
Resp. Momentos: 𝛼̂ =
1−𝑌̅
𝑛
Estimador Máximo Verosímil: 𝛼̂ = −1 − ∑𝑛
1=𝑖 𝐿𝑛(𝑌𝑖 )

También podría gustarte