Está en la página 1de 12

Unidad 1 - Estimadores Puntuales

Propiedades de los estimadores

Parámetros y Estimadores. Cuando disponemos de toda la población y calculamos medidas de


resumen las denominamos Parámetros que son las características de la población y cuando
tomamos una muestra las medidas de resumen se conocen como estadísticos o Estimadores
que son características de la muestra.

Parámetros

N tamaño de la población

Media poblacional

∑𝑁
𝑖=1 𝑥𝑖
𝜇𝑥 =
𝑁
Varianza poblacional

∑𝑁
𝑖=1(𝑥𝑖 − 𝜇𝑥 )
2
𝜎𝑥2 =
𝑁
Desviación estándar poblacional

∑𝑁 (𝑥𝑖 − 𝜇𝑥 )2
𝜎𝑥 = √ 𝑖=1
𝑁

Proporción poblacional
𝑋
𝜋𝑥 =
𝑁
Estimadores

n es el tamaño de la muestra

Media muestral
∑𝑛𝑖=1 𝑥𝑖
𝑥̅𝑛 =
𝑛

Varianza muestral

∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅𝑛 )2
𝑆𝑛2 =
𝑛−1

Desviación estándar muestral

∑𝑛 (𝑥𝑖 − 𝑥̅𝑛 )2
𝑆𝑛2 = √ 𝑖=1
𝑛−1

Proporción muestral
𝑥
𝑝̂𝑥 =
𝑛
Los estimadores se consideran variables aleatorias muestrales.

Para que sean buenos estimadores de los parámetros poblaciones deben cumplir con ciertas
propiedades deseables denominadas Propiedades de los Estimadores:

Insesgamiento, eficiencia, consistencia, suficiencia, invarianza y robutez.

Para determinar la propiedad de insesgamiento debemos calcular la esperanza del estimador y


observar si el resultado es igual al parámetro que intenta estimar, si es así se dice que el
estimador es insesgado respecto del parámetro.

Luego calculamos la varianza de cada estimador para determinar cuál es más eficiente, los
estimadores deben cumplir con la propiedad de insesgamiento.

Ahora veamos los ejercicios 1) 2) 4) y 6) de la guía práctica 1.

1) Sea (𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 ) una muestra aleatoria de tamaño n tomada de una población con
distribución normal con valor esperado 𝜇 y varianza 𝜎 2 .
∑𝑛
𝑖=1 𝑥𝑖
Sea el estimador media muestral: 𝑥̅𝑛 = 𝑛
∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )
2
Y sea el estimador varianza muestral: 𝑠𝑛2 = 𝑛−1
Determine:

a) 𝐸(𝑥̅𝑛 )
b) 𝑉(𝑥̅𝑛 )
c) 𝐷(𝑥̅𝑛 )
d) 𝐸(𝑠𝑛2 )
e) 𝑉(𝑠𝑛2 )
f) 𝐷(𝑠𝑛2 )
g) Mencione que propiedades cumple cada uno de los estimadores.

Resolución

La variable aleatoria 𝑥 tiene distribución normal ya que proviene de una muestra con dicha
distribución. Se puede escribir de la siguiente manera:

𝑥~𝑵(𝝁, 𝝈)
Recordemos que la 𝐸(𝑥) = 𝜇, la 𝑉(𝑥) = 𝜎 2 y la 𝐷(𝑥) = 𝜎
∑𝑛
𝑖=1 𝑥𝑖 1 1 1
𝑎) 𝐸(𝑥̅𝑛 ) = 𝐸 ( 𝑛
) = 𝑛 ∑𝑛𝑖=1 𝐸(𝑥𝑖 ) = 𝑛 𝑛𝐸(𝑥𝑖 )= 𝑛 𝑛𝜇 = 𝜇

𝐸(𝑥̅𝑛 ) = 𝜇

Se dice que 𝑥̅𝑛 es un estimador insesgado del parámetro 𝜇


∑𝑛
𝑖=1 𝑥𝑖 1 2 1 1 𝜎2
𝑏) 𝑉(𝑥̅𝑛 ) = 𝑉 ( 𝑛
) = (𝑛) ∑𝑛𝑖=1 𝑉(𝑥𝑖 ) = 𝑛2 𝑛𝑉(𝑥𝑖 )= 𝑛2 𝑛𝜎𝑥2 = 𝑛𝑥

Por propiedades de la varianza las constantes que sacamos fuera de la varianza salen elevadas
al cuadrado, no las sumatorias. Las sumatorias nos dicen cuántos términos tenemos que
sumar.

𝜎𝑥2
𝑉(𝑥̅𝑛 ) =
𝑛
El estimador es consistente.

𝜎2 𝜎𝑥
c) 𝐷(𝑥̅𝑛 ) = √ 𝑛𝑥 =
√𝑛

𝜎𝑥
𝐷(𝑥̅𝑛 ) =
√𝑛
La variable aleatoria 𝑥̅𝑛 tiene distribución normal ya que proviene de una muestra con dicha
distribución. Se puede escribir de la siguiente manera:
𝜎𝑥
𝑥̅𝑛 ~𝑵 (𝝁, )
√𝑛

𝑑) 𝐸(𝑠𝑛2 )

Recordando que la suma de variables aleatorias normales al cuadrado da una distribución


2
Ji-Cuadrado con grados de libertad 𝜒(𝑔𝑙) , y que la distribución Ji-Cuadrado se usa para
estimar la varianza, conociendo el pivote de la distribución como sigue con n-1 grados de
libertad,
2
(𝑛−1)𝑠𝑛
2
Pivote de la distribución Ji-Cuadrado con n-1 grados de libertad 𝜒(𝑛−1) = 𝜎𝑥2
Sabiendo que la esperanza de una Ji-Cuadrado es igual a sus grados de libertad:
2
𝐸(𝜒(𝑛−1) )=𝑛−1
Igualamos las ecuaciones para determinar la esperanza de la varianza muestral como sigue
a continuación y despejamos 𝐸(𝑠𝑛2 )
2
(𝑛 − 1)𝑠𝑛2
𝐸(𝜒(𝑛−1) ) = 𝐸( )=𝑛−1
𝜎𝑥2

(𝑛 − 1)
𝐸(𝑠𝑛2 ) = 𝑛 − 1
𝜎𝑥2

(𝑛 − 1)𝐸(𝑠𝑛2 ) = (𝑛 − 1)𝜎𝑥2

(𝑛 − 1)𝜎𝑥2
𝐸(𝑠𝑛2 ) =
(𝑛 − 1)

𝐸(𝑠𝑛2 ) = 𝜎𝑥2
Por lo tanto, decimos que el estimador varianza muestral 𝑠𝑛2 es insesgado del parámetro
varianza poblacional 𝜎𝑥2 .
𝑒) 𝑉(𝑠𝑛2 )
Para obtener la varianza del estimador procedemos del mismo modo que con la esperanza,
a partir del pivote de Ji-Cuadrado

2
(𝑛 − 1)𝑠𝑛2
𝜒(𝑛−1) =
𝜎𝑥2

Sabiendo que la varianza de una Ji-cuadrado es igual a 2 veces sus grados de libertad:

2
𝑉(𝜒(𝑛−1) ) = 2(𝑛 − 1)
Igualamos las ecuaciones y despejamos 𝑉(𝑠𝑛2 )
2
(𝑛−1)𝑠𝑛
2
𝑉(𝜒(𝑛−1) )= 𝑉( ) = 2(𝑛 − 1)
𝜎𝑥2

(𝑛−1) 2
( 𝜎𝑥2
) 𝑉(𝑠𝑛2 ) = 2(𝑛 − 1)

(𝑛−1)2
𝜎𝑥4
𝑉(𝑠𝑛2 ) = 2(𝑛 − 1)

(𝑛 − 1)2 𝑉(𝑠𝑛2 ) = 2(𝑛 − 1)𝜎𝑥4

2(𝑛 − 1)𝜎𝑥4
𝑉(𝑠𝑛2 ) =
(𝑛 − 1)2
2𝜎𝑥4
𝑉(𝑠𝑛2 ) =
(𝑛 − 1)
También podemos decir que el estimador es consistente, a medida que aumenta el tamaño
de la muestra la varianza tiende a cero.
2𝜎𝑥4
f) 𝐷(𝑠𝑛2 ) = √
(𝑛 − 1)
Para obtener la desviación estándar del estimador se aplica la raíz cuadrada a la varianza del
estimador.
g) El estimador 𝑥̅𝑛 es insesgado del parámetro 𝜇, es suficiente porque utiliza toda la
información de la muestra y es consistente, a medida que aumenta el tamaño de la muestra
la varianza del estimador tiende a cero.
El estimador 𝑠𝑛2 es insesgado del parámetro 𝜎𝑥2 , es suficiente porque utiliza toda la
información de la muestra para calcular el estimador y es consistente, a medida que aumenta
el tamaño de la muestra la varianza del estimador tiende a cero.

2) Sea 𝑥 una variable aleatoria tomada de una población con distribución Binomial cuyos
parámetros son 𝐵(𝑛; 𝜋).
𝑥
Sea el estimador proporción muestral: 𝑝̂𝑥 =
𝑛
Determine:

a) 𝐸(𝑝̂𝑥 )
b) 𝑉(𝑝̂𝑥 )
c) 𝐷(𝑝̂𝑥 )
d) Mencione que propiedades cumple el estimador.

Resolución

Recordemos que la proporción viene de una variable con distribución binomial cuyos
parámetros son

𝐸(𝑥) = 𝑛𝜋𝑥 y 𝑉(𝑥) = 𝑛𝜋𝑥 (1 − 𝜋𝑥 )


𝑥 1 1
a) 𝐸(𝑝̂𝑥 ) = 𝐸 (𝑛) = 𝑛 𝐸(𝑥) = 𝑛 𝑛𝜋𝑥 = 𝜋𝑥

𝐸(𝑝̂𝑥 ) = 𝜋𝑥
Se dice que 𝑝̂𝑥 es un estimador insesgado del parámetro 𝜋𝑥
𝑥 1 2 1 𝜋𝑥 (1−𝜋𝑥 )
b) 𝑉(𝑝̂𝑥 ) = 𝑉 (𝑛) = (𝑛) 𝑉(𝑥) = 𝑛2 𝑛𝜋𝑥 (1 − 𝜋𝑥 )= 𝑛

𝜋𝑥 (1 − 𝜋𝑥 )
𝑉(𝑝̂𝑥 ) =
𝑛
c)

𝜋(1 − 𝜋)
𝐷(𝑝̂𝑥 ) = √
𝑛

d) El estimador 𝑝̂𝑥 es insesgado del parámetro 𝜋𝑥 , es suficiente porque utiliza toda la


información de la muestra para calcular el estimador y es consistente, a medida que aumenta
el tamaño de la muestra la varianza del estimador tiende a cero.

4) Sea (X1, X2, …, Xn) una muestra aleatoria proveniente de una población cuya distribución es normal
con valor esperado 15 y varianza σ2. Se proponen los siguientes estimadores de la varianza:
30
(xi − 15)2
̂12
σ =∑
30
i=1

30
(xi − x̅)2
̂22
σ =∑
29
i=1

Analice la propiedad de insesgamiento para cada estimador y determine ¿Cuál es más


eficiente? Fundamente.

Resolución

Vamos a calcular la esperanza y la varianza de cada estimador, trabajaremos con la


distribución Ji-Cuadrado.
(xi −15)2
̂12 ) = E (∑30
𝐸(σ i=1 30
)

Comenzamos a acomodar y sacamos fuera de la esperanza a la constante (el 30).


30
1
̂12 )
𝐸(σ = E (∑(xi − 15)2 )
30
i=1

Luego si multiplicamos ambos lados de la ecuación por 30 nos queda de la siguiente manera:
30

̂12 )
30 𝐸(σ = E (∑(xi − 15)2 )
i=1

Ahora necesitamos que la expresión que está dentro de la esperanza tenga la forma x menos la
media sobre el desvío estándar para que sea una distribución normal,
(𝑥 − 𝜇)
𝑧=
𝜎
Luego necesitamos,

(𝑥 − 𝜇)2 𝑥−𝜇 2
𝑧2 = = ( )
𝜎2 𝜎
Para que la suma de variables aleatorias normales nos da una distribución Ji − Cuadrado.
𝑛
2
𝜒(𝑔𝑙) = ∑ 𝑧𝑖2
𝑖=1

Entonces dividimos a ambos lados de la igualdad por 𝜎𝑥2 acomodamos y despejamos:

30 𝐸(σ̂12 ) E(∑30 2
i=1(xi − 15) )
=
𝜎𝑥2 𝜎𝑥2
30
30 𝐸(σ̂12 ) (xi − 15)2
= E (∑ )
𝜎𝑥2 𝜎𝑥2
i=1
30
30 𝐸(σ̂12 ) xi − 15 2
= E (∑ ( ) )
𝜎𝑥2 𝜎𝑥
i=1

xi − 15
𝑧𝑖 =
𝜎𝑥
30
30 𝐸(σ̂12 )
= E (∑(𝑧𝑖 )2 )
𝜎𝑥2
i=1

Como en este caso contiene el valor de 𝜇 = 15 que es el parámetro no pierde un grado de


libertad y por lo tanto la distribución Ji-Cuadrado tiene n grados de libertad, en este ejercicio 30
grados de libertad. Aplicando las propiedades obtenemos la esperanza del estimador.

30 𝐸(σ̂12 )
= E(χ230 )
𝜎𝑥2
̂12 ) = E(χ230 )𝜎𝑥2
30 𝐸(σ

̂12 ) = 30𝜎𝑥2
30 𝐸(σ
30𝜎𝑥2
̂12 ) =
𝐸(σ
30
̂12 ) = 𝜎𝑥2
𝐸(σ

Para el caso de la varianza procedemos como en el caso de la esperanza


30
(xi − 15)2
̂12 )
𝑉(σ = V (∑ )
30
i=1
30
1 2
̂12 )
𝑉(σ = ( ) V (∑(xi − 15)2 )
30
i=1
30

30 2
̂12 )
𝑉(σ = V (∑(xi − 15)2 )
i=1

Aquí necesitamos dividir a ambos lados de la igualdad por 𝜎𝑥4 por las propiedades de la varianza,
luego acomodamos y despejamos, aplicando propiedades:

302 𝑉(σ̂12 ) V(∑30 2


i=1(xi − 15) )
=
𝜎𝑥4 𝜎𝑥4

30
302 𝑉(σ̂12 ) (xi − 15)2
= V (∑ )
𝜎𝑥4 𝜎𝑥2
i=1
30
302 𝑉(σ̂12 ) xi − 15 2
= 𝑉 (∑ ( ) )
𝜎𝑥4 𝜎𝑥
i=1
30
302 𝑉(σ̂12 )
= 𝑉 (∑(𝑧𝑖 )2 )
𝜎𝑥4
i=1

30 2
𝑉(σ ̂12 )
= 𝑉(χ230 )
𝜎𝑥4

̂12 ) = 𝑉(χ230 )𝜎𝑥4


302 𝑉(σ

̂12 ) = 2(30)𝜎𝑥4
302 𝑉(σ
2(30)𝜎𝑥4
̂12 ) =
𝑉(σ
302
2𝜎𝑥4
̂12 ) =
𝑉(σ
30
𝜎𝑥4
̂12 ) =
𝑉(σ
15

̂22 calculamos esperanza y varianza.


Para el estimador σ

El procedimiento es el mismo que con el estimador anterior, excepto que acá tenemos un
estimador x̅ en lugar del parámetro y pierde un grado de libertad, por lo cual la distribución Ji-
Cuadrado tiene n-1 grados de libertad en este caso 29.
30
(xi − x̅)2
̂22
σ =∑
29
i=1

30
(xi − x̅)2
̂22 )
𝐸(σ = E (∑ )
29
i=1
30
1
̂22 )
𝐸(σ = E (∑(xi − x̅)2 )
29
i=1
30

̂22 )
29 𝐸(σ = E (∑(xi − x̅)2 )
i=1

29 𝐸(σ̂22 ) E(∑30 ̅ )2 )
i=1(xi − x
=
𝜎𝑥2 𝜎𝑥2
30
29 𝐸(σ̂22 ) (xi − x̅)2
= E (∑ )
𝜎𝑥2 𝜎𝑥2
i=1
30
29 𝐸(σ̂22 ) xi − x̅ 2
= E (∑ ( ) )
𝜎𝑥2 𝜎𝑥
i=1

xi − x̅
𝑧𝑖 =
𝜎𝑥
30
29 𝐸(σ̂22 )
= E (∑(𝑧𝑖 )2 )
𝜎𝑥2
i=1

29 𝐸(σ̂22 )
= E(χ229 )
𝜎𝑥2

̂22 ) = E(χ229 )𝜎𝑥2


29𝐸(σ

̂22 ) = 29𝜎𝑥2
29 𝐸(σ

29𝜎𝑥2
̂22 ) =
𝐸(σ
29
̂22 ) = 𝜎𝑥2
𝐸(σ

30
(xi − x̅)2
̂22 )
𝑉(σ = V (∑ )
29
i=1
30
1 2
̂22 )
𝑉(σ = ( ) V (∑(xi − x̅)2 )
29
i=1
30

29 2
̂22 )
𝑉(σ = V (∑(xi − x̅)2 )
i=1

292 𝑉(σ̂22 ) V(∑30 ̅ )2 )


i=1(xi − x
=
𝜎𝑥4 𝜎𝑥4

30
292 𝑉(σ̂22 ) (xi − x̅)2
= V (∑ )
𝜎𝑥4 𝜎𝑥2
i=1
30
292 𝑉(σ̂22 ) xi − x̅ 2
= 𝑉 (∑ ( ) )
𝜎𝑥4 𝜎𝑥
i=1

30
292 𝑉(σ̂22 )
= 𝑉 (∑(𝑧𝑖 )2 )
𝜎𝑥4
i=1

292 𝑉(σ̂22 )
= 𝑉(χ229 )
𝜎𝑥4

̂22 ) = 𝑉(χ229 )𝜎𝑥4


292 𝑉(σ

̂22 ) = 2(29)𝜎𝑥4
292 𝑉(σ
2(29)𝜎𝑥4
̂22 ) =
𝑉(σ
292
2𝜎𝑥4
̂12 ) =
𝑉(σ
29
Respuestas

̂12 ) = 𝜎𝑥2 , 𝜎̂12 es un estimador insesgado de 𝜎 2


𝐸(σ

̂22 ) = 𝜎𝑥2 , , 𝜎̂22 es un estimador insesgado de 𝜎 2


𝐸(σ
Como ambos estimadores son insesgados se determina cuál es más eficiente.
𝜎4𝑥
𝑉(𝜎̂12 ) =
15
2𝜎4𝑥
𝑉(𝜎̂22 ) =
29
𝜎̂12 es más eficiente que 𝜎̂22 , ya que su varianza es menor 𝑉(𝜎̂12 )< 𝑉(𝜎̂22 )

6) Sea (𝑦1 , 𝑦2 , … , 𝑦𝑛 ) una muestra aleatoria de una población con media 𝜇 y varianza 𝜎 2 . Sean los
siguientes estimadores de 𝜇:
a) Demuestre que cada uno de los tres estimadores es insesgado.
b) Determine la eficiencia relativa del tercero respecto del resto.

y1 + y2
μ̂1 =
2

y1 ∑n−1
i=2 yi yn
μ̂2 = + +
4 2(n − 2) 4

n
yi
μ̂3 = ∑
n
i=1

𝑦1 + 𝑦2 1 1
𝐸(𝜇̂ 1 ) = 𝐸 ( ) = [𝐸(𝑦1 ) + 𝐸(𝑦2 )] = [𝜇 + 𝜇] = 𝜇
2 2 2
𝐸(𝜇̂ 1 ) = 𝜇

En este estimador aplicamos la esperanza a cada término del estimador, cuando sacamos la
sumatorio que queda como n-2 es la cantidad de términos que sumamos desde el 2 hasta el
n-1 nos queda n-2 términos.
𝑛−1
𝑦1 𝑦𝑖 𝑦𝑛 𝐸(𝑦1 ) 𝐸(∑𝑛−1
𝑖=2 𝑦𝑖 ) 𝐸(𝑦𝑛 )
𝐸(𝜇̂ 2 ) = 𝐸 ( + ∑ + )= + +
4 2(𝑛 − 2) 4 4 2(𝑛 − 2) 4
𝑖=2
𝜇 ∑𝑛−1
𝑖=2 𝐸(𝑦𝑖 ) 𝜇 𝜇 (𝑛 − 2)𝜇 𝜇
= + + = + + =𝜇
4 2(𝑛 − 2) 4 4 2(𝑛 − 2) 4
Aclaración sobre sumatorias: indican la cantidad de términos que se suman desde el inicio hasta
el final, por ejemplo:
𝑛

∑=𝑛
𝑖=1
𝑛−1

∑ =𝑛−1
𝑖=1
𝑛−1

∑ =𝑛−2
𝑖=2

𝐸(𝜇̂ 2 ) = 𝜇
𝑛 𝑛
𝑦𝑖 1 𝑛𝜇
𝐸(𝜇̂ 3 ) = 𝐸 (∑ ) = ∑ 𝐸(𝑦𝑖 ) = =𝜇
𝑛 𝑛 𝑛
𝑖=1 𝑖=1

𝐸(𝜇̂ 3 ) = 𝜇

Los tres estimadores son insesgados.

Analizamos la eficiencia.

𝑦1 + 𝑦2 1 1 𝜎2
𝑉(𝜇̂ 1 ) = 𝑉 ( ) = [𝑉(𝑦1 ) + 𝑉(𝑦2 )] = [𝜎 2 + 𝜎 2 ] =
2 4 4 2
Recordemos que las constantes salen de la varianza elevadas al cuadrado y las sumatorias no
son constantes por lo tanto salen como la cantidad de términos que sumamos en este caso
n-2. Luego
𝑛−1
𝑦1 𝑦𝑖 𝑦𝑛 𝑉(𝑦1 ) 𝑉(∑𝑛−1
𝑖=2 𝑦𝑖 ) 𝑉(𝑦𝑛 )
𝑉(𝜇̂ 2 ) = 𝑉 ( + ∑ + )= + 2
+
4 2(𝑛 − 2) 4 16 4(𝑛 − 2) 16
𝑖=2
𝜎 2 ∑𝑛−1
𝑖=2 𝑉(𝑦𝑖 ) 𝜎 2 𝜎 2 (𝑛 − 2)𝜎 2 𝜎 2 𝑛𝜎 2
= + + = + + =
16 4(𝑛 − 2)2 16 16 4(𝑛 − 2)2 16 8(𝑛 − 2)

𝑛𝜎 2
𝑉(𝜇̂ 2 ) =
8(𝑛 − 2)
𝑛 𝑛
𝑦𝑖 1 𝑛𝜎 2 𝜎 2
𝑉(𝜇̂ 3 ) = 𝑉 (∑ ) = 2 ∑ 𝑉(𝑦𝑖 ) = 2 =
𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1

𝜎2
𝑉(𝜇̂ 3 ) =
𝑛

Finalmente calculamos la eficiencia relativa del tercer estimador respecto de los otros dos

𝜎2
𝑉(𝜇̂ 1 ) 2 𝜎2 𝑛 𝑛
= 2 = =
𝑉(𝜇̂ 3 ) 𝜎 2 𝜎2 2
𝑛
𝑛𝜎 2
𝑉(𝜇̂ 2 ) 8(𝑛 − 2) 𝑛𝜎 2 𝑛 𝑛2
= = =
𝑉(𝜇̂ 3 ) 𝜎2 8(𝑛 − 2) 𝜎 2 8(𝑛 − 2)
𝑛
𝜇̂ 3 es un estimador eficiente de 𝜇, respecto de 𝜇̂ 1 , si n>2. Dado que tomar una muestra de
tamaño 1 o 2 es estadísticamente poco significativo, se puede decir que siempre es eficiente;
entendiéndolo desde un punto de vista estadístico y menos matemático.

𝜇̂ 3 es un estimador eficiente de 𝜇, respecto de 𝜇̂ 2 , si n>4.

También podría gustarte