Está en la página 1de 21

UNIVERSIDAD DE CÓRDOBA

FACULTAD DE CIENCIAS BÁSICAS


CARRERA DE ESTADÍSTICA

Diciembre de 2022

Taller 2

PRESENTA

Esneider Machado Machuca


Dana Barón Cárdenas
Antonio Martı́nez López
Diana Hurtado Barrera
Camila Montalvo Padilla

ASIGNATURA

Inferencia Estadı́stica

PROFESOR

Victor Morales

1
Índice
1 Ejercicio 2.13 3

2 Ejercicio 2.14 8

3 Ejercicio 2.15 13

4 Ejercicio 2.16 15

5 Ejercicio 2.18 17

6 Ejercicio 2.30 19

2
1. Ejercicio 2.13
Dada una muestra aleatoria X1 , ..., Xn con distribución U [θ1 , θ2 ],

(a) Demuestre que los estimadores de máxima verosimilitud de θ1 y θ2 son X(1) y X(n) , respec-
tivamente.

(b) Calcule el ECM de los estimadores de máxima verosimilitud y de momentos, y concluya


cuáles son mejores en términos del menor ECM.

Solución
(a) La densidad conjunta de X1 , ..., Xn viene dado por:
1
f (X; θ) = I[θ ,θ ] (X)
θ2 − θ1 1 2

n
Y 1
L(X1 , ..., Xn ; [θ1 , θ2 ]) = I[θ ,θ ] (Xi )
θ − θ1 1 2
i=1 2
 n Yn
1
= I[θ1 ,θ2 ] (Xi )
θ2 − θ1 i=1

n
Y
⇒ I[θ1 ,θ2 ] (Xi ) = 1 si y solo si ∞ < θ1 ≤ X(1) ≤ X(n) ≤ θ2 < ∞
i=1
Yn
⇒ I[θ1 ,θ2 ] (Xi ) = I[θ1 ,X(n) ] X(1) I[X(n) ,θ2 ] X(n) = I[∞,X(1) ] θ1 I[X(n) ,∞] θ2
i=1

Consideramos 2 casos:

Caso 1: Si conocemos a θ1
n
Y
⇒ I[θ1 ,θ2 ] (Xi ) = I[θ1 ,X(n) ] X(1) I[X(n) ,∞] θ2 = I[x(n) ,∞] θ2 dado que X(n) ≤ θ2 < ∞
i=1
1
Entonces, L(X1 , ..., Xn ; θ2 ) = I θ
(θ2 −θ1 )n [X(n) ,∞] 2
donde θ1 ̸= θ2

∴ θˆ2 = max{X1 , ..., X(n) }

Caso 2: si conocemos a θ2
n
Y
⇒ I[θ1 ,θ2 ] = I[∞,X(1) ] θ1 I[X(n) ,θ2 ] X(n) = I[∞,X(1) ] θ1 dado que ∞ < θ1 ≤ X(1)
i=1
1
Entonces, L(X1 , ..., Xn ; θ2 ) = I θ
(θ2 −θ1 )n [∞,X(1) ] 1
donde θ1 ̸= θ2

3
∴ θˆ1 = min{X1 , ..., X(n) }

(b) Hallemos el estimador θ1 por método de los momentos.

Z x(n)
x
E(x) = · dx
θ1 x(n) − θ1
Z x(n)
1
= · x · dx
x(n) − θ1 θ1
x(n)
1 x2
=
x(n) − θ1 2

θ1
1
x(n) − θ1 2
 2 
=
2(x(n) − θ1 )
(x(n) − θ1 )(x(n) + θ1 )
=
2(x(n) − θ1 )
x(n) + θ1
=
2
Ahora, el momento poblacional es igual momento muestral, por ende tenemos M1 ′ = m1 ′ , luego,

x(n) − θ1
X̄ =
2
ˆ
θ1 M M =x(n) − 2X̄

Ahora hallemos el estimador para θ2 por el método de los momentos. Sabemos que x tiene una
distribución uniforme, por lo tanto.

a+b
E(x) =
2
0 + θ2
E(x) =
2
θ2
E(x) =
2
Ahora, el momento poblacional es igual momento muestral, por ende tenemos M1 ′ = m1 ′ , luego,

θ2
=X̄
2
θˆ2 M M =2X̄

Ahora hallemos el ECM de θ2 por el método de MV sabemos que la función de densidad de el

4
 
n
máximo esta dada por : θ2 n y n−1 , a ≤ y ≤ b, por lo que
Z θ2 
n
E(Y ) = y n y n−1 dy
0 θ2
θ2
n+1
n y
= n

θ2 n + 1

0
n+1
n θ2
=
θ2 n n + 1
nθ2
=
n+1
Ahora calculamos el sesgo que se define como E(T ) − T

nθ2
= − θ2
n+1
nθ2 − nθ2 − θ2
=
n+1
θ2
=−
n+1
Ahora calculamos la varianza del estimador, por definición tenemos V ar(Y ) = E(Y 2 )−(E(Y ))2
Z θ2  
2 2 n
E(Y ) = y n y n−1 y n−1 dy
0 θ2
θ2
n y n+2
= n
θ2 n + 2

0
n+2
n θ2
=
θ2 n n + 2
nθ2 2
=
n+2
Luego,

nθ2 2 n2 θ2 2
 
V ar(y) = − −
n+1 (n + 2)2
nθ2 2
=
(n + 1)2 (n + 2)

El error cuadrático medio queda definido como:

5
ECM (θ2 ) =V ar(T ) − sesgo(T )2
2
nθ2 2

θ2
= + −
(n + 1)2 (n + 2) n+1
2
nθ2
=
(n + 1)(n + 2)

Hallamos el ECM de θ2 por el MM θ2 = 2X̄

E(X) =E(2X̄)
Pn
xi
=2E( i=1 )
n
2 nθ2
=
n 2
=θ2

El sesgo serı́a igual sesgo = θ2 − θ2 = 0, serı́a un estimador insesgado.

Error cuadrático medio para θM M = V ar(θ) − sesgo2

V ar(x) = E(x2 ) − (E(x))2

θ2
x2
Z
2
E(x ) = dx
o θ2
θ2
x3
=
3θ2

0
2
θ2
=
3
Entonces la varianza serı́a :
2
θ2 2

θ2
V ar(x) = −
3 2
θ2 2
=
12

Por tanto,

ˆ M ) =V ar(2X̄)
V ar(θ2 M
θ2
= 2
3n

6
2
Ahora el ECM (θ2 M M ) = θ3n2
, Como se puede ver el θ2 es mayor por el método de los momentos
que el de máxima verosimilitud

2θ2 2 θ2 2
<
(n + 1)(n + 2) 3n

Por lo que el mejor estimador para θ2 es términos del Error Cuadrático Medio es el Método de
Máxima Verosimilitud.

7
2. Ejercicio 2.14
Suponga que se quiere comparar dos marcas de carros con respecto al rendimiento en términos
de la distancia recorrida por galón de dos marcas de automóviles en referencias con especificacio-
nes similares bajo circunstancias similares con respecto a la carretera, clima y demás condiciones
controlables por los técnicos y expertos automovilı́sticos. Los datos se muestran en la Tabla 2.3

Distancia recorrida (en Km) por galón


Marca A 39.4, 41.1, 39.5, 40.0, 43.7, 46.0, 43.5, 42.1
Marca B 52.6, 49.4, 49.4, 46.4, 51.2, 49.2, 55.0, 53.6, 55.7, 57.4
Tabla 2.3

(a) Elabore la gráfica QQ para cada uno de los dos conjuntos datos y verifique que la distri-
bución normal puede ser apropiada para describirlos.

(b) Estime el número de kilómetros recorridos por galón de gasolina y la respectivo desviación
estándar en cada una de las dos marcas.

(c) Estime el coeficiente de variación para cada número de kilómetros recorridos por galón de
gasolina en cada una de las dos marcas.

(d) Estime el porcentaje de automóviles que recorren más de 50 kilómetros por galón para
cada una de las dos marcas.

(e) Dado lo anterior, compare las dos marcas en términos de rendimiento y estabilidad.

(f ) Si suponemos que los automóviles de las dos marcas son igualmente estables en términos
del rendimiento de gasolina, estime una medida que describa la diferencia promedio entre los
automóviles de las dos marcas en términos del rendimiento de la gasolina.

Solución
(a) Podemos ver en la figura 1, Los datos para los carro de marca A no se ajustan del todo
a la linea, por ende no resulta sencillo determinar normalidad de forma visual, si nos apoyamos
en una test de normalidad, para este caso el test de Shapiro Wilk, tenemos la siguiente salida del
programa R.
W = 0.92254, p − value = 0.4508,
para un nivel de significancia del 5 %, el p-valor es mayor, por lo tanto podemos concluir que la
distribución normal es apropiada para el tratamiento de los datos de esta marca.

8
Figura 1 : QQplot para la marca de carros A

Figura 2 : QQplot para la marca de carros B

En la figura 2, se puede evidenciar un comportamiento un poco más ajustado de los datos con
la recta, pero no todos se ajustan sobre la recta. apoyándonos en una test de normalidad, para
este caso el test de Shapiro Wilk, tenemos la siguiente salida del programa R.

W = 0.96622, p − value = 0.8538,

para un nivel de significancia del 5 %, el p-valor es mayor, por lo tanto podemos concluir que la
distribución normal es apropiada para el tratamiento de los datos de esta marca.

(b) Los datos para ambas marcan pueden ser tratados con distribución normal N (µ, σ 2 ), la
función de distribución esta dada por
1 1
f X(x) = p exp{− 2 (x − µ)2 }Iℜ
2
2πσ0 2σ0

Ambos parámetros µ y σ 2 son desconocidos, por lo tanto se debe estimar, para este caso se utilizará

9
el método de máxima verosimilitud.
n
" #
Y 1 1
L(θ, x1 ...., xn ) = p exp{− 2 (x − µ)2
i=1 2πσ0
2 2σ0
( n
)
−n 1 X
=(πσ02 ) 2 exp − 2 (xi − µ)2
2σ0 i=1
n
n n 2 1 X
ln(L(θ, x1 ...., xn )) = − ln(π) − ln(σ ) − 2 (xi − µ)2 .
2 12 2σ i=1

Ahora para obtener valores de µ y σ 2 que maximicen a ln(L), se procede a resolver los dos siguientes
ecuaciones:
∂ln(L)
=0
∂µ
∂ln(L)
=0
∂σ 2
Pn
(x −X̄)2
Resolviendo las ecuaciones , se obtiene la solución de µ = X̄ y σ 2 = i=1 ni , con este resultado
ya se puede estimar el número de kilómetros recorridos por galón de gasolina y la respectiva
desviación estándar.

µ̂M VA =X̄
Pn
xi
= i=1
n
39.4 + 41.1 + 39.5 + 40.0 + 43.7 + 46.0 + 43.5 + 42.1
=
8
=41.9125.

Ahora la desviación estándar,

σˆ2 M VA =s2n
Pn 2
i=1 (xi − X̄)
=
n
=2.357624

Ahora se calcula para la marca B

µ̂M VB =X̄
Pn
xi
= i=1
n
52.6 + 49.4 + 49.4 + 46.4 + 51.2 + 49.2 + 55.0 + 53.6 + 55.7 + 57.4
=
10
=51.99.

10
Ahora la desviación estándar,

σˆ2 M VB =s2n
Pn
(xi − X̄)2
= i=1
n
=3.466169

(c) El coeficiente de variación se define como:


s
CV =

2.357624
CVA =
41.9125
CVA =0.05625111
CVA =5.6 %

Ahora para la marca B,


s
CV =

3.466169
CVB =
51.99
CVB =0.06666992
CVB =6.7 %

El coeficiente de variación ayuda a realizar comparaciones entre variable y ver cual presenta mayor
dispersión en sus datos. Par este caso la marca B, presenta mayor variabilidad en sus datos en
comparación que la marca A.

(d) Ahora se desea conocer el porcentaje de carros que recorre más de 50 km por galón para
cada una de las marcas. Usando las estimaciones de µ y σ podemos estimar la proporción de
vehı́culos que recorre más de los 50 km. Si denotamos a X =(”Distancia recorrida en Km por
galón”), tenemos :

P (X > 50) =1 − P (X < 50)


50 − µ
=1 − P ( )
σ
50 − 41.9125
=1 − P ( )
2.357624
=1 − ϕ(3.43036)
=0.0002908571

11
Lo que representa solo un 0.03 % de vehı́culos de la marca A, recorre más de 50 km por galón.

P (X > 50) =1 − P (X < 50)


50 − µ
=1 − P ( )
σ
50 − 51.99
=1 − P ( )
3.466169
=1 − ϕ(−0.5741209)
=0.717057

Lo que representa solo un 71.7057 % de vehı́culos de la marca A, recorre más de 50 km por galón.

(e) Es claro que según los datos muéstrales y las estimaciones obtenidas, de éstos, la marca A
no parece ser muy rentable en términos de rendimiento. Su media se encuentra muy por debajo
de los 50km por galón, aunque presenta una variación baja entre sus vehı́culos, pero de estos
menos del 1 % puede hacer un recorrido similar al de la marca B, la cuál tiene una media de 51.99
km recorridos por galón consumido. Y 71.5 % de sus vehı́culos puede desplazarse más de 50km
consumiendo un galón de gasolina,esto refleja que la marca B presenta un excelente rendimiento
en comparación, con la marca A, además que la variación entre sus vehı́culos no esta tan disperso.

(f ) Ahora se determina que tan probable puede ser que la diferencia promedio en términos de
consumo por km recorridos sean iguales, esto es µA = µB . o lo que es igual µA − µB = 0
 
¯ ¯

XA − XB − [µA − µB ]
P q 2 2

σA σB
nA
+ nB
  
¯ ¯

XA − XB − 0
P q 
(2.357624)2 (3.4657)2
8
+ 10
!
X¯A − X¯B − 0
 
P √
0.6947989 + 1.201108
 
[41.9125 − 51.99]
P √
1.895907
 
|41.9125 − 51.99|
P √
1.895907
P (−0.6947989 ≤ Z ≥ 0.6947989)
ϕ(0.694789) − ϕ(−0.6947989)) = 0.5128125

Por lo tanto la probabilidad que ambas marcan posean rendimientos iguales en términos de con-
sumo de combustible por km recorrido o que la diferencia promedio entre las marcas sean iguales
es de 0.51.

12
3. Ejercicio 2.15
Sea X1 , ..., Xn una muestra aleatoria con distribución Exp(θ).
Pn
(a) Demuestre que las estadı́sticas i=1 Xi y X̄ son suficientes para θ.

(b) Encuentre la información de Fisher contenida en la muestra acerca de θ.

Solución
(a) La función de densidad de una distribución exponencial con parámetro θ está dada de la
siguiente forma:
e−x/θ
f (x; θ) = I(0,∞) (x)
θ

Procedemos a hallar la función de verosimilitud:

n
Y e−xi /θ
L(θ; x1 , ..., xn ) = I(0,∞) (xi )
i=1
θ
Pn n
e− i=1 xi /θ Y
= I(0,∞) (xi )
θn i=1
n
Pn Y
= e− i=1 xi /θ −n
θ I(0,∞) (xi )
i=1
n
−1
Y
= e−nX̄θ θ−n I(0,∞) (xi )
i=1

n
Pn Y
−nX̄θ−1 −n
Pn − xi /θ −n
Donde g( i=1 xi , θ) = e i=1 θ , g(X̄, θ) = e θ y h(x1 , ..., xn ) = I(0,∞) (xi )
i=1
Pn
Luego, por teorema de factorización, podemos afirmar que i=1 Xi y x̄ son estadı́sticos sufi-
cientes para θ.

13
(b)
 −x/θ 
d2

e
Ix (θ) = −E 2
Ln
dθ θ
 2 
d  −x/θ

= −E Ln(e ) − Ln(θ)
dθ2
 2 h i
d x
= −E − − Ln(θ)
dθ2 θ
  
d x 1
= −E − 2 (−1) −
dθ θ θ
  
d x 1
= −E 2

dθ θ θ
 
2xθ 1
= −E − 4 − 2 (−1)
θ θ
 
2x 1
= −E − 3 + 2
θ θ
2 1
= 3 E(x) − 2
θ θ
2 1
= 3θ − 2
θ θ
2 1
= 2− 2
θ θ
1
= 2
θ

 
1
Ix1 ,...,xn (θ) = n
θ2
n
=
θ2
n
Por tanto, la información contenida en la muestra acerca de θ es θ2
.

14
4. Ejercicio 2.16
Sea P
X1 , ..., Xn una muestra aleatoria con distribución P ois(θ), un estimador suficiente para θ
es T = ni=1 Xi . compruebe que IT (θ) = IX1 ,...,Xn (θ) usando la definición.

Solución
La función de densidad de la distribución Poisson es:
e−θ θX
f (X; θ) = I{0,1,2,...} (X)
X!
Tenemos que, en primer lugar,

n
Y e−θ θXi
L(θ; X1 , ..., Xn ) = I{0,1,2,...} (Xi )
i=1
Xi !
Pn n
e−nθ θ i=1 Xi Y
= Qn I{0,1,2,...} (Xi )
i=1 Xi !
i=1
Q n
i=1 I{0,1,2,...} (Xi )
Pn
−nθ Xi
= e θ i=1 Qn
i=1 Xi !

Pn
Usando el criterio de factorización, de donde tenemos que g( ni=1 Xi , θ) = e−nθ θ i=1 Xi
P

Calculamos la información contenida en T como

d2
 
IT (θ) = −E Lng(T, θ)
dθ2
 2 
d −nθ
Pn
Xi
= −E Ln(e θ i=1 )
dθ2
 2 h i
d −nθ
Pn
Xi
= −E Ln(e ) + Ln(θ i=1 )
dθ2
( n
!)
d2 X
= −E −nθ + Xi Ln(θ)
dθ2
  Pni=1 
d Xi
= −E −n + i=1
dθ θ
 Pn 
Xi
= −E − i=12
θ

15
( n
)
1 X
= −E − 2 Xi
θ i=1
n
!
1 X
= 2E Xi
θ i=1
n
1 X
= 2 E (Xi )
θ i=1
n
1 X
= θ
θ2 i=1
1
= nθ
θ2

= 2
θ
n
=
θ
Ahora, calculamos la información contenida en la muestra acerca de θ, tenemos

d2
 
IX1 ,...,Xn (θ) = −nE Lnf (X; θ)
dθ2
 2  −θ X 
d e θ
= −nE 2
Ln
dθ X!
 2 
d −θ X

= −nE Ln(e ) + Ln(θ ) − Ln(X!)
dθ2
 2 
d
= −nE (−θ + XLn(θ) − Ln(X!))
dθ2
  
d X
= −nE −1 +
dθ θ
 
X
= −nE − 2
θ
 
1
= −n − 2 E(X)
θ
n
= 2θ
θ
n
=
θ
Y podemos concluir que IT (θ) = IX1 ,...,Xn (θ) = nθ .

16
5. Ejercicio 2.18
Se ha visto que una muestra aleatoria proveniente de la distribución P ois(θ), el estimador de
máxima verosimilitud y el estimador de momentos es el mismo: θM V = θmom = X̄, ¿Este estimador
es UMVUE para θ?.

Solución
La función de densidad de la distribución poisson es:

e−θ θX
f (X; θ) = I{0,1,2,...} (X)
X!

Determinaremos si el estimador X̄ es insesgado.

 Pn 
i=1 Xi
E(X̄) = E
n
n
!
1 X
= E
n i=1
n
1X
= E(Xi )
n i=1
n
1X
= θ
n i=1
1
= nθ
n

=
n

Ası́, como el valor esperado del estimador es igual al parámetro, podemos afirmar que el esti-
mador X̄ es insesgado.

Ahora, encontraremos la CICR

17
1 1
n  o =  d2 
d2 e−θ θX −θ X
−nE dθ2 Ln(e ) + Ln(θ ) − Ln(X!) + Ln(I{0,1,2,...} (X))
−nE dθ2
Ln X!
I{0,1,2,...} (X)
1
=  d2 
−nE dθ2
−θ + XLn(θ) − Ln(X!) + Ln(I{0,1,2,...} (X))
1
= d X

−nE dθ
−1 + θ
1
=
−nE − θX2


1
= n
θ2
E(X)
1
= n
θ2
θ
1
= n
θ
θ
=
n
Entonces para cualquier estimador insesgado T(x) de T (θ) se tiene que V ar(T ) ≥ nθ .

Procedemos a hallar la V ar(X̄)

 Pn 
i=1 Xi
V ar(X̄) = V ar
n
n
!
1 X
= V ar
n2 i=1
n
1 X
= 2 V ar(Xi )
n i=1
n
1 X
= θ
n2 i=1
1
= nθ
n2

= 2
n
θ
=
n
Entonces, como la V ar(X̄) coincide con la CICR, X̄ es el UMVUE para θ.

18
6. Ejercicio 2.30
Dada una muestra aleatoria X1 , ..., Xn con distribución N (µ, σ02 ), donde σ02 es conocido,
Pn
(a) Demuestre que las estadı́sticas i=1 xi y X̄ son suficientes y completas para µ.

(b) Encuentre el estimador UMVUE para µ.

Solución
(a) La función de densidad de una distribución normal con parámetros N (µ, σ02 ), donde σ02 es
conocido, tiene la siguiente forma :
1 1
f X(x) = p exp{− 2
(x − µ)2 }Iℜ
2
2πσ0 2σ 0

Pn
Ahora para determinar si los estadı́sticos i=1 xi y X̄, son suficientes y completos, nos apoya-
mos en los siguientes resultados:

Resultado 2.4.6(Zhang y Gutiérrez, 2010;p.109). Dada una muestra aleatoria X1 ...., Xn


proveniente de una distribución f (x, θ) perteneciente a la familia exponencial, es decir,

f (x, θ) = h(x)c(θ)exp{d(θ)T (x)},


Pn
entonces la estadı́stica i=1 xi es suficiente para θ.

Resultado 2.4.15(Zhang y Gutiérrez, 2010;p.127). Dada una muestra aleatoria X1 ...., Xn


proveniente de una distribución f (x, θ) perteneciente a la familia exponencial, es decir,

f (x, θ) = h(x)c(θ)exp{d(θ)T (x)},


Pn
entonces la estadı́stica i=1 xi es completa para θ.

Resultado 2.4.6(Zhang y Gutiérrez, 2010;p.57). Si X1 , ....Xn son variables aleatorias


independientes e idénticamente distribuidas con sunción de densidad común perteneciente
a la familia uniparamétrica, entonces la función de densidad conjunta f (x1 ....xn ) también
pertenece a la familia exponencial uniparamétrica.
" n # ( n
)
Y X
f (x1 ...xn , θ = c(θ)n h(xi ) exp d(θ) T (xi )
i=1 i=1

19
Ahora,
n
" #
Y 1 1
f (x1 ....xn ) = p exp{− 2 (x − µ)2
i=1 2πσ02 2σ0
( n
)
−n 1 X
=(πσ02 ) 2 exp − 2 (xi − µ)2
2σ0 i=1
( n
)
−n 1 X
=(πσ02 ) 2 exp − 2 (x2 − 2xi µ + µ2 )
2σ0 i=1 i
( n n
)
−n 1 X µ X n
=(πσ02 ) 2 exp − 2 (x2 ) + 2 x i − 2 µ2
2σ0 i=1 i σ0 i=1 σ0
  ( n
) ( n
)
−n n 1 X µ X
=(πσ02 ) 2 exp µ2 exp − 2 (x2 ) exp xi
σ02 2σ0 i=1 i σ02 i=1
 Y n   ( n
)
−n n 1 µ X
=(πσ02 ) 2 exp µ2 exp − 2 (x2i ) exp xi
σ02 i=1
2σ 0 σ 2
0 i=1

−n
n o Q n o
Tomando a c(θ) = (πσ02 ) 2 exp σn2 µ2 , ni=1 h(xi ) = ni= exp − 2σ1 2 (x2i ) y exp {d(θ) ni=1 T (xi )} =
Q P
n P o 0 0
µ n
exp σ2 i=1 xi , Entonces la distribución normal se puede escribir como una distribución perte-
0
que ni=1 Xi es un estadı́stico suficiente
P
neciente a la familia exponencial, con ese resultado tenemos
Pn
n i=1 Xi
y completo para θ. de igual forma el estadı́sco X̄ = n
.

(b) Del inciso anterior se conoce que X̄ es un estimador suficiente para µ, cuando la muestra
proviene de una distribución normal con σ02 conocida. Otros dos criterios a tener en cuenta para
denotar un estimador como un UMVUE, primero debe ser insesgado y luego su varianza debe ser
igual a la cota de Cramer Rao.
Probar que X̄ es insesgado. Sesgo = E(T ) − T .

E(T ) =E(X̄)
Pn
xi
=E( i=1 )
n
n
1 X
= E( xi )
n i=1
1
= E(x1 + x2 .. + ..xn )
n
1
= nµ
n

Como el valor esperado del estimador (µ) es igual al parámetro (µ), el sesgo es cero, por lo
tanto el estimador es insesgado para el parámetro.

20
Determinar la varianza del estimador.
Pn
i=1 xi
V ar(X̄) =V ar( )
n
n
1 X
= 2 V ar( xi )
n i=1
1
= V ar(x1 + x2 .....xn )
n2
σ2
=
n

Ahora se deduce la cota de Cramer Rao para el parámetro µ proviente de una distribución
normal.

Cota de Cramer Rao


∂τ (θ)
∂θ
V ar(T ) ≤ n o
∂ 2 ln(f (x;θ))
−nE ∂2θ

τ (θ) = θ
∂τ (θ)
∂(θ)
=1
Lnf (x; θ) = ln( √ 1
) − 1
2σ02
(x − θ)2
2πσ 0 2
∂lnf (x;θ)
∂θ
= x−θ
σ02
∂ 2 lnf (x;θ)
∂2θ
= − σ12
0

(1)2
V ar(T ) ≤
−nE(− σ12 )
0
1
≤ n
σ02
n

σ02
σ2
La Varianza del estimador n0 es igual a la que genera la cota inferior de Cramer Rao, el
estimador también es insesgado y como se mostró en el inciso a, suficiente, por lo tanto X̄
es un UMVUE para µ.

21

También podría gustarte