Universidad Nacional Autónoma de
México
Facultad de Ciencias
Inferencia Estadı́stica
2024-1
Tarea 4
Autores:
Bautista Barroso Johan
Pantaleón Garcı́a Kevin
Ortiz Garcı́a Juan Manuel
Reyes Ramı́rez Luis Fernando
Torres Latournerie Jeyson Jesue
1 Ses X1 , ..., Xn m.a. de una población con densidad dada por:
1 1 2
fX (x, σ 2 ) = √ e− 2σ2 x , σ2 > 0
2πσ 2
a) Calcule la Cota Inferior de Cramer Rao para esta familia y verifique
que:
2σ 4
CIRC(σ 2 ) =
n
Primero, notemos que estamos tratanto con una función de densidad nor-
mal donde µ = 0 y V ar(X) = σ 2 .
Para calcular la Cota Inferior de Cramer Rao primero necesitamos calcular
I(σ 2 ). Donde
∂2
I(σ 2 ) = −E( 2 ln(fxi (xi , θ)))
∂θ
Donde
∂2 ∂2 1 1 2
2
ln(fxi (x i , θ)) = 2
ln( √ e− 2θ x )
∂θ ∂θ 2πθ
además sabemos que
1 1 2 1 1 2
ln( √ e− 2θ x ) = ln √ + ln e− 2θ x
2πθ 2πθ
√ x2
= −ln( 2πθ) −
2θ
Ası́, calculando la primera parcial tenemos que:
∂2 ∂2 √ x2
1 1
− 2θ x2
ln( √ e ) = −ln( 2πθ) −
∂θ2 2πθ ∂θ2 2θ
x2
∂ 2π
= − √ √ + 2
∂θ 2 2πθ 2πθ 2θ
x2
∂ 1
= − + 2
∂θ 2θ 2θ
1 x2
= −
2θ2 θ3
Ahora solo queda calcular la esperanza negativa de lo anterior, ası́:
x2 E(x2 )
1 1
−E − = − +
2θ2 θ3 2θ2 2θ3
y como E(X 2 ) = θ pues V ar(X) = E(X 2 )−[E(X)]2 , se sigue que E(X 2 ) =
V ar(X) + [E(X)]2 , ahora, recordando que µ = 0, y definimos θ = σ 2
concluimos que
E(X 2 ) = σ 2 + 0 = θ
1
tenemos que
x2 E(x2 )
1 1 1 θ −θ + 2θ
−E 2
− 3
= −E 2
+ 3
=− 2 + 3 =
2θ θ 2θ θ 2θ θ 2θ3
θ 1
= = 2
2θ3 2θ
Y como θ = σ 2 tenemos que
1 1 2σ 4
CIRC = = =
nI(θ) n( 2σ1 4 ) n
1
Pn
b) Defina un estimador de σ 2 como σ̂ 2 = n i=1 Xi2 y demuestre que
este estimador es insesgado.
c)¿El estimador definido en el inciso anterior es UMVUE?
Solución:
Demostraremos que el estimador es insesgado:
Calculamos el valor esperado del estimador:
n n n
1X 2 1 X 2 1X
E(α2 ) = E( Xi ) = E( Xi ) = E(Xi2 )
n i=1 n i=1 n i=1
Para obtener E(Xi2 ) utilizaremos el hecho de que
V ar(X) = E(X 2 ) − [E(X)]2 ⇐⇒ E(X 2 ) = V ar(X) + [E(X)]2
Ası́, para nuestro caso particular
E(X 2 ) = σ 2 + µ2 = σ 2 + 0 = σ 2
Por lo tanto:
n
2 1X 1
E(σ̂ ) = E(Xi2 ) = (nσ 2 ) = σ 2
n i=1 n
y dado que:
E(σ̂ 2 ) = σ̂ 2 ∴ Es insesgado
c) Ahora veremos si es UMVUE. Para ello hay que analizar si
V ar(σ̂ 2 ) = CICR(σ 2 ). Entonces:
n
! n
! n
2 1X 2 1 X
2 1 X
V ar(σ̂ ) = V ar Xi = 2 V ar Xi = 2 V ar(Xi2 )
n i=1 n i=1
n i=1
2
Ası́, el problema se reduce en calcular V ar(Xi2 ).
Basta con notar que:
V ar(X 2 ) = E(X 4 ) − [E(X 2 )]2
pues
V ar(X) = E(X 2 ) − [E(X)]2
Sabemos que E(X 2 ) = σ 2 , y podemos calcular E(X 4 ) = (2n − 1)σ 2n , ası́
E(X 4 ) = 3σ 4 . Ası́:
V ar(X 4 ) = 3σ 4 − σ 4 = 2σ 4
Por lo tanto:
1 2σ 4
V ar(σ̂ 2 ) = 2
n(2σ 4 ) = = CICR(σ 2 )
n n
Por lo tanto es UMVUE.
3 Sea X1 , ..., Xn m.a. de una población con densidad Normal de parámetros
µ, σ 2 (ambos desconocidos).
a) Calcule la Cota Inferior de Cramer Rao para los estimadores de σ 2 .
Verifique
2σ 4
CIRC(σ 2 ) =
n
Pn
b)Defina un estimador de σ 2 como σ̂ 2 = n1 i=1 (Xi − X)2 y demuestre
que este estimador es insesgado.
c)¿El estimador definido en el inciso anterior es UNVUE?
3a) Notemos que tenemos una función de densidad normal como en el
inciso 1 − a), pero en este caso µ es desconocida.
Para calcular la Cota Inferior de Cramer Rao primero necesitamos calcular
I(σ 2 ).Recordemos que
∂2
I(σ 2 ) = −E( ln(fxi (xi , θ)))
∂θ2
Y en este caso tenemos que
∂2 ∂2 1 (x−µ)2
− 2θ
ln(f xi (x i , θ)) = ln( √ e )
∂θ2 ∂θ2 2πθ
además sabemos que
1 (x−µ)2 1 (x−µ)2
ln( √ e− 2θ ) = ln √ + ln e − 2θ
2πθ 2πθ
√ (x − µ)2
= −ln( 2πθ) −
2θ
3
Ası́, calculando la primera parcial tenemos que:
∂2 ∂2 √ (x − µ)2
1 (x−µ)2
− 2θ
ln( √ e ) = −ln( 2πθ) −
∂θ2 2πθ ∂θ2 2θ
(x − µ)2
∂ 2π
= − √ √ +
∂θ 2 2πθ 2πθ 2θ2
(x − µ)2
∂ 1
= − +
∂θ 2θ 2θ2
1 (x − µ)2
= 2
−
2θ θ3
Ahora solo queda calcular la esperanza negativa de lo anterior, ası́:
(x − µ)2 E((x − µ)2 )
1 1
−E 2
− 3
=− 2 +
2θ θ 2θ 2θ3
y como E((x − µ)2 ) = V ar(X) = σ 2 (donde estamos suponiendo θ = σ 2 ),
tenemos que
(x − µ)2 E((x − µ)2 )
1 1 1 θ −θ + 2θ
−E 2
− 3
= −E 2
+ = − 2+ 3 =
2θ θ 2θ θ3 2θ θ 2θ3
θ 1
= 3
= 2
2θ 2θ
Y como θ = σ 2 tenemos que
1 1 2σ 4
CIRC = = 1 =
nI(θ) n( 2σ4 ) n
3b) Primeramente, notemos que σ̂ 2 es muy parecido a la varianza muestral,
curiosamente dicha varianza cumple la propiedad de que E(S 2 ) = σ 2 .
Entonces, podemos demostrar que nuestro estimador es insesgado de la
siguiente manera.
Podemos establecer que
n
!
2 1 X 2
E(σ̂ ) = E (Xi − X̄)
n − 1 i=1
" n #
1 X
2 2
= E Xi − 2Xi X̄ + X̄
n−1 i=1
Ahora bien, enfocándonos en la parte derecha del producto anterior
4
"
n
# " n #
X X
2 2 2
E (Xi − X̄) = E (Xi − 2Xi X̄ + X̄ )
i=1 i=1
" n n n
#
X¯2
X X X
=E Xi2 − 2Xi X̄ +
i=1 i=1 i=1
" n n
#
X X
=E Xi2 − 2X̄ Xi + nX̄ 2
i=1 i=1
Por otro lado,
n
" # " n #
X X
2 2 2
E (Xi − X̄) = E (Xi − 2X̄ · nX̄ + nX̄
i=1 i=1
" n
#
X
=E Xi2 − nX̄ 2
i=1
n
X
= E(Xi2 ) − E(nX̄ 2 )
i=1
Considerando que
E(Xi2 ) = σ 2 + µ2
σ2
E(X̄ 2 ) = + µ2
n
Se sigue que,
" n # n
X X
2
E (Xi − X̄) = E(Xi2 ) − nE(X̄ 2 )
i=1 i=1
n
X σ2
= (σ 2 + µ2 ) − n( + µ2 )
i=1
n
= nσ 2 + nµ2 − σ 2 − nµ2
= nσ 2 − σ 2
= σ 2 (n − 1)
De modo que,
5
" n #
X
2
E (Xi − X̄) = (n − 1)σ 2
i=1
Pn
− X̄)2
i=1 (Xi
Ası́, E(σ 2 ) = E
n−1
" n #
1 X
2
= E (Xi − X̄)
n−1 i=1
1
= (n − 1)σ 2
n−1
= σ2
∴ σ̂ 2 es insesgado. Del mismo modo, podrı́amos establecer que la varianza
muestral S 2 es un estimador insesgado para σ 2 .
3c) Tenemos que para que el estimador σ̂ 2 sea UMVUE debe cumplir
con dos condiciones, la primera es que sea insesgado (ya lo comprobamos
anteriormente) y la segunda es que se necesita que su varianza sea la
mı́nima, asi que
n
!
2 1 X
V ar(σ̂ ) = V ar (Xi − X̄)2
n − 1 i=1
2 " n #
1 X
Xi2 2
= V ar − 2Xi X̄ + X̄
n−1 i=1
" n #
1 X
2 2
= V ar Xi − 2Xi X̄ + X̄
(n − 1)2 i=1
Sin embargo, en proba 1 estudiamos que dadas X1 , ..., Xn v.a.i cada una
de ellas con distribución N (µ, σ 2 ) . Entonces
(n − 1)(S 2 )
∼ χ2 (n − 1)
σ2
1
Pn 1
Pn
donde S 2 = n−1 2
i=1 (Xi − X̄) y X̄ = n i=1 Xi
Ası́ pues, podemos establecer lo siguiente
6
(n − 1)(σ̂ 2 )
Var = Var (χ2n−1 )
σ2
(n − 1)2
Var (σ̂ 2 ) = 2(n − 1)
σ4
2(n − 1)σ 4
Var (σ̂ 2 ) =
(n − 1)2
2(n − 1)σ 4
=
(n − 1)(n − 1)
2
= σ4
n−1
∴ σ̂ 2 no es UMVUE, ya que, la varianza del estimador no es igual a la CICR.
Nota.
Def. Se dice que un estimador para un parámetro es un UMVUE si es
insesgado y tiene varianza mı́nima dentro del conjunto de todos los esti-
madores insesgados para el mismo parámetro.
Media muestral. Sean X1 , ..., Xn v.a.i.i.d con media µ y varianza σ 2 . La
media muestral se define como la variable aleatoria
n
1X
X̄ = Xi
n i=1
Con ella se cumple que
E(X̄) = µ
σ2
E(X̄ 2 ) = n + µ2
σ2
V ar(X̄) = n
Varianza muestral. Sean X1 , ..., Xn v.a.i.i.d con media µ y varianza σ 2 . La
varianza muestral se define como la variable aleatoria
n
1 X
S2 = (Xi − X̄)2
n − 1 i=1
Con ella se cumple que E(S 2 ) = σ 2
1 3a)
7
Condiere X1,...,Xn m.a. del modelo poisson de parámetro λ :
λx −λ
fx (x) = P (X = x) = e , x ∈ [0, 1, .., n]
x!
a) Encuentre la función SCORE S(X1 , ..., Xn ; λ) = S(⃗x, λ) Solución:
∂
S(⃗x, λ) = ln fx (⃗x, λ)
∂λ
Por independencia:
n n
∂ Y ∂ X
= ln f xi (xi ; λ) = ln f xi (xi , λ)
∂λ i=1 ∂λ i=1
Sustituyendo y resolviendo:
n n n
∂ X λxi −λ ∂ X λ xi ∂ X
= ln( e )= (ln( ) − λ) = (ln(λxi ) − ln(xi !) − λ)
∂λ i=1 xi ! ∂λ i=1 xi ! ∂λ i=1
(1)
n n n
∂ X X xi 1 X
= (xi ln(λ)) − ln(xi !) − λ) = ( − 1) = ( xi ) − n (2)
∂λ i=1 i=1
λ λ i=1
1
Pn
Ası́, nuestra función SCORE es: λ( i=1 xi ) − n
b) Encuentre con base en la pregunta anterior un estimador insesgado
para λ que sea UMVUE
encontrar: aλ̂ + b con λ̂ insesgado y a, b ∈ R Solucion:
Para ello, debemos P
n
Proponemos λ̂= n1 i=1 xi
P.D. E(λ̂) = λ Veamos que:
n n n
1X 1X 1X nλ
E(λ̂) = E( xi ) = E(xi ) = λ= =λ
n i=1 n i=1 n i=1 n
Por lo tanto, λ̂ es incesgado. Ası́,
n
n X n n
S(⃗x, λ) = xi − n = λ̂ − n =⇒ a = , b = −n
λn i=1 λ λ