Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INFOX
Sesión 4
1 Propiedades de muestras finitas para β
logoinfox.png
logoinfox.png
logoinfox.png
logoinfox.png
In (θ) = −E [H(θ)]
En donde H denota la matriz hessiana, esto es, la matriz de derivadas
parciales de segundo orden de la función log de máxima verosimilitud.
logoinfox.png
(Y − X β)T (Y − X β)
L(β, σ ∗ 2) = (2πσ 2 )−n/2 exp{− }
2σ 2
Luego, en términos log:
n n (Y − X β)T (Y − X β)
` = lnL(β, σ 2 ) = − ln(2π) − ln(σ2) −
2 2 2σ 2 logoinfox.png
∂` 1
= − 2 (−2X T Y + 2X T X β)
∂β 2σ
∂` n (Y − X β)T (Y − X β)
= − +
∂σ 2 2σ 2 2(σ 2 )2
logoinfox.png
XTX (X T Y − X T X β)
− 2 −
∂2`
σ (σ 2 )2
=
∂θ∂θT (X T Y − X T X β) nσ 2 − 2(Y − X β)T (Y − X β)
−
(σ 2 )2 2σ 6
XTX XT
∂2` − 2 − 2 2
= σT (σ )
∂θ∂θT X nσ 2 − 2T
− 2 2
(σ ) 2σ 6
logoinfox.png
Y, la inversa:
σ 2 (X T X )−1
0
!
I 11 0
[In (θ)]−1 = 2σ4 =
0 0 I 22
n
Siguiendo la desigualdad de Cramer-Rao, I 11 constituye el límite inferior
para la matriz de varianza-covarianza de cualquier vector de estimadores
insesgados del vector de parámetros β, mientras que I 22 corresponde al
límite inferior para cualquier estimador de la varianza σ 2 .
De acuerdo a esto, el vector de estimadores β̂ de los parámetros β
satisface esta condición de eficiencia, dado que su matriz de
varianza-covarianza coincide con I 11 . logoinfox.png
logoinfox.png
β̃ = C T Y = C T X β + C T
C T = AT + D T = (X T X )−1 X T + D T
β̃ = β + C T
C T X = Ik = (AT + D T )X = Ik −→ AT X + D T X = Ik
Reemplazando AT obtenemos:
AT X = (X T X )−1 X T X = Ik
Por lo que:
DT X = 0
Podemos usar esta última ecuación para analizar la siguiente expresión:
D T A = D T X (X T X )−1 = 0
De igual manera AT D = 0
logoinfox.png
Var (β̃) = σ 2 C T C
AT A = (X T X )−1
Por lo que:
Var (β̃) = σ 2 (X T X )−1 + σ 2 D T D
logoinfox.png
Obtenemos
Var (β̃) = Var (β̂) + σ 2 D T D
o
Var (β̃) − Var (β̂) = σ 2 D T D
Considerando que D T D es una matriz semi definida, se puede deducir que:
β̂ ∼ N(β, σ 2 (X T X )−1 )
logoinfox.png
logoinfox.png
> M 2
∼ ξn−k
σ2
Siendo n − k el rango de M.
logoinfox.png
logoinfox.png
ˆT ˆ T M
σˆ2 = =
n−k n−k
Y calculamos:
1
E(σ̂ 2 ) = E(> M)
n−k
Para calcular E(> M) requerimos recordar la distribución chi-cuadrado
que vimos de manera que obtenemos:
> M 1
E( 2
) = 2 E(> M) = n − k
σ σ
Y luego,
E (T M) = σ 2 (n − k)
logoinfox.png
1 1
E (σˆ2 ) = E (T M) = σ 2 (n − k) = σ 2
n−k n−k
T M
Var ( ) = 2(n − k)
σ2
Esto en base a que la varianza de una variable con distribución
chi-cuadrado es igual a 2 veces los grados de libertad.
logoinfox.png
1 4 2σ 4
= 2(n − k)σ =
(n − k)2 n−k
Dado que σˆ2 no es lineal no puede ser MELI. A pesar de esto veamos la
eficiencia. La comparación de la varianza σ̂ 2 con elementos I 22 de la
matriz (In (θ))−1 permite deducir que el estimador no satisface la
desigualdad de Cramer-Rao, dado que I 22 6= var (σ̂ 2 ). Sin embargo, como
muestra Schmidt (1976) , no hay estimadro insesgado de σ 2 con una
varianza menor, por lo que puede decirse que σ̂ 2 es un estimador eficiente.
logoinfox.png