Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Heterocedasticidad
En el tema anterior estudiamos de una forma general los efectos que una
matriz de varianzas y covarianzas de las perturbaciones, Σ, no escalar causa
en la inferencia MCO, y obtuvimos un estimador (MCG) más eficiente.
En este tema supondremos que Σ es diagonal (no correlación entre las
perturbaciones) pero los elementos de la diagonal principal no son iguales,
es decir,
σ12 0 ··· 0
w1 0 ··· 0
0 σ22 ··· 0 2 0 w2 ··· 0
E(uu′ ) = Σ =
.. .. ... ..
= σ2Ω = σ .. .. ... ..
. . .
. . .
0 0 ··· σT2 0 0 ··· wT
21
22 CAPÍTULO 2. HETEROCEDASTICIDAD
Entonces
X X
var(ũj ) = var( ui ) = var(ui ) = nj σ 2
i∈gj i∈gj
donde
α = 10, β = 1, Xt = 1, ..., 50, y ut ∼ N (0, 0,5Xt2 )
Contrastes formales:
H0 : σ12 = σ22 = ... = σT2 donde σt2 = var(ut )
Ha : Heterocedasticidad.
26 CAPÍTULO 2. HETEROCEDASTICIDAD
Procedimiento:
4. Se construye el estadı́stico
σ̂22 H0
GQ = 2 ∼ F(T2 −K),(T1 −K)
σ̂1
donde K es el número de regresores en el modelo, incluido el término
independiente.
H0 : α1 = α2 = ... = αp = 0
Procedimiento:
Y = Xβ + u
Σ = E(uu′ ) = σ 2 Ω, donde Ω 6= I
PT 2
2 ũ′M CG Ω−1 ũM CG t=1 ũM CG,t /wt
σ̃M CG = =
T −K T −K
donde ũM CG = Y − X β̃.
30 CAPÍTULO 2. HETEROCEDASTICIDAD
Ejemplo 1 (cont.):
Yt = α + βXt + ut
σt2 = 0,5Xt2
Modelo transformado:
Yt 1 ut
=α +β+ .
Xt Xt Xt
!
ut var(ut ) 0,5Xt2
var = = = 0,5
Xt Xt2 Xt2
3. Sustituir σt2 por û2t en la estructura supuesta para σt2 y obtener una
estimación σ̂t2 =⇒ Σ̂.
32 CAPÍTULO 2. HETEROCEDASTICIDAD
q
4. Transformar el modelo original dividiendo cada observación entre σ̂t2 .
β̂ = (X ′ X)−1 X ′ Y
var(β̂) = (X ′ X)−1 X ′ ΣX(X ′ X)−1
= σ 2 (X ′ X)−1 X ′ ΩX(X ′ X)−1
û21 0 ··· 0
0 û22 ··· 0
S= .. .. ... ..
. . .
0 0 ··· û2T
donde ût son los residuos MCO ignorando la heterocedasticidad.
var(
d β̂) es un estimador consistente de var(β̂)
34 CAPÍTULO 2. HETEROCEDASTICIDAD
H0 : Rβ = r
Ha : Rβ 6= r.
Cuatro casos:
1. Σ = σ 2 Ω es totalmente conocida.
Los tres primeros son los que vimos en el tema anterior. En el último
debemos utilizar MCO.
H
(Rβ̂ − r)′ [R(X ′ X)−1 X ′ ΣX(X ′ X)−1 R′ ]−1 (Rβ̂ − r) ∼0 χ2q
2.6. CONTRASTES DE RESTRICCIONES LINEALES Y PREDICCIÓN 35
d,H
Fdd = (Rβ̂ − r)′ [R(X ′ X)−1 X ′ SX(X ′ X)−1 R′ ]−1 (Rβ̂ − r) −→0 χ2q
Yt = x′t β + ut t = 1, 2, ..., T,
donde x′t = (X1t , X2t , ..., Xkt ) es la fila t-ésima de la matriz X. Bajo hetero-
cedasticidad conocida (al menos hasta un término constante), la predicción
por punto óptima de YT +p es su esperanza matemática condicionada a la
información disponible
eT (p) = YT +p − ỸT +p
= uT +p − x′T +p (β̃M CG − β)
cuya varianza es
36 CAPÍTULO 2. HETEROCEDASTICIDAD
ya que β̃M CG depende de u1 , ..., uT , las cuales suponemos en este tema que
están incorrelacionadas entre si y con cualquier otra perturbación futura
como uT +p . Si en vez de MCG utilizamos la estimación MCO o MCGF de
β en la predicción (2.4) habrá que modificar (2.6) sustituyendo V ar(β̃M CG )
por la varianza del estimador correspondiente.
Bajo el supuesto de normalidad en las perturbaciones el predictor por
intervalo MCG para un nivel de confianza 1 − α es
q
ỸT +p ± z α
2
var(eT (p))
Yt = βXt + ut t = 1, ..., T,
var(ut ) = σ 2 Xt2
PT 4
2 t=1 Xt
var(β̂) = σ P 2
( Tt=1 Xt2 )
σ2
var(β̃) =
T
Denotemos zt = Xt2 . Entonces la relativa ineficiencia de MCO con respecto
a MCG es
P P 2
var(β̂) zt2 /T zt /T
= P =
var(β̃) ( zt /T )2 z̄ 2
P
donde z̄ = zt /T . Ahora
P 2
zt 1 X
= (zt − z̄)2 + z̄ 2
T T
con lo que el cociente de varianzas nos queda
1 P 1 P
var(β̂) T (zt − z̄)2 + z̄ 2 T (zt − z̄)2
= = +1>1
var(β̃) z̄ 2 z̄ 2
ya que el primer sumando siempre es positivo. Por lo tanto, en este modelo
MCG siempre es más eficiente que MCO.
38 CAPÍTULO 2. HETEROCEDASTICIDAD