Está en la página 1de 18

Capı́tulo 2

Heterocedasticidad

2.1. Definición y causas


Heterocedasticidad:.
varianzas de las perturbaciones no constantes
Homocedasticidad:
varianza de las perturbaciones iguales,
var(ut ) = σ 2 para todo t

En el tema anterior estudiamos de una forma general los efectos que una
matriz de varianzas y covarianzas de las perturbaciones, Σ, no escalar causa
en la inferencia MCO, y obtuvimos un estimador (MCG) más eficiente.
En este tema supondremos que Σ es diagonal (no correlación entre las
perturbaciones) pero los elementos de la diagonal principal no son iguales,
es decir,
   

σ12 0 ··· 0  
w1 0 ··· 0 
   
 0 σ22 ··· 0  2 0 w2 ··· 0 
E(uu′ ) = Σ = 
 .. .. ... .. 
 = σ2Ω = σ  .. .. ... .. 


 . . . 


 . . . 

0 0 ··· σT2 0 0 ··· wT

donde σt2 = σ 2 wt = var(ut ), t = 1, ..., T .

21
22 CAPÍTULO 2. HETEROCEDASTICIDAD

Situaciones con posible heterocedasticidad:

Caso 1: Datos de corte transversal: Heterocedasticidad causada por regre-


sor.
Yi = α + βXi + ui i = 1, 2, ..., n. (2.1)

Yi : gasto en consumo de la familia i.


Xi : renta de la familia i.

σi2 = f (Xi ), f ′ > 0

Caso 2: Datos agregados: Sea el modelo (2.1) con perturbaciones esféricas


u ∼ (0, σ 2 I). Supongamos que no tenemos acceso a los n datos sino
que disponemos de datos agregados en m grupos g1 , ..., gm , siendo nj
el número de observaciones en el grupo gj .
X X X X
Yi = α+β Xi + ui j = 1, 2, ..., m,
i∈gj i∈gj i∈gj i∈gj

Ỹj = nj α + β X̃j + ũj j = 1, 2, ..., m.

Entonces
X X
var(ũj ) = var( ui ) = var(ui ) = nj σ 2
i∈gj i∈gj

Un caso similar tenemos con datos promedio donde la perturbación


serı́a ūj = ũj /nj y su varianza σ 2 /nj que también varı́a con j.
2.1. DEFINICIÓN Y CAUSAS 23

Ejemplo 1: Sea una muestra de 50 observaciones del modelo

Yt = α + βXt + ut t = 1, 2, ..., 50,

donde
α = 10, β = 1, Xt = 1, ..., 50, y ut ∼ N (0, 0,5Xt2 )

Figura 2.1: Perturbaciones heterocedásticas


24 CAPÍTULO 2. HETEROCEDASTICIDAD

Las estimaciones MCO y MCG nos quedan

Figura 2.2: Modelo real y estimaciones MCO y MCG


2.2. DETECCIÓN DE LA HETEROCEDASTICIDAD 25

2.2. Detección de la heterocedasticidad

2.2.1. Métodos gráficos


Variable explicada frente a la variable que suponemos causa
la heterocedasticidad.
Residuos MCO frente a la variable que suponemos causa la
heterocedasticidad.
Residuos MCO frente a la estimación MCO de la variable
explicada. Cuando no está clara la variable que explica la heteroce-
dasticidad la estimación de la variable explicada recogerá la influencia
de todas las variables relevantes, entre las que probablemente se en-
contrarán aquellas que causan la heterocedasticidad.

Contrastes formales:
H0 : σ12 = σ22 = ... = σT2 donde σt2 = var(ut )
Ha : Heterocedasticidad.
26 CAPÍTULO 2. HETEROCEDASTICIDAD

2.2.2. Contraste de Goldfeld y Quandt

Ha : σt2 = f (zt ) donde f ′ (zt ) > 0 ∀t ( ó f ′ (zt ) < 0 ∀t)

Procedimiento:

1. Se ordenan las observaciones de toda la muestra según los valores


crecientes (o decrecientes) de zt .
2. Se omiten P observaciones centrales y nos quedamos con dos submues-
tras de T1 y T2 observaciones.
3. Se estima el modelo original por MCO y se obtienen las estimaciones
de las varianzas de las perturbaciones en cada submuestra
PT 1 2 PT2 2
t=1 û1t t=1 û2t
σ̂12 = , σ̂22 = ,
T1 − K T2 − K

4. Se construye el estadı́stico
σ̂22 H0
GQ = 2 ∼ F(T2 −K),(T1 −K)
σ̂1
donde K es el número de regresores en el modelo, incluido el término
independiente.

Regla de decisión: Rechazar la hipótesis de homocedasticidad para


un nivel de significación α si GQ > F(T2 −K),(T1 −K)|α .
2.2. DETECCIÓN DE LA HETEROCEDASTICIDAD 27

2.2.3. Contraste de Breusch y Pagan

Ha : σt2 = h(αo + α1 z1t + ... + αp zpt ).

Bajo esta especificación de σt2 el contraste de homocedasticidad se reduce


a contrastar

H0 : α1 = α2 = ... = αp = 0

ya que σt2 = h(α0 ) es una constante que no varı́a con t.

Procedimiento:

1. Se estima el modelo por MCO y se obtienen los correspondientes re-


siduos ût .
2. Se calculan
û2t
ê2t = , t = 1, 2, ..., T,
σ̂u2
donde σ̂u2 es un estimador consistente de la varianza de la perturbación
P 2
bajo la hipótesis de homocedasticidad (normalmente σ̂u2 = Tût ).
3. Regresar por MCO

ê2t = αo + α1 z1t + ... + αp zpt + ηt t = 1, ..., T.

Calcula la suma de cuadrados explicada, SCE.


4. El estadı́stico de contraste será:
SCE d,H0 2
BP = → χp
2
donde p es el número de variables z1 , ..., zp .
Regla de decisión: Rechazar la hipótesis nula de homocedasticidad
a un nivel de significación α si BP > χ2p|α .
28 CAPÍTULO 2. HETEROCEDASTICIDAD

2.3. MCG: Mı́nimos Cuadrados Ponderados

Y = Xβ + u

Σ = E(uu′ ) = σ 2 Ω, donde Ω 6= I

β̃M CG = (X ′ Ω−1 X)−1 X ′ Ω−1 Y = (X ′ Σ−1 X)−1 X ′ Σ−1 Y


var(β̃M CG ) = (X ′ Σ−1 X)−1 = σ 2 (X ′ Ω−1 X)−1

En el caso de perturbaciones heterocedásticas y no correlacionadas,

β̃ = (X ′ Σ−1 X)−1 X ′ Σ−1 Y


 P 2 P X1t X2t P X1t Xkt −1  
X1t P X1t Yt
 σ2 σt2 ··· σt2  σ2
 P t   P X2ttYt 
 X2t X1t P X2t
2 P X2t Xkt   

 σt2 σt2 ··· σt2 


 σt2


=  . .. . . . ...   .
 .

 .. .   .


   P 
 P P XKt X2t P XKt2  XKt Yt
XKt X1t
σt2 σt2 ··· σ2 σt2
t

que no es más que el estimador de MCO en el modelo:


Yt X1t X2t XKt ut
= β1 + β2 + . . . + βK + .
σt σt σt σt σt
!
ut var(ut ) σt2
var = = 2 =1
σt σt2 σt
Por lo tanto MCG es MC ponderados dando una mayor ponderación a
aquellas observaciones con una menor varianza.

Teorema Gauss-Markov: β̃M CG es el estimador lineal insesgado de


varianza mı́nima ya que el modelo transformado cumple todas las
hipótesis básicas.
2.3. MCG: MÍNIMOS CUADRADOS PONDERADOS 29

Si sólo conocemos Ω entonces


 

w1 0 ··· 0 
 
2 0 w2 ··· 0 
Σ = σ2Ω = σ  .. .. ... .. 


 . . . 

0 0 ··· wT

β̃ = (X ′ Ω−1 X)−1 X ′ Ω−1 Y

se obtiene aplicando MCO al modelo transformado


Yt X1t X2t XKt ut
√ = β1 √ + β2 √ + . . . + βK √ + √
wt wt wt wt wt
de forma que las perturbaciones de este modelo son homocedásticas con
varianza σ 2 ,
 
ut  var(ut ) σ 2 wt

var √ = = = σ2.
wt wt wt

Como σ 2 es la varianza de las perturbaciones en el modelo transforma-


do, donde se cumplen todas las hipótesis básicas del MRLG, entonces un
estimador insesgado y consistente de σ 2 es
PT ∗2
2 t=1 ût
σ̃M CG = ,
T −K
donde los û∗t son los residuos MCO en el modelo transformado (û∗t = √Yt −
wt
XKt
β̃1 √Xw1tt − . . . − β̃K √wt ).

PT 2
2 ũ′M CG Ω−1 ũM CG t=1 ũM CG,t /wt
σ̃M CG = =
T −K T −K
donde ũM CG = Y − X β̃.
30 CAPÍTULO 2. HETEROCEDASTICIDAD

Ejemplo 1 (cont.):

Yt = α + βXt + ut
σt2 = 0,5Xt2

Modelo transformado:
Yt 1 ut
=α +β+ .
Xt Xt Xt
!
ut var(ut ) 0,5Xt2
var = = = 0,5
Xt Xt2 Xt2

Figura 2.3: Perturbaciones homocedásticas


2.4. MCGF: MODELIZACIÓN DE LA HETEROCEDASTICIDAD 31

2.4. MCGF: Modelización de la heterocedasticidad

En la práctica, rara vez se conoce la forma de las varianzas (Σ ó Ω)


con lo que la estimación MCG no es factible. A menudo debemos obtener
una estimación previa de Σ o Ω. Ası́, el estimador de Mı́nimos Cuadrados
Generalizados Factibles (MCGF) se define como

β̃M CGF = (X ′ Σ̂−1 X)−1 X ′ Σ̂−1 Y (2.2)


= (X ′ Ω̂−1 X)−1 X ′ Ω̂−1 Y (2.3)

donde Σ̂ (Ω̂) es un estimador adecuado de Σ (Ω). MCGF tendrá las mismas


propiedades asintóticas que MCG.
En el caso de que las perturbaciones sean heterocedásticas pero man-
tengan la no correlación, la estimación de Σ o Ω se reduce a estimar las
varianzas de las perturbaciones. Para ello necesitamos alguna información
previa sobre la forma de las varianzas ya que de otra forma solo tendrı́amos
una observación para estimar la varianza en el periodo correspondiente.
Ası́ necesitamos imponer una forma funcional en el comportamiento de las
varianzas de manera que éstas dependan de un número reducido de paráme-
tros desconocidos. La información necesaria para estimar estos parámetros,
y por lo tanto estas varianzas se extraerá de los residuos MCO. Ası́, los
pasos a seguir en la estimación MCGF son los siguientes:

1. Estimar el modelo por MCO ignorando la heterocedasticidad, y obte-


ner los residuos ût .

2. Establecer un supuesto fiable acerca de la estructura de la sucesión


σt2 .

3. Sustituir σt2 por û2t en la estructura supuesta para σt2 y obtener una
estimación σ̂t2 =⇒ Σ̂.
32 CAPÍTULO 2. HETEROCEDASTICIDAD
q
4. Transformar el modelo original dividiendo cada observación entre σ̂t2 .

5. Estimar el modelo transformado por MCO.

El estimador MCGF se obtiene por lo tanto a través de dos estima-


ciones, la requerida para obtener σ̂t2 y la posterior aplicación de MCO al
modelo transformado. En consecuencia, a este estimador también se le co-
noce como estimación en dos etapas. Los pasos 4 y 5 se pueden sustituir
por la aplicación directa de la fórmula β̃M CGF = (X ′ Σ̂−1 X)−1 X ′ Σ̂−1 Y .
2.5. ESTIMADOR DE WHITE DE V AR(β̂M CO ) 33

2.5. Estimador de White de V ar(β̂M CO )

Las propiedades del estimador MCGF se basan en que la forma funcional


que suponemos para las varianzas sea la correcta, lo que posibilita una
estimación consistente de Σ. Si desconocemos esa forma funcional, entonces
el estimador Σ̂ será probablemente inconsistente y por lo tanto resulta más
adecuado utilizar MCO, que al menos será insesgado y consistente.

β̂ = (X ′ X)−1 X ′ Y
var(β̂) = (X ′ X)−1 X ′ ΣX(X ′ X)−1
= σ 2 (X ′ X)−1 X ′ ΩX(X ′ X)−1

Para realizar inferencia sobre β necesitamos conocer o poder estimar var(β̂).


Utilizamos MCO por que no conocemos Σ (con lo que no podemos aplicar
MCG) y no podemos estimarla de forma fiable (sino utilizarı́amos MCGF).
¿Solución?
Estimador de White de var(β̂):

d β̂) = (X ′ X)−1 X ′ SX(X ′ X)−1


var(

 

û21 0 ··· 0 
 


0 û22 ··· 0 

S=  .. .. ... .. 

 . . . 

0 0 ··· û2T
donde ût son los residuos MCO ignorando la heterocedasticidad.

var(
d β̂) es un estimador consistente de var(β̂)
34 CAPÍTULO 2. HETEROCEDASTICIDAD

2.6. Contrastes de restricciones lineales y predicción


2.6.1. Contrastes de restricciones lineales

H0 : Rβ = r
Ha : Rβ 6= r.

Cuatro casos:

1. Σ = σ 2 Ω es totalmente conocida.

2. Ω es conocida pero desconocemos σ 2 .

3. Ω es desconocido pero podemos establecer supuestos fiables sobre la


forma de la heterocedasticidad.

4. Desconocemos totalmente cuál es la forma de la heterocedasticidad.

Los tres primeros son los que vimos en el tema anterior. En el último
debemos utilizar MCO.

Heterocedasticidad totalmente desconocida

En este caso no podemos aplicar MCG, y MCGF nos darı́a estimadores


inconsistentes cuya distribución asintótica es desconocida. Utilizamos el
estimador MCO, β̂, ya que sabemos que si las perturbaciones tienen una
distribución Normal

β̂ ∼ N (β, (X ′ X)−1 X ′ ΣX(X ′ X)−1 )

de forma que si la hipótesis nula es cierta

H
(Rβ̂ − r)′ [R(X ′ X)−1 X ′ ΣX(X ′ X)−1 R′ ]−1 (Rβ̂ − r) ∼0 χ2q
2.6. CONTRASTES DE RESTRICCIONES LINEALES Y PREDICCIÓN 35

Como la matriz de varianzas y covarianzas de β̂ es desconocida debemos


utilizar un estimador consistente que nos asegure que esta distribución se
mantiene, al menos asintóticamente. El estimador a utilizar será el estima-
dor de White de forma que

d,H
Fdd = (Rβ̂ − r)′ [R(X ′ X)−1 X ′ SX(X ′ X)−1 R′ ]−1 (Rβ̂ − r) −→0 χ2q

y la regla de decisión, sólo válida para muestras grandes, es rechazar la


hipótesis nula a un nivel de significación α si Fdd > χ2q|α .

2.6.2. Implicaciones sobre la predicción

Escribamos el modelo como

Yt = x′t β + ut t = 1, 2, ..., T,

donde x′t = (X1t , X2t , ..., Xkt ) es la fila t-ésima de la matriz X. Bajo hetero-
cedasticidad conocida (al menos hasta un término constante), la predicción
por punto óptima de YT +p es su esperanza matemática condicionada a la
información disponible

ỸT +p = x′T +p β̃M CG (2.4)

donde suponemos que x′T +p es conocido y las perturbaciones tienen media


condicionada nula. La heterocedasticidad sólo influye en la predicción por
punto a través de la estimación de β. En la predicción cometemos un error

eT (p) = YT +p − ỸT +p
= uT +p − x′T +p (β̃M CG − β)

cuya varianza es
36 CAPÍTULO 2. HETEROCEDASTICIDAD

var(eT (p)) = σT2 +p + x′T +p V ar(β̃M CG )xT +p (2.5)


− 2Cov(uT +p , x′T +p (β̃M CG − β))
= σT2 +p + x′T +p V ar(β̃M CG )xT +p (2.6)
= σT2 +p + x′T +p (X ′ Σ−1 X)−1 xT +p

ya que β̃M CG depende de u1 , ..., uT , las cuales suponemos en este tema que
están incorrelacionadas entre si y con cualquier otra perturbación futura
como uT +p . Si en vez de MCG utilizamos la estimación MCO o MCGF de
β en la predicción (2.4) habrá que modificar (2.6) sustituyendo V ar(β̃M CG )
por la varianza del estimador correspondiente.
Bajo el supuesto de normalidad en las perturbaciones el predictor por
intervalo MCG para un nivel de confianza 1 − α es
 q 
ỸT +p ± z α
2
var(eT (p))

donde z α2 es el cuantil correspondiente de una N (0, 1).


2.7. APÉNDICE: EJERCICIO RECOMENDADO 37

2.7. Apéndice: Ejercicio recomendado

Demostración de la ineficiencia de MCO en un caso sencillo:

Yt = βXt + ut t = 1, ..., T,
var(ut ) = σ 2 Xt2

PT 4
2 t=1 Xt
var(β̂) = σ P 2
( Tt=1 Xt2 )
σ2
var(β̃) =
T
Denotemos zt = Xt2 . Entonces la relativa ineficiencia de MCO con respecto
a MCG es
P P 2
var(β̂) zt2 /T zt /T
= P =
var(β̃) ( zt /T )2 z̄ 2
P
donde z̄ = zt /T . Ahora
P 2
zt 1 X
= (zt − z̄)2 + z̄ 2
T T
con lo que el cociente de varianzas nos queda
1 P 1 P
var(β̂) T (zt − z̄)2 + z̄ 2 T (zt − z̄)2
= = +1>1
var(β̃) z̄ 2 z̄ 2
ya que el primer sumando siempre es positivo. Por lo tanto, en este modelo
MCG siempre es más eficiente que MCO.
38 CAPÍTULO 2. HETEROCEDASTICIDAD

También podría gustarte