Está en la página 1de 24

Econometría Avanzada

Jorge Florez Acosta


Heterocedasticidad,
autocorrelación y el modelo de
regresión generalizado
Recordemos el supuesto 4
Homoscedasticidad y no autocorrelación
Este supuesto establece las siguientes dos condiciones sobre observaciones
del error:
Var[εi |X] = σ 2 , para todo i = 1, . . . , n, (1)
Cov[εi , εj |X] = 0, para todo i 6= j. (2)

• La ecuación (1) se denomina homoscedasticidad.


• La ecuación (2) se denomina no autocorrelación.

3 /21
Recordemos el supuesto 4
Homoscedasticidad y no autocorrelación
Este supuesto establece las siguientes dos condiciones sobre observaciones
del error:
Var[εi |X] = σ 2 , para todo i = 1, . . . , n, (1)
Cov[εi , εj |X] = 0, para todo i 6= j. (2)

• La ecuación (1) se denomina homoscedasticidad.


• La ecuación (2) se denomina no autocorrelación.

En términos matriciales, (1) y (2) implican que:


E[ε1 ε1 |X] E[ε1 ε2 |X] ... E[ε1 εn |X] σ2 ...
   
0 0
E[ε2 ε1 |X] E[ε2 ε2 |X] ... E[ε2 εn |X]  0 σ2 ... 0
E[εε0 |X] = 

.. .. .. .. =. .. .. .. 
 . . . .
  .. . . .

E[εn ε1 |X] E[εn ε2 |X] ... E[εn εn |X] 0 0 ... σ 2

Que se puede reescribir como:


E[εε0 |X] = σ 2 I (3)
3 /21
Fallo del supuesto 4: Heterocedasticidad
Se presenta cuando diferentes observaciones del error tienen varianzas
distintas, es decir, la varianza ya no es constante y la condición (1) no se
cumple: Var[εi |X] = σi2 , i = 1, . . . , n.

En términos matriciales, la varianza del error es:


σ1 ... ω1 ...
 2   
0 0 0 0
0 σ22 ... 0 0 ω2 ... 0
E[εε0 |X] = 
 
 ... .. .. .. 
 = σ2 
 .. .. .. =σ Ω
.. 
2
. . . . . . .
0 0 ... σn2 0 0 ... ωn

Nota: En este caso, se supone que las perturbaciones no están


autocorrelacionadas.

4 /21
Fallo del supuesto 4: Autocorrelación
• Se presenta cuando las observaciones del término de error están
correlacionadas entre ellas.
• La autocorrelación se manifiesta en series de tiempo cuando es posible
detectar cierta “inercia” o tendencia clara en las observaciones.
• La condición (2) no se cumple: Cov[εi , εj |X] 6= 0, para todo i, j.

En términos matriciales, la varianza del error es:


ρ1 ... ρn−1
 
1
ρ1 1 ... ρn−2 
E[εε0 |X] = σ 2 

=σ Ω
2
 ... .. .. .. 
. . .
ρn−1 ρn−2 ... 1

Nota: En este caso, se supone que las perturbaciones son homocedásticas.


Hay casos en los que ambos problemas se pueden presentar al mismo
tiempo (Ej. panel de datos).

5 /21
El modelo de regresión generalizado

Si el supuesto 4 del modelo de regresión lineal no se cumple, decimos que


un modelo más general está caracterizado por:

y = Xβ + ε,
E[ε|X] = 0,
0
E[εε |X] = σ 2 Ω = Σ,

Ω es una matriz definida positiva.

6 /21
Estimación ineficiente por MCO

El estimador de MCO está dado por:

β̂ = (X0 X)−1 X0 y = β + (X0 X)−1 X0 ε

En el modelo generalizado, las propiedades del estimador son:


• Insesgado.
• Consistente.
• Asintóticamente normal.

Pero, debido a que E[εε0 |X] 6= σ 2 I, el estimador de MCO es ineficiente.

7 /21
Propiedades de muestra finita de β̂
Es insesgado. La varianza condicional del estimador de MCO:

Var(β̂|X) = E[(β̂ − β)(β̂ − β)0 |X]


= (X0 X)−1 X0 (σ 2 Ω)X(X0 X)−1

La varianza incondicional del estimador está dada por EX [Var(β̂|X)].

Si suponemos que el error tiene una distribución normal (sup. 6), entonces:

β̂|X ∼ N(β, σ 2 (X0 X)−1 (X0 ΩX)(X0 X)−1 )

¿Qué implicaciones tiene el cambio en la varianza?

8 /21
Propiedades de muestra finita de β̂
Es insesgado. La varianza condicional del estimador de MCO:

Var(β̂|X) = E[(β̂ − β)(β̂ − β)0 |X]


= (X0 X)−1 X0 (σ 2 Ω)X(X0 X)−1

La varianza incondicional del estimador está dada por EX [Var(β̂|X)].

Si suponemos que el error tiene una distribución normal (sup. 6), entonces:

β̂|X ∼ N(β, σ 2 (X0 X)−1 (X0 ΩX)(X0 X)−1 )

¿Qué implicaciones tiene el cambio en la varianza?


• Noten que la varianza del estimador ya no es σ 2 (X0 X)−1 .
• Además, s2 puede ser un estimador sesgado de σ 2 .
• Por tanto, la inferencia basada en s2 (X0 X)−1 es incorrecta.
• No se puede determinar si σ 2 (X0 X)−1 es mayor o menor que la varianza
verdadera.
• Las pruebas F y t ya no son apropiadas.
8 /21
Propiedades asintóticas de β̂
Consistencia en el modelo de regresión generalizado
Para garantizar la consistencia del estimador de MCO en el modelo
generalizado, es necesario establecer las siguientes condiciones:

1. Que los datos sean suficientemente “bien comportados”:

1 0
X X = Q, y
n
2. Que las matrices Q y plim n1 X0 ΩX sean finitas y definidas positivas .


Bajo estas condiciones:

plim β̂ = β

9 /21
Propiedades asintóticas de β̂
Distribución asintótica en el modelo de regresión generalizado
Si los regresores se comportan “suficientemente bien” y los elementos fuera
de la diagonal principal de Ω decrecen suficientemente rápido, entonces el
estimador de MCO en el modelo generalizado se distribuye asintóticamente
normal con media β y matriz de covarianzas:
 
σ 2 −1 1 0
Asy. Var(β) = Q plim X ΩX Q−1 ,
n n

con Q = plim (X0 X/n).


Notas:
• Este resultado se deriva de la aplicación de uno de los teoremas del
Límite Central que admiten varianzas heterogéneas.
• La condición para aplicar el Teorema es que las perturbaciones sean
heteroscedasticas, no correlacionadas y que las varianzas de εi sean
finitas y no están dominadas por ningún término único.

10 /21
Estimación eficiente: Mínimos cuadrados generalizados
Dada la presencia de Ω, la estimación eficiente de β requiere:
• Conocer la matriz, o
• Estimarla.

Caso 1: la matriz Ω es conocida


Suponga que Ω es definida positiva y simétrica. Entonces, se puede
factorizar como:
Ω = CΛC0
C: matriz cuadrada que contiene los vectores característicos de Ω.
Λ: matriz diagonal que contiene los valores propios de Ω.

Defina: √
Λ1/2 : matriz diagonal con iésimo elemento λi .
T = CΛ1/2 ⇒ Ω = TT0 : Descomposición de Cholesky.
Ω−1 = (T0 )−1 T−1 : Inversa de la matriz.
Ω−1 = P0 P, con P0 = CΛ−1/2 .

11 /21
Estimación eficiente: Mínimos cuadrados generalizados
Premultiplicando el modelo por P, obtenemos:

Py = PXβ + Pε,

Que se puede reescribir como:

y∗ = X∗ β + ε∗ ,

La varianza condicional de ε∗ está dada por:

E[ε∗ ε0∗ |X∗ ] = Pσ 2 ΩP0 = σ 2 I,

Este nuevo modelo, es similar al modelo de regresión lineal clásico en el que


MCO produce un estimador eficiente:

β̂G = (X0∗ X∗ )−1 X0∗ y∗ ,


= (X0 Ω−1 X)−1 X0 Ω−1 y,

Es el estimador de mínimos cuadrados generalizados (MCG) de β.

12 /21
Propiedades del estimador de MCG
El estimador de MCG es:
1. Insesgado: Si E[ε∗ |X∗ ] = 0 (en últimas, si E[ε|X] = 0), entonces:

E[β̂G |X∗ ] = β.

2. Consistente: si plim (1/n)X0∗ X∗ = Q∗ , con Q∗ siendo una matriz finita y


definida positiva, entonces:
 −1
= Q∗ −1
1 0 −1
plim XΩ X
n

Los datos transformados se deben “comportar bien”.


3. Asintóticamente normal: β̂G se distribuye asintóticamente normal con
media β y varianza:

Var(β̂G |X∗ ) = σ 2 (X0∗ X∗ )−1 = σ 2 (X0 Ω−1 X)−1

β̂G es el estimador lineal e insesgado de mínima varianza en el modelo


de regresión lineal generalizado.
13 /21
Normalidad asintótica de β̂
El estimador de MCG se puede escribir como:

β̂G = β + (X0 Ω−1 X)−1 X0 Ω−1 ε.

El estimador de MCG es asintóticamente normal si la distribución límite de


√ √
n(β̂G − β) = n(X0 Ω−1 X)−1 X0 Ω−1 ε,

es normal. La expresión anterior se puede reescribir como:


−1


1 0 −1
√ X0 Ω−1 ε.
1
n(β̂G − β) = XΩ X
n n

Si plim n1 X0 Ω−1 X = Q∗ , entonces la distribución límite de la expresión


 

anterior es la misma que la de la expresión siguiente:

zn = Q∗ −1 √ X0 Ω−1 ε.
1
n

14 /21
Mínimos cuadrados generalizados factibles
Caso 2: La matriz Ω es desconocida
• Cuando Ω tiene parámetros desconocidos, MCG no es factible.
• Si todas las entradas de la matriz son independientes, habría que
estimar una matriz n × n de parámetros desconocidos adicionales.
• Esto no es factible con n obs. Hay que imponer estructura.
• Por ejemplo, en series de tiempo se modela la autocorrelación así:

ρ ρ2 ρ3 ... ρn−1
 
1
 ρ 1 ρ ρ2 ... ρn−2 
Ω(ρ) = 
 ... .. .. .. .. 
...
. . . .

ρn−1 ρn−2 ... 1

• El problema típico debe tener un conjunto reducido de parámetros α tal


que Ω = Ω(α).
• Suponga que α̂ es un estimador consistente de α.
• Entonces, Ω̂ = Ω(α̂) es asintóticamente equivalente a usar Ω.
• Con esto, MCG vuelve a ser factible.
15 /21
Mínimos cuadrados generalizados factibles
Defina el estimador de Mínimos cuadrados generalizados factibles (MCGF)
como:
β̂GF = (X0 Ω̂−1 X)−1 X0 Ω̂−1 y
Este estimador se puede reescribir así:
β̂GF = β + (X0 Ω̂−1 X)−1 X0 Ω̂−1 ε.
El estimador debe cumplir dos condiciones para ser asintóticamente
equivalente al de MCG:
1. Si la suma de cuadrados ponderados por Ω converge a una matriz
definida positiva, entonces, la suma ponderada por Ω̂ debe converger a
la misma matriz:
   
1 0 −1 1 0 −1
plim X Ω̂ X − XΩ X = 0,
n n
2. Si los regresores transformados se “comportan bien”, entonces, el
segundo término tiene una distribución normal en el límite.
   
√ X0 Ω̂−1 ε − √ X0 Ω−1 ε
1 1
plim = 0,
n n
16 /21
Mínimos cuadrados generalizados factibles

Si estas condiciones se cumplen, entonces, las propiedades asintóticas de


MCGF son las mismas que el de MCG.

En particular:

Eficiencia del estimador de MCGF


• Un estimador de MCGF asintóticamente eficiente no requiere un
estimador eficiente para α.
• Con un estimador consistente basta para obtener un estimador de
MCGF completamente eficiente.

Por otro lado, las propiedades de muestra finita y distribuciones exactas de


los estimadores de MCGF son desconocidas.

17 /21
Pruebas para detectar
heteroscedasticidad
Pruebas para detectar heteroscedasticidad

Los tests de heteroscedasticidad se basan en la soguiente lógica:


• El estimador de MCO es consistente aún bajo heteroscedasticidad.
• Los residuales imitarán (imperfectamente) la estructura de los errores.
• Estos revelarán información clave para saber si hay heteroscedasticidad.

Por esto, las pruebas de heteroscedasticidad se aplican a los residuales.

Hay dos pruebas comunmente usadas:

– El test de White.
– El test de multiplicador de Lagrange de Breuch-Pagan/Godfrey.

19 /21
El test general de White
Una hipótesis que se buscaría testear es:

H0 : σi2 = E[εi2 |xi ] = σ 2 , para todo i


H1 : negación de H0

Para construir un estadístico de contraste, se siguen los siguientes pasos:


1. Efectuar la regresión del modelo original por MCO y obtener los
residuales.
2. Regresar el cuadrado de los residuales contra las regresoras, sus
cuadrados y todas las interacciones posibles entre ellas, incluyendo la
constante.
3. Tomar el R 2 del paso 2 y construir el siguiente estadístico:

nR 2 ∼ χP−1
2

4. Regla de decisión: Si nR 2 > χα,P−1


2
se rechaza la hipótesis nula.

20 /21
El test de multiplicador de Lagrange de
Breuch-Pagan/Godfrey
Consiste en aplicar una prueba de multiplicador de Lagrange a la hipótesis
nula de que la varianza sigue cierta estructura conocida:

σi2 = σ 2 f (α0 + α0 zi )

zi : vector de variables independientes.


El modelo será homocedástico si α = 0. El estadístico de prueba es:

LM = suma explicada de los cuadrados de la regresión de e2i /(e0 e/n) sobre zi


1
2
Si Z es la matriz n × P de regresoras incluyendo una constante y g el
vector de observaciones de gi = e2i /(e0 e/n) − 1, entonces:

LM = [g0 Z(Z0 Z)−1 Z0 g]


1
2
LM ∼ χP2 , bajo la hipótesis nula de homoscedasticidad

21 /21
¿Preguntas? ¿Comentarios? ¿Sugerencias?

jorge.florez@urosario.edu.co

¡Gracias!

También podría gustarte