Está en la página 1de 32

Econometría.

Universidad Nacional de Huancavelica

Julio 2016.
Autocorrelación

Definición.
Consecuencias.
Causas.
Detección.
Medidas para reducir los efectos.
El término autocorrelación se define como la
correlación entre miembros de series de
observaciones ordenadas en el tiempo (como en
datos de series de tiempo) o en el espacio (como
datos de corte transversal).

Supuesto:

𝑐𝑜𝑣 𝜀𝑖 ,𝜀𝑗 𝑥𝑖 ,𝑥𝑗 = 𝐸 𝜀𝑖 , 𝜀𝑗 = 0, 𝑖 ≠ 𝑗


Se puede distinguir dos tipos de autocorrelación.

- Autocorrelación espacial y se presenta cuando


trabajamos con modelos de corte transversal.

- Autocorrelación serial, se presenta al trabajar


con series de tiempo.

Las siguientes páginas sólo se concentrarán en la


discusión de la segunda forma de autocorrelación.
El primer modelo sugerido para representar la autocorrelación,
basado en los modelos de series de tiempo es el modelo
autorregresivo:

𝜀𝑡 = 𝜌1 𝜀𝑡−1 + 𝜌2 𝜀𝑡−2 +….. +𝜌𝑝 𝜀𝑡−𝑝 + 𝑣𝑡

Este modelo es conocido por su abreviación. En este caso, el


modelo presentado sería un 𝐴𝑅(𝑝). Esto nos indica que la
variable en cuestión sólo es explicada por sus valores pasados.

El término 𝑣𝑡 es un ruido blanco y representa los shocks a los


cuales está sometido el proceso que gobierna la evolución del
término de error.
El otro modelo utilizado como representación estadística de
un proceso con autocorrelación es el que se denomina de
medias móviles:

𝜀𝑡 = 𝑣𝑡 + 𝜃1 𝑣𝑡−1 + 𝜃2 𝑣𝑡−2 +….. +𝜌𝑞 𝑣𝑡−𝑞

Este modelo es conocido también por su abreviación. Así, en


este caso tendremos que este modelo será un 𝑀𝐴(𝑞). Este
proceso supone que el término de error es una combinación
lineal de varios shocks pasados. El orden del modelo viene
dado por los rezagos de los ruidos blancos incluidos.
Un tercer modelo que usualmente se utiliza es una
combinación de los dos anteriores. Este es conocido
como el modelo Autorregresivo y de Medias Móviles:

𝜀𝑡 = 𝜌1 𝜀𝑡−1 + 𝜌2 𝜀𝑡−2 +….. +𝜌𝑝 𝜀𝑡−𝑝 + 𝑣𝑡 + 𝜃1


𝑣𝑡−1 + 𝜃2 𝑣𝑡−2 +….. +𝜌𝑞 𝑣𝑡−𝑞

Las siglas del modelo son 𝐴𝑅𝑀𝐴(𝑝, 𝑞). Ello implica


que existen 𝑝 rezagos del error y también que se
incluyen 𝑞 rezagos de shocks pasados dentro de la
estructura del error.
Consecuencias de la autocorrelación.

Los problemas asociados a la presencia de


autocorrelación son similares a los que enfrentamos
cuando los errores son heteroscedásticos.

Los estimadores MCO se mantienen insesgados pero


dejan de ser eficientes. Esto implica que la varianza
aumenta por lo que la volatilidad de los estimadores
aumenta. Sin embargo, en términos de la estimación
en la práctica ocurre lo contrario.
Dado que los programas econométricos utilizan el
estimador MCO, lo que ocurre es que calculan la
varianza siguiendo la fórmula tradicional de MCO
la cual nos da desviaciones estándar menores.

Por tanto, éstas son usualmente subestimadas lo


que conduce a una sobreestimación de los
estadísticos-𝑡 y a problemas de inferencia dado
que nuestras conclusiones serían erróneas.
Causas de la autocorrelación.

Presencia de ciclos económicos.

Muchas de las variables económicas que analizamos


presentan un comportamiento cíclico. En economías
de mercado existe una proclividad a que las series
económicas se muevan de manera conjunta y que
presenten cierto comportamiento en donde las
elevaciones tanto por encima como por debajo de su
media muestren cierta persistencia.
Presencia de relaciones no lineales.
En muchos casos puede ocurrir que a pesar que el
modelo es lineal en los parámetros la relación sea no
lineal en las variables. Una de las posibilidades es que
la relación sea cuadrática y ello no ha sido incluido en
el modelo. Esto podría ser una de las razones por las
que se podría encontrar la presencia de
autocorrelación en el modelo.

Mala especificación del modelo.


La perturbación de un modelo recoge la influencia de
aquellas variables que afectan el comportamiento de la
variable dependiente pero que no han sido incluidas
en el modelo.
Fenómeno de la telaraña.
La oferta de muchos productos agrícolas refleja el llamado el
fenómeno de la telaraña, en donde la oferta reacciona al precio con
un rezago de un periodo debido a la instrumentación de las
decisiones de oferta tarda algún tiempo (periodo de gestación).

𝑂𝑓𝑒𝑟𝑡𝑎𝑡 = 𝛽1 + 𝛽2 𝑃𝑡−1 + 𝜀𝑡
Rezagos.
En una regresión de series de tiempo del gasto de consumo sobre el
ingreso no es extraño encontrar que el gasto de consumo en el
periodo actual dependa, entre otras cosas, del gasto de consumo del
periodo anterior.

𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑡 = 𝛽1 + 𝛽2 𝐼𝑛𝑔𝑟𝑒𝑠𝑜𝑡 + 𝛽2 𝐶𝑜𝑛𝑠𝑢𝑚𝑜𝑡−1 + 𝜀𝑡

Una regresión como esta se conoce como autoregresión por que la


variable explicativa es el valor rezagado de la variable dependiente.
¿Cómo es la matriz de varianzas y covarianzas
del error cuando existe autocorrelación?

Cuando los errores son no esféricos, debemos


aplicar el estimador 𝑀𝐶𝐺.

Ello implica determinar la forma de las matrices.


Analizaremos en este caso las formas de dichas
matrices para el caso de un error que sigue un
modelo 𝐴𝑅(1) y 𝑀𝐴(1).
Proceso 𝐴𝑅(1)

Suponga:
𝜀𝑡 = 𝜌 𝜀𝑡−1 + 𝑣𝑡

−1 < 𝜌 < 1
𝑣𝑡 cumple todas las condiciones de Gauss-Markov.
Esta representación implica que 𝜀𝑡 depende sólo de los
valores pasados de 𝑣𝑡 .

Esta expresión puede escribirse de la siguiente manera:


𝜀𝑡 = 𝜌 𝐿𝜀𝑡 + 𝑣𝑡
Donde 𝐿 es el operador de rezago. Este operador
tiene la propiedad que si se aplica sobre cualquier
variable fechada en un periodo 𝑡 la rezaga tantas
períodos como se aplique el operador de rezago.

𝐿𝑥𝑡 = 𝑥𝑡−1
𝐿2 𝑥𝑡 = 𝑥𝑡−2
𝐿−1 𝑥𝑡 = 𝑥𝑡+1
Podemos hacer la siguiente transformación:

𝜀𝑡 1 − 𝜌𝐿 = 𝑣𝑡
𝑣𝑡
𝜀𝑡 =
(1 − 𝜌 𝐿 )
𝜀𝑡 = σ∞𝑖=0 𝜌 𝐿 𝑖 𝑣
𝑡

La última expresión proviene del hecho que, si partimos


del supuesto que, tenemos que la expresión que es el
denominador de la segunda expresión es la suma de una
serie geométrica infinita de orden infinito con módulo
menor a 1.
Si aplicamos el operador de rezago veremos que
obtenemos la siguiente expresión:

𝜀𝑡 =σ∞
𝑖=0 𝜌 𝑖
𝑣𝑡−𝑖

- Es una representación 𝑀𝐴 de orden infinito. - La


serie es estacionaria.
- Si 𝜌 < 1, vemos que el efecto de los shocks
pasados van teniendo un peso decreciente
conforme nos alejamos en el tiempo.
Si queremos obtener la varianza de este tipo de proceso podemos
utilizar la representación 𝑀𝐴.

𝑉𝑎𝑟 𝜀𝑡 = ෍ 𝜌2𝑖 𝑉𝑎𝑟(𝑣𝑡−𝑖 )


𝑖=0

Esta expresión sólo toma en cuenta la varianza y no las covarianzas


de los shocks.

Si: 𝑉𝑎𝑟 𝜀𝑡 = 𝑉𝑎𝑟(𝑣𝑡−𝑖 )


Por tanto, el resultado a obtener sería:
𝜎𝑣 2
𝑉𝑎𝑟 𝜀𝑡 = 𝜎𝜀 2 =
1 − 𝜌2
La covarianza entre distintas observaciones del error sería distinta
de cero.

𝐶𝑜𝑣 𝜀1 , 𝜀2 = 𝜎12 = 𝐸 𝜀1 , 𝜀2 = 𝐸 𝜀1 (𝜌𝜀1 +𝑣2 ) = 𝐸 𝜌 𝜀1 2 +𝜀1 𝑣2 = 𝜌 𝜎𝜀 2

Si:
𝐸 𝜀1 , 𝜐2 = 0

𝐶𝑜𝑣 𝜀1 , 𝜀3 = 𝜎13 = 𝐸 𝜀1 , 𝜀3 = 𝐸 𝜀1 (𝜌𝜀2 +𝑣3 ) = 𝜌 𝐸 𝜀1 , 𝜀2


= 𝜌 (𝜌 𝜎𝜀 2 ) = 𝜌2 𝜎𝜀 2

De lo anterior se desprende que:

𝐶𝑜𝑣 𝜀𝑡 , 𝜀𝑡−𝑗 = 𝜌 𝑗 𝜎𝜀 2
Se tiene la matriz de varianzas y covarianzas del
término de error:

 1  2 3 ...  t −1 
 
  1  2 ...  t − 2 
𝐶𝑜𝑣 𝜀 = 𝜎𝜀 2 σ =𝜎𝜀 2  2

 1  ...  t −3 

 ... ... ... ... ... ... 
  t −1  t −2  t −3  t −4 ... 1 

Detección de la autocorrelación.

Test de Durbin Watson:

El test de Durbin-Watson verifica la existencia de autocorrelación


de primer orden:

𝜀𝑡 =  𝜀𝑡−1 + 𝑣𝑡
Donde 𝑣𝑡 reúne las características de un ruido blanco.
Específicamente, el estadístico propuesto, a través del cual podemos
verificar la hipótesis nula de ausencia de autocorrelación viene dado
por:
σ𝑡=𝑛
𝑡=2 𝜀𝑡Ƹ − 𝜀𝑡−1
Ƹ 2
𝐷= 2
σ𝑡=𝑛 𝜀
𝑡=1 𝑡 Ƹ

Que es simplemente la razón de la suma de las diferencias al


cuadrado de los residuos sucesivos sobre la suma de los
cuadrados de los residuos.
Observe que el numerador del estadístico 𝐷, el numero de
observaciones es 𝑛 − 1, por que se pierde una observación
al obtener las diferencias consecutivas.
Si planteamos el estadístico de la forma:

σ 𝜀𝑡Ƹ 2 + σ 𝜀𝑡−1
Ƹ 2 + 2 σ 𝜀Ƹ 𝜀𝑡−1
Ƹ
𝐷=
σ 𝜀𝑡Ƹ 2
Si 𝑛 es suficientemente grande.

෍ 𝜀𝑡Ƹ 2 ≅ ෍ 𝜀𝑡−1
Ƹ 2

Son aproximadamente iguales.

El estadístico 𝐷 puede aproximarse por:


𝐷 = 2(1 − 𝜌) ො
Donde:
σ 𝜀𝑡Ƹ 𝜀𝑡−1
Ƹ
𝜌ො =
σ 𝜀𝑡Ƹ 2

ො representa el estimador del coeficiente de correlación serial de los


𝜌,
errores.
Si el parámetro:
−1 < 𝜌ො < 1
Entonces el estadístico 𝐷:
0<𝐷<4

Valores próximos a 0 cuando exista autocorrelación serial


positiva de primer orden.
Valores cercanos a 4 cuando exista autocorrelación serial
negativa de primer orden.
Finalmente, de no presentarse ningún tipo de
autocorrelación, el valor del coeficiente  será cero por lo
que es estadístico registrará valores cercanos a 2.
Test de Breusch Godfrey:

Una alternativa al test de Durbin-Watson consiste en


realizar contrastes donde la hipótesis alternativa incluya
especificaciones más generales que la del modelo
autoregresivo de primer orden.

La generalización planteada simultáneamente por Breusch


y Godfrey se conoce también como el Test de
Multiplicadores de Lagrange (𝐿𝑀) y consiste en
regresionar los residuos 𝑀𝐶𝑂 sobre sus 𝑝 rezagos y las
variables explicativas del modelo original.
Supongamos que:

𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝜀𝑡

Y se tiene: 𝐴𝑅(𝑝)
𝜀𝑡 = 𝜌1 𝜀𝑡−1 + 𝜌2 𝜀𝑡−2 + ⋯ + 𝜌𝑝 𝜀𝑡−𝑝 + 𝑣𝑡
Planteamiento de hipótesis:

𝐻0 : 𝜌𝑖 = 0, ∀𝑖
𝐻1 : 𝜌𝑖 ≠ 0, ∀𝑖

Paso 1:
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝜀𝑡

Estimamos mediante los 𝑀𝐶𝑂 y obtenemos 𝜀𝑡Ƹ .

Paso 2:

𝜀𝑡Ƹ = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝜌1 𝜀𝑡−1


Ƹ + 𝜌2 𝜀𝑡−2
Ƹ + ⋯ + 𝜌𝑝 𝜀𝑡−𝑝
Ƹ + 𝑣𝑡

Regresionamos y obtenemos: 𝑅2
Paso 3:
Tenemos el siguiente estadístico de prueba:

𝑛𝑅 2 ~𝜒𝑝 2
𝜒𝑐𝑎𝑙𝑐 2 > 𝜒𝑝 2 , existe problemas de
autocorrelación.
𝜒𝑐𝑎𝑙𝑐 2 < 𝜒𝑝 2 , no existe problemas de
autocorrelación.
Intuitivamente, se observa que el coeficiente R2 tenderá a
cero en la medida en que las variables explicativas
propuestas en la regresión anterior no expliquen
adecuadamente a los residuos.

Recordemos que de no existir autocorrelación, los residuos


no se podrían explicar a partir de sus rezagos, esto, sumado
al hecho de que las variables explicativas incluidas son
supuestamente ortogonales a los errores, garantizará un
valor muy cercano a cero para el 𝑅2 .

En este caso, el valor del estadístico propuesto tendería a


cero por lo que se aceptaría la hipótesis nula de ausencia de
autocorrelación.
Comandos EViews:

VIEW/RESIDUAL TESTS/SERIAL CORRELATION LM TEST

Resultados:

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 28.68505 Probability 0.000000


Obs*R-squared 55.23254 Probability 0.000000

Test Equation:
LS // Dependent Variable is RESID

Variable Coefficient Std. Error t-Statistic Prob.

C 4.931975 31.99916 0.154128 0.8778


CAPITAL 0.001622 0.003220 0.503841 0.6156
INGDISP -0.004797 0.009471 -0.506525 0.6137
RESID(-1) 0.788615 0.101299 7.785007 0.0000
RESID(-2) -0.123128 0.128390 -0.959015 0.3400
RESID(-3) 0.206486 0.128409 1.608036 0.1112
RESID(-4) -0.198072 0.105542 -1.876721 0.0637

R-squared 0.552325 Mean dependent var -8.25E-13


Adjusted R-squared 0.523443 S.D. dependent var 318.4812
S.E. of regression 219.8574 Akaike info criterion 10.85339
Sum squared resid 4495368. Schwarz criterion 11.03575
Log likelihood -677.5632 F-statistic 19.12337
Durbin-Watson stat 1.985940 Prob(F-statistic) 0.000000
Bibliografía.
o Gujarati, D. (2009) “Econometría” Quinta edición.
McGraw Hill, Mexico. Cap. 12.
o NOVALES, A. (1993) “Econometría”. 2 a
edición. Ed. McGraw-Hill. Madrid. Cap. 7.
o Wooldridge, J. (2010) “Introducción a la
econometría: Un enfoque moderno”
CENGAGE Learning 4ª. Edición, Michigan
State University. Cap. 12.

También podría gustarte