Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Autocorrelación
10.1. Introducción
Yt = β1 + β2 X2t + · · · + βk Xkt + ut , t = 1, . . . , T
137
138 10.2. Detección de autocorrelación
Conviene notar que, cuando los coeficientes φi y θi son todos iguales a cero, la matriz
V (u) será escalar V (u) = γ0 IT .
Son dos los objetivos principales que perseguimos en este tema. En primer lugar,
presentamos algunos métodos que nos permiten no sólo detectar si los errores del modelo
lineal general presentan autocorrelación, sino también identificar los órdenes p y q del
proceso ARMA subyacente. En segundo lugar, describimos un método de estimación
computacionalmente eficiente bajo autocorrelación, que evita la inversión de la matriz
Ω para calcular el estimador MCG. Debemos tener en cuenta que la inversión de una
matriz cuya dimensión depende del tamaño muestral es una operación que puede llevar
mucho tiempo (time-consuming).
Conviene notar que la autocorrelación serial en las perturbaciones puede ser una
consecuencia de un error de especificación debido a la omisión de variables relevantes
que presentan autocorrelación. Por ejemplo, si el modelo correcto para explicar Yt es
Yt = β1 + β2 X2t + β3 X3t + ut
Yt = β1 + β2 X2t + et
Yt = β0 Xt + et
Como las perturbaciones del modelo lineal general no son observables, debemos
basar los métodos de detección en el mejor estimador disponible de ut : los residuos de
la estimación de mı́nimos cuadrados. Tales métodos pueden ser de dos tipos: métodos
gráficos y contrastes de hipótesis. Aunque los segundos se consideran a menudo más
formales que los primeros en términos de propiedades estadı́sticas, veremos que el análisis
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
10. Autocorrelación 139
0.920027 1
-0.593946 0
ût
-2.10792 -1
-3.62189 -2
-5.13587 -3
1960 1965 1970 1975 1980 1985 1990 1995 2000 2004
Año t (1960 - 2004)
Autocorrelación negativa
4.27701 2
2.08293 1
-0.111151 0
ût
-2.30523 -1
-4.49931 -2
1960 1965 1970 1975 1980 1985 1990 1995 2000 2004
Año t (1960.1 - 2004.1)
-1
ût
-2
-3
-4
-5
-5 -4 -3 -2 -1 0 1 2
ût−1
4
3
2
1
0
ût
-1
-2
-3
-4
-4 -3 -2 -1 0 1 2 3 4
ût−1
V ar(φ̂k )
que asintóticamente sigue una distribución N (0, 1), siendo V ar(φ̂k ) = 1/T . La hipótesis
se rechaza si
φ̂k
0.75
0.5
0.25
ρ̂k
-0.25
-0.5
-0.75
-1
1 2 3 4 5 6 7 8 9 10 11 12
k (1 - 12)
1
0.75
0.5
0.25
ρ̂k
-0.25
-0.5
-0.75
-1
1 2 3 4 5 6 7 8 9 10 11 12 13
k (1 - 13)
0.75
0.5
0.25
φ̂kk
-0.25
-0.5
-0.75
-1
1 2 3 4 5 6
k (1 - 6)
1
0.75
0.5
0.25
φ̂kk
-0.25
-0.5
-0.75
-1
1 2 3 4 5 6
k (1 - 6)
+++++−++−−−−−−−−−−−−−−−−−+++++−++++−++++++++−
Si definimos una racha como una serie de observaciones con el mismo signo, entonces
tenemos n = 10 rachas, de las cuales n1 = 5 son positivas y n2 = 5 son negativas.
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
10. Autocorrelación 143
Demostración.
T 2
T 2
T 2
T
t=2 (ût − ût−1 ) t=2 ût + t=2 ût−1 − 2 t=2 ût ût−1
DW = T = T
2 2
t=1 ût t=1 ût
Cuando el número de datos T es grande, entonces las magnitudes
T
T
T
û2t � û2t−1 � û2t
t=2 t=2 t=1
De modo que
T 2
T T
2 t=1 ût
−2 t=2 ût ût−1 t=2 ût ût−1
DW � T = 2−2 T
= 2(1 − ρ̂1 )
2 2
t=1 ût t=1 ût
�
ρ̂1 = 1 ⇒ DW = 0
ρ̂1 = 0 ⇒ DW = 2
ρ̂1 = −1 ⇒ DW = 4
0 0 0 . . . −1 1
Observación 62. Wallis extendió el estadı́stico de DW al proceso ut = φ4 ut−4 + �t ,
que es útil para series trimestrales.
Yt = β1 + β2 X2t + · · · + βk Xkt + ut
y obtener el R2 .
3. Calcular el estadı́stico de contraste
χ = (T − p)R2
Yt = β1 + β2 X2t + · · · + βk Xkt + ut , t = 1, . . . , T
ut = φ1 ut−1 + �t
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
146 10.3. Mı́nimos cuadrados generalizados
en donde el error �t es un proceso de ruido blanco: E(�t ) = 0, E(�2t ) = σ�2 y E(�t �t−k ) =
0 ∀k = 0. Sabemos que la función de autocovarianzas de un proceso AR(1) es γk = φk1 γ0
con γ0 = σ�2 /(1 − φ21 ), de modo que la matriz de varianzas y covarianzas de u puede
escribirse como
φ21 . . . φT1 −1
1 φ1
φ
1 1 φ1 . . . φ1T −2
2
σ� 2 T −3
= σ2 Ω
�
E(uu ) = φ 1 φ 1 1 . . . φ 1 �
1 − φ21
.. .. .. .. ..
. . . . .
φ1T −1 φT1 −2 φT1 −3 . . . 1
Si el parámetro φ1 fuera conocido, entonces podrı́amos calcular el estimador de mı́nimos
cuadrados generalizados usando la fórmula
� −1 � −1
β̂ M CG = X� Ω−1 X XΩ y
que requiere invertir la matriz Ω. Puesto que la inversión de una matriz de orden T × T
puede ser una operación muy costosa en tiempo de cálculo, resulta conveniente disponer
de una fórmula que nos permita crear directamente la matriz Ω−1 sin necesidad de
invertir Ω. Podemos comprobar fácilmente que
1 −φ1 0 ... 0 0
−φ1 1 + φ21 −φ1 . . . 0 0
−1
0 −φ1 1 + φ21 . . . 0 0
Ω = .
.. .. .. .. .. ..
. . . . .
0 0 0 . . . 1 + φ21 −φ1
0 0 0 ... −φ1 1
que es una matriz tridiagonal cuyos elementos de la diagonal principal son iguales a
1 + φ21 excepto el primero y el último elemento que son iguales a 1, y cuyos elementos de
la primera subdiagonal por debajo y encima de la diagonal principal son iguales a −φ1 ;
los restantes elementos son iguales a cero.
Podemos reducir nuevamente el coste computacional usando la descomposición Ω−1 =
P� P, en donde
1 − φ21 0 0 ... 0 0
−φ1 1 0 ... 0 0
0 −φ 1 1 . . . 0 0
P=
.. .. .. . . .. ..
. . . . . .
0 0 0 ... 1 0
0 0 0 . . . −φ1 1
es una matriz bidiagonal inferior con elementos en la diagonal principal iguales a 1,
excepto el primero que es igual a 1 − φ21 , y elementos en la primera subdiagonal por
debajo de la diagonal principal iguales a −φ1 .
Expresando el estimador MCG en términos de P, tenemos
� −1 � �
β̂ M CG = X� P� PX X P Py
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
10. Autocorrelación 147
en donde
1 − φ21 Y1 1 − φ21 1 − φ21 X21 ... 1 − φ21 Xk1
Y2 − φ1 Y1 1 − φ1 X22 − φ1 X21 ... Xk2 − φ1 Xk1
Py = .. y PX = .. .. ..
. . . ... .
YT − φ1 YT −1 1 − φ1 X2T − φ1 X2T −1 ... XkT − φ1 XkT −1
De aquı́, podemos escribir el modelo de regresión transformado Py = PXβ + Pu como
(10.5) ut = φ1 ut−1 + �t
Yt∗ = Yt − φ1 Yt−1 y ∗
Xjt = Xjt − φ1 Xjt−1
y especificar la relación
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
148 10.4. Predicción
ciones consecutivas no cambia, |( Tt=1 û2t )(j) − ( Tt=1 û2t )(j−1) | < 10−5 .
10.4. Predicción
yt = x�t β + ut
con errores de tipo ARM A(p, q), la predicción puntual en el origen n al horizonte h
viene dada por
ŷn (h) = x�n+h β̂ M CG + ûn (h)
en donde, a diferencia de lo que ocurre en el modelo clásico, ûn (h) será distinto de cero.
Ahora el error de predicción
tiene momentos desconocidos. Si suponemos que los parámetros del proceso ARMA(p,q)
son conocidos, entonces el error de predicción será insesgado y tendrá varianza
en donde ψj son los coeficientes de la representación M A(∞) del proceso ARM A(p, q).
10.5. Resumen
Palabras clave
Autocorrelación Test de rachas
Correlación serial pura Contraste de Durbin-Watson
Correlación serial impura Procedimiento iterativo
Análisis gráfico de residuos Criterios de convergencia
Función de autocorrelación muestral
10.6. Ejercicios
Yt = β1 + β2 Yt−1 + β3 Xt + ut
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons