Está en la página 1de 46

ECONOMETRÍA APLICADA A

LA TOMA DE DECISIONES
EMPRESARIALES
Lección 4: Autocorrelación.
S jm1
Diapositiva 1

jm1 Se agradece la contribución de los profesores Arranz, Suárez y Zamora, cuyos materiales de clase se han utilizado en la elaboración de esta
presentación.
juan muro; 28/09/2007
Autocorrelación.
1. ¿ Qué es un modelo con
autocorrelación?

2. ¿ Con qué tipo de datos económicos se


suelen presentar modelos
autocorrelacionados?
 Datos de serie temporal
 Correlación espacial (Econometría espacial)
S

11/29/2012 Juan Muro


Distintas acepciones de
autocorrelación
• Autocorrelación o correlación serial en una
serie temporal
Series estacionarias y no estacionarias

• Autocorrelación o correlación serial en un


modelo econométrico
Perturbaciones aleatorias
A

11/29/2012 Juan Muro


Condiciones de estacionariedad
• Estacionariedad fuerte
La función de distribución de yt se mantiene a lo
largo de los periodos.

• Estacionariedad débil (o en las


covarianzas)
E(yt)= µ √ t
Var(yt)= σ2 √ t, E(yt, yt-s)= γs √ t
• Ejemplo: ilustracion_mcg.prg; cne.wf1
A
11/29/2012 Juan Muro
Series no estacionarias
• TSP, trend stationary process
Series no estacionarias que se convierten en
estacionarias mediante la eliminación de una
tendencia determinística temporal.
yt= α + βt + εt ; εt i.i.d. N(0,1) √ t
• DSP, difference stationary process
Series no estacionarias que se convierten en
estacionarias mediante diferencias (tendencia
estocástica).
yt= yt-1+ εt (random walk)
• Ejemplo: ilustracion_mcg.prg; cne.wf1 A
11/29/2012 Juan Muro
Autocorrelación.
3. ¿ Qué problemas plantea a la estimación
por MCO?

3.1. ¿ En qué consiste el cálculo de la matriz


de varianzas y covarianzas de los
estimadores MCO corregida por el efecto
de la autocorrelación, Newey-West(1987)?

11/29/2012 Juan Muro


Autocorrelación.
4. ¿ Cómo se detecta la
autocorrelación?

11/29/2012 Juan Muro


Autocorrelación.
5. ¿ Cómo se estima un modelo
autocorrelacionado mediante estimadores que
tengan buenas propiedades estadísticas?

¿ Qué se entiende por la estimación de un modelo


en cuasidiferencias?
¿ Qué problemas plantea la utilización de un
“modelo en diferencias" como método para
resolver la autocorrelación?

11/29/2012 Juan Muro


S
4.1. Consecuencias de la
autocorrelación.

MRLG:
Yt=X’tβ+ut; t=1,2,……T. Serie temporal; {i}
corte transversal.

X’t, β, vectores fila 1xk y columna kx1,


respectivamente; Yt, ut, escalares.

E(utut+s|X)= σtt+s (elementos de la matriz de


varianzas y covarianzas Ω). S
11/29/2012 Juan Muro
4.1. Consecuencias de la
autocorrelación.

Impondremos el supuesto de
estacionariedad débil.

σtt+s = σ2 para s=0. (homoscedasticidad).

σtt+s = γs para s≠0. (covarianza sólo


depende del desfase temporal).
S
11/29/2012 Juan Muro
4.1. Consecuencias de la
autocorrelación.

Estimador MCO: b= (ΣXtX’t)-1 ΣXtYt.

E(b|X)= β.
Var(b|X)=(ΣXtX’t)-1 ΣΣE(utus|X)XtX’s (ΣXtX’t)-1.

Como E(utus|X)= γt-s es desconocida, la


matriz lo es.
S
11/29/2012 Juan Muro
4.1. Consecuencias de la
autocorrelación.
En expresión matricial:
σ2 γ1 ... γ T −1   1 ρ1 ... ρ T −1 
   
 γ1 σ2 ... γ T − 2  2
ρ1 1 ... ρ T − 2 
E ( uu' ) =   =σ Ω =σ 
2

... ... ... ... ... ... ... ... 


   
γ γ T −2 ... σ 2  ρ ρT − 2 ... 1 
 T −1  T −1
Donde
Cov(ut ,ut +S ) γS
ρS = = s = 0, ± 1, ± 2, ...
Var (ut )Var (ut +S ) γ 0
No hay resultados generales para el sesgo de la matriz
por MCO, s2(ΣXtX’t)-1.
S
11/29/2012 Juan Muro
4.1. Consecuencias de la
autocorrelación.
La autocorrelación sigue las siguientes estructuras, AR(p),
MA(q), ARMA(p,q).

Procesos autorregresivos:
AR(p): ut= Φ1ut-1+ Φ2ut-2+…….+ Φput-p +εt.
AR(1): ut= Φ1ut-1 +εt.

Procesos de medias móviles:


MA(q): ut= εt+ θ1εt-1+ θ2 εt-2…….+ θq εt-q.
MA(1): ut= εt+ θ1 εt-1.
S
11/29/2012 Juan Muro
4.1. Consecuencias de la
autocorrelación.
Procesos autorregresivos y de medias móviles:
ARMA(p,q): ut= Φ1ut-1+ Φ2ut-2+…….+ Φput-p +εt
+θ1εt-1+ θ2 εt-2…….+ θq εt-q.
ARMA(1,1): ut= Φ1ut-1+ εt+ θ1 ε t-1.

A
11/29/2012 Juan Muro
Matriz de Newey-West (1987).
La matriz
 1 L T 
T (X ' X )
−1

 0 T ∑
S + w e e (
∑ l t t−l t t−l X X ' + X t−l
X ' )
t 
( X ' X )−1
.
l =1 t = l +1 
1 T 2  l
S 0 =  ∑ e i X i X i ' ; w l = .
 T i =1  L+1

Es un estimador consistente de la matriz de


varianzas y covarianzas asintótica del
estimador b. Matriz HAC.
−1 −1
11  1 2  1 
VMCO =  X ' X   σ X ' Ω X  X ' X  .
T T  T  T 

11/29/2012 Juan Muro S


Matriz de Newey-West (1987).
La sugerencia de Newey y West es estimar
por MCO (lineal e insesgado) y calcular
consistentemente los errores por medio
de su matriz (estimadores no eficientes).

Se pueden utilizar los estadísticos t (no así


el F).

11/29/2012 Juan Muro A


4.2. Contrastes de autocorrelación.
Carácter Exactos Asintóticos

Hipótesis nula

Generales Durbin y Watson(1950, Breusch-Godfrey(1978)


(robustos) 1951). Contraste
exacto. Correlograma de
residuos.
Residuos Recursivos:
Razón de Von
Neumann modificada
(MVNR)
Específicos h de Durbin(1970).
(potentes)
Sargan(1964)
11/29/2012 Juan Muro
S
Durbin y Watson(1950, 1951).
Contraste exacto.
• Diseñado para contrastar la presencia de procesos AR(1),
estacionarios.

• Es robusto ante la presencia de otro tipo de


autocorrelación.

• No permite la presencia de especificación dinámica en el


modelo.

• Las tablas de la distribución del estadístico D-W


habitualmente utilizadas requieren la especificación con
término independiente (Savin-White)(Farebrother para cte).

11/29/2012 Juan Muro S


Durbin-Watson(1950, 1951).
Contraste exacto.
Yt=X’tβ+ut
Con ut=ρut-1+εt.

H0 : NO HAY AUTOCORRELACION: ρ=0.


H1 : EXISTE AUTOCORRELACION SEGUN UN AR(1): ρ≠0; |ρ|<1.

1. Estimar el modelo por MCO. Obtener los residuos minimocuadráticos et.


2. Calcular el estadístico de D-W: T

∑ ( et - e
2
t -1 )
t= 2
d = T

∑ e 2
t
t= 1

3. Comprobar en las tablas oportunas de la distribución del estadístico de


D-W, para un nivel de significación determinado, si el valor anterior cae en
las zonas de rechazo, indecisión o no rechazo de la hipótesis nula.
4. Emplear algún criterio para resolver la indecisión en el caso en que el
valor caiga en dicha zona.

11/29/2012 Juan Muro S


Teniendo en cuenta que: − 1 ≤ ρˆ ≤ 1 , el rango de variación del estadístico:

ρˆ = −1 → d ≈ 4 Autocorrelación negativa

ρˆ = 0 → d ≈ 2 Ausencia autocorrelación

ρˆ = 1 → d ≈ 0 Autocorrelación positiva

Durbin y Watson hallaron unos límites superior du e inferior dL que permiten


tomar una decisión acerca de la presencia o ausencia de autocorrelación:
Autocorrelación Zona Región de no rechazo: Zona Autocorrelación
positiva indecisión No autocorrelación indecisión negativa

0 dL dU 2 4-dU 4-dL 4

Es decir:

0 < d < dL Se rechaza H0, existe aut. positiva con esquema AR(1)
4- dL < d < 4 Se rechaza H0, existe aut. negativa con esquema AR(1)
du < d < 4-du No se rechaza H0, no existe autocorrelación
dL < d < du El contraste no es concluyente
4-du < d < 4-dL El contraste no es concluyente

11/29/2012 Juan Muro A


MVNR(1941). Contraste exacto.

Yt=X’tβ+ut
Con ut=ρut-1+εt.

H0 : NO HAY AUTOCORRELACION: ρ=0.


H1 : EXISTE AUTOCORRELACION SEGUN UN AR(1): ρ≠0; |ρ|<1.

1. Estimar el modelo por mínimos cuadrados recursivos.


Obtener los T-k residuos recursivos (wt).
2. Calcular el estadístico de la razón de von Neumann
modificada (MVNR): T

∑ ( w t - w t -1 )
2

T -k
MVR = • t=k+ 2
T
T -k -1 ∑ w t2
t=k+1

11/29/2012 Juan Muro S


MVNR(1941). Contraste exacto.
3. Comprobar en las tablas de la distribución del
estadístico MVNR, para un nivel de significación
determinado, si el valor anterior cae en las zonas de
rechazo o no rechazo de la hipótesis nula.

4. El contraste se realiza como un contraste de una sola


cola frente a la autocorrelación positiva y negativa,
respectivamente.

11/29/2012 Juan Muro A


H de Durbin(1970). Contraste
asintótico.
y t = Y t *' β + X t ' γ + u t
con u t = ρ u t−1 + ε t

donde la Y* significa una matriz de valores retardados de la variable


regresando y; X matriz de regresores que no incluye los valores
retardados del regresando.

H0 : NO HAY AUTOCORRELACION: ρ=0.


H1 : EXISTE AUTOCORRELACION SEGUN UN AR(1): ρ≠0, |ρ|<1 .

1. Estimar el modelo por MCO y obtener los residuos MCO et.


2. Estimar r. De una manera apropiada es el coeficiente de et-1 en la
regresión de et frente a et-1. Se puede hacer también a través del
estadístico de D-W.

11/29/2012 Juan Muro S


H de Durbin(1970). Contraste
asintótico.
3. Forma del contraste: bajo la hipótesis nula el
estadístico h se distribuye asintóticamente como una
N(0,1).
T
h = r
1 - Tvar( b1 )

donde b1 es el coeficiente de yt-1 en la regresión del


apartado 1 y T el tamaño de la muestra. El contraste es
de una sola cola.

11/29/2012 Juan Muro S


H de Durbin(1970). Contraste
asintótico.
4. En el supuesto de que h no pueda ser calculado por
ser el radicando negativo, Durbin sugiere un
procedimiento asintóticamente equivalente que consiste
en
4.1 Estimar la regresión del apartado 1.
4.2 Estimar la regresión siguiente

et =φ1et−1 +Yt *'β + Xt 'γ +ut


Bajo la hipótesis nula, el coeficiente de et-1 no será
significativamente distinto de cero.

11/29/2012 Juan Muro A


Breusch-Godfrey(1978).
Contraste asintótico.
yt = X t ' β + ut
con u t = φ 1 u t -1 + φ 2 u t - 2 + ........+ φ p u t - p + ε t
o, u t = Θ q ( ε t )
donde X puede contener valores retardados del
regresando.

H0 : NO HAY AUTOCORRELACION: Φτ=0; Θτ=0; para


todo τ.
H1 : EXISTE AUTOCORRELACION SEGUN UN AR(p) o
MA(q).
1. Estimar el modelo original por MCO y obtener los
residuos minimocuadráticos
11/29/2012 Juan Muro
et.
S
Breusch-Godfrey(1978).
Contraste asintótico.
2. Estimar la regresión

e t = X t ' β + E p ' γ + ut .
3. Forma del contraste (contraste de multiplicadores de
Lagrange): bajo la hipótesis nula el estadístico TR2 se
distribuye asintóticamente como una Chi-2 con p
grados de libertad.

11/29/2012 Juan Muro


A
Correlograma de residuos.
H0 : No hay autocorrelación.
H1 : Autocorrelación de cualquier tipo AR(p), MA(q), ARMA(p,q).

Se rechaza la hipótesis nula en el caso de que el correlograma no


sea plano, es decir, en el caso de que no todos los valores de la
función de autocorrelación y autocorrelación parcial estén dentro
de las bandas.

1. Ajustar el modelo por MCO. Obtener los residuos MCO e.


2. Calcular el correlograma de los residuos MCO e.
3. Calcular el estadístico de Ljung-Box y la probabilidad asociada a
dicho estadístico bajo la hipótesis nula.
4. Cualquier valor de la probabilidad asociada al estadístico de
Ljung-Box inferior a 0.05 permite rechazar la hipótesis nula a un
nivel de significación del 5%.
11/29/2012 Juan Muro
A
Contraste de Sargan(1964).
Contraste de falta de especificación dinámica en un
modelo (la autocorrelación es un síntoma de esa
especificación errónea)

Si

yt = β xt + ut
con ut = ρ ut -1 + ε t ; | ρ |< 1

11/29/2012 Juan Muro


S
Contraste de Sargan(1964).
y sustituimos la segunda ecuación en la primera, queda
y t = ρ y t - 1 + ( x t - ρ x t - 1 )β + ε t .
Generaliza ndo, y t = β 1 y t - 1 + β 2 x t + β 3 x t - 1 + ε t
para que ambos modelos sean idénticos debe cumplirse
H0 : β1β2 = -β3.

1. Estimar el modelo general por MCO.


2. Contrastar la hipótesis nula H0 por medio del contraste
de WALD. En concreto:
2
[f(b) ] ~ 2
W = A Χ1
var[f(b)]

donde b son los estimadores MCO del modelo general.


11/29/2012 Juan Muro
A
4.3. Solución a la autocorrelación.
Yt=X’tβ+ut; t=1,2,……T. Serie temporal; {i}
corte transversal.

X’t, β, vectores fila 1xk y columna kx1,


respectivamente; Yt, ut, escalares.

E(ui uj |X)= σij.

S
11/29/2012 Juan Muro
4.3. Solución a la autocorrelación.
MCO: estimación lineal, insesgada y no óptima; matriz de
Newey y West(1987).

MCG: exige el conocimiento de la matriz Ω. Estimación


lineal, insesgada y óptima; autocorrelación teórica.

MCGF: Estimación en dos etapas o iterativa, consistente.

MV: exige una parametrización de la matriz Ω. Estimación


consistente, asintóticamente eficiente y con distribución
asintótica normal.

A
11/29/2012 Juan Muro
Estimación por MCG.
• Es imposible en casi todos los casos por
el desconocimiento de Ω.

• El realizar supuestos sobre la estructura


de la autocorrelación ayuda poco.

S
11/29/2012 Juan Muro
Estimación por MCGF.
• Estimación para un AR(1) estacionario

ut = φ ut −1 + ε t .

S
11/29/2012 Juan Muro
Estimación por MCGF.
• En este caso,
σ ε2
E(ut ) = 0 ∀ t 2
Var ( ut ) = E ( ut ) =
1−φ2
φ <1

E(ut ut −1 ) = γ 1 = φσ 2
u
ρ1 = φ
E(ut ut −2 ) = γ 2 = φ σ
2 2
u
ρ2 = φ 2

E(ut ut−S ) = γ s = φ σ
S 2
u
ρS = φ S

S
11/29/2012 Juan Muro
Estimación por MCGF.
• La matriz de varianzas y covarianzas es

1 φ φ2 ... φT−1  1 φ φ2 ... φT−1 


 1 φ ... φT−2   1 φ ... φT−2 
2  σε 
2

∑uu=E(uu'| X) = σu =
 ... ...  1−φ  2
... ... 
   
 ... 1   ... 1 

S
11/29/2012 Juan Muro
La matriz Ω es:
1 φ φ
2
... φ T −1 
 ... φ T − 2 
1  1 φ
Ω=
1−φ2  ... ... 
 
 ... 1 

y su inversa,

 1 −φ 0 ... 0 0 0 
− φ 1 + φ 2 −φ ... 0 0 0 
 
 0 −φ 1+φ2 ... 0 0 0 
 
Ω −1 =  ... ... ... ... ... ... ... 
 0 0 0 ... 1 + φ 2 −φ 0 
 
 0 0 0 ... − φ 1 + φ 2 −φ
 0 0 0 ... 0 −φ 1 
S
11/29/2012 Juan Muro
La matriz de transformación será:

PΩP ' = I P ' P = Ω −1


con
 1−φ2 0 0 ... 0 0
 
 −φ 1 0 ... 0 0
P= 0 −φ 1 ... 0 0
 
 ... ... ... ... ... ...
 0 ... − φ 1 
 0 0

Por lo que el modelo de regresión que cumple los supuestos


del MRLC, será el que relaciona las variables transformadas:

( )
 1 − φ Y1 
2
 1−φ2

1 − φ 2
( )
X1 

  1 − φ X − φ X
 Y2 − φY1  X* =  2 1 
 ... 
*
Y = ...
 ...    S
 
Juan
11/29/2012
1−φ
Muro X T − φ X T −1 
 YT − φYT −1 
Estimación por MCGF.
• Por tanto,

• Lo primero es estimar el coeficiente Φ.

• En una segunda etapa se transforman las variables y se


aplican MCO al modelo resultante.

• La estimación en dos etapas es consistente y con


distribución asintótica normal (eficiencia desconocida).

• El incremento de la eficiencia se consigue iterando el


proceso.
S
11/29/2012 Juan Muro
Procedimiento de Cochrane-Orcutt.
• Procedimiento tradicional de aplicar MCGF con AR(1).

• 1) Se estima el modelo por MCO y se calcula la serie de residuos.

• 2) Se realiza una regresión auxiliar de los residuos sobre los


residuos del periodo anterior sin incluir término constante. De este
modo se obtiene una primera estimación del coeficiente de
autocorrelación de primer orden.

• 3) Se transforman las variables del modelo y se repite la estimación


del modelo (etapa 1) y se continua con el procedimiento descrito.

• 4) Se finaliza cuando el estadístico d de Durbin-Watson indique que


los residuos de la etapa 1 son de ruido blanco o cuando las
estimaciones de ϕ difieran en menos de una cantidad prefijada por
ejemplo 0,01 ó 0,005 (o cualquier otro criterio de convergencia).S
11/29/2012 Juan Muro
Estimación por MV en presencia de
autocorrelación.
Función de verosimilitud.
L(Y,X | Θ ) = f (Y1, Y2 , Y3....YT | X , Θ) =
= f (YT | Y1, Y2 , Y3....YT −1, X , Θ) f (Y1, Y2 , Y3....YT −1 | X , Θ).
= Πf (Yi | YT −i | X , Θ) f (Y1 | X , Θ).
Se obtiene de la aplicación de la descomposición
de la probabilidad conjunta en términos de la
condicional y de la marginal. La maximización
de esa función proporciona los estimadores MV
(problema de las condiciones iniciales).
A
11/29/2012 Juan Muro
Predicción con autocorrelación.
• La presencia de autocorrelación en un modelo debe considerarse
para realizar la predicción. Por ejemplo, en un modelo de regresión
con perturbaciones AR(1) la mejor predicción para un periodo
extramuestral T+1 debe incluir una corrección por autocorrelación;
por tanto, YˆT +1 = a + bX T +1 no es la mejor predicción.

• La predicción que incorpora la información es:


YˆT + 1 = a + bX T + 1 + ρ̂uT
• YˆT +1 = a + bX T +1 + ρˆ (YT − a − bX T )

• y este predictor coincide con el que se obtendría habiendo


transformado el modelo con cuasidiferencias.

S
11/29/2012 Juan Muro
Bibliografía.
• Breusch, T.S.(1978) "Testing for Autocorrelation in Dynamic Linear
Models", Australian Economic Papers, 17, págs. 334-355.
• Durbin, J.(1970) "Testing for Serial Correlation in Least Squares
Regression when Some of the Regressors are Lagged Dependent
Variables", Econometrica, 38, págs. 410-421.
• Durbin, J. y G.S. Watson(1950) "Testing for Serial Correlation in
Least Squares Regression", Biometrika, 37, págs. 409-428; 38,
págs. 159-178.
• Farebrother, R.W.(1980) "The Durbin-Watson Test for Serial
Correlation when There Is No Intercept in the Regression",
Econometrica, 48, págs. 1553-1563.
• Godfrey, L.G.(1978) "Testing Against General Autorregresive and
Moving Average Error Models when the Regressors Include
Lagged Dependent Variables", Econometrica, 46, págs. 1293-
1302.
S
11/29/2012 Juan Muro
Bibliografía.
• Hannan, E.J. y R.D. Terrell(1968) "Testing for Serial
Correlation after Least Squares Regression",
Econometrica, 36, págs. 133-150.
• Savin, N.E. y K.J. White(1977) "The Durbin-Watson
Test for Serial Correlation with Extreme Sample Sizes
or Many Regressors", Econometrica, 45, págs. 1989-
1996.
• Theil, H. y A.L. Nagar(1961) "Testing the Independence
of Regression Disturbances", JASA, 56, págs. 793-806.
• Wallis, K.F.(1972) "Testing for Fourth Order
Autocorrelation in Quarterly Regression Equations",
Econometrica, 40, págs. 617-636.
A
11/29/2012 Juan Muro
Referencia al manual de
Wooldridge (2006)
• Capítulos 10, 11 y 12.

• Para material más avanzado, Capítulo 18.

11/29/2012 Juan Muro

También podría gustarte