Está en la página 1de 34

Capitulo 7: Autocorrelación

Definición y causas de autocorrelación

Contrastes de heteroscedasticidad: Durbin-Watson, Breusch-


Godfrey

Estimación por MCG: Cochrane-Orcutt y Prais-Winsten

Predicción con modelos de autocorrelación.


Información
• Estos transparencias no son completas.
• La idea con las transparencias es dar una
estructura general y asegurar que gráficos
y ecuaciones están reproducidos
correctamente.
• Cada estudiante debe tomar notas
adecuadas para completar las
transparencias.
Definición
• Definición: valores están relacionados en
momentos diferentes en el tiempo.

• Un valor positivo (o negativo) de u t genera una


sucesión de valores positivos (o negativos). Esto
es autocorrelación positiva.
• Autocorrelación también puede manifestarse por
la alternancia de signos en la sucesión de
valores. Entonces se llama autocorrelación
negativa.
Definición
Causas
• La existencia de ciclos y/o tendencias

• Relaciones no lineales

• La omisión de variables relevantes


Causas
Causas

Los residuos no serán independientes del tiempo.


Modelos autorregresivos (AR) y
media-móvil (MA).
• Modelos lineales que permiten
caracterizar el fenómeno de la
autocorrelacion: los esquemas
autorregresivos (AR) y media-móvil (MA).
Modelos autorregresivos (AR) y
media-móvil (MA).

AR( p); u t  1u t 1   2 u t  2  ...   p u t  p   t


con  t  N (0,  2 )

MA(q); ut   t  1 t 1   2 t  2  ...   q t  q


con  t  N (0,  2 )
Modelos autoregresivos (AR) y
media-móvil (MA).
• AR(1): La correlación entre momentos diferentes
del tiempo, no se limita a dos periodos
sucesivitos , sino que se mantiene para
cualquier distancia entre esos dos momentos
del tiempo . (Memoria ilimitada).

• MA(1): La correlación en momentos diferentes


del tiempo sólo se mantiene en dos períodos
inmediatamente sucesivos , etc.,
desapareciendo cuando la distancia en el
tiempo es superior al orden del MA. (Memoria
limitada).
• AR(1) MA(1)
 1  2   N 1  1  
   1  0 
 1    N 2   
2 
   1  
 2  1   N 3  (1   2 ) 2  
1 
2
     
        0  1 
 N 1  N  2  N  3 1   
 
  1 
Estimación (idea)
• AR(1):
ˆ MCG  ( X '  1 X ) 1 X '  1 y
ˆ MCG  ( X * ' X * ) 1 X * ' y*
donde : y*  Ty, X *  TX, u *  Tu

 1 2 
 
  1 0 
   
T  
   
 
 0  1 
   1
• AR(1)
 1 2 y   1 2 x 
 1
  1

 y2  y1   x2  x1 
y*   y3  y2 , X *   x3  x2 
   
     
   
 yT  yT 1   xT  xT 1 

• Hay que estimar el parámetro  .


(Este se explica en la parte de estimación más
tarde. )
Las funciones de autocorrelación
simples (FAS) y parcial (FAP) de los
residuos.
• Autocorrelación simple:
N

e e t t k
̂  t k
N

t
e 2

t 1

1 k 1
2
vâr( ˆ k )  1  2 ˆ k 
N k 1 
Función de autocorrelación parcial

et  11 et 1  vt  ˆ11 FAP orden 1


et  11 et 1   22 et  2  vt  ˆ22 FAP orden 2
   
et   k1et 1   k 2 et  2  ...   kk et  k vt  ˆkk FAP orden k
Contrastes de autocorrelación
Estructura general;

1. la hipótesis nula es no autocorrleación.


2. la construcción esta basada en los
residuos de la estimación por MCO (sin
considerar la posible autocorrelación).
Contrastes de autocorrelación
• Durbin-Watson

Hipótesis alternativa: AR(1).


1)
2)
N

 t t 1
( e  e ) 2
 H 0 : ut   t
DW  t 2

 H A : u t  u t 1   t
N

t
e 2

t 1
Contrastes de autocorrelación
Durbin-Watson
• En muestras finitas hay que aplicar una
tabla con valores críticos
Contrastes de autocorrelación
Durbin-Watson
si DW  dinf autocorrelación positiva
DW  2 
 si DW  dsup no autocorrelación
si DW  4  d inf autocorrelación negativa
DW  2 
 si DW  dsup no autocorrelación
d inf  DW  d sup o 4  d sup  DW  4  d inf  inde
Contrastes de autocorrelación
Durbin-Watson

Limitaciones:
• Su potencia es limitada para otras
hipótesis alternativas. (AR(>1), MA).
• No se puede usar los valores cuando la
regresión incluye la variable endógena
retardada. (Modelos dinámicos).
Contrastes de autocorrelación
• Breusch-Godfrey

1)
2)
3)
 H 0 : ut   t

G (  2 [r ])  NR*2  H A : ut  1ut 1  ...   p ut  p   t ( AR ( p )) o
 ut   t  1 t 1  ...  q ut  q ( MA(q))

Nota; N se refiere a la muestra en el modelo auxiliar. Si N es la
muestra del modelo original, hay que usar N-r!
Estimación por MCG
Cochrane-Orcutt
y t   1   2 x 2 ,t   k x k , t  u t
donde u t  u t 1   t

1)
2)
3)
Estimación por MCG
Cochrane-Orcutt
y t  y t 1   1 (1   )   2 ( x 2,t  x 2,t )  ...   k ( x k ,t  x k ,t 1 )  u t  u t 1 t2

Etapa 1:
Etapa 2:
( yt  1   2 x 2,t  ...   k x k ,t )   ( y t 1  1   2 x 2,t 1  ...   k x k ,t 1 )  u t  u t 1
Estimación por MCG
Cochrane-Orcutt

Inconvenientes:
1)
2)
3)
Estimación por MCG
Prais-Winsten

Usar la primera observación a través de su


transformación particular (en lugar de
eliminarla) como en el método de
Cochrane-Orcutt.
Estimación por MCG
Prais-Winsten

Ty 1  1   y1 , Tx1,1  1   ,...,Txk ,1  1   x k ,1 ;
2 2 2
Estimación por MCG
Durbin

Este método intenta tratar la arbitrariedad


del valor escogida para el parámetro en
etapa 1.
Estimación por MCG
Durbin
yt  1 (1   )   2 x 2,t  ...   k x k ,t   2x 2,t 1  ...   k x k ,t 1  y t 1  (u t  u t 1 )

Estima por MCO, ignorando:


1)
2)
3)
Predicción con modelos de
autocorrelación (Greene, Econometric Analysis)
Consideramos un modelo AR(1), con
 conocida.
ˆ MCG  ( X * ' X * ) 1 X * ' y*
donde : y*  Ty, X *  TX, u *  Tu

 12 y   12 x 
 1
  1

 y2  y1   x2  x1 
y*   y3  y2 , X *   x3  x2 
   
     
   
y
 T   yT 1  x
 T  xT 1 
Predicción con modelos de
autocorrelación
0
• La predicción de yˆ*0T 1 x
dado T 1 y xT
( *T 1 T 1  xT ) es,
x 0
 x 0
yˆ 0
x 0
´̂
*T 1 *T 1

Recuerda, yˆ*0T 1  yˆT0 1  yT entonces;


yˆT0 1  yT  xT0 1´ˆ  xT ´ˆ
yˆ 0  x 0 ´ˆ   ( y  x ´ˆ )
T 1 T 1 T T

yˆT0 1  xT0 1´ˆ  eT


Predicción con modelos de
autocorrelación
• Un parte de los residuos se lleva al periodo
siguiente. Para un predicción de periodos n
sería,
yˆT0  n  xT0  n ´ˆ   n eT
• Para un modelo AR(2),

yˆT0  n  xT0  n ´ˆ  1eT  n 1  2eT  n  2

• Para residuos fuera del periodo de la


muestra se usa e  e  e
s 1 s 1 2 s2
Predicción con modelos de
autocorrelación
Consideramos un modelo MA(1).

yˆ T0 1  xT0 1´ˆ  ˆT 1


donde ˆT 1  uˆT 1  uˆT
uˆ t  ˆt  uˆ t 1
uˆT 1  uˆ 0  0 y ˆt  ( y t  xt ´ˆ )

Después del primero periodo fuera de la


muestra,
ˆT  n  uˆT  n  uˆT  n 1  0

También podría gustarte