Está en la página 1de 41

AUTOCORRELACIÓN.

Violación del supuesto de


No Autocorrelación Serial o relación entre las
perturbaciones
1.- Definición - cuándo ocurre la autocorrelación

2.- Causas de la Autocorrelación

3.- Por qué Ocurre la Autocorrelación

4.- Tipos de Autocorrelación

5.- Detección de la Autocorrelación

6.- Cómo corregirla

2
Definición o cuando ocurre la
autocorrelación
Autocorrelación
■ Aparece cuando los términos de error del
modelo no son independientes entre sí.

■ La autocorrelación generalmente aparece en


datos en serie de tiempo aunque también se
presenta en el caso de en corte transversal.
■ Aquí se estudiará el primer caso.

4
Causas de la Autocorrelación
Causas de Autocorrelación
■ Error de especificación por excluir
variables
■ Error de especificación debido a forma
funcional incorrecta
■ El fenómeno de la telaraña
■ El comportamiento lento, cíclico y
sesgado de las variables económicas
■ El Uso de modelos Autoregresivos
6
Autocorrelación
■ Con la presencia de autocorrelación los
estimadores obtenidos con mínimos cuadrados
ordinarios dejan de ser MELI, en el sentido que
dejan de ser aquellos con varianza mínima.

■ Ignorar el problema de la autocorrelación lleva


a que las pruebas t y F dejen de ser válidas y
muy probablemente arrojen conclusiones
erradas.

7
Por que Ocurre la Autocorrelación
Por qué ocurre la Autocorrelación
■ Inercia. Cuando existen tendencias
marcadas que influyen en los valores
futuros de la serie.
■ Sesgos de especificación. Cuando se
elige mal la forma funcional o cuando se
omiten variables, lo cual genera un
comportamiento sistemático en el
término estocástico.

9
■ Tiempo de ajuste. Implica el tiempo que
los agentes económicos deben tomar para
procesar información de un período dado.
Así un fenómeno sucedido en un período
determinado puede impactar en uno o
varios posteriores.

10
Tipos de Autocorrelación
PATRONES DE AUTOCORRELACIÓN Y
DE NO AUTOCORRELACIÓN
13
14
Detección de la Autocorrelación
Detección de la Autocorrelación

■ Prueba Gráfico
■ Prueba de las rachas
■ Prueba de Durbin y Watson
■ Modelo Autoregresivo de Markov
■ Prueba de Breusch – Godfrey

16
Prueba Gráfico
18
5.25

2.625

0
RESIDUOS

-2.625

-5.25

-7.875
1111111111111111111111111111111111111111
9999999999999999999999999999999999999999
5666666666677777777778888888888999999999
90 1 234567890 1 234567890 1 234567890 1 2345678
RESID REALES
AÑOS RESID ESTANDARIZADOS

19
20
2. Prueba de las rachas o prueba de
Geary
OBSERV RES1 RES(-1) SRES1
1959 -4,70398 0 -1,758168
1960 -3,87491 -4,70398 -1,448293
1961 -3,35949 -3,87491 -1,255651
1962 -2,80091 -3,35949 -1,045874
1963 -2,82823 -2,80091 -1,057084
1964 -2,11238 -2,82823 -0,789526
1965 -2,0397 -2,11238 -0,762361
1966 -1,25248 -2,0397 -0,468129
1967 -0,28024 -1,25248 -0,104742
1968 0,949719 -0,28024 0,354966
1969 1,835615 0,949713 0,686083
1970 2,236492 1,835615 0,835915
1971 1,880977 2,236492 0,703038
1972 2,710926 1,880977 1,013241
1973 3,012241 2,710926 1,125861
1974 2,654535 3,012241 0,992164
1975 1,59902 2,654535 0,597653
1976 2,386238 1,59902 0,891885
1977 2,629847 2,386238 0,982936
1978 3,444821 2,629847 1,287543

22
Prueba de las rachas
Se tienen residuos positivos y negativos si
los residuos fuesen aleatorios ¿seria
posible observar tal patrón? Intuitivamente
parece poco probable. Esta intuición puede
verificarse mediante la prueba de “las
rachas” conocida también como prueba de
Gearey, es una prueba no paramétrica.

23
Prueba de las rachas
RACHA: sucesión ininterrumpida de un
símbolo o atributo, tal como + o -.
LONGITUD DE LA RACHA: número de
elementos en ésta.
N = número total de observaciones=N1 +N2
N1= número de símbolos + (es decir resid +)
N2= número de símbolos - (es decir resid -)
R = número de rachas
24
Prueba de las rachas

Bajo la hipótesis nula de que los


residuos son independientes y
suponiendo que N1>10 y N2 >10, el
número de rachas está
(asintóticamente) normalmente
distribuido con:

25
Prueba de las rachas
Media:

Varianza:

26
Prueba de las rachas
Si la hipótesis nula de aleatoriedad
es sostenible, se debe esperar que:

Es decir, la probabilidad es de
95%, de que el intervalo anterior
incluya R.
27
Prueba de las rachas

Regla de decisión: No se rechace


la hipótesis nula de aleatoriedad al
95% de confianza si R, el número
de rachas, esta en el intervalo de
confianza anterior; rechácese la
hipótesis nula si la R estimada se
encuentra fuera de estos limites. (se
puede elegir cualquier nivel de
confianza).
28
■ Como regla general si existe
autocorrelación positiva, el número
de rachas será reducido, mientras
que si existe autocorrelación
negativa el número de rachas será
grande.

29
Ejemplo
(- - - - - - - - - ) (+++++++++++++++++++++) (- - - - - - - - - -)
N = número total de observaciones 40
N1= número de símbolos + ,21
N2= número de símbolos –, 19
Longitud de racha 1=9 ,de racha 2=21,
de racha 3=10
R = número de rachas, 3.

30
Ejemplo
■ H0: Los residuos en la regresión son
aleatorios.
■ H1: Los residuos no son aleatorios.

31
Ejemplo
El Intervalo de Confianza de 95% para R es:

32
Ejemplo
■ Regla de decisión: Como el
intervalo no incluye al 3 se rechaza
la hipótesis de que los residuos son
aleatorios, con un 95% de
confianza. Es decir los residuos
muestran autocorrelación.

33
Durbin Watson.
Durbin y Watson
■ Para detectar la presencia de autocorrelación
en una serie de datos la prueba más utilizada
y que aparece en prácticamente todos los
softwares econométricos es la de Durbin
Watson.
■ Para este fin se define el estadístico de la
siguiente manera:

35
Durbin y Watson
■ Dicho estadístico se basa en los residuos que
se calculan automáticamente en el análisis de
regresión.
■ Otra forma de representar el estimador es de
la siguiente manera:

■ Donde r^ es un estimador del coeficiente de


autocorrelación de primer orden.

36
Durbin y Watson
■ El valor de r^ estará entre 1 y -1 lo cual
implica que 0 < d < 4
■ Cuando r^ = 0 tendremos que d = 2
■ Cuando r^ = -1 tendremos que d = 4
■ Cuando r^ = 1 tendremos que d = 0

■ Por tanto, como regla general, si se encuentra


que d = 2 puede suponerse que no existe
autocorrelación de primer orden.

37
Durbin y Watson
■ Tablas:
■ Durbin y Watson formularon una tabla donde
se muestran los límites inferiores y superiores
de un valor crítico (dL y dU) que, de acuerdo al
valor obtenido en la estimación del estadístico
d, permite tomar decisiones sobre la posible
presencia de correlación serial positiva o
negativa.

38
Durbin y Watson
■ Los valores de significancia de las tablas de
Durbin-Watson se tabulan para probar la
hipótesis de ρ=o, contra ρ>0. La tabla
arroja dos valores dL y dU.
■ Si d>2 y se desea probar la hipótesis de
ρ=o, contra ρ<0 , se considera 4-d y se
hace referencia a las tablas como si se
probara una autocorrelación positiva

39
Durbin y Watson
ƒ(d)

¿? ¿?
ρ=1 ρ=0 ρ= -1

0
4
dl du (4-du) (4-dl)

40
Rechácese Ho. Zona de No se Zona Rechácese Ho*.
Evidencia de indecisión rechace Ho de Evidencia de
autocorrelación O Ho* o indecisión autocorrelación
Positiva ambas negativa

0 dL dU 2 4- dU 4- dl 4

41

También podría gustarte