Está en la página 1de 13

UNIDAD 1: PROBLEMAS ECONOMÉTRICOS

Miriam Camacho V. Miriam Camacho V.

CONTENIDO
INTRODUCCIÓN
Introducción
1.1 Naturaleza de la Autocorrelación
•En general, la relación entre dos o más
1.2 Consecuencias fenómenos o variables se puede
1.3 Pruebas para detectar la expresar:
autocorrelación
1.4 Soluciones posibles a la Autocorrelación
Variables
Variable
Y=f(X2,X3,..XK) explicativas
dependiente

Modelo de Regresión Lineal en su forma


Si la relación entre las variables es
matricial
lineal  Modelo de Regresión Lineal
Y  X  U
Yi  1   2 X 2i  ....   k X ki  U i  U1 
 Y1   1 X 21 ... X K 1   1   
     
Y: Variable dependiente  Y2   1 X 22 ... X K 2   2  U 
U  2
Y   X     ... 
Xk: Variable independiente ... ... ... ... ...  ...
       
Y  1 X ... X Kn    U 
 1: Término independiente  n  2n  K  n
 2,  3,…. K: Coeficientes de
cada una de las variables }  Parámetros Y: Es un vector (n,1)
X: Es una matriz (n,K)
explicativas :Vector de coeficientes (K,1)
Ui Error poblacional U: Es un vector (n,1)

1
Para comprender los supuestos del Modelo lineal
clásico, se debe distinguir entre la Función de 2000
Regresión Poblacional (FRP) y la Función De Regresión Ejemplo: Se desea
Muestral (FRM) efectuar el análisis 1800

del comportamiento
Recordemos: El objetivo del análisis de regresión es de los gastos en
1600

estimar o predecir los valores promedio de la variable consumo en función 1400


dependiente para valores dados de la variable del nivel de ingreso.
independiente. Para el caso de dos variables, C 1200
o
simbólicamente: n
s 1000

E(Y/Xi) Gráficamente: u
m
o 800
Es decir el promedio de Y para cada nivel (
de la(s) variable(s) explicativa(s) X B
s
600
.
Por lo tanto: ) 400
0 400 800 1200 1600 2000 2400 2800

E(Y/Xi) = f(Xi) Ingreso (Bs.)

Por tanto: 2000 2000


Yi
Yi
Para obtener la 1800
FRP se ei
Yi =  1 +  2Xi +1800Ui Ui debe disponer de toda la ^Y Ui
Ui = Yi - E(Y/Xi)
1600 información de
1600 la i
población.
E(Y/Xi) = FRP 1400 1400
En general, se dispone
E(Y/Xi)=  1 +  XiC 1200
o 2
de una muestra. Co 1200
n n
s 1000 Y se obtiene: s 1000
u u
m
o 800 Yˆi  ˆ1   2 Xi : FRM
m
o 800

De donde:
( (
B 600 B 600
s s
.
) 400 Yi  Yˆi  ei .
) 400

Yi  ˆ1  ˆ2 Xi  ei
0 400 800 1200 1600 2000 2400 2800 0 400 800 1200 1600 2000 2400 2800

Ingreso (Bs.) Ingreso (Bs.)

2000 Análisis de Regresión: Encontrar la FRM que


Yi
ei más se ajuste a la FRP
1800

Por tanto: ^Y Recordemos que en el modelo:


1600 i
Yˆi, estimador.de.1400
Yi Y  1   2 X 2  3 X 3  .....   K X K  U
Y C 1200 Los parámetros  1,  2, …,  K son desconocidos y
ˆ1. y.ˆ2 , estimadoresn.
o deben ser estimados con la información muestral
El método más utilizado es el de MCO y permite
s 1000
de.1. y. 2 m
u
obtener la recta mínimo cuadrática
o 800

Yˆ  ˆ1  ˆ2 X 2  ˆ3 X 3  .....  ˆK X K


(
B 600
s
.
) 400
0 400 800 1200 1600 2000 2400 2800 donde : ˆ1 , ˆ2 ,..., ˆK , son los estimadores de MCO
Ingreso (Bs.)

2
Supuestos:
MCO: Hacer mínima la suma de cuadrados
de los errores de estimación, es decir:
2. Los valores de las variables
Min ei2  Min  (Yi  Yˆi) 2 explicativas son fijos en el
muestreo repetido
MCO dará las mejores estimaciones si se
cumplen los siguientes supuestos: Por tanto el análisis de regresión
es un análisis condicional.
1.El modelo es lineal en los
parámetros

Yi  1   2 X 2i  ....   k X ki  U i

2000

3. El valor esperado 1800 5. Varianza de U es constante: E[ui2]=2


de U es 0 Homoscedasticidad
1600
E[Ui] = 0 Vi f(u)
1400 Y
4. Los términos de
perturbación no están C 1200
correlacionados entre on
sí. E[ut ut+s]=0 s 1000
u
m
o 800
No Autocorrelación
(
En caso contrario las
B 600
s
perturbaciones están .
) 400 X
Correlacionadas 0 400 800 1200 1600 2000 2400 2800

Ingreso (Bs.)

5. Varianza de U es constante: E[ui2]=2 En términos matriciales estos dos últimos supuestos


se pueden expresar:
El incumplimiento se conoce como:
Heteroscedasticidad E[UU’]=2In

O lo que es lo mismo:
f(u) Consumo
1 0 ... 0   2 0 ... 0 
   
0  E[UU ' ]   0  
2
2 0 1 ... ... 0
E[UU ' ]    1  ... ... 
... ... ... ...  ... ...
   0
0
 0 ...  2   0 ...  2 

Que es la matriz de varianzas y covarianzas


•Los términos de la diagonal principal son las varianzas
•Los términos fuera de la diagonal son las covarianzas
X entre parejas de términos de perturbación

3
6. La cov[X,u)=0.
7. El número de observaciones debe ser
La variable X y U no están correlacionadas
mayor al número de parámetros a estimar
(no se influyen)
En el siguiente ejemplo este supuesto no se cumple 8. No existe multicolinealidad
f(u) Consumo

9. No todos los valores de cada Xk


son iguales (son variables).

10. El modelo está correctamente


especificado

1.1 NATURALEZA DE LA AC Y SUS CONSECUENCIAS


11. U se distribuye normalmente. En resumen los supuestos del modelo lineal clásico
son:
f(u)
Y i) El modelo es lineal
Y = X + U
ii) E[U]=0
 2 0 ... 0 
iii) E[UU’]= ² In,  
 0 2 ... 0 
O lo que es lo mismo: E[UU ' ]   
 ... ... ... ...
 0 ...  2 
 0

X
iv) X es un conjunto de números fijos
v) Rango de X =K< n
Por tanto: U  N (0,  2 In) vi) U  N( 0, 2)

2000
Yi
FRP: E[Y/Xi]= 1+1800 ei 1.1 NATURALEZA DE LA AC Y SUS CONSECUENCIAS
2Xi
^Y Ui Nos ocuparemos del incumplimiento:
Ui = Yi- E[Y/Xi]=
1600 i E[UU’]= ² In
1400  2 0 ... 
0
 
No confundir:  0 2 ... 
0
C 1200
o
E[UU ' ]   
n  ... ... ... ...

Yˆi  ˆ1   2 Xi : FRM
s 1000  0 2
...  
u  0
m
De donde: o 800
Que expresa el doble supuesto:
(
Yi  Yˆi  ei B
s
600 •Homoscedasticidad: E[Ui2] = ² (Constante)
.
Yi  ˆ1  ˆ2 Xi  ei) 400 •No Autocorrelación: E[Ut Ut+s] = 0 ; s0
0 400 800 1200 1600 2000 2400 2800

Ingreso (Bs.)

4
Qué significa? Autocorrelación: Correlación existente entre los miembros
de una serie de observaciones ordenadas en el tiempo, si
se trata de datos temporales, o en el espacio si se trata
No Autocorrelación: E[Ut Ut+s] = 0 ; s0 de datos de corte transversal.

• Datos de corte transversal: El valor de perturbación Cómo se produce la autocorrelación?


”extraído” para cualquier unidad no está influido por Ejemplos:
los correspondientes a las demás unidades
• Series de tiempo: Independencia serial. El término • En datos mensuales, en una regresión de la producción
(P) en función de los insumos capital (K) y trabajo (L). En
de perturbación de un período no está influenciado caso de una huelga, la interrupción puede afectar la
por el término de perturbación de otro período. producción en el siguiente mes.
• En datos de corte transversal: El aumento de gastos en
El incumplimiento de este supuesto supone la consumo de una familia puede motivar a otra, también a
correlación entre términos de perturbación aumentar sus gastos en consumo.
•Por la naturaleza de las variables económicas, la mayoría
AUTOCORRELACIÓN están relacionadas con el tiempo y experimentan ciclos y
tendencias

Cómo se produce la autocorrelación? 1.1 NATURALEZA DE LA AC Y SUS CONSECUENCIAS


•Algunas variables económicas están relacionadas con ellas
mismas con rezago.
1.1.1 Tipos de Autocorrelación:
It= 1+ 2Xt+ 3It-1+Ut
Ct= 1+ 2Yt+ 3Ct-1+Ut • Positiva: Cuando las series se mueven hacia
arriba o hacia abajo todo el tiempo o por largos
•Se produce autocorrelación cuando se omiten variables períodos de tiempo
importantes en el modelo (sesgo de especificación).

•Se produce autocorrelación por especificación incorrecta


de la forma funcional del modelo •Negativa: Cuando la serie tiene un movimiento
ascendente-descendente
•Se produce autocorrelación por manipulación de los datos

En las series de tiempo es muy probable que las


observaciones sucesivas sean interdependientes. Es menos
probable en datos de corte transversal.

1.1 NATURALEZA DE LA AC Y SUS CONSECUENCIAS 1.1 NATURALEZA DE LA AC Y SUS CONSECUENCIAS


Considerando series de tiempo, las situaciones Autocorrelación negativa
que se pueden presentar serían la siguientes:

Ut Ut
Ut

t t
t

No Autocorrelación
Ut Ut
Ut
t t
t

Autocorrelación positiva

5
1.1 NATURALEZA DE LA AC Y SUS CONSECUENCIAS
1.2 Consecuencias de la Autocorrelación
La forma más usual de AC es la de primer orden,
AR(1), es decir: i) Los estimadores de MCO siguen siendo insesgados
Ut=Ut-1+t y consistentes, pero ya no son eficientes, para
Donde:||<1 ; -1<<1 ningún tipo de muestra (grande o pequeña).
ii) S2 estimador de u² subestima el valor de la
E[t]=0 y Var[t]= 2 y E[t t+s]=0 varianza. Recordemos que la matríz de varianzas y
covarianzas del estimador mínimo cuadrático es:
Que se conoce como: Var[ˆ ]   2 ( X ' X ) 1
Esquema autorregresivo de Markov O en el caso del modelo de dos variables:
En general, se puede suponer que la dependencia 2
temporal se extiende hasta p retardos, es decir: Var[ ˆ1 ]  Var[ ˆ2 ]   2
X i
2

Ut=1Ut-1+ 2Ut-2+ 3Ut-3+,,, + pUt-p+ t


x 2
i n xi2
Por tanto se subestiman los errores estándar de los
Esquema autorregresivo de orden p AR(p) estimadores de MCO

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN


Ho: No Autocorrelación H1: Autocorreláción
1.2 Consecuencias de la Autocorrelación 1.2.1 Método gráfico
iii) En consecuencia, las pruebas t y F no son Análisis gráfico del comportamiento de los residuos
confiables, se obtendrían conclusiones.
Erróneas.
et
ˆk
Recuérdese que: t k 
Sˆˆk
t
iv) Las estimaciones son poco precisas, puesto
que:
ˆk  t 2 Sˆˆk Existe autocorrelación si se presentan los patrones anteriores
Dos etapas:
1. Estimar por MCO y obtener et
2. Graficar

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.1 Método gráfico 1.2.1 Método gráfico
También puede utilizarse la Función de Autocorrelación y el gráfico
de la Función de autocorrelación, es decir, de las correlaciones Gráfico de la Función de autocorrelación, en SPSS, es el
sucesivas de los residuos.
siguiente:
Con los datos de AL Autocorrelaciones
En SPSS, la salida Serie:Unstandardized Residual
Retardo Estadístico de Box-Ljung

Para los datos de A.L.:


a b
Autocorrelación Típ. Error Valor gl Sig.
1 ,300 ,179 2,794 1 ,095

Analizar 
2 ,219 ,176 4,344 2 ,114
T k 3 ,085 ,173 4,585 3 ,205

 (e  e )(e
t t k  e) 4
5
,010
-,058
,169
,165
4,588
4,713
4
5
,332
,452 Predicciones 
̂ k  t 1
T
6 -,082 ,162 4,967 6 ,548

 (e  e ) Autocorrelaciones
2 7 -,112 ,158 5,466 7 ,603
t 8
dimensio
-,366 ,154 11,094 8 ,196
t 1
n1

9 -,253 ,150 13,926 9 ,125


10 -,194 ,146 15,691 10 ,109
11 -,172 ,142 17,154 11 ,103

(Versión 17)
12 -,088 ,138 17,561 12 ,130
13 ,055 ,134 17,732 13 ,168
14 ,003 ,129 17,733 14 ,219
15 -,040 ,124 17,835 15 ,271
16 -,085 ,120 18,340 16 ,304
a. El proceso subyacente asumido es la independencia (ruido blanco).
b. Basado en la aproximación chi cuadrado asintótica.

6
1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.2 Prueba de Von Neumann 1.3.2 Prueba de Von Neumann 2  2 
 E 2 
Prueba para autocorrelación: Ut=Ut-1+t S2  S   N 0,1
• Por tanto: Z 
 2 
• Ho: No Autocorrelación H1: Autocorrelación Var  2 
S 
• Estadístico de prueba:
2
 (e  e
t t 1 )2
N(0. 1)
 n 1
S 2
 (e  e )
t
2

n AC + NO AC AC -
• Para muestras suficientemente grandes:
2   2   2  
 N  E  2 ,Var  2  
S2   S  S  0.025 0.025
-1.96 0 1.96 z
  2  2n  2  4n 2 (n  2)
E 2   ;Var  2   Toma de decisión: Contrastando el valor observado con el
 S  n 1  S  (n  1)(n  1)
3
valor teórico para un valor dado de nivel de significación.

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.3 Prueba Durbin-Watson
1.3.3 Prueba Durbin-Watson
Se basa en los siguientes supuestos: • Ho: No Autocorrelación H1: Autocorrelación
• La AC se genera mediante el esquema • Estadístico de prueba:
autorregresivo de primer orden: Ut=Ut-1+t
d
 (e  e
t t 1 )2
• El modelo incluye el término independiente o
e
2
intercepto t

• Las variables explicativas son no estocásticas


• No hay observaciones faltantes • Los valores críticos se obtienen en la tabla D-W

• El modelo no incluye valores rezagados de la Se rechaza la Ho si: d < dl (Límite inferior)


variable dependiente. En este caso se debe obtener
el estadístico h de Durbin. No se rechaza Ho si: d > du (Límite superior)
Pero si: dl < d < du la prueba es indecisa
n
h  ˆ
1  nS 2ˆ y ( 1)

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.3 Prueba Durbin-Watson 1.3.3 Prueba Durbin-Watson Tabla:

Gráficamente:

AC + In NO AC In AC -

0 dl du 2 4-du 4-dl 4

• 0 < d < 4
• Sin AC los valores de d estarán próximos a 2

7
1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.3 Prueba Durbin-Watson 1.3.3 Prueba de Durbin-Watson
Tabla: al 1%
• Ho: No Autocorrelación H1: Autocorrelación
• Estadístico de prueba:
d
 (e  e )
t t 1
2

 (e  e )t
2

AC + In NO AC In AC -

0 1,328 1,476 2 4-du 4-dl 4

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.3 Prueba Durbin-Watson 1.3.3 Prueba Durbin-Watson
Para modelos que incluyen valores rezagados de la
Se puede utilizar la aproximación a variable dependiente se utiliza el estadístico h de
 d
la normal si la muestra es grande: n 1    N 0,1 Durbin (d tiende a 2).
 2
N(0. 1) h  ˆ
n
1  nS 2ˆy ( 1)

; donde : ˆ  1  d
2

AC + NO AC AC - Ejemplo: Yt  1   2 X t  3Yt 1  U t Modelo Autorregresivo

Procedimiento:

0.025 0.025 1º Estimar el modelo por MCO


2º Obtener la varianza de ^B3
-1.96 0 1.96 z
Toma de decisión: Contrastando el valor observado con
el 3º Calcular el valor estimado de 
valor teórico para un valor dado de nivel de significación. 4ª Calcular h
Para muestra grande h  N(0, 1)

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.3 Prueba Durbin-Watson
1.3.4 Prueba Breusch-Godfrey (BG)
Para muestras grandes h  N(0, 1)

h  ˆ
n Se puede utilizar para probar:
Nota importante: 1  n *Var (  3 ) •Modelos autorregresivos de primer orden AR(1)
•Modelos de promedios móviles de términos de error
No se puede realizar la prueba h cuando: de ruido blanco

n *Var[ ˆ3 ]  1
Por qué????? Esta prueba se conoce como:
Cuando esto sucede se utiliza otro procedimiento. Se
estima el modelo:
Prueba de Multiplicador de Lagrange o Prueba ML
et    et 1  1Yt 1   2 X t  U t
Se prueba la significación estadística de 

8
1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.4 Prueba Breusch-Godfrey (BG)
1.3.4 Prueba Breusch-Godfrey (BG)
Sea el modelo: Yt  1   2 X t  U t
Sea el modelo: Yt  1   2 X t  U t Ho: 1  2  3  .....   p  0 (No Autocorrelación)
H1: Por lo menos uno diferente de 0
Suponiendo que el término de error sigue un esquema
AR(p), es decir: (n-p) R22(p) (asintóticamente)

U t  1U t 1  2U t 2  3U t 3  .....  3U t  p   t Donde R2 es el coeficiente de determinación de la


regresión:
Donde t, tiene media 0, varianza constante y no et  1   2 X t  1et 1  2et 2  3et 3  .....   p et  p   t
autocorrelacionado 1º Correr por MCO y obtener los residuos
2ª Correr la regresión de los residuos en función de
Por lo pronto, supóngase que se conoce p (número sus p rezagos y las variables explicativas
u orden del rezago). Problema cuando no se cuenta con muestras grandes

1.3 Pruebas para detectar Autocorrelación


1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.4 Prueba Breusch-Godfrey (BG)
1.3.4 Prueba Breusch-Godfrey (BG) Breusch-Godfrey Serial Correlation LM Test:

Ho: 1  2  3  .....   p  0 (No Autocorrelación) Con los datos del F-statistic


Obs*R-squared
1.644474
3.374646
Prob. F(2,24)
Prob. Chi-Square(2)
0.2141
0.1850

consumo opara
H1: Por lo menos uno diferente de 0
A.L.: Test Equation:
Dependent Variable: RESID
Method: Least Squares

Ho: No existe AC Date: 03/28/21 Time: 19:28

2(p) Sample: 1990 2017


Included observations: 28
H1: Existe AC Presample missing value lagged residuals set to zero.

Variable Coefficient Std. Error t-Statistic Prob.


No se Rechaza Ho Se Rechaza Ho Si (n-p) R2 <  2  PIB -0.001257 0.006321 -0.198808 0.8441
No Autocorr. Existe Autocorrelación No se rechaza Ho C 4204.233 26711.64 0.157393 0.8763
RESID(-1) 0.357743 0.356122 1.004553 0.3251
RESID(-2) 0.060779 0.407014 0.149329 0.8825
Si (n-p) R2 >  2  R-squared 0.120523 Mean dependent var 1.98E-10
Se rechaza la Ho Adjusted R-squared
S.E. of regression
0.010588
31548.18
S.D. dependent var
Akaike info criterion
31716.55
23.68798
Sum squared resid 2.39E+10 Schwarz criterion 23.87830
0
 2 2
Log likelihood -327.6318 Hannan-Quinn criter. 23.74616
F-statistic 1.096316 Durbin-Watson stat 1.511096
Prob(F-statistic) 0.369848
Si (n-p) R2 <  2  No se rechaza la Ho (No existe AC) En EVEWS: Correr la regresión View Residual Tests
Si (n-p) R2 >  2  Se rechaza la Ho (Existe AC)  Serial Correlation LM Test

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN


1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.5 Prueba de las secuencias o rachas
1.3.4 Prueba Breusch-Godfrey (BG)
Prueba no paramétrica se basa en el signo de los
Ho: 1  2  0 (No Autocorrelación) residuos.
H1: Por lo menos uno diferente de 0 • Ho: No Autocorrelación H1: Autocorreláción
• Estadístico de prueba:
2(2) n: Número de secuencias
Secuencia: Sucesión ininterrumpida de signos
No se Rechaza Ho Se Rechaza Ho
No Autocorr. Existe Autocorrelación

• Los valores críticos se obtienen en la


Tabla de Secuencias o rachas
0 5,99 2 * Demasiadas secuencias (muchos cambios de signos)  AC-
Si (n-p) R2= (28-2)*0,120523 = 3,12 * Pocas secuencias (pocos cambios de signos)  AC+
 No se rechaza la Ho (No existe AC)
Si (n-p) R2 >  2  Se rechaza la Ho (Existe AC)

9
1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.5 Prueba de secuencias o rachas 1.3.5 Prueba de las secuencias o rachas

Ejemplo: Tabla:
+ + - + + - - - + + - + + + + - -
N1= 10 Número de signos positivos
N2= 7 Número de signos negativos
N= 17 Total signos
n = 8 Número de secuencias

AC + NO AC AC -

2 5 8 14 17

• Si n < 5 se Rechaza Ho: No AC  AC+


• Si n > 14 se Rechaza Ho: No AC  AC-

1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN 1.3 PRUEBAS PARA DETECTAR AUTOCORRELACIÓN
1.3.5 Prueba de las secuencias o rachas 1.3.5 Prueba de secuencias o rachas
Tabla: Si N1> 10 y N2> 10 (más de 20 observaciones)

n  N En,Var n
2 N1 N 2 (2 N1 N 2  N1  N 2 )
Donde: En   1;Var n 
2 N1 N 2

N1  N 2 ( N1  N 2 ) 2 ( N1  N 2  1)

• Por tanto:
n  En
Z  N 0,1 N(0. 1)
Var n
AC + NO AC AC -

0.025 0.025
-1.96 0 1.96 z

1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN


1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN
La forma más usual de AC es la de primer
(1)........Yt  1   2 Xt  Ut
orden, es decir:
Ut=Ut-1+ t Procedimiento en el modelo de dos variables:
Rezagando en un período:
Donde:||<1 ; -1<<1 Yt 1  1   2 X t 1  U t 1
E[t]=0; E[t2]=2 y E[t t+s]=0 (2)...Yt 1  1  2 X t 1  U t 1
(1)  (2)..(Yt  Yt 1 )  (1   ) 1   2 ( X t  X t 1 )  (U t  U t 1 )
t cumple con los supuestos del modelo de MCO
Yt*  1*   2 X t*   t*
Se conoce como Ecuación en Diferencia Generalizada
Supóngase que  es conocida. Donde: t = Ut - Ut-1; puesto que Ut = Ut-1+ t
Sea el modelo de dos variables: Que cumple con los supuestos de MCO, por tanto el
modelo se ha corregido

Yt  1   2 Xt  Ut Tiene que estimarse Yt* en función de Xt*


Con: Y1*  Y1 1   2 X 1*  X 1 1   2
Que se conoce como transformación de Prais-Winsten

10
1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN 1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN
ii) Utilizando el estadístico de D-W
Para corregir el modelo es necesario estimar 
Recordemos que: d 
 (e  e ) t t 1
2

i) Procedimiento en dos etapas de Durbin:


e
2
t

d
 et   et21  2 et et 1
2

1º Correr la regresión:  et
2

Yt  (1   )1   2 X t  3 X t 1  Yt 1   t Como t y t-1 solo difieren en una observación


2º Se reemplaza el valor estimado de  en el  2 et2  2 et et 1   et et 1 
modelo transformado. d  21  
e   et 
2 2
t 
El último término es el estimador de 

ˆ  
et et 1
d  2(1  ˆ )  ˆ  1  d
e 2
2
t

1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN


1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN iv) Procedimiento de Cochrane-Orcutt
iii) Estimación de Theil-Nagar Es un proceso iterativo, para estimar el mejor
valor estimado de .
n 2 (1  d 2)  K 2 1º Estimar por MCO para obtener los residuos y
ˆ  correr la regresión:
n2  K 2 et  et 1  t
2º Utilizar el valor estimado de  para estimar por
Donde: MCO el modelo corregido, de donde se obtienen las
n: Número total de observaciones estimaciones de todos los coeficientes.
d: Estadístico de D-W (Yt  ˆYt 1 )  (1  ˆ )1   2 ( X t  ˆX t 1 )   t    Yt*  1*   2 X t*   t*
K: Número de parámetros a estimar
3º Sustituir las estimaciones de los coeficientes en el
modelo original, y obtener los nuevos residuos y así
Si n es grande este método coincide con el de D-W sucesivamente.

Yˆt  ˆ1  ˆ2 X t    et

1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN 1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN


iv) Procedimiento de Cochrane-Orcutt v) Método de la primera diferencia

Se detiene el proceso iterativo cuando el valor Se utiliza cuando  tiene valor próximo a 1
estimado de  difiere de las anteriores estimaciones
por menos de 0.01 o 0.005 Si  = 0  No existe AC
En SPSS: Si  = +1  Existe AC perfecta (positiva o negativa)
Analizar  Series temporales  autorregresión Sea  = 1 en el modelo de dos variables:
Yt 1  1   2 X t 1  U t 1
Si No existiese el módulo de Series temporales se (Yt  Yt 1 )  (1   ) 1   2 ( X t  X t 1 )  (U t  U t 1 )
puede crear un archivo de Sintaxis (programa) con la Yt*  1*   2 X t*   t*
siguiente instrucción:
(Yt  Yt 1 )  (0) 1   2 ( X t  X t 1 )   t
AREG consumo WITH PIB / METHOD=C0/
CONSTANT/ RHO=0. Yt   2 X t   t
Correr el modelo de las primeras diferencias de la variable
dependiente en función de la primera diferencia de las
variables explicativas sin intecepto

11
1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN 1.4 SOLUCIONES POSIBLES A LA AUTOCORRELACIÓN
v) Método de la primera diferencia vi) Método de la primera diferencia
Dado que se supone que  = 1 Prueba Berenblutt-Web
 Este método es válido si: Ejemplo: g=0.35
• El coefic. de autocorrelación es cercano a 1 (>0.8)
• d es muy bajo (AC+ de primer orden alta)

Maddala: Si d < R2 AC + In NO AC In AC -
Este método es válido si =1. Existe una prueba para
probar este supuesto. 0 0.35 1.201 1.411 2 2.589 2.799 4
Ho: =1 H1: 1 (Prueba Berenblutt-Web) • n = 20; k’=1 (Si el modelo original tiene intercepto)
 e (mod .dif )
2
Estadístico: g t • Puesto que g < 1.201 (límite inferior)
 e (mod .MCO)
2
t  Al 5%, No se rechaza Ho: =1, en consecuencia la
Se obtiene el valor de g y se compara con los valores transformación en diferencia bajo este supuesto puede ser
críticos de la tabla D-W adecuada

1.4 SOLUCIONES POSIBLES A LA


AUTOCORRELACIÓN
Método de Prais-Winsten
 Instrucción en SPSS
vi) Estimación de  a partir de los residuos AREG VARIABLES=RESINT WITH EXPORT DEUDAPUB
/METHOD=PW

Ut  Ut 1   t
/CONSTANT
Si:

Se puede estimar  a partir de los residuos:

1ª Obtener los residuos et

2º Correr: et  ˆ et 1  t Sin intercepto

3º Corregir el modelo con el valor estimado de 

Método de Cochrane-Orcutt Método de Máxima Verosimilitud


 Instrucción en SPSS  Instrucción en SPSS
AREG VARIABLES=RESINT WITH EXPORT DEUDAPUB AREG VARIABLES=RESINT WITH EXPORT DEUDAPUB
/METHOD=CO /METHOD=ML Historial de iteraciones

Coeficientes de regresión
/CONSTANT /CONSTANT Deuda Pública
Exportaciones Externa Suma de
(millones de (millones de cuadrados Constante
Rho (AR1) $US) $US) Constante ajustada Marquardt

0 ,285 ,019 -2,858 15552,505 195613577,517 ,001


1 ,636 -,432 -2,226 14592,927 124556251,160 ,001
2 ,827 -,617 -1,704 13160,642 93560016,273 ,000
3 ,914 -,672 -1,592 12945,125 87758365,170 1,000E-5
4 ,925 -,677 -1,586 12949,446 87690200,839 1,000E-6
5 ,924 -,676 -1,587 12948,600 87689297,322 1,000E-7
6 ,924 -,676 -1,587 12948,716 87689280,501a 1,000E-8

Se utilizó el algoritmo de Melard para la estimación.


a. La estimación ha terminado en esta iteración, porque la suma de cuadrados se ha reducido en menos de
,001%.
Estimaciones de parámetro
Error
Estimaciones estándar t Sig aprox
Rho (AR1) ,924 ,082 11,207 ,000
Coeficientes Exportaciones
-,676 ,161 -4,196 ,001
de regresión (millones de $US)
Deuda Pública Externa
-1,587 ,882 -1,799 ,091
(millones de $US)
Constante 12948,716 5854,414 2,212 ,042
Se utilizó el algoritmo de Melard para la estimación.

Se utiliza cuando el modelo incluye como variable explicativa la variable


dependiente rezagada en un periodo AR(1)

12
Método de Newey-West

 Eviews: Options

13

También podría gustarte