Está en la página 1de 17

Tabla 10.

13 (Gujarati,Econometría)
Variables del Modelo Teórico Periodo 1971-1986
Y = Automóviles de pasajeros nuevos vendidos (miles), sin ajuste estacional

X2 = Automóviles nuevos, IPC, 1967 = 100, sin ajuste estacional.

X3 = IPC, todos los renglones, todos los consumidores urbanos, 1967 = 100, sin ajuste
estacional.

X4 = Ingreso personal disponible (IPD), miles de millones de dólares, sin ajustar por variación
estacional.

X5 = Tasa de interés, porcentaje, colocación directa de valores de la compañía financiera.

X6 = Fuerza laboral civil empleada (miles), sin ajustar por variación estacional.

Observaciones del Modelo Teórico

Obtenemos una ecuación Log-Lineal con fines de mejorar nuestro ajuste en la


cual:
LY => Variable Dependiente
LX2,LX3,LX4,LX5 y LX6 => Variables Independientes
Mediante la estimación por Mínimos Cuadrados (Least Squares) obtenemos los
coeficientes estimados de los parámetros (mejores estimadores linealmente
insesgados: BLUE=>Best Lineal Unbiased Estimator) por lo cual obtenemos la
ecuación estimada cuya representación es:

Estimation Command:
=========================
LS LY C LX2 LX5 LX6

Estimation Equation:
=========================
LY = C(1) + C(2)*LX2 + C(3)*LX5 + C(4)*LX6

Substituted Coefficients:
=========================
LY = -22.1037387423 - 1.03783851235*LX2 - 0.294929037621*LX5 + 3.24388635305*LX6

En la Tabla inferior entre los estadísticos observamos que la prueba t que es


para pequeñas muestras nos sirve para hacer la prueba individual del modelo,
los regresores no son significativos excepto LX3 (Prob <0.05) en las cuales se
acepta la hipótesis nula de no significancia para el modelo (Error Tipo I) sin
embargo muestra un R2 que es mayor a 0.8 por cual indica que los regresores
explican bien a nuestro modelo y la prueba a nivel global F confirma también que
nuestro modelo es significativo para todos los regresores esta contradicción nos
haría sospechar de ortogonalidad entre regresores es decir del problema de
Multicolinealidad entre las variables independientes

Para ello obtenemos la Matriz de correlación líneas abajo y su representación


como Dispersión (Scatter). Efectivamente vemos una alta correlación entre las
variables explicativas LX2 y LX4(0.9931), LX2 y LX3(0.9958), LX3 y LX4(0.9960)
LX4 y LX6 también tienen una correlación alta pues el ingreso personal
disponible esta relacionado con el nivel de empleo por lo cual podemos eliminar
LX4 y LX3.

Value

DETCOR 0.000000135

Vemos también que la determinante es cercano a cero lo que es tambien un


indicativo de multicolinealidad perfecta.
Gráfico de correlaciones

Nos quedamos con nuestro nuevo modelo cuyos regresores son X2,X5 y X6 y
estimamos el modelo y el cual son significativos para nuestro modelo estimado
la cual se observa en la prueba t de prueba individual para nuestros estimadores
(Prob<0.05), R2 y Prueba F a nivel de todo el modelo.
NUEVO MODELO

Estimation Command:
=========================
LS LY C LX2 LX5 LX6

Estimation Equation:
=========================
LY = C(1) + C(2)*LX2 + C(3)*LX5 + C(4)*LX6

Substituted Coefficients:
=========================
LY = -22.1037387423 - 1.03783851235*LX2 - 0.294929037621*LX5 + 3.24388635305*LX6

Entre otros estadísticos tenemos el R2 Ajustado (mide la bondad de ajuste del


modelo al incluir nuevos regresores), log likelihood (función de
verosimilitud),criterio de información de Akaike y schwarz(que indica si es posible
mejorar el modelo a medida que incluimos variables la cual debe ir
reduciéndose), Durbin Watson (que indica ausencia de autocorrelación de primer
orden cuando se aproxima a 2 y p tiende a 0 =>DW=2(1-p) donde p es el
coeficiente estimado de autocorrelación simple)

PRUEBA DE NORMALIDAD DE RESIDUOS

PRUEBA DE NORMALIDAD (QUANTILE-QUANTILE)


Observamos que los residuos son normales que la media tienden a cero el cual
es indicio de posible normalidad en residuos,el skewness es con signo menos e
indica asimetría negativa y la Kurtosis que es indice de apuntamiento de la
distribución(mesocúrtica,platicurtica,leptocúrtica) es cercano a tres es decir
mesocúrtica lo cual tambien es indicio de normalidad en los errores ,el cual es
confirmado por la probabilidad de Jarque Bera que acepta la normalidad de los
residuos es decir la hipótesis nula.

Prueba de restricción de Coeficientes

Wald Test:
Equation: NUEVO_MODELO

Test Statistic Value df Probability

t-statistic 3.481821 12 0.0045


F-statistic 12.12308 (1, 12) 0.0045
Chi-square 12.12308 1 0.0005

Null Hypothesis: C(2)+C(3)+C(4)=0


Null Hypothesis Summary:

Normalized Restriction (= 0) Value Std. Err.

C(2) + C(3) + C(4) 1.911119 0.548885

Restrictions are linear in coefficients.

El p-value del F sdencor del Test de Wald nos indica que es posible rechazar la
hiótesis nula porque existe una baja probabilidad de no rechazarlo(0.0045)

PRUEBA DE AUTOCORRELACION
Según las gráficas líneas abajo no se observa presencia de autocorrelación entre
los residuos, al menos no hay autocorrelación de primer orden MA(1)
(MA=Movies Average) y de otros lags.(rezagos).
Gráfico de residuos frente al tiempo
9.4

9.3

9.2
.15
9.1
.10
9.0
.05

.00 8.9

-.05

-.10

-.15
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86

Residual Actual Fitted

Residuos vs residuos retardados

RESID RESID(-1)
0.104674 NA
0.023355 0.104674
0.097004 0.023355
-0.122027 0.097004
-0.126838 -0.122027
-0.062449 -0.126838
-0.010493 -0.062449
0.039625 -0.010493
0.052025 0.039625
-0.017521 0.052025
0.015442 -0.017521
-0.043985 0.015442
0.004739 -0.043985
0.058263 0.004739
0.021029 0.058263
-0.032842 0.021029
.12

.08

.04
RESID(-1)

.00

-.04

-.08

-.12

-.16
-.16 -.12 -.08 -.04 .00 .04 .08 .12

RESID

Observamos la ausencia de autocorrelación de residuos a través del contraste


de Breush-Godfrey (Prob F > 0.05) el cual acepta la hipótesis nula de ausencia
de autocorrelación de segundo orden, confirmado tambien por el Durbin Watson
igual a 2 (2.0522), por lo cual no podría generar un AR(2) y no hay exogenidad.

Test de Breush Godfrey


Breusch-Godfrey Serial Correlation LM Test:

F-statistic 0.490489 Prob. F(2,10) 0.6263


Obs*R-squared 1.429349 Prob. Chi-Square(2) 0.4894

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 05/03/19 Time: 13:02
Sample: 1971 1986
Included observations: 16
Presample missing value lagged residuals set to zero.

Variable Coefficient Std. Error t-Statistic Prob.

C 2.799217 9.201075 0.304227 0.7672


LX2 0.113532 0.364169 0.311756 0.7616
LX5 -0.007798 0.082630 -0.094378 0.9267
LX6 -0.293168 0.958788 -0.305769 0.7661
RESID(-1) 0.331763 0.337947 0.981702 0.3494
RESID(-2) -0.118171 0.333272 -0.354576 0.7303

R-squared 0.089334 Mean dependent var 4.44E-16


Adjusted R-squared -0.365999 S.D. dependent var 0.067129
S.E. of regression 0.078458 Akaike info criterion -1.972509
Sum squared resid 0.061557 Schwarz criterion -1.682788
Log likelihood 21.78007 Hannan-Quinn criter. -1.957673
F-statistic 0.196196 Durbin-Watson stat 2.052240
Prob(F-statistic) 0.956904
Test de Ljung-Box y Box-Spierce

El correlograma de residuos para 12 lags también confirma la ausencia de


autocorrelación de cualquier orden por lo observado por la autocorrelación
parcial, además que podríamos decir que es no estacionaria según lo observado
por la autocorrelación al no converger a cero.

Date: 05/03/19 Time: 13:06


Sample: 1971 1986
Included observations: 16

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

. |** . | . |** . | 1 0.256 0.256 1.2596 0.262


. | . | . *| . | 2 -0.037 -0.110 1.2876 0.525
.***| . | .***| . | 3 -0.452 -0.448 5.8111 0.121
.***| . | . **| . | 4 -0.399 -0.241 9.6411 0.047
. *| . | . | . | 5 -0.077 0.044 9.7975 0.081
. |* . | . | . | 6 0.174 0.003 10.665 0.099
. |* . | . **| . | 7 0.082 -0.296 10.882 0.144
. |* . | . | . | 8 0.091 -0.012 11.179 0.192
. **| . | . **| . | 9 -0.217 -0.236 13.119 0.157
. *| . | . *| . | 10 -0.099 -0.108 13.587 0.193
. | . | . | . | 11 0.041 0.028 13.683 0.251
. |* . | . *| . | 12 0.117 -0.108 14.668 0.260
PREDICCION (FORECAST)
Este es una presicción dinámica desde el periodo 1971 hata 1986 Si es un buen
modelo para una buena predicción según indica el coeficiente de Theil cercano
a cero(0.003531)

9.6
Forecast: LYF
9.5 Actual: LY
Forecast sample: 1971 1986
9.4
Included observations: 16
9.3
Root Mean Squared Error 0.064998
Mean Absolute Error 0.052019
9.2 Mean Abs. Percent Error 0.566146
Theil Inequality Coefficient 0.003531
9.1 Bias Proportion 0.000000
Variance Proportion 0.094356
9.0
Covariance Proportion 0.905644
8.9

8.8
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86

LYF ± 2 S.E.

PRUEBA DE HETEROCEDASTICIDAD
Prueba de Barlett
Se realizo la Prueba de Bartlett el cual nos indica rechazar la hipótesis nula de
homocedasticidad de residuos es decir no tienen varianza constante por cual hay
problemas de heterocedasticidad el cual es confirmado por las otras 2 pruebas

Test for Equality of Variances Between Series


Heteroskedasticity Test: Breusch-Pagan-Godfrey

F-statistic 3.081351 Prob. F(3,12) 0.0683


Obs*R-squared 6.962176 Prob. Chi-Square(3) 0.0731
Scaled explained SS 3.055866 Prob. Chi-Square(3) 0.3831

Date: 05/03/19 Time: 13:25


Sample: 1971 1986
Included observations: 16

Method df Value Probability

Bartlett 2 347.8815 0.0000


Levene (2, 45) 54.72176 0.0000
Brown-Forsythe (2, 45) 33.93403 0.0000
Category Statistics

Mean Abs. Mean Abs.


Variable Count Std. Dev. Mean Diff. Median Diff.
X2 16 40.73568 35.76250 35.76250
X5 16 2.641945 2.124297 2.089375
X6 16 9256.421 7944.148 7787.188
All 48 45419.92 2660.678 2608.346

Bartlett weighted standard deviation: 5344.249

Contraste de Especificación y Diagnóstico del modelo


PRUEBA DE ESTABILIDAD ESTRUCTURAL
Se realizó la prueba de residuos recursivos y nos muestra que los parámetros son
estables y no hay quiebre estructural es decir que nuestro modelo no provienen
de otros proceso generador de datos, es necesario realizar otras pruebas como
CUSUM,CUSUM SQUARE,TEST DE CHOW

Estimaciones Recursivas de los parámetros


80 2

1
40
0

-1
0
-2

-3
-40
-4

-80 -5
75 76 77 78 79 80 81 82 83 84 85 86 75 76 77 78 79 80 81 82 83 84 85 86

Recursive C(1) Estimates Recursive C(2) Estimates


± 2 S.E. ± 2 S.E.

0.8 10.0

7.5
0.4

5.0
0.0
2.5
-0.4
0.0

-0.8
-2.5

-1.2 -5.0
75 76 77 78 79 80 81 82 83 84 85 86 75 76 77 78 79 80 81 82 83 84 85 86

Recursive C(3) Estimates Recursive C(4) Estimates


± 2 S.E. ± 2 S.E.
Residuos Recursivos
Se observa que los valores varían alrededor de cero con algunos
grandes saltos pero sin sobrepasar las bandas de confianza lo que
demuestra que puede existir estabilidad estructural en 1975,1976 o
1977
.3

.2

.1

.0

-.1

-.2

-.3
75 76 77 78 79 80 81 82 83 84 85 86

Recursive Residuals ± 2 S.E.

Estadístico CUSUM
Se observa que el gráfico se aleja cada vez mas hasta llegar a 1976
pues desde 1975bhay un fuerte alejamiento del valor cero lo que
indica que no hay estabilidad estructural
12

-4

-8

-12
75 76 77 78 79 80 81 82 83 84 85 86

CUSUM 5% Significance

Estadistico CUSUMQ
Se observa que el grafico se aleja de 0 a partir de 1975 por lo que puede existir
quiebre en 1975 o 1976

1.6

1.2

0.8

0.4

0.0

-0.4
75 76 77 78 79 80 81 82 83 84 85 86

CUSUM of Squares 5% Significance


Test de Chow
Según el Test de Chow no hay estabilidad estructural por lo que ocurre un
cambio estructural en1975 y 1976 por lo que se concluye que hay cambio
estructural en 1975 y 1976.

Chow Breakpoint Test: 1975


Null Hypothesis: No breaks at specified breakpoints
Varying regressors: All equation variables
Equation Sample: 1971 1986

F-statistic 10.23113 Prob. F(4,8) 0.0031


Log likelihood ratio 28.97340 Prob. Chi-Square(4) 0.0000
Wald Statistic 40.92454 Prob. Chi-Square(4) 0.0000

Chow Breakpoint Test: 1976


Null Hypothesis: No breaks at specified breakpoints
Varying regressors: All equation variables
Equation Sample: 1971 1986

F-statistic 5.354929 Prob. F(4,8) 0.0214


Log likelihood ratio 20.83558 Prob. Chi-Square(4) 0.0003
Wald Statistic 21.41971 Prob. Chi-Square(4) 0.0003

TEST DE ESPECIFICACION DEL MODELO


Test de Ramsey
Según el Test de Ramsey RESET nuestro modelo esta bien especificado por la
cual no es necesario transformar el modelo el F estadístico es 63.79% por lo
que no se rechaza la hipótesis nula de que el modelo está bien especificado.

Ramsey RESET Test


Equation: ECUACION_NUEVA
Specification: LY C LX2 LX5 LX6
Omitted Variables: Squares of fitted values

Value df Probability
t-statistic 0.483918 11 0.6379
F-statistic 0.234176 (1, 11) 0.6379
Likelihood ratio 0.337045 1 0.5615

F-test summary:
Mean
Sum of Sq. df Squares
Test SSR 0.001409 1 0.001409
Restricted SSR 0.067595 12 0.005633
Unrestricted SSR 0.066186 11 0.006017
Unrestricted SSR 0.066186 11 0.006017

LR test summary:
Value df
Restricted LogL 21.03144 12
Unrestricted LogL 21.19996 11

Unrestricted Test Equation:


Dependent Variable: LY
Method: Least Squares
Date: 05/03/19 Time: 13:45
Sample: 1971 1986
Included observations: 16

Variable Coefficient Std. Error t-Statistic Prob.

C -557.5261 1106.467 -0.503880 0.6243


LX2 -21.81662 42.94004 -0.508072 0.6214
LX5 -6.219422 12.24301 -0.507998 0.6215
LX6 68.28595 134.4103 0.508041 0.6215
FITTED^2 -1.091215 2.254960 -0.483918 0.6379

R-squared 0.691424 Mean dependent var 9.204273


Adjusted R-squared 0.579215 S.D. dependent var 0.119580
S.E. of regression 0.077569 Akaike info criterion -2.024995
Sum squared resid 0.066186 Schwarz criterion -1.783561
Log likelihood 21.19996 Hannan-Quinn criter. -2.012632
F-statistic 6.161910 Durbin-Watson stat 1.311697
Prob(F-statistic) 0.007464

Causalidad de Granger
Observamos por ejemplo que que si es posible rechzar la hipótesis
nula que y no causa a x2 por lo que si causa a la variable x2, lo
mismo que x5 causa a Y , x6 causa a x3 y x5 a x6

Pairwise Granger Causality Tests


Date: 05/10/19 Time: 15:02
Sample: 1971 1986
Lags: 2

Null Hypothesis: Obs F-Statistic Prob.

X2 does not Granger Cause Y 14 0.00093 0.9991


Y does not Granger Cause X2 5.69208 0.0253

X3 does not Granger Cause Y 14 1.39183 0.2974


Y does not Granger Cause X3 3.09734 0.0947

X4 does not Granger Cause Y 14 1.64061 0.2469


Y does not Granger Cause X4 0.04085 0.9602

X5 does not Granger Cause Y 14 6.57854 0.0173


Y does not Granger Cause X5 0.27985 0.7622

X6 does not Granger Cause Y 14 0.01221 0.9879


Y does not Granger Cause X6 10.0436 0.0051
X3 does not Granger Cause X2 14 0.09727 0.9083
X2 does not Granger Cause X3 3.93098 0.0593

X4 does not Granger Cause X2 14 2.56668 0.1312


X2 does not Granger Cause X4 1.36728 0.3030

X5 does not Granger Cause X2 14 2.74833 0.1171


X2 does not Granger Cause X5 0.27123 0.7685

X6 does not Granger Cause X2 14 13.5336 0.0019


X2 does not Granger Cause X6 1.85996 0.2108

X4 does not Granger Cause X3 14 1.89560 0.2056


X3 does not Granger Cause X4 0.20607 0.8175

X5 does not Granger Cause X3 14 2.50811 0.1362


X3 does not Granger Cause X5 1.27060 0.3266

X6 does not Granger Cause X3 14 4.91654 0.0361


X3 does not Granger Cause X6 2.79633 0.1136

X5 does not Granger Cause X4 14 0.35429 0.7110


X4 does not Granger Cause X5 0.28993 0.7551

X6 does not Granger Cause X4 14 1.22521 0.3384


X4 does not Granger Cause X6 1.32842 0.3122

X6 does not Granger Cause X5 14 0.39442 0.6852


X5 does not Granger Cause X6 11.3496 0.0035

También podría gustarte