Está en la página 1de 50

CLASE 2

PASOS PARA EL Gráfico de estacionalidad


Escojo ventas 

La gráfica muestra las medias de mismo mes en los tres años (la media el mes de enero en el
2019, 2020, 2021.)

Y se observa estacionalidad (Hay diferencias en los grupos de medias. Por ejemplo, las tres
primeras tienen medias similares.

Entonces. ¿Cómo lo desestacionalizamos?

Utilizaremos un método de suavizamiento (Va a capturar los elementos fundamentales del


trabajo, como quitar las malezas de la quinua)

PASOS PARA SUAVIZAMIENTO EXPONENCIAL


 Proc  Exponencial Smoothing  Simple OK
 Proc  Exponencial Smoothing  Double OK
 Proc  Exponencial Smoothing  Holt Winter Additive OK

Date: 07/24/22 Time: 16:07


Sample: 2019M01 2021M12
Included observations: 36
Method: Single Exponential
Original Series: SERIES01
Forecast Series: VENTASSM1

Parameters: Alpha 0.9990


Sum of Squared Residuals 46301.48
Root Mean Squared Error 35.86296

End of Period Levels: Mean 234.9380

RMSE (Raíz cuadrada del error)

Modelo empleado Serie pronosticada Criterio Valor


Suavizamiento Ventas Suavizamiento 35.86
exponencial simple Exponencial Simple
Suavizamiento Ventas 39.39
exponencial doble

Suavizamiento
exponencial Holt
Winter Aditivo*

*No podemos usar el Holt Winter No seasonal (No estacional) porque ya determinamos que si hay
estacionalidad con los datos trabajados.

Suavizamiento exponencial simple

La proyección es un solo valor por lo que la línea es horizontal

Suavizamiento exponencial doble


Date: 07/24/22 Time: 16:18
Sample: 2019M01 2021M12
Included observations: 36
Method: Double Exponential
Original Series: VENTAS
Forecast Series: VENTASSM2

Parameters: Alpha 0.6780


Sum of Squared Residuals 55856.99
Root Mean Squared Error 39.39014

End of Period Levels: Mean 229.3816


Trend 36.15522

Por lo tanto, el RMSE que tenga menor valor será el más conveniente. Por lo tanto si
comparamos los dos primeros cuadros, se escoge el simple como el más conveniente.

Suavizamiento exponencial Holt Winter Additive

Date: 07/24/22 Time: 16:23


Sample: 2019M01 2021M12
Included observations: 36
Method: Holt-Winters Additive Seasonal
Original Series: VENTAS
Forecast Series: VENTASSM3

Parameters: Alpha 0.0000


Beta 0.0000
Gamma 0.0000
Sum of Squared Residuals 453.7986
Root Mean Squared Error 3.550425

End of Period Levels: Mean 205.5122


Trend 1.017361
Seasonals: 2021M01 80.28993
2021M02 59.60590
2021M03 63.92188
2021M04 6.904514
2021M05 9.553819
2021M06 -37.46354
2021M07 -32.14757
2021M08 -26.83160
2021M09 -70.84896
2021M10 -55.19965
2021M11 -28.21701
2021M12 30.43229

Entonces, ¿Qué modelo utilizaremos?

Suavizamiento Exponencial Holt Winter multiplicativo


Sample: 2019M01 2021M12
Included observations: 36
Method: Holt-Winters Multiplicative Seasonal
Original Series: VENTAS
Forecast Series: VENTASSM

Parameters: Alpha 0.0000


Beta 0.0000
Gamma 0.0000
Sum of Squared Residuals 292.8973
Root Mean Squared Error 2.852374

End of Period Levels: Mean 205.5122


Trend 1.017361
Seasonals: 2021M01 1.435753
2021M02 1.322814
2021M03 1.342853
2021M04 1.033715
2021M05 1.047881
2021M06 0.797140
2021M07 0.826340
2021M08 0.855247
2021M09 0.625331
2021M10 0.708939
2021M11 0.850386
2021M12 1.153602

El RMSE es el más pequeño en comparación con las otras formas de suavizamiento por lo que tomamos
solo el Holt Winter multiplicativo.
Explicamos que el Holt Winter es el mejor para proyección.

¿Cómo desestacionalizamos?

PASOS PARA DESESTACIONALIZAR


Proc Seasonal Adjustment Census X-12  Le doy check a todas, menos a las dos
últimas  se generan ventas ir, ventas sa, ventas sf, ventas tc.
Ventas IR

Ventas X12 (mode = m- sabe = d10d11 d12 d13


PROYECCIÓN
MODELO CON UNA TENDENCIA
Dependent Variable: VENTAS
Method: Least Squares
Date: 07/24/22 Time: 17:14
Sample (adjusted): 2019M01 2021M12
Included observations: 36 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

C 187.8438 15.62361 12.02308 0.0000


@TREND -0.011712 0.767704 -0.015256 0.9879

R-squared 0.000007    Mean dependent var 187.6389


Adjusted R-squared -0.029405    S.D. dependent var 47.16243
S.E. of regression 47.85080    Akaike info criterion 10.62801
Sum squared resid 77849.77    Schwarz criterion 10.71598
Log likelihood -189.3041    Hannan-Quinn criter. 10.65871
F-statistic 0.000233    Durbin-Watson stat 0.557598
Prob(F-statistic) 0.987918

Estamos regresionando con respecto a sus tendencia.

El Durbin Watson es fuerte cuando tenemos solo una variable exógena. Si hay más variables no
nos sirve de mucho. Por el contrario, usaríamos KS para ver la correlación.
El RMSE es 46.50 y es mucho mayor que el multiplicativo que hallamos antes y cuyo valor es 2.
85

MODELO CUADRÁTICO
Dependent Variable: VENTAS
Method: Least Squares
Date: 07/24/22 Time: 17:28
Sample (adjusted): 2019M01 2021M12
Included observations: 36 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.  

C 192.4382 22.96930 8.378063 0.0000


@TREND -0.822488 3.036775 -0.270843 0.7882
@TREND^2 0.023165 0.083867 0.276213 0.7841

R-squared 0.002313    Mean dependent var 187.6389


Adjusted R-squared -0.058152    S.D. dependent var 47.16243
S.E. of regression 48.51435    Akaike info criterion 10.68125
Sum squared resid 77670.21    Schwarz criterion 10.81321
Log likelihood -189.2625    Hannan-Quinn criter. 10.72731
F-statistic 0.038260    Durbin-Watson stat 0.556801
Prob(F-statistic) 0.962505

CUBICA

Dependent Variable: VENTAS


Method: Least Squares
Date: 07/24/22 Time: 17:37
Sample (adjusted): 2019M01 2021M12
Included observations: 36 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

C 224.4882 28.25420 7.945306 0.0000


@TREND -12.65168 7.090656 -1.784275 0.0839
@TREND^2 0.880116 0.474610 1.854397 0.0729
@TREND^3 -0.016323 0.008907 -1.832488 0.0762

R-squared 0.097065    Mean dependent var 187.6389


Adjusted R-squared 0.012415    S.D. dependent var 47.16243
S.E. of regression 46.86874    Akaike info criterion 10.63702
Sum squared resid 70293.73    Schwarz criterion 10.81296
Log likelihood -187.4663    Hannan-Quinn criter. 10.69843
F-statistic 1.146666    Durbin-Watson stat 0.624432
Prob(F-statistic) 0.345238
residuos

EJERCICIO CON DATOS DEL BANCO

Si observamos la gráfica del tipo de cambio …

(falta terminar)

CLASE DOS DE ECONOMETRÍA

Especificación de un modelo econométrico.


Determinar cuántas variables explicativas necesitamos para obtener una función buena.

IP=f(r,e,ø, Fk, IPk, Ck, IP−1, Exp, PBI, Ipub, Cred financ. )

IP: INVERSIÓN PRIVADA: Formación bruta de capital

r: tasa de interés real

e: tipo de cambio

ø: riesgo país

fk: flujo de capital

Ck: Costo de capital

IPk: resagos

trabajo hecho

(Determinantes de la inversión privada en Venezuela: un análisis econométrico para el


periodo 1950-2001  seguir como ejemplo)

(Inversión privada en Brasil, CEPAL)

 El costo de capital se tipifica como la depreciación (se considera una variable proxi)
 La volatilidad a través de la desviación estándar
 Ahora tengo que tener un proceso de análisis.
 La KPSS es la prueba de estacionalidad. Por otro lado, las raíces unitarias también
se utilizan para la prueba de estacionalidad.
 Decimos que una función es de largo plazo cuando le agregamos dinámica (¿cómo
lo hacemos? Utilizando sus rezagos: estoy evaluando el impacto que tiene una
variable pasada ahora en el presente Xt-1)
 Leamos la revista de la CEPAL: Inversión privada
 Recordemos:
Yt= β 0 + β 1 X t + β 2 X t +€  Función a corto plazo
Yt= β 0 + β 1 X t + β 2 X t + β 2 X t−1 + β 3 X t +µ  A largo plazo
 Inspección visual (gráficas)
 Tenemos que tener en cuenta la estacionariedad: En una gráfica podemos ver
estacionariedad fuerte o débil.
 En la gráfica que tiene mucha fluctuación podemos tener varias medias, sin
embargo, al analizar podemos ver que las medias pueden tener una media general
igual. En el segundo gráfico si hay estacionariedad y gráficamente se observa la
estacionariedad. Sin embargo, sus varianzas pueden diferir.

Puede no haber estacionariedad


Si hay estacionariedad

 Los correlogramas se muestran como AR1 o no hay conexión entre el presente y el


pasado.

El pasado afecta al presente: Y (y-7)

AR1: El pasado a corto plazo puede afectar el presente, pero no el largo plazo

No existe AR. El pasado no impacta en el presente.


¿Cómo evaluamos un modelo? Debe haber pruebas que nos permitan evaluar un modelo.

Esto implica:

La especificación de las relaciones que lo constituyen. Por ejemplo, la inversión y la tasa de


interés tienen relación inversa. Si aumenta la r, la IP cae. Evaluaremos el modelo de la
siguiente manera:

 Gráficamente
 Matemáticamente
 Econometricamente
IP=β 0−β 1 r + ε
 Con estimación  MCO ELIO: Estimadores Lineales, Insesgados y óptimos
IP=β 0−β 1 r
 Significancia: Ho: β 1=0 “t”  p-value
H1: : β 1 ≠ 0

 Primero evaluamos el p-value


 Luego el R2: Recordemos que en econometría los R2 NO son tan altos porque hay otras
cosas más que influyen. Pero siempre quisiéramos que estén con más de 0.7
 Luego- Durbin Watson (Observamos la autocorrelación)
 Si existe r=1  Perfectamente relacionadas
 Si existe r=0.9  Ambas variables están muy relacionadas por lo tanto presentan
colinealidad (no me sirve la variable, por lo que debo eliminar una de ellas.)
 Si existe r=0.3  las variables están relacionadas, pero no hay colinealidad (si me sirve
el modelo)
 Para quedarnos con un modelo, primero tenemos que comparar con una misma
endógena (Observamos los R2 y los criterios de información (AKIG, Schwar, Hannan
Quin), En el ejemplo sería evaluar 3 modelos: una con X4, otra con X7 y otra con ambas
variables.

EJERCICIO APLICATIVO

Variable description Lecture 3 Royal

1. Gráficamos el índice estándar y por 500. S&P500 (Es una calificación de riesgo que
evalúa el comportamiento de los precios de las 500 primeras empresas en EE.UU)
De 1930 a 1980 el comportamiento ha sido igual y bajo. Después de ese año se observa un
crecimiento exponencial. La historia económica nos ayuda a entender la razón de este
crecimiento (Las grandes empresas “.com” se cayeron)

2. Graficamos el histograma

View Descriptive Statistics  Histograms and Stats.

 Tiene asimetría positiva de 1.47 (este valor nos sirve para hacer una transformación si
no existe asimetría)
 Desviación estándar es 484 (Queremos que sea cercano a 0)
 Como conclusión hay un sesgo positivo por lo que necesitamos una transformación de la
variable. (La primera transformación es un logaritmo)

Podríamos analizar:

 Comparación de los rendimientos promedios


 Volatilidad (dispersión) (Modelo de Garch) Por ejemplo el PAS (precio de los
activos de salud después del coronavirus- la dispersión se hizo más grande)
 Valor contable de las empresas
 Emisión durante un periodo de tiempo.

Puedo hacer diferentes tipos de análisis en un mismo


Asumimos que la variable BOOKMARKET (Valor contable de las empresas) es la variable
endógena (de respuesta)

PARA GRAFICAR DOS VARIABLES


Open as a group  View graph  Axes&scalling Bookmarket (right) OK

Las dos variables se compartan de manera diferente. El índice crece exponencialmente y el


valor contable tiene se mantiene relativamente. Por lo tanto, transformamos el índice a
logaritmos.

PARA TRANSFORMAR A LOGARITMO


EN COMANDOS  Series lindex=log(index)

Con lindex (right), hacemos otra transformación después de logaritmos las diferenciales (es
el valor del presente en relación al pasado.

PARA TRANSFORMAR A DIFERENCIALES


EN COMANDOS  Series dlindex=d(lindex)
Ahora las

REGRESIONAMOS LINDEX CON EL BOOKMARKET


EN COMANDOS  ls dlindex c bookmarket

Dependent Variable: DLINDEX


Method: Least Squares
Date: 07/30/22 Time: 10:46
Sample (adjusted): 1928 2013
Included observations: 86 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.176952 0.049939 3.543358 0.0006


BOOKMARKET -0.213316 0.078960 -2.701582 0.0083

R-squared 0.079942    Mean dependent var 0.054079


Adjusted R-squared 0.068988    S.D. dependent var 0.198205
S.E. of regression 0.191246    Akaike info criterion -0.447529
Sum squared resid 3.072310    Schwarz criterion -0.390451
Log likelihood 21.24375    Hannan-Quinn criter. -0.424558
F-statistic 7.298547    Durbin-Watson stat 1.824535
Prob(F-statistic) 0.008347
}
Gráfica de Residuos:
¿Cómo interpretamos?

 El modelo es significativo
 R-squared (coeficiente de determinación) es bajo 0.08. el 8 % de la fluctuación
promedio del índice está siendo explicado por el valor contable. Eso significa que
debería agregar más variables para que el modelo sea mejor explicado.

REGRESIONAMOS INDEX CON EL BOOKMARKET


EN COMANDOS  ls index c bookmarket

Dependent Variable: INDEX


Method: Least Squares
Date: 07/30/22 Time: 10:53
Sample: 1927 2013
Included observations: 87

Variable Coefficient Std. Error t-Statistic Prob.  

C 1035.347 95.01896 10.89622 0.0000


BOOKMARKET -1217.680 150.7996 -8.074827 0.0000

R-squared 0.434099    Mean dependent var 336.7590


Adjusted R-squared 0.427441    S.D. dependent var 484.3459
S.E. of regression 366.4931    Akaike info criterion 14.66856
Sum squared resid 11416960    Schwarz criterion 14.72524
Log likelihood -636.0822    Hannan-Quinn criter. 14.69138
F-statistic 65.20283    Durbin-Watson stat 0.270847
Prob(F-statistic) 0.000000

Gráficos de residuos.
Para interpretar los residuos

En la primera ecuación se observa una En la segunda ecuación la línea del residuo ya


fluctuación regular, a pesar que las no vuelve al centro al final.
desviaciones son fuertes, vuelven a la
media.

Conclusión: A pesar de que ambos modelos son significativos el R cuadrado es diferente. En la


primera ecuación se explica el 8% y 43% en la segunda ecuación. Ahora que hemos visto que el
índice tiene fuertes problemas, tomaremos el logaritmo.

DE LO ESPECÍFICO A LO GENERAL

Realizo las regresiones del Log of equity premium (el premio por la valorización de activos)
(LOGEQPREM)

A B C D E
Constant 0.166 0.062 -0.267 -0.027 0.065
Book to -0.185
market (0.019)
Ntis -0.147
(0.850)
Divprice -0.097
(0.029)

Earnprice 0.032
(0.532)
Inflation -0.166
(0.746)
R2 0.063 0.000 0.055 0.005 0.001

DE LO GENERAL A LO ESPECÍFICO

Regresionamos con todas las variables

EN COMANDOS  ls logeqprem c BOOKMARKET NTIS DIVPRICE EARNPRICE INFLATION

Dependent Variable: LOGEQPREM


Method: Least Squares
Date: 07/30/22 Time: 11:22
Sample: 1927 2013
Included observations: 87

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.234411 0.384515 0.609629 0.5438


BOOKMARKET -0.176078 0.154101 -1.142616 0.2566
NTIS -0.145629 0.819031 -0.177807 0.8593
DIVPRICE -0.119855 0.098319 -1.219044 0.2264
EARNPRICE 0.167152 0.084852 1.969926 0.0523
INFLATION -0.566909 0.587334 -0.965224 0.3373

R-squared 0.108388    Mean dependent var 0.059750


Adjusted R-squared 0.053350    S.D. dependent var 0.192718
S.E. of regression 0.187506    Akaike info criterion -0.443534
Sum squared resid 2.847854    Schwarz criterion -0.273472
Log likelihood 25.29375    Hannan-Quinn criter. -0.375055
F-statistic 1.969336    Durbin-Watson stat 1.832880
Prob(F-statistic) 0.092000

Interpretamos que el NTIS tiene una fuerte p-value 0.859. Entonces eliminamos esta variable
del modelo.

EN COMANDOS  ls logeqprem c BOOKMARKET DIVPRICE EARNPRICE INFLATION

Dependent Variable: LOGEQPREM


Method: Least Squares
Date: 07/30/22 Time: 11:29
Sample: 1927 2013
Included observations: 87

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.205376 0.346056 0.593477 0.5545


BOOKMARKET -0.166337 0.143182 -1.161723 0.2487
DIVPRICE -0.125885 0.091738 -1.372228 0.1737
EARNPRICE 0.166993 0.084345 1.979883 0.0511
INFLATION -0.564457 0.583695 -0.967040 0.3364

R-squared 0.108040    Mean dependent var 0.059750


Adjusted R-squared 0.064530    S.D. dependent var 0.192718
S.E. of regression 0.186396    Akaike info criterion -0.466133
Sum squared resid 2.848965    Schwarz criterion -0.324414
Log likelihood 25.27677    Hannan-Quinn criter. -0.409067
F-statistic 2.483091    Durbin-Watson stat 1.827749
Prob(F-statistic) 0.049996
Inflación chau, dividends chau, divprice, quedándome solo con dos variables exógenas.

EN COMANDOS  ls logeqprem c BOOKMARKET EARNPRICE

Dependent Variable: LOGEQPREM


Method: Least Squares
Date: 07/30/22 Time: 11:33
Sample: 1927 2013
Included observations: 87

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.489395 0.232699 2.103125 0.0384


BOOKMARKET -0.290156 0.106561 -2.722903 0.0079
EARNPRICE 0.096579 0.067963 1.421056 0.1590

R-squared 0.085337    Mean dependent var 0.059750


Adjusted R-squared 0.063559    S.D. dependent var 0.192718
S.E. of regression 0.186493    Akaike info criterion -0.486975
Sum squared resid 2.921481    Schwarz criterion -0.401944
Log likelihood 24.18341    Hannan-Quinn criter. -0.452735
F-statistic 3.918531    Durbin-Watson stat 1.903390
Prob(F-statistic) 0.023603

Si nos quedamos con dos variables, nos quedaremos con bookmarket y earnprice. Y si solo nos
quedamos con una variable, esa variable será el bookmarket por tener el menos p-value.

Estabilidad.

No hubo estabilidad en dos periodos.

 Años de guerra: 1939-1945


 Crisis del petróleo: 1973-1975

Generaremos variables dummy.

Para esos años les pondremos el valor de uno generando dos dummyes (dumAG y dumCP)

PARA CREAR VARIABLES DUMMY

EN COMANDOS  series dumAG=0

series dumCP=0

DUMAG: Dummy para años de guerra

DUMCP: Dummy para la crisis del petróleo

Para editar las dummies, clic en edit +/- , pongo uno en los años
y luego vuelvo a poner clic en edit+/- nuevamente

Ahora teniendo en cuenta las dummies por los Shoks de los años de guerra y la crisis de
petróleo.

Ahora hacemos la regresión de las variables con los efectos de las crisis (AG y CP)
PARA REGRESIONAR CON VARIABLES DUMMY

EN COMANDOS  ls logeqprem c bookmarket bookmarket*dumag bookmarket*dumcp

Dependent Variable: LOGEQPREM


Method: Least Squares
Date: 07/30/22 Time: 11:50
Sample: 1927 2013
Included observations: 87

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.159725 0.049534 3.224523 0.0018


BOOKMARKET -0.175130 0.082270 -2.128716 0.0362
BOOKMARKET*DUMAG 0.078468 0.101216 0.775257 0.4404
BOOKMARKET*DUMCP -0.132705 0.123709 -1.072723 0.2865

R-squared 0.085077    Mean dependent var 0.059750


Adjusted R-squared 0.052008    S.D. dependent var 0.192718
S.E. of regression 0.187639    Akaike info criterion -0.463703
Sum squared resid 2.922309    Schwarz criterion -0.350328
Log likelihood 24.17108    Hannan-Quinn criter. -0.418050
F-statistic 2.572681    Durbin-Watson stat 1.840309
Prob(F-statistic) 0.059546

Interpretamos. NO hay fuerte influencia de las dummies en la variable endógena por lo que
para la evaluación final no los tomamos en cuenta.

OJO:
¿Le puedo poner shocks a las variables endógenas? Si, pero no le pongo porque quiero
evaluar a la endógena sin ningún shock.

COMPARACIÓN DE MODELOS

Modelo completo Bookmarket


R2 0.108388 0.063348
AIC -0.443534 -0.486207
BIC -0.273472 -0.429520

    Akaike info criterion AIC


    Schwarz criterion BIC

Regresión de logeqprem con bookmarket

Dependent Variable: LOGEQPREM


Method: Least Squares
Date: 07/30/22 Time: 12:10
Sample: 1927 2013
Included observations: 87
Variable Coefficient Std. Error t-Statistic Prob.  

C 0.165934 0.048640 3.411456 0.0010


BOOKMARKET -0.185085 0.077194 -2.397648 0.0187

R-squared 0.063348    Mean dependent var 0.059750


Adjusted R-squared 0.052328    S.D. dependent var 0.192718
S.E. of regression 0.187608    Akaike info criterion -0.486207
Sum squared resid 2.991714    Schwarz criterion -0.429520
Log likelihood 23.15002    Hannan-Quinn criter. -0.463381
F-statistic 5.748716    Durbin-Watson stat 1.808102
Prob(F-statistic) 0.018691

Evaluación del modelo:

Ho: La especificación es correcta

H1: La especificación no es correcta.

Book to market

Estadístico de p-value
prueba
Reset (p=1) 3.446 0.067
Chow Break 2.269 0.110
Chow Forecast 0.765 0.794
Jarque- Bera 7.155 0.028
Las tres primeras pruebas son válidas y me muestran que el
modelo es estable, solo el Jarque Bera es algo dudosa.

Resultado de la prueba de RESET de RAMSET

PARA LA PRUEBA RAMSEY

View Stability diagnostic  Ramsey REST TEST  Se queda en 1 por defecto  OK

Ramsey RESET Test


Equation: EQBOOKMARKET
Omitted Variables: Squares of fitted values
Specification: LOGEQPREM C BOOKMARKET

Value df Probability
t-statistic  1.856258  84  0.0669
F-statistic  3.445694 (1, 84)  0.0669
Likelihood ratio  3.497501  1  0.0615

F-test summary:
Mean
Sum of Sq. df Squares
Test SSR  0.117885  1  0.117885
Restricted SSR  2.991714  85  0.035197
Unrestricted SSR  2.873830  84  0.034212

LR test summary:
Value
Restricted LogL  23.15002
Unrestricted LogL  24.89877

Unrestricted Test Equation:


Dependent Variable: LOGEQPREM
Method: Least Squares
Date: 07/30/22 Time: 12:17
Sample: 1927 2013
Included observations: 87

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.341693 0.106136 3.219384 0.0018


BOOKMARKET -0.375787 0.127854 -2.939180 0.0042
FITTED^2 -11.25426 6.062873 -1.856258 0.0669

R-squared 0.100255    Mean dependent var 0.059750


Adjusted R-squared 0.078833    S.D. dependent var 0.192718
S.E. of regression 0.184966    Akaike info criterion -0.503420
Sum squared resid 2.873830    Schwarz criterion -0.418389
Log likelihood 24.89877    Hannan-Quinn criter. -0.469181
F-statistic 4.679909    Durbin-Watson stat 1.901269
Prob(F-statistic) 0.011831

PARA LA PRUEBA DE CHOW BREAKPOINT TEST

View Stability diagnostic  Chow brweakpoint test  ponemos un año de cambio


como punto de quiebre  OK

Chow Breakpoint Test: 1980 


Null Hypothesis: No breaks at specified breakpoints
Varying regressors: All equation variables
Equation Sample: 1927 2013

F-statistic 2.268756 Prob. F(2,83) 0.1098


Log likelihood ratio 4.630733 Prob. Chi-Square(2) 0.0987
Wald Statistic  4.537513 Prob. Chi-Square(2) 0.1034

PARA LA PRUEBA CHOW FORECAST

View Stability diagnostic  Chow Forecast test  Ponemos el año 1980 como punto de
quiebre OK

Chow Forecast Test


Equation: EQBOOKMARKET
Test predictions for observations from 1980 to 2013
Specification: LOGEQPREM C BOOKMARKET

Value df Probability
F-statistic  0.764761 (34, 51)  0.7944
Likelihood ratio  35.84434  34  0.3820

F-test summary:
Sum of Sq. df Mean
Squares
Test SSR  1.010237  34  0.029713
Restricted SSR  2.991714  85  0.035197
Unrestricted SSR  1.981477  51  0.038852

LR test summary:
Value
Restricted LogL  23.15002
Unrestricted LogL  41.07219

Unrestricted log likelihood adjusts test equation results to account for


        observations in forecast sample

Unrestricted Test Equation:


Dependent Variable: LOGEQPREM
Method: Least Squares
Date: 07/30/22 Time: 12:26
Sample: 1927 1979
Included observations: 53

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.313150 0.089912 3.482829 0.0010


BOOKMARKET -0.374898 0.125123 -2.996239 0.0042

R-squared 0.149680    Mean dependent var 0.056255


Adjusted R-squared 0.133007    S.D. dependent var 0.211691
S.E. of regression 0.197110    Akaike info criterion -0.373100
Sum squared resid 1.981477    Schwarz criterion -0.298750
Log likelihood 11.88716    Hannan-Quinn criter. -0.344509
F-statistic 8.977447    Durbin-Watson stat 1.711555
Prob(F-statistic) 0.004213

PARA LA PRUEBA DE JARQUE BERA (PRUEBA DE NORMALIDAD)

View Residual Diagnostic  Histogram Normality test

TERCERA CLASE ECONOMETRÍA

MULTICOLINEALIDAD
Hoy detectaremos una multicolinealidad y resolveremos el problema.

Variables de análisis.

 Consumo
 Importaciones
 Inversión
 PBI

1. Relación consumo
Aquí podemos evaluar varias cosas como por ejemplo evaluar el consumo con el PBI.
En mi objetivo puede ir “relacionar”. Nos basamos en la teoría C=f(Yd), existe un proxi
en el PBI (Este se tipifica como PBI ≡ Y ≡ Ingreso nacional, entonces estoy tomando al
PBI como una variable proxi  Consumo = f(PBI)). Si PBI AUMENTA  CONS
AUMENTA  relación directa (+)

Estimando:
^ ^
Cons= β0 − ^
β 1 PBI +e

2. Relación Importaciones
M =f ( e , Y ,TI , consumo ,inv , etc . )

Se tipifica: M=f(cons, inv, PBI)


M =β 0 + β 1 Cons+ β 2 inv+ β 3 PBI + ε

¿Quiénes importan?

Las familias

Las empresas

¿Cómo importamos?

No es común pagar después, por lo que debo prestarme dinero del sistema financiero para
poder importar

 Regresionamos y tomamos M cómo la variable endógena

Dependent Variable: IMP


Method: Least Squares
Date: 07/31/22 Time: 15:44
Sample: 2000 2017
Included observations: 18

Variable Coefficient Std. Error t-Statistic Prob.  

C -188.8341 34.55062 -5.465431 0.0001


CONS 0.177931 0.221910 0.801820 0.4361 A
INV 0.462023 0.330719 1.397025 0.1842
PBI 0.074012 0.146176 0.506320 0.6205

R-squared C 0.972894    Mean dependent var 300.7778


Adjusted R-squared 0.967086    S.D. dependent var 124.8131
S.E. of regression 22.64381    Akaike info criterion 9.270780
Sum squared resid 7178.391    Schwarz criterion 9.468641
Log likelihood -79.43702    Hannan-Quinn criter. 9.298063
F-statistic 167.4998     Durbin-Watson stat 1.414603
Prob(F-statistic) 0.000000 B

Cuando observamos el cuadro anterior, tenemos que observar algunos datos como:

 LOS COEFICIENTES: Observamos que relación existe con la endógena, positiva o negativa.
 P-value: que todas las variables no son significativas, ya que el p-value de las variables exógenas son
mayores a 0.05.
 R2: el 97% del flujo de las importaciones esta siendo explicada por las variables. Concluimos que hay
contradicción (es una regresión ESPURIA). Hay una incoherencia entre A y B; y otra incoherencia
entre A y C.
 F STATISTIC:

Esta es una regresión múltiple:


Por lo tanto: la hipótesis sería:

Ho: β 1=0 β 2=0 β 3=0 (Hallamos con el T)


Ho: β 1=β 2=β 3=0 (Cuando es en conjunto, hallamos con F)

Las variables consideradas NO son significativas para evaluar el comportamiento de las


importaciones.

 Durbin Watson: Su valor es 1.41 lo que indica que no hay autocorrelación.

Observamos un intervalo: 1.82 hasta 2.15  no hay autocorrelación


Fuera de ese intervalo, si hay autocorrelación.

 La poca significancia de las variables explicativas y a la vez un R2 alto y una gran


significancia conjunta del modelo.
 Valores altos en la matriz de correlaciones de las variables explicativas.

CRITERIO PARA HALLAR MULTICOLINEALIDAD

- Si las correlaciones son menores A 50%  BAJAS


- Si las correlaciones son menores A 50% a 80%  MEDIAS
- Si las correlaciones son menores A 80%  ALTAS
 Calcular el (viflación) VIF > 10  Hay multicolinealidad
 Contraste de Farrar-Galuber que tiene el estadístico

[
G= T −1−
2(K +5)
6 ]
∗ln I R xx I
Ho: No multicolinealidad

MÉTODOS DE SOLUCIÓN:

- Ampliar la muestra o transformar las variables (log, diferencial, ratios, etc).


- Suprimir algunas variables con justificación estadística y econométrica.
- Utilizar el modelo en diferencias evaluando la autocorrelación.
- Utilizar la regresión en cadena que ofrece como estimadores de los parámetros a
lo siguiente.
Esto es cuando es normal y no tenemos el problema de la multicolinealidad.

Esta es cuando si existe multicolinealidad. Hay un factor c*L que tenemos que
calcular.

Ahora quitaremos un dato (el ultimo año de la variable) para ver si aun hay
multicolinealidad evaluando las características que observamos antes
( significancia, R2, F(en conjunto), durbin Watson.)

Observamos que los valores han variado. Podemos evaluar en que porcentaje han variado de
eq1 y eq2.

0.58893
∆ PBI = −1=20 % → ha disminuido en ese porcentaje
0.074012
∆ INV =2.6 %( HA DISMINUIDO)
∆ CONS=5.23 % (HA AUMENTADO )

PRUEBA DE MATRIZ DE CORRELACIÓN

CONS INV PBI


CONS 1 0.2022754083877333 0.9981532526772294
INV 0.2022754083877333 1 0.2154456289823418
PBI 0.9981532526772294 0.2154456289823418 1

El PBI está altamente correlacionado con el consumo, no me sirve ya que explicarían los mismo
al estar muy relacionados.

PARA LA MATRIZ DE CORRELACIÓN

Open as a group  cons, inv, PBI  covariance análisis  check en correlación  OK

En la matriz de correlaciones puedo hallar el valor del determinante y si ese valor es próximo a
0, hay multicolinealidad.

Hallamos el valor del determinante.


PARA TENER GUARDADO LA MATRIZ

EN COMANDO  sym matriz_correlaciones = @cor(GROUP01_COR)

PARA HALLAR LA DETERMINANTE

EN COMANDO  scalar determinante = @det(MATRIZ_CORRELACIONES

Value
DETERMINANTE 0.003355669353917688

Observamos que el valor se acerca a 0, entonces técnicamente afirmamos que hay multicolinealidad.

¿Existe algún límite?


Si, entre 0.01 y 0.1, allí puedo afirmar colinealidad.

PRUEBA DE VIF O FACTOR DE INFLACIÓN

PARA HALLAR VIF

Open as a group  Coefficient Diagnostic  Variance Inflation Factor.

Variance Inflation Factors


Date: 07/31/22 Time: 16:48
Sample: 2000 2017
Included observations: 18

Coefficient Uncentered Centered


Variable Variance VIF VIF

C  1193.746  41.90687  NA


CONS  0.049244  5095.149  284.1708
INV  0.109375  6.293186  1.099657
PBI  0.021367  4517.493  285.8102

PARA HALLAR IC

Open as a group  VIEW PRINCIPAL COMPONENTS  TABLE  OK

Valor propio.

Son elementos matemáticos que Nos ayudan a encontrar aquella transformación que nos
ayudan a buscar un vector paralelo a la original. Por tanto, evaluamos si los valores propios
tienen montos muy altos o bajos.
PRUEBA DE INDICE DE CONDICIÓN

Principal Components Analysis


Date: 07/31/22 Time: 17:05
Sample: 2000 2017
Included observations: 18
Computed using: Ordinary correlations
Extracting 3 of 3 possible components

Eigenvalues: (Sum = 3, Average = 1)


Cumulative Cumulative
Number Value    Difference Proportion Value Proportion

1 2.079013 1.159782 0.6930 2.079013 0.6930


2 0.919231 0.917475 0.3064 2.998244 0.9994
3 0.001756 ---     0.0006 3.000000 1.0000

Eigenvectors (loadings): 

Variable PC 1   PC 2   PC 3  

CONS 0.681175 -0.193626 0.706052


INV 0.264039 0.964463 0.009756
PBI 0.682849 -0.179780 -0.708093

Ordinary correlations:
  
CONS INV PBI
CONS 1.000000
INV 0.202275 1.000000
PBI 0.998153 0.215446 1.000000

PRUEBA DE FARRAR GLAUBER

[
G= T −1−
2( K +5)
6 ]
∗ln I R xx I

T: NÚMERO DE OBSRRVACIONES

K: NÚMERO DE EXÓGENAS

[
G= 18−1−
2 ( 3+5 )
6 ]∗ln ( 0.00335566 )

G=81.65

La chi- cuadrada de tabla, tiene K(k-1) /2 grados de libertad, donde K es el número de


coeficientes. Y K -1 es el número de variables explicativas.

K= variables exógenas y la constante = 4


SOLUCIONES DE LA MULTICOLINEALIDAD

1) Ampliar la muestra. Esto en el peor caso es difícil.


2) Suprimimos alguna variable, pero ten que haber una justificación económica o
estadística o ambos. (Estoy evaluando importaciones, y cuando evalúo consumo, esta
puede explicar mejor que el PBI a las importaciones.) . Entonces borramos PBI.

Regresionamos sin PBI

Dependent Variable: IMP


Method: Least Squares
Date: 07/31/22 Time: 17:42
Sample: 2000 2017
Included observations: 18

Variable Coefficient Std. Error t-Statistic Prob.  


C -201.5385 23.15560 -8.703661 0.0000
CONS 0.290083 0.013104 22.13630 0.0000
INV 0.500145 0.313950 1.593071 0.1320

R-squared 0.972398    Mean dependent var 300.7778


Adjusted R-squared 0.968718    S.D. dependent var 124.8131
S.E. of regression 22.07538    Akaike info criterion 9.177815
Sum squared resid 7309.838    Schwarz criterion 9.326210
Log likelihood -79.60034    Hannan-Quinn criter. 9.198277
F-statistic 264.2206    Durbin-Watson stat 1.460280
Prob(F-statistic) 0.000000

Esa solución tampoco me ayuda ya que la inversión no es significativa.

Hallamos el VIF

Variance Inflation Factors


Date: 07/31/22 Time: 17:43
Sample: 2000 2017
Included observations: 18

Coefficient Uncentered Centered


Variable Variance VIF VIF

C  536.1819  19.80470  NA


CONS  0.000172  18.69479  1.042661
INV  0.098565  5.967006  1.042661

Ya no hay multicolinealidad porque ya no es cercano a 0. Esto nos ha costado quitar


una variable. Por lo que no sería el óptimo.

Con multicolinealidad, las betas que tenemos son imprecisos. Por eso debemos de
eliminar la multicolinealidad.

3) Transformaciones:
- Vamos a dividir a toda la ecuación entre el PBI

Dependent Variable: IMP/PBI


Method: Least Squares
Date: 07/31/22 Time: 17:52
Sample: 2000 2017
Included observations: 18

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.584038 0.140369 4.160733 0.0008


CONS/PBI -0.649926 0.199446 -3.258658 0.0053
INV/PBI -0.184774 0.449719 -0.410866 0.6870

R-squared 0.424744    Mean dependent var 0.122472


Adjusted R-squared 0.348043    S.D. dependent var 0.017598
S.E. of regression 0.014209    Akaike info criterion -5.518859
Sum squared resid 0.003028    Schwarz criterion -5.370464
Log likelihood 52.66973    Hannan-Quinn criter. -5.498397
F-statistic 5.537678    Durbin-Watson stat 1.984827
Prob(F-statistic) 0.015811

Hallamos el VIF

Variance Inflation Factors


Date: 07/31/22 Time: 17:53
Sample: 2000 2017
Included observations: 18

Coefficient Uncentered Centered


Variable Variance VIF VIF

C  0.019703  1756.640  NA


CONS/PBI  0.039779  1766.628  1.006536
INV/PBI  0.202247  5.708065  1.006536

Aun el modelo no es bueno, no hay multicolinealidad pero la inversión dividido entre el pbi no es
significativo.

4) Diferenciamos: Vamos a dividir a toda la ecuación entre el PBI

Cuando observamos la variación del presente con un periodo anterior.

Y t =β 1+ β2 X 2 t + β 3 X 3 t + μt ….(1)
Y t −1=β 1+ β 2 X 2 t−1 + β 3 X 3 t−1 + μt−1….(2)
Y t −Y t −1 =β2 ¿ ¿ - X 2 t −1 ¿+ β 3 ( X 3 t −X 3 t −1) + ¿ μt −1 ¿

Dependent Variable: D(IMP)


Method: Least Squares
Date: 07/31/22 Time: 18:06 Problema de
Sample (adjusted): 2001 2017 autocorrelación
Included observations: 17 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

D(CONS) 0.100885 0.185003 0.545316 0.5941


D(INV) 0.521693 0.257075 2.029339 0.0619
D(PBI) 0.131395 0.123247 1.066111 0.3044

R-squared 0.968030    Mean dependent var 23.94118


Adjusted R-squared 0.963463    S.D. dependent var 137.4693
S.E. of regression 26.27673    Akaike info criterion 9.534030
Sum squared resid 9666.532    Schwarz criterion 9.681067
Log likelihood -78.03925    Hannan-Quinn criter. 9.548646
Durbin-Watson stat 1.596915

Aun el modelo no es conveniente, hasta ahora hemos observado que las soluciones 2 y 3
son las mejores a pesar de que no son las óptimas.
5) Usar la regresión en cadena:

Ya no es un costo de una variable,

En conclusión

Imp= 0.459 +145Cons +0.092 PBI

R2 =0.972

Ya hemos solucionado la multicolinealidad.

CLASE 4 DE ECONOMETRÍA (6 DE AGOSTO)

ESTACIONARIEDAD

- Puede haber series que muestran una tendencia (no son estacionarios)
- Las series mucho más amplias son más útiles para establecer su comportamiento
en el tiempo.
- Si probamos una serie y decimos que es estacionario, directamente evaluamos los
modelos regresivos, móviles, etc.
- Si NO es estacionario, tenemos que transformar.

PRIMER PASO: INSPECCIÓN VISUAL PARA OBSERVAR LA MEDIA DE TENDENCIA CENTRAL,


ESTACIONARIEDAD

Vemos la gráfica de PE-USA

Periodo 2

Periodo 1
¿Es estacionaria?  Podría ser estacionaria, pero vemos que en el primer periodo el valor
fluctúa por encima de la media.

La cuarta parece ser estacionaria. Ahora vemos el correlograma de pe-USA


¿Tienen tendencia? No tienen tendencia

- Una tendencia cambia la media en el tiempo.


- Un tipo de tendencia es una tendencia determinística (no cambia mucho – no hay
mucha fluctuación y son más fáciles de predecir) y no estocástica

y t =μ+ β t + ε t donde ε t →ruido blanco (iid)

La perturbación es independiente e idénticamente independiente.

¿Cuáles son las consecuencias de la NO estacionariedad?

a) Los choques no desaparecen (si tu papá te pega, recuerdas esa situación que
repercute en tu comportamiento). Las funciones de autocorrelación van
desapareciendo gradualmente.
Veamos el ratio en USA.
Como se observa, el comportamiento es permanente, no hay cambios

b) Los estadísticos de prueba son defectuosos.


c) Estimar un AR - Autoregresivo (Consideramos a la variable endógena más su
rezago AR1) a partir de una variable no estacionaria va estar mal. También
podemos hacer el modelo con el rezago de las perturbaciones. (MAq)

Ejemplo:

Si caracterizamos la siguiente serie de tiempo, usando la notación ARMA (p,q)

-ARMA (2, 1)

y t =0.6+0.5 y t −1+ 0.9 y t −2+ μ t + μt −1

SEGUNDO PASO: COVARIANZA (DISPERSIÓN)

Ley de los grandes números (teorema de índice central), nos dice que muestras grandes nos
van a permitir hacer mejor inferencia hacer nuestras pruebas. Si es más de 30 datos, no te
preocupes si la distribución va a ser normal.

TRABAJAMOS CON EVIEWS

PASO 1: Creamos las series


A) Generamos una serie cerca de las raíces unitarias (cerca de 1) un archivo de trabajo
con: 1992m01 al 2020m12. Recordemos que queremos nuestra serie en la normalidad.
- Para la serie Y

PARA GENERAR NUESTRA SERIE Y


En comandos:
smpl @first @last
SERIES Y=0
smpl @first+1 @last
series y=0.5+0.96*y(-1)+2*nrnd

nrnd (para normalidad)/ se debe copiar cada uno


Cuando son cerca a la unidad pero son menores que 1 (suponemos que tiene raíz unitaria)
a pesar de que no.

- Creamos una serie X con tendencia estacionaria

EN COMANDOS
smpl @first @last
SERIES X=0
smpl @first+1 @last
series x=0.5+0.75*x(-1)+0.01*@trend+1.5*nrnd

- Creamos una serie X con tendencia estacionaria

EN COMANDOS
smpl @first @last
SERIES Z=0
smpl @first+1 @last
series Z=0.8+Z(-1)+nrnd

Ahora observamos si son estacionarias.


PASO 2: Evaluamos la prueba de raíces unitarias

Ho: Y tiene raíz unitaria

H1: Y NO tiene raíz unitaria.

¿Diferenciando podemos remover la tendencia?

OPEN  VIEW  UNIT ROOT TEST  STANDARD UNIT ROOT TEST  ESCOJO EN TEST
TYPE.

Null Hypothesis: X is stationary


Exogenous: Constant, Linear Trend
Bandwidth: 11 (Newey-West automatic) using Bartlett kernel

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic  0.048539


Asymptotic critical values*: 1% level  0.216000
5% level  0.146000
10% level  0.119000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1) 


Residual variance (no correction)  4.561626
HAC corrected variance (Bartlett kernel)  18.22645

KPSS Test Equation


Dependent Variable: X
Method: Least Squares
Date: 08/06/22 Time: 09:51
Sample: 1992M02 2020M12
Included observations: 347

Variable Coefficient Std. Error t-Statistic Prob.  

C 0.751470 0.229479 3.274685 0.0012


@TREND("1992M02") 0.042926 0.001148 37.39471 0.0000

R-squared 0.802107    Mean dependent var 8.177719


Adjusted R-squared 0.801533    S.D. dependent var 4.808073
S.E. of regression 2.141978    Akaike info criterion 4.367084
Sum squared resid 1582.884    Schwarz criterion 4.389270
Log likelihood -755.6890    Hannan-Quinn criter. 4.375917
F-statistic 1398.364    Durbin-Watson stat 0.533498
Prob(F-statistic) 0.000000

Null Hypothesis: X has a unit root


Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic - based on SIC, maxlag=16)

t-Statistic   Prob.*

Augmented Dickey-Fuller test statistic -7.224171  0.0000


Test critical values: 1% level -3.984726
5% level -3.422828
10% level -3.134315

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(X)
Method: Least Squares
Date: 08/06/22 Time: 09:52
Sample: 1992M02 2020M12
Included observations: 347

Variable Coefficient Std. Error t-Statistic Prob.  

X(-1) -0.265758 0.036787 -7.224171 0.0000


C 0.248950 0.158452 1.571145 0.1171
@TREND("1992M02") 0.011280 0.001768 6.379716 0.0000

R-squared 0.131835    Mean dependent var 0.036966


Adjusted R-squared 0.126788    S.D. dependent var 1.562630
S.E. of regression 1.460213    Akaike info criterion 3.603649
Sum squared resid 733.4841    Schwarz criterion 3.636929
Log likelihood -622.2331    Hannan-Quinn criter. 3.616900
F-statistic 26.11904    Durbin-Watson stat 1.859689
Prob(F-statistic) 0.000000
Phillips-Perron Test Equation
Dependent Variable: D(X)
Method: Least Squares
Date: 08/06/22 Time: 09:52
Sample: 1992M02 2020M12
Included observations: 347

Variable Coefficient Std. Error t-Statistic Prob.  

X(-1) -0.265758 0.036787 -7.224171 0.0000


C 0.248950 0.158452 1.571145 0.1171
@TREND("1992M02") 0.011280 0.001768 6.379716 0.0000

R-squared 0.131835    Mean dependent var 0.036966


Adjusted R-squared 0.126788    S.D. dependent var 1.562630
S.E. of regression 1.460213    Akaike info criterion 3.603649
Sum squared resid 733.4841    Schwarz criterion 3.636929
Log likelihood -622.2331    Hannan-Quinn criter. 3.616900
F-statistic 26.11904    Durbin-Watson stat 1.859689
Prob(F-statistic) 0.000000

AHORA VOLVEMOS AL EJERCICIO DE RAÍCES UNITARIAS EN EVIEWS


Para la variable pe-saf  prueba de raíces unitarias

Null Hypothesis: PE_SAF has a unit root


Exogenous: None
Lag Length: 0 (Automatic - based on SIC, maxlag=14)

t-Statistic   Prob.*

Augmented Dickey-Fuller test statistic -0.468627  0.5116


Test critical values: 1% level -2.574925
5% level -1.942193
10% level -1.615791

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(PE_SAF)
Method: Least Squares
Date: 08/06/22 Time: 09:58
Sample (adjusted): 1995M10 2015M02
Included observations: 233 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

PE_SAF(-1) -0.002862 0.006108 -0.468627 0.6398

R-squared 0.000782    Mean dependent var 0.017963


Adjusted R-squared 0.000782    S.D. dependent var 1.406288
S.E. of regression 1.405738    Akaike info criterion 3.523284
Sum squared resid 458.4549    Schwarz criterion 3.538096
Log likelihood -409.4626    Hannan-Quinn criter. 3.529257
Durbin-Watson stat 1.739217
Por lo tanto, si tiene raíz unitaria. Aceptamos la Ho.

Entonces aplicamos la primera diferencia. (1ST DIFFERENCE)

Null Hypothesis: D(PE_SAF) has a unit root


Exogenous: None
Lag Length: 0 (Automatic - based on SIC, maxlag=14)

t-Statistic   Prob.*

Augmented Dickey-Fuller test statistic -13.35473  0.0000


Test critical values: 1% level -2.574968
5% level -1.942199
10% level -1.615787

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(PE_SAF,2)
Method: Least Squares
Date: 08/06/22 Time: 10:01
Sample (adjusted): 1995M11 2015M02
Included observations: 232 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

D(PE_SAF(-1)) -0.871930 0.065290 -13.35473 0.0000

R-squared 0.435685    Mean dependent var 0.004985


Adjusted R-squared 0.435685    S.D. dependent var 1.860539
S.E. of regression 1.397653    Akaike info criterion 3.511767
Sum squared resid 451.2434    Schwarz criterion 3.526624
Log likelihood -406.3650    Hannan-Quinn criter. 3.517759
Durbin-Watson stat 1.985637

P-VALUE es menor que 0.05 por lo cual rechazamos Ho. La variable no tiene una raíz unitaria.
Por lo tanto, concluyo que puedo trabajar con la variable.

Podemos evaluar los differentes p-value.

Ho: tiene raíz unitaria = no es estacionaria Ho: es estacionaria


Prueba ADF PRUEBA PP KPSS
Intercepto Intercepto Intercepto Intercepto intercepto Intercepto
y tendencia y tendencia y
tendencia
PE-SAF
 0.0013  0.0071  0.0020  0.0108  0.142361  0.128984

CONCLUSIÓN:

- Lo primero que hacemos es graficar para ver si las variables tienen tendencia y
estacionariedad.
COINTEGRACIÓN
SERIES NO TRANSFORMADAS I(i)

Raíces unitarias (Series no


estacionarias

SERIES TRANSFORMADAS I(0)

Tienen alguna relación?


Si : Cointegración

Ejemplo: Esta es una serie trimestral. Todas las series están desestacionalizadas y nuestro
objetivo es pronosticar esas variables.
Todas las variables tienen una tendencia a aumentar, por lo tanto no son estacionarias (tienen
raíces unitarias)

Utilizamos la prueba PP. Tienen una tendencia por lo que escogemos, tendencia e intercepto.
Null Hypothesis: LM has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 4 (Newey-West automatic) using Bartlett kernel

Adj. t-Stat   Prob.*

Phillips-Perron test statistic -1.437416  0.8410


Test critical values: 1% level -4.096614
5% level -3.476275
10% level -3.165610

*MacKinnon (1996) one-sided p-values.

Residual variance (no correction)  0.000297


HAC corrected variance (Bartlett kernel)  0.000593

Phillips-Perron Test Equation


Dependent Variable: D(LM)
Method: Least Squares
Date: 08/06/22 Time: 10:57
Sample (adjusted): 1997Q4 2014Q4
Included observations: 69 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

LM(-1) -0.030085 0.034002 -0.884790 0.3795


C 0.362267 0.393758 0.920025 0.3609
@TREND("1997Q3") 0.000421 0.000526 0.801040 0.4260

R-squared 0.013265    Mean dependent var 0.012691


Adjusted R-squared -0.016637    S.D. dependent var 0.017462
S.E. of regression 0.017606    Akaike info criterion -5.198625
Sum squared resid 0.020459    Schwarz criterion -5.101490
Log likelihood 182.3525    Hannan-Quinn criter. -5.160088
F-statistic 0.443613    Durbin-Watson stat 1.175968
Prob(F-statistic) 0.643613

Graficamos
PARA GRAFICAR LA REGRESIÓN
Open as a group view  graph  scatter regresión lineal  OK

Observamos la correlación por la matriz

PARA GRAFICAR LA REGRESIÓN


Open as a group view  covariance analysis  correlation OK
¿Qué es cointegración?

Si tenemos una serie I(1), ESTAN COINTEGRADAS si existe al menos una combinación lineal de
estas variables que sea estacionaria. Entonces decimos

b 1 m+b2 p +b3 y son estacionarios o I (0)


Si no conocemos la cointegración, estimamos el VAR (Vectores autoregresivos). Estos se
utilizan para ver como se relacionan dos variables en el tiempo, y evaluamos los impactos que
puedan tener.

¿Por qué es importante?

La primera es que, Si cometemos un error en el parámetro, podremos tener una diferencia


muy grande en términos impulso-respuesta.

Evaluación de impactos.

YM

Análisis en a)

Análisis en b)

t
T2 T4

La segunda es que, básicamente, la prueba de causalidad de Granger NO SIGUE la estadística


de F estándar.

Regresionamos para ver una evaluación de causa y efecto. Por ejemplo Y =f(M, X, P). Si
queremos ver la causalidad con la X, entonces las demás variables en la e tenemos las demás
variables.

PRIMER PASO:

Hacemos la prueba de raíces unitarias de DF para lp, lm, lrgdp con un máximo de rezago 15.
Con un intercepto.

Null Hypothesis: LP has a unit root


Exogenous: Constant
Lag Length: 1 (Automatic - based on SIC, maxlag=15)

t-Statistic   Prob.*

Augmented Dickey-Fuller test statistic  0.578143  0.9881


Test critical values: 1% level -3.530030
5% level -2.904848
10% level -2.589907

*MacKinnon (1996) one-sided p-values.


Null Hypothesis: LM has a unit root
Exogenous: Constant
Lag Length: 1 (Automatic - based on SIC, maxlag=15)

t-Statistic   Prob.*

Augmented Dickey-Fuller test statistic -0.897853  0.7832


Test critical values: 1% level -3.530030
5% level -2.904848
10% level -2.589907

*MacKinnon (1996) one-sided p-values.

Null Hypothesis: LRGDP has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic - based on SIC, maxlag=15)

t-Statistic   Prob.*

Augmented Dickey-Fuller test statistic -2.449946  0.1322


Test critical values: 1% level -3.528515
5% level -2.904198
10% level -2.589562

*MacKinnon (1996) one-sided p-values.

- En todos los casos, no se rechaza H0: Tiene raíces unitarias. Estamos diciendo que estas
variables tienen diferentes comportamientos

SEGUNDO PASO: Generamos una línea arbitraria que considere los logaritmos con valores por
que queremos una combinación lineal arbitraria de estas variables:

PARA GENERAR LA LINEA ARBITRARIA

EN COMANDOS  genr arbitraria_linc=0.3*log(m)-0.5*log(p)+0.1*log(rgdp)

Null Hypothesis: ARBITRARIA_LINC has a unit root


Exogenous: Constant
Lag Length: 1 (Automatic - based on SIC, maxlag=15)

t-Statistic   Prob.*

Augmented Dickey-Fuller test statistic -1.437136  0.5591


Test critical values: 1% level -3.530030
5% level -2.904848
10% level -2.589907

*MacKinnon (1996) one-sided p-values.


TERCER PASO: Mecanismo de Correción del errores.

E(e t ¿ = 0, si me eh equivocado no afecta mucho a mi modelo

Ahora veamos la relación entre “m” y “p”. La relación es directa. Sin embargo, hay un punto
que genera una brecha. Cada vez que nos desviamos tenemos una brecha, desviación.

brecha
a

Vamos a crear un archivo


Wfcreate a 001 2001
series x=0
series y=0
series x1=0
series y1=0
Smpl @first+1 @last

rndseed 1234
series u=nrnd
rndseed 123
series w=nrnd
series x=x(-1)+u
series y=y(-1)+w
series dist=y-x
Generamos un modelo:
model ECM_modelo

En comandos  ECM_ejemplo.append x1=u+x1(-1)+c(1)*(y1(-1)-x1(-1))


ECM ejemplo.append y1=w+y1(-1)+c(2)*(y1(-1)-x1(-1))

Los coeficientes lo definimos como

C(1)=0.05

C(2)= -0.05

También podría gustarte