Está en la página 1de 7

Quiz 1

Tomás Urrego

2023-02-09

## # A tibble: 35 x 4
## cu i pib year
## <dbl> <dbl> <dbl> <dbl>
## 1 0.832 1691638. 7008131. 1964
## 2 0.832 1973577. 7416683. 1965
## 3 0.83 2224517. 7965995. 1966
## 4 0.8 2318902. 8352045. 1967
## 5 0.805 2523994. 8880574. 1968
## 6 0.838 2825264. 9667580. 1969
## 7 0.838 2881700 10132122. 1970
## 8 0.822 2796600 10646712. 1971
## 9 0.868 3192900 11543963. 1972
## 10 0.888 3608900 12451110. 1973
## # ... with 25 more rows

primero corremos el modelo exigido log(i) = β1 + β” log(pib) + β3 log(cu) + u

##
## Call:
## lm(formula = log(i) ~ log(pib) + log(cu))
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.204113 -0.063058 0.006868 0.065282 0.152181
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -1.33347 0.85830 -1.554 0.13011
## log(pib) 1.01765 0.05452 18.666 < 2e-16 ***
## log(cu) 1.49663 0.46517 3.217 0.00296 **
## ---
## Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1
##
## Residual standard error: 0.09125 on 32 degrees of freedom
## Multiple R-squared: 0.9223, Adjusted R-squared: 0.9174
## F-statistic: 189.9 on 2 and 32 DF, p-value: < 2.2e-16

Debido a que el modelo esta en logaritmo, sabemos que los cambios y relaciones entre las variables, van a
estar dados de manera porcentual. Al usar el logarítmo, se están disminuyendo la varianza de las variables.
con un α = 0.05 podemos ver un alto nivel de significancia de las variables independientes (pib y cu).
al analizar los resultados nos podemos dar cuenta que los efectos en las variables pib y cu, aumentan
positivamente y de manera porcentual (1.017%, 1.496%) a la variable dependiente (i)

1
Pruebas de autocorrelación

Análisis gráfico

0.1

Residuales
0.0

−0.1

−0.2

1970

Antes de realizar el grafico se deben estandarizar los residuales de la regresión anterior.

1
Residuales estandarizados

−1

−2

2
1970 1980 1990
Año 1964
Como podemos observar, en los graficos anteriores hay cierto patron “ciclico” que cumplen los datos, es decir,
podemos inducir que no son aleatorios, por lo que podemos asumir que hay indicios de autocorrelación.

Correlogramas

primeramente realizamos los correlogramas para detectar que tipo de proceso es, y asi saber si podemos
confiar o no en los resultados arrojados por los procesos de corrección que estan “condicionados” a asumir
solamente procesos autorregresivos de orden 1.

## Warning in ggplot2::geom_segment(lineend = "butt", ...): Ignoring unknown


## parameters: ‘main‘

ACF de los residuales

0.5
ACF

0.0

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Lag

## Warning in ggplot2::geom_segment(lineend = "butt", ...): Ignoring unknown


## parameters: ‘main‘ and ‘ylab‘

3
PAC de los residuales

0.5
PAC

0.0

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Lag

segun los correlogramas anteriores, podemos ver que nos enfrentamos ante un proceso AR(2), debido a que
podemos ver la disminución lenta hacia 0 del AC, que nos indica que es un proceso autorregresivo y la
disminución abrupta hacia 0 del PAC, en donde resaltan 2 barras consecutivas por fuera de la barrera que
nos indican que es un proceso de orden 2, en conclusión estamos aunte un proceso autorregresivo de orden
2.

Test de Durbun-Watson

##
## Durbin-Watson test
##
## data: reg1
## DW = 0.28785, p-value = 3.6e-13
## alternative hypothesis: true autocorrelation is greater than 0

H0 =: La hipótesis nula de este test plantea que no existe autocorrelación entre los residuales, ya que en
este caso el p-value < 0.05 con un valor de 3.6e-13, rechazo la hipótesis nula de no autocorrelación, por lo
que podemos decir que segun este test, nuestro proceso presenta autocorrelación.

Test de Breusch-Godfrey (multiplicadores de Lagrange (LM))

El test de correlación serial de Breusch–Godfrey LM es un test de autocorrelación en los errores y residuos


estadísticos en un modelo de regresión. Hace uso de los errores generados en el modelo de regresión y un
test de hipótesis derivado de éste.

4
##
## Breusch-Godfrey test for serial correlation of order up to 1
##
## data: reg1
## LM test = 24.839, df = 1, p-value = 6.232e-07

H0 : No existe correlación serial, es decir, si p value < 0.05 rechazo la hipóteses nula de no autocorrelación,
por lo que para este caso, encontramos que el test sugiere que hay autocorrelación con un p-value de 6.232e-07.

Test de Ljung-Box

Los datos se distribuyen de forma independiente (es decir, las correlaciones en la población de la que se toma
la muestra son 0, de modo que cualquier correlación observada en los datos es el resultado de la aleatoriedad
del proceso de muestreo.

##
## Box-Ljung test
##
## data: datos$u_e
## X-squared = 26.291, df = 1, p-value = 2.937e-07

H0 : no existe correlación serial de ningun orden, es decir, con un p value = 2.937e-07 < 0.05 rechazo la
hipóteses nula de no autocorrelación, por lo que este test tambien sugiere que hay autocorrelación dentro
del modelo

Estructura
nos encontramos frente a un modelo con una estructura AR(2), por lo cual sabemos que es un modelo autor-
regresivo, que se ve afectado por su pasado con un retraso de dos periosos (2), y que puede ser representado
mediante la siguiente ecuación.

ut = ϕut−2 + et

Corrección de autocorrelación
Debido a que nos enfrentamos a un proceso AR(2), a la hora de corregir la autocorrelación, (bajo mi punto
de vista) no es viable confiar en los procesos Cochrane-Orcutt y Prais-Winsten, ya que como claramente
lo explica la teoría, estas correcciones estan diseñadas solamente para asumir procesos autorregresivos de
orden 1; sin embargo me parece pertinente realizar las correcciones para que quede evidencia empírica de su
“inutilidad” dentro del modelo.

Método Cochrane-Orcutt

Dbido a que este test es un procedimiento interativo que asume estructuras AR(1), por lo cual no es util en
este caso ya que nuestra estructura cuenta con las caracteristicas de un AR(2).

5
## Call:
## lm(formula = log(i) ~ log(pib) + log(cu))
##
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -25.99284 6.40709 -4.057 0.0003118 ***
## log(pib) 2.42980 0.36748 6.612 2.179e-07 ***
## log(cu) 0.32714 0.25889 1.264 0.2157982
## ---
## Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1
##
## Residual standard error: 0.0367 on 31 degrees of freedom
## Multiple R-squared: 0.7012 , Adjusted R-squared: 0.6819
## F-statistic: 36.4 on 2 and 31 DF, p-value: < 7.395e-09
##
## Durbin-Watson statistic
## (original): 0.28785 , p-value: 3.6e-13
## (transformed): 1.04045 , p-value: 8.771e-04

Método de Prais-Winsten

es un procedimiento que al igual que el método Cochrane-Orcutt, es interativo y asume estructuras AR(1),
por lo cual tampoco es util para nuestra estructura AR(2).

## Iteration 0: rho = 0
## Iteration 1: rho = 0.8422
## Iteration 2: rho = 0.9129
## Iteration 3: rho = 0.9315
## Iteration 4: rho = 0.9375
## Iteration 5: rho = 0.9395
## Iteration 6: rho = 0.9402
## Iteration 7: rho = 0.9405
## Iteration 8: rho = 0.9406
## Iteration 9: rho = 0.9406
## Iteration 10: rho = 0.9406
## Iteration 11: rho = 0.9406
## Iteration 12: rho = 0.9406
## Iteration 13: rho = 0.9406

##
## Call:
## prais_winsten(formula = log(i) ~ log(pib) + log(cu), data = datos,
## index = datos$year)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.24656 -0.09217 -0.02814 0.07216 0.20639
##
## AR(1) coefficient rho after 13 iterations: 0.9406
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -5.0130 2.1410 -2.341 0.0256 *
## log(pib) 1.2323 0.1299 9.483 8.16e-11 ***

6
## log(cu) 0.7719 0.2604 2.964 0.0057 **
## ---
## Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1
##
## Residual standard error: 0.04215 on 32 degrees of freedom
## Multiple R-squared: 0.9963, Adjusted R-squared: 0.996
## F-statistic: 4254 on 2 and 32 DF, p-value: < 2.2e-16
##
## Durbin-Watson statistic (original): 0.2878
## Durbin-Watson statistic (transformed): 0.8573

Método Newey-West

este método corrige problemas de autocorrelación y heterocedasticidad. Corrige con orden de rezago más
alto, por loq que podría ser una solución viable para corregir los problemas de autocorrelación que presenta
nuestro modelo.

##
## Lag truncation parameter chosen: 1

##
## t test of coefficients:
##
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -1.33347 1.32004 -1.0102 0.3200
## log(pib) 1.01765 0.08161 12.4697 7.919e-14 ***
## log(cu) 1.49663 1.27413 1.1746 0.2488
## ---
## Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

Conclusión
En conclusión, el mejor modelo para mi es el estimado mediante el método Newey-West, es cierto que al
mirar las correciones realizadas por los otros metodos como el Prais-Winsten, obtenemos un mayor nivel de
significancia en las variables, sin embargo debido a que en este caso tenemos un modelo que se encuentra en
una estructura AR(2), lo mejor es no confiar en los resultados de las correcciones que asumen solo modelos
AR(1), por lo cual postulo la estimación corregida mediante el método Newey-West, que asume estrcturas
de más alto valor.

También podría gustarte