Está en la página 1de 92

Compendio

de
Econometría

II
Contenido
EJERCICIO 1....................................................................................................................................... 46
EJERCICIO 2 ...................................................................................................................................... 47
EJERCICIO 4. ..................................................................................................................................... 49
EJERCICIO 5 ...................................................................................................................................... 50
EJERCICIO 6 ...................................................................................................................................... 50
EJERCICIO 7 ...................................................................................................................................... 51
EJERCICIO 8 ...................................................................................................................................... 51
EJERCICIO 9 ...................................................................................................................................... 52
EJERCICIO 10 ..................................................................................................................................... 52
Ejercicio 11 ..................................................................................................................................... 53
Ejercicio 12 .................................................................................................................................... 53
Ejercicio 13 ..................................................................................................................................... 54
Ejercicio 14 ..................................................................................................................................... 54
Ejercicio 15 ..................................................................................................................................... 55
Ejercicio 16 ..................................................................................................................................... 55
EJERCICIO 17 ..................................................................................................................................... 57
EJERCICIO 18 ..................................................................................................................................... 58
EJERCICIO 20 .................................................................................................................................... 61
EJERCICIO 21. .................................................................................................................................... 62
EJERCICIO 22.2 .................................................................................................................................. 62
EJERCICIO 24 .................................................................................................................................... 63
EJERCICIO 25 ..................................................................................................................................... 65
EJERCICIO 26. .................................................................................................................................... 65
EJERCICIO 34. .................................................................................................................................... 67
EJERCICIO 37 ..................................................................................................................................... 68
EJERCICIO 38..................................................................................................................................... 69
EJERCICIO 39 ..................................................................................................................................... 70
EJERCICIO 40. ................................................................................................................................... 70
EJERCICIO 41. .................................................................................................................................... 70
EJERCICIO 43..................................................................................................................................... 71
EJERCICIO 44 .................................................................................................................................... 71
EJERCICIO 45..................................................................................................................................... 72
EJERCICIO 46. ................................................................................................................................... 72
EJERCICIO 52. .................................................................................................................................... 73
EJERCICIO 49 .................................................................................................................................... 73
EJERCICIO 54 .................................................................................................................................... 74
EJERCICIO 55 ..................................................................................................................................... 75
EJERCICIO 56..................................................................................................................................... 75
EJERCICIO 57 ..................................................................................................................................... 75
EJERCICIO 58 .................................................................................................................................... 76

https://arxiv.org/pdf/1705.01795.pdf
Conceptos básicos
Serie de tiempo
Secuencia de datos ordenados en función al tiempo, en otras palabras, en este tipo
de modelos se extrae informaciones del pasado de las series para predecir
su comportamiento futuro.
El objetivo último, como cualquier método econométrico es la “predicción”.
El origen del enfoque, se basa en la metodología de Box-Jenkins.
En otras palabras, la tarea para los que hacen econometría con datos de serie de
tiempo, es desarrollar modelos razonablemente simples, capaz de
pronosticar e interpretar los datos económicos.
La metodología ha sido desarrollada básicamente para descomponer las series en
sus componentes de tendencias, estacionalidad, componentes cíclicos e
irregular.
En su estudio pueden presentarse dos tipos de datos, las que son impredecibles
(naturaleza estocástica) y los que tienen comportamiento determinístico.
Series estocásticas o aleatorias: Son aquellas series o valores aleatorios
ordenadas a través del tiempo, por lo tanto, nunca se puede predecir con total
certeza y amerita en los modelamientos incluir un término de error. En algunos
libros se le denomina proceso generador de datos (pdg). En la práctica, las
distintas observaciones en el tiempo no son necesariamente independientes una de
otra.
Variables determinísticas: Es cuando todas las repeticiones son
iguales, si esto es así estas series pueden predecirse fácilmente sin error .
En la práctica el grado de determinismo puede depender de la disponibilidad de los
datos

Terminología Frecuente
Tendencia: En una serie, describe normalmente su comportamiento
de largo plazo. Es un movimiento de baja frecuencia, que evoluciona
lentamente hacia una dirección en particular. Puede haber casos en que las
series cambien de rumbo, pero lo que no puede suceder que estos rumbos
cambien con frecuencia.
movimientos similares que se presentan para
Estacionalidad: Son
los mismos periodos de cada año. Ejemplos, ventas de helados, consumo
de ciertas bebidas, evolución de los agregados monetarios, indicadores de actividad
económica, etc.
si sus propiedades
Estacionario: Un proceso estocástico es estacionario,
estadísticas o probabilísticas no cambian en el tiempo .
Ruido Blanco: Normalmente esta representada por la serie con la mayor
aleatoriedad posible, es un proceso estocástico independiente y
normalmente distribuido. Se designa normalmente con 𝑌𝑡 ~𝑅𝐵(0; 𝜎 2 )
Las series que son ruido blanco, no son pronosticable a partir de sus propios
pasados, porque por definición, cada 𝑌𝑡 es independientes de los demás, por tanto
es únicamente pronosticable incondicionalmente, lo cual de poco sirve porque la
predicción incondicional es la media. Afortunadamente, la mayoría de las series no
son ruido blanco y pueden ser por tanto al menos en algún grado, predichas a partir
de su pasado.
En términos estadísticos se puede escribir:
 𝐸 (𝑌𝑡 ) = 0 ∀𝑡
 𝑉𝐴𝑅 𝑌𝑡 = 𝐸 𝑌𝑡2 ) = 𝜎 2 < ∀, ∞𝑡 ⇒ Homocedasticidad en regresión simple
( ) (
 𝐶𝑂𝑉(𝑌𝑡 − 𝑌𝑡−𝑗 ) = 0 ∀𝑡 ≠ 𝑗 ⇒ no correlación serial
 Es por construcción estacionario, ejemplo, el término de error de un modelo
de regresión clásica.

Ergodicidad: la distribución de la probabilidad de una muestra


igual a la población
La propiedad de ergodicidad tiene que ver con el problema de hacer inferencias de
la realización de ensamblaje. Es decir un proceso es tanto estacionario como
ergódico, cuando una sola realización finita (que es usualmente lo único que se
tiene para trabajar en la práctica), permite inferir todo acerca de la ley de
probabilidad del proceso, los momentos estadísticos que se calculan de esta muestra
finita convergen a los que se calcularían de una muestra infinita (estacionariedad).
La ergodicidad requiere que los valores del proceso suficientemente separados en el
tiempo estén casi incorrelacionados, tal que promediando la serie en el tiempo, se
adicione continuamente nueva información útil al promedio. Esto implica que la
autocovarianza o autocorrelación tiendan a cero a una tasa suficientemente rápida
a medida que aumenta la separación de los datos en el tiempo.
se refiere a la convergencia probabilística de los
El concepto de ergodicidad
momentos muestrales en los poblacionales cuando s → ∞, es decir,
cuando la serie se aleja del momento t. Esto supone que la función de
autocorrelación observada en los correlogramas tiende a cero conforme crece el
desfase entre los momentos t y s,

Random Walk - caminata aleatoria: Se dice que una serie tiene comportamiento
de random walk (trayectoria al azar), cuando no tiene una varianza
acotada.
Principio de parsimonia: conviene mantener el modelo de regresión
lo más sencillo posible. Si se explica “sustancialmente” el comportamiento
de Y con dos o tres variables explicativas, y si la teoría no es bastante fuerte para
indicar otras variables que pueden incluirse, ¿para qué introducir más variables? Que
𝜇𝑖 represente todas las demás variables. Por supuesto, no se deben excluir variables
pertinentes e importantes sólo para que el modelo de regresión no se complique.

Teoría de Exámenes Anteriores


 Multicolinealidad, implicancia, forma de detección y corrección.
Implicancia: Cuando las variables independientes presentan alto
nivel de correlación. Puede ser perfecta o fuerte (imperfecta) entre algunas o
todas las variables explicativas de un modelo de regresion.
Detección: 𝑹𝟐 elevado y los estadísticos T no significativos. Los test
T serán muy bajos porque sus errores estándares son infinitos.
Corrección: Se pueden usar regresiones auxiliares , regresando una de las
variables X en función de las otras X.
 Que son las pruebas de Cusum y CusumQ y para que se utilizan.
Cusum: test que se construye a partir de la suma acumulada de los residuos
recursivos.
Bajo la hipótesis de estabilidad estructural, el Cusum debe tener media cero por lo que
las sumas acumuladas que se alejan de cero indica la existencia de inestabilidad.

Cusum Q: a diferencia del test de Cusum, bajo la hipótesis nula de estabilidad de los
𝒕−𝒌−𝟏
parámetros tiene una media igual a 𝑬(𝑺𝒕) = 𝑻−𝒌−𝟏, por ende, creciente a medida
que aumenta el número de observaciones del modelo, si su valor sale de la banda
de confianza entonces también hay indicio de inestabilidad estructural
 Citen y comenten los test de heterocedasticidad y en qué consisten
cada uno de ellos.
Test de White
El más general, ya no necesita saber la especificación formal de la hipótesis
alternativa, donde 𝐻0 : 𝜎𝑖2 = 𝜎𝑖2 .
Se basa errores mínimos cuadráticos que son los indicativos de las varianzas de las
perturbaciones, frente a un término independiente, los regresores, sus cuadrados y sus
productos cruzados dos a dos.

Goldfeld y Quandt
Restringe la hipótesis alternativa, es decir, la estructura de la heteroscedasticidad a una
relación monótona, creciente o decreciente, entre la varianza de las perturbaciones y el
valor de uno o de los regresores o de los valores estimados de la variable endógena. Divide
los datos en dos subgrupos, de modo que los grupos queden divididos en un tamaño
𝑁−𝑝
.
2
Verifica que la varianza de 𝜇 no es función monótona creciente o decreciente de las 𝒙 en
cuyo caso no habría heteroscedasticidad.

Breusch – Pagan
Esta prueba no requiere ordenar la información, se calculan los residuales por
mínimos cuadrados. Analiza si la varianza estimada de los residuos de una
regresión depende de los valores de las variables independientes .

 En qué caso, los coeficientes estimados en un modelo bi-variado,


coinciden con los coeficientes estimados en un modelo de
regresión múltiple.
Si 𝒚𝒕 = 𝜶𝒐 + 𝜶𝟏 𝒙 + 𝒖
𝒚 𝒕 = 𝜶𝒐 + 𝜶𝟏 𝑿 + 𝜶𝟐 𝒁 + 𝒖
Dos casos:

1. Si la covarianza de X y Z es distinta a cero, los coeficientes no deberían ser


iguales. Ni X ni Z guardan asociación lineal. Covarianza baja y ambos coeficientes
son iguales. Asociación lineal baja, el cambio de Z no afecta al cambio de X.
2. Que alfa 2 sea cero.
 Autocorrelación, implicancia, forma de detección y corrección.
Implicancia: Se da cuando las perturbaciones del modelo presentan correlaciones ente
ellas, el estimador 𝜷 será lineal e insesgado pero la varianza será sesgada y por ende
también la covarianza.
Las causas son la omisión de variables relevantes del modelo, utilización de datos
manipulados.
Detección: Se grafican los residuos, con respecto al tiempo y a sus valores rezagados y los
correlogramas simple y parcial de los residuos. Puede ser autocorrelación positiva o
negativa.
 Estacionariedad, detección e implicancia
Una serie es estacionaria si sus propiedades estadísticas y probabilísticas no cambian en el
tiempo.
Detección: si la serie es estacionaria (𝐸 (𝑌𝑡 ) =𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∀𝑡; 𝑉𝑎𝑟(𝑌𝑡 ) =𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∀𝑡;
𝐶𝑜𝑣(𝑌𝑡 + 𝑌𝑡+𝑠 ) =𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 ∀𝑡)

Implicancia: los modelos con series no estacionarias conducen a regresiones espúreas


(series que estadísticamente son significativas, pero no tienen significado económico). En
las mismas, no hay causalidad ente las variables, el factor que genera relación estadística
es nada mas que la presencia de tendencia en la serie

 Citen y comenten los test de cointegración que se utilizan


normalmente y comenten la diferencia.
Para comprobar cointegración hay dos maneras, para el modelo básico de cointegración de
Engle-Granger, una vez que se estima la relación lineal entre dos series por ejemplo, se
analizan los residuos a través del test de dickey fuller aumentado y si son estacionarios hay
cointegración
Para modelos mas complejos (VEC) en el cual se quiere ver si pueden existir mas vectores
o menos vectores en una posible cointegración,se ve el test de JJ para su metodología, o
con el rango de la matriz pi
La diferencia está que en el primero, se analiza cointegración en base a la imposición de n
series y n-1 vectores de cointegración y el test de jj no impone eso
Además de ver si existe o no, dice la cantidad de vectores
 ¿Porque es importante definir una ecuación de corrección de
desequilibrios? ¿Y que muestra la ecuación?
∆𝒚𝒕 = ∅𝟎 ∆𝒙𝒕 − (𝟏 − 𝜶𝟏 )[𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] + 𝝁𝒕

Como se observa, este modelo es una formulación estacionaria de variables no estacionarias


que hace uso de la restricción a largo plazo que liga a esas variables por el hecho de estar
cointegradas, poniendo de manifiesto que cuando hay más de una variable y existe
cointegración, la transformación estacionaria no se logra diferenciando, sino que requiere
la inclusión del término de corrección del error junto con términos en diferecias.
El mecanismo de corrección del error sirve para poner de manifiesto que en la evolución de
la variable Y existe una trayectoria a largo plazo y una dinámica transitoria sin efecto a largo
plazo
Por tanto, los modelos de mecanismo de corrección del error permiten modelizar tanto las
relaciones de largo plazo como la dinámica a corto de las variables. La denominación de
modelo de corrección del error se debe a la especificación del modelo, en donde las
desviaciones de la relación a largo plazo entre los niveles de las variables funcionan como
un mecanismo que impulsa a los cambios de las variables a acercarse a su nivel de equilibrio
cuando se han alejado de éste, es decir, corrigen los errores de desequilibrio de periodos
anteriores de forma gradual.
 Estacionariedad, Estacionalidad, Ruido Blanco, Caminata Aleatoria.
Estacionariedad: un proceso estocástico es estacionario si sus propiedades
estadísticas o probabilidades no cambian en el tiempo. Una serie es
estacionaria cuando es estable a lo largo del tiempo y su media y varianza son constantes.

Estacionalidad: movimientos similares que se presentan para los mismos


períodos de cada año. Ejemplos, ventas de helados, consumo de ciertas bebidas,
evolución de los agregados monetarios, indicadores de actividad económica, etc.

serie con la mayor


Ruido blanco: Normalmente esta representada por la
aleatoriedad posible, es un proceso estocástico independiente y
normalmente distribuido. Se designa normalmente con 𝑌𝑡 ~𝑅𝐵(0; 𝜎 2 )
No son pronosticables a partir de sus propios pasados, son estacionarios por construcción.

Caminata aleatoria (random walk): Se dice que una serie tiene comportamiento de
random walk (trayectoria al azar), cuando no tiene una varianza acotada.
Entonces, la varianza dependerá del tiempo y de hecho tiende al infinito con “t”, por lo
tanto, la serie no puede ser estacionaria. Al diferenciarlos, resulta en una serie estacionaria,
pues: Δ𝑌=𝑌𝑡−𝑌𝑡−1=𝑒𝑡

 Diferencia entre el test de Johansen y Juselius y el test de Engle y


Granger
Engle y Granger Johansen y Juselius
- el investigador tiene que decidir qué - todas las variables en el lado izquierdo
variables tiene que poner en el lado deben estar también en el lado derecho
izquierdo de la regresión y usa a las - JJ utiliza varios vectores (hasta n-1) de
demás variables como exógenas. cointegración
- Utiliza solo un vector de cointegración.

 ¿Diferencia entre el modelo de corrección de desequilibrios y los


modelos ADL?
ADL tres criticas Endogeneidad
Multicolinealidad entre las variables
Regresión espúrea posible
 Criticas al modelo de Durbin-Watson
 Solo sirve para contrastar en la hipótesis alternativa , esquemas de auto
correlación de la perturbación autorregresiva de orden AR (1)
 El tamaño muestral no debe ser inferior a 15 observaciones , para que
sean conclusiones fiables.
 El modelo debe tener término constante.
 No se aplica cuando se incorpora la variable dependiente rezagado
como explicativo, porque el estadístico durbin Watson (db) está
sesgado a 2.
 Comenten las debilidades del modelo ADL.
 Puede presentar problemas potenciales con respecto a la especificación dinámica
del modelo
 Multicolinealidad
 Algunas de las variables que se incorporaron en este tipo de especificación podrían no
ser estacionarias al ser incorporados en niveles y conducir a regresiones espureas
 Endogeneidad

 Que son las pruebas de Breusch-Godfrey y para que se utilizan.


Es un tets de autocorrelacion en los errores y residuos estadísticos en un modelo de
regresión
Es usado como medio para validar alguno de los supuestos aplicados a los modelos de
regresión de series de datos
Es mas general que el tets de Durvin Watson porque permite como h1 procesos de orden p AR(p) o medias
móviles de orden q MA(q). Su Ho es la ausencia de autocorrelacion y su H1 es igual a AR(r) o MA(r)

Si el p-valor es menor al 0,05 se rechaza Ho

Son test utilizados de autocorrelación en los errores y residuos estadísticos. Permite


procesos de orden AR(p) o medias móviles MA(q). hace uso de los errores generados en
el modelo de regresión y un test de hipótesis derivado del mismo. En tanto el test de
DW es restringido por variables estocásticas y de orden AR (1), el de BG es más
“poderoso” estadísticamente, pues no tiene estas restricciones.

 El incumplimiento del supuesto de normalidad respecto a la


distribución de los errores invalida la propiedad de que los
estimadores MCO son de mínima varianza entre los estimadores
lineales. Sin embargo, no invalida la propiedad de insesgadez.
La falta de normalidad puede provocar problemas de especificacon como cambio
estructural o inestabilidad, forma funcional errónea. Las pruebas de hipótesis no son
validas
Se puede afirmar que ante el incumplimiento del supuesto de normalidad, los estimadores
de MCO siguen manteniendo sus propiedades insesgados y varianza minima. No
invalida la propiedad de los estimadores
 La existencia de heteroscedasticidad sesga los estimadores MCO
tradicionales, pero no así sus varianzas estimadas.
La existencia de heterocedasticidad no genera sesgo ni inconsistencia en los
estimadores, pero la varianza deja de ser minima y se pierde la propiedad de eficiencia
(MELI) provoca sesgo en la varianza

 Criticas al modelo de cointegración de dos etapas.


Críticas de modelo EG
 Supuesto fuerte de exogeneidad (Y en función a X, no X en función a Y).
 Modelo en dos etapas.
 Solo usa un vector de cointegración

 Que test se utiliza para plantear la hipótesis de inclusión de


variables irrelevantes en el modelo, describa brevemente el
procedimiento.
El test de significación global, implica no incorporar en la especificación una
hipótesis cierta, por ende, aunque MCO mantiene sus propiedades se estiman con
menor precisión al no tener dicha información.
Contrasta la significación de uno o varios regresores incluidos, en el modelo
𝐻𝑜 = 𝑛𝑜 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖𝑜𝑛
𝐻1 = 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖𝑜𝑛
𝑆𝑖 𝑙𝑎 𝑝𝑟𝑜𝑏. < 0,05 𝑠𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝐻𝑜
 Citen e interpreten al menos cuatro de los principales supuestos de
MCO.
 Modelo de regresión lineal: El modelo de regresión es lineal en los parámetros,
aunque puede o no ser lineal en las variables
 Valores fijos de X, o valores de X independientes del término de error:
condición “ceteris paribus” para indicar el efecto de una variable en otra,
manteniendo constantes todas las demas variables que pudieran afectarle
 El valor esperado del error es igual a cero: Dado el valor de Xi, la media o
el valor esperado del término de perturbación aleatoria ui es cero.
Simbólicamente, tenemos que 𝐸 (𝜇𝑖 ) = 0
 Homoscedasticidad o varianza constante de ui: La varianza del término de
error, o de perturbación, es la misma sin importar el valor de X. 𝐸 (𝜇𝑖 )2 = 𝜎 2
 No hay autocorrelación entre las perturbaciones: los errores son
independentes unos de otros. El error de un periodo no tiene nada que ver con
periodos anteriores ni posteriores.
 El número de observaciones n debe ser mayor que el número de
parámetros por estimar: Sucesivamente, el número de observaciones n debe
ser mayor que el número de variables explicativas
 La naturaleza de las variables X (ausencia de multicolinealidad): No
todos los valores X en una muestra determinada deben ser iguales.
 Modelo bien comportado: una estimación bien especificada coincide con la
teoría económica

Modelos univariados
Una primera posibilidad de representar los datos en series de tiempo es
considerando que la serie 𝑋𝑡 = 𝜀𝑡 𝜀𝑡 ~𝑛. 𝑖. 𝑑(0; 𝜎 2 )
Es decir, la serie tiene una distribución normal y es independiente unas de otra. Si
la serie cumple con esta propiedad se le conoce en la literatura como un proceso de
ruido blanco (white - noise). Sin embargo la mayoría de las series en macroeconomía
no sigue este proceso
Las propiedades de una serie de ruido blanco son las siguientes.
 𝐸 (𝑌𝑡 ) = 0 ∀𝑡
 𝑉𝐴𝑅(𝑌𝑡 ) = 𝐸 (𝑌𝑡2 ) = 𝜎 2 < ∀, ∞𝑡 ⇒ Homocedasticidad en regresion simple
 𝐶𝑂𝑉(𝑌𝑡 − 𝑌𝑡−𝑗 ) = 0 ∀𝑡 ≠ 𝑗
Una serie que presenta estas propiedades estadísticas por construcción es
estacionaria.
TIPOS DE MODELOS UNIVARIADOS
𝐴𝑅(1): 𝑋𝑡 = 𝜌𝑋𝑡−1 + 𝜀𝑡
𝑀𝐴(1): 𝑋𝑡 = 𝜀𝑡 + 𝑂𝜀𝑡−1
𝐴𝑅(𝑝): 𝑋𝑡 = 𝜌1 𝑋𝑡−1 + 𝜌2 𝑋𝑡−2 +. . . +𝜌𝑝 𝑋𝑡−𝑝 + 𝜀𝑡

𝑀𝐴(𝑞 ): 𝑋𝑡 = 𝜀𝑡 + 𝑂1 𝜀𝑡−1 + 𝑂2 𝜀𝑡−2 +. . . +𝑂𝑞 𝜀𝑡−𝑞

𝐴𝑅𝑀𝐴(𝑝, 𝑞 ): 𝑋𝑡 = 𝜌1 𝑋𝑡−1 +. . . +𝜌𝑝 𝑋𝑡−𝑝 + 𝑂1 𝜀𝑡−1 +. . . +𝑂𝑞 𝜀𝑡−𝑞

𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞 ): 𝑋𝑡 = 𝜌1 𝑋𝑡−1 + 𝜌2 𝑋𝑡−2 − 𝜌3 𝑋𝑡−3 + 𝜀 + 𝛹𝜀𝑡−1

Modelos Autorregresivos: Modelos Autorregresivos de orden AR(p), es un


modelo popular para series de tiempo univariado. Expresa el valor actual de
una serie 𝑿𝒕 en función de sus propios valores rezagados,
Ejemplo:
𝐴𝑅(𝑝): 𝑋𝑡 = 𝜌1 𝑋𝑡−1 + 𝜌2 𝑋𝑡−2 +. . . +𝜌𝑝 𝑋𝑡−𝑝 + 𝜀𝑡
donde 𝑝 es el numero de rezago y 𝜀𝑡 es ruido blanco con media cero y varianza
constante.
El caso más sencillo es el modelo AR(1), es decir un modelo autorregresivo de orden
1
Ejemplo:
𝐴𝑅(1): 𝑋𝑡 = 𝜌𝑋𝑡−1 + 𝜀𝑡
este caso el modelo AR tiene dos componentes, una parte que lo ata a su pasado y
la otra parte que es totalmente aleatoria.

Si tenemos:
𝑋𝑡 = c + ∅𝑋𝑡−1 + 𝜀𝑡 𝜀𝑡 ~(0; 𝜎 2 )
AR(1) estacionario si |∅| < 𝟏 si consideramos el polinomio de la serie, si la raíz
1
es 𝑟 = ∅ , por lo tanto será estacionario, solo si |𝑟| < 1

El valor del coeficiente, que lo une a su pasado determina la volatilidad de la serie


 Si este es más próximo a cero, es más errático y por ende más difícil de
pronosticar, es parecido a un modelo de “ruido blanco”.
 Si se aproxima a uno, es más fácil de pronosticar a partir de los valores
conocidos y de hecho la serie presenta un comportamiento más tendencial.
Media móvil: Expresa la serie 𝑋𝑡 en función del presente y el pasado de una serie
de ruido blanco 𝜀𝑡 que tiene media cero.
𝑀𝐴(𝑞 ): 𝑋𝑡 = 𝜀𝑡 + 𝑂1 𝜀𝑡−1 + 𝑂2 𝜀𝑡−2 +. . . +𝑂𝑞 𝜀𝑡−𝑞

donde 𝑞 es el número de rezagos y los 𝜀𝑡 son estacionarios por construcción. Por lo


tanto, el modelo de promedios móviles no puede ser explosivo.
Modelos ARMA: Combina los modelos autorregresivos con los modelos de
promedios móviles,
𝐴𝑅𝑀𝐴(𝑝, 𝑞 ): 𝑋𝑡 = 𝜌1 𝑋𝑡−1 +. . . +𝜌𝑝 𝑋𝑡−𝑝 + 𝑂1 𝜀𝑡−1 +. . . +𝑂𝑞 𝜀𝑡−𝑞

En este caso el modelo incorpora tanto a la parte autorregresiva como también la


parte de promedios móviles.
Para que sea estacionaria, necesita que todos los valores de los |𝜌| < 𝟏
ARIMA: Es la versión diferenciada de un modelo ARMA, es decir es un modelo
ARIMA(p,d,q), donde d indica el orden de integración de las series, es decir la
cantidad de veces que se diferencia la serie para que sea estacionaria.
𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞 ): 𝑋𝑡 = 𝜌1 𝑋𝑡−1 + 𝜌2 𝑋𝑡−2 − 𝜌3 𝑋𝑡−3 + 𝜀 + 𝛹𝜀𝑡−1

Análisis de los correlogramas:


En la práctica resulta difícil distinguir cual es la ecuación que describe el mecanismo
generador de los datos. Sin embargo una herramienta útil para el efecto es el gráfico
del correlograma (autocorrelación total y parcial). La función de autocorrelación en
pocas palabras indica la memoria del proceso, es decir la medida en que las
observaciones pasadas inciden en observaciones presentes.
Cuando la serie es independiente totalmente entre si, la función de autocorrelación
toma valor 1 en k=0 cero para los restantes valores de k (rezagos).
Por el contrario, cuando la serie tiene tendencia, los valores sucesivos se hallan
altamente correlacionados.

Serie ruido blanco

Serie AR(1)
Serie ARMA

Serie MA

Método iterativo o repetitivo


Si el valor de y es conocido para algún periodo en particular, entonces se
puede utilizar el método iterativo, esto es ir reemplazando los valores iniciales a
través del periodo para obtener la secuencia temporal completa de la serie. Para
ilustrar, supongamos que conocemos el valor de y en el periodo 0 y lo
denotamos por 𝑦0 . Entonces es fácil de demostrar como funciona el método
iterativo, utilizando ecuaciones diferenciales.
𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝜀𝑡
𝑦1 = 𝛼0 + 𝛼1 𝑦0 + 𝜀1
𝑦2 = 𝛼0 + 𝛼1 𝑦1 + 𝜀2 = 𝛼0 + 𝛼1 (𝛼0 + 𝛼1 𝑦0 + 𝜀1 ) + 𝜀2 = 𝛼0 + 𝛼1 𝛼0 + 𝛼12 𝑦0 + 𝛼1 𝜀1 + 𝜀2
𝑦3 = 𝛼0 + 𝛼1 𝑦2 + 𝜀3 = 𝛼0 + 𝛼1 (𝛼0 + 𝛼1 𝛼0 + 𝛼12 𝑦0 + 𝛼1 𝜀1 + 𝜀2 ) + 𝜀3
= 𝛼0 + 𝛼1 𝛼0 + 𝛼12 𝛼0 + 𝛼13 𝑦0 + 𝛼12 𝜀1 + 𝛼1 𝜀2 + 𝜀3
= 𝛼0 (1 + 𝛼1 + 𝛼12 ) + 𝛼13 𝑦0 + 𝛼12 𝜀1 + 𝛼1 𝜀2 + 𝜀3
Para todo 𝑡 > 0 la interacción repetitiva produce, siendo 𝑦0 conocido
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

Si seguimos iterando hasta llegar el momento t+s, podemos obtener la siguiente


ecuación.
𝑡+𝑠−1 𝑡+𝑠−1

𝑦𝑡+𝑠 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡+𝑠 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

Si seguimos haciendo esto, hasta el infinito, y suponemos que el valor de 𝛼1 < 1. La


ecuación puede ser expresada en su forma general. Es decir el segundo término de
la ecuación en el infinito se hace cero para 𝛼1 < 1 y la sucesión de los coeficientes
puede ser transformada como un cociente

𝛼0
lim 𝑦𝑡→∞ = + ∑ 𝛼1𝑖 𝜀𝑡−𝑖
1 − 𝛼1
𝑖=𝑜

Ahora podemos demostrar las propiedades de una serie estacionaria. Para ello,
tomamos la esperanza para calcular la media de la serie, para cada periodo del
tiempo.
𝑡−1

𝐸𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0


𝑖=𝑜

Asimismo, la esperanza en el momento t+s, es la siguiente.


𝑡+𝑠−1

𝐸𝑦𝑡+𝑠 = 𝛼0 + ∑ 𝛼1𝑖 + 𝛼1𝑡+𝑠 𝑦0


𝑖=𝑜

Con lo cual se demuestra que la media de la serie no es constante y de hecho


depende del tiempo
Ahora si tomamos la esperanza en límite, obtendremos.
𝛼0
𝐸𝑙𝑖𝑚𝑡→∞ 𝑦 = =𝜇
1 − 𝛼1
Por tanto es finito y constante igual a 𝜇
Por lo tanto, desde el punto de vista la media se puede sacar las siguientes
conclusiones:
 Que un modelo AR(1), para que sea estacionaria, necesariamente debe ser
evaluada en el infinito. Esto es, si el periodo es lo suficientemente grande, la
serie puede ser estacionaria.
 Para que la serie sea convergente, necesariamente el valor de 𝛼1 debe ser
menor a 1. De hecho, si es igual a 1, la serie no es convergente y si es mayor
a 1, la serie es explosiva
 Un modelo AR(1), si intercepto, se transforma en un modelo promedio móvil.
 Es decir, solamente en el infinito depende de los términos aleatorios y su
media sería siempre cero.
Ahora que analizamos la media, podemos pasar a analizar la varianza.
𝜎2
𝐸(𝑦𝑡 − 𝜇)2 =
1 − 𝛼12
Que es finito e independiente del tiempo.
También podemos calcular la covarianza
𝜎 2 𝛼1𝑠
𝐸[(𝑦𝑡 − 𝜇)(𝑦𝑡+𝑠 − 𝜇)] =
1 − 𝛼12
Para resumir entonces.
 La variable 𝑦𝑡 , será estacionaria si |𝛼1 | < 𝟏
 Si 𝛼1 = 1 entonces 𝑦𝑡 no será estacionario,
 Si 𝛼1 > 1 entonces 𝑦𝑡 sería no estacionaria y a la vez explosiva.
 Una serie estacionaria tiende a retornar a su media y fluctúa alrededor de
ella, con un rango más o menos constante (varianza constante), mientras que
una serie es no estacionaria cuando su media varia con el tiempo y su
varianza incrementa con el tamaño de la muestra, que es lo que habíamos
demostrado.

Regresion Espurea
La presencia de tendencia en la serie puede conducir a regresion
espuria, es decir las inferencias a partir de los estadisticos test t y el test
F no son validas.
Afortunadamente Engle and Granger propone una metodologia para sospechar la
presencia de regresion espuria y ella consiste en comparar el test de DW con el 𝑅2 ,
especificamente a traves de un proceso de simulacion Montecarlo, ellos pudieron
constatar con una alta probabilidad que en presencia de regresion espuria se observa
que el 𝐷𝑊 < 𝑅2 , por tanto la presencia de este resultado deberia inducirnos a
realizar pruebas pertinentes (test de cointegracion) para desmentir la presencia de
regresion espuria en la estimacion.
¿Cómo saber cuándo una regresión es espuria?
 La bondad de ajuste (𝑅2 ) alto >0,95
 Significancia individual y global significativas
 Autocorrelacion positiva
 𝑅2 > 𝐷𝑊

Cointegración:
Si una serie necesita ser diferenciada d veces para que sea estacionaria,
indica que contiene d raíces unitaria y se le denota como integrada de
orden d, I(d).
Consideremos dos series 𝑦𝑡 y 𝑥𝑡 , si ambos son I(d), entonces una combinacion lineal
(el disturbio de la regresion de 𝑦 en 𝑥; (𝑢𝑡 = 𝑦𝑡 − 𝛽𝑥𝑡 )podria generar un vector que
tenga un orden de integracion de I(d-b), en donde b>0. En este caso Engle and
Granger (1987), define 𝑦𝑡 y 𝑥𝑡 como cointegrada de orden (d,b). En otras palabras
si 𝑦𝑡 y 𝑥𝑡 son ambos I(1) y ut ∼ I(0), entonces las dos series estan cointegrada de
orden CI (1,0).
La presencia de cointegracion entre dos series o mas, implica la
existencia de una relacion de largo plazo entre ellas. Es decir las variables
convergen en el tiempo a su media y “ut” puede ser interpretada como el error o el
desequilibrio de la serie con respecto a su tendencia de largo plazo.
La relacion de cointegracion necesita que las series que participen en
ella estén integradas en el mismo orden. Si una combinacion lineal entre dos
series yt, xt se forma, y cada una de ellas estan integradas en distintos orden de
integracion, entonces la nueva serie que resulta de esa combinacion lineal sera
integrada en un orden mayor. En otras palabra si yt ∼I(1) y xt ∼I(0), estas dos
series no pueden generar una relacion de cointegracion que sea I(0), ya que la serie
I(0) tiene una media constante y la serie con I(1) tiene una tendencia con
desplazamiento a traves del tiempo y consecuentemente el termino de error ut=
(yt-xt) ∼I(1)
Sin embargo es posible tener relaciones de cointegracion entre series con distintos
orden de integracion, cuando existen tres o mas series en el modelo. Supongamos
que tenemos tres series yt ∼I(1), xt∼I(2), y zt ∼I(2), en este caso se puede
encontrar una relacion de cointegracion entre xt y zt, tal que vt=xt - zt ∼I(1),
entonces vt potencialmente puede cointegrarse con yt para obtener wt=vt - yt ∼I(0).
Sin embargo es importante considerar que si existe n variables en el modelo como
maximo puede haber n-1 vectores de cointegracion, por eso que cuando existen
solamente dos variables puede haber solo un vector de cointegracion.
ORDEN DE integración con cointegración
A(1) B(1) (aquí hay cointegracion) A(1) B(2) (aquí no hay cointegracion) A(1) B(2) C(2) (aquí hay cointegracion)

M(0) S(1)

D(0)

Modelo de corto plazo:


Una primera forma de introducir la especificacion dinámica de un modelo
es introduciendo como variable explicativa el valor rezagado de la
variable dependiente.
Este es un modelo conocido con el nombre de Modelo ADL (1,1)
(autorregresivo de rezagos distribuidos)
𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡 [regresión ADL]

Donde 𝜇𝑡 ~ 𝑅𝐵(0; 𝜎 2 )
Como en el largo plazo, 𝑦𝑡 = 𝑦𝑡−1 ; 𝑥𝑡 = 𝑥𝑡−1 nosotros podemos derivar los
coeficientes de largo plazo a partir de esta ultima ecuación.
𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝛼1 𝑦𝑡 + 𝜇𝑡
𝑦𝑡 − 𝛼1 𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝜇𝑡
𝑦𝑡 (1 − 𝛼1 ) = 𝛼0 + 𝑥𝑡 (∅0 + ∅1 ) + 𝜇𝑡
𝛼0 (∅0 + ∅1 ) 𝜇𝑡
𝑦𝑡 = + 𝑥𝑡 +
(1 − 𝛼1 ) (1 − 𝛼1 ) (1 − 𝛼1 )
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜓𝑡

Modelo de corrección de errores:


Modelo De Correccion De Error (MCE), que algunas veces se conoce como
modelo de correccion de equilibrio y que representa la especificacion dinamica del
modelo. Para introducir este modelo, podemos redefinir nuestra modelo ADL(1,1),
de la siguiente forma:
𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡

Restamos a ambos lados 𝑦𝑡−1
𝑦𝑡 − 𝑦𝑡−1 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 − 𝑦𝑡−1 + 𝜇𝑡
∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡
Sumamos y restamos ∅0 𝑥𝑡−1 solo al miembro de la derecha
∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + ∅0 𝑥𝑡−1 − ∅0 𝑥𝑡−1 + 𝜇𝑡
∆𝑦𝑡 = 𝛼0 +(∅0 + ∅1 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡
𝛼 (∅0+∅1 )
Como 𝛽0 = (1−𝛼0 ) → 𝜶𝟎 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) ; 𝛽1 = (1−𝛼1 )
→ (∅𝟎 + ∅𝟏 ) = 𝜷𝟏 (𝟏 − 𝜶𝟏 )
1

∆𝑦𝑡 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) + 𝜷𝟏 (𝟏 − 𝜶𝟏 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡


∆𝒚𝒕 = ∅𝟎 ∆𝒙𝒕 − (𝟏 − 𝜶𝟏 )[𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] + 𝝁𝒕 MCE= Modelo de corrección de errores

Esta ultima especificacion del modelo tiene varias ventajas, primero porque asume
que x e y estan cointegradas, ya que el MCE incorpora tanto los efectos de
corto plazo y de largo plazo.
Esto puede observarse al incluir el equilibrio de largo plazo dentro del modelo.
Entonces si en algun momento el equilibrio de largo plazo se mantiene, entonces el
termino entre corchetes es cero, pero en algunos periodos la ecuacion dentro del
corchete no es nula y por ende, mide la distancia que el sistema se encuentra fuera
de su sendero de equilibrio en el tiempo. Entonces la estimacion de
(𝟏 − 𝜶𝟏 ) proporciona informacion sobre la velocidad de ajuste de los desvios
hacia el equilibrio.
Una segunda caracteristicas del MCE es que todos los terminos en el modelo
son estacionarios, por lo tanto las tecnicas tradicionales de la regresion estandar
son validas es decir los test usuales producen resultados consistentes.

Test de raíz unitaria:


Como mencionamos en los parrafos anteriores, cuando hablamos sobre
estacionariedad o no estacionariedad de las series, necesitamos testear cada una de
las variables que participan en el modelo para evitar el problema de regresion
espuria.
Si la variable contiene una raiz unitaria, es decir no estacionaria y a menos que la
combinacion de estas series genere una combinacion lineal estacionaria
(cointegrada), las regresiones que incorporan a estas variables pueden facilmente
representar una regresion espuria.
Asimismo, hay que recordar la importancia del orden de integracion de cada variable
en el modelo, para no incurrir en resultados sin significado economico, como ocurre
cuando estimamos un modelo con variables integradas en distintos orden.
Por lo expuesto, es muy importante empezar a considerar los distintos test utilizados
para probar la presencia de raiz unitaria en las series

Modelo vAR
El metodo se llama Vectores Autorregresivos
(VAR). Los modelos VAR, no son otra cosa que una extension de un modelo
univariado, en donde cada ecuacion no es mas que una regresion de OLS, de
una
variable con respecto a sus propios rezagos y con respecto a las otras
variables que estan
en el sistema del VAR. Mediante esta herramienta se permite capturar las
relaciones
dinamicas que existen entres las series.

Los modelos VARs, pueden ser agrupadas de tres formas: VARs en la forma
reducida,
VAR en la forma recursiva y VARs estructural.

Forma reducida del VAR:


𝑌𝑡 = 𝐴0 + 𝐴1 𝑌𝑡−1 +. . . +𝐴𝑝 𝑌𝑡−𝑝 + 𝑒𝑡
Forma recursiva del VAR: Tiene la misma forma del anterior, pero permite
interactuar cada elemento de yt, adhiriendo termino contemporaneos en el
lado derecho de la ecuacion
𝑌𝑡 = β + 𝛽𝑜 𝒀𝒕 + 𝛽1 𝑌𝑡−1 . . . +𝛽𝑝 𝑌𝑡−𝑝 + ɳ𝑡
VAR estructural: Usan la teoria economica para conectar las relaciones
contemporaneas
entre las variables. Este metodo se utiliza para hacer inferencias.

Desarrollo formal
Cuando no se tiene la certeza de cuales de las variables que participan
en el sistema son
exogenos, puede considerarse el uso de un modelo de vectores
autorregresivos VAR. En
el caso de dos variables, nosotros podemos decir que el sendero de yt,
puede ser
afectado por realizaciones presente y pasada de la secuencia zt, al mismo
tiempo la
secuencia zt, puede ser afectado por realizaciones presentes y pasadas de
yt .

𝒚𝒕 = 𝒃𝟏𝟎 − 𝒃𝟏𝟐 𝒛𝐭 + 𝜷𝟏𝟏 𝒚𝐭−𝟏 + 𝜷𝟏𝟐 𝒛𝐭−𝟏 + 𝜺𝟏𝐭


𝒛𝒕 = 𝒃𝟐𝟎 − 𝒃𝟐𝟏 𝒚𝐭 + 𝜷𝟐𝟏 𝒚𝐭−𝟏 + 𝜷𝟐𝟐 𝒛𝐭−𝟏 + 𝜺𝟐𝐭

Este modelo sencillo, descansa en los siguientes supuestos.


Ambas secuencias son estacionarias

yt y
zt ,
son terminos de disturbios con desviacion estandar y y z,
respectivamente, y

yt y
zt son
terminos de disturbios con propiedades de ruido blanco no
autocorrelacionados

Esta forma de representar un sistema de ecuaciones, es conocida como un


VAR de
primer orden, dado que la duracion de los rezagos es la unidad

La estructura del VAR,


incorpora las funciones de reacciones (feedback) de yt y zt al permitir
que estas
variables se afecten mutuamente. Por ejemplo -b12, incorpora el efecto
contemporaneo
de un cambio unitario de zt sobre yt y 21, es el efecto de un cambio
unitario en yt-1 sobre
zt, los
yt y
zt , son pura innovaciones (shocks) en yt y zt. Esto es si
21

b 0 ,

yt tiene
un efecto indirecto y contemporaneo en zt, asimismo si
12

b 0 ,
zt tiene
un efecto
indirecto y contemporaneo en yt.
Sin embargo, las dos primeras ecuaciones, no representan la forma
reducida del modelo,
dado que yt, tiene un efecto contemporaneo sobre zt y zt tiene un efecto
contemporaneo
sobre yt
1. No obstante es posible transformar el sistema de ecuaciones en su
forma mas
usual2. Por lo tanto aplicaremos un poco de algebra matricial para poder
hacer la
transformacion.
1 𝑏12 𝑦𝑡 𝑏 𝛽 𝛽12 𝑦t−1 𝜀2t
( ) ( 𝑧 ) = ( 10 ) + ( 11 ) ( 𝑧 ) + (𝜀 )
𝑏21 1 𝑡 𝑏20 𝛽21 𝛽22 t−1 2t
𝛽𝑥𝑡 = 𝛤0 + 𝛤1 𝑥𝑡−1 + 𝜇𝑡
Donde:
1 𝑏12 𝑦𝑡 𝑏 𝛾11 𝛾12 𝑦t−1 𝜀yt
𝛽=( ) ; 𝑥𝑡 = ( 𝑧 ) ; 𝛤0 = ( 10 ) ; 𝛤1 = (𝛾 𝛾22 ) ; 𝑥𝑡−1 = ( 𝑧t−1 ) ; 𝜇𝑡 = (𝜀zt )
𝑏21 1 𝑡 𝑏20 21

Si 𝑏12 𝑏21 ≠ 0 entonces, 𝛽−1 existe. Premultiplicamos 𝛽 −1


𝛽−1 𝛽𝑥𝑡 = 𝛽−1 𝛤0 + 𝛽−1 𝛤1 𝑥𝑡−1 + 𝛽−1 𝜇𝑡
se obtiene el vector auorregresivo (VAR), en
su forma estandar.
𝑥𝑡 = 𝐴0 + 𝐴1 𝑥𝑡−1 + 𝑒𝑡
Donde:
𝐴0 = 𝛽−1 𝛤0
𝐴1 = 𝛽−1 𝛤1
𝑒𝑡 = 𝛽−1 𝜇𝑡
Adicionalmente, nosotros podemos definir como ai0 como elementos i del
vector A0, aij
como los elementos en la fila i y columna j de la matriz A1 y eit como los
elementos i
del vector et. Si usamos esta nueva notacion, podemos reescribir el
sistema en su forma
equivalente.
𝑦𝑡 𝑎10 𝑎11 𝑎12 𝑦t−1 𝜀2t
( 𝑧 ) = (𝑎 ) + (𝑎 ) ( 𝑧 ) + (𝜀 )
𝑡 20 21 𝑎22 t−1 2t
𝑦𝑡 = 𝑎10 + 𝑎11 𝑦t−1 + 𝑎12 𝑧t−1 + 𝜀1t
𝑧𝑡 = 𝑎20 + 𝑎21 𝑦t−1 + 𝑎22 𝑧t−1 + 𝜀2t

Esta ultima forma de definir el sistema se distingue de la primera, en


que a esta ultima
forma se le denomina la forma estandar del VAR y el primer sistema es
conocido como
la forma estructural del VAR o forma primitiva del VAR.

En el modelo autorregresivo de primer orden


t 0 1 t 1 t y a a y  

, la condicion de
estacionariedad implica que |
1 a
| <1, existe una analogia directa entre esta condicion de
estabilidad y la matriz A1 del Vector autorregresivo de primer orden. Para
demostrarlo
consideremos el siguiente modelo VAR(1,1).

Debido a que las matrices de los coeficientes estimados en un VAR son de


por si
dificiles de interpretar directamente, los estadisticos estimados a
traves de un VAR se
pueden resumir en ciertas funciones. Estos estadisticos son, el test de
Causalidad de
Granger, la Funcion de Impulso y Respuesta y la Descomposicion de la
Varianza del
Error.
El test de Causalidad de Granger: evalua, si el pasado de una variable
llamemosle yt
ayuda a predecir xt. Se dice que yt tiene causalidad de Granger por xt, si
xt ayuda en la
prediccion de yt, o equivalente si los coeficientes sobre los rezagos de
x son
estadisticamente significativos en la ecuacion de yt. Es importante
mencionar que la
causalidad puede ser bidireccional, pero cuando veamos con mas detalles
los modelos
de cointegracion restringido, volveremos sobre este punto.
La Funcion de Impulso y Respuesta: Son principalmente computado
utilizando un VAR
estructural recursivo. La FIR son las derivadas parciales de un Yjt+k
tratado como una
funcion del horizonte k, con respecto a un particular choque en el
momento t,
manteniendo los otros choques constantes.
Descomposicion de la varianza: Tambien es calculado usando un sistema
estructural
recursivo. La descomposicion de la varianza mide cuanto del error de una
variable es
explicado por movimiento inesperado de las otras variables del sistema.

Estacionariedad:
Para profundizar un poco mas el analisis. Supongamos un modelo VAR
sencillo, con
dos variables xt e yt
• Xt = 11Xt-1+ 12Zt-1+e1t ;
• Zt= 21Xt-1+ 22Zt-1+ e2t
Las series son estacionarias, si y solo si todos los valores de los en
valor absoluto son
menores a uno. Los terminos de errores (vector de innovaciones) pueden
ser
contemporaneamente correlacionadas pero no autocorrelacionadas con sus
valores
rezagados y tampoco correlacionados con todas las variables del lado
derecho de la
ecuacion.
En los modelos VAR se sigue cumpliendo las propiedades de Gauss-Markov,
por lo
mencionados anteriormente.
En general, cuando las variables que participan en el VAR son
estacionarias en
niveles, podemos estimar un VAR en niveles, cuando algunas variables
están
integradas en distintos orden o no se puede encontrar una combinación
lineal
estacionaria entre ellas, tenemos que especificar un VAR en diferencias.

Pero si podemos encontrar esta combinacion estacionaria, tenemos que


hablar de los
modelos de correccion de errores, antes del cual tenemos que recurrir al
metodo de
Johansen y Juselius

Aunque el procedimiento de Engle-Granger, se puede implementar


fácilmente, tiene
varios defectos importantes. Primeramente, en la estimación del
equilibrio de largo
plazo, el investigador tiene que decidir que variable tiene que poner en
el lado izquierdo
de la regresión y usa a las demás variables como regresores

Si la muestra es lo suficientemente grande, testear cointegración


utilizando el error de la
ecuación 1 ó 2 llevaría a la misma conclusión. Pero desafortunadamente,
las
propiedades de la muestra grande no se pueden utilizar cuando no se
dispone de
suficiente observaciones, que es el caso típico al que se enfrenta el
investigador. En
otras palabras si el error
1t de
la ecuación 1 es estacionaria (quiere decir que la
ecuación está cointegrada), por lo que sería lo mismo demostrar que el
2t sea
estacionaria (también cointegrada) ya que esta última es simplemente la
versión
normalizada de la primera ecuación

Sin embargo en la práctica, muchas veces


encontramos por ejemplo que la regresión 1 está cointegrada, pero su
inversa no está
cointegrada, y esto no es una propiedad deseada ya que el test de
cointegración debería
ser invariante a la selección de la variable a ser normalizada. Otro
defecto importante es
que el método de Engle-Granger, es un procedimiento de dos pasos, primero
se genera
el error estimado ˆt e y como segundo paso se utiliza este error
estimado para testear
cointegración, entonces los errores que pudieran haber cometido el
investigador en la
primera etapa, terminan por contagiar los resultados de la segunda etapa

Entonces un punto de partida del enfoque de Co-Integración por Sistemas


es la
generalización del concepto de Co-Integración a un conjunto de variables
que
potencialmente pueden ser todas endógenas. En otras palabras el
procedimiento de
Johansen, no es más que una generalización multivariada del test de
Dickey-Fuller. En
el caso univariado, es posible verificar la estacionariedad del proceso
yt, dependiendo de
la magnitud que tome (a1-1), esto es

Si 10 a , el proceso
1  t y tiene una raíz unitaria. Si
10 a , nosotros
1

podemos concluir que el proceso  t y es estacionario. Entonces la


tabla de Dickey
Fuller proporciona los estadísticos apropiados para testear la H0 de
10

Generalicemos ahora este proceso a un caso de n variables. Para


simplificar podríamos
restringir a n=2, para empezar con un sistema simple, VAR con 2 variables
y un rezago.
El rango de esta matriz es importante ya que define el número de vectores
de
cointegración que existe en el modelo. Si el rango de la matriz ,
entonces tengo
series que son integradas de orden 1, pero tengo dos random walk
independientes, en
este caso, no tengo una relación de largo plazo y el modelo
indefectiblemente tiene que
ser estimado en diferencias. Por el contrario, si la matriz es de rango
completo, rango
de p, esto implica que todas las raíces de las ecuaciones en
diferencias implícitas en
están dentro del circulo unitario, esto es, las variables son
estacionarias I(0), por tanto
puedo estimar un VAR en niveles y las inferencias que se pueda concluir a
partir de
ellas son válidas sin necesidad de buscar una relación lineal
estacionaria.
El caso especial y es sobre el cual debemos fijar nuestro analisis es cuando el rango de la
matriz no es completa y tampoco nulo, r≤(n-1), donde n es el numero de variables en el
sistema, como en nuestro caso dos variables n=2, el rango de la matriz =1, las variables
son I(1), pero la combinacion lineal de ellas es I(0). Por lo tanto encuentro una relacion
lineal de largo plazo que me permite re-escribir el sistema de una forma de correccion al
Equilibrio.
Nosotros podemos generalizar aun mas nuestro proceso partiendo de un VAR de orden k
en formato reducido, ya que incorpora en el lado derecho solamente valores rezagados de
las variables.
t t t t
t t t t
t t t t
t t t t
X Y X
Y Y X
Para evaluar Co
X Y X
Y Y X
21 1 22 1 2
11 1 12 1 1
21 1 22 1 2
11 1 12 1 1
( 1)
( 1)
el caso univariant e.
el sistema en niveles y diferencia s como para
integració n, reescribim os























21 22
11 12
21 1 22 1 2
11 1 12 1 1

que nos provee la matriz .


la información




_os concentramos

El rango de esta matriz es importante ya que define el número de vectores


de
cointegración que existe en el modelo. Si el rango de la matriz ,
entonces tengo
series que son integradas de orden 1, pero tengo dos random walk
independientes, en
este caso, no tengo una relación de largo plazo y el modelo
indefectiblemente tiene que
ser estimado en diferencias. Por el contrario, si la matriz es de rango
completo, rango
de p, esto implica que todas las raíces de las ecuaciones en
diferencias implícitas en
están dentro del circulo unitario, esto es, las variables son
estacionarias I(0), por tanto
puedo estimar un VAR en niveles y las inferencias que se pueda concluir a
partir de
ellas son válidas sin necesidad de buscar una relación lineal
estacionaria.
El caso especial y es sobre el cual debemos fijar nuestro analisis es cuando el rango de la
matriz no es completa y tampoco nulo, r≤(n-1), donde n es el numero de variables en el
sistema, como en nuestro caso dos variables n=2, el rango de la matriz =1, las variables
son I(1), pero la combinacion lineal de ellas es I(0). Por lo tanto encuentro una relacion
lineal de largo plazo que me permite re-escribir el sistema de una forma de correccion al
Equilibrio.
Nosotros podemos generalizar aun mas nuestro proceso partiendo de un VAR de orden k
en formato reducido, ya que incorpora en el lado derecho solamente valores rezagados de
las variables.
𝑍𝑡 = 𝐴1 𝑍𝑡−1 +. . . +𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡
Donde zt, es un vector de variables de dimensiones (n x 1), k es el
número de rezago.
los Ai es una matriz de parámetros de dimensión (n x n). Obviamente, este
modelo
sencillo podríamos expresarlo en la forma más usual. Es decir podemos
reformular esta
ecuación sustrayendo de cada lado Zt-1
Luego, ∀ − (𝑍𝑡−1 )
𝑍𝑡 − 𝒁𝒕−𝟏 = 𝐴1 𝑍𝑡−1 − 𝒁𝒕−𝟏 + 𝐴2 𝑍𝑡−2 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡
∆𝑍𝑡 = (𝐴1 − 𝐼)𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡
Luego, ±(𝐴1 − 𝐼)𝑍𝑡−2 solo en el lado derecho
∆𝑍𝑡 = (𝐴1 − 𝐼)𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 + (𝑨𝟏 − 𝑰)𝒁𝒕−𝟐 − (𝑨𝟏 − 𝑰)𝒁𝒕−𝟐 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−2 + 𝐴3 𝑍𝑡−3 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

Luego, ±(𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−3 solo en el lado derecho


∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−2 + (𝑨𝟏 + 𝑨𝟐 − 𝑰)𝒁𝒕−𝟑 − (𝑨𝟏 + 𝑨𝟐 − 𝑰)𝒁𝒕−𝟑 + 𝐴3 𝑍𝑡−3
+ ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)∆𝑍𝑡−2 + (𝑨𝟏 + 𝑨𝟐 + 𝐴3 − 𝑰)𝒁𝒕−𝟑 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = ∑ 𝜋𝑖 ∆𝑍𝑡−𝑖 + π𝑍𝑡−𝑘 + 𝑒𝑡

𝜋𝑖 = − [𝐼 − ∑ 𝐴𝑖 ]

π = − [𝐼 − ∑ 𝐴𝑗 ]

De nuevo la clave es determinar el rango de la matiz , el rango de la


matriz es
simplemente el número de vectores de cointegración independientes en el
sistema.
Obviamente si el rango es igual a cero rango(la matriz es nula,
entonces
tendríamos que redefinir nuestro sistema necesariamente en un VAR en
diferencias. Por
el contrario si es de rango n (completo), el vector del proceso es
estacionario. Un caso
intermedio es si el rango()=1, Existe un único vector cointegrador y
entonces la
expresión
t k x, es el factor de corrección del error. Para otros casos, cuando


1<rango()<n, en este caso tenemos cointegraciones múltiples

Implementación de la metodología de Johansen-Juselius


La implementacion del enfoque de Johansen-Juselius, practicamente involucra los mismos
pasos que se habia implementado en el enfoque de Engle-Granger. Estos pasos son:
Determinar el orden de integración de las variables, que se utilizará
en el
sistema multivariado.
Determinar el rezago apropiado, para asegurar que los errores del
sistema
mantenga las propiedades Gaussiana.
Hacer pruebas de reducción de rangos para el sistema.
Identificar si existe tendencias estocásticas o deterministicas en el
espacio de cointegración.
Hacer la prueba de exogeneidad, para verificar la teoría económica que
se esté investigando.
Probar si existe un único vector de cointegración en el sistema
Implementación en

Utilizamos un modelo del tipo vector autoregresivo (VAR) cuando queremos


caracterizar las interacciones simultáneas entre un grupo de variable.

Un VAR
es un modelo de ecuaciones simultáneas formado por un sistema de ecuaciones
de forma reducida sin restringir. Que sean ecuaciones de forma reducida quiere
decir que los valores contemporáneos de las variables del modelo no aparecen
como variables explicativas en ninguna de las ecuaciones.

Por el contrario,
el conjunto de variables explicativas de cada ecuación está constituido por un
bloque de retardos de cada una de las variables del modelo. Que sean ecuaciones
no restringidas signi.ca que aparece en cada una de ellas el mismo grupo de
variables explicativas.

El modelo VAR es muy útil cuando existe evidencia de simultaneidad entre


un grupo de variables, y que sus relaciones se transmiten a lo largo de un
determinado número de períodos. Al no imponer ninguna restricción sobre la
versión estructural del modelo, no se incurre en los errores de especi.cación que
dichas restricciones pudieran causar al ejercicio empírico. De hecho, la principal
motivación detrás de los modelos VAR es la di.cultad en identi.car variables
como exógenas, como es preciso hacer para identi.car un modelo de ecuaciones
simultáneas.

Un modelo estructural

Partimos de un modelo estructural dinámico,

donde 𝒚𝐭 ; 𝒛𝐭 son variables estacionarias, y 𝜺𝟏𝐭 ; 𝜺𝟐𝐭 son innovaciones, procesos ruido blanco con
esperanza cero y varianzas 𝜎𝜺2𝟏 ; 𝜎𝜺2𝟐
Este es un modelo de ecuaciones simultáneas con la única peculiaridad de que sus dos variables
son endógenas.
Un shock inesperado en 𝒛𝒕 t; en la forma de un valor no nulo de la innovación estructural 𝜺𝟐𝐭 afecta
directamente a 𝒛𝒕 ; pero también in.uye sobre 𝒚𝒕 a través de la presencia de 𝒛𝐭 como variable
explicativa en la primera ecuación. Además, este efecto se propaga en el tiempo, debido a la
presencia de los valores retardados como variables explicativas.

El modelo estructural VAR presenta dos di.cultades para su estimación: a)


la simultaneidad, al aparecer cada una de las dos variables como variable ex-
plicativa en la ecuación de la otra, lo que genera inconsistencia del estimador
MCO incluso si _"1;"2 = 0, b) si los términos de error tuviesen autocorrelación,
las estimaciones MCO serían inconsistentes, al tratarse de un modelo dinámico.
El primer problema suele resolverse habitualmente postulando que algunas vari-
ables no aparecen, en valor contemporáneo, en determinadas ecuaciones.
El segundo problema se debe resolver
tratando de ampliar la estructura dinámica del modelo hasta lograr que los
términos de error carezcan de autocorrelación.

Para evitar estas di.cuiltades, tiene interés tratar con una transformación
del modelo, que presentamos a continuación.
De forma resumida, la representación matricial del modelo estructural (nótese
que los coe.cientes de yt no son la matriz identidad) de primer orden puede es-
cribirse,
1 𝑏12 𝑦𝑡 𝑏 𝛽 𝛽12 𝑦t−1 𝜀2t
( ) ( 𝑧 ) = ( 10 ) + ( 11 ) ( 𝑧 ) + (𝜀 )
𝑏21 1 𝑡 𝑏20 𝛽21 𝛽22 t−1 2t
𝛽𝑥𝑡 = 𝛤0 + 𝛤1 𝑥𝑡−1 + 𝜇𝑡
Donde:
1 𝑏12 𝑦𝑡 𝑏 𝛾11 𝛾12 𝑦t−1 𝜀yt
𝛽=( ) ; 𝑥𝑡 = ( 𝑧 ) ; 𝛤0 = ( 10 ) ; 𝛤1 = (𝛾 𝛾 ) ; 𝑥𝑡−1 = ( 𝑧 ) ; 𝜇𝑡 = (𝜀 )
𝑏21 1 𝑡 𝑏20 21 22 t−1 zt
Si 𝑏12 𝑏21 ≠ 0 entonces, 𝛽−1 existe. Premultiplicamos 𝛽 −1
𝛽−1 𝛽𝑥𝑡 = 𝛽−1 𝛤0 + 𝛽−1 𝛤1 𝑥𝑡−1 + 𝛽−1 𝜇𝑡
𝑥𝑡 = 𝐴0 + 𝐴1 𝑥𝑡−1 + 𝑒𝑡
Donde:
𝐴0 = 𝛽−1 𝛤0
𝐴1 = 𝛽−1 𝛤1
𝑒𝑡 = 𝛽−1 𝜇𝑡
El vector puede ser reecrito como
𝑦𝑡 𝑎10 𝑎11 𝑎12 𝑦t−1 𝜀2t
( 𝑧 ) = (𝑎 ) + (𝑎 𝑎 ) ( 𝑧 ) + (𝜀 )
𝑡 20 21 22 t−1 2t
𝑦𝑡 = 𝑎10 + 𝑎11 𝑦t−1 + 𝑎12 𝑧t−1 + 𝜀1t (forma reducida)
𝑧𝑡 = 𝑎20 + 𝑎21 𝑦t−1 + 𝑎22 𝑧t−1 + 𝜀2t
Como puede verse, en un modelo VAR todas las variables son tratadas
simétricamente, siendo explicadas por el pasado de todas ellas. El mod-
elo tiene tantas ecuaciones como variables, y los valores retardados de
todas las ecuaciones aparecen como variables explicativas en todas las
ecuaciones.

Una vez estimado el modelo, puede procederse a excluir algunas variables


explicativas, en función de su signi.cación estadística, pero hay razones
para no hacerlo. Por un lado, si se mantiene el mismo conjunto de variables
explicativas en todas las ecuaciones, entonces la estimación por mínimos
cuadrados ordinarios ecuación por ecuación es e.ciente, por lo que el pro-
ceso de estimación del modelo es verdaderamente sencillo. Por otro, la
presencia de bloques de retardos como variables explicativas hace que la
colinealidad entre variables explicativas sea importante, lo que hace perder
precisión en la estimación del modelo y reduce los valores numéricos de los
estadísticos tipo t de Student. Por tanto, no es buena estrategia proceder
en varias etapas, excluyendo del modelo las variables cuyos coe.cientes
resultan estadísticamente no signi.cativos, por cuanto que esto puede ser
consecuenciad de la colinealidad inherente al modelo.
_ En el modelo VAR pueden estimarse con bastante precisión los elementos
globales del modelo, como el R2; la desviación típica residual, y los mismos
residuos, o el efecto global de una variable sobre otra, lo que se resume en
los contrastes de causalidad que veremos más adelante. Sin embargo, no
cabe hacer interpretaciones de coe.cientes individuales en distintos retar-
dos, ni llevar a cabo contrastes de hipótesis sobre coe.cientes individuales.

1.6 Representación MA de un modelo VAR

Modelo vec
Extensión del modelo VAR
Mejora el modelo de cointegracion clásica
Diferencias:
Var: Las series deben ser estacionarias para estimarse (se pierde información al
tranformar la serie, perdemos los efectos en niveles; solamente se capta los efectos
a corto plazo)

Vec: las series deben ser integradas en el mismo orden (se utilizan las series
originales)

Las VAR si o si estacionarias porque siguen modelos univariados


Modelo Vec
En los modelos VEC se intenta establecer un marco único en el que se integran tanto
las relaciones de Largo plazo estacionarias (recogidas a través de las relaciones de
cointegracion junyo con la deprendencias dinamincas de corto plazo captados a
través del modelo VAR

Diferencia con cointegracion


Vectores de cointegracion

Cointegracion VEC
n series n series
n-1 vectores de (0,n-1)

Tets de cointegracion JJ (tets de traza)

Prob.
No hay vectores 0,001
Al menos 1 vector 0,872
Al menos 2 vectores 0,999

Si p-valor es menor a 0,05 se rechaza Ho


Se mira de arriba hacia abajo
Regla: 𝜋: n° de vectores de cointegracion

https://www.youtube.com/watch?v=vjqScJiNtew

https://www.youtube.com/watch?v=K-xWck1YtO0

multicolinealidad (que se caracteriza por altos valores de R2, con t estadisticos muy
pocos significativos – coeficientes estimados imprecisos, aun en los casos en que el
modelo este correctamente especificado).

términos iniciales
series estocásticas:
poseen una Var
mucha aletoriedad (no son predicibles en función a su pasado)
series determinísticas:
siempre tienden a una dirección (por ende son fácilmente predicibles)
estacionalidad:
moviminetos repetitivos que ocurren en una serie en un periodo menor a un año
ejemplo: pan dulce en diciembre
estacionariedad:
cuando mantiene sus propiedades estadísticas en el tiempo
propiedades estadísticas:
media, varianza, covarianza,

ruido blanco: se representa por tener la máxima aleatoriedad posible


propiedades estadísticas:
independientes entre si
distribución normal
son estacionarios

caminata aleatoria: es lo contrario a la estacionariedad

𝐴𝑅(1): 𝑋𝑡 = 𝛽̂0 + 𝛽̂1 𝑋𝑡−1 + 𝜇̂ 𝑡 (auto regresivo)

𝑀𝐴(1): 𝑋𝑡 = 𝜀𝑡 + 𝛽̂1 𝜀𝑡−1 + 𝜇̂ 𝑡 (promedios móviles)

𝐴𝑅(𝑝): 𝑋𝑡 = 𝛽̂0 + 𝛽̂1 𝑋𝑡−1 + 𝛽̂2 𝑋𝑡−2 +. . . +𝛽̂𝑝 𝑋𝑡−𝑝 + 𝜇̂ 𝑡

𝑀𝐴(𝑞 ): 𝑋𝑡 = 𝜀𝑡 + 𝛽̂1 𝜀𝑡−1 + 𝛽̂2 𝜀𝑡−2 +. . . +𝛽̂𝑞 𝜀𝑡−𝑞 + 𝜇̂ 𝑡

𝐴𝑅𝑀𝐴(𝑝, 𝑞 ): 𝑋𝑡 = 𝛽̂1 𝑋𝑡−1 +. . . +𝛽̂𝑝 𝑋𝑡−𝑝 + 𝛽̂1 𝜀𝑡−1 +. . . +𝛽̂𝑞 𝜀𝑡−𝑞

𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞 ): 𝑋𝑡 = 𝛽̂1 𝑋𝑡−1 + 𝛽̂2 𝑋𝑡−2 − 𝛽̂3 𝑋𝑡−3 + 𝜀 + 𝜔𝜀𝑡−1 (lo mismo que ARIMA
pero la serie esta diferenciada)

Box-jenkins metodología

Los modelos parsimoniosos son mejores (menos 𝛽̂ )


Las series trabajadas son diferenciadas → estacionarias (carácter indispensable)
Todas las 𝛽̂ deben ser menor a 1
Las 𝜇̂ deben ser ruido blanco
Media cero
Var=𝜎 2
Cov=0

Modelos
Univariables
Cointegracion engle granger
Var (3 casos) y Vec
Datos de panel

Pasos para estimar series univariables


Asegurarse de que las series sean estacionarias
Transformación de datos (log, desestacionalizar)
Proponer la menor cantidad de betas que cumplen el modelo
Ver los residuos → que son estacionarias

Herramientas para saber la cantidad de betas


Correlogramas
Método grafico
Tabla de criterio

Regresión espurea
Estadísticamente corresta pero económicamente no esplausible
Características
𝑅2 alto
Test t, significativo
Test F, significativo
Series con tendencia
criterio simple: 𝑅2 > 𝐷𝑊 (autocorrelacion)
tets de dikey-fuller → es para medir la estacionariedad
𝐻𝑜 = 𝑠𝑒𝑟𝑖𝑒 𝑛𝑜 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑎 (la serie tiene raíz unitaria)
𝐻1 = 𝑠𝑒𝑟𝑖𝑒 𝑒𝑠𝑡𝑎𝑐𝑖𝑜𝑛𝑎𝑟𝑖𝑎 (la serie no tiene raíz unitaria)
Estacionariedad → raíz unitaria
Raíz unitaria: numero de veces que diferencia la serie para que sea estacionaria
AR(1) AR(0)
Cointegración Método de Engle-Granger

Críticas al Modelo de Engle y Granger

Concepto: hallar la relación lineal a largo plazo


requisitos y características
 ya no es obligatorio la estacionalidad
 las series deben tener el mismo orden de integración
 la relación lineal que se forma es de un orden menor
 los errores deben ser ruido blanco (estacionarios)
 si utilizamos n series, se forman n-1 vectores de cointegracion
 existe exogeneidad estricta (saber deque lado va cada serie, cual es la variable
independiente y la variable dependiente [no es lo mismo A(B) y B(A)]
 estimación en dos etapas [primero largo plazo y luego a corto plazo]

deducción N°1 ADL=auto regresión de rezagos distribuidos

𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡 [regresión ADL] 𝜇𝑡 ~𝑅𝐵(0; 𝜎 2 )


𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝛼1 𝑦𝑡 + 𝜇𝑡 En el largo plazo:
𝑦𝑡 = 𝑦𝑡−1 ; 𝑥𝑡 = 𝑥𝑡−1
𝑦𝑡 − 𝛼1 𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝜇𝑡

𝑦𝑡 (1 − 𝛼1 ) = 𝛼0 + 𝑥𝑡 (∅0 + ∅1 ) + 𝜇𝑡 Resultados:
 Regresión Espurea
𝛼0 (∅0 + ∅1 ) 𝜇𝑡  Multicolinealidad casi perfecta
𝑦𝑡 = + 𝑥𝑡 +  Endogeneidad
(1 − 𝛼1 ) (1 − 𝛼1 ) (1 − 𝛼1 )

𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜓𝑡 ELP= Ecuación de largo plazo

Ahora podemos calcular el MCE (Modelo de Correccion de Errores)

𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡

𝑦𝑡 − 𝑦𝑡−1 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 − 𝑦𝑡−1 + 𝜇𝑡 ∀𝑦𝑡−1


∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡

Sumamos y restamos ∅0 𝑥𝑡−1 solo al miembro de la derecha


∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + ∅0 𝑥𝑡−1 − ∅0 𝑥𝑡−1 + 𝜇𝑡
∆𝑦𝑡 = 𝛼0+(∅0 + ∅1 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡
𝛼 (∅0 +∅1)
Como 𝛽0 = (1−𝛼0 ) → 𝜶𝟎 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) ; 𝛽1 = (1−𝛼1)
→ (∅𝟎 + ∅𝟏 ) = 𝜷𝟏 (𝟏 − 𝜶𝟏 )
1

∆𝑦𝑡 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) + 𝜷𝟏 (𝟏 − 𝜶𝟏 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡

∆𝒚𝒕 = ∅𝟎 ∆𝒙𝒕 − (𝟏 − 𝜶𝟏 )[𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] + 𝝁𝒕 MCE= Modelo de corrección de errores

http://diccionarioempresarial.wolterskluwer.es/Content/Documento.aspx?params=H4sIAAAAAAA
EAMtMSbF1jTAAASMTczNLtbLUouLM_DxbIwMDS0NDQ3OQQGZapUt-
ckhlQaptWmJOcSoAFtLjADUAAAA=WKE

Modelos VAR y Vec

Se emplean para modelizar series temporales en contextos multivariantes donde hay dependencias
dinámicas entre distintas series. Los modelos VAR (modelos autorregresivos vectoriales) se utilizan
cuando las series temporales a modelizar son estacionarias, mientras que los modelos VEC (modelos
de corrección de error vectoriales) se utilizan cuando las series son integradas y es necesario aplicar
el análisis de cointegración para modelizar dichas series.

Esta modelización multivariante, al utilizar más información, puede servir para mejorar la predicción
frente a los modelos univariantes de series temporales, donde cada serie se modeliza por separado.
También se utilizan estos modelos para realizar simulaciones dinámicas de la transmisión de los
efectos de un shock aleatorio sobre las restantes series.

Los modelos VAR se utilizan cuando las series temporales a modelizar son estacionarias, mientras
que los modelos VEC se utilizan cuando las series son integradas de orden 1 y es necesario aplicar el
análisis de cointegración para modelizar dichas series. De hecho los modelos VEC pueden
considerarse una extensión multivariante al análisis de cointegración clásico, cuando hay más de dos
series no estacionarias en el modelo.

Modelos VAR

Los modelos VAR constituyen una extensión directa de los modelos autorregresivos univariantes
cuando tenemos más de una serie temporal y se quiere captar las dependencias dinámicas que puede
haber entre estas series. Por ejemplo, imaginemos que queremos modelizar la dependencia entre las
tasas de crecimiento interanuales del Consumo y del PIB. Lógicamente, ambas series estarán
correlacionadas; pero esta dependencia no solo será contemporánea (en el mismo instante) sino que
también el pasado del PIB puede influir sobre el consumo actual y viceversa (dependencia dinámica).
Una forma de observar estas dependencias en el tiempo es utilizando la función de correlación
cruzada entre ambas variables, la cual nos mide la correlación que tiene el consumo con los retardos
0, 1, 2,... de la variable PIB y viceversa. Si esta función de correlación cruzada solo tuviera un valor
importante en el retardo 0, quiere decir que solo habría correlación contemporánea entre ambas series
y, por lo tanto, un modelo de regresión habitual permitiría captarla. Sin embargo si, como suele
suceder, hay correlaciones importantes también en retardos distintos del 0, entonces hay que recoger
estas correlaciones dinámicas a través de modelos VAR (o de función de transferencia si la causalidad
es en una dirección única, por ejemplo, del pasado del PIB hacia el consumo y no al contrario).

Modelos VEC

El análisis anterior es válido cuando las series incluidas en el modelo son estacionarias (con media y
varianza estables) pero no lo es si, como ocurre en muchas situaciones, las series son integradas o no
estacionarias.

Una alternativa para poder modelizar estas series sería transformarlas previamente en estacionarias,
por ejemplo, trabajando con las series en tasas de crecimiento en lugar de los logaritmos de la serie
original y, una vez transformadas en estacionarias, especificar y estimar un modelo VAR como los
vistos anteriormente. Sin embargo, esta forma de modelización elimina las posibles relaciones de
cointegración (o de largo plazo) que pudieran establecerse entre las series no estacionarias, por lo
cual se pierde información.
Prueba de causalidad de granger
Modelo VAR

Modelo de vectores autoregresivos es un modelo de extensión a las series box-jenkins


univariadas

Definición: sistema de ecuaciones de MCO entre todas las variables utilizadas y sus rezagos
(propios y de las demás variables)

Su finalidad es capturar las relaciones dinámicas entre las variables

Tipos de VAR

Reducido: solamente incluye rezagos de la variable

Recursivo: incluye los rezagos de la variable, mas variables en forma contemporánea

Reducido:

𝑦𝑡 = 𝛼1 + 𝐴1 𝑦𝑡−1 + 𝐴𝑝 𝑦𝑡−𝑝 + 𝜀𝑡
Recursivo:

𝑦𝑡 = β + β0 𝑦𝑡 + β1 𝑦𝑡−1 + β𝑝 𝑦𝑡−𝑝 + 𝜀𝑡

Estructural:
VAR basado en la teoría generalmente estimado de forma recursiva, su finalidad es medir
la validez de las variables a través de la inferencia

Criterios:

Betas menor a 1

Las series rienen que ser estacionarias

𝜇̂ 𝑡 → 𝑅𝑢𝑖𝑑𝑜 𝐵𝑙𝑎𝑛𝑐𝑜 → 𝑁(0, 𝜎 2 )


Parsimonioso (menos betas es mejor)
Estacionariedad: modelos que mantienen sus propiedades
estadísticas a través del tiempo (media, varianza,covarianza)
Caso:
Series estacionarias: son todas I(0), estimar VAR en niveles
Series no estacionarias: son todas I(1), estimar VAR en
diferencias
Demostración N° 1
𝒚𝒕 = 𝒃𝟏𝟎 − 𝒃𝟏𝟐 𝒛𝐭 + 𝜷𝟏𝟏 𝒚𝐭−𝟏 + 𝜷𝟏𝟐 𝒛𝐭−𝟏 + 𝜺𝟏𝐭
𝒛𝒕 = 𝒃𝟐𝟎 − 𝒃𝟐𝟏 𝒚𝐭 + 𝜷𝟐𝟏 𝒚𝐭−𝟏 + 𝜷𝟐𝟐 𝒛𝐭−𝟏 + 𝜺𝟐𝐭 (forma recursiva)

𝑦𝑡 + 𝑏12 𝑧t = 𝑏10 + 𝛾11 𝑦t−1 + 𝛾12 𝑧t−1 + 𝜀yt


𝑧𝑡 + 𝑏21 𝑦t = 𝑏20 + 𝛾21 𝑦t−1 + 𝛾22 𝑧t−1 + 𝜀zt

Formamos el sistema
1 𝑏12 𝑦𝑡 𝑏 𝛽 𝛽12 𝑦t−1 𝜀2t
=( ) ( 𝑧 ) = ( 10 ) + ( 11 )( ) + (𝜀 )
𝑏21 1 𝑡 𝑏20 𝛽21 𝛽22 𝑧t−1 2t
𝛽𝑥𝑡 = 𝛤0 + 𝛤1 𝑥𝑡−1 + 𝜇𝑡
Donde:
1 𝑏12 𝑦𝑡 𝑏 𝛾11 𝛾12 𝑦t−1 𝜀yt
𝛽=( ) ; 𝑥𝑡 = ( 𝑧 ) ; 𝛤0 = ( 10 ) ; 𝛤1 = (𝛾 𝛾22 ) ; 𝑥𝑡−1 = ( 𝑧t−1 ) ; 𝜇𝑡 = ( 𝜀zt )
𝑏21 1 𝑡 𝑏20 21

Si 𝑏12 𝑏21 ≠ 0 entonces, 𝛽−1 existe. Premultiplicamos 𝛽 −1


𝛽−1 𝛽𝑥𝑡 = 𝛽−1 𝛤0 + 𝛽−1 𝛤1 𝑥𝑡−1 + 𝛽−1 𝜇𝑡
𝑥𝑡 = 𝐴0 + 𝐴1 𝑥𝑡−1 + 𝑒𝑡
Donde:
𝐴0 = 𝛽−1 𝛤0
𝐴1 = 𝛽−1 𝛤1
𝑒𝑡 = 𝛽−1 𝜇𝑡
El vector puede ser reecrito como
𝑦𝑡 𝑎10 𝑎11 𝑎12 𝑦t−1 𝜀2t
( 𝑧 ) = (𝑎 ) + (𝑎 𝑎 ) ( 𝑧 ) + (𝜀 )
𝑡 20 21 22 t−1 2t
𝑦𝑡 = 𝑎10 + 𝑎11 𝑦t−1 + 𝑎12 𝑧t−1 + 𝜀1t (forma reducida)
𝑧𝑡 = 𝑎20 + 𝑎21 𝑦t−1 + 𝑎22 𝑧t−1 + 𝜀2t

Pasar de un VAR K a un VEC


𝑍𝑡 = 𝐴1 𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 +. . . +𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡
Luego, ∀ − (𝑍𝑡−1 )
𝑍𝑡 − 𝒁𝒕−𝟏 = 𝐴1 𝑍𝑡−1 − 𝒁𝒕−𝟏 + 𝐴2 𝑍𝑡−2 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = (𝐴1 − 𝐼)𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

Luego, ±(𝐴1 − 𝐼)𝑍𝑡−2 solo en el lado derecho

∆𝑍𝑡 = (𝐴1 − 𝐼)𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 + (𝑨𝟏 − 𝑰)𝒁𝒕−𝟐 − (𝑨𝟏 − 𝑰)𝒁𝒕−𝟐 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−2 + 𝐴3 𝑍𝑡−3 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

Luego, ±(𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−3 solo en el lado derecho


∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−2 + (𝑨𝟏 + 𝑨𝟐 − 𝑰)𝒁𝒕−𝟑 − (𝑨𝟏 + 𝑨𝟐 − 𝑰)𝒁𝒕−𝟑 + 𝐴3 𝑍𝑡−3
+ ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡
∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)∆𝑍𝑡−2 + (𝑨𝟏 + 𝑨𝟐 + 𝐴3 − 𝑰)𝒁𝒕−𝟑 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = ∑ 𝜋𝑖 ∆𝑍𝑡−𝑖 + π𝑍𝑡−𝑘 + 𝑒𝑡

𝜋𝑖 = − [𝐼 − ∑ 𝐴𝑖 ]

π = − [𝐼 − ∑ 𝐴𝑗 ]

rango 𝜋𝑖 = numero de vectores de cointegracion


EJERCICIO 1

a) Las condiciones son las siguientes


 ya no es obligatorio la estacionalidad
 las series deben tener el mismo orden de integración
 la relación lineal que se forma es de un orden menor
 los errores deben ser ruido blanco (estacionarios)
 si utilizamos n series, se forman n-1 vectores de cointegracion
 existe exogeneidad estricta [no es lo mismo A(B) y B(A)]
 estimación en dos etapas [primero largo plazo y luego a corto plazo]
b) e(-1) tiene un valor de 0,585176, lo que implica que hay un factor de ajuste de
58,51% por periodo
c) Converge la media a su media de largo plazo en 1,71 periodos
EJERCICIO 2
𝒚𝒕 = 𝜶𝟎 + 𝜶𝟏 𝒚𝒕−𝟏 + 𝜺𝒕

𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝜀𝑡
𝑦1 = 𝛼0 + 𝛼1 𝑦0 + 𝜀1
𝑦2 = 𝛼0 + 𝛼1 𝑦1 + 𝜀2 = 𝛼0 + 𝛼1 (𝛼0 + 𝛼1 𝑦0 + 𝜀1 ) + 𝜀2 = 𝛼0 + 𝛼1 𝛼0 + 𝛼12 𝑦0 + 𝛼1 𝜀1 + 𝜀2
𝑦3 = 𝛼0 + 𝛼1 𝑦2 + 𝜀3 = 𝛼0 + 𝛼1 (𝛼0 + 𝛼1 𝛼0 + 𝛼12 𝑦0 + 𝛼1 𝜀1 + 𝜀2 ) + 𝜀3
= 𝛼0 + 𝛼1 𝛼0 + 𝛼12 𝛼0 + 𝛼13 𝑦0 + 𝛼12 𝜀1 + 𝛼1 𝜀2 + 𝜀3
= 𝛼0 (1 + 𝛼1 + 𝛼12 ) + 𝛼13 𝑦0 + 𝛼12 𝜀1 + 𝛼1 𝜀2 + 𝜀3

Para todo 𝑡 > 0 la interacción repetitiva produce, siendo 𝑦0 conocido


𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

Generalizando hasta 𝒕 + 𝑠
𝑡+𝑠−1 𝑡+𝑠−1

𝑦𝑡+𝑠 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡+𝑠 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

Generalizando hasta el ∞; siendo 𝑦0 conocido, 𝛼1 < 0



𝛼0
lim 𝑦𝑡→∞ = + ∑ 𝛼1𝑖 𝜀𝑡−𝑖
1 − 𝛼1
𝑖=𝑜

Esperanza para cada periodo; siendo 𝑦0 conocido, 𝛼1 < 0


𝑡−1

𝑃/𝑦𝑡 : 𝐸𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0


𝑖=𝑜

𝑡+𝑠−1

𝑃/𝑦𝑡+𝑠 : 𝐸𝑦𝑡+𝑠 = 𝛼0 + ∑ 𝛼𝑖1 + 𝛼𝑡+𝑠


1 𝑦0
𝑖=𝑜
𝛼0
p/𝑦𝑡→∞ : 𝐸𝑙𝑖𝑚𝑡→∞ 𝑦 = =𝜇
1 − 𝛼1
Varianza
𝜎2
𝑉𝐴𝑅(𝑦𝑡 ) =
(1 − 𝛼12 )
Ejercicio 3
𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡

𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡 [regresión ADL] 𝜇𝑡 ~𝑅𝐵(0; 𝜎 2 )


𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝛼1 𝑦𝑡 + 𝜇𝑡 En el largo plazo:
𝑦𝑡 = 𝑦𝑡−1 ; 𝑥𝑡 = 𝑥𝑡−1
𝑦𝑡 − 𝛼1 𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝜇𝑡
𝑦𝑡 (1 − 𝛼1 ) = 𝛼0 + 𝑥𝑡 (∅0 + ∅1 ) + 𝜇𝑡
𝛼0 (∅0 + ∅1 ) 𝜇𝑡
𝑦𝑡 = + 𝑥𝑡 +
(1 − 𝛼1 ) (1 − 𝛼1 ) (1 − 𝛼1 )

𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜓𝑡

Ahora podemos calcular el MCE (Modelo de Correccion de Errores)


𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡
𝑦𝑡 − 𝑦𝑡−1 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 − 𝑦𝑡−1 + 𝜇𝑡 ∀𝑦𝑡−1
∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡

Sumamos y restamos ∅0 𝑥𝑡−1 solo al miembro de la derecha


∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + ∅0 𝑥𝑡−1 − ∅0 𝑥𝑡−1 + 𝜇𝑡
∆𝑦𝑡 = 𝛼0+(∅0 + ∅1 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡
𝛼 (∅0+∅1 )
Como 𝛽0 = (1−𝛼0 ) → 𝜶𝟎 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) ; 𝛽1 = (1−𝛼1 )
→ (∅𝟎 + ∅𝟏 ) = 𝜷𝟏 (𝟏 − 𝜶𝟏 )
1

∆𝑦𝑡 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) + 𝜷𝟏 (𝟏 − 𝜶𝟏 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡

∆𝒚𝒕 = ∅𝟎 ∆𝒙𝒕 − (𝟏 − 𝜶𝟏 )[𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] + 𝝁𝒕 MCE= Modelo de corrección de errores

Componentes principales
 ∅𝟎 ∆𝒙𝒕 = coeficiente dinamico corto plazo
 −(𝟏 − 𝜶𝟏 ) = velocidad de ajuste
 [𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] = componente de largo plazo
En el corto plazo ∅0 denota la reacción de 𝑦𝑡 ante cambios en 𝑥𝑡
En el corto plazo 𝛽1 denota la reacción de 𝑦𝑡 ante cambios en 𝑥𝑡
(*) 𝛼1 < 1, condición necesaria para que el modelo de corto plazo pueda converger a su
solución de largo plazo

 Puede presentar problemas potenciales con respecto a la especificación dinámica


del modelo
 Multicolinealidad
 Algunas de las variables que se incorporaron en este tipo de especificación podrían
no ser estacionarias al ser incorporados en niveles y conducir a regresiones
espureas
 Endogeneidad

EJERCICIO 4.

Como la probabilidad asociada al estadístico F es mayor a 0,05, no se rechaza la hipótesis


nula, entonces, INF4 no causa a VM1 en el sentido de granger

Como la probabilidad asociada al estadístico F es mayor a 0,05, no se rechaza la hipótesis


nula, entonces, VM1 no causa a INF4 en el sentido de granger
EJERCICIO 5

EJERCICIO 6

𝒚𝒕 = 𝒃𝟏𝟎 − 𝒃𝟏𝟐 𝒛𝐭 + 𝜸𝟏𝟏 𝒚𝐭−𝟏 + 𝜸𝟏𝟐 𝒛𝐭−𝟏 + 𝜺𝐲𝐭 (forma recursiva)


𝒛𝒕 = 𝒃𝟐𝟎 − 𝒃𝟐𝟏 𝒚𝐭 + 𝜸𝟐𝟏 𝒚𝐭−𝟏 + 𝜸𝟐𝟐 𝒛𝐭−𝟏 + 𝜺𝐳𝐭

𝑦𝑡 + 𝑏12 𝑧t = 𝑏10 + 𝛾11 𝑦t−1 + 𝛾12 𝑧t−1 + 𝜀yt


𝑧𝑡 + 𝑏21 𝑦t = 𝑏20 + 𝛾21 𝑦t−1 + 𝛾22 𝑧t−1 + 𝜀zt

Formamos el sistema
1 𝑏12 𝑦𝑡 𝑏 𝛾11 𝛾12 𝑦t−1 𝜀yt
=( ) ( 𝑧 ) = ( 10 ) + (𝛾 ) ( 𝑧 ) + (𝜀 )
𝑏21 1 𝑡 𝑏20 21 𝛾22 t−1 zt
𝛽𝑥𝑡 = 𝛹0 + 𝛹1 𝑥𝑡−1 + 𝜇𝑡
Donde:
1 𝑏12 𝑦𝑡 𝑏 𝛾11 𝛾12 𝑦t−1 𝜀yt
𝛽=( ) ; 𝑥𝑡 = ( 𝑧 ) ; 𝛹0 = ( 10 ) ; 𝛹1 = (𝛾 𝛾22 ) ; 𝑥𝑡−1 = ( 𝑧t−1 ) ; 𝜇𝑡 = ( 𝜀zt )
𝑏21 1 𝑡 𝑏20 21

Si 𝑏12 𝑏21 ≠ 0 entonces, 𝛽−1 existe. Premultiplicamos 𝛽 −1


𝛽−1 𝛽𝑥𝑡 = 𝛽−1 𝛹0 + 𝛽−1 𝛹1 𝑥𝑡−1 + 𝛽−1 𝜇𝑡
𝑥𝑡 = 𝐴0 + 𝐴1 𝑥𝑡−1 + 𝑒𝑡 (forma reducida)
Donde:
𝐴0 = 𝛽−1 𝛹0
𝐴1 = 𝛽−1 𝛹1
𝑒𝑡 = 𝛽−1 𝜇𝑡
El vector puede ser reecrito como
𝑦𝑡 = 𝑏10 + 𝛾11 𝑦t−1 + 𝛾12 𝑧t−1 + 𝜀yt
𝑧𝑡 = 𝑏20 + 𝛾21 𝑦t−1 + 𝛾22 𝑧t−1 + 𝜀zt
EJERCICIO 7
𝑦𝑡 = 2 + 0,6𝑥𝑡 + 0,3𝑥𝑡−1 + 0,6𝑦𝑡−1 + 𝜇𝑡

𝒚𝒕 = 𝟐 + 𝟎, 𝟔𝒙𝒕 + 𝟎, 𝟑𝒙𝒕−𝟏 + 𝟎, 𝟔𝒚𝒕−𝟏 + 𝝁𝒕

En ambos miembros restamos 𝒚𝒕−𝟏


𝒚𝒕 − 𝒚𝒕−𝟏 = 𝟐 + 𝟎, 𝟔𝒙𝒕 + 𝟎, 𝟑𝒙𝒕−𝟏 + 𝟎, 𝟔𝒚𝒕−𝟏 − 𝒚𝒕−𝟏 + 𝝁𝒕

∆𝑦𝑡 = 𝟐 + 𝟎, 𝟔𝒙𝒕 + 𝟎, 𝟑𝒙𝒕−𝟏 − 𝒚𝒕−𝟏 (𝟏 − 𝟎, 𝟔) + 𝝁𝒕

Sumamos y restamos (solo en el miembro de la derecha) 0,6𝑥𝑡−𝟏


∆𝑦𝑡 = 𝟐 + 𝟎, 𝟔𝒙𝒕 + 𝟎, 𝟑𝒙𝒕−𝟏 − 𝒚𝒕−𝟏 (𝟏 − 𝟎, 𝟔) + 0,6𝑥𝑡−𝟏 − 0,6𝑥𝑡−𝟏 + 𝝁𝒕
∆𝑦𝑡 = 𝟐 + (𝟎, 𝟑 + 𝟎, 𝟔)𝒙𝒕−𝟏 + 𝟎, 𝟔∆𝒙𝒕 − 𝒚𝒕−𝟏 (𝟏 − 𝟎, 𝟔) + 𝝁𝒕
2 (0,3+0,6)
Como 𝛽0 = (1−0,6) → 𝜷𝟎 = 𝟓 ; 𝛽1 = (1−0,6)
→ 𝜷𝟏 = 𝟐, 𝟐𝟐

∆𝑦𝑡 = 𝛽0 (1 − 0,6) + 𝛽1 (1 − 0,6)𝒙𝒕−𝟏 + 𝟎, 𝟔∆𝒙𝒕 − 𝒚𝒕−𝟏 (𝟏 − 𝟎, 𝟔) + 𝝁𝒕


∆𝑦𝑡 = 0,6∆𝑥𝑡 − (1 − 0,6)[𝒚𝒕−𝟏 − 𝛽0 − 𝛽1 𝒙𝒕−𝟏 ] + 𝜇𝑡
∆𝑦𝑡 = 0,6∆𝑥𝑡 − (1 − 0,6)[𝒚𝒕−𝟏 − 5 − 2,25𝒙𝒕−𝟏 ] + 𝜇𝑡 MCE= Modelo de corrección de errores

 Multicolinealidad
 Regresión espurea
𝑥𝑡 𝑦𝑡
∅𝟎 = 𝟎, 𝟔
(∅𝟎 + ∅𝟏 ) (𝟎, 𝟑 + 𝟎, 𝟔)
𝜷𝟏 = = = 𝟐, 𝟐𝟐
(𝟏 − 𝜶𝟏 ) (𝟏 − 𝟎, 𝟔)

(1 − 0,6) = 0,4; 40% por periodo; 2,5 trimestres

EJERCICIO 8
EJERCICIO 9

EJERCICIO 10
.
𝒚𝒕 = 𝟐 + 𝟎, 𝟓 𝒙𝒕 + 𝟎, 𝟒 𝒙𝒕−𝟏 + 𝟎, 𝟖 𝒚𝒕−𝟏 + 𝒆𝒊

𝑦𝑡 = 2 + 0,5 𝑥𝑡 + 0,4 𝑥𝑡−1 + 0,8 𝑦𝑡−1 + 𝑒𝑖


𝑦𝑡 − 𝒚𝒕−𝟏 = 2 + 0,5 𝑥𝑡 + 0,4 𝑥𝑡−1 − 𝒚𝒕−𝟏 + 0,8 𝑦𝑡−1 + 𝑒𝑖
∆𝒚𝒕 = 2 + 0,5 𝑥𝑡 + 0,4 𝑥𝑡−1 − (𝟏 − 𝟎, 𝟖)𝒚𝒕−𝟏 + 𝑒𝑖
Porque en la deducción general esta parte tiene que ser negativo, cambia el signo del paréntesis

Se suma y se resta 0,5 𝑥𝑡−1 (en la deducción general seria ∅ 𝑥𝑡−1 )


∆𝒚𝒕 = 2 + 0,5 𝑥𝑡 + 𝟎, 𝟓 𝒙𝒕−𝟏 − 𝟎, 𝟓 𝒙𝒕−𝟏 + 0,4 𝑥𝑡−1 − (1 − 0,8)𝑦𝑡−1 + 𝑒𝑖
∆𝒚𝒕 = 2 + 0,5 ∆𝑥𝑡 + 𝑥𝑡−1 (0,5 + 0,4) − (1 − 0,8)𝑦𝑡−1 + 𝑒𝑖
Como
𝜶𝒐
𝜷𝟎 = → 𝜶𝒐 = 𝜷𝟎 (1 − 𝜶𝟏 )
1 − 𝜶𝟏
∅ 𝒐 + ∅𝟏
𝜷𝟏 = → (∅𝒐 + ∅𝟏 ) = 𝜷𝟏 (1 − 𝜶𝟏 )
1 − 𝜶𝟏
∆𝒚𝒕 = 𝜷𝟎 (𝟏 − 𝟎, 𝟖) + 0,5 ∆𝑥𝑡 + 𝜷𝟏 (𝟏 − 𝟎, 𝟖)𝑥𝑡−1 − (1 − 0,8)𝑦𝑡−1 + 𝑒𝑖

∆𝑦𝑡 = 0,5 ∆𝑥𝑡 − (1 − 0,8)[𝑦𝑡−1 − 𝛽0 − 𝛽1 𝑥𝑡−1 ] + 𝑒𝑖


Se minimiza la multicolinealidad
Todos los términos del modelo son estacionales
Los tets usuales producen resultados consistentes
𝒙𝒕 𝒚𝒕
El efecto de 𝒙𝒕 sobre 𝒚𝒕 en el corto plazo es de 0,5

(1 − 0,8) = 0,2 ; Duración de los desequilibrios cada trimestre se corrige el 20%. en


aproximadamente 5 trimestres se va a corregir el desequilibrio

Ejercicio 11

Ejercicio 12
Ejercicio 13
𝑍𝑡 = 𝐴1 𝑍𝑡−1 +. . . +𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

𝑍𝑡 = 𝐴1 𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 +. . . +𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡


Luego, ∀ − (𝑍𝑡−1 )
𝑍𝑡 − 𝒁𝒕−𝟏 = 𝐴1 𝑍𝑡−1 − 𝒁𝒕−𝟏 + 𝐴2 𝑍𝑡−2 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = (𝐴1 − 𝐼)𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

Luego, ±(𝐴1 − 𝐼)𝑍𝑡−2 solo en el lado derecho

∆𝑍𝑡 = (𝐴1 − 𝐼)𝑍𝑡−1 + 𝐴2 𝑍𝑡−2 + (𝑨𝟏 − 𝑰)𝒁𝒕−𝟐 − (𝑨𝟏 − 𝑰)𝒁𝒕−𝟐 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−2 + 𝐴3 𝑍𝑡−3 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

Luego, ±(𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−3 solo en el lado derecho


∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)𝑍𝑡−2 + (𝑨𝟏 + 𝑨𝟐 − 𝑰)𝒁𝒕−𝟑 − (𝑨𝟏 + 𝑨𝟐 − 𝑰)𝒁𝒕−𝟑 + 𝐴3 𝑍𝑡−3
+ ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = (𝐴1 − 𝐼)∆𝑍𝑡−1 + (𝑨𝟏 + 𝐴2 − 𝑰)∆𝑍𝑡−2 + (𝑨𝟏 + 𝑨𝟐 + 𝐴3 − 𝑰)𝒁𝒕−𝟑 + ⋯ + 𝐴𝑘 𝑍𝑡−𝑘 + 𝑒𝑡

∆𝑍𝑡 = ∑ 𝜋𝑖 ∆𝑍𝑡−𝑖 + π𝑍𝑡−𝑘 + 𝑒𝑡

𝜋𝑖 = − [𝐼 − ∑ 𝐴𝑖 ]

π = − [𝐼 − ∑ 𝐴𝑗 ]

rango 𝜋𝑖 = numero de vectores de cointegracion

Ejercicio 14
Ejercicio 15
𝜋

𝜋𝑡 = 1,6 + 0,7𝜋𝑡−1 + 𝜀𝑡

𝜋1 = 1,6 + 0,7𝜋0 = 1,6 + 0,7(0,03) = 1,621


𝜋2 = 1,6 + 0,7𝜋1 = 1,6 + 0,7(1,621) = 2,7347
𝜋3 = 1,6 + 0,7𝜋2 = 1,6 + 0,7(2,7347) = 3,51429

𝜋1 = 1,6 + 0,7𝜋0 + 𝜀1
𝜋2 = 1,6 + 0,7𝜋1 + 𝜀2 = 1,6 + 0,7(1,6 + 0,7𝜋0 + 𝜀1 ) + 𝜀2 = 1,6 + 1,12 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
= 2,72 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
𝜋3 = 1,6 + 0,7𝜋2 + 𝜀3 = 1,6 + 0,7(2,72 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2 ) + 𝜀3
= 1,6 + 1,904 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
= 3,504 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

𝛼0 = 1,6 ; 𝛼1 = 0,7
𝑡−1 𝑡−1

𝑦𝑡 = 1,6 ∑ 0,7 + 0,7 𝑦0 + ∑ 0,7𝑖 𝜀𝑡−1


𝑖 𝑡

𝑖=𝑜 𝑖=𝑜

𝛼0 1,6
𝜋𝑡→∞ = = = 5,33
1 − 𝛼1 1 − 0,7

Ejercicio 16
𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡
𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡 [regresión ADL]
𝜇𝑡 ~𝑅𝐵(0; 𝜎 2 )
𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝛼1 𝑦𝑡 + 𝜇𝑡 En el largo plazo:
𝑦𝑡 = 𝑦𝑡−1 ; 𝑥𝑡 = 𝑥𝑡−1
𝑦𝑡 − 𝛼1 𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡 + 𝜇𝑡
𝑦𝑡 (1 − 𝛼1 ) = 𝛼0 + 𝑥𝑡 (∅0 + ∅1 ) + 𝜇𝑡
𝛼0 (∅0 + ∅1 ) 𝜇𝑡
𝑦𝑡 = + 𝑥𝑡 +
(1 − 𝛼1 ) (1 − 𝛼1 ) (1 − 𝛼1 )

𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜓𝑡

Ahora podemos calcular el MCE (Modelo de Correccion de Errores)


𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 + 𝜇𝑡
𝑦𝑡 − 𝑦𝑡−1 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 + 𝛼1 𝑦𝑡−1 − 𝑦𝑡−1 + 𝜇𝑡 ∀𝑦𝑡−1
∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡

Sumamos y restamos ∅0 𝑥𝑡−1 solo al miembro de la derecha


∆𝑦𝑡 = 𝛼0 + ∅0 𝑥𝑡 + ∅1 𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + ∅0 𝑥𝑡−1 − ∅0 𝑥𝑡−1 + 𝜇𝑡
∆𝑦𝑡 = 𝛼0+(∅0 + ∅1 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡
𝛼 (∅0+∅1 )
Como 𝛽0 = (1−𝛼0 ) → 𝜶𝟎 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) ; 𝛽1 = (1−𝛼1 )
→ (∅𝟎 + ∅𝟏 ) = 𝜷𝟏 (𝟏 − 𝜶𝟏 )
1

∆𝑦𝑡 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) + 𝜷𝟏 (𝟏 − 𝜶𝟏 )𝑥𝑡−1 + ∅0 ∆𝑥𝑡 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝜇𝑡


∆𝒚𝒕 = ∅𝟎 ∆𝒙𝒕 − (𝟏 − 𝜶𝟏 )[𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] + 𝝁𝒕 MCE= Modelo de corrección de errores

Componentes principales
 ∅𝟎 ∆𝒙𝒕= coeficiente dinámico corto plazo
 −(𝟏 − 𝜶𝟏 ) = velocidad de ajuste
 [𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] = componente de largo plazo

𝛼0 = 0,5 ; ∅0 = 0,7 ; ∅1 = 0,6 ; 𝛼1 = 0,7


𝑦𝑡 = 0,5 + 0,7𝑥𝑡 + 0,6𝑥𝑡−1 + 0,7𝑦𝑡−1 + 𝜇𝑡
En ambos miembros restamos 𝒚𝒕−𝟏
𝑦𝑡 − 𝒚𝒕−𝟏 = 0,5 + 0,7𝑥𝑡 + 0,6𝑥𝑡−1 + 0,7𝑦𝑡−1 − 𝒚𝒕−𝟏 + 𝜇𝑡
∆𝑦𝑡 = 0,5 + 0,7𝑥𝑡 + 0,6𝑥𝑡−1 − (1 − 0,7)𝑦𝑡−1 + 𝜇𝑡
Sumamos y restamos (solo en el miembro de la derecha) 0,7𝑥𝑡−𝟏
∆𝑦𝑡 = 0,5 + 0,7𝑥𝑡 + 0,6𝑥𝑡−1 − (1 − 0,7)𝑦𝑡−1 + 0,7𝑥𝑡−𝟏 − 0,7𝑥𝑡−𝟏 + 𝜇𝑡
∆𝑦𝑡 = 0,5 + (0,6 + 0,7)𝑥𝑡−1 + 0,7∆𝑥𝑡 − (1 − 0,7)𝑦𝑡−1 + 𝜇𝑡
0,5 (0,6+0,7)
Como 𝛽0 = (1−0,7) ; 𝛽1 = (1−0,7)

∆𝑦𝑡 = 𝛽0 (1 − 0,7) + 𝛽1 (1 − 0,7)𝑥𝑡−1 + 0,7∆𝑥𝑡 − (1 − 0,7)𝑦𝑡−1 + 𝜇𝑡


∆𝑦𝑡 = 0,7∆𝑥𝑡 − (1 − 0,7)[𝑦𝑡−1 − 𝛽0 − 𝛽1 𝑥𝑡−1 ] + 𝜇𝑡
∆𝑦𝑡 = 0,7∆𝑥𝑡 − (1 − 0,7)[𝑦𝑡−1 − 1,67 − 4,33𝑥𝑡−1 ] + 𝜇𝑡 MCE= Modelo de corrección de errores

(1 − 0,7) = 0,3 ; 30% por periodo, suponiendo que la estimación es en datos trimestrales
los choques se disipan en 3,3 trimestres

EJERCICIO 17
EJERCICIO 18

(𝟏) 𝑰𝑵𝑮𝑹𝑬𝑺𝑶𝒊 = 𝟕𝟕𝟎, 𝟐𝟕 + 𝟏. 𝟑𝟐𝟓 𝑮𝑷𝒊 + 𝒆𝒊 𝑹𝟐 = 𝟎, 𝟒𝟔


(𝟐) 𝑰𝑵𝑮𝑹𝑬𝑺𝑶𝒊 = 𝟔𝟕𝟎, 𝟐𝟕 + 𝟏. 𝟏𝟑𝟖𝟐 𝑮𝑷𝒊 + 𝟑𝟒. 𝟗𝟗𝟖 𝑷𝑶𝑷𝒊 + 𝒆𝒊 𝑹𝟐 = 𝟎, 𝟓𝟕
(𝟑) 𝐥𝐨𝐠(𝑰𝑵𝑮𝑹𝑬𝑺𝑶𝒊 ) = 𝟔𝟕𝟎, 𝟐𝟕 + 𝟏. 𝟏𝟑𝟖𝟐, 𝑮𝑷𝒊 + 𝟑𝟒. 𝟗𝟗𝟖 𝑷𝑶𝑷𝒊 + 𝒆𝒊 𝑹𝟐 = 𝟎, 𝟔𝟗

(1) Cuando el en la campaña aumenta en 1, el ingreso aumenta en 1.325


(2) Cuando el gasto en campaña aumenta en 1 unidad el ingreso aumenta en 1.1382, (la
población queda constante)
La diferencia es que el impacto en el ingreso que tiene GP disminuye cuando se agrega otra
variable explicativa
Los coeficientes no pueden variar por dos razones

1) No haya correlacion

2) Que no tenga significancia estadística

𝑹𝟐

Depende de que la variable sea o no significativa, si es significativa aumentara, si no, no


aumentara o lo hará de una manera ínfima

No hay diferencia entre los coeficientes, pero no hay interpretación directa porque la variable
dependiente esta logaritmizada, modelo (3), y los demás en coeficiente absoluto

𝑹𝟐
El ingreso es explicado en 46 por el gasto en campaña
El ingreso es explicado en 57 por el gasto en campaña y la población
El ingreso es explicado en 69% por el gasto en campaña y la población

EJERCICIO 19
Vec en formato tradicional
NPL LPIB LI_ACT LU LCRETOTAL

COINTEGRACION -0,59 0 0 0 0
EQ 1

D(NPL) D(LPIB) D(LI_ACT) D(LU) D(LCRETOTAL)

D(NPL(-1)) -0,07 0,068 -0,69 0,13 -0,477

D(NPL(-2)) 0,16 - 0,11 0,33 -0,0003 0,29

D(LPIB(-1)) 0,12 -0,29 -0,16 0,15 -0,26

D(LPIB(-2)) 0,14 0,061 0,20 -0,22 0,13

D(LI_ACT(-1)) 0,041 -0,26 0,163 0,38 -0,14

D(LI_ACT(-2)) 0,11 -0,098 0,20 0,079 -0,19

D(LU(-1)) -0,017 -0,34 -0,12 0,48 -0,09

D(LU(-2)) -0,005 - 0,039 0,45 0,18 0,0089

D(CRETOTAL(-6)) 0,004 0,039 0,21 -0,017 0,4

D(CRETOTAL(-7)) 0,11 -0,02 -0,13 0,104 -0,14

C 0,00034 0,0063 -0,0062 -0,0014 0,02

Con un aumento de LPIB 1%, disminuye NPL en 1

Con un aumento de LI_ACT 1%, aumenta NPL en 0,60

Con un aumento de LU 1%, aumenta NPL en 0,04

Con un aumento de LCRETOTAL 1%, aumenta NPL en 0,05

El coeficiente tiene un valor de 0,59, lo que implica que hay un factor de corrección en 59%, en un poco menos
de 2 periodos se corregirá en su totalidad.

EJERCICIO 20
EJERCICIO 21.
𝜋

𝜋𝑡 = 1,2 + 0,8𝜋𝑡−1 + 𝜀𝑡

𝜋1 = 1,2 + 0,8𝜋0 = 1,2 + 0,8(0,03) = 1,224


𝜋2 = 1,2 + 0,8𝜋1 = 1,2 + 0,8(1,224) = 2,1792
𝜋3 = 1,2 + 0,8𝜋2 = 1,2 + 0,8(2,1792) = 2,94336

𝜋1 = 1,2 + 0,8𝜋0 + 𝜀1
𝜋2 = 1,2 + 0,8𝜋1 + 𝜀2 = 1,2 + 0,8(1,2 + 0,8𝜋0 + 𝜀1 ) + 𝜀2 = 1,2 + 0,96 + 0,82 𝜋0 + 0,8𝜀1 + 𝜀2
= 2,16 + 0,82 𝜋0 + 0,8𝜀1 + 𝜀2
𝜋3 = 1,2 + 0,8𝜋2 + 𝜀3 = 1,2 + 0,8(2,16 + 0,82 𝜋0 + 0,8𝜀1 + 𝜀2 ) + 𝜀3
= 1,2 + 1,728 + 0,83 𝜋0 + 0,82 𝜀1 + 0,8𝜀2 + 𝜀3
= 2,928 + 0,83 𝜋0 + 0,82 𝜀1 + 0,8𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

𝛼0 = 1,2 ; 𝛼1 = 0,8
𝑡−1 𝑡−1

𝑦𝑡 = 1,2 ∑ 0,8 + 0,8 𝑦0 + ∑ 0,8𝑖 𝜀𝑡−1


𝑖 𝑡

𝑖=𝑜 𝑖=𝑜

𝛼0 1,2
𝜋𝑡→∞ = = =6
1 − 𝛼1 1 − 0,8

EJERCICIO 22.2
𝜋

𝜋𝑡 = 2 + 0,7𝜋𝑡−1 + 𝜀𝑡
𝜋1 = 2 + 0,7𝜋0 = 2 + 0,7(0,03) = 2,021
𝜋2 = 2 + 0,7𝜋1 = 2 + 0,7(2,021) = 3,4147
𝜋3 = 2 + 0,7𝜋2 = 2 + 0,7(3,4147) = 4,39029

𝜋1 = 2 + 0,7𝜋0 + 𝜀1
𝜋2 = 2 + 0,7𝜋1 + 𝜀2 = 2 + 0,7(2 + 0,7𝜋0 + 𝜀1 ) + 𝜀2 = 2 + 1,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
= 3,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
𝜋3 = 2 + 0,7𝜋2 + 𝜀3 = 2 + 0,7(3,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2 ) + 𝜀3
= 2 + 2,38 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
= 4,38 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

𝛼0 = 1,6 ; 𝛼1 = 0,7
𝑡−1 𝑡−1

𝑦𝑡 = 2 ∑ 0,7𝑖 + 0,7𝑡 𝑦0 + ∑ 0,7𝑖 𝜀𝑡−1


𝑖=𝑜 𝑖=𝑜

𝛼0 2
𝜋𝑡→∞ = = = 6,66
1 − 𝛼1 1 − 0,7

EJERCICIO 23
𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡

𝛼0 = 2
𝛼1 = 0,8
𝛼2 = 0,6
𝛼3 = 0,4

𝑦𝑡 = 2 + 0.8𝑦𝑡−1 + 0,6𝑥𝑡 + 0,4𝑥𝑡−1 + 𝜀𝑡

𝜕𝑦𝑡
= 0,6
𝜕𝑥𝑡
𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡
Como en el largo plazo, 𝑦𝑡 = 𝑦𝑡−1 ; 𝑥𝑡 = 𝑥𝑡−1 ; Donde 𝜇𝑡 ~ 𝑅𝐵(0; 𝜎 2 )
𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡 + 𝜀𝑡
𝑦𝑡 − 𝛼1 𝑦𝑡 = 𝛼0 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡 + 𝜀𝑡
𝑦𝑡 (1 − 𝛼1 ) = 𝛼0 + (𝛼2 + 𝛼3 )𝑥𝑡 + 𝜀𝑡
𝛼0 𝛼2 + 𝛼3 𝜀𝑡
𝑦𝑡 = + 𝑥 +
1 − 𝛼1 1 − 𝛼1 𝑡 1 − 𝛼1
𝛼0 2 (𝛼2 + 𝛼3 ) 0,6 + 0,4 𝜀𝑡
𝛽0 = = = 10 ; 𝛽1 = = = 5 ; 𝜇𝑡 =
(1 − 𝛼1 ) 1 − 0,8 (1 − 𝛼1 ) 1 − 0,8 1 − 𝛼1
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜇𝑡
𝑦𝑡 = 10 + 5𝑥𝑡 + 𝜇𝑡

Variables con mismo orden de integración


Coeficientes de ut-1 debe ser negativo y menor a uno en valor absoluto

𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡
Restamos a ambos lados 𝑦𝑡−1
𝑦𝑡 − 𝑦𝑡−1 = 𝛼0 + 𝛼1 𝑦𝑡−1 − 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡
∆𝑦𝑡 = 𝛼0 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡
Sumamos y restamos 𝛼2 𝑥𝑡−1 solo al miembro de la derecha
∆𝑦𝑡 = 𝛼0 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝛼2 𝑥𝑡−1 − 𝛼2 𝑥𝑡−1 + 𝜀𝑡
∆𝑦𝑡 = 𝛼0 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 ∆𝑥𝑡 + (𝛼2 + 𝛼3 )𝑥𝑡−1 + 𝜀𝑡
𝛼 (𝛼2 +𝛼3 )
Como 𝛽0 = (1−𝛼0 ) → 𝜶𝟎 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) ; 𝛽1 = (1−𝛼 )
→ (𝛼2 + 𝛼3 ) = 𝜷𝟏 (𝟏 − 𝜶𝟏 )
1 1
∆𝑦𝑡 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) + 𝜷𝟏 (𝟏 − 𝜶𝟏 )𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 ∆𝑥𝑡 + 𝜀𝑡
∆𝑦𝑡 = 𝛼2 ∆𝑥𝑡 − (𝟏 − 𝜶𝟏 )[𝑦𝑡−1 − 𝜷𝟎 − 𝜷𝟏 𝑥𝑡−1 ] + 𝜀𝑡
∆𝑦𝑡 = 0,6∆𝑥𝑡 − (𝟏 − 0,8)[𝑦𝑡−1 − 10 − 5𝑥𝑡−1 ] + 𝜀𝑡

(𝟏 − 0,8) = 0,2; 20% por periodo, el choque se corrige en aproximadamente 5 periodos


EJERCICIO 24

EJERCICIO 25

EJERCICIO 26.

EJERCICIO 27
𝜋

𝜋𝑡 = 1,5 + 0,9𝜋𝑡−1 + 𝜀𝑡
𝜋1 = 1,5 + 0,9𝜋0 = 1,5 + 0,9(0,06) = 1,554
𝜋2 = 1,5 + 0,9𝜋1 = 1,5 + 0,9(1,554) = 2,8986
𝜋3 = 1,5 + 0,9𝜋2 = 1,5 + 0,9(2,8986) = 4,10874

𝜋1 = 1,5 + 0,9𝜋0 + 𝜀1
𝜋2 = 1,5 + 0,9𝜋1 + 𝜀2 = 1,5 + 0,9(1,5 + 0,9𝜋0 + 𝜀1 ) + 𝜀2 = 1,5 + 1,35 + 0,92 𝜋0 + 0,9𝜀1 + 𝜀2
= 2,85 + 0,92 𝜋0 + 0,9𝜀1 + 𝜀2
𝜋3 = 1,5 + 0,9𝜋2 + 𝜀3 = 1,5 + 0,9(2,85 + 0,92 𝜋0 + 0,9𝜀1 + 𝜀2 ) + 𝜀3
= 1,5 + 2,565 + 0,93 𝜋0 + 0,92 𝜀1 + 0,9𝜀2 + 𝜀3
= 4,065 + 0,93 𝜋0 + 0,92 𝜀1 + 0,9𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

𝛼0 = 1,5 ; 𝛼1 = 0,9
𝑡−1 𝑡−1

𝑦𝑡 = 1,5 ∑ 0,9 + 0,9 𝑦0 + ∑ 0,9𝑖 𝜀𝑡−1


𝑖 𝑡

𝑖=𝑜 𝑖=𝑜

EJERCICIO 29

𝐼𝑛𝑓𝑡 = 𝛼10 + 𝛽11 𝐼𝑛𝑓𝑡−1 + 𝛽12 𝜇𝑡−1 + 𝛽13 𝑟𝑡−1 + ∅11 𝐼𝑛𝑓𝑡−2 + ∅12 𝜇𝑡−2 + ∅13 𝑟𝑡−2 + 𝑒1𝑡
𝜇𝑡 = 𝛼20 + 𝛽21 𝐼𝑛𝑓𝑡−1 + 𝛽22 𝜇𝑡−1 + 𝛽23 𝑟𝑡−1 + ∅21 𝐼𝑛𝑓𝑡−2 + ∅22 𝜇𝑡−2 + ∅23 𝑟𝑡−2 + 𝑒2𝑡
𝑟𝑡 = 𝛼30 + 𝛽31 𝐼𝑛𝑓𝑡−1 + 𝛽32 𝜇𝑡−1 + 𝛽33 𝑟𝑡−1 + ∅31 𝐼𝑛𝑓𝑡−2 + ∅32 𝜇𝑡−2 + ∅33 𝑟𝑡−2 + 𝑒3𝑡
𝑎ñ𝑜𝑠 ∗ 𝑝𝑒𝑟𝑖𝑜𝑑𝑜𝑠 = 18 ∗ 4 = 72

𝑛 + 𝑝 ∗ 𝑛2 = 3 + 2 ∗ 32 = 21

𝑛 = 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠
𝑝 = 𝑟𝑒𝑧𝑎𝑔𝑜𝑠

Que las Betas sean menor a uno


Que las series sean estacionarias
El que error sea rudo blanco

EJERCICIO 34.
EJERCICIO 37
𝜋

𝜋𝑡 = 1,2 + 0,8𝜋𝑡−1 + 𝜀𝑡
𝜋𝑡 = 2 + 0,7𝜋𝑡−1 + 𝜀𝑡

𝜋1 = 1,2 + 0,8𝜋0 = 1,2 + 0,8(0,03) = 1,224


𝜋2 = 1,2 + 0,8𝜋1 = 1,2 + 0,8(1,224) = 2,1792
𝜋3 = 1,2 + 0,8𝜋2 = 1,2 + 0,8(2,1792) = 2,94336

𝜋1 = 1,2 + 0,8𝜋0 + 𝜀1
𝜋2 = 1,2 + 0,8𝜋1 + 𝜀2 = 1,2 + 0,8(1,2 + 0,8𝜋0 + 𝜀1 ) + 𝜀2 = 1,2 + 0,96 + 0,82 𝜋0 + 0,8𝜀1 + 𝜀2
= 2,16 + 0,82 𝜋0 + 0,8𝜀1 + 𝜀2
𝜋3 = 1,2 + 0,8𝜋2 + 𝜀3 = 1,2 + 0,8(2,16 + 0,82 𝜋0 + 0,8𝜀1 + 𝜀2 ) + 𝜀3
= 1,2 + 1,728 + 0,83 𝜋0 + 0,82 𝜀1 + 0,8𝜀2 + 𝜀3
= 2,928 + 0,83 𝜋0 + 0,82 𝜀1 + 0,8𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

𝛼0 = 1,2 ; 𝛼1 = 0,8
𝑡−1 𝑡−1

𝑦𝑡 = 1,2 ∑ 0,8 + 0,8 𝑦0 + ∑ 0,8𝑖 𝜀𝑡−1


𝑖 𝑡

𝑖=𝑜 𝑖=𝑜

𝛼0 1,2
𝜋𝑡→∞ = = =6
1 − 𝛼1 1 − 0,8

𝜋1 = 2 + 0,7𝜋0 = 2 + 0,7(0,03) = 2,021


𝜋2 = 2 + 0,7𝜋1 = 2 + 0,7(2,021) = 3,4147
𝜋3 = 2 + 0,7𝜋2 = 2 + 0,7(3,4147) = 4,39029
𝜋1 = 2 + 0,7𝜋0 + 𝜀1
𝜋2 = 2 + 0,7𝜋1 + 𝜀2 = 2 + 0,7(2 + 0,7𝜋0 + 𝜀1 ) + 𝜀2 = 2 + 1,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
= 3,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
𝜋3 = 2 + 0,7𝜋2 + 𝜀3 = 2 + 0,7(3,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2 ) + 𝜀3
= 2 + 2,38 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
= 4,38 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

𝛼0 = 1,6 ; 𝛼1 = 0,7
𝑡−1 𝑡−1

𝑦𝑡 = 2 ∑ 0,7 + 0,7 𝑦0 + ∑ 0,7𝑖 𝜀𝑡−1


𝑖 𝑡

𝑖=𝑜 𝑖=𝑜

𝛼0 2
𝜋𝑡→∞ = = = 6,66
1 − 𝛼1 1 − 0,7

EJERCICIO 38
𝜋

𝜋𝑡 = 1,5 + 0,9𝜋𝑡−1 + 𝜀𝑡

𝜋1 = 1,5 + 0,9𝜋0 = 1,5 + 0,9(0,06) = 1,554


𝜋2 = 1,5 + 0,9𝜋1 = 1,5 + 0,9(1,554) = 2,8986
𝜋3 = 1,5 + 0,9𝜋2 = 1,5 + 0,9(2,8986) = 4,10874

𝜋1 = 1,5 + 0,9𝜋0 + 𝜀1
𝜋2 = 1,5 + 0,9𝜋1 + 𝜀2 = 1,5 + 0,9(1.5 + 0,9𝜋0 + 𝜀1 ) + 𝜀2 = 1,5 + 1,35 + 0,92 𝜋0 + 0,9𝜀1 + 𝜀2
= 3,85 + 0,92 𝜋0 + 0,9𝜀1 + 𝜀2
𝜋3 = 1,5 + 0,9𝜋2 + 𝜀3 = 1,5 + 0,9(3.85 + 0,92 𝜋0 + 0,9𝜀1 + 𝜀2 ) + 𝜀3
= 1,5 + 3,465 + 0,93 𝜋0 + 0,92 𝜀1 + 0,9𝜀2 + 𝜀3
= 4,965 + 0,93 𝜋0 + 0,92 𝜀1 + 0,9𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜
𝛼0 = 1,5 ; 𝛼1 = 0,9
𝑡−1 𝑡−1

𝑦𝑡 = 1,5 ∑ 0,9 + 0,9 𝑦0 + ∑ 0,9𝑖 𝜀𝑡−1


𝑖 𝑡

𝑖=𝑜 𝑖=𝑜

𝛼0 1,5
𝜋𝑡→∞ = = = 15
1 − 𝛼1 1 − 0,9

EJERCICIO 39

EJERCICIO 40.

EJERCICIO 41.
EJERCICIO 43
𝜋𝑡 − 𝜋𝑡𝑒 = 0,12 − 3𝜇𝑡
𝜋𝑡𝑒 = 𝜃𝜋𝑡−1

𝜋𝑡 − 𝜋𝑡𝑒 = 0,12 − 3𝜇𝑡


𝜋𝑡𝑒 = 𝜃𝜋𝑡−1 → 𝜋𝑡𝑒 = 𝜃(0) → 𝜋𝑡𝑒 = 0

𝜋𝑡 − 0 = 0,12 − 3𝜇𝑡
𝜋𝑡 = 0,12 − 3𝜇𝑡
𝜋𝑡 = 3(0,04 − 𝜇𝑡 )
𝜋𝑡 = 𝜃(𝜇𝑡 − 𝜇𝑛 )
𝜋𝑡 = −3(𝜇𝑡 − 0,04)

EJERCICIO 44
𝜋𝑡 − 𝜋𝑡𝑒 = 0,18 − 3𝜇𝑡
𝜋𝑡𝑒 = 𝜃𝜋𝑡−1
𝜋𝑡 − 𝜋𝑡𝑒 = 0,18 − 3𝜇𝑡
𝜋𝑡𝑒 = 𝜃𝜋𝑡−1 → 𝜋𝑡𝑒 = 𝜃(0) → 𝜋𝑡𝑒 = 0

𝜋𝑡 − 0 = 0,18 − 3𝜇𝑡
𝜋𝑡 = 0,18 − 3𝜇𝑡
𝜋𝑡 = 3(0,06 − 𝜇𝑡 )
𝜋𝑡 = 𝜃(𝜇𝑡 − 𝜇𝑛 )
𝜋𝑡 = −3(𝜇𝑡 − 0,06)

EJERCICIO 45.

EJERCICIO 50

𝑦𝑡 = 1,2 + 0,7𝑦𝑡−1 + 0,6𝑥𝑡 + 0,2𝑥𝑡−1 + 𝜇𝑡

𝑦𝑡 = 1,2 + 0,7𝑦𝑡−1 + 0,6𝑥𝑡 + 0,2𝑥𝑡−1 + 𝜇𝑡

𝑦𝑡 = 1,2 + 0,6𝑥𝑡 + 0,2𝑥𝑡−1 + 0,7𝑦𝑡−1 + 𝜇𝑡


Como en el largo plazo, 𝑦𝑡 = 𝑦𝑡−1 ; 𝑥𝑡 = 𝑥𝑡−1 , y donde 𝜇𝑡 ~ 𝑅𝐵(0; 𝜎 2 )

𝑦𝑡 − 0,7𝑦𝑡 = 1,2 + 0,6𝑥𝑡 + 0,2𝑥𝑡 + 𝜇𝑡

EJERCICIO 46.

EJERCICIO 49
𝜋𝑡 = 1,2 + 0,8𝜋𝑡−1 + 𝜀𝑡

EJERCICIO 52.
Estadísticamente todas las variables son significativas.
Económicamente,
Tipo de cambio (+), cumple con la teoría económica
Agregado monetario M1 (+), cumple con la teoría económica
Variable dummy (-), cumple con el propósito de los dummys, contrarestar los efectos

∆𝑦 = 𝛽1 ∆𝑥
∆𝑦 = 0,277334 ∗ (−10)
∆𝑦 = −2,77334

EJERCICIO 54

Basado en los valores de la probabilidad mostrados en el cuadro de resultados de Eviews,


1) se rechaza la hipótesis nula, con lo que I_ACT es causal de NPL, en el sentido de
granger
2) no se rechaza la hipótesis nula, con lo que NPL, no es causal de I_ACT, en el sentido
de granger
3) por lo tanto, se desprende que la causalidad de granger corre en una sola dirección,
desde I_ACT a NPL

EJERCICIO 55
𝑌 = 𝑋𝑏 + 𝑈
E[U] = 0 E[U𝑈𝑇 ] = 𝜎 2 𝐼

EJERCICIO 56
𝑦𝑡 = 𝜇 + β𝑦𝑡−1 + 𝜀𝑡

𝜀𝑡 ~𝑖. 𝑖. 𝑑 (0, 𝜎 2 )

EJERCICIO 57
𝑦𝑡 = 𝛽 + 𝛿𝑡 + 𝑢𝑡
𝑥𝑡 = 𝜑 + 𝜌𝑡 + 𝑣𝑡

Una combinación lineal de ambas, será de un orden menor, por ende será de orden 0

 Que todas las series sean del mismo orden de integración


 Que las 𝜇̂ sean ruido blanco
 Que sean de I(0)
 Si se utilizan n series, debe haber n-1 vectores de cointegracion

EJERCICIO 58
Suponga que las variables 𝑋𝑡 e 𝑌𝑡 son 𝐼(1) y están vinculadas a través de una ecuación con
mecanismo de corrección de equilibrio (o del error). Sean
𝑎2𝑡 : los procesos de ruido blanco asociados a las ecuaciones de las variables 𝑋𝑡 e 𝑌𝑡
respectivamente

Señale cuales de los siguientes modelos podrían representar la evolución de 𝑌𝑡


a) ∆𝑌𝑡 = −𝛼 (𝑌𝑡−1 − 𝛽 𝑋𝑡−1 ) + 0,4∆𝑋𝑡−1 + 0,8∆𝑌𝑡−1 + 𝑎2𝑡 CON 𝛼, 𝛽 > 0
b) ∆𝑌𝑡 = 𝛼𝑌𝑡−1 − 𝛽 𝑋𝑡−1 + 0,6∆𝑋𝑡−1 − 0,5∆𝑌𝑡−1 + 𝑎2𝑡 (no tiene efecto a largo plazo)
c) ∆𝑌𝑡 = −𝛼 (𝑌𝑡−1 − 𝛽 𝑋𝑡−1 ) + 𝑎2𝑡 (no tiene efecto a corto plazo)
d) ∆𝑌𝑡 = −𝛼 (𝑌𝑡−1 − 𝑋𝑡−1 ) + 0,2∆𝑋𝑡−1 + 0,1∆𝑌𝑡−1 + 𝑎2𝑡 (no tiene betas)
e) ∆𝑌𝑡 = −𝛼 (∆𝑌𝑡−1 − 𝛽∆𝑋𝑡−1 ) + 0,7∆𝑋𝑡−1 + 0,4∆𝑌𝑡−1 + 𝑎2𝑡 (a largo plazo, las
variables tienen que estar en niveles, no diferenciadas)
Obs: Para resolver este ejercicio tenemos que ver la deduccion final de cointegracion

∆𝒚𝒕 = ∅𝟎 ∆𝒙𝒕 − (𝟏 − 𝜶𝟏 )[𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] + 𝝁𝒕

2222222000000000001111111111999999999
Ejercicio 59-1
𝜋

𝜋𝑡 = 2 + 0,7𝜋𝑡−1 + 𝜀𝑡

𝜋1 = 2 + 0,7𝜋0 = 2 + 0,7(0,07) = 2,49


𝜋2 = 2 + 0,7𝜋1 = 2 + 0,7(2,49) = 3,743
𝜋3 = 2 + 0,7𝜋2 = 2 + 0,7(3,743) = 4,6201

𝜋1 = 2 + 0,7𝜋0 + 𝜀1
𝜋2 = 2 + 0,7𝜋1 + 𝜀2 = 2 + 0,7(2 + 0,7𝜋0 + 𝜀1 ) + 𝜀2 = 2 + 1,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
= 3,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2
𝜋3 = 2 + 0,7𝜋2 + 𝜀3 = 2 + 0,7(3,4 + 0,72 𝜋0 + 0,7𝜀1 + 𝜀2 ) + 𝜀3
= 2 + 2,38 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
= 4,38 + 0,73 𝜋0 + 0,72 𝜀1 + 0,7𝜀2 + 𝜀3
𝑡−1 𝑡−1

𝑦𝑡 = 𝛼0 ∑ 𝛼1𝑖 + 𝛼1𝑡 𝑦0 + ∑ 𝛼1𝑖 𝜀𝑡−𝑖


𝑖=𝑜 𝑖=𝑜

𝛼0 = 2 ; 𝛼1 = 0,7
𝑡−1 𝑡−1

𝑦𝑡 = 2 ∑ 0,7 + 0,7 𝑦0 + ∑ 0,7𝑖 𝜀𝑡−1


𝑖 𝑡

𝑖=𝑜 𝑖=𝑜

𝛼0 2
𝜋𝑡→∞ = = = 6,66
1 − 𝛼1 1 − 0,7
EJERCICIO 60-2

𝐷𝑙𝑜𝑔 𝑝𝑟𝑜𝑑 = 0,06 + 0,03𝐷1995 + 𝑒𝑡

𝑒𝑡 𝐷1995

𝐷𝑙𝑜𝑔 𝑝𝑟𝑜𝑑

A) [FALSO], tiene una media del 6% porque 𝐸 (𝐷𝑙𝑜𝑔 𝑝𝑟𝑜𝑑) = 0,06 + 0,03(0) + (0) =
0,06
B) [VERDADERO], porque en 1980-1994, tiene una media del 0,06 y en 1995-2009
tiene una media del 0,09 𝐸(𝐷𝑙𝑜𝑔 𝑝𝑟𝑜𝑑1980−1994 ) = 0,06 + 0,03(0) + (0) =
0,06 ; 𝐸(𝐷𝑙𝑜𝑔 𝑝𝑟𝑜𝑑1995−2009 ) = 0,06 + 0,03(1) + (0) = 0,09
C) [FALSO], tiene una media del 9% 𝐸(𝐷𝑙𝑜𝑔 𝑝𝑟𝑜𝑑1995−2009 ) = 0,06 + 0,03(1) + (0) =
0,09
D) [VERDADERO], en 1995-2009 tiene una media del 9% y en el periodo 1980-1994
una media del 6%
E) [FALSO], fue del 9%
EJERCICIO 61-3
.
𝒚𝒕 = 𝟐 + 𝟎, 𝟓 𝒙𝒕 + 𝟎, 𝟒 𝒙𝒕−𝟏 + 𝟎, 𝟖 𝒚𝒕−𝟏 + 𝒆𝒊

𝑦𝑡 = 2 + 0,5 𝑥𝑡 + 0,4 𝑥𝑡−1 + 0,8 𝑦𝑡−1 + 𝑒𝑖


𝑦𝑡 − 𝒚𝒕−𝟏 = 2 + 0,5 𝑥𝑡 + 0,4 𝑥𝑡−1 − 𝒚𝒕−𝟏 + 0,8 𝑦𝑡−1 + 𝑒𝑖
∆𝒚𝒕 = 2 + 0,5 𝑥𝑡 + 0,4 𝑥𝑡−1 − (𝟏 − 𝟎, 𝟖)𝒚𝒕−𝟏 + 𝑒𝑖
Porque en la deducción general esta parte tiene que ser negativo, cambia el signo del paréntesis

Se suma y se resta 0,5 𝑥𝑡−1 (en la deducción general seria ∅ 𝑥𝑡−1 )


∆𝒚𝒕 = 2 + 0,5 𝑥𝑡 + 𝟎, 𝟓 𝒙𝒕−𝟏 − 𝟎, 𝟓 𝒙𝒕−𝟏 + 0,4 𝑥𝑡−1 − (1 − 0,8)𝑦𝑡−1 + 𝑒𝑖
∆𝒚𝒕 = 2 + 0,5 ∆𝑥𝑡 + 𝑥𝑡−1 (0,5 + 0,4) − (1 − 0,8)𝑦𝑡−1 + 𝑒𝑖
Como
𝜶𝒐
𝜷𝟎 = → 𝜶𝒐 = 𝜷𝟎 (1 − 𝜶𝟏 )
1 − 𝜶𝟏
∅ 𝒐 + ∅𝟏
𝜷𝟏 = → (∅𝒐 + ∅𝟏 ) = 𝜷𝟏 (1 − 𝜶𝟏 )
1 − 𝜶𝟏
∆𝒚𝒕 = 𝜷𝟎 (𝟏 − 𝟎, 𝟖) + 0,5 ∆𝑥𝑡 + 𝜷𝟏 (𝟏 − 𝟎, 𝟖)𝑥𝑡−1 − (1 − 0,8)𝑦𝑡−1 + 𝑒𝑖

∆𝑦𝑡 = 0,5 ∆𝑥𝑡 − (1 − 0,8)[𝑦𝑡−1 − 𝛽0 − 𝛽1 𝑥𝑡−1 ] + 𝑒𝑖

Se minimiza la multicolinealidad
Todos los términos del modelo son estacionales
Los tets usuales producen resultados consistentes
𝒙𝒕 𝒚𝒕
El efecto de 𝒙𝒕 sobre 𝒚𝒕 en el corto plazo es de 0,5

(1 − 0,8) = 0,2 ; Duración de los desequilibrios cada trimestre se corrige el 20%. en


aproximadamente 5 trimestres se va a corregir el desequilibrio
EJERCICIO 62-4
𝑋𝑡 𝑌𝑡 𝐼(1)

𝑎2𝑡 : 𝑋𝑡 𝑌𝑡

𝑌𝑡
a) ∆𝑌𝑡 = −𝛼 (𝑌𝑡−1 − 𝛽 𝑋𝑡−1 ) + 0,4∆𝑋𝑡−1 + 0,8∆𝑌𝑡−1 + 𝑎2𝑡 CON 𝛼, 𝛽 > 0
b) ∆𝑌𝑡 = 𝛼𝑌𝑡−1 − 𝛽 𝑋𝑡−1 + 0,6∆𝑋𝑡−1 − 0,5∆𝑌𝑡−1 + 𝑎2𝑡 (no tiene efecto a largo plazo)
c) ∆𝑌𝑡 = −𝛼 (𝑌𝑡−1 − 𝛽 𝑋𝑡−1 ) + 𝑎2𝑡 (no tiene efecto a corto plazo)
d) ∆𝑌𝑡 = −𝛼 (𝑌𝑡−1 − 𝑋𝑡−1 ) + 0,2∆𝑋𝑡−1 + 0,1∆𝑌𝑡−1 + 𝑎2𝑡 (no tiene betas)
e) ∆𝑌𝑡 = −𝛼 (∆𝑌𝑡−1 − 𝛽∆𝑋𝑡−1 ) + 0,7∆𝑋𝑡−1 + 0,4∆𝑌𝑡−1 + 𝑎2𝑡 (a largo plazo, las
variables tienen que estar en niveles, no diferenciadas)
Obs: Para resolver este ejercicio tenemos que ver la deduccion final de cointegracion

∆𝒚𝒕 = ∅𝟎 ∆𝒙𝒕 − (𝟏 − 𝜶𝟏 )[𝒚𝒕−𝟏 − 𝜷𝟎 − 𝜷𝟏 𝒙𝒕−𝟏 ] + 𝝁𝒕

EJERCICIO 63-5
𝑥𝑡 = 𝜚 + 𝜑𝑥𝑡−1 + 𝜇𝑡
𝜑1 = 𝐼

𝜚=0

Respuestas y justificaciones

a) [INCORRECTO], es contrastable a traves de un tets de raiz unitaria


b) [CORRECTO]
c) [INCORRECTO], Dicky Fiuller incorpora la posibilidad de agregar intercepto y/o tendencia
para contrastar la hipotesis
d) [INCORRECTO], en presencia de series no estacionarias, el estadistico t computado, no sigue
una distribucion t normal
e) [CORRECTO], debido a que el estadistico t reportado no sigue una distribucion t normal, en
presencia de series no estacionarias
f) [INCORRECTO]
EJERCICIO 64-6

𝑦𝑡 = ∅𝑦𝑡−1 + 𝜀𝑡 𝐸 (𝜀𝑡 ) = 0 𝑉𝑎𝑟(𝜀𝑡 ) = 𝜎 2


𝑡=3 𝑡=∞ 𝑦0 = 10 ∅ = 0,9

| ∅| < 1

𝐸 (𝜀𝑡 ) = 0

𝜀𝑡 ~𝑅𝐵(0; 𝜎 2 )
𝑦1 = ∅𝑦0 + 𝜀1

𝑦2 = ∅𝑦1 + 𝜀2 = 𝑦2 = ∅(∅𝑦0 + 𝜀1 ) + 𝜀2 = ∅2 𝑦0 + ∅𝜀1 + 𝜀2

𝑦3 = ∅𝑦2 + 𝜀3 = ∅(∅2 𝑦0 + ∅𝜀1 + 𝜀2 ) + 𝜀3 = ∅3 𝑦0 + ∅2 𝜀1 + ∅𝜀2 + 𝜀3

Para todo 𝑡 > 0 la interacción repetitiva produce, siendo 𝑦0 conocido


𝑡−1

𝑦𝑡 = ∅ 𝑦0 + ∑ ∅𝑖 𝜀𝑡−𝑖
𝑡

𝑖=𝑜

𝐸 (𝑦𝑡 ) = ∅𝑡 𝑦0

𝐸 (𝑦3 ) = 0,93 (10) = 7,29


𝐸𝑙𝑖𝑚𝑡→∞ 𝑦 = ∅∞ 𝑦0 = 0
EJERCICIO 65-7

Variables
Inft= inflación
ut= tasa de desempleo
rt= tasa de interés de la reserva federal
rezagos= 2
periodo= 1994Q1 hasta 2011Q4

𝐼𝑛𝑓𝑡 = 𝛼10 + 𝛽11 𝐼𝑛𝑓𝑡−1 + 𝛽12 𝜇𝑡−1 + 𝛽13 𝑟𝑡−1 + ∅11 𝐼𝑛𝑓𝑡−2 + ∅12 𝜇𝑡−2 + ∅13 𝑟𝑡−2 + 𝑒1𝑡
𝜇𝑡 = 𝛼20 + 𝛽21 𝐼𝑛𝑓𝑡−1 + 𝛽22 𝜇𝑡−1 + 𝛽23 𝑟𝑡−1 + ∅21 𝐼𝑛𝑓𝑡−2 + ∅22 𝜇𝑡−2 + ∅23 𝑟𝑡−2 + 𝑒2𝑡
𝑟𝑡 = 𝛼30 + 𝛽31 𝐼𝑛𝑓𝑡−1 + 𝛽32 𝜇𝑡−1 + 𝛽33 𝑟𝑡−1 + ∅31 𝐼𝑛𝑓𝑡−2 + ∅32 𝜇𝑡−2 + ∅33 𝑟𝑡−2 + 𝑒3𝑡

𝑎ñ𝑜𝑠 ∗ 𝑝𝑒𝑟𝑖𝑜𝑑𝑜𝑠 = 18 ∗ 4 = 72

𝑛 + 𝑝 ∗ 𝑛2 = 3 + 2 ∗ 32 = 21

𝑛 = 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠
𝑝 = 𝑟𝑒𝑧𝑎𝑔𝑜𝑠

Que las Betas sean menor a uno


Que las series sean estacionarias
El que error sea rudo blanco
EJERCICIO 66-8

𝑁𝑃𝐿 = 2,24 − 0,20𝐿𝑃𝐼𝐵(−4) + 0,25𝐿𝐼_𝐴𝐶𝑇(−1) + 0,10𝐿𝑈 + 0,09𝐿𝑇𝐶𝑁_𝑈𝑆

𝜕𝑁𝑃𝐿
= −0,20 − 0,20 ∗ ∆𝐿𝑃𝐼𝐵(−4) = −0,20 ∗ −0.05 = 0,01 = 1%
𝜕𝐿𝑃𝐼𝐵(−4)
Un choqe negativo de 5% en la variación del PIB, causa un incremento de un punto
porcentual en la tasa de morosidad
El coeficiente es 0,834683, lo que implica que las variables independientes explican en un
83% a la variable dependiente

La constante 2,24 indica que el nivel de la tasa de morosidad cuando las demas variables
son iguales a cero,
la relación entre LPIB(-4) y NPL son negativas, debido que a menor PIB, menores
ingresos;
la relación entre LI_ACT(-1) Y NPL es positiva, debido al mayor costo que implica un
incremento en I_ACT
la relación entre LU Y NPL es positiva, debido al desempleo de las personas, que por ello
no pueden cumplir con sus obligaciones
la relación entre LTCN_US Y NPL es positiva, debido a que los tomadores de créditos en
moneda extranjera no pueden cumplir con sus obligaciones

EJERCICIO 67-9
𝐿𝑃𝑆𝑈𝐵𝑌(−1) = 3,6178 + 0,36𝐿𝑀𝑂𝑆𝐴 + 0,28𝐿𝑇𝐶𝑁 (−1) + 0,07𝐿𝑃𝐵𝑅𝐸𝑁𝑇(−1) + 0,000391

0,058248; 5,82% por periodo; los choques se disipan en aproximadamente 17 meses

EJERCICIO 68-10
𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡

𝛼0 = 2
𝛼1 = 0,8
𝛼2 = 0,6
𝛼3 = 0,4

𝑦𝑡 = 2 + 0.8𝑦𝑡−1 + 0,6𝑥𝑡 + 0,4𝑥𝑡−1 + 𝜀𝑡


𝜕𝑦𝑡
= 0,6
𝜕𝑥𝑡

𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡
Como en el largo plazo, 𝑦𝑡 = 𝑦𝑡−1 ; 𝑥𝑡 = 𝑥𝑡−1 ; Donde 𝜇𝑡 ~ 𝑅𝐵(0; 𝜎 2 )
𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡 + 𝜀𝑡
𝑦𝑡 − 𝛼1 𝑦𝑡 = 𝛼0 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡 + 𝜀𝑡
𝑦𝑡 (1 − 𝛼1 ) = 𝛼0 + (𝛼2 + 𝛼3 )𝑥𝑡 + 𝜀𝑡
𝛼0 𝛼2 + 𝛼3 𝜀𝑡
𝑦𝑡 = + 𝑥𝑡 +
1 − 𝛼1 1 − 𝛼1 1 − 𝛼1
𝛼0 2 (𝛼2 + 𝛼3 ) 0,6 + 0,4 𝜀𝑡
𝛽0 = = = 10 ; 𝛽1 = = = 5 ; 𝜇𝑡 =
(1 − 𝛼1 ) 1 − 0,8 (1 − 𝛼1 ) 1 − 0,8 1 − 𝛼1
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜇𝑡
𝑦𝑡 = 10 + 5𝑥𝑡 + 𝜇𝑡

Variables con mismo orden de integración


Coeficientes de ut-1 debe ser negativo y menor a uno en valor absoluto

𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡
Restamos a ambos lados 𝑦𝑡−1
𝑦𝑡 − 𝑦𝑡−1 = 𝛼0 + 𝛼1 𝑦𝑡−1 − 𝑦𝑡−1 + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡

∆𝑦𝑡 = 𝛼0 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝜀𝑡


Sumamos y restamos 𝛼2 𝑥𝑡−1 solo al miembro de la derecha
∆𝑦𝑡 = 𝛼0 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 𝑥𝑡 + 𝛼3 𝑥𝑡−1 + 𝛼2 𝑥𝑡−1 − 𝛼2 𝑥𝑡−1 + 𝜀𝑡
∆𝑦𝑡 = 𝛼0 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 ∆𝑥𝑡 + (𝛼2 + 𝛼3 )𝑥𝑡−1 + 𝜀𝑡
𝛼 (𝛼2 +𝛼3 )
Como 𝛽0 = (1−𝛼0 ) → 𝜶𝟎 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) ; 𝛽1 = (1−𝛼 )
→ (𝛼2 + 𝛼3 ) = 𝜷𝟏 (𝟏 − 𝜶𝟏 )
1 1
∆𝑦𝑡 = 𝜷𝟎 (𝟏 − 𝜶𝟏 ) + 𝜷𝟏 (𝟏 − 𝜶𝟏 )𝑥𝑡−1 − 𝑦𝑡−1 (1 − 𝛼1 ) + 𝛼2 ∆𝑥𝑡 + 𝜀𝑡
∆𝑦𝑡 = 𝛼2 ∆𝑥𝑡 − (𝟏 − 𝜶𝟏 )[𝑦𝑡−1 − 𝜷𝟎 − 𝜷𝟏 𝑥𝑡−1 ] + 𝜀𝑡
∆𝑦𝑡 = 0,6∆𝑥𝑡 − (𝟏 − 0,8)[𝑦𝑡−1 − 10 − 5𝑥𝑡−1 ] + 𝜀𝑡
(𝟏 − 0,8) = 0,2; 20% por periodo, el choque se corrige en aproximadamente 5 periodos

EJERCICIO 69-11

Como la probabilidad asociada al estadístico F es mayor a 0,05, no se rechaza la hipótesis


nula, entonces, INF4 no causa a VM1 en el sentido de granger

Como la probabilidad asociada al estadístico F es mayor a 0,05, no se rechaza la hipótesis


nula, entonces, VM1 no causa a INF4 en el sentido de granger

EJERCICIO 70-12
Interpretar el resultado de la estimación
C: no posee interpretación panorámica, no es estadísticamente significativo
ESP_EXTRAN: Posee una relación directa con la variable dependiente, un aumento de 10
espectadores extranjeros, causa en promedio un aumento de 2 espectadores españoles.
Es significativo al 1%
PEL_EXHIBIDAS: posee una relacion directa con la variable dependiente, conforme a lo
esperado, en promedio, un aumento de 1000 peliculas exhibidas, causa un aumento de 2
expectadores españoles, es significativo al 10%, pero no al 5%
IPC:CULTURA: signo esperado, un aumento de IPC_CULTURA de 2 puntos porcentuales
cuasa, en promedio, una disminución de 1 espectador. No es significativo
Aproximadamente, 76% de la variación en ESP_SPA es explicado por variaciones en las
variables independientes del modelo. Es un buen ajuste
Determinar si el modelo es homocedastico
Se realiza a través del tets de White
𝐻𝑂 = 𝐻𝑜𝑚𝑜𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑
𝐻𝑂 = 𝐻𝑒𝑡𝑒𝑟𝑜𝑠𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑
No podemos rechazar la Ho al 10%, 5%, ni 1% de significancia, es homocedastica
Determinar si en el modelo existe o no autocorrelacion

0 0,92 1,54 2 4-1,54 4-,092 4


Se rechaza Ho existe autocorrelacion negativa

EJERCICIO 71-13
−1,5
= −0,39 ; un aumento en la tasa de política monetaria causa una disminución de
3.8
aproximadamente 3,9% en la inflación luego de 30 meses
EJERCICIO 72-14
ERROR D( D D( D( D(
CORRECTION
Cointegration eq -0,4 0 0 0 0 0
0,155
D( -0,0037
D 0,0256
D( 0,0623
D( 0,0783
D( -0,165
0,044
-0,091
Sea la siguente estimación de unaecuacion estadística de la demanda de dinero (entre paréntesis
se encuentran los estadísticos t)

𝒎𝒕 = 𝟏, 𝟎𝟐 + 𝟎, 𝟐𝟑𝒚𝒕 − 𝟎, 𝟕𝟎𝟓𝒓𝒕 + 𝝁𝒕
(𝟒, 𝟏𝟎𝟒) (𝟑, 𝟑) (−𝟓, 𝟕)
𝑹𝟐 = 𝟎, 𝟕𝟎
𝑨𝑫𝑭(𝝁𝒕 ) = −𝟔, 𝟐

𝑫𝑾 = 𝟐, 𝟎𝟎𝟓
Donde ADF es el estadístico de Dickey Fuller aumentado y DW es el estadístico de Durvin Watson
para los residuales

Los estadísticos ADF para cada variable son

𝒎𝒕 = 𝟏, 𝟐𝟔
𝒚𝟏 = 𝟑, 𝟏
𝒓𝟐 = 𝟎, 𝟗
a) Existe el peligro de una regresion espurea en el modelo
b) Existe cointegracion entre las variables
c) Se podría sugerir una especificación alternativa de este modelo

De que equipo fue el capitán Alf el extraterrestre melmeciano? Para que la respuesta sea valida
debe escribir correctamente el nombre

Bouillabaisseball

https://www.ugr.es/~montero/matematicas/cointegracion.pdf

También podría gustarte