Está en la página 1de 117

Modelos de Ecuaciones

Múltiples
Jhonny Moncada Mesa

1
Transcripción del trabajo de
Elkin Castaño y Guillermo Pérez
Introducción
 Anteriormente se desarrollaron los modelos univariados
autorregresivos, en los cuales se modela una variable escalar en
términos de sus propios valores pasados.
 El proceso AR(p) está definido como

𝑦𝑡 = 𝑚 + 𝛼1 𝑦𝑡−1 + 𝛼2 𝑦𝑡−2 + ⋯ + 𝛼𝑝 𝑦𝑡−𝑝 + 𝜀𝑡


donde 𝜀𝑡 es un proceso de ruido blanco de media cero.
 La idea de los modelos VAR es generalizar el modelo AR(p) a un vector
de k variables.

2
Introducción
 Dado un vector columna de 𝑘 variables aleatorias 𝐲t =
[𝑦1𝑡 𝑦2𝑡 … 𝑦𝑘𝑡 ]′ , un proceso VAR(p) o proceso Autorregresivo
Vectorial de orden p está dado por

𝒚𝑡 = 𝒎 + 𝑨1 𝒚𝑡−1 + 𝑨2 𝒚𝑡−2 + ⋯ + 𝑨𝑝 𝒚𝑡−𝑝 + 𝜺𝑡 (1)


donde:
 𝑨1 , 𝑨2 , … , 𝑨𝑝 son matrices de 𝑘𝑥𝑘 de coeficientes constantes,
 𝒎 es un vector de constantes 𝑘𝑥1
 𝜺𝑡 = 𝜀1𝑡 , 𝜀2𝑡 , … , 𝜀𝑘𝑡 ′ es un vector 𝑘𝑥1 de ruido blanco, cuyas
propiedades son
3
Introducción
 𝜺𝑡 = 𝜀1𝑡 , 𝜀2𝑡 , … , 𝜀𝑘𝑡 ′ es un vector 𝑘𝑥1 de ruido blanco, cuyas
propiedades son
𝛀𝑡=𝑠
𝐸 𝜺𝑡 = 𝟎, 𝑡 = 1,2, … , 𝑛 y 𝐸 𝜀𝑡 𝜀𝑠′ =ቊ
𝟎 𝑡≠𝑠
 y donde 𝛀 es una matriz de 𝑘𝑥𝑘 definida positiva que contiene
las varianzas y covarianzas de los elementos de 𝜺𝑡 .
 De lo anterior, los 𝜺𝑡 son serialmente no correlacionados pero
pueden estar correlacionados contemporáneamente.

4
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Para explicar las ideas centrales de los modelos VAR, consideremos
un caso simple donde 𝑘 = 2 y 𝑝 = 1, el cual corresponde a un
proceso VAR(1) bivariado
𝒚𝑡 = 𝒎 + 𝑨𝒚𝑡−1 + 𝜺𝑡 , 𝑡 = 1,2, … , 𝑛
𝑦1𝑡 𝑚1 𝑎11 𝑎12 𝑦1𝑡−1 𝜀1𝑡
𝑦2𝑡 = 𝑚2 + 𝑎21 𝑎22 𝑦2𝑡−1 + 𝜀2𝑡 , 𝑡 = 1,2, … , 𝑛 (2)

o, explícitamente
𝑦1𝑡 = 𝑚1 + 𝑎11 𝑦1𝑡−1 + 𝑎12 𝑦2𝑡−1 + 𝜀1𝑡
𝑦2𝑡 = 𝑚2 + 𝑎21 𝑦1𝑡−1 + 𝑎22 𝑦2𝑡−1 + 𝜀2𝑡
5
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple

𝑦1𝑡 = 𝑚1 + 𝑎11 𝑦1𝑡−1 + 𝑎12 𝑦2𝑡−1 + 𝜀1𝑡


𝑦2𝑡 = 𝑚2 + 𝑎21 𝑦1𝑡−1 + 𝑎22 𝑦2𝑡−1 + 𝜀2𝑡

0 𝛀 𝑡=𝑠
𝐸 𝜺𝑡 = = 𝟎 𝑡 = 1,2, … , 𝑛 y 𝐸 𝜀𝑡 𝜀𝑠 = ቊ

0 𝟎 𝑡≠𝑠
𝜎11 𝜎12
y donde 𝛀 = 𝜎
21 𝜎22

6
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 En los modelos VAR cada variable es una combinación
lineal de sus propios valores rezagados y de los valores
rezagados de las otras variables.
 Es común que en los modelos VAR se incluyan tendencias
determinísticas y otro tipo de variables exógenas; sin
embargo, por simplicidad en la exposición, en el siguiente
desarrollo teórico no se incluirán.

7
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Observación: los modelos VAR presentados son conocidos como
modelos VAR estándar o de forma reducida ya que en ellos 𝑦1
(𝑦2 ) no tiene un efecto contemporáneo sobre 𝑦2 (𝑦1 ).
 Se dice que es una forma reducida porque proviene de un VAR
estructural o primitivo, cuya especificación es, para el caso 𝑘 =
2 y 𝑝 = 1,

𝑦1𝑡 = 𝑏1 + 𝑏12 𝑦2𝑡 + 𝑐11 𝑦1𝑡−1 + 𝑐12 𝑦2𝑡−1 + 𝑢1𝑡


𝑦2𝑡 = 𝑏2 + 𝑏22 𝑦2𝑡 + 𝑐21 𝑦1𝑡−1 + 𝑐22 𝑦2𝑡−1 + 𝑢1𝑡

8
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple

𝑦1𝑡 = 𝑏1 + 𝑏12 𝑦2𝑡 + 𝑐11 𝑦1𝑡−1 + 𝑐12 𝑦2𝑡−1 + 𝑢1𝑡


𝑦2𝑡 = 𝑏2 + 𝑏22 𝑦2𝑡 + 𝑐21 𝑦1𝑡−1 + 𝑐22 𝑦2𝑡−1 + 𝑢1𝑡
donde
𝑢1𝑡 0 𝚺 𝑡=𝑠
𝒖𝑡 = 𝑢 𝑡 = 1,2, … , 𝑛 con 𝐸 𝒖𝑡 = = 𝟎 y 𝐸 𝒖𝑡 𝒖𝑠 = ቊ

2𝑡 0 𝟎 𝑡≠𝑠
𝜎𝑢21 0
y donde 𝚺 =
0 𝜎𝑢22

9
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Ejercicio.
 Con base en el VAR estructural deduzca el VAR estándar o de forma
reducida, mostrando las relaciones entre los respectivos
parámetros. Además encuentre las propiedades del vector 𝜺𝑡 (el
vector de medias y la matriz de varianzas y covarianzas) de la
forma reducida.

10
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Como es de esperar, el comportamiento de las variables en el
vector 𝑦𝑡 del VAR(1) depende de las propiedades de las matrices
𝑨.
 Las propiedades de estas matrices dependen de sus valores y
vectores propios.
 Para el caso del VAR(1) bivariado, la matriz de coeficientes
𝑎11 𝑎12
𝑨= 𝑎
21 𝑎22
es no simétrica y cuadrada de dimensión 2𝑥2.
 Suponga que 𝜆1 y 𝜆2 son los valores propios de 𝑨, y que 𝒄1 y 𝒄2 son
los respectivos vectores propios. 11
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Entonces, se debe cumplir que
𝑨𝒄1 = 𝜆1 𝒄1 y 𝑨𝒄2 = 𝜆2 𝒄2 (3)
 Además, si definimos
𝜆1 0 𝑐11 𝑐12
𝚲= y 𝑪 = 𝒄1 𝒄2 = 𝑐 𝑐22
0 𝜆2 21

en forma matricial las ecuaciones en (3) se pueden escribir


como

𝑨𝑪 = 𝑪𝚲

12
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Asumiendo que los valores propios son distintos, entonces los
vectores propios son linealmente independientes y por lo tanto
existe 𝑪−1 .
 Entonces, de la ecuación anterior,

𝑪−1 𝑨𝑪 = 𝜦 y 𝑨 = 𝑪𝜦𝑪−1
 Ahora, considere un nuevo vector de variables 𝒛𝑡 , tal que

𝒛𝑡 = 𝑪−1 𝒚𝑡 ó 𝒚𝑡 = 𝑪𝒛𝑡
13
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Como el VAR(1) es
𝒚𝑡 = 𝒎 + 𝑨𝒚𝑡−1 + 𝜺𝑡 𝑡 = 1,2, … , 𝑛
 entonces, premultiplicando por la matriz 𝑪−1

𝑪−1 𝒚𝑡 = 𝑪−1 𝒎 + 𝑪−1 𝑨𝒚𝑡−1 + 𝑪−1 𝜺𝑡 𝑡 = 1,2, … , 𝑛


𝒛𝑡 = 𝒎∗ + 𝜦𝑪−1 𝒚𝑡−1 + 𝑪−1 𝜺𝑡 𝑡 = 1,2, … , 𝑛
𝒛𝑡 = 𝒎∗ + 𝜦𝒛𝑡 + 𝜼𝑡 𝑡 = 1,2, … , 𝑛
donde 𝒎∗ = 𝑪−1 𝒎, 𝜼𝑡 = 𝑪−1 𝜺𝑡 y 𝜼𝑡 es un vector de ruido blanco
(Ejercicio: obtenga su vector de media y su matriz de varianzas y
covarianzas).
14
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Por lo tanto
𝑧1𝑡 = 𝑚1∗ + 𝜆1 𝑧1𝑡−1 + 𝜂1𝑡
𝑧2𝑡 = 𝑚2∗ + 𝜆2 𝑧2𝑡−1 + 𝜂2𝑡
es decir, cada variable 𝑧 sigue un proceso AR(1).
 De lo anterior,
 si 𝜆1 < 1 y 𝜆2 < 1 entonces 𝑧1 y 𝑧2 son estacionarias
 si 𝜆1 = 1 y 𝜆2 = 1 se tendrá que 𝑧1 y 𝑧2 son paseos aleatorios
 si 𝜆1 > 1 y 𝜆2 > 1, 𝑧1 y 𝑧2 serán procesos explosivos, los
cuales son económicamente irrelevantes.

15
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 A continuación se considerarán varios casos posibles de 𝜆1 y 𝜆2 .

 Caso1. 𝜆1 < 1 y 𝜆2 < 1, 𝜆1 ≠ 𝜆2


 En este caso 𝑧1𝑡 ~𝐼 0 y 𝑧2𝑡 ~𝐼 0 .
 Puesto que 𝒚𝑡 = 𝑪𝒛𝑡 , entonces
𝑦1𝑡 = 𝑐11 𝑧1𝑡 + 𝑐12 𝑧2𝑡
𝑦2𝑡 = 𝑐21 𝑧1𝑡 + 𝑐22 𝑧2𝑡
de donde
𝑦1𝑡 ~𝐼 0 y 𝑦2𝑡 ~𝐼 0
pues son combinaciones lineales de variables 𝐼(0). 16
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Por lo tanto se puede decir que
𝒚𝑡 ~𝐼 0
 Lo anterior nos permite afirmar que al modelo (2) se le puede
aplicar la inferencia estándar.
 En esta situación también tiene sentido investigar el equilibrio
estático del sistema.
 La forma más simple es colocar el vector de perturbaciones en
cero y asumir la existencia de un vector en equilibrio 𝒚
ഥ, luego:
ഥ = 𝒎 + 𝑨ഥ
𝒚 𝒚

17
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


ഥ = 𝒎 + 𝑨ഥ
𝒚 𝒚
es decir
ഥ = 𝐦 ó 𝚷ഥ
𝑰−𝑨 𝒚 𝒚=𝒎
donde 𝚷 = 𝑰 − 𝑨.
 La ecuación 𝚷ഥ
𝒚 = 𝒎 tiene solución única si 𝚷 es no singular.
 Se sabe que:
i. Si 𝜆 es un valor propio de 𝑨 entonces 1 − 𝜆 es un valor propio de
𝑰−𝑨
ii. Si 𝒄 es un vector propio de 𝑨, también lo es de 𝑰 − 𝑨.
18
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Luego, como 𝜆1 < 1 y 𝜆2 < 1 con 𝜆1 ≠ 𝜆2 entonces los valores
propios de 𝚷 serán distintos y tendrán módulo menor que 1.
 Por tanto, 𝚷 será un matriz invertible y entonces existe el
equilibrio estático 𝒚
ഥ = 𝚷−1 𝒎.
 Los valores de 𝜆 garantizan que las desviaciones del vector de
equilibrio estático son transitorias.

19
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Caso2. 𝜆1 = 1 y 𝜆2 < 1
 En este caso, regresando a las ecuaciones anteriores
𝑧1𝑡 = 𝑚1∗ + 𝜆1 𝑧1𝑡−1 + 𝜂1𝑡
𝑧2𝑡 = 𝑚2∗ + 𝜆2 𝑧2𝑡−1 + 𝜂2𝑡
 Entonces 𝑧1𝑡 ~𝐼 1 y 𝑧2𝑡 ~𝐼 0 .
 Como 𝑦1𝑡 = 𝑐11 𝑧1𝑡 + 𝑐12 𝑧2𝑡 y 𝑦2𝑡 = 𝑐21 𝑧1𝑡 + 𝑐22 𝑧2𝑡 , entonces
𝑦1𝑡 ~𝐼 1 y 𝑦2𝑡 ~𝐼 1
 Por tanto,
𝒚𝑡 ~𝐼 1

20
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 En este caso no tiene sentido hablar del equilibrio estático para
el vector 𝒚 , pero es importante analizar si hay relación de
cointegración entre 𝑦1𝑡 y 𝑦2𝑡 .
𝒄 1
 Sea = 2 .
𝑪−1
𝒄
𝑧1𝑡 1
𝒄 1 𝒄 𝒚𝑡
 Como 𝒛𝑡 = −1 , entonces
𝑧2𝑡 = 𝑪 𝒚𝑡 = 𝒄 2 𝒚𝑡 = 𝒄 2 𝒚𝑡
𝑧2𝑡 = 𝒄 2 𝒚𝑡
 Luego 𝑧2𝑡 es una combinación lineal de variables 𝐼(1) que es
𝐼(0) , es decir, 𝑧2 es estacionaria. Por tanto 𝑦1 y 𝑦2 están
cointegradas con vector cointegrante 𝒄 2 . 21
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Otra forma de probar este resultado es la siguiente
𝑧1𝑡
𝒄
𝒚𝑡 = 𝑪𝒛𝑡 = 1 𝒄 2 𝑧 = 𝑧1𝑡 𝒄1 + 𝑧2𝑡 𝒄2
2𝑡

premultiplicando la ecuación anterior por 𝒄 2


,

𝒄 2 𝒚𝑡 = 𝑧1𝑡 𝒄 2 𝒄1 + 𝑧2𝑡 𝒄 2 𝒄2
 Dado que para matrices no singulares, tal como 𝑪 , se debe
cumplir que 𝒄 2 𝒄1 = 0 y 𝒄 2 𝒄2 = 1, se puede concluir que

𝒄 2 𝒚𝑡 = 𝑧2𝑡
22
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 La relación de cointegración también puede ser estudiada en
términos de la matriz 𝚷.
 Considere el VAR(1)
𝑦1𝑡 𝑚1 𝑎11 𝑎12 𝑦1,𝑡−1 𝜀1𝑡
𝒚𝑡 = 𝑦 = 𝑚 + 𝑎 𝑎 𝑦 + 𝜀 = 𝒎 + 𝑨𝒚𝑡−1 + 𝜺𝑡
2𝑡 2 21 22 2,𝑡−1 2𝑡
 Reparametrizando la ecuación, restando a ambos lados 𝒚𝑡−1 se
obtiene,
Δ𝒚𝑡 = 𝒎 − 𝚷𝒚𝑡−1 + 𝜺𝑡

23
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


Δ𝒚𝑡 = 𝒎 − 𝚷𝒚𝑡−1 + 𝜺𝑡
 Como los valores propios de 𝑨 son 1 y 𝜆2 , entonces los de 𝚷 son 0
y 1 − 𝜆2 .
 Luego 𝚷 es una matriz singular (existe un valor propio igual a
cero) de rango 𝟏, con matriz de vectores propios 𝑪 (igual a la
matriz de vectores propios de 𝑨).
0 0
 Luego, si Λ𝚷 = es la matriz diagonal con los valores
0 1 − 𝜆2
propios de 𝚷, entonces

24
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple

0 0 0 0 𝒄 1
𝚷=𝑪 𝑪−1 = 𝒄1 𝒄2
0 1 − 𝜆2 0 1 − 𝜆2 𝒄 2

1
= 𝟎 1 − 𝜆2 𝒄2 𝒄 = 1 − 𝜆 𝒄 𝒄 2 = 1− 𝜆 𝒄 𝒄 2
2 2 2 2
𝒄2
 La matriz 𝚷 ha sido factorizada como el producto de un vector
columna, 1 − 𝜆2 𝒄2 , y un vector fila, 𝒄 2 .
 El vector fila 𝒄 2 es denominado el vector de cointegración y el
vector columna 1 − 𝜆2 𝒄2 muestra el peso con el cual la relación
de cointegración entra en la ecuación del VAR reparametrizado.
25
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Esto se puede ver fácilmente ya que
Δ𝒚𝑡 = 𝒎 − 𝚷𝒚𝑡−1 + 𝜺𝑡
Δ𝒚1𝑡 𝑚1 0 0
= 𝑚 −𝑪 𝑪−1 𝒚𝑡−1 + 𝜺𝑡
Δ𝒚2𝑡 2 0 1 − 𝜆2

𝑚1 𝑧1𝑡−1 𝜀1𝑡
= 𝑚 − 𝟎 1 − 𝜆2 𝒄2 𝑧2𝑡−1 + 𝜀2𝑡
2
 Por lo tanto
Δ𝑦1𝑡 = 𝑚1 − 𝑐12 1 − 𝜆2 𝑧2𝑡−1 + 𝜀1𝑡
Δ𝑦2𝑡 = 𝑚2 − 𝑐22 1 − 𝜆2 𝑧2𝑡−1 + 𝜀2𝑡

26
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple

donde
2 21 22
𝑦1𝑡
𝑧2𝑡 = 𝒄 𝒚𝑡 = 𝑐 𝑐 𝑦2𝑡 ~𝐼(0)
 Esta presentación del VAR es expresada en términos de niveles y
primeras diferencias, todas las cuales son 𝐼(0).
 Esta reparametrización del VAR(1) es llamada el Modelo de
Corrección de Error (ECM).

27
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


Ejemplo numérico
 Consideremos el sistema
𝑦1𝑡 = 1.2𝑦1𝑡−1 − 0.2𝑦2𝑡−1 + 𝜀1𝑡
𝑦2𝑡 = 0.6𝑦1𝑡−1 + 0.4𝑦2𝑡−1 + 𝜀2𝑡
 En este caso 𝑚1 = 𝑚2 = 0 y
1.2 −0.2
𝑨=
0.6 0.4
 Valores propios de 𝑨 : son las soluciones a la ecuación 𝑨 − 𝜆𝑰 =
0 la cual es una ecuación cuadrática en 𝜆.

1.2 − 𝜆 −0.2
=0 28
0.6 0.4 − 𝜆
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


Ejemplo numérico
1.2 − 𝜆 0.4 − 𝜆 + 0.12 = 0
 La solución es (verificar): 𝜆1 = 1 𝜆2 = 0.6.
 Vectores propios de 𝑨 : para cada valor propio 𝜆𝑗 , las
componentes de su correspondiente vector propio 𝑐𝑗 se obtienen
como soluciones al sistema de ecuaciones dado por 𝑨 − 𝜆𝑗 𝑰 𝑐𝑗 =
0.
1.2 − 𝜆 −0.2 𝑐1𝑗 0
= , 𝑗 = 1,2
0.6 0.4 − 𝜆 𝑐2𝑗 0

29
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


Ejemplo numérico
 La solución es (verificar):
1 1
𝒄1 = y 𝒄2 =
1 3
 Entonces,
1 1 1.5 −0.5 1
𝑪= = 𝑐1 𝑐2 y 𝑪
−1
= = 𝒄 2
1 3 −0.5 0.5 𝒄

30
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


Ejemplo numérico
 El sistema inicial puede ser escrito como (restando 𝑦𝑡−1 al
sistema VAR(1) inicial):
Δ𝑦1𝑡 = 0.2𝑦1𝑡−1 − 0.2𝑦2𝑡−1 + 𝜀1𝑡
Δ𝑦2𝑡 = 0.6𝑦1𝑡−1 − 0.6𝑦2𝑡−1 + 𝜀2𝑡
o
−0.4
Δ𝒚𝑡 = −0.5𝑦1𝑡−1 + 0.5𝑦2𝑡−1 + 𝜺𝑡
−1.2
 La cual es la versión numérica de las ecuaciones vistas

Δ𝑦1𝑡 = 𝑚1 − 𝑐12 1 − 𝜆2 𝑧2𝑡−1 + 𝜀1𝑡 31


Δ𝑦2𝑡 = 𝑚2 − 𝑐22 1 − 𝜆2 𝑧2𝑡−1 + 𝜀2𝑡
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


Ejemplo numérico
 La factorización de la matriz 𝚷 no es única:
 Vimos que 𝚷 = [ 1 − 𝜆2 𝑐2 ][𝑐 2
].
 Multiplicando el primer vector por 𝑎 (𝑎 ≠ 0) y el segundo por
1/𝑎 se obtiene la misma matriz 𝚷.
 Esto significa que el vector de cointegración no es único.
 Por ejemplo, para este caso el vector de cointegración puede ser
escrito como (multiplicando y dividiendo por −0.5):

𝑧𝑡 = 𝑦1𝑡 − 𝑦2𝑡 32
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Caso 3. 𝜆1 = 1 y 𝜆2 = 1
 Para una matriz no simétrica con los valores propios iguales no
existen dos vectores propios linealmente independientes y por
lo tanto no existe una matriz 𝑪 de vectores propios invertible,
es decir 𝑨 no se puede diagonalizar.
 Por ejemplo, considere la matriz
0.8 −0.4
𝑨=
0.1 1.2
 Es fácil verificar que existe un valor propio igual a 1 con
multiplicidad 2 (Verificar).

33
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 La ecuación (𝑨 − 𝜆𝑰)𝑐 = 0 proporciona el sistema

−0.2 −0.4 𝑐11 0


=
0.1 0.2 𝑐21 0
 El único vector propio está dado por

−2
𝒄1 =
1
 Aunque 𝑨 no puede ser diagonalizada, es posible encontrar una
matriz no singular 𝑷 tal que

34
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Aunque 𝑨 no puede ser diagonalizada, es posible encontrar una
matriz no singular 𝑷 tal que

𝑷−𝟏 𝑨𝑷 = 𝑱 ó 𝑨 = 𝑷𝑱𝑷−𝟏
donde
𝜆 1
𝑱=
0 𝜆
 𝑱 es llamada la matriz de Jordan para un valor propio 𝜆 de
multiplicidad 2.

35
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Ahora, considere que
𝒛𝑡 = 𝑷−1 𝒚𝑡 ó 𝒚𝑡 = 𝑷𝒛𝑡
 De la ecuación del VAR(1), pre-multiplicándola por 𝑷−1 , se
obtiene
𝒛𝑡 = 𝑱𝒛𝑡−1 + 𝒎∗ + 𝜼𝑡
donde 𝒎∗ = 𝑷−1 𝒎, 𝜼𝑡 = 𝑷−1 𝜺𝑡 . Luego
𝑧1𝑡 = 𝜆𝑧1𝑡−1 + 𝑧2𝑡−1 + 𝑚1∗ + 𝜂1𝑡
𝑧2𝑡 = 𝜆𝑧2𝑡−1 + 𝑚2∗ + 𝜂2𝑡
 Como 𝜆 = 1
1 − 𝐿 𝑧1𝑡 = 𝑧2𝑡−1 + 𝑚1∗ + 𝜂1𝑡
1 − 𝐿 𝑧2𝑡 = 𝑚2∗ + 𝜂2𝑡 36
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Multiplicando la primera ecuación por (1 − 𝐿)

1 − 𝐿 2 𝑧1𝑡 = 1 − 𝐿 𝑧2𝑡−1 + 1 − 𝐿 𝑚1∗ + 𝜂1𝑡


 Reemplazando el valor de la segunda ecuación y organizando
términos,

1 − 𝐿 2 𝑧1𝑡 = 𝑚2∗ + 𝜂1𝑡 + 𝜂1𝑡−1 + 𝜂2𝑡−1


 Luego
𝑧1𝑡 ~𝐼(2), 𝑧2𝑡 ~𝐼(1)

37
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Como 𝒚𝑡 = 𝑷𝒛𝑡 , entonces 𝑦1𝑡 = 𝑐11 𝑧1𝑡 + 𝑐12 𝑧2𝑡 y 𝑦2𝑡 = 𝑐21 𝑧1𝑡 +
𝑐22 𝑧2𝑡 , entonces se concluye que cada variable del vector 𝒚𝑡 es
𝐼(2).
 Todas las variables en el VAR son no estacionarias, al igual que
sus primeras diferencias.
 Por tanto los procedimientos de inferencia son no estándar en
cualquiera de los dos casos.

38
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


𝒑(1) 𝑝11 𝑝12
 Ahora, sea 𝑷−1 = (2) = 21 22 .
𝒑 𝑝 𝑝
 Como 𝒛𝑡 = 𝑷−1 𝒚𝑡 entonces,
𝑧2𝑡 = 𝒑(2) 𝑦𝑡 = 𝑝21 𝑦1𝑡 + 𝑝22 𝑦2𝑡
y por lo tanto
𝑧2𝑡 = 𝑝21 𝑦1𝑡 + 𝑝22 𝑦2𝑡 ~𝐼(1)
Esto implica que una combinación lineal de variables 𝐼(2) produce
una variable 𝐼(1). En este caso la variable cointegrante (𝑧2𝑡 ) no es
estacionaria, pero satisface la siguiente definición general de
cointegración.
39
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 Definición
 Considere un vector de variables aleatorias 𝐼(𝑑). Se dice que el
vector es cointegrado de orden (𝑑, 𝑏), si existe una combinación
lineal de las variables del vector que sea 𝐼(𝑑 − 𝑏), con 𝑏 > 0.
 En el caso anterior 𝒚𝑡 es 𝐶𝐼(2,1).

40
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple


 El procedimiento para calcular la matriz P.
0.8 −0.4
 En el ejemplo anterior, 𝑨 = .
0.1 1.2
𝑝11 𝑝12
 Sea 𝑷 = 𝑝 = 𝒑1 𝒑2 .
21 𝑝22
 De la ecuación 𝑷−1 𝑨𝑷 = 𝑱 se obtiene que 𝑨𝑷 = 𝑷𝑱, o
𝜆 1
𝑨 𝒑1 𝒑2 = 𝒑1 𝒑2
0 𝜆
𝑨𝒑1 𝑨𝒑2 = 𝜆𝒑1 𝒑1 + 𝜆𝒑2
 Entonces,
𝑨𝒑1 = 𝜆𝒑1 y 𝑨𝒑2 = 𝒑1 + 𝜆𝒑2
41
Autorregresiones Vectoriales (VAR)

Un modelo VAR simple

𝑨𝒑1 = 𝜆𝒑1 y 𝑨𝒑2 = 𝒑1 + 𝜆𝒑2

 La primera ecuación da 𝒑1 = −2 1 ′ (Verificar).


 De la segunda ecuación se obtiene 𝑨 − 𝑰 𝒑2 = 𝒑1 . Resolviendo para
𝒑2 se obtiene 𝒑2 = 8 1 ′ (Verificar). Por tanto, la matriz 𝑷 y su
inversa están dadas por

−2 8 −1 −0.1 0.8
𝑷= 𝑷 =
1 1 0.1 0.2
42
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Considere el modelo VAR con 𝑘 = 3 y 𝑝 = 1, es decir el VAR(1)
trivariado,
𝒚𝑡 = 𝒎 + 𝑨𝒚𝑡−1 + 𝜺𝑡
𝑦1𝑡 𝑚1 𝜀1𝑡 𝑎11 𝑎12 𝑎13
𝒚𝑡 = 𝑦2𝑡 𝒎 = 𝑚2 𝜺𝑡 = 𝜀2𝑡 𝑨 = 𝑎21 𝑎22 𝑎23
𝑦3𝑡 𝑚3 𝜀3𝑡 𝑎31 𝑎32 𝑎33

 El comportamiento de 𝒚𝑡 depende de los valores y vectores


propios de la matriz 𝑨, la cual tiene 3 valores propios 𝜆1 , 𝜆2 y
𝜆3 .

43
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Analicemos algunos casos:
 Caso 1. 𝜆1 < 1, 𝜆2 < 1, 𝜆3 < 1, y 𝜆1 ≠ 𝜆2 ≠ 𝜆3 .
 En este caso 𝒚𝑡 ~𝐼(0). La inferencia es estándar y existe relación
de equilibrio. (Ejercicio)

 Caso 2. 𝜆1 = 1, 𝜆2 < 1, 𝜆3 < 1, y 𝜆2 ≠ 𝜆3 . Como los tres valores


propios son distintos, entonces existe una matriz invertible 𝑪,
con inversa 𝑪−1 de la forma

44
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


𝒄(1)
𝑪 = 𝒄1 𝒄2 𝒄3 y 𝑪−1 = 𝒄(2)
𝒄(3)
tales que
𝜆1 0 0
𝑪−1 𝑨𝑪 = 𝚲, 𝑨 = 𝑪𝚲𝑪−1 y𝚲= 0 𝜆2 0
0 0 𝜆3

45
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Sea 𝒛𝑡 = 𝑪−1 𝒚𝑡 . Entonces 𝒚𝑡 = 𝑪𝒛𝑡
 Como antes, premultiplicando el VAR(1) por la matriz 𝑪−1 se
obtiene
𝒛𝑡 = 𝒎∗ + 𝚲𝐳𝑡−1 + 𝜼𝑡
o, explícitamente
𝑧1𝑡 = 𝑚1∗ + 𝜆1 𝑧1𝑡−1 + 𝜂1𝑡
𝑧2𝑡 = 𝑚2∗ + 𝜆2 𝑧2𝑡−1 + 𝜂2𝑡
𝑧3𝑡 = 𝑚3∗ + 𝜆3 𝑧3𝑡−1 + 𝜂3𝑡
 Se concluye que z1t ~𝐼(1), z2t ~𝐼(0), z3t ~𝐼(0).

46
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Como 𝒚𝑡 = 𝑪𝒛𝑡 , entonces 𝒚𝑡 ~𝐼(1).
 Hay relaciones de cointegración?
 Ahora, dado que
𝒄(1)
𝑪−1 = 𝒄(2)
𝒄(3)
𝒄(1) 𝒚
𝑧1𝑡 𝒄 (1) 𝑡
 Entonces de 𝒛𝑡 = 𝑧2𝑡 = 𝑪−1 𝒚𝑡 = 𝒄(2) 𝒚𝑡 = 𝒄(2) 𝒚𝑡 se obtiene que
𝑧3𝑡 𝒄(3) 𝒄(3) 𝒚𝑡
47
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado

𝑧2𝑡 = 𝒄(2) 𝒚𝑡 y 𝑧3𝑡 = 𝒄(3) 𝒚𝑡


serían dos relaciones de cointegración.
 Cada vector de cointegración 𝒄(2) , 𝒄(3) es determinado de
manera única.
 Sin embargo, en este caso de tres variables, cualquier
combinación lineal de 𝑧2𝑡 y 𝑧3𝑡 también será I(0).
 En efecto, sean 𝑎 y 𝑏 dos números reales no nulos. Entonces,
𝑚𝑡 = 𝑎𝑧2𝑡 + 𝑏𝑧3𝑡 ~𝐼(0)
48
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado

𝑚𝑡 = 𝑎𝑧2𝑡 + 𝑏𝑧3𝑡 ~𝐼(0)


 Entonces
𝑚𝑡 = 𝑎𝒄(2) 𝒚𝑡 + 𝑏𝒄(3) 𝒚𝑡 ~𝐼(0)
𝑚𝑡 = 𝑎𝒄(2) + 𝑏𝒄(3) 𝒚𝑡 ~𝐼(0)

 Por tanto, 𝑎𝒄(2) + 𝑏𝒄(3) también es un vector cointegrante.


 Por tanto, cuando hay dos o más vectores de cointegración,
existirá un número infinito de vectores de cointegración.

49
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Analicemos la formulación del modelo de corrección de errores
para este caso,
∆𝒚𝑡 = 𝒎 − 𝚷𝒚𝑡−1 + 𝜺𝑡
 Los valores propios de la matriz 𝚷 = 𝑰 − 𝑨 son:
𝑢1 = 1 − 𝜆1 = 0, 𝑢2 = 1 − 𝜆2 , 𝑢3 = 1 − 𝜆3
 Luego
0 0 0 𝒄(1)
𝚷 = 𝑪 𝑰 − 𝑨 𝑪−1 = 𝒄1 𝒄2 𝒄3 0 𝑢2 0 𝒄(2)
0 0 𝑢3 𝒄(3)

= 𝑢2 𝒄2 𝑢3 𝒄3 𝒄(2) = 𝜶𝜷′
𝒄(3) 50
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Por lo tanto 𝚷 se factoriza en las matrices,
𝜶 = 𝑢2 𝒄2 𝑢3 𝒄3 la cual es una matriz 3x2 de rango 2, y
(2)
𝜷′ 𝒄
= (3) que es una matriz 2x3, también de rango 2.
𝒄
 La matriz 𝜷′ contiene los dos vectores de cointegración
 La matriz 𝜶 contiene los pesos con los cuales ambos vectores de
cointegración entran en la formulación del modelo de corrección
de error.
 Este modelo está dado por
∆𝒚𝑡 = 𝒎 − 𝚷𝒚𝑡−1 + 𝜺𝑡 = 𝒎 − 𝜶𝜷′ 𝒚𝑡−1 + 𝜺𝑡
51
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Este modelo está dado por
∆𝒚𝑡 = 𝒎 − 𝚷𝒚𝑡−1 + 𝜺𝑡 = 𝒎 − 𝜶𝜷′ 𝒚𝑡−1 + 𝜺𝑡
𝒄 (2)
∆𝒚𝑡 = 𝒎 − 𝜶 (3) 𝒚𝑡−1 + 𝜺𝑡
𝒄
𝒄(2) 𝒚𝑡−1
∆𝒚𝑡 = 𝒎 − 𝜶 (3) + 𝜺𝑡
𝒄 𝒚𝑡−1
𝑧2,𝑡−1
∆𝒚𝑡 = 𝒎 − 𝜶 𝑧 + 𝜺𝑡
3,𝑡−1
𝑧2,𝑡−1
∆𝒚𝑡 = 𝒎 − 𝑢2 𝒄2 𝑢3 𝒄3 𝑧 + 𝜺𝑡
3,𝑡−1
∆𝒚𝑡 = 𝒎 − 𝑢2 𝒄2 𝑧2,𝑡−1 − 𝑢3 𝒄3 𝑧3,𝑡−1 + 𝜺𝑡

52
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Este modelo está dado por
∆𝒚𝑡 = 𝒎 − 𝑢2 𝒄2 𝑧2,𝑡−1 − 𝑢3 𝒄3 𝑧3,𝑡−1 + 𝜺𝑡
o,
Δ𝑦1𝑡 = 𝑚1 − 𝑢2 𝑐12 𝑧2,𝑡−1 − 𝑢3 𝑐13 𝑧3,𝑡−1 + 𝜀1𝑡
Δ𝑦2𝑡 = 𝑚2 − 𝑢2 𝑐22 𝑧2,𝑡−1 − 𝑢3 𝑐23 𝑧3,𝑡−1 + 𝜀2𝑡
Δ𝑦3𝑡 = 𝑚1 − 𝑢2 𝑐32 𝑧2,𝑡−1 − 𝑢3 𝑐33 𝑧3,𝑡−1 + 𝜀3𝑡
 Es importante observar que 𝚷 es de rango 2 y que existen 2
vectores de cointegración, los cuales se encuentran en las filas
de 𝜷′ .

53
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Caso 3. Analicemos que sucede si 𝜆1 = 1, 𝜆2 = 1, 𝜆3 < 1.
 En este caso no existe una matriz de vectores propios invertible
𝑪, pero sí existe una matriz invertible 𝑷 tal que

𝑷−1 𝑨𝑷 = 𝑱 ó 𝑨 = 𝑷𝑱𝑷−1
donde la matriz 𝑷 de Jordan es

1 1 0
𝑱= 0 1 0
0 0 𝜆3
54
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Considere que
𝒛𝑡 = 𝑷−1 𝒚𝑡 , lo que implica que 𝒚𝑡 = 𝑷𝒛𝑡
 Premultiplicando el VAR(1) por 𝑷−1 , se obtiene

𝑷−1 𝒚𝑡 = 𝑷−1 𝒎 + 𝑷−1 𝑨𝒚𝑡−1 + 𝑷−1 𝜺𝑡


𝒛𝑡 = 𝒎∗ + 𝑱𝐳𝑡−1 + 𝜼𝑡
 Luego
𝑧1𝑡 = 𝑚1∗ + 𝑧1,𝑡−1 + 𝑧2,𝑡−1 + 𝜂1𝑡
𝑧2𝑡 = 𝑚2∗ + 𝑧2,𝑡−1 + 𝜂2𝑡 ~𝐼(1)
𝑧3𝑡 = 𝑚3∗ + 𝜆3 𝑧3,𝑡−1 + 𝜂3𝑡 ~𝐼(0)
55
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


 Ahora, de la primera ecuación
1 − 𝐿 𝑧1𝑡 = 𝑚1∗ + 𝑧2,𝑡−1 + 𝜂1𝑡 (A)
y de la segunda
1 − 𝐿 𝑧2𝑡 = 𝑚2∗ + 𝜂2𝑡 ~𝐼(1) (B)
 Pre-multiplicando (A) por 1 − 𝐿

1 − 𝐿 2 𝑧1𝑡 = 1 − 𝐿 𝑚1∗ + 1 − 𝐿 𝑧2,𝑡−1 + 1 − 𝐿 𝜂1𝑡


 Reemplazando (B), en la ecuación anterior,
1 − 𝐿 2 𝑧1𝑡 = 𝑚2∗ + 𝜂2,𝑡−1 + 𝜂1𝑡 + 𝜂1,𝑡−1 ,
56
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado

1 − 𝐿 2 𝑧1𝑡 = 𝑚2∗ + 𝜂2,𝑡−1 + 𝜂1𝑡 + 𝜂1,𝑡−1 ,


es decir 𝑧1𝑡 ~𝐼(2), 𝑧2𝑡 ~𝐼(1), 𝑧3𝑡 ~𝐼(0)
 Como 𝒚𝑡 = 𝑷𝒛𝑡 , entonces 𝒚𝑡 = 𝑧1𝑡 𝒑1 + 𝑧2𝑡 𝒑2 + 𝑧3𝑡 𝒑3 entonces las
tres variables del vector 𝒚𝑡 son 𝐼(2).
 Además, como
𝑧1𝑡 𝒑(1) 𝒑(1) 𝒚𝑡
𝒛𝑡 = 𝑧2𝑡 = 𝑷−1 𝒚𝑡 = 𝒑(2) 𝒚𝑡 = 𝒑(2) 𝒚𝑡
𝑧3𝑡 𝒑(3) 𝒑(3) 𝒚𝑡
57
Autorregresiones Vectoriales (VAR)

Modelo VAR(1) Trivariado


entonces,
𝒑(2) 𝒚𝑡 = 𝑧2𝑡 ~𝐼(1)
𝒑(3) 𝒚𝑡 = 𝑧3𝑡 ~𝐼(0)

 Se observa que hay dos vectores de cointegración, 𝒑(2) y 𝒑(3) ,


pero únicamente uno produce una combinación lineal
estacionaria de las variables del vector 𝒚𝑡 .

58
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 Las ideas anteriores se pueden generalizar a modelos VAR(p).
 Por ejemplo, considere un VAR(2)
𝒚𝑡 = 𝒎 + 𝑨1 𝒚𝑡−1 + 𝑨2 𝒚𝑡−2 + 𝜺𝑡 𝑡 = 1,2, … , 𝑛
 Restando 𝒚𝑡−1 en ambos lados de la ecuación anterior se
obtiene
∆𝒚𝑡 = 𝒎 + (𝑨1 − 𝑰)𝒚𝑡−1 + 𝑨2 𝒚𝑡−2 + 𝜺𝑡 𝑡 = 1,2, … , 𝑛
 Sumando y restando (𝑨1 − 𝑰)𝒚𝑡−2 se tiene
∆𝒚𝑡 = 𝒎 + 𝑨1 − 𝑰 ∆𝒚𝑡−1 − 𝚷𝒚𝑡−2 + 𝜺𝑡 𝑡 = 1,2, … , 𝑛
donde 𝚷 = 𝑰 − 𝑨1 − 𝑨2 .
59
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 Una reparametrización alternativa es (dedúzcala)

∆𝒚𝑡 = 𝒎 + 𝑨2 ∆𝒚𝑡−1 + 𝚷𝒚𝑡−1 + 𝜺𝑡


 Por tanto, en la formulación en primeras diferencias de un
sistema de segundo orden, habrá una primera diferencia
rezagada en el lado derecho.
 Los términos en niveles pueden estar rezagados uno o dos
períodos, dependiendo de la reparametrización usada.

60
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 De manera general, un modelo VAR(p)

𝒚𝑡 = 𝒎 + 𝑨1 𝒚𝑡−1 + 𝑨2 𝒚𝑡−2 + ⋯ + 𝑨𝑝 𝒚𝑡−𝑝 + 𝜺𝑡 𝑡 = 1,2, … , 𝑛 (4)


puede ser reparametrizado de la siguiente forma

∆𝒚𝑡 = 𝒎 + 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1 − 𝚷𝒚𝑡−1 + 𝜺𝑡 (5)


donde 𝑩𝑖 = − 𝑨𝑖+1 + ⋯ + 𝑨𝑝 y 𝚷 = 𝑰 − 𝑨1 − 𝑨2 − ⋯ − 𝑨𝑝 .
(Verificar)

61
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 El modelo (5) es llamado el modelo de Corrección de
Error Vectorial, y se denota por VECM(p-1).
 Los parámetros en las matrices 𝑩𝑖 , asociados a las
primeras diferencias rezagadas, son llamados
parámetros de corto plazo y 𝚷𝒚𝑡−1 es llamada la
componente de largo plazo.

62
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 También es posible obtener las matrices 𝑨𝑖 del modelo VAR(p)
usando las matrices de coeficientes 𝑩𝑖 del modelo VECM, puesto
que,
𝑨1 = 𝑩1 + 𝚷 + 𝑰, 𝑨𝑖 = 𝑩𝑖 − 𝑩𝑖−1 para 𝑖 = 1,2, … , 𝑝 − 1
y 𝑨𝑝 = −𝑩𝑝−1 . (Verificar)
 En general, se puede probar que el comportamiento del vector
𝒚𝑡 depende de los valores 𝜆 que son soluciones de la ecuación

𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑛𝑡𝑒 𝜆𝑝 𝑰 − 𝜆𝑝−1 𝑨1 − ⋯ − 𝜆𝑨𝑝−1 − 𝑨𝑝 = 0

63
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 Asumiendo que no hay raíces explosivas, se consideran tres
posibilidades:
 Caso 1. 𝑅𝑎𝑛𝑔𝑜(𝚷) = 𝑘. Si cada raíz 𝜆 tiene módulo menor que 1,
es decir, se encuentran dentro del círculo unidad, 𝚷 tendrá
rango completo, será invertible y todas las variables del vector
𝒚𝑡 serán 𝐼(0).
 En este caso la inferencia clásica es aplicable.
 La estimación de los modelos (4) y (5) produce resultados
equivalentes.
 En este caso no hay tendencias estocásticas.
64
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 Asumiendo que no hay raíces explosivas, se consideran tres
posibilidades:
 Caso 2. 𝑅𝑎𝑛𝑔𝑜(𝚷) = 𝑟 < 𝑘. Esta situación se presenta si hay una
raíz unitaria de multiplicidad 𝑘 − 𝑟 y las 𝑟 restantes tienen
módulo menor que 1.
 El vector 𝒚𝑡 será 𝐼(1) o de orden mayor, y la matriz 𝚷 puede ser
expresada como el producto externo de las matrices 𝜶 y 𝜷′ , es
decir
𝚷 = 𝜶𝜷′
donde 𝜶 y 𝜷 son de orden 𝑘𝑥𝑟 de rango 𝑟.
65
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 Asumiendo que no hay raíces explosivas, se consideran tres
posibilidades:
 En este caso se tienen 𝑟 relaciones de cointegración y 𝑘 − 𝑟
tendencias estocásticas comunes.
 𝜷′ contiene los vectores de cointegración y
𝜶 contiene los pesos con los cuales los vectores de
cointegración entran en la formulación del modelo de
corrección de error. 𝜶 es llamada la matriz de pesos.

66
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 Asumiendo que no hay raíces explosivas, se consideran tres
posibilidades:
 Las matrices 𝜶 y 𝜷′ no son únicas. En efecto, si 𝐷 es una matriz no
singular de 𝑟𝑥𝑟, entonces 𝚷 = 𝜶𝜷′ = 𝜶𝑫𝑫−1 𝜷′ = 𝜶𝑫 𝜷′ 𝑫′−1 ′ =
𝜶∗ 𝜷′∗ , donde 𝜶∗ = 𝜶𝑫 y 𝜷∗ = 𝜷′ 𝑫′−1 . Por tanto, 𝜷∗ también
contiene vectores de cointegración, y 𝜶∗ es la correspondiente
matriz de pesos.
 Esto indica que las relaciones de cointegración con contenido
económico no pueden ser obtenidas usando solamente las series
de tiempo económicas. Se necesita de alguna información no
muestral (teoría económica) para identificarlas de manera única.
67
Autorregresiones Vectoriales (VAR)

Sistemas de Alto Orden


 Asumiendo que no hay raíces explosivas, se consideran tres
posibilidades:
 Caso 3. 𝑅𝑎𝑛𝑔𝑜(𝚷) = 0. Este caso es bastante especial y ocurrirá
solamente si 𝑰 = 𝑨1 + 𝑨2 + ⋯ + 𝑨𝑝 , es decir, 𝚷 = 0 . De la
ecuación (5) se observa que en este caso el VAR debe ser
especificado únicamente en primeras diferencias. Es decir,

∆𝒚𝑡 = 𝒎 + 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1 + 𝜺𝑡


 Por tanto, si todas las variables son 𝐼(1) , ∆𝒚𝑡 tiene una
representación VAR(p-1) estable. Es decir, existe una
representación VAR estable para las primeras diferencias y no
68

para las variables en niveles.


Estimación de un Modelo VAR

 Para un modelo VAR(p)

𝒚𝑡 = 𝒎 + 𝑨1 𝒚𝑡−1 + 𝑨2 𝒚𝑡−2 + ⋯ + 𝑨𝑝 𝒚𝑡−𝑝 + 𝜺𝑡 (6)


el cual se reparametriza como

∆𝒚𝑡 = 𝒎 + 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1 − 𝚷𝒚𝑡−1 + 𝜺𝑡 (7)


existen dos aproximaciones para realizar la estimación del
VAR.
 La primera es la estimación directa del sistema de ecuaciones
dado por (6)
 La segunda es estimar el sistema reparametrizado (7). 69
Estimación de un Modelo VAR

 Las dos aproximaciones son equivalentes siempre y cuando los


módulos de todos los valores propios de la matriz 𝚷 sean
menores que 1 ó todas las raíces de 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑛𝑡𝑒൫𝜆𝑝 𝑰 − 𝜆𝑝−1 𝑨1 −
⋯ − 𝜆𝑨𝑝−1 − 𝑨𝑝 ൯ = 0 se encuentren dentro del círculo unidad
(CASO 1 anterior).
 La segunda aproximación, la cual es apropiada cuando las
variables 𝒚𝑡 no son estacionarias, consiste en determinar el
número 𝑟 de posibles vectores de cointegración y entonces
estimar a (7) con la matriz 𝚷 restringida a 𝑟 relaciones de
cointegración. Esta última aproximación será discutida más
adelante (CASO 2 anterior).

70
Estimación de un Modelo VAR

 Por ahora analizaremos la estimación no restringida de (6) o de


(7), es decir, en el Caso 1.
 Dado que en el lado derecho de la ecuación (6) o de la ecuación
(7), las variables en cada ecuación son las mismas, se puede
probar que la estimación eficiente de cada ecuación en el
sistema completo (en conjunto) se logra estimando por mínimos
cuadrados cada ecuación por separado (Leer Apéndice 9.1,
metodología SUR o Regresiones Aparentemente no Relacionadas
(Seemingly Unrelated Regressions)).
 Además, si adicionalmente se tuviera normalidad, ese
procedimiento proporciona también las estimaciones máximo
verosímiles. Esto último facilita el desarrollo de varias pruebas de
hipótesis importantes. 71
Estimación de un Modelo VAR

Prueba del orden de un VAR


 Supongamos que se ajusta un VAR de orden 𝑝1 y se desea probar
si el orden adecuado es 𝑝0 < 𝑝1 .
 Observe que la hipótesis nula está anidada dentro de la
hipótesis alternativa, es decir el modelo VAR( 𝑝1 ) contiene al
VAR(𝑝0 ) como un caso especial.
 En esta situación la prueba esta dada por el cociente de
verosimilitud.
 El valor máximo del logaritmo de la función de verosimilitud
cuando se ajusta un VAR(p) con 𝑘 variables está dado por
𝑛
෡ −1 , donde 𝛀
𝑙 = 𝑐 + ln 𝛀 ෡ −1 = 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑛𝑡𝑒 𝛀
෡ −1
2
72
Estimación de un Modelo VAR

Prueba del orden de un VAR


 El valor máximo del logaritmo de la función de verosimilitud
cuando se ajusta un VAR(p) con 𝑘 variables está dado por
𝑛
෡ −1 , donde 𝛀
𝑙 = 𝑐 + ln 𝛀 ෡ −1 = 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑛𝑡𝑒 𝛀
෡ −1
2
donde 𝛀෡ es la matriz de varianza y covarianzas de los
residuales de las ecuaciones del VAR(p) y 𝑐 es una constante.
 Cuando 𝑝0 rezagos son empleados, el logaritmo de la máxima
verosimilitud es
𝑛
෡ −1
𝑙0 = 𝑐 + ln 𝛀 0
2

73
Estimación de un Modelo VAR

Prueba del orden de un VAR


 Cuando 𝑝1 rezagos son empleados, el logaritmo de la máxima
verosimilitud está dado por
𝑛
𝑙1 = 𝑐 + ln 𝛀 ෡ 1−1
2
 El estadístico del cociente de la verosimilitud está dado por
෡ −1 ෡ −1 𝑎 2
𝐿𝑅 = −2 𝑙0 − 𝑙1 = 𝑛 ln 𝛀0 − ln 𝛀1 𝜒
~ (𝑞)
donde 𝑞 es el número de restricciones que se imponen en la
hipótesis nula.

74
Estimación de un Modelo VAR

Prueba del orden de un VAR


 Por ejemplo si se va a probar un VAR(3) contra un VAR(4) en un
modelo VAR bivariado (𝑘 = 2), dos variables son excluidas en cada
ecuación del VAR, por lo tanto 𝑞 = 4. En general 𝑞 = 𝑘 2 (𝑝1 − 𝑝0 ).
 Para la selección del orden del VAR también se suelen emplear
los criterios de información, tales como los criterios de Akaike
(AIC), Schwarz(SC) y Hannan-Quinn (HQ).
 Una vez se ha estimado el VAR, éste debe ser validado.
 Para ello se deben aplicar pruebas multivariadas de no
autocorrelación, homocedasticidad y normalidad.

75
Estimación de un Modelo VAR

Prueba de Causalidad de Granger


 En la formulación de un modelo VAR, en general, aparecen los
valores rezagados de todas las variables en cada ecuación del
VAR.
 Es común tratar de probar si una variable específica, o un
grupo de variables debería entrar en la determinación de las
otras variables.
 Supongamos que un VAR de dos variables es especificado como
𝑦1𝑡 𝑎11 0 𝑦1,𝑡−1 𝜀1𝑡
𝑦2𝑡 = 𝑎21 𝑎22 𝑦2,𝑡−1 + 𝜀2𝑡
 En esta situación el valor rezagado de 𝑦2 no entra en la
determinación de 𝑦1 . En este caso se dice que 𝑦2 no causa, en el
sentido de Granger a 𝑦1 .
76
Estimación de un Modelo VAR

Prueba de Causalidad de Granger


 La hipótesis de que 𝑦2 no causa a 𝑦1 puede ser probada
simplemente por ajustar la regresión de 𝑦1 sobre los valores
rezagados de 𝑦1 y de 𝑦2 y examinar si los coeficientes asociados a
los rezagos de 𝑦2 son significativamente diferentes de cero.
 De una manera más general, para probar si un grupo de variables no
causa en el sentido de Granger a otro grupo de variables se procede
de la siguiente forma.

77
Estimación de un Modelo VAR

Prueba de Causalidad de Granger


 Sea 𝒚 el vector que contiene los dos grupos de variables.
 Entonces 𝒚 puede ser particionado en dos subvectores: 𝑦1 de
orden 𝑘1 𝑥1 y 𝑦2 de orden 𝑘2 𝑥1.
 La hipótesis de que el bloque 𝑦2 no causa a 𝑦1 en el sentido de
Granger se puede probar estimando las primeras 𝑘1 ecuaciones
del VAR y luego analizando si los coeficientes asociados a los
rezagos del vector 𝑦2 difieren significativamente de cero.
 La prueba más simple es de nuevo un test del cociente de
verosimilitud, basado sobre las matrices de varianzas y
covarianzas de los residuales.
78
Estimación de un Modelo VAR

Pronósticos, Función de Impulso Respuesta y Descomposición de la


Varianza
 Uno de los principales objetivos de los modelos VAR es poder
obtener pronósticos de corto plazo.
 La aproximación VAR es ateórica en el sentido de que no se ha
empleado la teoría económica para la especificación explícita de
las ecuaciones que existen entre varios conjuntos de variables.
 Los modelos VAR se apoyan en la idea general de que las
variables económicas tienden a moverse juntas en el tiempo y
que además están autocorrelacionadas.

79
Estimación de un Modelo VAR

Pronósticos, Función de Impulso Respuesta y Descomposición de la


Varianza
 Supongamos que se han observado los vectores 𝒚1 , 𝒚2 , … , 𝒚𝑛 . El
desarrollo teórico de los pronósticos se hará suponiendo que se
conocen las verdaderas matrices de parámetros.
 Supongamos que 𝒚𝑡 sigue un VAR(1) y que se desea pronosticar
para los períodos 𝑛 + 1, 𝑛 + 2, … , con base en la información
𝒚1 , 𝒚2 , … , 𝒚𝑛 .
 El pronóstico óptimo para 𝒚𝑛+1 está dado por el valor esperado
de 𝒚𝑛+1 condicionado a la información hasta el período 𝑛, es
decir,
ෝ𝑛+1 = 𝐸 𝒚𝑛+1 |𝒚1 , 𝒚2 , … , 𝒚𝑛
𝒚
80
Estimación de un Modelo VAR

Pronósticos, Función de Impulso Respuesta y Descomposición de la


Varianza
ෝ𝑛+1 = 𝐸 𝒚𝑛+1 |𝒚1 , 𝒚2 , … , 𝒚𝑛 = 𝐸 𝑨𝒚𝑛 + 𝜺𝑛+1 |𝒚1 , 𝒚2 , … , 𝒚𝑛
𝒚
= 𝐸 𝑨𝒚𝑛 |𝒚1 , 𝒚2 , … , 𝒚𝑛 + 𝐸 𝜺𝑛+1 |𝒚1 , 𝒚2 , … , 𝒚𝑛
= 𝑨𝒚𝑛
donde 𝒚
ෝ𝑛+1 denota el pronóstico del vector 𝒚𝑛+1 . El vector usual
de constantes es omitido por simplicidad.
 Es fácil probar que
𝒚𝑛+2 = 𝑨2 𝒚𝑛 + 𝑨𝜺𝑛+1 + 𝜺𝑛+2
y de esta forma
ෝ𝑛+2 = 𝐸 𝒚𝑛+2 |𝒚1 , 𝒚2 , … , 𝒚𝑛 = 𝑨2 𝒚𝑛
𝒚
81
Estimación de un Modelo VAR

Pronósticos, Función de Impulso Respuesta y Descomposición de la


Varianza
 En general
𝒚𝑛+𝑠 = 𝑨𝑠 𝒚𝑛 + 𝑨𝑠−1 𝜺𝑛+1 + ⋯ + 𝑨𝜺𝑛+𝑠+1 + 𝜺𝑛+𝑠
luego
ෝ𝑛+𝑠 = 𝑨𝑠 𝒚𝑛
𝒚
 El vector de errores de pronóstico en el período 𝑛 + 𝑠 está dado
por
ෝ𝑛+𝑠 = 𝜺𝑛+𝑠 + 𝑨𝜺𝑛+𝑠+1 + ⋯ + 𝑨𝑠−1 𝜺𝑛+1
𝒆𝑠 = 𝒚𝑛+𝑠 − 𝒚
y por lo tanto la matriz de varianzas y covarianzas para el
error de pronóstico 𝑠 períodos adelante, denotada por 𝚺(𝑠),
está dada por 82
Estimación de un Modelo VAR

Pronósticos, Función de Impulso Respuesta y Descomposición de la


Varianza
y por lo tanto la matriz de varianzas y covarianzas para el error
de pronóstico 𝑠 períodos adelante, denotada por 𝚺(𝑠), está dada
por
𝚺 𝑠 = 𝐸 𝒆𝑠 𝒆′𝑠
= 𝐸 𝜺𝑛+𝑠 + 𝑨𝜺𝑛+𝑠+1 + ⋯ + 𝑨𝑠−1 𝜺𝑛+1 𝜺𝑛+𝑠 + 𝑨𝜺𝑛+𝑠+1 + ⋯ + 𝑨𝑠−1 𝜺𝑛+1 ′
de donde
𝚺 𝑠 = 𝜴 + 𝑨𝛀𝑨′ + 𝑨2 𝛀 𝑨′ 2 + ⋯ + 𝑨𝑠−1 𝛀 𝑨′ 𝑠−1

 Las expresiones anteriores son válidas para un proceso VAR(1) con


cualquier valor de 𝑘. Fórmulas similares pueden ser obtenidas para
un VAR(p) con 𝑝 > 1.
83
Estimación de un Modelo VAR

Pronósticos, Función de Impulso Respuesta y Descomposición de la


Varianza
 Es importante observar que estos resultados se obtuvieron con
base en las verdaderas matrices 𝑨 y 𝛀, lo que en la práctica no
se tienen.
 Por tanto, los pronósticos se obtienen empleando las
expresiones anteriores pero sustituyendo las matrices por sus
෡ , lo que introduce más incertidumbre en el
෡ y 𝛀
estimaciones 𝑨
pronóstico.
 Para esta situación el cálculo de la verdadera matriz de
varianzas y covarianzas del error de pronóstico se complica
bastante.
84
Estimación de un Modelo VAR

Función de impulso-respuesta
 Consideremos el VAR(1) con 𝑘 = 2 y 𝒎 = 𝟎 dado por

𝑦1𝑡 = 𝑎11 𝑦1,𝑡−1 + 𝑎12 𝑦2,𝑡−1 + 𝜀1𝑡


𝑦2𝑡 = 𝑎21 𝑦1,𝑡−1 + 𝑎22 𝑦2,𝑡−1 + 𝜀2𝑡
 La perturbación 𝜀1𝑡 tiene un efecto inmediato (contemporáneo)
y uno a uno sobre 𝑦1𝑡 , pero no afecta directamente a 𝑦2𝑡 .
 En el período 𝑡 + 1, 𝜀1𝑡 afecta a 𝑦1,𝑡+1 a través de la primera
ecuación y también afecta a 𝑦2,𝑡+1 a través de la segunda
ecuación.
 Un análisis similar se puede realizar en el período 𝑡 + 2.
85
Estimación de un Modelo VAR

Función de impulso-respuesta
 Por lo tanto una perturbación en las innovaciones en los
modelos VAR produce una reacción en cadena a través del
tiempo sobre todas las variables del VAR.
 La función de impulso–respuesta calcula todos estos
efectos.

86
Estimación de un Modelo VAR

Función de impulso-respuesta
 Ejemplo.
 Considere un sistema de primer orden definido por 𝒚𝑡 = 𝑨𝒚𝑡−1 +
𝜺𝑡 , donde 𝒎 = 𝟎 y
0.4 0.1 16 14
𝑨= 𝛀=
0.2 0.5 14 25
 Primero que todo, se chequea si los valores propios de 𝑨
satisfacen la condición de estacionaridad, debido a que tiene
poco interés estudiar las funciones de impulso respuesta en
sistemas no estacionarios.
 Los valores propios de 𝑨 son 𝜆1 = 0.6 y 𝜆2 = 0.3 , los cuales
satisfacen la condición de estacionaridad. 87
Estimación de un Modelo VAR

Función de impulso-respuesta
 Ejemplo.
 Sea 𝒚0 = 𝟎 y suponga que 𝜺1 = 4 0 ′ . Para el primer período
este vector asigna a la primera ecuación una innovación de
tamaño igual a su desviación estándar, y una innovación de cero
en la segunda.
 Adicionalmente suponga que las dos innovaciones son cero a partir
del período 2. Entonces, los primeros valores de 𝒚 están dados
por
4
𝒚1 =
0
0.4 0.1 4 0 1.6
𝒚2 = 𝑨𝒚1 + 𝜺2 = + =
0.2 0.5 0 0 0.8 88
0.72
𝒚3 = 𝑨𝒚1 =
0.72
Estimación de un Modelo VAR

Función de impulso-respuesta
 Ejemplo.
 Las siguientes tablas contienen las funciones impulso respuesta en
los primeros cinco períodos para una perturbación de una
desviación estándar en la primera ecuación y de una desviación
estándar en la segunda ecuación.

89
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Uno de los problemas que se presenta con el cálculo de la
función impulso-respuesta es que las innovaciones en el VAR
están en, general, contemporáneamente correlacionadas, por lo
tanto el que una innovación sufra un choque y la otra no, no es
posible.
 Es decir, si una innovación es perturbada, entonces las otras
también serán afectadas.
 Una solución a este problema es transformar las innovaciones
de tal forma que las nuevas innovaciones sean ortogonales.
También es usual definir, por conveniencia, que las nuevas
innovaciones tengan varianza unitaria.
90
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Considere el caso para 𝑘 = 2.
 Sea 𝒖 = 𝑢1 𝑢2 ′ el vector con las innovaciones ortogonales, y
sea 𝑢1 = 𝑏11 𝜀1 .
 Para que su varianza sea unitaria se debe dar que 𝑏11 = 1/𝑠1 ,
donde 𝑠1 es la desviación estándar muestral de 𝜀1 .
 Para obtener a 𝑢2 se sigue el siguiente procedimiento.
 Primero, se ajusta la regresión de 𝜀2 sobre 𝜀1 , es decir, obtenga
la regresión ajustada 𝜀2 = 𝑏21 𝜀1 + 𝑟𝑒𝑠.
 A continuación se obtienen los residuales 𝑢2∗ = 𝜀2 − 𝑏21 𝜀1 .

91
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Se sabe que estos residuales no están correlacionados con 𝜀1 y
por lo tanto tampoco con 𝑢1 .
 Denotando el error estándar de esta regresión por 𝑠2.1 se tiene
que 𝑢2 = 𝑢∗ /𝑠2.1 tendrá varianza unitaria y no estará
correlacionada con 𝑢1 .
 Esta transformación se resume de la siguiente forma

𝒖𝑡 = 𝑷𝜺𝑡 o 𝜺𝑡 = 𝑷−1 𝒖𝑡
donde 𝒖𝑡 = 𝑢1𝑡 𝑢2𝑡 ′ , 𝜺𝑡 = 𝜀1𝑡 𝜀2𝑡 ′ y donde la matriz 𝑷 es tal
que
92
Estimación de un Modelo VAR

Innovaciones Ortogonales

1/𝑠1 0 𝑠1 0
𝑷= 𝑷−1 =
−𝑏2.1 /𝑠2.1 1/𝑠2.1 𝑏2.1 𝑠1 𝑠2.1
 La matriz de varianzas y covarianzas muestral para las 𝑢’𝑠 será
1/𝑛 σ𝑛𝑡=1 𝑢𝑡 𝑢𝑡′ .
 Luego, como 𝒖𝑡 = 𝑷𝜺𝑡 se obtiene que

𝑛 𝑛
1 1

෍ 𝑢𝑡 𝑢𝑡 = 𝑷 ෡ ′
෍ 𝜺𝑡 𝜺′𝑡 𝑷′ = 𝑷𝛀𝑷
𝑛 𝑛
𝑡=1 𝑡=1

93
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Pero la matriz de varianzas y covarianzas muestral para las 𝒖’𝒔
es la identidad (tienen varianza 1 y no están correlacionadas),
por lo tanto
𝑷𝛀෡ 𝑷′ = 𝑰
y por tanto,
෡ = 𝑷−1 𝑷−1
𝛀 ′

 Esta igualdad ilustra la descomposición de Choleski, la cual afirma


que toda matriz definida positiva se puede factorizar como el
producto de una matriz triangular inferior y su transpuesta, la
cual es una triangular superior.
94
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Ejemplo.
 Continuando con el ejemplo numérico anterior, suponga que los
valores de las matrices 𝑨 y 𝛀 han sido estimados usando los datos.
෡ 16 14
 Entonces de la matriz 𝛀 = , donde
14 25
𝑠1 = 𝑑𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑑𝑒 𝜀1 = 16 = 4
14
𝑏21 = = 0.875
16
𝑠2.1 = 𝑠22 1 − 𝑟12
2
= 25 1 − 14 2 /(16)(25) = 3.5707
4 0
de donde 𝑷−1 =
3.5 3.5707 95
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Ejemplo.
 Suponga que definimos 𝒖1 = 1 0 ′ , es decir asignamos una
desviación estándar a la primera innovación ortogonal.
 Suponga además que todos los vectores siguientes 𝒖 son cero.
Entonces

4 0 1 4
𝜺1 =𝑷−1 𝒖1 = =
3.5 3.5707 0 3.5
 El segundo elemento de 𝜺1 ya no es cero. En efecto, es el valor
esperado de 𝜺21 dado que 𝜺11 = 4 (Verificar).
96
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Ejemplo.
 Los valores de 𝒚𝑡 pueden ser calculados como antes. Los primeros
valores se presentan en la siguiente tabla.

97
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Ejemplo.
 Comparados con el supuesto anterior de una desviación
estándar solamente sobre 𝜺11 , ahora ya hay un impacto
importante sobre 𝒚𝟐 en el primer período, seguido por impactos
notablemente mayores en los períodos posteriores.
 Si suponemos una perturbación de una desviación estándar sobre
la segunda innovación, entonces el vector 𝜺11 está dado por

4 0 0 0
𝜺1 = 𝑷−1 𝒖1 = =
3.5 3.5707 1 3.5707
98
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Ejemplo.
 Con esto, los sucesivos vectores 𝒚𝑡 pueden ser calculados de la
manera usual.
 Las innovaciones ortogonales fueron desarrolladas para
resolver el problema de las innovaciones correlacionadas
originales.
 Sin embargo, la solución de un problema crea otro.
 El nuevo problema es que el orden en el cual las variables de 𝜺
son ortogonalizadas puede tener efectos dramáticos sobre los
resultados numéricos.
99
Estimación de un Modelo VAR

Innovaciones Ortogonales
 Ejemplo.
 La interpretación de las funciones impulso respuesta es una
operación algo riesgosa y ha tenido un intenso debate sobre su
posible significado económico.
 Pesaran and Shin (1998) proponen un conjunto de innovaciones
ortogonales que no dependen del orden del VAR. Su análisis es
denominado la función de impulso-respuesta generalizada.

100
Estimación de un Modelo VAR

Descomposición de la Varianza del error de pronóstico


 Recuerde que la matriz de varianzas y covarianzas para los
errores de los pronósticos de horizonte 𝑠 de un VAR(1) es

𝚺 𝑠 = 𝛀 + 𝑨𝛀𝑨′ + 𝑨2 𝛀 𝑨′ 2 + ⋯ + 𝑨𝑠−1 𝛀 𝑨′ 𝑠−1

 Para el caso de los pronósticos 𝟏 paso adelante (es decir, 𝑠 = 1),


la matriz de interés es simplemente 𝚺 1 = 𝛀 = Var 𝜺 .

101
Estimación de un Modelo VAR

Descomposición de la Varianza del error de pronóstico


 Considere que se quiere expresar la varianza de los errores de los
pronósticos en términos de la varianza de las innovaciones
ortogonales.
 Continuando con el VAR(1) y 𝑘 = 2, puesto que

𝜺𝑡 = 𝑷−1 𝒖𝑡
entonces
𝑉𝑎𝑟 𝑒1 = 𝚺 1 = 𝛀 = Var 𝜺 = 𝑉𝑎𝑟 𝑷−1 𝒖𝑡 = 𝑷−1 𝑉𝑎𝑟 𝒖𝑡 𝑷−1 ′
𝑐11 𝑐12 𝑣1 0 𝑐11 𝑐21
= 𝑐
21 𝑐22 0 𝑣2 𝑐12 𝑐22
donde las 𝑐’s son los elementos de la matriz 𝑷−1 y 𝑣𝑖 = 𝑉𝑎𝑟 𝑢𝑖 = 1,
102

para 𝑖 = 1,2.
Estimación de un Modelo VAR

Descomposición de la Varianza del error de pronóstico


 Puesto que 𝑐12 = 0, se obtiene
2 2 2 2 2 2 2
𝑉𝑎𝑟 𝑒11 = 𝑐11 𝑣1 + 𝑐12 𝑣2 = 𝑐11 y 𝑉𝑎𝑟 𝑒21 = 𝑐21 𝑣1 + 𝑐22 𝑣2 = 𝑐21 + 𝑐22
 Por lo tanto:
 la varianza del error del pronóstico 𝑦ො11 es solamente atribuida
a la primera innovación ortogonal.
 La varianza del error del pronóstico 𝑦ො21 es la suma de dos
2 2 2
componentes. La proporción 𝑐21 /(𝑐21 + 𝑐22 ) está asociada a la
2 2
primera innovación ortogonal, y la proporción restante, 𝑐22 /(𝑐21 +
2
𝑐22 ) está relacionada con la segunda innovación ortogonal.
 Este resultado es la descomposición de la varianza del pronóstico.
103
Estimación de un Modelo VAR

Descomposición de la Varianza del error de pronóstico


 Para los pronósticos de dos o más períodos adelante se tiene
que
𝚺 𝑠 = 𝛀 + 𝑨𝛀𝑨′ + 𝑨2 𝛀 𝑨′ 2 + ⋯ + 𝑨𝑠−1 𝛀 𝑨′ 𝑠−1
= 𝑷−1 𝑷−1 ′ + 𝑨𝑷−1 𝑨𝑷−1 ′ + ⋯ + (𝑨𝑠−1 𝑷−1 ) 𝑨𝑠−1 𝑷−1 ′
 Con base en esta igualdad se podría obtener la descomposición
de la varianza para los pronósticos.
 Como en el caso de la función impulso-respuesta, la
descomposición numérica de la varianza del error de pronóstico
es sensible al orden en el cual las innovaciones originales son
ortogonalizadas. Por lo tanto se debe tener cuidado en la
interpretación tanto de la función de respuesta al impulso como
con la descomposición de la varianza. 104
Modelos Vectoriales de Corrección de Error

 Cuando las variables del VAR son integradas de orden 1 o


más, la estimación sin restricción, como se describió
anteriormente, está sometida a los riesgos de las
variables no estacionarias.
 Sin embargo, la presencia de variables no estacionarias
permite la posibilidad de que existan relaciones de
cointegración. En este caso, el procedimiento a seguir
consta de las siguientes tres etapas.

105
Modelos Vectoriales de Corrección de Error

1. Determine el rango de cointegración, esto es el número de


relaciones de cointegración.
2. Estime la matriz de vectores de cointegración 𝜷, y la matriz
asociada de pesos 𝜶. En este paso se obtiene la factorización
𝚷 = 𝜶𝜷′ .
3. Estime el VAR incorporando las relaciones de cointegración
detectadas en la etapa anterior.

 Existen varios métodos para desarrollar el procedimiento anterior


sin embargo, la estimación máximo verosímil desarrollada por
Johansen (1988), es la que ha tenido mayor acogida.
106
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 Hay dos estadísticos para probar la hipótesis de que el rango de
cointegración es a lo más 𝑟 (𝑟 < 𝑘).
 En uno de los casos, la hipótesis alternativa es que el rango
es al menos 𝑟 + 1 , y el estadístico es conocido como el
estadístico de la traza.
 En el segundo caso, la hipótesis alternativa es que el rango
es 𝑟 + 1. El estadístico es llamado el estadístico max.
 Algunos casos pueden no tener solución si los estadísticos dan
indicaciones contradictorias.
 Las distribuciones de los estadísticos de prueba son no estándar
y los valores críticos son obtenidos por simulación. 107
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 Hay cinco tablas de valores críticos, y es importante
seleccionar la correcta en cualquier aplicación práctica.
 Las tablas difieren de acuerdo a las posibles especificaciones del
VAR con respecto a la inclusión de las componentes exógenas de
intercepto y tendencia tanto en las ecuaciones del VAR como en
las ecuaciones cointegrantes.
 Para realizar la prueba del rango de cointegración es necesario
escoger de las cinco especificaciones posibles una que sea la
más adecuada para los datos que se están utilizando.
 También se debe especificar el número de rezagos que se deben
incluir en el VAR. 108
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 Es importante tener en cuenta:
 que una constante (una deriva) en cada ecuación en primeras
diferencias implica que los datos en niveles tendrían
tendencia lineal.
 que una tendencia lineal en cada ecuación en primeras
diferencias implica que los datos en niveles tendrían
tendencia cuadrática.
 es posible que en la relación de cointegración (relación a largo
plazo) se presente una constante y/o una tendencia
determinística.
109
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 En general se tienen cinco posibilidades para desarrollar la prueba.
 Los casos 1 (series con medias cero) y 5 (tendencia cuadrática
en las series en niveles) poco se presentan en la práctica.
 Los correspondientes modelos de corrección de error que se
proponen son:
1. El nivel de los datos no tiene tendencia determinística y la
relación de cointegración no tiene intercepto

∆𝒚𝑡 = 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1 + 𝜶𝜷′ 𝒚𝑡−1 + 𝜺𝑡

110
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


2. El nivel de los datos no tiene tendencia determinística y la
relación de cointegración tiene intercepto

∆𝒚𝑡 = 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1 + 𝜶 𝜷′ 𝒚𝑡−1 − 𝜸 + 𝜺𝑡


3. El nivel de los datos tiene tendencia lineal y la relación de
cointegración tiene únicamente intercepto

∆𝒚𝑡
= 𝜸1 + 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1 + 𝜶 𝜷′ 𝒚𝑡−1 − 𝜸2 + 𝜺𝑡

111
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


4. El nivel de los datos y la relación de cointegración tienen
tendencia lineal
∆𝒚𝑡
= 𝜸1 + 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1 + 𝜶 𝜷′ 𝒚𝑡−1 − 𝜸2 − 𝜹𝑡
+ 𝜺𝑡

5. El nivel de los datos tiene tendencia cuadrática y la relación


de cointegración tienen tendencia lineal
∆𝒚𝑡
= 𝜸1 + 𝜹1 𝑡 + 𝑩1 ∆𝒚𝑡−1 + 𝑩2 ∆𝒚𝑡−2 + ⋯ + 𝑩𝑝−1 ∆𝒚𝑡−𝑝+1
+ 𝜶 𝜷′ 𝒚𝑡−1 − 𝜸2 − 𝜹2 𝑡 + 𝜺𝑡
112
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 La prueba del rango de Cointegración usando el estadístico de
la traza
 La prueba más empleada está basada en el estadístico de la traza.
Es una prueba secuencial desde 𝑟 = 0 hasta 𝑟 = 𝑘 − 1.
 Se realiza de la siguiente forma.
 𝐻0 : 𝑟 = 0 vs 𝐻1 : 𝑟 ≥ 1 (bajo 𝐻0 no existe relación de
cointegración y bajo 𝐻1 , existe al menos una relación de
cointegración).
 Si 𝐻0 no se rechaza no se tienen relaciones de cointegración y el
modelo se debe ajustar en primeras diferencias, en caso
contrario la prueba continúa. 113
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 La prueba del rango de Cointegración usando el estadístico de
la traza
 𝐻0 : 𝑟 = 1 vs 𝐻1 : 𝑟 ≥ 2 (bajo 𝐻0 existe una relación de
cointegración y bajo 𝐻1 existe al menos dos relaciones de
cointegración).
 Si 𝐻0 no se rechaza se concluye que se tiene una relación de
cointegración, es decir el rango de 𝚷 es 1 y se debe estimar un
modelo de corrección de error restringido a una relación de
cointegración.
 En caso contrario se continúa de manera secuencial
114
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 La prueba del rango de Cointegración usando el estadístico de
la traza
𝐻0 : 𝑟 = 𝑠 vs 𝐻1 : 𝑟 ≥ 𝑠 + 1 𝑠 = 2, … , 𝑘 − 1
 El proceso continúa hasta que no se rechace 𝐻0 ó se concluya
que 𝑟 = 𝑘.
 En este último caso se tendría que las variables son
estacionarias y el modelo VAR se estima en niveles.

115
Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 La prueba del rango de Cointegración usando el estadístico de
la traza
 Asumiendo que los valores propios 𝜆1 , 𝜆2 , … , 𝜆𝑘 , asociados a la
matriz 𝚷 estimada por el proceso de estimación máximo verosímil,
están ordenados de mayor a menor, el Estadístico de la Traza
condicionado a que existen 𝑟 relaciones de cointegración, está dado
por
𝑘

𝐿𝑅𝑡𝑟 = −𝑛 ෍ ln 1 − 𝜆𝑖
𝑖=𝑟+1
 Los valores críticos de la prueba, son entregados por el
programa. Se rechaza 𝐻0 cuando el valor observado del 116

estadístico es mayor que el valor crítico seleccionado.


Modelos Vectoriales de Corrección de Error

Prueba del rango de Cointegración


 La prueba del rango de Cointegración usando el estadístico
Max.
 También es muy empleado el estadístico del máximo valor
propio, definido como
𝐿𝑅𝑚𝑎𝑥 = −𝑛𝑙𝑛(1 − 𝜆𝑟+1 )
 Para esta situación se prueba la hipótesis nula de que hay 𝑟
relaciones de cointegración contra la hipótesis alternativa que
de hay 𝑟 + 1. Se rechaza 𝐻0 cuando el valor observado del
estadístico es mayor que el valor crítico seleccionado.
 Para desarrollar estas pruebas de cointegración se le debe informar
al software el número de rezagos y, como se dijo antes, si se
117
introducen o no constantes y/o tendencias determinísticas.

También podría gustarte