Está en la página 1de 26

LA METODOLOGÍA DE

VECTORES
AUTORREGRESIVOS
(VAR)
ESPECIFICACION
La metodología VAR es, en cierta forma, una
respuesta a la imposición de restricciones a priori
que caracteriza a los modelos econométricos
keynesianos: en un sistema de ecuaciones
simultáneas se requiere imponer restricciones sobre
los parámetros de las mismas para garantizar la
identificación, y posible estimación, de las
ecuaciones que lo conforman. Para ello, además, es
indispensable diferenciar entre las variables
endógenas y las predeterminadas, es decir, aquéllas
cuyos valores no son determinados por el modelo en
el período actual. Estas últimas pueden ser
exógenas o endógenas rezagadas.
El VAR presenta alternativamente, un sistema de
ecuaciones simultáneas en el que cada una de las
variables son explicadas por sus propios rezagos y
los del resto de variables del sistema. Es decir, no se
admiten restricciones a priori y todas las variables
son consideradas endógenas. La única información a
priori que se incluye está referida al número de
rezagos de las variables explicativas, que se
incorporan en cada ecuación a partir del análisis de
la data. No obstante, en términos operativos, una
correcta especificación del sistema requiere que la
determinación de las variables a ser incluidas en él
se base en el conocimiento de un modelo teórico
relevante.
Un VAR tiene, en general, la siguiente especificación:
p
y t = ∑ Π i y t −i + µ t (1)
i =1
donde yt é yt-i son vectores de orden m (m es el número
de variables del sistema) y Πi es la matriz (cuadrada de
orden m) de coeficientes del rezago i de las variables
explicativas de las m ecuaciones. De esta forma, se
puede observar que deberán estimarse tantas matrices
Πi como rezagos se incluyan en el sistema.
Matricialmente, y utilizando una especificación de
operadores de rezago:
 y1t   a11( L ) a12( L ) L a1m( L )   y1t   µ 1t 
 y  a O a 2 m( L )   y 2 t   µ 2 t 
 2 t  =  21( L )   +   (2)
 M   M M  M   M 
      
 y mt  a m1( L ) L a mm( L )   y mt   µ mt 
En este sistema:
(3) [ ]
E µ t µ' t - j = 0 ∀j ≠ 0

(4) E [µ t µ' t ] = ∑
es decir, no se tiene autocorrelación entre los
errores de una misma ecuación pero se
observa correlación contemporánea entre los
errores de las diferentes ecuaciones.
Veamos, por ejemplo, el caso de un VAR(1)
con dos variables, de la forma:
y t = β 10 − γ 12 z t + β 11 y t -1 + β 12 z t -1 + ε yt
(5)
z t = β 20 − γ 21 y t + β 21 y t -1 + β 22 z t -1 + ε zt
donde yt y zt son variables endógenas
estacionarias, εyt y εzt son ruidos blancos y
no están correlacionados entre sí. La
ecuación (5) sería entonces la forma
estructural del sistema ya que se tienen
endógenas como explicativas. Si se quiere
obtener la forma reducida, es decir, expresar
la endógenas en función sólo de
predeterminadas (rezagos de las
endógenas), se debe resolver:
 1 γ 12   y t   β10   β11 β12   y t -1  ε yt 
γ    =  +    +   (6)
 21 1   z t   β 20   β 21 β 22   z t -1  ε zt 

lo que se puede rescribir en términos


vectoriales como:
ΓX t = B 0 + B1X t -1 + ε t
siendo Xt un vector que contiene a yt y zt
−1 −1 −1
X t = Γ B 0 + Γ B1X t -1 + Γ ε t
X t = A 0 + A1X t -1 + et (7)

es decir:
y t = a10 + a11 y t -1 + a12 z t -1 + e1t
(8)
z t = a 20 + a 21 y t -1 + a 22 z t -1 + e2t
La ecuación 8 es la forma reducida del VAR(1) de
la ecuación 5. En ella los errores sí están
correlacionados debido a que recogen la
presencia de yt y zt como explicativas del VAR
original. Así:
 1 − γ 12 
Γ −1 = ∆ ∆
(9)
− γ 21 1 
 ∆ ∆ 

donde ∆ = 1 − γ 12γ 21 y,
 ε yt − γ 12ε zt 
 
−1
Γ ε t = et =  ∆  (10)
- ε
 yt 21γ + ε zt 
 ∆ 

ε yt 
ya que ε t =  
ε zt 
 − ε yt
2
γ 21 + ε yt ε zt + γ 21γ 12ε yt ε zt − γ 12ε zt2 
(
Ε e yt ezt ) = E  (11)
 ∆ 2


− γ 21σ y2 − γ 12σ z2
(
Ε e yt ezt = ) ≠0 (12)
∆2
La ecuación anterior no va a ser cero
siempre que:
γ 21 ≠ 0, γ 12 ≠ 0
es decir, mientras que yt y zt estén presentes
en la forma estructural del VAR.
ESTIMACION
Trabajando en general con un VAR(p) de la
forma:
X t = A 0 + A 1 X t -1 + A 2 X t - 2 + K + A p X t - p + e t (13)
se puede observar que:
1º Se tiene un problema de sobreparametrización:
hay que estimar m2 p + m parámetros, lo que
produce un grave problema de pérdida de grados
de libertad. No obstante, el objetivo de un VAR es
encontrar la interrelación entre las variables y no
realizar predicciones de corto plazo, lo que reduce
la importancia del problema.
2º Dado que se trabaja con la
forma reducida, los errores de cada
ecuación no están autocorrelacionados y
tienen varianza constante, el mejor
método de estimación es aplicar MCO
ecuación por ecuación. No obstante,
para que sea un estimador eficiente
todas las ecuaciones deben tener igual
número de rezagos de cada explicativa.
En términos prácticos se recomienda utilizar
la siguiente receta:
1º Limpiar cada una de las series de
cualquier tipo de no estacionariedad. Es
decir: aplicar el ploteo, correlograma (AC y
PAC), DFA y el Test de Zivot y Andrews (Test
de quiebre estructural).
El Test de Zivot y Andrews determina en
que periodo se debe agregar una variable
dummy para corregir el quiebre que puede
ser en: intercepto, tendencia o ambos.
Este Test considera tres modelos:
MODELO A: Quiebre con intercepto.
Yt = β 0 + β1 Du + ε t
MODELO B: Quiebre en tendencia.

Yt = β 0 + β1t + β 2t * Du + ε t
MODELO C: Quiebre en ambos.
Yt = β 0 + β1 Du + β 2t + β 3t * Du + ε t
2º Estimar por MCO cada ecuación, individualmente.
3º Determinar el número de rezagos de las variables
explicativas que deben permanecer en cada
ecuación. Para ello se sugieren dos tipos de test:
* El test F por bloques, para probar la hipótesis nula
de que un número i de rezagos deben incluirse
como explicativas en cada ecuación, versus la
alternativa de que dicho número es i+r>i. Este test
tiene el problema de que debe ser aplicado
individualmente a cada ecuación, pudiendo llegarse
a la conclusión de que el número de rezagos a
incluirse en ellas es diferente en cada caso. Esto le
restaría eficiencia al estimador de MCO.
• El Test de Máxima Verosimilitud (Likelihood
Ratio Statistic - LR) para el conjunto de
ecuaciones. Nos sirve para determinar el
número de rezagos óptimo de un VAR, SIMS
(1980).
• La hipótesis nula de este test es que el
sistema tiene un número i de rezagos versus
la alternativa de que este número es i+r. El
estadístico sería:
(T − c) * [log Σ i − log Σ i + r ] ≈ χ q2 (14)
donde:
log |Σ a | = logaritmo natural del determinante
de la matriz de varianzas y covarianzas para
el modelo con “a” rezagos.
T = número de observaciones.
c = número de parámetros estimados en
cada ecuación del sistema no restringido. Es
decir: c = m(r+i).
q = grados de libertad, número de
restricciones en todo el modelo. Es decir:
q = m2 r.
Este test se distribuye χ2 con grados de
libertad igual al número de restricciones en el
sistema (q=m2r). Este test tiene poco poder
para rechazar test sucesivos de restricción
de rezagos; por ello el rezago referencial
debe ser el de mayor valor en el sistema, es
decir, cualquier hipótesis nula debe ser
contrastada contra el rezago (i+r).
Si se acepta la hipótesis nula (H0),
procedemos a verificar con un rezago menor.
4º No se debe utilizar el test t ni dar
importancia a los signos de los coeficientes,
ya que existe una gran multicolinealidad
entre las variables de cada ecuación. La
magnitud de los coeficientes es un indicador
relativo de la significancia de la variable (un
coeficiente pequeño generalmente
acompaña a una variable poco significativa).
Función Impulso-respuesta
Esta función es simplemente la
representación de medias móviles asociada
con el modelo estimado y explica la respuesta
del sistema a shocks en los componentes del
vector de perturbaciones.
La función impulso-respuesta traza la
respuesta de las variables endógenas en el
sistema ante un shock en los errores. Un
cambio en e1 cambiaría inmediatamente el valor
de Y . Ello además cambiaría todos los valores
futuros de las demás variables endógenas del
sistema, debido a la estructura dinámica del
sistema.
En una función impulso-respuesta, separa los
determinantes de las variables endógenas dentro de los
shocks o identifica innovaciones con variables
específicas. Entonces, traza el efecto corriente y
valores futuros de las variables endógenas ante un
“shock” de una desviación estándar a las innovaciones
(variables estocásticas).
Si todos los componentes estocásticos de
nuestro sistema VAR son incorrelativos, la
interpretación es directa, e1 es la innovación Y , e2 es la
innovación X, y así sucesivamente. Una función
impulso-respuesta para e2 mide el efecto de una
desviación estándar ante un shock en X actual y futuro
para las variables endógenas.
Por desgracia, este no es casi nunca el caso
pues los errores son totalmente incorrelativos. Cuando
los errores se correlacionan, ellos tienen un
componente común el cual no puede ser identificado
con cualquier variable específica. Un método algo
arbitrario de negociación con este problema es atribuir
todo el efecto a cualquier componente común a la
variable, aquel que venga primero en el sistema VAR.
En nuestro sistema, el componente común de e1 y e2 es
totalmente atribuido a e1, porque e1 precede a e2; e1 es
la innovación Y y e2 es la innovación X transformado o
removido el componente común.
Más técnicamente los errores son
ortogonalizados por una descomposición Choleski, así
la matriz de covarianza resultante es triangular inferior
(los elementos por encima de la diagonal principal son
cero).
La descomposición Choleski es extensamente
usada, es un método un poco arbitrario de atribución de
efectos comunes. Cambiando el orden de las
ecuaciones, se puede cambiar dramáticamente las
funciones impulso-respuesta, hay que tener cuidado
con las interpretaciones de estas funciones.
Descomposición de la Varianza del
error de predicción.
La descomposición de la varianza de un VAR
brinda información acerca de la potencia relativa de
innovaciones aleatorias para cada variable endógena.
Este ejercicio consiste en descomponer la varianza de
las variables endógenas en componentes que permitan
aislar el porcentaje de variabilidad de una endógena
explicado por una de las innovaciones para distintos
horizontes predictivos. Tal descomposición se obtiene
luego de “ortogonalizar” el vector de perturbaciones,
que consiste en distribuir la responsabilidad de las
correlaciones reflejadas en la matriz de covarianza
entre los distintos componentes del vector de
perturbaciones.
La intensión al hacer explícita esta conexión
entre el modelo originalmente estimado y el obtenido,
es clarificar que el modelo obtenido una vez realizada
la ortogonalización, no es una forma reducida, sino una
forma estructural; y que por tanto, el proceso de
ortogonalización es de hecho una forma de
identificación.
De esta manera se pueden calcular las
contribuciones de las innovaciones sobre el error de
predicción del período siguiente. Es de esperar que en
el corto plazo la propia innovación explique la mayor
proporción de este error.

También podría gustarte