Está en la página 1de 82

Part III

Series de Tiempo
115
Chapter 7
Modelos Univariados
7.1 Martingalas y Caminos Aleatorios
Para comenzar esta seccin hay que denir dos conceptos: Martingala y
Camino Aleatorio.
Una martingala es un proceso estocstico, supongamos {P
t
} que satisface
una propiedad fundamental:
E[P
t+1
| P
t
, P
t1,...
] = P
t
o puesto de otro modo:
E[P
t+1
P
t
| P
t
, P
t1,...
] = 0
Es decir la mejor prediccin del precio de un activo maana es el precio
que este tiene hoy da, y no impone ningn condicionamiento al proceso que
representa el riesgo del activo.
Tampoco quiere decir que aquel activo que obedezca a esta condicin
reeja cierta racionalidad de parte del mercado. Ha sido demostrado que la
propiedad de la martingala no es una condicin necesaria ni suciente para
que los precios de activos sean determinados racionalmente (Lucas, Robert
(1978), "Asset Prices in an Exchange Economy", ECONOMETRICA).
Para demostrar este punto repliquemos el argumento de Lucas. Si asum-
imos un activo y un agente representativo que optimiza sus decisiones de
consumo de manera de maximizar su nivel de bienestar, podemos represen-
117
118 CHAPTER 7 MODELOS UNIVARIADOS
tar este problema por:
MaxE
0

P
t=0

t
u(c
t
)
sujeto a :
a
t+1
= R
t
(y
t
+a
t
c
t
)
donde a es la riqueza del individuo, c representa el nivel de consumo, y la
dotacin de produccin, R la tasa de retorno bruta de su ahorro, y el factor
de descuento subjetivo.
Si asumimos una economa simple donde la riqueza nanciera se dene
con la dotacin y retornos de acciones que se posee de una nica rma,
es decir a = (p +d) s donde d es el dividendo y s es el nmero de ac-
ciones que se poseen, y adems por simplicidad asumimos que y = 0, en-
tonces la restriccin presupuestaria del agente se debiera reescribir como:
c
t
+ p
t
s
t+1
= (p
t
+d
t
) s
t
. Asumiendo adems que el precio depende del
estado de dividendos d
t
y que este vector de dividendos sigue un proceso
markoviano de primer orden cuya funcin de transicin se dene por:
F (d
0
, d) =
d
0
R
0
f (s, d) ds = Pr [d
t+1
d
0
| d
t
= d]
entonces podemos escribir la ecuacin de Bellman como:
v (s (p (d) +d)) = Max
c,s
0

u(c) +
R
v (s
0
(p (d
0
) +d
0
)) F (d
0
, d)

s.a.
c +ps
0
= (p +d) s
Sabemos que de la condicin necesaria de primer orden y de la condicin
(teorema) de Benveniste-Scheinkman se llega a que el proceso que deter-
mina la evolucin de los precios corresponde a (imponiendo la condicin de
equilibrio competitivo que c = d):
u
0
(d) p (d) =
R
u
0
(d
0
) [p (d
0
) +d
0
] F (d
0
, d)
lo cual indica que los precios estn en equilibrio y reejan toda la informacin
disponible. De esta ltima expresin es fcil vericar que la condicin de
martingala no se presenta en los precios del activo bajo anlisis. De existir
esta sera sobre la serie u
0
(d) p (d), pues al calcular el valor esperado de
7.1 MARTINGALAS Y CAMINOS ALEATORIOS 119
u
0
(d
0
) (p (d
0
) +d
0
)u
0
(d) p (d), esta sera cero, tal como predice la condicin
de la martingala.
Cabe destacar que para que se d la condicin de martingala para el nivel
de precios (corregidos por dividendos), es decir que se verique:
p (d) =
R
[p (d
0
) +d
0
] F (d
0
, d)
se requerira que u
0
(d) no cambie mucho con el nivel de dividendos (i.e. neu-
tralidad al riesgo, lo cual implica u
0
(d) = u
0
(d
0
)), pero igualmente habra
que corregir por el factor de descuento .
Una hiptesis ms testeable empricamente es la de camino aleatorio.
Esta caracterstica impondr cierta estructura sobre los residuos poblacionales
de la siguiente expresin, donde es lo que se conoce como drift:
P
t
= +P
t1
+
t

t
IID

0,
2

Si analizamos recursivamente esta expresin entonces podemos encontrar


cul es la relacin intertemporal del precio del activo en relacin al precio
inicial P
0
de este:
P
t
= +P
t1
+
t
P
t
= + ( +P
t2
+
t1
) +
t
= 2 +P
t2
+
t1
+
t
P
t
= + + ( +P
t3
+
t2
) +
t1
+
t
= 3 +P
t3
+
t2
+
t1
+
t
...
P
t
= P
0
+t +
j=t
P
j=1

j
Si a esta ltima expresin calculamos su valor esperado y su varianza llegamos
a dos expresiones lineales al tiempo t:
E[P
t
| P
0
] = P
0
+t
V [P
t
| P
0
] =
2
t
Con esta representacin podemos decir que si el residuo se distribuye idn-
tica e independientemente como una normal, es decir
t
IID
N (0,
2
), en-
tonces el proceso generador de datos para el precio del activo se denominar
Movimiento Browniano Aritmtico:
P
t
= +P
t1
+
t
120 CHAPTER 7 MODELOS UNIVARIADOS
El problema que surge al asumir una funcin de distribucin normal, es
que los precios pueden tomar valores negativos con probabilidad mayor que
cero, es decir Pr [P < 0] > 0, lo cual ciertamente es no es factible u observable
empricamente.
La correccin que se utiliza es asumir que este residuo posee una distribu-
cin lognormal, o lo que es lo mismo, asumir que este movimiento Browniano
se d para el logaritmo del precio del activo en lugar del nivel absoluto de
este. Este solo hecho hace que ahora los retornos, calculados como por la
diferencia del logaritmo (aproximacin), se distribuyan como una distribu-
cin normal, lo cual si puede ser factible empriamente. Este proceso se
denominar Movimiento Browniano Geomtrico:
lnP
t
= + lnP
t1
+
t
r
t
lnP
t
ln P
t1
r
t
= ln

P
t
P
t1

r
t
= +
t

t
IID
N

0,
2

Este captulo evala las alternativas metodolgicas para testear distintos


grados de eciencia de mercado, es decir presenta tests de independencia y
aleatoriedad desde distintos puntos de vista economtrico.
7.2 Independencia y Caminos Aleatorios
7.2.1 Test de Independencia: BDS
El test de Brock, Dechert y Scheinkman (BDS) permite evaluar la depen-
dencia temporal de una serie, y sirve para testear hiptesis alternativas de
dependencia lineal, no-lineal, o dependencia catica. Este test puede ser apli-
cado a series de residuos estimados para evaluar si estos son independientes
e idnticamente distribuidos (iid). Por ejemplo los residuos de un modelo de
series de tiempo ARIMA(p,d,q) pueden ser utilizados para evaluar si existe
alguna dependencia no lineal en la serie despus de que el modelo ha sido
estimado.
Para generar el test se debe escoger una distancia > 0. Posteriormente
se consideran un par de puntos. Si las observaciones de la series son ver-
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 121
daderamente iid, entonces, para cualquier par de puntos la probabilidad de
que la distancia entre estos sea menor o igual a ser constante. Denamos
a esta probabilidad c
1
().
Empricamente se consideran mltiples pares de puntos, movindonos
consecutivamente a lo largo de las observaciones, de manera que dada una
observacin s, y una observacin t de una serie y, podamos construir un
conjunto de pares de la forma:
{{y
s
, y
t
} , {y
s+1
, y
t+1
} , {y
s+2
, y
t+2
} , {y
s+3
, y
t+3
} , ..., {y
s+m1
, y
t+m1
}}
donde m es el nmero de puntos consecutivos a ser utilizados en el conjunto
(embedding dimension). Denotamos la probabilidad conjunta de todos los
pares de puntos en el set satisfaciendo la condicin de por la probabilidad
c
m
().
El test BDS procede considerando que bajo el supuesto de independencia,
esta probabilidad ser la simple multiplicacin de las probabilidades individ-
uales (marginales) de cada par de puntos, es decir que si las observaciones
son independientes se observar:
c
m
() = c
1
()
m
Empricamente calculamos estimadores para estas probabilidades, vericn-
dose la existencia de un error de estimacin, de manera que esta relacin no
se observara exactamente incluso de ser las series iid. Mientras ms grande
es el error, menos probable es que el error sea causado por una variacin
muestral aleatoria.
Para estimar la probabilidad de una dimensin particular, generamos
todos los posibles sets de este largo que puedan ser generados de la muestra
y se cuenta el nmero de conjuntos que satisfacen la condicin de . La razn
entre el nmero de conjuntos que satisfacen la condicin versus el total de
conjuntos considerados provee de una estimacin de esta probabilidad.
Dada una muestra de T observaciones para una serie y, esta probabilidad
se puede calcular por (llamada tambin integrales de correlacin):
c
m,T
() =
2
(T m+ 1) (T m)
Tm+1
X
s=1
Tm+1
X
t=s+1

m1
j=0
I

(y
s+j
, y
t+j
)
donde I

es una funcin indicadora:


I

(y
s+j
, y
t+j
) =
_
_
1 , |y
s+j
y
t+j
|
0 , en otro caso
_
_
122 CHAPTER 7 MODELOS UNIVARIADOS
Luego podemos utilizar estos estimadores muestrales para construir un test
de independencia:
b
m,T
() = c
m,T
() c
1,Tm+1
()
m
Bajo el supuesto de independencia, se esperara que este indicador sea cercano
a cero, de hecho BDS demuestran que:

T m+ 1

b
m,T
()

m,T
()
N (0, 1)
donde:

2
m,T
() = 4

k
m
+ 2
m1
X
j=1
k
mj
c
2j
1
+ (m1)
2
c
2m
1
m
2
kc
(2m2)
1
!
donde c
1
puede ser estimado a partir de c
1,T
, y k es la probabilidad de que
cualquier tripleta de puntos pertenezca a la vecindad delimitada por , y
es estimada contando el nmero de conjuntos que satisfacen la condicin
muestral:
k
T
() =
2
(T (T 1) (T 2))
T
X
t=1
T
X
s=t+1
T
X
r=s+1
(I

(y
t
, y
s
) I

(y
s
, y
r
) +
+I

(y
t
, y
r
) I

(y
r
, y
s
) +I

(y
s
, y
t
) I

(y
t
, y
r
))
Cabe mencionar que este estadstico es relativamente eciente para muestras
superiores a 200 observaciones (ver Granger, C. W. J. y T. Terasvirta (1993),
Modelling Nonlinear Economic Relationships, seccin 6.3.5, pginas 90 y 91).
En otro caso es mejor hacer un muestreo por bootstrapping y aumentar la
muestra articialmente de manera de no perder poder del test al aplicar el
estadstico en muestras pequeas.
Ejercicio. Una aplicacin del test BDS a la serie de inacin para Chile
(1933:02-2001:06) entrega el siguiente resultado, denotando el rechazo de la
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 123
hiptesis nula de independencia de la serie:
Dimensin BDS Std.Error z stat P V alor
2 0.111196 0.004338 25.63572 0.0000
3 0.187459 0.006916 27.10598 0.0000
4 0.232728 0.008267 28.14973 0.0000
5 0.255301 0.008653 29.50290 0.0000
6 0.261486 0.008382 31.19535 0.0000
Ejercicio. Aplicando este test BDS a los retornos del ndice de precios
selectivo de acciones de Chile IPSA los datos del test nos indican la presencia
de dependencia de la serie:
Dimensin BDS Std.Error z stat P V alor
2 0.192041 0.002680 71.66640 0.0000
3 0.325164 0.004257 76.38699 0.0000
4 0.416266 0.005068 82.14049 0.0000
5 0.477852 0.005281 90.48426 0.0000
6 0.518700 0.005092 101.8606 0.0000
Ejercicio. Generamos una variable aleatoria de una funcin de distribu-
cin estandarizada y al aplicar el test BDS se encuentra que la serie es abso-
lutamente independiente:
Dimensin BDS Std.Error z stat P V alor
2 0.001034 0.001730 0.597777 0.5500
3 0.001546 0.002740 0.564317 0.5725
4 0.001094 0.003250 0.336538 0.7365
5 0.000254 0.003373 0.075320 0.9400
6 0.000116 0.003239 0.035931 0.9713
124 CHAPTER 7 MODELOS UNIVARIADOS
7.2.2 Estadstico Cowles-Jones (1937)
Este estadstico compara la frecuencia de secuencias versus oposiciones de
signos de retornos consecutivos. Para esto se dene una funcin indicadora
que toma valor 1 cuando los retornos son positivos y 0 cuando los retornos
son negativos o cero, es decir:
I
t
=
_
_
_
1 si r
t
> 0
0 si r
t
0
_
_
_
A partir de denior una funcin acumuladora A
t
como:
A
t
= I
t
I
t+1
+ (1 I
t
) (1 I
t+1
)
podemos denir como N
s
al nmero de pares de retornos consecutivos con el
mismo signo y N
o
al nmero de pares de signos opuestos:
N
s
=
T1
P
t=1
A
t
N
o
= (T 1) N
s
Con estos parmetros se construye en estadstico de Cowles-Jones (CJ)
el que se dene como la razn entre la suma de secuencias de signos iguales
versus la suma de secuencias de signos contrarios:

CJ =
N
s
N
o
=
N
s
T1
N
o
T1
=

s
1
s
donde
s
dene a la probabilidad de que ocurra una secuencia de signos
positivos.
Se demuestra que bajo absoluta aleatoriedad la distribucin de este es-
tadstico converge asintticamente a 1. Si se observa que CJ > 1 entonces
hay evidencia de que los precios tienen una estructura que diere de la que
se desprende de un camino aleatorio.
De existir DRIFT, es decir una tendencia en la serie de precios, entonces
la probabilidad de que se de una secuencia es mayor a la probabilidad de que
no se d. Esto nos indica que ahora con DRIFT la razn debiera converger
a un valor distinto (mayor) de 1.
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 125
Si a partir del proceso para el residuo
t
IID
N (0,
2
) denimos la funcin
indicadora como:
I
t
=
_
_
_
1 con probabilidad
0 con probabilidad 1
_
_
_
donde = Pr [r > 0] = Pr

, con

=
P
r
t
T
y =
r
P
(
r
t

)
2
T1
entonces se
demuestra que:
CJ |
drift6=0
=

s
1
s
=

2
+ (1 )
2
2 (1 )
1
CJ
a
N


s
1
s
,

s
(1
s
) + 2

3
+ (1 )
3

2
s

T (1
s
)
4
!
Para un juego justo donde H
0
: CJ = 1 (es decir =
1
2
) vemos que los
lmites inferiores del estadstico CJ sern CJ = 1 con una varianza de cero,
es decir:
1 =

2
+ (1 )
2
2 (1 )
0 =

s
(1
s
) + 2

3
+ (1 )
3

2
s

T (1
s
)
4
Ejercicio. Supongamos que generamos una secuencia de nmeros aleato-
rios de dimensin T = 1000 que obedecen a la siguiente ley de movimiento
(sin drift):
r
t
=
t
A esta vector aplicamos las deniciones para la funcin indicadora I y la
funcin acumuladora de signos A. Una vez encontrados los valores para
estas funciones generamos N
s
y N
o
. El clculo del test se efecta sobre la
hiptesis nula H
0
: CJ = 1 lo cual nos entrega:

CJ =

2
+(1 )
2
2 (1 )
r
s(1 s)+2(
3
+(1 )
3

2
s
)
T(1 s)
4
= 0.038895
126 CHAPTER 7 MODELOS UNIVARIADOS
con lo cual no rechazamos la hiptesis nula H
0
: CJ = 1 pues el estadstico es
menor a 1.96 (5% de signicancia). El siguiente recuadro muestra un cdigo
GAUSS que permite replicar estos resultados.
Cdigo
rndseed 1234;
r=rndn(1000,1);
i=zeros(rows(r),1);
j=1;
do while j le rows(r);
if r[j] gt 0;i[j]=1;endif;
j=j+1;
endo;
a=i[1:rows(i)-1].*i[2:rows(i)]+(1-i[1:rows(i)-1]).*(1-i[2:rows(i)]);
ns=sumc(a);
no=rows(a)-ns;
p=cdfn(meanc(r)/stdc(r));
ps=ns/rows(a);
cj_est=(p^2+(1-p)^2)/(2*p*(1-p));
cj_var=((ps*(1-ps)+2*(p^3+(1-p)^3-ps^2))/(rows(a)*(1-ps)^4));
cjtest=(cj_est-1)/sqrt(cj_var);cjtest;
7.2.3 Test de Fuller
Fuller testea la hiptesis nula de que los coecientes de autocorrelacin para
varios rezagos de una serie (por ejemplo los retornos de un activo) son cero.
Si denimos al coeciente de covarianza como (s) = cov (r
t
, r
s
) entonces el
coeciente de correlacin se representa por:
(s) =
Cov (r
s
, r
t
)
V ar (r
t
)
=
(s)
(0)
La contraparte muestral de estos estadsticos ser (la covarianza

se
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 127
puede calcular dividiendo por T 1 o por T s):

(s) =
1
T
Ts
P
t=1
(r
t
r) (r
t+s
r)
(s) =

(s)

(0)
r =
P
T
t=1
r
t
T
El test propuesto tiene la siguiente distribucin asinttica:
T

T s
(s) N (0, 1)
(s) = (s) +
T s
(T 1)
2

1
2
(s)

Como es usual la hiptesis nula corresponde a no existencia de autocor-


relacin de la serie y se contrasta con una distribucin normal estandarizada.
Si el estadstico es superior a 1.96 (considerando un 5% de signicancia) en-
tonces rechazamos la hiptesis nula existiendo evidencia de autocorrelacin
de la serie en el tiempo.
7.2.4 Tests Q y Q
Esta clase de tests permite analizar la dependencia temporal (autocorrelacin)
existente entre las observaciones en el tiempo (por ejemplo los retornos).
Box-Pierce (1970) o test Q. Este test se basa en el anlisis conjunto
de los coecientes estimados de una ecuacin de residuos intertemporales
para vericar si son o no estadsticamente ceros. Estos coecientes son las
correlaciones de los residuos, de manera que se analizan los
r
s
r
t
denidos
por:

r
s
r
t
=
Cov (r
s
, r
t
)
V ar (r
t
)
=
E(r
s
, r
t
)
E(r
2
t
)
Tal como sabemos este coeciente
rsrt
es equivalente al parmetro de la
ecuacin auxiliar inversa
s
:
r
ts
=
s
r
t
+
ts
s = 1, 2, ..., q
128 CHAPTER 7 MODELOS UNIVARIADOS
donde el se calcula como la razn entre las covarianzas y la varianza de la
variable dependiente. Estimando la expresin anterior utilizando los retornos
efectivos estimamos un vector de dimensin qx1. Los autores demuestran
que el estadstico relevante para evaluar la hiptesis nula de que no existe
autocorrelacin de retornos se dene por (expresiones equivalentes):
Q = T
q
P
s=1

2
s

2
(q)
Q = T
0

2
(q)
de manera que si este estadstico supera a su equivalente
2

(q) entonces
rechazamos la nula presentndose evidencia de autocorrelacin de orden q de
los retornos.
Ljung-Box (1978) o test Q. Una perfeccin de este test lo presentan Ljung
y Box. Utilizando una expresin similar a la presentada por Box-Pierce, los
autores denen el estadstico Q
0
como:
Q
0
= T (T + 2)
q
P
s=1


2
s
(T s)


2
(q)
Si el estadstico Q
0
es mayor a su equivalente de tabla
2

(q), entonces rec-


hazamos la hiptesis nula H
0
:
1
=
2
= ... =
q
= 0. Tpicamente q es un
nmero alto como 24 36, dependiendo de la frecuencia de la serie.
7.2.5 Test de Razn de Varianzas
Este test surge del anlisis de la representacin geomtrica de movimiento
Browniano denido en una seccin anterior, y evala si la variable o serie
bajo anlisis presenta evidencia de autocorrelacin serial. Por ejemplo, si
sabemos que los retornos de un activo se pueden representar por la expresin
r
t
ln P
t
ln P
t1
= ln

P
t
P
t1

= +
t
, entonces sabemos que la varianza
de los retornos ser V (r
t
) =
2

. de aqu podemos decir que si:


V (r
t
) =
2

V (r
t1
) =
2

entonces la agregacin de ambas varianzas ser:


V (r
t
) +V (r
t1
) = 2
2

= 2V (r
t
)
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 129
El test se contruye a partir de la siguiente razn, considerando que bajo
la hiptesis nula se esperara que se aproximara a 1:
=
V (r
t
) +V (r
t1
)
2V (r
t
)
1
Al operacionalizar este test con la contraparte muestral del estadstico
, podemos representar la relacin entre y el coeciente de correlacin de
primer orden (1):
(1) =

V (r
t
+r
t1
)
2

V (r
t
)
(1) =

V (r
t
) +

V (r
t1
) + 2Co v (r
t
, r
t1
)
2

V (r
t
)
(1) = 1 +
2Co v (r
t
, r
t1
)
2

V (r
t
)
(1) = 1 + (1)
Esta expresin nos recuerda que cualquier serie estacionaria posee una razn
que se dene como 1 ms el coeciente de correlacin de primer orden. Si
encontramos que (1) = 0 entonces podemos decir que = 1.
Existe la generalizacin de esta ltima expresin para lo cual la hiptesis
nula a considerar ser:
H
0
: (j) = 0 j = 1, ..., s
y el estadstico estar representado por:
(s) =

V

P
j=s
j=0
r
tj

(s + 1)

V (r
t
)
= 1 + 2
j=s
P
j=1

1
j
s + 1

(j)
por ejemplo para un s = 1, o s = 2 el estadstico sera:
(1) = 1 + 2
j=1
P
j=1

1
j
2

(j) = 1 + 2

1
1
2

(1) = 1 + (1)
(2) = 1 + 2
j=2
P
j=1

1
j
3

(j) = 1 + 2

1
1
3

(1) + 2

1
2
3

(2)
130 CHAPTER 7 MODELOS UNIVARIADOS
Si la serie posee un largo de T observaciones (asumamos que T es par)
entonces el test para una razn de varianzas de dos perodos se formar de:
(1) =

2
II

2
I
=
1
T/2
P
j=T/2
j=1
(r
2j
2 r)
2
1
T
P
j=T
j=1
(r
j
r)
2
donde r
j
= lnp
j
lnp
j1
y r
2j
= lnp
2j
ln p
2j2
. Dado que la distribucin
asinttica de este estadstico est denido por:

=
r
T
2
( (2) 1)
a
N (0, 1)
entonces si

pertenece al intervalo [1.96, 1.96] entonces no rechazamos la
hiptesis nula de que el coeciente de correlacin es nulo, no existiendo evi-
dencia de correlacin de los retornos en el tiempo.
Ejercicio. Supongamos la serie del Indice de Precios de Acciones del IPSA
desde abril 1995 hasta abril del ao 2000 (T = 1247). Calculamos los estads-
ticos para vericar con el test anterior si (2) = 1, es decir si el coeciente
de autocorrelacin de primer orden es cero. Los valores conseguidos son:
r = 0.011%

2
I
= 2.724016031

2
II
= 6.290088658
lo cual implica que el estadstico a contrastar es:

=
r
T
2
( (2) 1) =
r
1247
2

6.290088658
2.724016031
1

= 32. 689
siendo este muy superior al valor de referencia de una tabla normal es-
tandarizada de 1.96, rechazando la hiptesis de no autocorrelacin de los
retornos.
Ejercicio. Generamos una serie aleatoria a partir de y
t
= 100 +
t
donde

t
N(0,

10) considerando una muestra de T = 1247 observaciones sim-


uladas. Calculamos los estadsticos para vericar si (2) = 1, es decir si el
coeciente de autocorrelacin de primer orden es cero. Los valores consegui-
dos son:
y = 0.0015%

2
I
= 1.751081639

2
II
= 1.649981214
7.3 TESTS DE RACES UNITARIAS 131
lo cual implica que el estadstico a contrastar es:

=
r
T
2
( (2) 1) =
r
1247
2

1.649981214
1.751081639
1

= 1. 441 7
Podemos vericar que el estadstico es mayor a 1.96 (es decir es menor en
valor absoluto), de manera que no rechazamos la hiptesis nula de autocor-
relacin cero de la serie.
7.3 Tests de Races Unitarias
7.3.1 Test t y F de Dickey-Fuller (RW-RWD-RWDT)
y
t
= y
t1
+
t
y
t
= +y
t1
+
t
y
t
= +t +y
t1
+
t
Reordenando (restando y
t1
a ambos lados):
y
t
=

y
t1
+
t
y
t
= +

y
t1
+
t
y
t
= +t +

y
t1
+
t
7.3.2 Tests t y F de DFA (Dickey-Fuller Ampliado)
y
t
=

y
t1
+
p
X
j=1

j
y
tj
+
t
y
t
= +

y
t1
+
p
X
j=1

j
y
tj
+
t
y
t
= +t +

y
t1
+
p
X
j=1

j
y
tj
+
t
donde en orden p se dene minimizando los criterios de Akaike (AIC),
Schwarz (BIC) o el critero de HannanQuinn (HQ), es decir se basan en
132 CHAPTER 7 MODELOS UNIVARIADOS
2 veces el valor de la funcin de log-likekihood promedio ajustado por una
funcin de castigo asociada a cada criterio:
AIC = 2
lk
T
+
k
T
2
BIC = 2
lk
T
+
k
T
ln(T)
HQ = 2
lk
T
+
k
T
2 ln (ln (T))
donde lk representa al log-likelihood, T el nmero de observaciones y k
el nmero de parmetros a estimar.
Los tests se presentan a continuacin:
t
c
=

V (

)
df
Hip otesis Tests
_
_
_
y
t
=
P
p
j=1

j
y
tj
+
t
y
t
= +

y
t1
+
P
p
j=1

j
y
tj
+
t
_
_
_

1
: (,

) = (0, 0)
_
_
_
y
t
=
P
p
j=1

j
y
tj
+
t
y
t
= +t +

y
t1
+
P
p
j=1

j
y
tj
+
t
_
_
_

2
: (, ,

) = (0, 0, 0)
_
_
_
y
t
= +
P
p
j=1

j
y
tj
+
t
y
t
= +t +

y
t1
+
P
p
j=1

j
y
tj
+
t
_
_
_

3
: (, ,

) = (, 0, 0)
donde se contrasta con una tabla F de Fisher con sus respectivos grados
de libertad (tpicamente J = 2, 3):

i
=
(SRC
R
SRC
NR
) /J
SRC
NR
/ (T k)
F (J, T k)
7.3 TESTS DE RACES UNITARIAS 133
7.3.3 Test Said-Dickey
Said-Dickey (Biometrica, 1984), permite testear races unitarias cuando los
errores siguen un proceso ARMA(p,q). Recordemos que un MA(1) se puede
representar por un AR(), de aqu que ahora la sumatoria se aplique hasta
K . En este caso el modelo es:
y
t
= ( 1) y
t1
+
K
X
j=1

j
y
tj
+
t
De esta manera un proceso generador de datos para y del tipo AR(k)
donde k permite especicar un proceso ARMA(p,q) para el residuo.
7.3.4 Tests de Phillips-Perron
En una serie de artculos, Phillips (Econometrica, 1987) y Phillips-Perron
(Biometrica, 1988) generan un test a partir del DF y DFA de manera de
controlar por correlacin serial y heteroscedasticidad de los residuos al mismo
tiempo.
Consideremos el modelo a estimar:
y
t
= +y
t1
+
t
sin embargo asumamos que el verdadero proceso generador de datos para
la serie es:
y
t
y
t1
=
t
= (L) e
t
donde (L) sigue un polinomio estacionario y e sigue un proceso Gaus-
siano. El mtodo Phillips-Perron consiste en:
Paso 1. Estimar por OLS los parmetros , , el error estndar de
denido por

, y el error estndar de la regresin s
2
=
P

2
t
Tk
.
Paso 2. Estimadores consistentes de la varianza de la media

y la
autocovarianzas

poblacionales se obtienen del trmino de error


t
.

j
= T
1
T
X
t=j+1

tj

2
=
0
+ 2
q
X
j=1

1
j
(q + 1)


j
134 CHAPTER 7 MODELOS UNIVARIADOS
para las autocovarianzas y para la media (Newey-West) respectivamente.
Paso 3. Estas correcciones se utilizan para ajustar el test t de Dickey-
Fuller asociado al parmetro :
z
t
=


0

2
1
2
t
_
_
1
2

2

0

T


s

_
_
Ejercicio. A partir de la siguiente informacin generada de la estimacin
por OLS del modelo para la inacin en Chile (1933:02-2001:06):

t
= +
t1
+
t
= 0.825274 + 0.651348
t1
+
t
(0.119979) (0.026534)
El test de DF para el estadstico ( 1) es (0.651348 1)/0.026534 =
13.14. Este es el test estadstico que debe ser corregido segn PP. La
suma de los residuos al cuadrado es de 7001.243 con una muestra de 819
observaciones. Es decir que s
2
= 7001.243/(819 2) = 8.569453, es decir
una desviacin estndar de 2.927363. Las autocovarianzas se estiman con:

0
=
P

2
t
T
= 8.54853

1
=
P

t1
T
= 1.68145

2
=
P

t2
T
= 0.381113

3
=
P

t3
T
= 0.989295

4
=
P

t4
T
= 1.810678
Con estos estimadores calculamos

2
:

2
= 8.548 + 2

4
5

(1.68) + 2

3
5

(0.381) +
2

2
5

(0.9893) + 2

1
5

(1.8107)

2
= 7.83292
7.3 TESTS DE RACES UNITARIAS 135
Con esto calculamos el estadstico de Phillips-Perron:
z
t
=


0

2
1
2
t
_
_
1
2

2

0

T


s

_
_
=

8.5485
7.83292
1
2
(13.14)
_
_
1
2
(7.83292 8.54853)

819
(0.026534)

8.569453

7.83292
_
_
= 12.78
De igual manera se rechaza la hiptesis nula de raz unitaria ya sea uti-
lizando el DF o el PP test.
7.3.5 Test de Kwiatkowski et al.
Este es un test cuya nula es estacionariedad con raz unitaria como alternativa
(a la inversa de los tests anteriores). Este test se conoce como KPSS en
honor a sus autores (Kwiatkowski, Phillips, Schmidt y Shin, 1992, Journal
of Econometrics).
Se formula a partir de la suma parcial de la serie:

t
=
t
X
i=1

i
donde
t
se obtienen de una ecuacin auxiliar como:
y
t
= +

t +
t
El test estadstico de inters es:
=
1
n
2
s
2
(l)
n
X
t=1

2
t
donde s
2
(l) se denomina varianza de largo plazo de
t
la cual es estimada
por:
s
2
(l) =
1
n
n
X
t=1

2
t
+
2
n
l
X
j=1
w(j, l)
n
X
t=j+1

tj
136 CHAPTER 7 MODELOS UNIVARIADOS
donde los pesos w(j, l) se determinan por (Newey-West, 1987):
w(j, l) = 1
j
(l + 1)
El valor de l se dene gerenalmente por l = n
1
2
(Newey-West, 1994,
Review of Economic Studies). Finalmente el test KPSS para la nula de
estacionariedad es:
=
1
n
2
s
2
(l)
n
X
t=1

2
t
La distribucin asinttica es derivada en Kwiatkowski et al.
7.4 Teorema de Descomposicin de Wold
Este teorema se debe a H. O. A. Wold (1938, A Study in the Analysis of
Stationary Time Series) y es fundamental en la teora de series de tiempo.
Teorema. Todo proceso estocstico estacionario puede ser aproximado
tan cerca como se desee ya sea a travs de un AR(p), un MA(q), o una
combinacin de ambos, es decir un proceso ARMA(p,q).
Este teorema fundamental de representacin es el que nos permite estimar
modelos de series de tiempo de cualquier tipo para representar series que son
estacionarias.
7.5 Estacionariedad
Sea la variable {y
t
}
T
t=1
un proceso estocstico. Existen dos formas de esta-
cionariedad: dbil y fuerte (o estricta).
1. Estacionariedad Dbil. Se dice que el proceso {y
t
}
T
t=1
es dbilmente
estacionario si este cumple con tres condiciones:
E [y
t
] = , || <
E

(y
t
)
2

=
2
y
<
E [(y
t
) (y
ts
)] = (s) < , s
Que los dos primeros momentos sean nitos e independientes de t es
una condicin necesaria para estacionariedad dbil.
7.6 OPERADORES DE REZAGOS: L
K
137
2. Estacionariedad Fuerte o Estricta. Si el proceso {y
t
}
T
t=1
posee una
distribucin de densidad f
y
que no es dependiente de s, k entonces se
dice que {y
t
}
T
t=1
posee estacionariedad fuerte:
f
y
(y
t
1
, y
t
2
, ..., y
t
k
) = f
y
(y
t
1
+s
, y
t
2
+s
, ..., y
t
k
+s
)
es decir que la funcin de densidad no cambia con le tamao ni el
perdodo considerado en la muestra.
7.6 Operadores de Rezagos: L
k
Para simplicar la notacin es necesario introducir el concepto de operador de
rezagos L (del ingls "lag") que se dene como aquel operador que rezaga k
veces la variable a la cual se le aplica. Por ejemplo consideremos las siguientes
equivalencias notacionales:
Lx
t
= x
t1
L
2
x
t
= x
t2

1 2L + 3L
2

x
t
= x
t
2x
t1
+ 3x
t2
L
1
x
t
= x
t+1

1 + 3L
1
0.5L
2

x
t
= x
t
+ 3x
t+1
0.5x
t2
Esta notacin nos permite representar de una manera ms simplicada
los modelos de series de tiempo que se revisan a continuacin.
7.7 AR(p)
Un proceso autoregresivo de series de tiempo de orden p, AR(p), tiene la
siguiente estructura analtica:
y
t
=
1
y
t1
+
2
y
t2
+... +
p
y
tp
+
t

t
= y
t

1
y
t1

2
y
t2
...
p
y
tp

t
=

1
1
L
2
L
2
...
p
L
p

y
t
donde tpicamente la variable endgena se presenta en desviacin de su media
(y
t
y), el residuo es un "ruido blanco", es decir cumple con las condiciones
138 CHAPTER 7 MODELOS UNIVARIADOS
E (
t
) = 0, y V (
t
) =
2

< . Aqu la variable y


t
es una combinacin lineal
de sus propios rezagos o valores pasados.
Considerando la ltima expresion que represent al modelo AR, se puede
demostrar que todo proceso AR se puede representar como un MA y vicev-
ersa.
Supongamos que tenemos un proceso AR(1):

t
= (1 L) y
t
Podemos despejar y
t
dividiendo la expresin por (1 L), es decir:

t
(1 L)
= y
t
Dado que la serie es estacionaria el coeciente es menor que 1 de manera
que podemos extender la serie de residuos sabiendo que si b < 1 entonces
1
1b
= 1 +b +b
2
+....:
y
t
=

t
(1 L)
y
t
=
t

1 +L + (L)
2
+ (L)
3
+...

y
t
=
t
+
t
L +
t
(L)
2
+
t
(L)
3
+...
y
t
=
t
+
1

t1
+
2

t2
+
3

t3
+...
y
t
=

1 +
1
L +
2
L
2
+
3
L
3
+...

t
y
t
=
P

i=1

i
L
i

t
+
t
donde
i
=
i
, i = 1, 2, 3, .... Esta relacin permite representar modelos
AR(p) en forma equivalentes a MA(), y como veremos en la siguiente
seccin, tambin se d la relacin inversa (MA(q) = AR()).
Algunos ejemplos de procesos autoregresivos son:
AR(1) :
_
_
_
y
t
= y
t1
+
t
(1 L) y
t
=
t
_
_
_
AR(2) :
_
_
_
y
t
=
1
y
t1
+
2
y
t2
+
t
(1
1
L
2
L
2
) y
t
=
t
_
_
_
7.8 MA(Q) 139
7.8 MA(q)
Un proceso de media mvil (moving average, MA) de orden q, MA(q), tiene
la siguiente representacin analtica:
y
t
=
t
+
1

t1
+
2

t2
+... +
q

tq
y
t
=
t

1 +
1
L +
2
L
2
+... +
q
L
q

donde sigue siendo una variable aleatoria ruido blanco.Aqu la variable y


t
es una combinacin lineal de residuos pasados.
Algunos ejemplos de procesos de medias mviles son:
MA(1) :
_
_
_
y
t
=
t1
+
t
y
t
= (1 +L)
t
_
_
_
MA(2) :
_
_
_
y
t
=
t
+
1

t1
+
2

t2
y
t
= (1 +
1
L +
2
L
2
)
t
_
_
_
7.9 Proceso Integrado I(d)
Un proceso estocstico {y
t
}

t=1
se dice integrado de orden d, es decir es y
t

I (d), si es que y
t
requiere ser diferenciado d-veces para que sea estacionaria.
Ejercicio. Sea una variable aleatoria y
t
= +y
t1
+
t
, donde por ejemplo
asumamos = 2, y
0
= 1, y
t
N (0, 10), entonces la dinmica para una
140 CHAPTER 7 MODELOS UNIVARIADOS
realizacin de 200 observaciones ser:
Serie Intergrada y I(1)
Al calcular su primera diferencia la podemos representar como:
Primera Diferencia: y I(0)
De aqu es posible determinar que casi cualquier serie no estacionaria se
puede transformar a estacionaria a travs de diferenciar la serie ya sea una
vez, lo que es usual, o diferencindola dos o ms veces, lo cual es poco usual
en series econmicas.
7.10 ARMA(P,Q) 141
7.10 ARMA(p,q)
Un proceso autoregresivo de media mvil de orden (p, q) para una serie esta-
cionaria y se puede representar por:
y
t
=
1
y
t1
+
2
y
t2
+... +
p
y
tp
+
1

t1
+
2

t2
+... +
q

tq
+
t
donde es u ruido blanco. Aqu la serie y es una combinacin lineal de
residuos y valores rezagados de y.
La expresin analtica resumida de este modelo es:

1
1
L
2
L
2
...
p
L
p

y
t
=

1 +
1
L +
2
L
2
+... +
q
L
q

t
Algunos ejemplos de modelos ARMA(p, q) son:
ARMA(1, 1) :
_
_
_
y
t
= y
t1
+
t1
+
t
(1 L) y
t
= (1 +L)
t
_
_
_
ARMA(2, 1) :
_
_
_
y
t
=
1
y
t1
+
2
y
t2
+
t1
+
t
(1
1
L
2
L
2
) y
t
= (1 +L)
t
_
_
_
ARMA(1, 2) :
_
_
_
y
t
= y
t1
+
1

t1
+
2

t2
+
t
(1 L) y
t
= (1 +
1
L +
2
L
2
)
t
_
_
_
7.11 ARIMA(p,d,q)
Tal como seala el teorema de Wold, todo proceso estacionario puede ser
representado a travs de un modelo del tipo AR, MA, o ARMA. Si la serie
bajo anlisis no es estacionaria (no es I(0)) entonces debe ser diferenciada
"d" veces para que lo sea. Esto hace que uno pueda representar un modelo de
series de tiempo utilizando la extensin de los modelos ARMA, agregndose
el componente "integrado" al medio de la expresin. De esta forma el modelo
extendido es una representacin autoregresiva, integrada, de media mvil y
se denota por ARIMA.
Podemos representar modelos cuya serie original y es no estacionaria, de
la siguiente forma:

d
y
t
=
1

d
y
t1
+
2

d
y
t2
+... +
p

d
y
tp
+
1

t1
+
2

t2
+... +
q

tq
+
t

d
y
t
=
P
p
i=1

d
y
ti
+
P
q
i=1

ti
+
t
142 CHAPTER 7 MODELOS UNIVARIADOS
cuya representacin analtica resumida es:

1
1
L
2
L
2
...
p
L
p

d
y
t
=

1 +
1
L +
2
L
2
+... +
q
L
q

t
Algunos ejemplos de modelos ARIMA son:
ARIMA(1, 1, 1) :
_
_
_
y
t
= y
t1
+
t1
+
t
(1 L) y
t
= (1 +L)
t
_
_
_
ARIMA(2, 1, 1) :
_
_
_
y
t
=
1
y
t1
+
2
y
t2
+
t1
+
t
(1
1
L
2
L
2
) y
t
= (1 +L)
t
_
_
_
ARIMA(1, 2, 1) :
_
_
_

2
y
t
=
2
y
t1
+
1

t1
+
t
(1 L)
2
y
t
= (1 +
1
L)
t
_
_
_
7.12 Estacionalidad y Modelos SAR y SMA
Cuando una serie tiene una frecuencia que presenta estacionalidad (por ejem-
plo datos mensuales o trimestrales, o efectos da de la semana) se sugiere sacar
la estacionalidad ajustando la serie sacando la diferencia de ella considerando
la frecuencia que se quiere sacar. Es decir, la serie se ve transformada por el
factor (1 L
s
) donde s indica la frecuencia estacional, por ejemplo: trimes-
tral (s = 4), mensual (s = 12), datos diarios con efecto semana (s = 5). Este
ajuste se denomina correccin de estacionalidad al factor autoregresivo y se
denota por SAR, es decir SAR(4), SAR(12), y SAR(5) , respectivamente
para el ejemplo anterior.
Si una serie y
t
, tiene frecuencia mensual y presenta estacionalidad, en-
tonces se debe transformar como SAR(12):
y
t
y
t
y
t12
=

1 L
12

y
t
y si la frecuencia es trimestral el ajuste ser SAR(4):
y
t
y
t
y
t4
=

1 L
4

y
t
7.13 ESTIMACIN DE MODELOS ARIMA(P, D, Q) 143
Este ajuste modica la dinmica de cualquier proceso autoregresivo incor-
porndose nuevos rezagos. Por ejemplo si tenemos inicialmente un proceso
AR(2), y le agregamos un SAR(4) el modelo se transformar a:
AR(2) : y
t
=
1
y
t1
+
2
y
t2
+
t
AR(2), SAR(4) :

1
1
L
2
L
2

1 L
4

y
t
=
t


1 L
4

y
t
=
1

1 L
4

y
t1
+
2

1 L
4

y
t2
+
t
y
t
=
1
y
t1
+
2
y
t2
+y
t4

1
y
t5

2
y
t6
+
t
Tambin (aunque ms extico) puede agregarse un componente estacional
al proceso de media mvil: SMA(s). Expresiones de este tipo son por ejem-
plo:
AR(1), SMA(4) : (1 L) y
t
=

1 L
4

t
y
t
= y
t1
+
t

t4
MA(1), SMA(4) : y
t
= (1 +L)

1 L
4

t
y
t
=
t
+
t1

t4

t5
Un modelo general ARMA con ajustes estacionales a las medias mviles
y al proceso autoregresivo tiene una dinmica ms compleja. Por ejemplo, la
siguiente ecuacin representa a un proceso ARMA(1, 1), SAR(4), SMA(4):
(1 L)

1 L
4

y
t
= (1 +L)

1 L
4

t
y
t
= y
t1
+y
t4
y
t5
+
t
+
t1

t4

t5
7.13 Estimacin de Modelos ARIMA(p, d, q)
Box y Jenkins desarrollaron una metodologa para estimar modelos de series
de tiempo. Este procedimiento consista en tres etapas:
1. Indenticacin. Aqu el investigador determina estadsticamente el or-
den autoregresivo (p), el orden de media mvil (q), y el grado de inte-
gracin (d) de la serie bajo estudio. Para identicar estos parmetros
usualmente se visualizan conjuntamente la funcin de autocorrelacin
y la funcin de correlacin parcial de la serie.
2. Estimacin de Parmetros. Se puede utilizar mnimos cuadrados no
lineales o mtodos de mximo verosimilitud.
144 CHAPTER 7 MODELOS UNIVARIADOS
3. Diagnstico de los Residuos. Una vez se ha estimado el modelo hay que
vericar que los residuos del proceso ARIMA no presenten ningn tipo
de autocorrelacin que el modelo no haya considerado. Para este diag-
nstico podemos ver las autocorrelaciones y la funcin de correlacin
parcial, o ms formalmente podemos aplicar los siguientes tests (ver
secciones anteriores para una descripcin en detalle de estos tests):
Brock, Dechert y Scheinkman (BDS)
Cowles y Jones (CJ)
Fuller
Box-Jenkins (Q)
Ljung-Box (Q0)
Razn de Varianzas ()
Esta etapa es crucial en todo proceso de estimacin de un modelo de
series de tiempo.
Chapter 8
Modelos Heteroscedsticos
8.1 GARCH
El modelo que se utilizar como punto de partida en esta seccin es el tradi-
cional modelo de autorregresivo generalizado de heteroscedasticidad condi-
cionada (GARCH), desarrollado por Bollerslev (1987), el cual se representa
analticamente por el siguiente sistema aplicado y
t
y su volatilidad
2
t
:
y
t
= +
X
jJ

j
y
tj
+
t

t
N

0,
2
t

2
t
=
0
+
i=q
X
i=1

2
ti
+
i=p
X
i=1

2
ti
donde J, p, q se identican utilizando procedimientos estndares de series de
tiempo.
Existe una extencin que permite considerar la volatilidad de la variable
y
t
como variable explicativa de su propio nivel o media. En este caso la
ecuacin GARCH debe incluir rezagos de
20
t
s como variables explicativas,
dando origen a los modelos GARCH-M, es decir con volatilidad en la media.
A su vez se puede requerir de evaluar si el nivel de la variable y
t
o alguno
de sus rezagos afecta a su propia volatilidad. Para considerar esta posibilidad
es necesario incorporar a y
tj
directamente en la expresin de volatilidad, tal
145
146 CHAPTER 8 MODELOS HETEROSCEDSTICOS
como se representa en el siguiente sistema:
y
t
= +
X
jJ

j
y
tj
+
X
kK

2
tk
+
t

t
N

0,
2
t

2
t
=
0
+
i=q
X
i=1

2
ti
+
i=p
X
i=1

2
ti
+
X
sS

s
y
ts
donde al igual que en caso del GARCH J, K y S deben ser determinadas
empricamente.
Estos modelos tienen la caracterstica de que shocks inducen a compor-
tamientos simptricos de la volatilidad, independientemente de si estos son
positivos o negativos. Para evaluar un eventual comportamiento asimtrico
existe una variedad de modelos conocidos como GARCH-Cuadrtico (QGARCH),
Umbral-GARCH (TGARCH), Glosten-Jagannathan-Runkle GARCH (GJR-
GARCH) model, y nalmente el modelo asimtrico Box-Cox GARCH (Box-
Cox-AGARCH), el cual es capaz de incluir como casos especiales a la mayora
de los modelos de volatilidad existentes.
8.2 QGARCH
El modelo QGARCH(1,1)
1
puede representarse por:
y
t
= +
X
jJ

j
y
tj
+
X
kK

2
tk
+
t

t
N

0,
2
t

2
t
=
0
+
1

2
t1
+
1

2
t1
+
t1
+
X
sS

s
y
ts
donde es el parmetro asimtrico que ayuda a diferenciar del efecto positivo
o negativo del impacto del shock sobre la volatilidad. Un shock positivo
de tamao 1 tendr un impacto equivakente a
1
+ sobre la volatilidad,
mientras que un shock de igual magnitud pero de orden negativo impactar

1
sobre la volatilidad de y
t
, en lugar de
1
y
1
como predice el modelo
simtrico.
1
Por simplicidad se reportan la familia de modelos de orden p = 1 y q = 1, con y
t
como
variable dependiente.
8.3 T-GARCH 147
8.3 T-GARCH
La ecuacin para la volatilidad del modelo de umbral o TGARCH(1,1) se
representa por:

2
t
=
0
+
1

2
t1
+
1

2
t1
+
t1

2
t1
+
X
sS

s
y
ts
donde el parmetro opera como una funcin indicadora a partir de la
denicin del umbral, tal como lo dene la siguiente expresin:

t1
=

1 si
t1
0
0 si
t1
> 0

Luego si existe un shock negativo sobre y


t
, el impacto sobre la volatilidad
ser igual a
1
+ mientras que si el shock es positivo el impacto ser
solamente
1
, dado que en este caso = 0.
8.4 GJR-GARCH
El modelo introducido por Glosten, Jagannathan and Runkle (1993) resuelve
el problema de la asimetra con un enfoque alternativo. La ecuacin para la
volatilidad se representa por:

2
t
=
0
+ (1
t1
)
1

2
t1
+
1

2
t1
+
t1

2
t1
+
X
sS

s
y
ts
donde la funcin indicadora es ahora:

t1
=

0 si
t1
0
1 si
t1
> 0

Esto signica que si el shock sobre y


t
es positivo, el impacto sobre la volatil-
idad ser , mientras que si es negativo el impacto es
1
. El modelo GJR-
GARCH entrega similares resultados al modelo TGARCH.
8.5 Modelo Asimtrico GARCH
Hentschel(1995) presenta un modelo generalizado que incluye como caso espe-
cial a la mayora de los modelos GARCH
2
. Dependiendo del valor que toman
2
Excluye al QGARCH.
148 CHAPTER 8 MODELOS HETEROSCEDSTICOS
determinados parmetros del modelo, es posible representar a una amplia
variedad de representaciones de volatilidad, ya sea un GARCH, TGARCH,
o un GARCH exponencial, por ejemplo.
La representacin asimtrica del modelo Box-Cox-AGARCH(1,1), est
dada por:

t
1

=
0
+
1

t1
f

t1

t1

+
1

t1
1

+
X
sS

s
y
ts
f

t1

t1

t1

t1

0

t1

t1

0

donde su comportamiento asimtrico se deriva de la existencian de la funcin


f

t1

t1

que posee dos parmetros (


0
y
1
) que representan la evolucin no
simtrica de la volatilidad de y
t
dependiendo de si el shock es positivo o
negativo.
8.6 Curvas de Impacto de Noticias (News Im-
pact Curves)
8.6 CURVAS DEIMPACTODENOTICIAS (NEWS IMPACTCURVES)149
Figure 8.1: Curvas de Impacto para Modelos de Volatilidad
Figure 8.2: Curvas de Impacto para Modelos de Volatilidad Extendidos
150 CHAPTER 8 MODELOS HETEROSCEDSTICOS
Figure 8.3: Curva de Impacto de Noticias para Modelo Box-Cox-AGARCH
Chapter 9
Modelos de Volatilidad
Alternativos
9.1 Volatilidad con Distribucin t-Student
Una altenativa muy utilizada tericamente es la de trabajar con residuos que
tienen una distribucin de densidad leptokrtica del tipo t-Student o del tipo
Cauchy. La distribucin Cauchy tiene la siguiente representacin analtica
para una variable aleatoria :
f(
t
, , ) =
1

2
+ (
t
)
2
5 2.5 0 -2.5 -5
0.3
0.25
0.2
0.15
0.1
0.05
x
y
x
y
Funcin Cauchy con = 1 y = 1, 0, 1
151
152CHAPTER9 MODELOS DEVOLATILIDADALTERNATIVOS
Para la funcin de distribucin t-Student, consideremos una funcin con
grados de libertad:
f(
t
, ) =

h
(+1)
2
i
[]
1
2

1 +

2
t

(
+1
2
)
4 2 0 -2 -4
0.5
0.375
0.25
0.125
0
x
y
x
y
Funcin de Distribucin N(0, 1) y t-Student con = 5 (azul)
donde la funcin Gamma se representaba por (x) = (x 1)!.
Se sabe que asintticamente (grados de libertad ) esta distribucin
converge a una normal, incluso su cuarto momento (kurtosis) se aproxima
a lo que una distribucin normal predice (3) reejndose la leptokurtosis
requerida en muestras nitas, segn lo que se observa en la data. Para una
variable aleatoria y estos dos momentos son:
E(
2
t
) =

2

1
E(
4
t
) =
3
2
(2)(4)

3
A continuacin se presenta un cdigo escrito en GAUSS que efecta la op-
timizacin por mximo verosimilitud a partir de una distribucin t-Student,
que supone tener en memoria la base de datos de la serie y. Para que el cuarto
momento est denido se le restribge durante el proceso de optimizacin a
que el parmetro (representado por c[1] en el cdigo) sean superior a 4.
Cdigo GAUSS
@ Estimacion del Modelo t-Student por ML @
nobs=rows(y);
y=y[1:nobs];
9.2 MODELOS DE VOLATILIDAD ESTOCSTICA 153
proc (1) = lnlk(c,y);
local lnl, llk, nobs, t;
nobs=rows(y);
lnl=zeros(nobs,1);
t=1;
do while t le nobs;
lnl[t]=ln(gamma((c[1]+1)/2))-ln(gamma(c[1]/2))-0.5*ln(c[1]*pi)
-((c[1]+1)/2)*ln(1+y[t]^2/c[1]);
t=t+1;
endo;
llk=sumc(lnl);
retp(llk);
endp;
c1=70;
startv=c1;
__title="Modelo PDF t-Student";
_cml_MaxIters = 5000;
_cml_Algorithm = 1;
_max_LineSearch =2;
_cml_GradMethod=1;
_cml_covpar=1;
_cml_c=1;
_cml_d=4;
{b,f0,g,cov,retcode} = maxprt(cml(y,0,&lnlk,startv));
9.2 Modelos de Volatilidad Estocstica
Chapter 10
Modelos Multivariados
Una extensin natural a los modelos de series de tiempo univariados es aque-
lla que considera que existe una covariacin entre un conjunto de variables
que se relacionan tanto contemporneamente como intertemporalmente. Es
el caso por ejemplo de la tasa de inters de poltica de un banco central, la
inacin, y el nivel de actividad, o en el mbito nanciero la relacin exis-
tente entre los ndices accionarios en el mundo (FTSE, Dow Jones, Nikkey,
DAX, etc.) y los tipos de cambio (Yen, Euro, Libra, etc.), o en general los
precios de activos nancieros.
Este grado de correlacin es capturado por modelo sde series de tiempo
multivariados, es decir aquellos en los cuales el anlisis se efectua por sobre
un conjunto de variables de inters como los arriba mencionados, en lugar de
una sola variable como era el caso de los modelos univariados.
Este captulo extiende el anlisis hacia aquellos modelos multivariados,
siempre preservando la caracterstica de lineal, lo cual permite denominarlos
modelos de vectores autoregresivos (VAR). Se revisarn modelos VARsimples
y sus versiones estructurales, y se presenta un modelo VAR heteroscedstico
simtrico del tipo VAR-GARCHque analiza el impacto de contagio de volatil-
idades de retornos accionarios para un conjunto de activos internacionales.
10.1 Vectores Autoregresivos: VAR
La extensin ms directa de los modelos univariados autorregresivos es la
de considerar un vector de variables que se correlacionan entre s autorre-
gresivamente. Estos modelos VAR se pueden representar por un sistema de
155
156 CHAPTER 10 MODELOS MULTIVARIADOS
ecuaciones. Consideremos un modelo Bi-VAR(p), es decir un modelo de dos
variables (y
1
, y
2
) con un rezago (p = 1):
y
1t
=
11
+
12
y
1t1
+
13
y
2t1
+
1t
y
2t
=
21
+
22
y
1t1
+
23
y
2t1
+
2t
donde la estructura de residuos
1
,
2
tienen valor esperado cero y matriz de
varianzas y covarianzas contemporanea no singular y constante para todo t,
y adems en donde estos residuos no covaran intertemporalmente.
La forma matricial del sistema anterior en conjunto con los supuestos se
pueden representar por:
y
t
=
0
+
1
y
t1
+
t
E(
t
) = 0
E (
t

0
t
) =

Cov (
t
,
t+k
) = 0, k 6= 0
donde podemos denir:
y
t
=
_
_
y
1t
y
2t
_
_

0
=
_
_

11

21
_
_

1
=
_
_

12

13

22

23
_
_
10.1.1 Estacionariedad del VAR
Al igual que en para el caso univariado se requiere que este sistema sea
estacionario. Estacionariedad estricta o fuerte impone la condicin que la
funcin de distribucin multivariada sea estable en el tiempo, mientras que
estacionariedad en su versin dbil implica necesariamente que la media, la
varianza y las covarianzas intertemporales entre variables dependientes no
cambien en el tiempo y adicionalmente encontrar una dinmica convergente
10.1 VECTORES AUTOREGRESIVOS: VAR 157
del sistema a travs de analizar las races del siguiente polinomio:
p () = det

_
_
1 0
0 1
_
_

_
_

12

13

22

23
_
_

La ltima condicin de estacionariedad consiste en que las races de este


polinomio deben estar fuera del crculo unitario, es decir deben ser mayores a
uno. Para nuestro vector autorregresivo de un rezago (VAR(1)) el polinomio
de segundo grado se representa por la resolucin del siguiente determinante:
det

1
12

13

22
1
23

= 1 (
12
+
23
) + (
12

23

22

23
)
2
donde se requiere que
1
> 1 y
2
> 1.
Una denicin alternativa consiste en analizar la estacionariedad del VAR
calculando las races que denan que el siguiente polinomio caracterstico:
p () = det

_
_

12

13

22

23
_
_

_
_
1 0
0 1
_
_

donde si se resuelve la ecuacin caracterstica p () = 0, entonces dene al


vector propio (eigenvalue) de la matriz
1
. Especcamente:
det

_
_

12

13

22

23
_
_

_
_
1 0
0 1
_
_

= 0
este determinante es un polinomio de grado n, equivalente al nmero de las
(o columnas) de la matriz analizada . Este polinomio permite obtener las
races de
1
denominados valores propios o eigenvalues. Para que un sistema
sea estacionario estas races deben ser menores que 1 en valor absoluto.
Generalizando a un sistema o vector autorregresivo con k variables y
con p rezagos, la representacin matricial con su respectiva condicin de
estacionariedad ser:
y
t
=
0
+
1
y
t1
+
2
y
t2
+... +
p
y
tp
+
t
0 = det

I
1

2
...
p

158 CHAPTER 10 MODELOS MULTIVARIADOS


Ejercicio. La estimacin de un sistema de dos variables con un rezago
entreg el siguiente vector de parmetros estimados, representados en forma
matricial por:
_
_
0.08 0.61
0.32 0.27
_
_
El polinomio caracterstico se representa por el determinante de
det

_
_
0.08 0.61
0.32 0.27
_
_

_
_
1 0
0 1
_
_

=
2
0.35 0.173 6
cuyas races o valores propios al solucionar
2
0.35 0.173 6 = 0 son:

1
= 0.276 91

2
= 0.626 91
ambos menores que 1 en valor absoluto de manera que el sistema es esta-
cionario.
Para determinar la condicin de estacionariedad debemos calcular el sigu-
iente determinante:
det

_
_
1 0
0 1
_
_

_
_
0.08 0.61
0.32 0.27
_
_

= 0
1.0 0.35 0.173 6
2
= 0
donde ahora la solucin es:

1
= 3. 611 2

2
= 1. 595 1
que equivale al inverso de los valores encontrados para
1
y
2
.

1
= 0.276 91 =
1
3. 611 2
=
1

2
= 0.626 91 =
1
1. 595 1
=
1

2
De qu se entiende por qu a veces cuando se habla de estacionariedad se
dice que las races deben estar fuera del crculo unitario, lo que se reere a
10.1 VECTORES AUTOREGRESIVOS: VAR 159
que los valores de las races
0
s deben ser mayores que 1 en valor absoluto,
o lo que es lo mismo, que los valores de los
0
s sean menores que 1 en valor
absoluto.
Ejercicio. La estimacin de un sistema de dos variables con dos rezagos
entreg el siguiente vector de parmetros estimados, representados en forma
matricial por:
_
_
0.561594 0.023580
0.071865 0.657941
_
_
,
_
_
0.0000734 0.007503
0.396690 0.216838
_
_
El polinomio caracterstico se representa por el determinante de
det

_
_
1 0
0 1
_
_

_
_
0.561594 0.023580
0.071865 0.657941
_
_

2
_
_
0.0000734 0.007503
0.396690 0.216838
_
_

= 2. 992 3 10
3

4
0.111 83
3
0.584 71
2
0.09 634 7 + 1
La solucin de este polinomio entrega los siguientes valores propios, todos
los cuales son mayores que 1 de manera que el sistema es estacionario:

1
= 42. 035

2
= 1. 123 4

3
= 1. 756 2

4
= 4. 029 6
10.1.2 Rezagos Optimos: VAR(p)
Al igual que en modelos univariados existen diversos criterios o funciones
a minimizar, y que permiten denir exactamente el nmero de rezagos (o
orden) que deben presentar los modelos de VAR. Entre los ms utilizados
empricamente se encuentran los criterio de informacin de Akaike (AIC),
criterio de informacin Bayesiana de Schwarz (BIC), y el criterio de Hannan
y Quinn (HQ).
Los tres criterios imponen una funcin de prdida considerando el nmero
de parmetros a estimar en el modelo, lo cual determina un factor comun
160 CHAPTER 10 MODELOS MULTIVARIADOS
entre los tres criterios (AIC < HQ < BIC):
AIC = ln|

e
| +
pd
2
T
[2]
BIC = ln|

e
| +
pd
2
T
[ln(T)]
HQ = ln|

e
| +
pd
2
T
[2 ln (ln (T))]
donde p dene el nmero de rezagos del VAR, T el nmero de observaciones,
d el nmero de ecuaciones (o variables) del VAR, y ln |

e
| dene el logaritmo
del determinante de la matriz de varianzas y covarianzas estimada de los
residuos muestrales de cada ecuacin del sistema VAR. Los elementos de

e
son calculados considerando la estimacin por mximo verosimilitud de las
varianzas de los residuos (es decir dividiendo por T en lugar de dividir por
T (pd
2
+ 1)) llegando a denirse por:

e
=
1
T
_

_
e
0
1
e
1
e
0
1
e
2
... e
0
1
e
d
e
0
2
e
1
e
0
2
e
2
... e
0
2
e
d
... ... ... ...
e
0
d
e
1
e
0
d
e
2
... e
0
d
e
d
_

_
dxd
10.2 Funciones de Impulso-Respuesta
10.3 Test de Causalidad de Granger
10.4 Vector Autoregresivo Estructural: SVAR
Esta metodologa consiste en relacionar los residuos estructurales (
t
) con los
muestrales del vector autoregresivo (e
t
). El modelo estructural se represen-
tara por una media mvil MA() de la forma:
y
t
= A
0

t
+A
1

t1
+A
2

t2
+.... =
P

i=0
A
i

ti
= A(L)
t
donde A(L) representa a la matriz de polinomios de rezagos y y representa
el vector de variables integradas de orden cero I(0) o estacionarias. Por
10.4 VECTOR AUTOREGRESIVO ESTRUCTURAL: SVAR 161
construccin se asume que la matriz de varianzas y covarianzas de los shocks
estructurales se representa por la matriz identidad, es decir:
E(
0
) = I
Para identicar los parmetros de este modelo estructural se estima su
forma autoregresiva reducida con p rezagos V AR(p):
y
t
=

1
y
t1
+

2
y
t2
+... +

p
y
tp
+e
t
donde

i
representa la matriz de rezagos polinomiales estimada. La matriz
de varianzas y covarianzas estimada se denota por:
E(ee
0
) =
Dado que el proceso estocstico estimado anterior es estacionario, en-
tonces podemos representar al V AR(p) como un proceso de media mvil con
innitos rezagos (Teorema de Descomposicin de Wold), es decir un MA():
y
t
= e
t
+C
1
e
t1
+C
2
e
t2
+.... =
P

i=0
C
i
e
ti
= C (L) e
t
donde C
0
= 1, lo cual nalmente nos permite relacionar los residuos estruc-
turales con los muestrales o estimados a travs de la siguiente expresin:
e
t
= A
0

t
lo cual implica que:
E (ee
0
) = A
0
E (
0
) A
0
0
= A
0
A
0
0
=
Luego nalmente para identicar los shocks estructurales () a partir de
la informacin contenida en la estimacin del V AR(p), es decir a partir de
los residuos muestrales (e) y la matriz de varianzas y covarianzas estimada
, necesitamos identicar sucientes parmetros o restricciones de la matriz
A
0
. Para esto tomamos la matriz simtrica que nos entrega estimadores
n(n + 1) /2 de A
0
(n es el nmero de variables en el V AR), restando sola-
mente n(n 1) /2 restricciones que imponer para completar la matriz A
0
.
Una vez denida A
0
se procede a identicar la matriz de efectos de largo
plazo de los shocks del modelo reducido
1
, C(1), para relacionarla con su ma-
triz equivalente del modelo estructural A(1), a travs de A(1) = C(1)A
0
. El
1
C(1) se obtiene de la estimacin del V AR(p) y correspopnde al valor del polinomio
C(L) cuando L = 1.
162 CHAPTER 10 MODELOS MULTIVARIADOS
proceso nal consiste en identicar e imponer restricciones de largo plazo,
es decir sobre A(1), considerando, la matriz de polinomios C(1) estimada a
partir del VAR, la parte conocida de A
0
, y nalmente restricciones de coin-
tegracin y teora macroeconmica sobre relaciones de largo plazo entre las
variables
2
.
10.5 Modelo VAR-GARCH(1,1)
El modelo a estimar se representa por:
y
t
=
11
+
12
y
t1
+
13

t1
+
yt

t
=
21
+
22
y
t1
+
23

t1
+
t
=
_
_

yt

t
_
_
N
_
_
_
_
0
0
_
_
,
_
_

2
yt

yt

yt

t

2
t
_
_
_
_

2
yt
=
1
+
2

2
yt1
+
3

2
yt1

2
t
=
1
+
2

2
t1
+
3

2
t1
+
4

2
t2
Cdigo GAUSS
proc lnlk(c,data);
local nobs,ey,ep,cova,sigma,dsigma,t,hy,hp,m,lnl,stt,in;
nobs=rows(data);
hy=zeros(nobs,1);hp=hy;dsigma=hy;cova=hy;m=hy;
hy[1]=sqrt(abs(c[7]/(1-c[8]-c[9])));
hp[1]=sqrt(abs(c[10]/(1-c[11]-c[12]-c[13])));
ey=zeros(nobs,1);ep=ey;
t=3;
do while t le nobs;
hy[t]=sqrt(abs(c[7]+c[8]*ey[t-1]^2+c[9]*hy[t-1]^2));
hp[t]=sqrt(abs(c[10]+c[11]*ep[t-1]^2+c[12]*
hp[t-1]^2+c[13]*hp[t-2]^2));
ey[t]=y[t]-x[t,.]*(c[1]|c[2]|c[3]);
ep[t]=p[t]-x[t,.]*(c[4]|c[5]|c[6]);
2
La restriccin usual de largo plazo en modelos macroeconomtricos es que shocks de
demanda no causan efectos permanentes sobre el producto, o que los shocks de oferta
producen efectos permanentes sobre el producto.
10.5 MODELO VAR-GARCH(1,1) 163
cova[t]=c[14]*hy[t]*hp[t];
sigma=(hy[t]^2~cova[t])|(cova[t]~hp[t]^2);
dsigma[t]=det(sigma);
in=inv(sigma);
m[t]=(ey[t]~ep[t])*in*(ey[t]|ep[t]);
t=t+1;
endo;
stt=3;
lnl=-.5*ln(2*pi)-.5*ln(dsigma[stt:rows(data)])
-.5*m[stt:rows(data)];
retp(lnl);
endp;
proc inevgarch(c);
retp((c[7]/(1-c[8]-c[9]))|(c[10]/(1-c[11]-c[12]-c[13])));
endp;
_cml_MaxIters = 200;
_cml_Algorithm = 3;
_cml_LineSearch = 2;
_cml_GradMethod=1;
_cml_covpar=2;
c7=0.4;
c8=0.2;
c9=0.7;
c10=0.4;
c11=0.2;
c12=0.7;
c13=0;
c14=0;
startv=inv(xx)*xy|inv(xx)*xp|c7|c8|c9|c10|c11|c12|c13|c14;
_cml_ineqproc = &inevgarch;
{b,f0,g,cov,retcode} = maxprt(cml(data,0,&lnlk,startv));
164 CHAPTER 10 MODELOS MULTIVARIADOS
10.6 Cointegracin y MCE
10.6.1 Cointegracin Uniecuacional
Supongamos que y
t
, x
t
son RW (i.e. no estacionarios). Dado lo anterior es de
esperar que una combinacin lineal de x, y tambien sea RW. Sin embargo, las
dos series pueden tener la propiedad de que una combinacin lineal particular
de ellas (y
t
x
t
) sea estacionaria. Si tal propiedad es vlida, entonces se
dice que y, x cointegran.
Procedimiento de Dos Etapas de Engle y Granger (EG2)
La ideas de cointegracin surge del artculo de Engle y Granger (EMA, 1987),
en el cual proponen un procedimiento de dos etapas para modelar variables
cointegradas. Sin embargo no est libre de problemas. Las etapas son dos:
Paso 1. Estimar la relacin de cointegracin por OLS:
y
t
= +x
t
+
t
(10.1)
y testear la existencia de cointegracin analizando las propiedades de las
series
t
.
Para esto se utiliza el test de CRDW (cointegrating regression Durbin-
Watson), el cual evalua si
t
es I (1), es decir si el DW 0 (no cointegracin).
Si DW es signicativamente mayor a cero, entonces x, y cointegran. H
0
:
DW = 0 (No Cointegracin), si DW
c
> DW
Tabla
rechazamos H
0.
Para esto
ver tabla de EG1987 para DW.
Otra alternativa es testear raz unitaria para los residuos
t
con DFA u
otro test (Phillips-Perron, Said-Dickey, Kwiatkowski et al., etc...).
Si la hiptesis de no cointegracin en rechazada, entonces la ecuacin (1)
representa la relacin de largo plazo entre y y x, y el vector de parmetros
estimados

,

se denomina vector de cointegracin.


Paso 2. Denir el modelo de correccin de errores que incluye como
variable explicativa al rezago del error de la ecuacin de cointegracin
t1
:
A(L) y
t
= B(L) x
t
+
t1
+
t
10.6 COINTEGRACIN Y MCE 165
Modelo de Correcin de Errores Uniecuacional
Consideremos un ecuacin de demanda por dinero tradicional con una vari-
able de ajuste de stocks de corto plazo:
m
t
= +y
t
+i
t
+m
t1
+
t
Asumiendo equilibrio de largo plazo m
t
= m
t1
de manera que la relacin
de largo plazo se representa por:
m =

1
+

1
y +

1
i
Restando m
t1
a ambos lados y sumando cero:
m
t
= +y
t
+i
t
+ ( 1) m
t1
+y
t1
y
t1
+i
t1
i
t1
+
t
m
t
= +y
t
+i
t
+ ( 1) m
t1
+y
t1
+i
t1
+
t
m
t
= y
t
+i
t
(1 )

m
t1

+y
t1
+i
t1
1

+
t
Mtodo de Tres Etapas de Engle-Yoo
Existen dos problemas con el mtodo de EG2: (i) si los errores de la ecuacin
esttica estn correlacionados, entonces los estimadores estn sesgados y son
inecientes, y, (ii) la distribucin de los estimadores es generalmente no-
normal y por lo tanto no es posible efectuar inferencias a partir de los usuales
test-t en la regresin de cointegracin.
La solucin porpuesta por Engle-Yoo a este problema es:
Paso 1. Estimar la ecuacin de largo plazo y
t
= +x
t
+
t
. Esto entrega
un vector de conintegracin

1
,
1

.
Paso 2. Estimar el modelo de correcin de errores:
A(L) y
t
= B(L) x
t
+
t1
+
t
Se guardan los residuos estimados de esta ecuacin
t
, y el trmino de cor-
recin de errores .
Paso 3. Regresionar los residuos del modelo anterior (ECM)
t
con los
regresores de largo plazo del modelo (x
t
) ponderados por el inverso aditivo
del parmetro de correcin de errores :

t
=
0
+
1
( x
t
) +
t
166 CHAPTER 10 MODELOS MULTIVARIADOS
El vector original de parmetros estimados

1
,
1

se ajustan por estos


nuevos estimadores:

3
=
1
+
0

3
=
1
+
1
Los errores estandar de los coecientes de la regresin de largo plazo son sim-
plemente los errores estandar de los coecientes
i
estimados en la regresin
del paso 3. Los estadsticos t computados utilizando estos errores estandar
tienen una distribucin t que puede ser utilizada para hacer inferencia per-
fectamente.
Phillips-Hansen Fully Modied Estimator (PH)
Sea el DGP:
y
1t
= x
1t
+u
1t
x
1t
= x
1t1
+u
2t
donde se asume que y
1t
, x
1t
son I (1). Cuando los trminos de errores u
it
estn
auto e intercorrelacionados, y cuando la regresin esttica y
1t
= x
1t
+ u
1t
no utiliza ninguna de la informacin que permite generar x
1t
, los sesgos en
el estimador pueden ser grandes. HP propone la siguiente solucin.
Asumamos que la estructura exacta de la estructura de var-covarianza
u
t
= [u
1t
, u
2t
]
0
es desconocido. Sin embargo sabemos que es dbilmente esta-
cionario (i.e. covarianza estacionario), lo cual se describe por:
u
t
[0, ]
donde = {
ij
} , i, j = 1, 2.
Es conveniente descomponer la matriz de var-covarianza en:
= V + +
0
donde V = E[u
0
, u
0
0
] es la matriz de covarianza contemporanea, y donde
=
k
E[u
0
, u
0
k
] captura el componente de correlacin serial del vector de
error. Entonces si el proceso de error es no correlacionario y estacionario,
entonces la matriz de covarianza = V . En presencia de correlacin serial
entonces los trminos de no son cero.
10.7 SISTEMAS DE COINTEGRACIN 167
El fully modied least squares estimator de toma la forma:

+
=

T
t=1
x
2
1t

1
h

T
t=1
y
+
1t
x
1t

+
i
donde:
y
+
1t
= y
1t

12
(
22
)
1
x
1t

+
=

_
_
1
(
22
)
1

12
_
_

k=0
E[u
20
u
0
k
]
El estimador modicado envuelve dos correciones. Primero el trmino

+
corrige el sesgo en el estimador utilizando estimaciones de largo plazo de la
matriz de var-covarianza. Segundo, se utiliza una variable instrumental de
manera que el estimador est condicionado en y
+
1t
en lugar de y
1t
.
Finalmente, el error estndar modicado por PH se dene por s
+
como:

s
+

2
=
11.2

T
t=1
x
2
1t

1
donde:

11.2
=
11

2
21

1
22
10.7 Sistemas de Cointegracin
Dado un vector XI(1) de n elementos, puede haber a lo ms n 1 combi-
naciones de cointegracin. Sea el nmero de combinaciones de cointegracin
r. Luego 0 r n 1, y los r vectores de cointegracin se representan en
una matriz n r denida por = [
1
,
2
, ...,
r
]. El nmero de vectores de
cointegracin se conoce como el rango de cointegracin de X
t
.
10.7.1 Identicacin del Rango de Cointegracin
Note que en el caso en que r = 0 entonces no habra ninguna relacin de
cointegracin, y por lo tanto el modelo puede estimarse en sus primeras
diferencias.
168 CHAPTER 10 MODELOS MULTIVARIADOS
El modelo de correccin de errores vectorial VECM se deriba de un VAR
general de la forma:
X
t
=
1
X
t1
+
2
X
t2
+...
k
X
tk
+
t
donde los elementos de X
t
son I(1).
Puesto que queremos revisar relaciones de cointegracin dentro de un
sistema estacionario, podemos reparametrizar el modelo de forma analoga
al proceso uniecuacional del caso bi-variado. Luego rezagando la ecuacin
anterior y agregando y restando
i
X
ti
para i = 1, 2, ..., k en el lado derecho,
permite representar el VECM como:
X
t
= X
tk
+
k1
i=1

i
X
ti
+
t
donde:

i
= (I
1
...
i
) , i = 1, ..., k
= (I
1
...
k
)
Los
i
son los parmetros dinmicos del vector del modelo, y la matriz
contiene los parmetros de largo plazo del modelo.
El mtodo de Maximum Likelihood de Johansen consiste en examinar el
rango de la matriz la cual contiene informacin sobre las relaciones de
largo plazo. Aqu tenemos tres casos:
(i) posee rango cero. En este caso no hay vectores de cointegracin y
signica que las variables on individualmente I(1) y que no existe relaciones
de largo plazo de la data. La manera en que debe ser estimado el sistema es
a travs de un VAR estndar con variables en primeras diferencias, i.e. X
t
.
(ii) La matriz tiene rango completo, lo cual signica que las variables
no diferenciadas son de hecho I(0), y entonces el modelo es estacionario en
niveles.
(iii) La matriz tienen rango r, donde 0 < r < n, lo cual signica que
existen r vectores de cointegracin entre las n variables.
Part IV
Modelos No Lineales
Univariados
169
Chapter 11
Estimacin por Mxima
Verosimilitud
Ejercicio. Suponga que la distribucin de densidad conjunta dos variables
aleatorias x, y est dada por:
f (x, y) =
e
(+)y
(y)
x
x!
, > 0
y = 0
x = 0, 1, 2, ....
Obtenga los estimadores de mxima verosimilitud de los parmetros y .
Para obtener los estimadores MVdebemos generar la funcin log-verosimilitud
y derivarla con respecto a los parmetros de inters:
$(, ) =
X
ln

e
(+)y
(y)
x
x!

=
X

ln

x!
(y)
x
y y

= T ln
X
lnx! +
X
xln(y) +
X
xln ()
X
y
X
y
entonces
$

=
P
x


X
y = 0
$

=
T


X
y = 0
171
172CHAPTER11 ESTIMACINPORMXIMAVEROSIMILITUD
De donde se obtiene nalmente que:

MV
=
P
x
P
y
=
x
y

MV
=
1
y
Ejercicio. Para el modelo Y = X + se dispone de la siguiente infor-
macin:
x
0
x =
_
_
20 11
11 25
_
_
x
0
y =
_
_
25
10
_
_
Calcule los estimadores mnimos cuadrados. Genere un intervalo de con-
anza del 95% para el coeciente de sensibilidad. Suponiendo que el error
se distribuye con media 0 y matriz de varianzas y covarianzas identidad (I)
testee la hiptesis nula H
0
:
0
=
1
= 0 utilizando el test de razn de
verosimilitud.
A partir de la informacin entregada en la prueba podemos calcular los
estimadores OLS:

= (x
0
x)
1
x
0
y =
_
_
20 11
11 25
_
_
1
_
_
25
10
_
_
=
_
_
1. 358 8
0.197 89
_
_
(11.1)
Asumiendo que e
0
e = 36 la varianza estimada para el estimador

1
ser:

=
e
0
e
T k
(x
0
x)
1
=
36
20 2
_
_
20 11
11 25
_
_
1

=
_
_
0.131 93 5. 804 7 10
2
5. 804 7 10
2
0.105 54
_
_
lo cual indica que la desviacin estndar estimada del parmetro estimado

1
ser

1
=
2

0.105 54 = 0.324 87. Un intervalo de conanza para


1
se
173
genera a partir del estadstico:
t
c
=

1
t (T k)
en nuestro caso al reemplazar y considerando un intervalo de conanza 95%,
para t
0.975
(18) = 2.101 el intervalo para el parmetro
1
ser:

1
t
0.975
(T k)

1
<
1
<

1
+t
0.975
(T k)

1
reemplazando con los resultados obtenidos anteriormente:
0.197 89 2.101 0.324 87 <
1
< 0.197 89 + 2.101 0.324 87
0.880 44 <
1
< 0.484 66
Suponiendo que el error se distribuye normal con valor esperado cero y matriz
de varianzas y covarianzas identidad, entonces efectuemos el test de razn de
verosimilitud para testear la hiptesis nula H
0
:
0
=
1
= 0.
La funcin de log-verosimilitud para el modelo propuesto ser:
$
NR
=
T
2
ln (2)
T
2
ln
2

1
2
e
0
e

2
Recordando que e
0
e = y
0
y y
0
x

podemos reescribir la expresin anterior


como:
$
NR
=
T
2
ln (2)
T
2
ln
2

1
2
y
0
y y
0
x

2
Si ahora escribimos la misma expresin anterior pero para el modelo re-
stringido tenemos que dado una hiptesis nula de que
0
=
1
= 0, entonces:
$
R
=
T
2
ln (2)
T
2
ln
2

1
2
y
0
y

2
Considerando que
2
= 1 podemos resescribir esta expresin de la siguiente
forma, tanto para el modelo no restringido como para el modelo restringido
(ln(1) = 0):
$
NR
=
T
2
ln(2)
1
2

y
0
y y
0
x

$
R
=
T
2
ln(2)
1
2
y
0
y
174CHAPTER11 ESTIMACINPORMXIMAVEROSIMILITUD
El test de LR se forma del doble de la diferencia entre estas dos expresiones,
es decir:
LR = 2

$
NR
$
R

LR = 2

T
2
ln(2)
1
2

y
0
y y
0
x

T
2
ln(2)
1
2
y
0
y

LR = 2

1
2

y
0
y y
0
x

+
1
2
y
0
y

= y
0
y +y
0
x

+y
0
y = y
0
x

LR =

25 10

_
_
1. 358 8
0.197 89
_
_
= 31. 991
Para un test
2
95%
(2) = 5.99. Como LR > 5.99 entonces rechazamos la hipte-
sis nula H
0
:
0
=
1
= 0.
Ejercicio. De la siguiente muestra de tamao 10 para una variable aleato-
ria x generada de una distribucin normal con media y varianza
2
, es decir
x N (,
2
):
{1.1, 2.4, 0.5, 2.2, 0.8, 0.1, 2.9, 3.3, 2.5, 1.9}
Testee la hiptesis de que la varianza es uno, es decir H
0
:
2
= 1. Genere
un intervalo de conanza del 95% para
2
, y utilizando un test de razn de
verosimilitud testee la hiptesis conjunta H
0
:
_
_
= 2

2
= 1.5
_
_
.
Lo primero es calcular la varianza muestral:
s
2
=
P
(x
i
x)
2
N 1
=
10.541
9
= 1. 171 2

2
= s
2
N 1
N
= 1.1712
9
10
= 1. 054 1
Para testear H
0
:
2
= 1 debemos recordar la expresin:
(N 1)
s
2

2

2
(N 1)
Luego el test consisrte en:

2
c
= (N 1)
s
2

2
H
0
= (9)
1. 171 2
1
= 10. 541
175
Al comparar con un valor de tabla de
2
0.975
(9) = 19.02 vemos que no rec-
hazamos la hiptesis nula H
0
:
2
= 1
Para el clculo del intervalo de conanza aplicamos una expresin similar:
(N 1)
s
2

2
0.975
(N 1)
<
2
< (N 1)
s
2

2
0.025
(N 1)
(9)
1.1712
19.02
<
2
< (9)
1.1712
2.7
0.554 20 <
2
< 3. 904
Los valores para el clculo del test LR para H
0
:
_
_
= 2

2
= 1.5
_
_
se obtienen
una vez evaluada la funcin de log-verosimilitud en los parmetros estimados
versus los restringidos:
$
NR
=
n
2
ln (2)
n
2
ln
2

1
2
P
(x
i
)
2

2
Al reemplazar por los valores ya encontrados:
$
NR
=
n
2
ln (2)
n
2
ln
2

1
2
P
(x
i
)
2

2
$
NR
=
10
2
ln (2)
10
2
ln1. 054 1
1
2
10.541
1. 054 1
= 14. 453
$
R
=
10
2
ln (2)
10
2
ln1.5
1
2
P
(x
i
2)
2
1.5
$
R
=
10
2
ln (2)
10
2
ln1.5
1
2
11.07
1.5
= 14. 907
Con este resultado aplicamos el test LR:
LR = 2

$
NR
$
R

LR = 2 (14. 453 (14. 907))


LR = 0.908
Comparando con un estadstico de tabla
2
0.95
(2) = 5.99 vemos que no es
posible rechazar la hiptesis nula H
0
:
_
_
= 2

2
= 1.5
_
_
.
176CHAPTER11 ESTIMACINPORMXIMAVEROSIMILITUD
Ejercicio. La variable aleatoria x posee la siguiente distribucin:
f (x) =
e

x
x!
, x = 0, 1, 2, 3, ....
Suponga que se obtiene la siguiente muestra aleatoria para x:
3, 5, 1, 2, 1, 0, 0, 1, 1, 4, 2, 0, 0, 3, 2
Utilice el test de Wald para evaluar la hiptesis H
0
: = 2.
Si la variable aleatoria tiene la distribucin:
f (x) =
e

x
x!
entonces la funcin de log-verosimilitud (log-likelihood) se representar por:
$() =
X
ln

x
x!

=
X

ln
1
x!

=
X
ln
1
x!
+ ln
X
x T
Derivando con respecto a se obtiene:
$

=
1

X
x T = 0

MV
=
P
x
T
= x
Dada la muestra este estimador equivale a

MV
=
25
15
= 1. 666 7.El test de
Wald a aplicar es equivalente a testear la hiptesis H
0
: g () = 0 donde en
nuestro caso g () = 2:
W =

MV

V

g

MV
=

MV

H
0

MV

dado que la varianza de g () es equivalente en esta restriccin lineal a la


varianza de . Es decir:
W =
(1.6667 2)
2

MV

177
La varianza del estimador maximo-verosimil se obtiene de derivar dos veces
la funcin de lok.likelihood pues sabemos que:

MV

2
$

1
=

1

2
X
x

1
Al valorar en el estimador

MV
esta expresin tenemos:

MV

2
MV
X
x
!
1
=

1
1.66666666
2
25

1
= 0.11111111
luego el test de Wald es:
W =
(1.666666 2)
2
0.1111111
= 1.0
Al 95% de una Chi-cuadrado con un grado de libertad se tiene un valor crtico
de tabla de 3.84 lo cual nos indica que no rechazamos la hiptesis nula de
que = 2.
Chapter 12
GMM
Para comenzar a explicar en qu consiste en Mtodo Generalizado de Mo-
mentos hay que introducir el concepto a travs de la estimacin por el clsico
Mtodo de los Momentos.
12.1 Mtodo de Momentos
Sean una variable aleatoria y generada a partir de una funcin de distribucin
t-student con grados de libertad:
f(y, ) =

h
(+1)
2
i
[]
1
2

1 +
y
2

(
+1
2
)
donde la funcin gamma se representaba por (x) = (x 1)!.
Dado que la funcin de distribucin posee solamente un parmetro rep-
resentativo (su grado de libertad ), supongamos que tenemos una muestra
de observaciones de tamao T.
Una forma de estimar este parmetro es a travs del mtodo de mxima
verosimilitud, calculando primero la funcin de logaritmo de verosimilitud
y segundo maximizando el valor de esta funcin de manera de encontrar el
estadstico

MV
.
El Mtodo de los Momentos entrega una alternativa de estimacin para
este parmetro. Sabemos que la media poblacional de una distribucin t es
cero y que su varianza es igual a

2
. Si sabemos que:

2
y
= E

y
2

[E(y)]
2
= E

y
2

=

2
179
180 CHAPTER 12 GMM
entonces podemos encontrar la expresin muestral de
2
y
a partir de:

2
y
=

E

y
2

=
1
T
P
T
t=1
y
2
t
Dado que
2
y
=

2
entonces parece natural que el estimador de se obtenga
a partir de:

2
y
=
1
T
P
T
t=1
y
2
t
=

2
con lo cual llegamos a que el estimador de mtodo de los momentos para
ser:

MM
=
2
2
y

2
y
1
Es decir el estimador

MM
del mtodo de los momentos es el valor para el
cual los momentos poblacionales son igualados a los momentos observacios
muestrales.
Supongamos que adems del segundo momento se requiere calcular el
parmetro utilizando otros momentos como por ejemplo el cuarto momento
de la distribucin t que denotamos por (kurtosis):
E

y
4

=
3
2
( 2) ( 4)
con su contraparte muestral igual a
1
T
P
y
4
t
.
Dado que ahora son ms de una funcin a minimizar se requiere de alguna
forma de ponderacin entre ellas de manera de evitar conictos entre cada
ecuacin a minimizar. El Mtodo de los Momentos Generalizados (GMM)
permite escoger de manera de minimizar la siguiente funcin:
Q
T
() = g
0
Wg
donde W es una matriz simtrica denida positiva de ponderacin entre los
momentos y g (vector de orden 2x1) se denota por:
g =
_
_
1
T
P
y
2
t


2
1
T
P
y
4
t

3
2
(2)(4)
_
_
12.2 MTODO GMM DE HANSEN 181
12.2 Mtodo GMM de Hansen
Denamos a
t
un vector de hx1 variables aleatorias observadas en t, un
vector de dimensin kx1. Sea h(,
t
) un vector de funcin real de dimensin
rx1, y sea
0
el verdadero valor de , que supongamos obedece a la propiedad:
E[h(
0
,
t
)] = 0
rx1
Si denotamos por g () a la contraparte muestral de h(,
t
):
g () =
1
T
T
P
t=1
h(,
t
)
La idea detrs de la metodologa GMM es escoger de manera de hacer que
el momento muestral g () sea lo ms cercano posible al momento poblacional
de cero E[h(
0
,
t
)] = 0.
Denicin. El estimador GMM

GMM
es el valor de que minimiza el
escalar:
Q
T
() = g ()
0
W
T
g ()
donde {W
T
}

T=1
es una secuencia de matrices de ponderacin denidas posi-
tivas de orden rxr que pueden ser funcin de las series observadas.
As lo que podemos observar es que el estimador del mtodo de momentos
clsico para

MM
=
2
2
y

2
y
1
es un caso especial de GMM:

t
= y
t
=
W
T
= 1
h(,
t
) = y
2
t


2
g () =
1
T
P
y
2
t


2
r = k = 1
Q
T
() =

1
T
P
y
2
t


2

2
La solucin de este problema claramente se logra cuando

GMM
=
2
2
y

2
y
1
donde

2
y
=
1
T
P
T
t=1
y
2
t
, que corresponde al estimador

MM
.
182 CHAPTER 12 GMM
12.3 W
T
Optima
Es necesario determinar cual es el valor ptimo de W
T
al momento de cal-
cular los estimadores GMM. Supongamos que cuando se evala en el vector
verdadero
0
, el proceso {h(
0
,
t
)}
t=
t=
es estrictamente estacionario com
media cero y matriz de autocovarianza de orden dada por:

= E

h(
0
,
t
) h(
0
,
t
)
0

Asumiendo que estas autocovarianzas son sumables se dene:


S =

P
=

Sabemos que S es la varianza asinttica de la media muestral de h(


0
,
t
):
S = lim
T
T E

g (
0
) g (
0
)
0

entonces el valor ptimo de la matriz de ponderacin de g () para g ()


0
W
T
g ()
ser S
1
. De esta manera la mnima varianza asinttica del estimador GMM

T
se obtiene cuando

T
se escoge de manera de minimizar la funcin:
Q
T
() = g ()
0
S
1
g ()
Existen dos alternativas de presentacin del vector que representa al pro-
ceso {h(
0
,
t
)}
t=
t=
ya sea que esten serialmente no correlacionados o se-
rialmente correlacionado.
Si no existe correlacin entonces la matriz S = lim
T
TE

g (
0
) g (
0
)
0

puede ser estimada consistemente a travs de su contraparte muestral:


S
T
=
1
T
T
P
t=1
h(
0
,
t
) h(
0
,
t
)
0
Calcular S
T
requiere de un estimador para
0
aunque puede demostrarse
que para cualquier estimador consistente de
0
, si h(
0
,
t
) no se correlaciona
serialmente, entonces:

S
T
=
1
T
T
P
t=1
h

T
,
t

T
,
t

0
P
S
Dado el carcter recursivo del mtodo, pues para estimar requerimos
de un estimador de S, y para estimar S requerimos de un estimador de ,
entonces se plantea un esquema iterativo con criterio de convergencia con el
siguiente algoritmo:
12.3 W
T
OPTIMA 183
1. Obtener un estimador inicial de

(0)
T
minimizando la expresin:
Q() = g ()
0
W
T
g ()
utilizando la matriz W
T
= I
r
.
2. Con este estimador de (

(0)
T
) se procede a calcular la primera esti-
macin de S:

S
(0)
T
=
1
T
T
P
t=1
h

(0)
T
,
t

(0)
T
,
t

0
3. Utilizamos W
T
=
h

S
(0)
T
i
1
en la expresin de Q() para estimar un
nuevo vector de parmetros GMM

(1)
T
:
Q() = g ()
0
h

S
(0)
T
i
1
g ()
4. Con este nuevo vector

(1)
T
se calcula una nueva matriz S,

S
(1)
T
movin-
donos al paso 2.
Este proceso itera hasta que la regla de detensin (stopping rule) es vlida,
es decir hasta que el vector de parmetros entre cada iteracin sea equivalente
considerando algn criterio de distancia (euclidiana por ejemplo):

(j)
T

=

(j+1)
T
Si alternativamente se presume que el proceso vectorial de {h(
0
,
t
)}
t=
t=
est serialmente correlacionado, entonces se puede utilizar el estimador de
Newey-West (1987) para S:

S
T
=

0,T
+
q
P
=1


q + 1

,T
+

0
,T

S
T
=

0,T
+
q
P
=1

1

q + 1

,T
+

0
,T

donde:

,T
=
1
T
T
P
t=+1
h

,
t

,
t

0
184 CHAPTER 12 GMM
Hay que mencionar que existen variadas funciones kernels candidatos a
ponderar las matrices de autocovarianzas. A continuacin se presentan los
kernels ms conocidos entre los cuales se encuentra el propuesto por Newey-
West, que fue utilizado anteriormente:
1. Kernel Truncado (White):
k
TR
(x) =
_
_
_
1 para |x| 1
0 en otro caso
_
_
_
2 1 0 -1 -2
1.25
1
0.75
0.5
0.25
0
x
y
x
y
Kernel Truncado
2. Kernel Bartlett (Newey-West):
k
B
(x) =
_
_
_
1 |x| , para |x| 1
0, en otro caso
_
_
_
12.3 W
T
OPTIMA 185
2 1 0 -1 -2
1.25
1
0.75
0.5
0.25
0
x
y
x
y
Kernel Bartlett (Newey-West)
3. Kernel Parzen (Gallant):
k
PR
(x) =
_

_
1 6x
2
+ 6 |x|
3
, para 0 |x|
1
2
2 (1 |x|)
3
, para
1
2
|x| 1
0 en otro caso
_

_
2 1 0 -1 -2
1.25
1
0.75
0.5
0.25
0
x
y
x
y
Kernel Parzen
4. Tukey-Hanning:
k
TH
(x) =
_
_
_
(1+cos(x))
2
, para |x| 1
0, en otro caso
_
_
_
186 CHAPTER 12 GMM
2 1 0 -1 -2
1.25
1
0.75
0.5
0.25
0
x
y
x
y
Kernel Tukey-Hanning
5. Quadratic-Spectral (Andrews):
k
QS
(x) =
25
12
2
x
2

sin

6x
5

6x
5
cos

6x
5

!
2.5 1.25 0 -1.25 -2.5
1.25
1
0.75
0.5
0.25
0
x
y
x
y
Kernel Quadratic Spectral (Andrews)
Otro punto de relevancia consiste en determinar el q ptimo, parmetro
conocido como bandwidth parameter. La literatura menciona criterios au-
tomticos de seleccin para este parmetro (Andrews, 1991, "Heteroskedas-
ticity and Autocorrelation Consistent Covariance Matrix Estimation", ECONO-
METRICA 59(3), y Newey and West, 1994, "Automatic Lag Selection in
Covariance Matrix Estimation", Review of Economic Studies 61(4)).
12.4 DISTRIBUCIN DE LOS ESTIMADORES GMM 187
Newey-West y Andrews determinan este parmetro segn las siguiente
ecuaciones para los kernel tipo Barttlet (Newey-West) y Quadratic-Spectral
(Andrews):
q
B
= 1.1447 [ (1) T]
1
3
q
QS
= 1.3221 [ (2) T]
1
5
donde:
(1) =
P
k
a=1
4
2
a

4
a
(1
a
)
6
(1+
a
)
2
P
k
a=1

4
a
(1
a
)
4
(2) =
P
k
a=1
4
2
a

4
a
(1
a
)
8
P
k
a=1

4
a
(1
a
)
4
Para determinar el par


a
,
2
a

Andrews y Monahan ("An Improved Het-


eroskedasticity and Autocorrelation Consistent Covariance Matrix Estima-
tor", ECONOMETRICA 60) proponen estimar un proceso AR(1) para el
componente a
esimo
de {h(
0
,
t
)} previamente "blanqueado" a travs de un
V AR(1) o un V AR(2).
12.4 Distribucin de los Estimadores GMM
Sea

T
el vector que minimiza la expresin:
Q() = g ()
0
h

S
T
i
1
g ()
donde

S
T
P
S. Asumiendo un ptimo interior, esta minimizacin se consigue
haciendo que la derivada de la expresin anterior con respecto al vector de
parametros sea cero. Luego el vector

GMM
T
se obtiene de la solucin del
siguiente sistema de ecuaciones no lineales:
Q()

=
_

g ()
0
h

S
T
i
1
g ()

_
=

g ()

0
=

T
h

S
T
i
1
g () = 0
188 CHAPTER 12 GMM
donde

g()

0
=

T
es una matriz de orden kxr,
h

S
T
i
1
es de orden rxr, g ()
de orden rx1, y nalmente 0 es de orden kx1.
Utilizando la teora central del lmite se puede demostrar que la distribu-
cin asinttica del estimador

T
est dada por:

T

0

N (0, V )
donde V = (DS
1
D
0
)
1
, de manera que podemos decir que la distribucin
aproximada del estimador GMM ser:

T
N

0
,

V
T
T
!
donde:

V
T
=

D
T

S
1
T

D
0
T

S
T
=
_

_
1
T
T
P
t=1
h

T
,
t

T
,
t

0
h no correlacionado

0,T
+
q
P
=1
h
1

q+1

,T
+

0
,T
i
h correlacionado
_

D
T
=

g ()

0
=

T
con

D
T
es de orden kxr.
Ms formalmente las siguientes tres condiciones son las que permiten
llegar a la distribucin asinttica del estimador para

T
:
1.

Tg (
0
)
CLT
N (0, S)
2.

T
P

0
3. p lim

g()

= p lim

g()

=
0

= D
0
Estas condiciones permiten decir entonces que:

T

0

CLT
N (0, V )
donde V = (DS
1
D
0
)
1
, de manera que entonces

T
N

0
,

V
T
T

.
12.4 DISTRIBUCIN DE LOS ESTIMADORES GMM 189
12.4.1 S Cuasi-Singular
Empiricamente es comn encontar que la matriz S es casi singular, lo cual di-
culta el trabajar con su inversa S
1
. Ete hecho se da especialmente cuando
se estima modelos con retornos de activos pues estos tienden a estar fuerte-
mente correlacionados unos a otros, fenmeno que se refuerza cuando adems
se incluyen muchos activos en relacin al nmero de observaciones (un nivel
de saturacin parmetros/data muy alto).
Por ejemplo supongamos que:
S =
_
_
1
1
_
_
de manera que su inversa es:
S
1
=
_
_

2
1

2
1

2
1

1

2
1
_
_
La descomposicin matricial de Cholesky permite descomponer cualquier
matriz real cuadrada simtrica y denida positiva (como debiera ser S
1
) en
dos matrices que cumplen con la condicin que C
0
C = S
1
. Para nuestro
ejemplo la descomposicin de Cholesky se denota por la matriz C denida
por:
C =
_

_
q

2
1

(
2
1)
q

2
1
0
q

2
1


2
(
2
1)
2
(
2
+ 1)
_

_
Lo interesante de esta descomposicin es que nos permite visualizar el
peso que se le est dando a cada momento dentro de la funcin objetivo.
Recordemos que la funcin a minimizar la denimos por:
Q() = g ()
0

S
1
T
g ()
Si reemplazamos

S
1
T
por su descomposicin de Cholesky respectiva se ob-
tiene:
Q() =

g ()
0
C
0

[Cg ()]
de manera que la expresin Cg () nos seala la ponderacin que cada mo-
mento tendr en el proceso de minimizacin.
190 CHAPTER 12 GMM
Por ejemplo para el caso en que = 0.9 la matriz C es:
C =
_
_
2. 294 2 2. 064 7
0 1.0
_
_
indicando que el peso en la funcin objetivo del primer momento es ms del
doble de lo que se pondera el segundo momento, y que adems la diferen-
cia entre los dos momentos tienen una ponderacin doble a la del segundo
momento.
El consejo prctico es evaluar la matriz S
1
con su descomposicin de
Cholesky de manera de visualizar cul es la ponderacin de los momentos
que est siendo utilizada en la funcin objetivo.
12.4.2 Inferencia
En relacin a inferencia sobre el i
esimo
elemento del vector

i,T

podemos
utilizar la distribucin asinttica anterior

T
N

0
,

V
T
T

de manera que:

i,T

i,0
q

V
ii,T
T
N (0, 1)
de manera que si el estadstico

es mayor a 1.96 entonces rechazamos la


hiptesis nula H
0
:
H
0
i,0
=
i,0
, donde

i,T
es el elemento i del vector

T
y

V
ii,T
es el elemento i de la diagonal de la matriz

V
T
.
Para el caso de hiptesis conjuntas o multivariadas consideremos una
funcin F : <
k
0
J
, es decir de los reales-dimension k a un vector de ceros de
dimensin J donde J indica el numero de hiptesis conjuntas (restricciones).
Entonces F (
0
) = 0
J
representa las J hiptesis que potencialmente puede
incorporar a todo o parte del vector de parmetros
0
.
Para testear la hiptesis nula F (
0
) = 0
J
, se debe hacer uso del hecho
que si efectivamente F (
0
) = 0
J
, entonces asintticamente como sabemos
que

T

0

N (0, V ), entonces se cumple que:

TF

a
N (0
J
, V
F
)
12.5 APLICACIONES 191
donde:
V
F
= f (
0
) V f (
0
)
0
f (
0
)
JxJ
=

F

=
0
La contraparte muestral de este test debe considerar estimadores para V
de manera que:

V
F,T
= f


V
T
f

0
Finalmente el test se efecta con la expresin cuadrtica de la distribu-
cin asinttica normal, es decir una chi-cuadrado con J grados de libertad,
equivalente al nmero de restricciones o subhiptesis consideradas:
TF

0

V
1
T
F


2
(J)
Test de Hansen
Usualmente denominado test de Hansen, este desarrolla una manera de testear
lo que se conoce como restricciones de sobreidenticacin (J
T
test) que
evala el ajuste completo del modelo estimado. Establece que el estadstico
formado por T veces el valor de la funcin objetivo minimizada en la segunda
etapa iterativa posee una distribucin chi-cuadrado con grados de libertad
equivalentes a la diferencia entre momentos considerados (r) y parmetros
estimados (k):
TJ
T
= T min

g ()
0
h

S
T
i
1
g ()


2
(r k)
12.5 Aplicaciones
Esta seccin revisa las aplicaciones ms conocidas de la metodologa GMM.
192 CHAPTER 12 GMM
12.5.1 Mnimos Cuadrados
12.5.2 Modelos de Expectativas Racionales
Sea la funcin de bienestar del tipo de aversin relativa al riesgo contante
(CCRA), denida por:
u(c
t
) =
_
_
_
c
1
t
1
para > 0 y 6= 1
ln (c
t
) para = 1
_
_
_
donde c
t
es el consumo del agente en el momento t, representa al coeciente
de aversin relativa al riesgo, y la funcin de utilidad es creciente al tasas
decrecientes: u
0
> 0 , u
00
< 0.
En esta economa el agente representativo maximiza su nivel de bienestar
descontado a una tasa < 1 que es equivalente a
1
1+
donde > 0 representa
la tasa de descuento subjetivo del agente representativo.
El probela analticamente a resolver es:
MaxE
0

P
t=0

t
u(c
t
|=
t
)
sujeto a la restriccin de ujo que indica c
t
+p
it
s
it+1
= (p
it
+d
it
) s
it
, y al set
de informacin disponible por el agente y el econometrista en el perodo t,
el cual denotamos por =
t
. En cada momento del tiempo t el agente decide
cunto comprar de cualquiera de los m activos disponibles a invertir, cada
uno de los cuales retorna una tasa bruta de retorno (1 +r
i,t+1
) en t + 1.
Si asumimos una solucin interior, es decir que el inversionista toma una
posicin en cada activo disponible, el portafolio ptimo del accionista deber
satisfacer las condiciones de Euler (condiciones necesarias de primer orden
del problema de optimizacin dinmica) siguientes:
u
0
(c
t
) = E[(1 +r
i,t+1
) u
0
(c
t+1
) |=
t
] i = 1, 2, ..., m
Al incorporar el supuesto de una funcin de utilidad del tipo CRRA,
descrita anteriormente, la expresin de optimalidad de Euler se traducir a:
c

t
= E

(1 +r
i,t+1
) c

t+1
|=
t

i = 1, 2, ..., m
Al simplicar esta expresin a:
1 = E
"
(1 +r
i,t+1
)

c
t+1
c
t

|=
t
#
12.5 APLICACIONES 193
queda claro que la variable aleatoria 1

(1 +r
i,t+1
)

c
t+1
c
t

no estar
correlacionado con el set de informacin =
t
disponible en el perodo t. Esta
ltima expresin se puede representar como una condicin de ortogonalidad,
donde la variable aleatoria

(1 +r
i,t+1
)

c
t+1
c
t

1 es ortogonal al set de
variables contenidas en =
t
, es decir:
E
"
(1 +r
i,t+1
)

c
t+1
c
t

1|=
t
#
= 0
Utilizando la notacin del modelo GMM denamos el vector de parmet-
ros y al vector de variables observadas por el econometrista
t
por:
= (, )
0

t
=

r
1,t+1
, r
2,t+1
, ..., r
m,t+1
,
c
t+1
c
t
, =
0
t

0
Concatenando las condiciones de ortogonalidad para los mactivos disponibles
llegamos a representar la funcin h(,
t
) por (r = m):
h(,
t
) =
_

(1 +r
1,t+1
)

c
t+1
c
t

|=
t

(1 +r
2,t+1
)

c
t+1
c
t

|=
t

(1 +r
3,t+1
)

c
t+1
c
t

|=
t
....

(1 +r
m,t+1
)

c
t+1
ct

|=
t
_

_
mx1
donde la representacin muestral de h(,
t
) estar denida por:
g () =
1
T
T
P
t=1
h(,
t
)
y la funcin objetivo es:
Q() = g ()
0
h

S
T
i
1
g ()
194 CHAPTER 12 GMM
Esta expresin debe ser minimizada numricamente con respecto a .
De acuerdo a la teora, la expresin 1 (1 +r
i,t+1
)

c
t+1
c
t

no de-
biera estra correlacionada con ninguna variable del set de informacin =
t
disponible en t, set que puede incluir incluso sus propios rezagos. Dada
esta caracerstica, el vector h(,
t
) no debiera estar correlacionado con sus
propios rezagos, lo cual sugiere que la matriz S pueda ser consistentemente
estimada por
1
:

S
T
=
1
T
T
P
t=1

T
,
t

rx1
h

T
,
t

0
1xr

donde

T
es un estimador inicial consistente que puede derivarse minimizando
Q() con

S
T
= I.
12.5.3 Modelos de Descuento Estocstico
Tradicionalmente modelos de CAPM (Capital Asset Pricing Models) y APT
(Arbitrage Price Theory) consideran ciertos parmetros como exgenos en la
determinacin de retornos, ya sea la tasa libre de riesgo o los factores que
se consideran en los modelos de multifactores como el APT. En su repre-
sentacin estndar, en estos modelos las decisiones de portafolio no toman
en consideracin perodos futuros siendo ms bien modelos estticos, que
adems ignoran decisiones intertemporales de consumo.
Modelos de equilibrio intertemporal permiten establecer que existe un
factor de descuento estocstico tal, que la esperanza del producto de cualquier
retorno bruto de un activo con este factor es igual a uno.
En modelos de equilibrio general de precios de activos, que consideran
decisiones intertemporales de consumo del agente representativo, el factor
de descuento estocstico es la tasa marginal de sustitucin intertemporal del
agente representativo.
Formalicemos el resultado del modelo presentado en secciones anteriores.
Si consideramos un agente representativo que maximiza el valor descontado a
1
Es usual suponer que los instrumentos o variables consideradas en el set de informacin
de este pronlemas sean:
=
t
=

1,
c
t
c
t1
,
c
t
c
t1
, ...,
c
t
c
t1
, r
1t
, r
1t1
, ..., r
2t
, r
2t1
, ...

0
12.5 APLICACIONES 195
una tasa del ujo de utilidades futuras u(c
t
) podemos decir que el plan de
consumo y portfolio ptimo de este agente estar representado en las ecua-
ciones de Euler (condiciones de primer orden del problema de optimizacin)
denidas por:
u
0
(c
t
) = E [(1 +r
i,t+1
) u
0
(c
t+1
) |=
t
] i = 1, 2, ..., m
Dividiendo ambos lados de la ecuacin por u
0
(c
t
), llegamos a denir el factor
de descuento estocastico a partir de:
E

u
0
(c
t+1
)
u
0
(c
t
)
(1 +r
i,t+1
) |=
t

= 1
E[m
t+1
(1 +r
i,t+1
) |=
t
] = 1
donde el factor de descuento estocstico, o precio-kernel, se dene por m
t+1
=

u
0
(c
t+1
)
u
0
(ct)
.
A partir de esta denicin es posible vericar que el factor de descuento
estocstico es siempre positivo (o en rigor no negativo), pues las utilidades
marginales son positivas (la excepcin es cuando tericamente u
0
() 0).
Si consideramos una funcin del tipo u(c) =
c
1
1
, entonces u
0
(c) = c

de manera que el factor de descuento estocstico ser:


m
t+1
=
u
0
(c
t+1
)
u
0
(c
t
)
=

c
t+1
c
t

Modelos ms completos, que involucran hbitos de consumo y dinero


en forma de Cash In Advance (CIA) o Money in Utility Function (MUF),
generan descuentos estocsticos modicados, los cuales se presentan a con-
196 CHAPTER 12 GMM
tinuacin:
Modelo Factor de Descuento
C-CAPM

c
t+1
c
t

Hbito Consumo

ct
c
t1

(1)

c
t+1
ct

Dinero MUF

c
t+1
c
t

(1)1

M
t+1
M
t
P
t
P
t+1

(1)(1)
Dinero CIA

M
t+1
Mt
P
t+1
P
t+2

P
t+1
Pt
P
t+1
P
t+2
: CRRA
: Factor Subjetivo de Descuento
: Grado de Separabilidad en Hbitos de Consumo
: Ponderacin de Consumo en Funcin de Utilidad
Ejercicio. Utilizando informacin de consumo privado para Chile y los
retornos de precios de acciones (IPSA) estimamos por GMM los coecientes
y para generar el factor de descuento estocstico m
t+1
.

También podría gustarte