Está en la página 1de 82

Part III

Series de Tiempo

115
Chapter 7

Modelos Univariados

7.1 Martingalas y Caminos Aleatorios


Para comenzar esta seccin hay que definir dos conceptos: Martingala y
Camino Aleatorio.
Una martingala es un proceso estocstico, supongamos {Pt } que satisface
una propiedad fundamental:

E [Pt+1 | Pt , Pt1,... ] = Pt

o puesto de otro modo:

E [Pt+1 Pt | Pt , Pt1,... ] = 0

Es decir la mejor prediccin del precio de un activo maana es el precio


que este tiene hoy da, y no impone ningn condicionamiento al proceso que
representa el riesgo del activo.
Tampoco quiere decir que aquel activo que obedezca a esta condicin
refleja cierta racionalidad de parte del mercado. Ha sido demostrado que la
propiedad de la martingala no es una condicin necesaria ni suficiente para
que los precios de activos sean determinados racionalmente (Lucas, Robert
(1978), "Asset Prices in an Exchange Economy", ECONOMETRICA).
Para demostrar este punto repliquemos el argumento de Lucas. Si asum-
imos un activo y un agente representativo que optimiza sus decisiones de
consumo de manera de maximizar su nivel de bienestar, podemos represen-

117
118 CHAPTER 7 MODELOS UNIVARIADOS

tar este problema por:


P

MaxE0 t u (ct )
t=0
sujeto a :
at+1 = Rt (yt + at ct )

donde a es la riqueza del individuo, c representa el nivel de consumo, y la


dotacin de produccin, R la tasa de retorno bruta de su ahorro, y el factor
de descuento subjetivo.
Si asumimos una economa simple donde la riqueza financiera se define
con la dotacin y retornos de acciones que se posee de una nica firma,
es decir a = (p + d) s donde d es el dividendo y s es el nmero de ac-
ciones que se poseen, y adems por simplicidad asumimos que y = 0, en-
tonces la restriccin presupuestaria del agente se debiera reescribir como:
ct + pt st+1 = (pt + dt ) st . Asumiendo adems que el precio depende del
estado de dividendos dt y que este vector de dividendos sigue un proceso
markoviano de primer orden cuya funcin de transicin se define por:

Rd0
F (d0 , d) = f (s, d) ds = Pr [dt+1 d0 | dt = d]
0

entonces podemos escribir la ecuacin de Bellman como:


R 0 0 0 0

v (s (p (d) + d)) = Max
0
u (c) + v (s (p (d ) + d )) F (d , d)
c,s
s.a.
0
c + ps = (p + d) s

Sabemos que de la condicin necesaria de primer orden y de la condicin


(teorema) de Benveniste-Scheinkman se llega a que el proceso que deter-
mina la evolucin de los precios corresponde a (imponiendo la condicin de
equilibrio competitivo que c = d):
R
u0 (d) p (d) = u0 (d0 ) [p (d0 ) + d0 ] F (d0 , d)

lo cual indica que los precios estn en equilibrio y reflejan toda la informacin
disponible. De esta ltima expresin es fcil verificar que la condicin de
martingala no se presenta en los precios del activo bajo anlisis. De existir
esta sera sobre la serie u0 (d) p (d), pues al calcular el valor esperado de
7.1 MARTINGALAS Y CAMINOS ALEATORIOS 119

u0 (d0 ) (p (d0 ) + d0 )u0 (d) p (d), esta sera cero, tal como predice la condicin
de la martingala.
Cabe destacar que para que se d la condicin de martingala para el nivel
de precios (corregidos por dividendos), es decir que se verifique:
R
p (d) = [p (d0 ) + d0 ] F (d0 , d)
se requerira que u0 (d) no cambie mucho con el nivel de dividendos (i.e. neu-
tralidad al riesgo, lo cual implica u0 (d) = u0 (d0 )), pero igualmente habra
que corregir por el factor de descuento .
Una hiptesis ms testeable empricamente es la de camino aleatorio.
Esta caracterstica impondr cierta estructura sobre los residuos poblacionales
de la siguiente expresin, donde es lo que se conoce como drift:
Pt = + Pt1 + t

t IID 0, 2
Si analizamos recursivamente esta expresin entonces podemos encontrar
cul es la relacin intertemporal del precio del activo en relacin al precio
inicial P0 de este:
Pt = + Pt1 + t
Pt = + ( + Pt2 + t1 ) + t = 2 + Pt2 + t1 + t
Pt = + + ( + Pt3 + t2 ) + t1 + t = 3 + Pt3 + t2 + t1 + t
...
P
j=t
Pt = P0 + t + j
j=1

Si a esta ltima expresin calculamos su valor esperado y su varianza llegamos


a dos expresiones lineales al tiempo t:
E [Pt | P0 ] = P0 + t
V [Pt | P0 ] = 2 t
Con esta representacin podemos decir que si el residuo se distribuye idn-
IID
tica e independientemente como una normal, es decir t N (0, 2 ), en-
tonces el proceso generador de datos para el precio del activo se denominar
Movimiento Browniano Aritmtico:
Pt = + Pt1 + t
120 CHAPTER 7 MODELOS UNIVARIADOS

El problema que surge al asumir una funcin de distribucin normal, es


que los precios pueden tomar valores negativos con probabilidad mayor que
cero, es decir Pr [P < 0] > 0, lo cual ciertamente es no es factible u observable
empricamente.
La correccin que se utiliza es asumir que este residuo posee una distribu-
cin lognormal, o lo que es lo mismo, asumir que este movimiento Browniano
se d para el logaritmo del precio del activo en lugar del nivel absoluto de
este. Este solo hecho hace que ahora los retornos, calculados como por la
diferencia del logaritmo (aproximacin), se distribuyan como una distribu-
cin normal, lo cual si puede ser factible empriamente. Este proceso se
denominar Movimiento Browniano Geomtrico:
ln Pt = + ln Pt1 + t
rt ln Pt ln Pt1

Pt
rt = ln
Pt1

rt = + t
IID
t N 0, 2
Este captulo evala las alternativas metodolgicas para testear distintos
grados de eficiencia de mercado, es decir presenta tests de independencia y
aleatoriedad desde distintos puntos de vista economtrico.

7.2 Independencia y Caminos Aleatorios


7.2.1 Test de Independencia: BDS
El test de Brock, Dechert y Scheinkman (BDS) permite evaluar la depen-
dencia temporal de una serie, y sirve para testear hiptesis alternativas de
dependencia lineal, no-lineal, o dependencia catica. Este test puede ser apli-
cado a series de residuos estimados para evaluar si estos son independientes
e idnticamente distribuidos (iid). Por ejemplo los residuos de un modelo de
series de tiempo ARIMA(p,d,q) pueden ser utilizados para evaluar si existe
alguna dependencia no lineal en la serie despus de que el modelo ha sido
estimado.
Para generar el test se debe escoger una distancia > 0. Posteriormente
se consideran un par de puntos. Si las observaciones de la series son ver-
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 121

daderamente iid, entonces, para cualquier par de puntos la probabilidad de


que la distancia entre estos sea menor o igual a ser constante. Definamos
a esta probabilidad c1 ( ).
Empricamente se consideran mltiples pares de puntos, movindonos
consecutivamente a lo largo de las observaciones, de manera que dada una
observacin s, y una observacin t de una serie y, podamos construir un
conjunto de pares de la forma:
{{ys , yt } , {ys+1 , yt+1 } , {ys+2 , yt+2 } , {ys+3 , yt+3 } , ..., {ys+m1 , yt+m1 }}
donde m es el nmero de puntos consecutivos a ser utilizados en el conjunto
(embedding dimension). Denotamos la probabilidad conjunta de todos los
pares de puntos en el set satisfaciendo la condicin de por la probabilidad
cm ( ).
El test BDS procede considerando que bajo el supuesto de independencia,
esta probabilidad ser la simple multiplicacin de las probabilidades individ-
uales (marginales) de cada par de puntos, es decir que si las observaciones
son independientes se observar:
cm ( ) = c1 ( )m
Empricamente calculamos estimadores para estas probabilidades, verificn-
dose la existencia de un error de estimacin, de manera que esta relacin no
se observara exactamente incluso de ser las series iid. Mientras ms grande
es el error, menos probable es que el error sea causado por una variacin
muestral aleatoria.
Para estimar la probabilidad de una dimensin particular, generamos
todos los posibles sets de este largo que puedan ser generados de la muestra
y se cuenta el nmero de conjuntos que satisfacen la condicin de . La razn
entre el nmero de conjuntos que satisfacen la condicin versus el total de
conjuntos considerados provee de una estimacin de esta probabilidad.
Dada una muestra de T observaciones para una serie y, esta probabilidad
se puede calcular por (llamada tambin integrales de correlacin):
2 X T m+1
T m+1 X
cm,T ( )= m1 I (ys+j , yt+j )
(T m + 1) (T m) s=1 t=s+1 j=0
donde I es una funcin indicadora:

1 , |ys+j yt+j |
I (ys+j , yt+j ) =
0 , en otro caso
122 CHAPTER 7 MODELOS UNIVARIADOS

Luego podemos utilizar estos estimadores muestrales para construir un test


de independencia:

bm,T ( ) = cm,T ( ) c1,T m+1 ( )m

Bajo el supuesto de independencia, se esperara que este indicador sea cercano


a cero, de hecho BDS demuestran que:

b
m,T ( )
T m+1 N (0, 1)
m,T ( )

donde:
!
X
m1
(2m2)
2m,T ( ) = 4 km + 2 kmj c2j
1 + (m 1)2 c2m
1 m2 kc1
j=1

donde c1 puede ser estimado a partir de c1,T , y k es la probabilidad de que


cualquier tripleta de puntos pertenezca a la vecindad delimitada por , y
es estimada contando el nmero de conjuntos que satisfacen la condicin
muestral:

2 XT XT XT
kT ( ) = (I (yt , ys ) I (ys , yr ) +
(T (T 1) (T 2)) t=1 s=t+1 r=s+1
+I (yt , yr ) I (yr , ys ) + I (ys , yt ) I (yt , yr ))

Cabe mencionar que este estadstico es relativamente eficiente para muestras


superiores a 200 observaciones (ver Granger, C. W. J. y T. Terasvirta (1993),
Modelling Nonlinear Economic Relationships, seccin 6.3.5, pginas 90 y 91).
En otro caso es mejor hacer un muestreo por bootstrapping y aumentar la
muestra artificialmente de manera de no perder poder del test al aplicar el
estadstico en muestras pequeas.
Ejercicio. Una aplicacin del test BDS a la serie de inflacin para Chile
(1933:02-2001:06) entrega el siguiente resultado, denotando el rechazo de la
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 123

hiptesis nula de independencia de la serie:

Dimensin BDS Std.Error z stat P V alor


2 0.111196 0.004338 25.63572 0.0000
3 0.187459 0.006916 27.10598 0.0000
4 0.232728 0.008267 28.14973 0.0000
5 0.255301 0.008653 29.50290 0.0000
6 0.261486 0.008382 31.19535 0.0000

Ejercicio. Aplicando este test BDS a los retornos del ndice de precios
selectivo de acciones de Chile IPSA los datos del test nos indican la presencia
de dependencia de la serie:

Dimensin BDS Std.Error z stat P V alor


2 0.192041 0.002680 71.66640 0.0000
3 0.325164 0.004257 76.38699 0.0000
4 0.416266 0.005068 82.14049 0.0000
5 0.477852 0.005281 90.48426 0.0000
6 0.518700 0.005092 101.8606 0.0000

Ejercicio. Generamos una variable aleatoria de una funcin de distribu-


cin estandarizada y al aplicar el test BDS se encuentra que la serie es abso-
lutamente independiente:

Dimensin BDS Std.Error z stat P V alor


2 0.001034 0.001730 0.597777 0.5500
3 0.001546 0.002740 0.564317 0.5725
4 0.001094 0.003250 0.336538 0.7365
5 0.000254 0.003373 0.075320 0.9400
6 0.000116 0.003239 0.035931 0.9713
124 CHAPTER 7 MODELOS UNIVARIADOS

7.2.2 Estadstico Cowles-Jones (1937)


Este estadstico compara la frecuencia de secuencias versus oposiciones de
signos de retornos consecutivos. Para esto se define una funcin indicadora
que toma valor 1 cuando los retornos son positivos y 0 cuando los retornos
son negativos o cero, es decir:

1 si rt > 0
It =
0 si r 0 t

A partir de definior una funcin acumuladora At como:

At = It It+1 + (1 It ) (1 It+1 )

podemos definir como Ns al nmero de pares de retornos consecutivos con el


mismo signo y No al nmero de pares de signos opuestos:
TP
1
Ns = At
t=1
No = (T 1) Ns

Con estos parmetros se construye en estadstico de Cowles-Jones (CJ)


el que se define como la razn entre la suma de secuencias de signos iguales
versus la suma de secuencias de signos contrarios:
Ns
Ns T 1 s
CJ = = No
=
No T 1
1 s

donde s define a la probabilidad de que ocurra una secuencia de signos


positivos.
Se demuestra que bajo absoluta aleatoriedad la distribucin de este es-
tadstico converge asintticamente a 1. Si se observa que CJ > 1 entonces
hay evidencia de que los precios tienen una estructura que difiere de la que
se desprende de un camino aleatorio.
De existir DRIFT, es decir una tendencia en la serie de precios, entonces
la probabilidad de que se de una secuencia es mayor a la probabilidad de que
no se d. Esto nos indica que ahora con DRIFT la razn debiera converger
a un valor distinto (mayor) de 1.
7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 125

IID
Si a partir del proceso para el residuo t N (0, 2 ) definimos la funcin
indicadora como:

1 con probabilidad
It =
0 con probabilidad 1

P r
P 2
r (rt )
donde = Pr [r > 0] = Pr , con = T t y = T 1
entonces se
demuestra que:

s 2 + (1 )2
CJ | drif t6=0= = 1
1 s 2 (1 )
3 3 !
2
a s s (1 s ) + 2 + (1 ) s
CJ N , 4
1 s T (1 s )

Para un juego justo donde H0 : CJ = 1 (es decir = 12 ) vemos que los


lmites inferiores del estadstico CJ sern CJ = 1 con una varianza de cero,
es decir:

2 + (1 )2
1 =
2 (1 )

s (1 s ) + 2 3 + (1 )3 2s
0 =
T (1 s )4

Ejercicio. Supongamos que generamos una secuencia de nmeros aleato-


rios de dimensin T = 1000 que obedecen a la siguiente ley de movimiento
(sin drift):
rt = t
A esta vector aplicamos las definiciones para la funcin indicadora I y la
funcin acumuladora de signos A. Una vez encontrados los valores para
estas funciones generamos Ns y No . El clculo del test se efecta sobre la
hiptesis nula H0 : CJ = 1 lo cual nos entrega:
2 +(1)2
2(1)
CJ = r = 0.038895
s (1 s )+2(3 +(1)3 2s )
T (1s )4
126 CHAPTER 7 MODELOS UNIVARIADOS

con lo cual no rechazamos la hiptesis nula H0 : CJ = 1 pues el estadstico es


menor a 1.96 (5% de significancia). El siguiente recuadro muestra un cdigo
GAUSS que permite replicar estos resultados.
Cdigo
rndseed 1234;
r=rndn(1000,1);
i=zeros(rows(r),1);
j=1;
do while j le rows(r);
if r[j] gt 0;i[j]=1;endif;
j=j+1;
endo;
a=i[1:rows(i)-1].*i[2:rows(i)]+(1-i[1:rows(i)-1]).*(1-i[2:rows(i)]);
ns=sumc(a);
no=rows(a)-ns;
p=cdfn(meanc(r)/stdc(r));
ps=ns/rows(a);
cj_est=(p^2+(1-p)^2)/(2*p*(1-p));
cj_var=((ps*(1-ps)+2*(p^3+(1-p)^3-ps^2))/(rows(a)*(1-ps)^4));
cjtest=(cj_est-1)/sqrt(cj_var);cjtest;

7.2.3 Test de Fuller


Fuller testea la hiptesis nula de que los coeficientes de autocorrelacin para
varios rezagos de una serie (por ejemplo los retornos de un activo) son cero.
Si definimos al coeficiente de covarianza como (s) = cov (rt , rs ) entonces el
coeficiente de correlacin se representa por:

Cov (rs , rt ) (s)


(s) = =
V ar (rt ) (0)

La contraparte muestral de estos estadsticos ser (la covarianza se


7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 127

puede calcular dividiendo por T 1 o por T s):

1 TP
s
(s) = (rt r) (rt+s r)
T t=1
(s)
(s) =
(0)
PT
t=1 rt
r =
T
El test propuesto tiene la siguiente distribucin asinttica:

T
(s) N (0, 1)
T s
T s 2

(s) = (s) + 1 (s)
(T 1)2

Como es usual la hiptesis nula corresponde a no existencia de autocor-


relacin de la serie y se contrasta con una distribucin normal estandarizada.
Si el estadstico es superior a 1.96 (considerando un 5% de significancia) en-
tonces rechazamos la hiptesis nula existiendo evidencia de autocorrelacin
de la serie en el tiempo.

7.2.4 Tests Q y Q
Esta clase de tests permite analizar la dependencia temporal (autocorrelacin)
existente entre las observaciones en el tiempo (por ejemplo los retornos).
Box-Pierce (1970) o test Q. Este test se basa en el anlisis conjunto
de los coeficientes estimados de una ecuacin de residuos intertemporales
para verificar si son o no estadsticamente ceros. Estos coeficientes son las
correlaciones de los residuos, de manera que se analizan los rs rt definidos
por:
Cov (rs , rt ) E (rs , rt )
rs rt = =
V ar (rt ) E (rt2 )
Tal como sabemos este coeficiente rs rt es equivalente al parmetro de la
ecuacin auxiliar inversa s :

rts = s rt + ts s = 1, 2, ..., q
128 CHAPTER 7 MODELOS UNIVARIADOS

donde el se calcula como la razn entre las covarianzas y la varianza de la


variable dependiente. Estimando la expresin anterior utilizando los retornos
efectivos estimamos un vector de dimensin qx1. Los autores demuestran
que el estadstico relevante para evaluar la hiptesis nula de que no existe
autocorrelacin de retornos se define por (expresiones equivalentes):
P
q
Q = T 2s 2 (q)
s=1
0
Q = T 2 (q)

de manera que si este estadstico supera a su equivalente 2 (q) entonces


rechazamos la nula presentndose evidencia de autocorrelacin de orden q de
los retornos.
Ljung-Box (1978) o test Q. Una perfeccin de este test lo presentan Ljung
y Box. Utilizando una expresin similar a la presentada por Box-Pierce, los
autores definen el estadstico Q0 como:

0 Pq 2s
Q = T (T + 2) 2 (q)
s=1 (T s)

Si el estadstico Q0 es mayor a su equivalente de tabla 2 (q), entonces rec-


hazamos la hiptesis nula H0 : 1 = 2 = ... = q = 0. Tpicamente q es un
nmero alto como 24 36, dependiendo de la frecuencia de la serie.

7.2.5 Test de Razn de Varianzas


Este test surge del anlisis de la representacin geomtrica de movimiento
Browniano definido en una seccin anterior, y evala si la variable o serie
bajo anlisis presenta evidencia de autocorrelacin serial. Por ejemplo, si
sabemos que los retornos de unactivo se pueden representar por la expresin
rt ln Pt ln Pt1 = ln PPt1
t
= + t , entonces sabemos que la varianza
de los retornos ser V (rt ) = 2 . de aqu podemos decir que si:

V (rt ) = 2
V (rt1 ) = 2

entonces la agregacin de ambas varianzas ser:

V (rt ) + V (rt1 ) = 2 2 = 2V (rt )


7.2 INDEPENDENCIA Y CAMINOS ALEATORIOS 129

El test se contruye a partir de la siguiente razn, considerando que bajo


la hiptesis nula se esperara que se aproximara a 1:

V (rt ) + V (rt1 )
= 1
2V (rt )

Al operacionalizar este test con la contraparte muestral del estadstico


, podemos representar la relacin entre y el coeficiente de correlacin de
primer orden (1):

V (rt + rt1 )
(1) =
2V (rt )
V (rt ) + V (rt1 ) + 2Cov (rt , rt1 )
(1) =
2V (rt )
2Cov (rt , rt1 )
(1) = 1 +
2V (rt )
(1) = 1 + (1)

Esta expresin nos recuerda que cualquier serie estacionaria posee una razn
que se define como 1 ms el coeficiente de correlacin de primer orden. Si
encontramos que (1) = 0 entonces podemos decir que = 1.
Existe la generalizacin de esta ltima expresin para lo cual la hiptesis
nula a considerar ser:

H0 : (j) = 0 j = 1, ..., s

y el estadstico estar representado por:


P
V j=s
r
j=0 tj P
j=s j
(s) = =1+2 1 (j)
(s + 1) V (rt ) j=1 s+1

por ejemplo para un s = 1, o s = 2 el estadstico sera:



P
j=1 j 1
(1) = 1 + 2 1 (j) = 1 + 2 1 (1) = 1 + (1)
j=1 2 2

P
j=2 j 1 2
(2) = 1 + 2 1 (j) = 1 + 2 1 (1) + 2 1 (2)
j=1 3 3 3
130 CHAPTER 7 MODELOS UNIVARIADOS

Si la serie posee un largo de T observaciones (asumamos que T es par)


entonces el test para una razn de varianzas de dos perodos se formar de:
Pj=T /2
2II
1
T /2 j=1 (r2j 2r)2
(1) = 2 = 1
Pj=T 2
I T j=1 (rj r)
donde rj = ln pj ln pj1 y r2j = ln p2j ln p2j2 . Dado que la distribucin
asinttica de este estadstico est definido por:
r
T a
= ( (2) 1) N (0, 1)
2
entonces si pertenece al intervalo [1.96, 1.96] entonces no rechazamos la
hiptesis nula de que el coeficiente de correlacin es nulo, no existiendo evi-
dencia de correlacin de los retornos en el tiempo.
Ejercicio. Supongamos la serie del Indice de Precios de Acciones del IPSA
desde abril 1995 hasta abril del ao 2000 (T = 1247). Calculamos los estads-
ticos para verificar con el test anterior si (2) = 1, es decir si el coeficiente
de autocorrelacin de primer orden es cero. Los valores conseguidos son:
r = 0.011%
2I = 2.724016031
2II = 6.290088658
lo cual implica que el estadstico a contrastar es:
r r
T 1247 6.290088658
= ( (2) 1) = 1 = 32. 689
2 2 2.724016031
siendo este muy superior al valor de referencia de una tabla normal es-
tandarizada de 1.96, rechazando la hiptesis de no autocorrelacin de los
retornos.
Ejercicio.
Generamos una serie aleatoria a partir de yt = 100 + t donde
t N(0, 10) considerando una muestra de T = 1247 observaciones sim-
uladas. Calculamos los estadsticos para verificar si (2) = 1, es decir si el
coeficiente de autocorrelacin de primer orden es cero. Los valores consegui-
dos son:
y = 0.0015%
2I = 1.751081639
2II = 1.649981214
7.3 TESTS DE RACES UNITARIAS 131

lo cual implica que el estadstico a contrastar es:


r r
T 1247 1.649981214
= ( (2) 1) = 1 = 1. 441 7
2 2 1.751081639
Podemos verificar que el estadstico es mayor a 1.96 (es decir es menor en
valor absoluto), de manera que no rechazamos la hiptesis nula de autocor-
relacin cero de la serie.

7.3 Tests de Races Unitarias


7.3.1 Test t y F de Dickey-Fuller (RW-RWD-RWDT)

yt = yt1 + t
yt = + yt1 + t
yt = + t + yt1 + t

Reordenando (restando yt1 a ambos lados):

yt = yt1 + t
yt = + yt1 + t
yt = + t + yt1 + t

7.3.2 Tests t y F de DFA (Dickey-Fuller Ampliado)


p
X

yt = yt1 + j ytj + t
j=1
p
X

yt = + yt1 + j ytj + t
j=1
p
X
yt = + t + yt1 + j ytj + t
j=1

donde en orden p se define minimizando los criterios de Akaike (AIC),


Schwarz (BIC) o el critero de HannanQuinn (HQ), es decir se basan en
132 CHAPTER 7 MODELOS UNIVARIADOS

2 veces el valor de la funcin de log-likekihood promedio ajustado por una


funcin de castigo asociada a cada criterio:

lk k
AIC = 2 + 2
T T
lk k
BIC = 2 + ln (T )
T T
lk k
HQ = 2 + 2 ln (ln (T ))
T T

donde lk representa al log-likelihood, T el nmero de observaciones y k


el nmero de parmetros a estimar.
Los tests se presentan a continuacin:


tc = q df

V ( )

Hipotesis T ests

P
yt = pj=1 j ytj + t
1 : (, ) = (0, 0)
y = + y + Pp y +
t t1 j=1 j tj t

P p
yt = j=1 j ytj + t
: (, , ) = (0, 0, 0)
y = + t + y + Pp y + 2
t t1 j=1 j tj t

P
yt = + pj=1 j ytj + t
: (, , ) = (, 0, 0)
y = + t + y + Pp y + 3
t t1 j=1 j tj t

donde se contrasta con una tabla F de Fisher con sus respectivos grados
de libertad (tpicamente J = 2, 3):

(SRCR SRCNR ) /J
i = F (J, T k)
SRCNR / (T k)
7.3 TESTS DE RACES UNITARIAS 133

7.3.3 Test Said-Dickey


Said-Dickey (Biometrica, 1984), permite testear races unitarias cuando los
errores siguen un proceso ARMA(p,q). Recordemos que un MA(1) se puede
representar por un AR(), de aqu que ahora la sumatoria se aplique hasta
K . En este caso el modelo es:
X
K
yt = ( 1) yt1 + j ytj + t
j=1

De esta manera un proceso generador de datos para y del tipo AR(k)


donde k permite especificar un proceso ARMA(p,q) para el residuo.

7.3.4 Tests de Phillips-Perron


En una serie de artculos, Phillips (Econometrica, 1987) y Phillips-Perron
(Biometrica, 1988) generan un test a partir del DF y DFA de manera de
controlar por correlacin serial y heteroscedasticidad de los residuos al mismo
tiempo.
Consideremos el modelo a estimar:

yt = + yt1 + t

sin embargo asumamos que el verdadero proceso generador de datos para


la serie es:
yt yt1 = t = (L) et
donde (L) sigue un polinomio estacionario y e sigue un proceso Gaus-
siano. El mtodo Phillips-Perron consiste en:
Paso 1. Estimar por OLS los parmetros , , el error P 2
estndar de
2 t
definido por , y el error estndar de la regresin s = T k .

Paso 2. Estimadores
consistentes de la varianza de la media 2 y la
autocovarianzas j poblacionales se obtienen del trmino de error t .

X
T
1
j = T t tj
t=j+1

2 X q
j

= 0 + 2 1
j=1
(q + 1) j
134 CHAPTER 7 MODELOS UNIVARIADOS

para las autocovarianzas y para la media (Newey-West) respectivamente.


Paso 3. Estas correcciones se utilizan para ajustar el test t de Dickey-
Fuller asociado al parmetro :
2
12 1
T

0 2 0 s
zt = 2 t

Ejercicio. A partir de la siguiente informacin generada de la estimacin


por OLS del modelo para la inflacin en Chile (1933:02-2001:06):
t = + t1 + t
= 0.825274 + 0.651348 t1 + t
(0.119979) (0.026534)
El test de DF para el estadstico ( 1) es (0.651348 1)/0.026534 =
13.14. Este es el test estadstico que debe ser corregido segn PP. La
suma de los residuos al cuadrado es de 7001.243 con una muestra de 819
observaciones. Es decir que s2 = 7001.243/(819 2) = 8.569453, es decir
una desviacin estndar de 2.927363. Las autocovarianzas se estiman con:
P 2
t
0 = = 8.54853
PT
t t1
1 = = 1.68145
PT
t t2
2 = = 0.381113
PT
t t3
3 = = 0.989295
PT
t t4
4 = = 1.810678
T
2
Con estos estimadores calculamos :


2 4 3
= 8.548 + 2 (1.68) + 2 (0.381) +
5 5

2 1
2 (0.9893) + 2 (1.8107)
5 5
2
= 7.83292
7.3 TESTS DE RACES UNITARIAS 135

Con esto calculamos el estadstico de Phillips-Perron:

2
12 1
0 T s

0 2
zt = 2 t


12 1
(7.83292 8.54853) 819 (0.026534)

8.5485 2 8.569453
= (13.14)
7.83292 7.83292
= 12.78

De igual manera se rechaza la hiptesis nula de raz unitaria ya sea uti-


lizando el DF o el PP test.

7.3.5 Test de Kwiatkowski et al.


Este es un test cuya nula es estacionariedad con raz unitaria como alternativa
(a la inversa de los tests anteriores). Este test se conoce como KPSS en
honor a sus autores (Kwiatkowski, Phillips, Schmidt y Shin, 1992, Journal
of Econometrics).
Se formula a partir de la suma parcial de la serie:

X
t
t = i
i=1

donde t se obtienen de una ecuacin auxiliar como:

yt = + t + t
El test estadstico de inters es:

1 X n
= 2 2 2
n s (l) t=1 t

donde s2 (l) se denomina varianza de largo plazo de t la cual es estimada


por:
1X 2 2X X
n l n
s2 (l) = t + w (j, l) t tj
n t=1 n j=1 t=j+1
136 CHAPTER 7 MODELOS UNIVARIADOS

donde los pesos w(j, l) se determinan por (Newey-West, 1987):


j
w (j, l) = 1
(l + 1)
1
El valor de l se define gerenalmente por l = n 2 (Newey-West, 1994,
Review of Economic Studies). Finalmente el test KPSS para la nula de
estacionariedad es:
1 Xn
= 2 2 2
n s (l) t=1 t
La distribucin asinttica es derivada en Kwiatkowski et al.

7.4 Teorema de Descomposicin de Wold


Este teorema se debe a H. O. A. Wold (1938, A Study in the Analysis of
Stationary Time Series) y es fundamental en la teora de series de tiempo.
Teorema. Todo proceso estocstico estacionario puede ser aproximado
tan cerca como se desee ya sea a travs de un AR(p), un MA(q), o una
combinacin de ambos, es decir un proceso ARMA(p,q).
Este teorema fundamental de representacin es el que nos permite estimar
modelos de series de tiempo de cualquier tipo para representar series que son
estacionarias.

7.5 Estacionariedad
Sea la variable {yt }Tt=1 un proceso estocstico. Existen dos formas de esta-
cionariedad: dbil y fuerte (o estricta).

1. Estacionariedad Dbil. Se dice que el proceso {yt }Tt=1 es dbilmente


estacionario si este cumple con tres condiciones:

E [yt ] = , || <
2 2
E (yt ) = y <
E [(yt ) (yts )] = (s) < , s

Que los dos primeros momentos sean finitos e independientes de t es


una condicin necesaria para estacionariedad dbil.
7.6 OPERADORES DE REZAGOS: LK 137

2. Estacionariedad Fuerte o Estricta. Si el proceso {yt }Tt=1 posee una


distribucin de densidad fy que no es dependiente de s, k entonces se
dice que {yt }Tt=1 posee estacionariedad fuerte:

fy (yt1 , yt2 , ..., ytk ) = fy (yt1 +s , yt2 +s , ..., ytk +s )

es decir que la funcin de densidad no cambia con le tamao ni el


perdodo considerado en la muestra.

7.6 Operadores de Rezagos: Lk


Para simplificar la notacin es necesario introducir el concepto de operador de
rezagos L (del ingls "lag") que se define como aquel operador que rezaga k
veces la variable a la cual se le aplica. Por ejemplo consideremos las siguientes
equivalencias notacionales:

Lxt = xt1
L2 xt = xt2

1 2L + 3L2 xt = xt 2xt1 + 3xt2
L1 xt = xt+1

1 + 3L1 0.5L2 xt = xt + 3xt+1 0.5xt2

Esta notacin nos permite representar de una manera ms simplificada


los modelos de series de tiempo que se revisan a continuacin.

7.7 AR(p)
Un proceso autoregresivo de series de tiempo de orden p, AR(p), tiene la
siguiente estructura analtica:

yt = 1 yt1 + 2 yt2 + ... + p ytp + t


t = yt 1 yt1 2 yt2 ... p ytp

t = 1 1 L 2 L2 ... p Lp yt

donde tpicamente la variable endgena se presenta en desviacin de su media


(yt y), el residuo es un "ruido blanco", es decir cumple con las condiciones
138 CHAPTER 7 MODELOS UNIVARIADOS

E (t ) = 0, y V (t ) = 2 < . Aqu la variable yt es una combinacin lineal


de sus propios rezagos o valores pasados.
Considerando la ltima expresion que represent al modelo AR, se puede
demostrar que todo proceso AR se puede representar como un MA y vicev-
ersa.
Supongamos que tenemos un proceso AR(1):

t = (1 L) yt

Podemos despejar yt dividiendo la expresin por (1 L), es decir:


t
= yt
(1 L)

Dado que la serie es estacionaria el coeficiente es menor que 1 de manera


que podemos extender la serie de residuos sabiendo que si b < 1 entonces
1
1b
= 1 + b + b2 + ....:

t
yt =
(1 L)

yt = t 1 + L + (L)2 + (L)3 + ...
yt = t + t L + t (L)2 + t (L)3 + ...
yt = t + 1 t1 + 2 t2 + 3 t3 + ...

yt = 1 + 1 L + 2 L2 + 3 L3 + ... t
P i
yt = i=1 i L t + t

donde i = i , i = 1, 2, 3, .... Esta relacin permite representar modelos


AR(p) en forma equivalentes a MA(), y como veremos en la siguiente
seccin, tambin se d la relacin inversa (MA (q) = AR ()).
Algunos ejemplos de procesos autoregresivos son:

y = y +
t t1 t
AR(1) :
(1 L) y =
t t

y = y + y +
t 1 t1 2 t2 t
AR(2) :
(1 L L2 ) y =
1 2 t t
7.8 MA(Q) 139

7.8 MA(q)

Un proceso de media mvil (moving average, MA) de orden q, MA(q), tiene


la siguiente representacin analtica:

yt = t + 1 t1 + 2 t2 + ... + q tq

yt = t 1 + 1 L + 2 L2 + ... + q Lq

donde sigue siendo una variable aleatoria ruido blanco.Aqu la variable yt


es una combinacin lineal de residuos pasados.
Algunos ejemplos de procesos de medias mviles son:


y = +
t t1 t
MA(1) :
y = (1 + L)
t t

y = + +
t t 1 t1 2 t2
MA(2) :
y = (1 + L + L2 )
t 1 2 t

7.9 Proceso Integrado I(d)

Un proceso estocstico {yt } t=1 se dice integrado de orden d, es decir es yt


I (d), si es que yt requiere ser diferenciado d-veces para que sea estacionaria.
Ejercicio. Sea una variable aleatoria yt = +yt1 +t , donde por ejemplo
asumamos = 2, y0 = 1, y t N (0, 10), entonces la dinmica para una
140 CHAPTER 7 MODELOS UNIVARIADOS

realizacin de 200 observaciones ser:

Serie Intergrada y I(1)

Al calcular su primera diferencia la podemos representar como:

Primera Diferencia: y I(0)

De aqu es posible determinar que casi cualquier serie no estacionaria se


puede transformar a estacionaria a travs de diferenciar la serie ya sea una
vez, lo que es usual, o diferencindola dos o ms veces, lo cual es poco usual
en series econmicas.
7.10 ARMA(P,Q) 141

7.10 ARMA(p,q)
Un proceso autoregresivo de media mvil de orden (p, q) para una serie esta-
cionaria y se puede representar por:
yt = 1 yt1 + 2 yt2 + ... + p ytp + 1 t1 + 2 t2 + ... + q tq + t
donde es u ruido blanco. Aqu la serie y es una combinacin lineal de
residuos y valores rezagados de y.
La expresin analtica resumida de este modelo es:

1 1 L 2 L2 ... p Lp yt = 1 + 1 L + 2 L2 + ... + q Lq t
Algunos ejemplos de modelos ARMA(p, q) son:

y = y + +
t t1 t1 t
ARMA(1, 1) :
(1 L) y = (1 + L)
t t

y = y + y + +
t 1 t1 2 t2 t1 t
ARMA(2, 1) :
(1 L L2 ) y = (1 + L)
1 2 t t

y = y + + +
t t1 1 t1 2 t2 t
ARMA(1, 2) :
(1 L) y = (1 + L + L2 )
t 1 2 t

7.11 ARIMA(p,d,q)
Tal como seala el teorema de Wold, todo proceso estacionario puede ser
representado a travs de un modelo del tipo AR, MA, o ARMA. Si la serie
bajo anlisis no es estacionaria (no es I(0)) entonces debe ser diferenciada
"d" veces para que lo sea. Esto hace que uno pueda representar un modelo de
series de tiempo utilizando la extensin de los modelos ARMA, agregndose
el componente "integrado" al medio de la expresin. De esta forma el modelo
extendido es una representacin autoregresiva, integrada, de media mvil y
se denota por ARIMA.
Podemos representar modelos cuya serie original y es no estacionaria, de
la siguiente forma:
d yt = 1 d yt1 + 2 d yt2 + ... + p d ytp + 1 t1 + 2 t2 + ... + q tq + t
Pp Pq
d yt = d
i=1 i yti + i=1 i ti + t
142 CHAPTER 7 MODELOS UNIVARIADOS

cuya representacin analtica resumida es:



1 1 L 2 L2 ... p Lp d yt = 1 + 1 L + 2 L2 + ... + q Lq t

Algunos ejemplos de modelos ARIMA son:



y = y + +
t t1 t1 t
ARIMA(1, 1, 1) :
(1 L) y = (1 + L)
t t

y = y + y + +
t 1 t1 2 t2 t1 t
ARIMA(2, 1, 1) :
(1 L L2 ) y = (1 + L)
1 2 t t

2 y = 2 y + +
t t1 1 t1 t
ARIMA(1, 2, 1) :
(1 L) 2 y = (1 + L)
t 1 t

7.12 Estacionalidad y Modelos SAR y SMA


Cuando una serie tiene una frecuencia que presenta estacionalidad (por ejem-
plo datos mensuales o trimestrales, o efectos da de la semana) se sugiere sacar
la estacionalidad ajustando la serie sacando la diferencia de ella considerando
la frecuencia que se quiere sacar. Es decir, la serie se ve transformada por el
factor (1 Ls ) donde s indica la frecuencia estacional, por ejemplo: trimes-
tral (s = 4), mensual (s = 12), datos diarios con efecto semana (s = 5). Este
ajuste se denomina correccin de estacionalidad al factor autoregresivo y se
denota por SAR, es decir SAR(4), SAR(12), y SAR(5) , respectivamente
para el ejemplo anterior.
Si una serie yt , tiene frecuencia mensual y presenta estacionalidad, en-
tonces se debe transformar como SAR(12):

yt yt yt12

= 1 L12 yt

y si la frecuencia es trimestral el ajuste ser SAR(4):

yt yt yt4

= 1 L4 yt
7.13 ESTIMACIN DE MODELOS ARIMA(P, D, Q) 143

Este ajuste modifica la dinmica de cualquier proceso autoregresivo incor-


porndose nuevos rezagos. Por ejemplo si tenemos inicialmente un proceso
AR(2), y le agregamos un SAR(4) el modelo se transformar a:

AR(2) : yt = 1 yt1 + 2 yt2 + t



AR(2), SAR(4) : 1 1 L 2 L2 1 L4 yt = t

1 L4 yt = 1 1 L4 yt1 + 2 1 L4 yt2 + t
yt = 1 yt1 + 2 yt2 + yt4 1 yt5 2 yt6 + t

Tambin (aunque ms extico) puede agregarse un componente estacional


al proceso de media mvil: SMA(s). Expresiones de este tipo son por ejem-
plo:

AR(1), SMA(4) : (1 L) yt = 1 L4 t
yt = yt1 + t t4

MA(1), SMA(4) : yt = (1 + L) 1 L4 t
yt = t + t1 t4 t5

Un modelo general ARMA con ajustes estacionales a las medias mviles


y al proceso autoregresivo tiene una dinmica ms compleja. Por ejemplo, la
siguiente ecuacin representa a un proceso ARMA(1, 1), SAR(4), SMA(4):

(1 L) 1 L4 yt = (1 + L) 1 L4 t
yt = yt1 + yt4 yt5 + t + t1 t4 t5

7.13 Estimacin de Modelos ARIMA(p, d, q)


Box y Jenkins desarrollaron una metodologa para estimar modelos de series
de tiempo. Este procedimiento consista en tres etapas:

1. Indentificacin. Aqu el investigador determina estadsticamente el or-


den autoregresivo (p), el orden de media mvil (q), y el grado de inte-
gracin (d) de la serie bajo estudio. Para identificar estos parmetros
usualmente se visualizan conjuntamente la funcin de autocorrelacin
y la funcin de correlacin parcial de la serie.
2. Estimacin de Parmetros. Se puede utilizar mnimos cuadrados no
lineales o mtodos de mximo verosimilitud.
144 CHAPTER 7 MODELOS UNIVARIADOS

3. Diagnstico de los Residuos. Una vez se ha estimado el modelo hay que


verificar que los residuos del proceso ARIMA no presenten ningn tipo
de autocorrelacin que el modelo no haya considerado. Para este diag-
nstico podemos ver las autocorrelaciones y la funcin de correlacin
parcial, o ms formalmente podemos aplicar los siguientes tests (ver
secciones anteriores para una descripcin en detalle de estos tests):

Brock, Dechert y Scheinkman (BDS)

Cowles y Jones (CJ)

Fuller

Box-Jenkins (Q)

Ljung-Box (Q0)

Razn de Varianzas ()

Esta etapa es crucial en todo proceso de estimacin de un modelo de


series de tiempo.
Chapter 8

Modelos Heteroscedsticos

8.1 GARCH
El modelo que se utilizar como punto de partida en esta seccin es el tradi-
cional modelo de autorregresivo generalizado de heteroscedasticidad condi-
cionada (GARCH), desarrollado por Bollerslev (1987), el cual se representa
analticamente por el siguiente sistema aplicado yt y su volatilidad 2t :

X
yt = + j ytj + t
jJ

t N 0, 2t
i=q i=p
X X
2t = 0 + i 2ti + i 2ti
i=1 i=1

donde J, p, q se identifican utilizando procedimientos estndares de series de


tiempo.
Existe una extencin que permite considerar la volatilidad de la variable
yt como variable explicativa de su propio nivel o media. En este caso la
ecuacin GARCH debe incluir rezagos de 20 t s como variables explicativas,
dando origen a los modelos GARCH-M, es decir con volatilidad en la media.
A su vez se puede requerir de evaluar si el nivel de la variable yt o alguno
de sus rezagos afecta a su propia volatilidad. Para considerar esta posibilidad
es necesario incorporar a ytj directamente en la expresin de volatilidad, tal

145
146 CHAPTER 8 MODELOS HETEROSCEDSTICOS

como se representa en el siguiente sistema:


X X
yt = + j ytj + k 2tk + t
jJ kK

t N 0, 2t
i=q i=p
X X X
2t = 0 + i 2ti + i 2ti + s yts
i=1 i=1 sS

donde al igual que en caso del GARCH J, K y S deben ser determinadas


empricamente.
Estos modelos tienen la caracterstica de que shocks inducen a compor-
tamientos simptricos de la volatilidad, independientemente de si estos son
positivos o negativos. Para evaluar un eventual comportamiento asimtrico
existe una variedad de modelos conocidos como GARCH-Cuadrtico (QGARCH),
Umbral-GARCH (TGARCH), Glosten-Jagannathan-Runkle GARCH (GJR-
GARCH) model, y finalmente el modelo asimtrico Box-Cox GARCH (Box-
Cox-AGARCH), el cual es capaz de incluir como casos especiales a la mayora
de los modelos de volatilidad existentes.

8.2 QGARCH
El modelo QGARCH(1,1)1 puede representarse por:
X X
yt = + j ytj + k 2tk + t
jJ kK

t N 0, 2t
X
2t = 0 + 1 2t1 + 1 2t1 + t1 + s yts
sS

donde es el parmetro asimtrico que ayuda a diferenciar del efecto positivo


o negativo del impacto del shock sobre la volatilidad. Un shock positivo
de tamao 1 tendr un impacto equivakente a 1 + sobre la volatilidad,
mientras que un shock de igual magnitud pero de orden negativo impactar
1 sobre la volatilidad de yt , en lugar de 1 y 1 como predice el modelo
simtrico.
1
Por simplicidad se reportan la familia de modelos de orden p = 1 y q = 1, con yt como
variable dependiente.
8.3 T-GARCH 147

8.3 T-GARCH
La ecuacin para la volatilidad del modelo de umbral o TGARCH(1,1) se
representa por:
X
2t = 0 + 1 2t1 + 1 2t1 + t1 2t1 + s yts
sS

donde el parmetro opera como una funcin indicadora a partir de la


definicin del umbral, tal como lo define la siguiente expresin:

1 si t1 0
t1 =
0 si t1 > 0
Luego si existe un shock negativo sobre yt , el impacto sobre la volatilidad
ser igual a 1 + mientras que si el shock es positivo el impacto ser
solamente 1 , dado que en este caso = 0.

8.4 GJR-GARCH
El modelo introducido por Glosten, Jagannathan and Runkle (1993) resuelve
el problema de la asimetra con un enfoque alternativo. La ecuacin para la
volatilidad se representa por:
X
2t = 0 + (1 t1 ) 1 2t1 + 1 2t1 + t1 2t1 + s yts
sS

donde la funcin indicadora es ahora:



0 si t1 0
t1 =
1 si t1 > 0
Esto significa que si el shock sobre yt es positivo, el impacto sobre la volatil-
idad ser , mientras que si es negativo el impacto es 1 . El modelo GJR-
GARCH entrega similares resultados al modelo TGARCH.

8.5 Modelo Asimtrico GARCH


Hentschel(1995) presenta un modelo generalizado que incluye como caso espe-
cial a la mayora de los modelos GARCH2 . Dependiendo del valor que toman
2
Excluye al QGARCH.
148 CHAPTER 8 MODELOS HETEROSCEDSTICOS

determinados parmetros del modelo, es posible representar a una amplia


variedad de representaciones de volatilidad, ya sea un GARCH, TGARCH,
o un GARCH exponencial, por ejemplo.
La representacin asimtrica del modelo Box-Cox-AGARCH(1,1), est
dada por:

t 1 t1 1 X

= 0 + 1 t1 f
+ 1 t1 + s yts
t1 sS

t1 t1
= 0 1
t1
f 0
t1 t1 t1

donde
su comportamiento asimtrico se deriva de la existencian de la funcin
t1
f t1 que posee dos parmetros ( 0 y 1 ) que representan la evolucin no
simtrica de la volatilidad de yt dependiendo de si el shock es positivo o
negativo.

8.6 Curvas de Impacto de Noticias (News Im-


pact Curves)
8.6 CURVAS DE IMPACTO DE NOTICIAS (NEWS IMPACT CURVES)149

Figure 8.1: Curvas de Impacto para Modelos de Volatilidad

Figure 8.2: Curvas de Impacto para Modelos de Volatilidad Extendidos


150 CHAPTER 8 MODELOS HETEROSCEDSTICOS

Figure 8.3: Curva de Impacto de Noticias para Modelo Box-Cox-AGARCH


Chapter 9

Modelos de Volatilidad
Alternativos

9.1 Volatilidad con Distribucin t-Student


Una altenativa muy utilizada tericamente es la de trabajar con residuos que
tienen una distribucin de densidad leptokrtica del tipo t-Student o del tipo
Cauchy. La distribucin Cauchy tiene la siguiente representacin analtica
para una variable aleatoria :

1
f (t , , ) =
2 + (t )2

y
0.3

0.25

0.2

0.15

0.1

0.05

-5 -2.5 0 2.5 5

Funcin Cauchy con = 1 y = 1, 0, 1

151
152CHAPTER 9 MODELOS DE VOLATILIDAD ALTERNATIVOS

Para la funcin de distribucin t-Student, consideremos una funcin con


grados de libertad:
h i
(+1) +1
2 2t ( 2 )
f (t , ) = 1 1+
[] 2 2

y 0.5

0.375

0.25

0.125

0
-4 -2 0 2 4

Funcin de Distribucin N(0, 1) y t-Student con = 5 (azul)

donde la funcin Gamma se representaba por (x) = (x 1)!.


Se sabe que asintticamente (grados de libertad ) esta distribucin
converge a una normal, incluso su cuarto momento (kurtosis) se aproxima
a lo que una distribucin normal predice (3) reflejndose la leptokurtosis
requerida en muestras finitas, segn lo que se observa en la data. Para una
variable aleatoria y estos dos momentos son:


E (2t ) = 2
1
32
E (4t ) = (2)(4)
3

A continuacin se presenta un cdigo escrito en GAUSS que efecta la op-


timizacin por mximo verosimilitud a partir de una distribucin t-Student,
que supone tener en memoria la base de datos de la serie y. Para que el cuarto
momento est definido se le restribge durante el proceso de optimizacin a
que el parmetro (representado por c[1] en el cdigo) sean superior a 4.
Cdigo GAUSS
@ Estimacion del Modelo t-Student por ML @
nobs=rows(y);
y=y[1:nobs];
9.2 MODELOS DE VOLATILIDAD ESTOCSTICA 153

proc (1) = lnlk(c,y);


local lnl, llk, nobs, t;
nobs=rows(y);
lnl=zeros(nobs,1);
t=1;
do while t le nobs;
lnl[t]=ln(gamma((c[1]+1)/2))-ln(gamma(c[1]/2))-0.5*ln(c[1]*pi)
-((c[1]+1)/2)*ln(1+y[t]^2/c[1]);
t=t+1;
endo;
llk=sumc(lnl);
retp(llk);
endp;
c1=70;
startv=c1;
__title="Modelo PDF t-Student";
_cml_MaxIters = 5000;
_cml_Algorithm = 1;
_max_LineSearch =2;
_cml_GradMethod=1;
_cml_covpar=1;
_cml_c=1;
_cml_d=4;
{b,f0,g,cov,retcode} = maxprt(cml(y,0,&lnlk,startv));

9.2 Modelos de Volatilidad Estocstica


Chapter 10

Modelos Multivariados

Una extensin natural a los modelos de series de tiempo univariados es aque-


lla que considera que existe una covariacin entre un conjunto de variables
que se relacionan tanto contemporneamente como intertemporalmente. Es
el caso por ejemplo de la tasa de inters de poltica de un banco central, la
inflacin, y el nivel de actividad, o en el mbito financiero la relacin exis-
tente entre los ndices accionarios en el mundo (FTSE, Dow Jones, Nikkey,
DAX, etc.) y los tipos de cambio (Yen, Euro, Libra, etc.), o en general los
precios de activos financieros.
Este grado de correlacin es capturado por modelo sde series de tiempo
multivariados, es decir aquellos en los cuales el anlisis se efectua por sobre
un conjunto de variables de inters como los arriba mencionados, en lugar de
una sola variable como era el caso de los modelos univariados.
Este captulo extiende el anlisis hacia aquellos modelos multivariados,
siempre preservando la caracterstica de lineal, lo cual permite denominarlos
modelos de vectores autoregresivos (VAR). Se revisarn modelos VAR simples
y sus versiones estructurales, y se presenta un modelo VAR heteroscedstico
simtrico del tipo VAR-GARCH que analiza el impacto de contagio de volatil-
idades de retornos accionarios para un conjunto de activos internacionales.

10.1 Vectores Autoregresivos: VAR


La extensin ms directa de los modelos univariados autorregresivos es la
de considerar un vector de variables que se correlacionan entre s autorre-
gresivamente. Estos modelos VAR se pueden representar por un sistema de

155
156 CHAPTER 10 MODELOS MULTIVARIADOS

ecuaciones. Consideremos un modelo Bi-VAR(p), es decir un modelo de dos


variables (y1 , y2 ) con un rezago (p = 1):

y1t = 11 + 12 y1t1 + 13 y2t1 + 1t


y2t = 21 + 22 y1t1 + 23 y2t1 + 2t

donde la estructura de residuos 1 , 2 tienen valor esperado cero y matriz de


varianzas y covarianzas contemporanea no singular y constante para todo t,
y adems en donde estos residuos no covaran intertemporalmente.
La forma matricial del sistema anterior en conjunto con los supuestos se
pueden representar por:

yt = 0 + 1 yt1 + t
E (t ) = 0
E (t 0t ) =
Cov (t ,t+k ) = 0, k 6= 0

donde podemos definir:



y1t
yt =
y2t

11
0 =
21

12 13
1 =
22 23

10.1.1 Estacionariedad del VAR


Al igual que en para el caso univariado se requiere que este sistema sea
estacionario. Estacionariedad estricta o fuerte impone la condicin que la
funcin de distribucin multivariada sea estable en el tiempo, mientras que
estacionariedad en su versin dbil implica necesariamente que la media, la
varianza y las covarianzas intertemporales entre variables dependientes no
cambien en el tiempo y adicionalmente encontrar una dinmica convergente
10.1 VECTORES AUTOREGRESIVOS: VAR 157

del sistema a travs de analizar las races del siguiente polinomio:




1 0 12 13
p () = det

0 1 22 23

La ltima condicin de estacionariedad consiste en que las races de este


polinomio deben estar fuera del crculo unitario, es decir deben ser mayores a
uno. Para nuestro vector autorregresivo de un rezago (VAR(1)) el polinomio
de segundo grado se representa por la resolucin del siguiente determinante:


1 12 13
det

22 1 23
= 1 (12 + 23 ) + (12 23 22 23 ) 2
donde se requiere que 1 > 1 y 2 > 1.
Una definicin alternativa consiste en analizar la estacionariedad del VAR
calculando las races que definan que el siguiente polinomio caracterstico:


12 13 1 0

p () = det

22 23 0 1

donde si se resuelve la ecuacin caracterstica p () = 0, entonces define al


vector propio (eigenvalue) de la matriz 1 . Especficamente:


12 13 1 0
det = 0

22 23 0 1

este determinante es un polinomio de grado n, equivalente al nmero de filas


(o columnas) de la matriz analizada . Este polinomio permite obtener las
races de 1 denominados valores propios o eigenvalues. Para que un sistema
sea estacionario estas races deben ser menores que 1 en valor absoluto.
Generalizando a un sistema o vector autorregresivo con k variables y
con p rezagos, la representacin matricial con su respectiva condicin de
estacionariedad ser:
yt = 0 + 1 yt1 + 2 yt2 + ... + p ytp + t

0 = det I 1 2 2 ... p p
158 CHAPTER 10 MODELOS MULTIVARIADOS

Ejercicio. La estimacin de un sistema de dos variables con un rezago


entreg el siguiente vector de parmetros estimados, representados en forma
matricial por:
0.08 0.61

0.32 0.27
El polinomio caracterstico se representa por el determinante de


0.08 0.61 1 0
det = 2 0.35 0.173 6

0.32 0.27 0 1

cuyas races o valores propios al solucionar 2 0.35 0.173 6 = 0 son:


1 = 0.276 91
2 = 0.626 91
ambos menores que 1 en valor absoluto de manera que el sistema es esta-
cionario.
Para determinar la condicin de estacionariedad debemos calcular el sigu-
iente determinante:


1 0 0.08 0.61

det = 0

0 1 0.32 0.27
1.0 0.35 0.173 62 = 0
donde ahora la solucin es:
1 = 3. 611 2
2 = 1. 595 1
que equivale al inverso de los valores encontrados para 1 y 2 .
1 1
1 = 0.276 91 = =
3. 611 2 1
1 1
2 = 0.626 91 = =
1. 595 1 2
De qu se entiende por qu a veces cuando se habla de estacionariedad se
dice que las races deben estar fuera del crculo unitario, lo que se refiere a
10.1 VECTORES AUTOREGRESIVOS: VAR 159

que los valores de las races 0 s deben ser mayores que 1 en valor absoluto,
o lo que es lo mismo, que los valores de los 0 s sean menores que 1 en valor
absoluto.
Ejercicio. La estimacin de un sistema de dos variables con dos rezagos
entreg el siguiente vector de parmetros estimados, representados en forma
matricial por:

0.561594 0.023580 0.0000734 0.007503
,
0.071865 0.657941 0.396690 0.216838

El polinomio caracterstico se representa por el determinante de




1 0 0.561594 0.023580 0.0000734 0.007503
det
2

0 1 0.071865 0.657941 0.396690 0.216838
= 2. 992 3 103 4 0.111 833 0.584 712 0.09 634 7 + 1

La solucin de este polinomio entrega los siguientes valores propios, todos


los cuales son mayores que 1 de manera que el sistema es estacionario:

1 = 42. 035
2 = 1. 123 4
3 = 1. 756 2
4 = 4. 029 6

10.1.2 Rezagos Optimos: VAR(p)


Al igual que en modelos univariados existen diversos criterios o funciones
a minimizar, y que permiten definir exactamente el nmero de rezagos (o
orden) que deben presentar los modelos de VAR. Entre los ms utilizados
empricamente se encuentran los criterio de informacin de Akaike (AIC),
criterio de informacin Bayesiana de Schwarz (BIC), y el criterio de Hannan
y Quinn (HQ).
Los tres criterios imponen una funcin de prdida considerando el nmero
de parmetros a estimar en el modelo, lo cual determina un factor comun
160 CHAPTER 10 MODELOS MULTIVARIADOS

entre los tres criterios (AIC < HQ < BIC):

pd2
AIC = ln |e | + [2]
T
pd2
BIC = ln |e | + [ln (T )]
T
pd2
HQ = ln |e | + [2 ln (ln (T ))]
T
donde p define el nmero de rezagos del VAR, T el nmero de observaciones,
d el nmero de ecuaciones (o variables) del VAR, y ln |e | define el logaritmo
del determinante de la matriz de varianzas y covarianzas estimada de los
residuos muestrales de cada ecuacin del sistema VAR. Los elementos de e
son calculados considerando la estimacin por mximo verosimilitud de las
varianzas de los residuos (es decir dividiendo por T en lugar de dividir por
T (pd2 + 1)) llegando a definirse por:

0 0 0
e e e e ... e1 ed
1 1 1 2
0 0 0
1 e2 e1 e2 e2 ... e2 ed
e =
T ... ... ... ...


0 0 0
ed e1 ed e2 ... ed ed
dxd

10.2 Funciones de Impulso-Respuesta


10.3 Test de Causalidad de Granger
10.4 Vector Autoregresivo Estructural: SVAR
Esta metodologa consiste en relacionar los residuos estructurales (t ) con los
muestrales del vector autoregresivo (et ). El modelo estructural se represen-
tara por una media mvil MA() de la forma:
P
yt = A0 t + A1 t1 + A2 t2 + .... = i=0 Ai ti = A (L) t

donde A(L) representa a la matriz de polinomios de rezagos y y representa


el vector de variables integradas de orden cero I(0) o estacionarias. Por
10.4 VECTOR AUTOREGRESIVO ESTRUCTURAL: SVAR 161

construccin se asume que la matriz de varianzas y covarianzas de los shocks


estructurales se representa por la matriz identidad, es decir:
E (0 ) = I
Para identificar los parmetros de este modelo estructural se estima su
forma autoregresiva reducida con p rezagos V AR(p):
yt = 1 yt1 + 2 yt2 + ... + p ytp + et

donde i representa la matriz de rezagos polinomiales estimada. La matriz


de varianzas y covarianzas estimada se denota por:
E (ee0 ) =
Dado que el proceso estocstico estimado anterior es estacionario, en-
tonces podemos representar al V AR(p) como un proceso de media mvil con
infinitos rezagos (Teorema de Descomposicin de Wold), es decir un MA():
P
yt = et + C1 et1 + C2 et2 + .... =
i=0 Ci eti = C (L) et

donde C0 = 1, lo cual finalmente nos permite relacionar los residuos estruc-


turales con los muestrales o estimados a travs de la siguiente expresin:
et = A0 t
lo cual implica que:
E (ee0 ) = A0 E (0 ) A00 = A0 A00 =
Luego finalmente para identificar los shocks estructurales () a partir de
la informacin contenida en la estimacin del V AR(p), es decir a partir de
los residuos muestrales (e) y la matriz de varianzas y covarianzas estimada
, necesitamos identificar suficientes parmetros o restricciones de la matriz
A0 . Para esto tomamos la matriz simtrica que nos entrega estimadores
n (n + 1) /2 de A0 (n es el nmero de variables en el V AR), restando sola-
mente n (n 1) /2 restricciones que imponer para completar la matriz A0 .
Una vez definida A0 se procede a identificar la matriz de efectos de largo
plazo de los shocks del modelo reducido1 , C(1), para relacionarla con su ma-
triz equivalente del modelo estructural A(1), a travs de A(1) = C(1)A0 . El
1
C(1) se obtiene de la estimacin del V AR(p) y correspopnde al valor del polinomio
C(L) cuando L = 1.
162 CHAPTER 10 MODELOS MULTIVARIADOS

proceso final consiste en identificar e imponer restricciones de largo plazo,


es decir sobre A(1), considerando, la matriz de polinomios C(1) estimada a
partir del VAR, la parte conocida de A0 , y finalmente restricciones de coin-
tegracin y teora macroeconmica sobre relaciones de largo plazo entre las
variables2 .

10.5 Modelo VAR-GARCH(1,1)


El modelo a estimar se representa por:

yt = 11 + 12 yt1 + 13 t1 + yt
t = 21 + 22 yt1 + 23 t1 + t

2
yt 0 yt yt t
= N ,
2
t 0 yt t t
2yt = 1 + 2 2yt1 + 3 2yt1
2t = 1 + 2 2t1 + 3 2t1 + 4 2t2

Cdigo GAUSS
proc lnlk(c,data);
local nobs,ey,ep,cova,sigma,dsigma,t,hy,hp,m,lnl,stt,in;
nobs=rows(data);
hy=zeros(nobs,1);hp=hy;dsigma=hy;cova=hy;m=hy;
hy[1]=sqrt(abs(c[7]/(1-c[8]-c[9])));
hp[1]=sqrt(abs(c[10]/(1-c[11]-c[12]-c[13])));
ey=zeros(nobs,1);ep=ey;
t=3;
do while t le nobs;
hy[t]=sqrt(abs(c[7]+c[8]*ey[t-1]^2+c[9]*hy[t-1]^2));
hp[t]=sqrt(abs(c[10]+c[11]*ep[t-1]^2+c[12]*
hp[t-1]^2+c[13]*hp[t-2]^2));
ey[t]=y[t]-x[t,.]*(c[1]|c[2]|c[3]);
ep[t]=p[t]-x[t,.]*(c[4]|c[5]|c[6]);
2
La restriccin usual de largo plazo en modelos macroeconomtricos es que shocks de
demanda no causan efectos permanentes sobre el producto, o que los shocks de oferta
producen efectos permanentes sobre el producto.
10.5 MODELO VAR-GARCH(1,1) 163

cova[t]=c[14]*hy[t]*hp[t];
sigma=(hy[t]^2~cova[t])|(cova[t]~hp[t]^2);
dsigma[t]=det(sigma);
in=inv(sigma);
m[t]=(ey[t]~ep[t])*in*(ey[t]|ep[t]);
t=t+1;
endo;
stt=3;
lnl=-.5*ln(2*pi)-.5*ln(dsigma[stt:rows(data)])
-.5*m[stt:rows(data)];
retp(lnl);
endp;
proc inevgarch(c);
retp((c[7]/(1-c[8]-c[9]))|(c[10]/(1-c[11]-c[12]-c[13])));
endp;
_cml_MaxIters = 200;
_cml_Algorithm = 3;
_cml_LineSearch = 2;
_cml_GradMethod=1;
_cml_covpar=2;

c7=0.4;
c8=0.2;
c9=0.7;
c10=0.4;
c11=0.2;
c12=0.7;
c13=0;
c14=0;

startv=inv(xx)*xy|inv(xx)*xp|c7|c8|c9|c10|c11|c12|c13|c14;
_cml_ineqproc = &inevgarch;

{b,f0,g,cov,retcode} = maxprt(cml(data,0,&lnlk,startv));
164 CHAPTER 10 MODELOS MULTIVARIADOS

10.6 Cointegracin y MCE


10.6.1 Cointegracin Uniecuacional
Supongamos que yt , xt son RW (i.e. no estacionarios). Dado lo anterior es de
esperar que una combinacin lineal de x, y tambien sea RW. Sin embargo, las
dos series pueden tener la propiedad de que una combinacin lineal particular
de ellas (yt xt ) sea estacionaria. Si tal propiedad es vlida, entonces se
dice que y, x cointegran.

Procedimiento de Dos Etapas de Engle y Granger (EG2)

La ideas de cointegracin surge del artculo de Engle y Granger (EMA, 1987),


en el cual proponen un procedimiento de dos etapas para modelar variables
cointegradas. Sin embargo no est libre de problemas. Las etapas son dos:
Paso 1. Estimar la relacin de cointegracin por OLS:

yt = + xt + t (10.1)

y testear la existencia de cointegracin analizando las propiedades de las


series t .
Para esto se utiliza el test de CRDW (cointegrating regression Durbin-
Watson), el cual evalua si t es I (1), es decir si el DW 0 (no cointegracin).
Si DW es significativamente mayor a cero, entonces x, y cointegran. H0 :
DW = 0 (No Cointegracin), si DWc > DWT abla rechazamos H0. Para esto
ver tabla de EG1987 para DW.
Otra alternativa es testear raz unitaria para los residuos t con DFA u
otro test (Phillips-Perron, Said-Dickey, Kwiatkowski et al., etc...).
Si la hiptesis de no cointegracin en rechazada, entonces la ecuacin (1)
representa la relacin
de largo plazo entre y y x, y el vector de parmetros
estimados , se denomina vector de cointegracin.
Paso 2. Definir el modelo de correccin de errores que incluye como
variable explicativa al rezago del error de la ecuacin de cointegracin t1 :

A (L) yt = B (L) xt + t1 + t
10.6 COINTEGRACIN Y MCE 165

Modelo de Correcin de Errores Uniecuacional


Consideremos un ecuacin de demanda por dinero tradicional con una vari-
able de ajuste de stocks de corto plazo:

mt = + yt + it + mt1 + t

Asumiendo equilibrio de largo plazo mt = mt1 de manera que la relacin


de largo plazo se representa por:

m= + y+ i
1 1 1
Restando mt1 a ambos lados y sumando cero:

mt = + yt + it + ( 1) mt1 + yt1 yt1 + it1 it1 + t


mt = + yt + it + ( 1) mt1 + yt1 + it1 + t

+ yt1 + it1
mt = yt + it (1 ) mt1 + t
1

Mtodo de Tres Etapas de Engle-Yoo


Existen dos problemas con el mtodo de EG2: (i) si los errores de la ecuacin
esttica estn correlacionados, entonces los estimadores estn sesgados y son
ineficientes, y, (ii) la distribucin de los estimadores es generalmente no-
normal y por lo tanto no es posible efectuar inferencias a partir de los usuales
test-t en la regresin de cointegracin.
La solucin porpuesta por Engle-Yoo a este problema es:
Paso 1. Estimar la ecuacin de largo
plazo yt = +xt +t . Esto entrega
un vector de conintegracin 1 , 1 .
Paso 2. Estimar el modelo de correcin de errores:

A (L) yt = B (L) xt + t1 + t

Se guardan los residuos estimados de esta ecuacin t , y el trmino de cor-


recin de errores .
Paso 3. Regresionar los residuos del modelo anterior (ECM) t con los
regresores de largo plazo del modelo (xt ) ponderados por el inverso aditivo
del parmetro de correcin de errores :

t = 0 + 1 (xt ) + t
166 CHAPTER 10 MODELOS MULTIVARIADOS

El vector original de parmetros estimados 1 , 1 se ajustan por estos
nuevos estimadores:

3 = 1 + 0
3 = 1 + 1

Los errores estandar de los coeficientes de la regresin de largo plazo son sim-
plemente los errores estandar de los coeficientes i estimados en la regresin
del paso 3. Los estadsticos t computados utilizando estos errores estandar
tienen una distribucin t que puede ser utilizada para hacer inferencia per-
fectamente.

Phillips-Hansen Fully Modified Estimator (PH)


Sea el DGP:

y1t = x1t + u1t


x1t = x1t1 + u2t

donde se asume que y1t , x1t son I (1). Cuando los trminos de errores uit estn
auto e intercorrelacionados, y cuando la regresin esttica y1t = x1t + u1t
no utiliza ninguna de la informacin que permite generar x1t , los sesgos en
el estimador pueden ser grandes. HP propone la siguiente solucin.
Asumamos que la estructura exacta de la estructura de var-covarianza
ut = [u1t , u2t ]0 es desconocido. Sin embargo sabemos que es dbilmente esta-
cionario (i.e. covarianza estacionario), lo cual se describe por:

ut [0, ]

donde = {ij } , i, j = 1, 2.
Es conveniente descomponer la matriz de var-covarianza en:

= V + + 0

donde V = E [u0 , u00 ] es la matriz de covarianza contemporanea, y donde


= k E [u0 , u0k ] captura el componente de correlacin serial del vector de
error. Entonces si el proceso de error es no correlacionario y estacionario,
entonces la matriz de covarianza = V . En presencia de correlacin serial
entonces los trminos de no son cero.
10.7 SISTEMAS DE COINTEGRACIN 167

El fully modified least squares estimator de toma la forma:


1 h T + +
i
+ = Tt=1 x21t t=1 y1t x1t T

donde:
+
y1t = y1t 12 ( 22 )1 x1t

+ 1
=
1
( 22 ) 12
= 0
k=0 E [u20 uk ]

+
El estimador modificado envuelve dos correciones. Primero el trmino
corrige el sesgo en el estimador utilizando estimaciones de largo plazo de la
matriz de var-covarianza. Segundo, se utiliza una variable instrumental de
+
manera que el estimador est condicionado en y1t en lugar de y1t .
Finalmente, el error estndar modificado por PH se define por s+ como:
+ 2 1
s = 11.2 Tt=1 x21t

donde:
11.2 = 11 221 1
22

10.7 Sistemas de Cointegracin


Dado un vector XI(1) de n elementos, puede haber a lo ms n 1 combi-
naciones de cointegracin. Sea el nmero de combinaciones de cointegracin
r. Luego 0 r n 1, y los r vectores de cointegracin se representan en
una matriz n r definida por = [ 1 , 2 , ..., r ]. El nmero de vectores de
cointegracin se conoce como el rango de cointegracin de Xt .

10.7.1 Identificacin del Rango de Cointegracin


Note que en el caso en que r = 0 entonces no habra ninguna relacin de
cointegracin, y por lo tanto el modelo puede estimarse en sus primeras
diferencias.
168 CHAPTER 10 MODELOS MULTIVARIADOS

El modelo de correccin de errores vectorial VECM se deriba de un VAR


general de la forma:

Xt = 1 Xt1 + 2 Xt2 + ...k Xtk + t

donde los elementos de Xt son I(1).


Puesto que queremos revisar relaciones de cointegracin dentro de un
sistema estacionario, podemos reparametrizar el modelo de forma analoga
al proceso uniecuacional del caso bi-variado. Luego rezagando la ecuacin
anterior y agregando y restando i Xti para i = 1, 2, ..., k en el lado derecho,
permite representar el VECM como:

Xt = Xtk + k1
i=1 i Xti + t

donde:

i = (I 1 ... i ) , i = 1, ..., k
= (I 1 ... k )

Los i son los parmetros dinmicos del vector del modelo, y la matriz
contiene los parmetros de largo plazo del modelo.
El mtodo de Maximum Likelihood de Johansen consiste en examinar el
rango de la matriz la cual contiene informacin sobre las relaciones de
largo plazo. Aqu tenemos tres casos:
(i) posee rango cero. En este caso no hay vectores de cointegracin y
significa que las variables on individualmente I(1) y que no existe relaciones
de largo plazo de la data. La manera en que debe ser estimado el sistema es
a travs de un VAR estndar con variables en primeras diferencias, i.e. Xt .
(ii) La matriz tiene rango completo, lo cual significa que las variables
no diferenciadas son de hecho I(0), y entonces el modelo es estacionario en
niveles.
(iii) La matriz tienen rango r, donde 0 < r < n, lo cual significa que
existen r vectores de cointegracin entre las n variables.
Part IV
Modelos No Lineales
Univariados

169
Chapter 11
Estimacin por Mxima
Verosimilitud

Ejercicio. Suponga que la distribucin de densidad conjunta dos variables


aleatorias x, y est dada por:

e(+)y (y)x
f (x, y) =
x!
, > 0
y = 0
x = 0, 1, 2, ....

Obtenga los estimadores de mxima verosimilitud de los parmetros y .


Para obtener los estimadores MV debemos generar la funcin log-verosimilitud
y derivarla con respecto a los parmetros de inters:
X e(+)y (y)x
$ (, ) = ln
x!
X x

= ln (y) y y
x!
X X X X X
= T ln ln x! + x ln (y) + x ln () y y
entonces
P
$ x X
= y=0

$ T X
= y=0

171
172CHAPTER 11 ESTIMACIN POR MXIMA VEROSIMILITUD

De donde se obtiene finalmente que:


P
x x
MV = P =
y y
1
MV =
y
Ejercicio. Para el modelo Y = X + se dispone de la siguiente infor-
macin:

20 11
x0 x =
11 25

25
x0 y =
10

Calcule los estimadores mnimos cuadrados. Genere un intervalo de confi-


anza del 95% para el coeficiente de sensibilidad. Suponiendo que el error
se distribuye con media 0 y matriz de varianzas y covarianzas identidad (I)
testee la hiptesis nula H0 : 0 = 1 = 0 utilizando el test de razn de
verosimilitud.
A partir de la informacin entregada en la prueba podemos calcular los
estimadores OLS:
1
1 20 11 25 1. 358 8
= (x0 x) x0 y = = (11.1)
11 25 10 0.197 89

Asumiendo que e0 e = 36 la varianza estimada para el estimador 1 ser:


1
0
ee 36 20 11
1
V = (x0 x) =
T k 20 2 11 25

0.131 93 5. 804 7 102
V =
2
5. 804 7 10 0.105 54

lo cual indica que la desviacin estndar estimada del parmetro estimado


2
1 ser 1 = 0.105 54 = 0.324 87. Un intervalo de confianza para 1 se
173

genera a partir del estadstico:

1 1
tc = t (T k)
1

en nuestro caso al reemplazar y considerando un intervalo de confianza 95%,


para t0.975 (18) = 2.101 el intervalo para el parmetro 1 ser:

1 t0.975 (T k) 1 < 1 < 1 + t0.975 (T k) 1

reemplazando con los resultados obtenidos anteriormente:

0.197 89 2.101 0.324 87 < 1 < 0.197 89 + 2.101 0.324 87


0.880 44 < 1 < 0.484 66

Suponiendo que el error se distribuye normal con valor esperado cero y matriz
de varianzas y covarianzas identidad, entonces efectuemos el test de razn de
verosimilitud para testear la hiptesis nula H0 : 0 = 1 = 0.
La funcin de log-verosimilitud para el modelo propuesto ser:
T T 1 e0 e
$NR = ln (2) ln 2
2 2 2 2
Recordando que e0 e = y 0 y y 0 x podemos reescribir la expresin anterior
como:
T T 1 y 0 y y 0 x
$NR = ln (2) ln 2
2 2 2 2
Si ahora escribimos la misma expresin anterior pero para el modelo re-
stringido tenemos que dado una hiptesis nula de que 0 = 1 = 0, entonces:
T T 1 y0 y
$R = ln (2) ln 2
2 2 2 2
Considerando que 2 = 1 podemos resescribir esta expresin de la siguiente
forma, tanto para el modelo no restringido como para el modelo restringido
(ln(1) = 0):
T 1 0
$NR = ln (2) y y y 0 x
2 2
T 1
$R = ln (2) y 0 y
2 2
174CHAPTER 11 ESTIMACIN POR MXIMA VEROSIMILITUD

El test de LR se forma del doble de la diferencia entre estas dos expresiones,


es decir:

LR = 2 $NR $R
T
T 1 0 0 1 0
LR = 2 ln (2) y y y x ln (2) y y
2 2 2 2

1 1
LR = 2 y 0 y y 0 x + y 0 y = y 0 y + y 0 x + y 0 y = y 0 x
2 2

1. 358 8
LR = 25 10 = 31. 991
0.197 89

Para un test 295% (2) = 5.99. Como LR > 5.99 entonces rechazamos la hipte-
sis nula H0 : 0 = 1 = 0.
Ejercicio. De la siguiente muestra de tamao 10 para una variable aleato-
ria x generada de una distribucin normal con media y varianza 2 , es decir
x N (, 2 ):
{1.1, 2.4, 0.5, 2.2, 0.8, 0.1, 2.9, 3.3, 2.5, 1.9}
Testee la hiptesis de que la varianza es uno, es decir H0 : 2 = 1. Genere
un intervalo de confianza del 95% para 2 , y utilizando
un
test de razn de
=2
verosimilitud testee la hiptesis conjunta H0 : .
2 = 1.5
Lo primero es calcular la varianza muestral:
P
2 (xi x)2 10.541
s = = = 1. 171 2
N 1 9
N 1 9
2 = s2 = 1.1712 = 1. 054 1
N 10
Para testear H0 : 2 = 1 debemos recordar la expresin:
s2
(N 1) 2 (N 1)
2
Luego el test consisrte en:
s2 1. 171 2
2c = (N 1) 2
= (9) = 10. 541
H0 1
175

Al comparar con un valor de tabla de 20.975 (9) = 19.02 vemos que no rec-
hazamos la hiptesis nula H0 : 2 = 1
Para el clculo del intervalo de confianza aplicamos una expresin similar:
s2 2 s2
(N 1) < < (N 1)
20.975 (N 1) 20.025 (N 1)
1.1712 1.1712
(9) < 2 < (9)
19.02 2.7
2
0.554 20 < < 3. 904

=2
Los valores para el clculo del test LR para H0 : se obtienen
2
= 1.5
una vez evaluada la funcin de log-verosimilitud en los parmetros estimados
versus los restringidos:
P
NR n n 2 1 (xi )2
$ = ln (2) ln
2 2 2 2
Al reemplazar por los valores ya encontrados:
P
NR n n 2 1 (xi )2
$ = ln (2) ln
2 2 2 2
10 10 1 10.541
$N R = ln (2) ln 1. 054 1 = 14. 453
2 2 2 1. 054 1
P
R 10 10 1 (xi 2)2
$ = ln (2) ln 1.5
2 2 2 1.5
R 10 10 1 11.07
$ = ln (2) ln 1.5 = 14. 907
2 2 2 1.5
Con este resultado aplicamos el test LR:

LR = 2 $NR $R
LR = 2 (14. 453 (14. 907))
LR = 0.908
2
Comparando con un estadstico de tabla 0.95 (2) = 5.99 vemos que no es
=2
posible rechazar la hiptesis nula H0 : .
2
= 1.5
176CHAPTER 11 ESTIMACIN POR MXIMA VEROSIMILITUD

Ejercicio. La variable aleatoria x posee la siguiente distribucin:

e x
f (x) = , x = 0, 1, 2, 3, ....
x!
Suponga que se obtiene la siguiente muestra aleatoria para x:

3, 5, 1, 2, 1, 0, 0, 1, 1, 4, 2, 0, 0, 3, 2
Utilice el test de Wald para evaluar la hiptesis H0 : = 2.
Si la variable aleatoria tiene la distribucin:
e x
f (x) =
x!
entonces la funcin de log-verosimilitud (log-likelihood) se representar por:
X e x X 1 X
1 X
x
$ () = ln = ln = ln + ln x T
x! x! x!

Derivando con respecto a se obtiene:

$ 1X
= xT =0
P
x
MV = = x
T

Dada la muestra este estimador equivale a MV = 25 15


= 1. 666 7.El test de
Wald a aplicar es equivalente a testear la hiptesis H0 : g () = 0 donde en
nuestro caso g () = 2:
2 2
g MV MV H0
W = =
V g MV V MV

dado que la varianza de g () es equivalente en esta restriccin lineal a la


varianza de . Es decir:
(1.6667 2)2
W =
V MV
177

La varianza del estimador maximo-verosimil se obtiene de derivar dos veces


la funcin de lok.likelihood pues sabemos que:
2 $ 1 1 X 1
V MV = 2 = x
2

Al valorar en el estimador MV esta expresin tenemos:


!1 1
1 X 1
V MV = 2 x = 25 = 0.11111111
MV 1.666666662

luego el test de Wald es:

(1.666666 2)2
W = = 1.0
0.1111111
Al 95% de una Chi-cuadrado con un grado de libertad se tiene un valor crtico
de tabla de 3.84 lo cual nos indica que no rechazamos la hiptesis nula de
que = 2.
Chapter 12
GMM

Para comenzar a explicar en qu consiste en Mtodo Generalizado de Mo-


mentos hay que introducir el concepto a travs de la estimacin por el clsico
Mtodo de los Momentos.

12.1 Mtodo de Momentos


Sean una variable aleatoria y generada a partir de una funcin de distribucin
t-student con grados de libertad:
h i
(+1) +1
2 y2 ( 2 )
f (y, ) = 1 1+
[] 2
2
donde la funcin gamma se representaba por (x) = (x 1)!.
Dado que la funcin de distribucin posee solamente un parmetro rep-
resentativo (su grado de libertad ), supongamos que tenemos una muestra
de observaciones de tamao T .
Una forma de estimar este parmetro es a travs del mtodo de mxima
verosimilitud, calculando primero la funcin de logaritmo de verosimilitud
y segundo maximizando el valor de esta funcin de manera de encontrar el
estadstico MV .
El Mtodo de los Momentos entrega una alternativa de estimacin para
este parmetro. Sabemos que la media poblacional de una distribucin t es

cero y que su varianza es igual a 2 . Si sabemos que:

2y = E y 2 [E (y)]2 = E y 2 =
2

179
180 CHAPTER 12 GMM

entonces podemos encontrar la expresin muestral de 2y a partir de:

1 PT 2
2y = E y 2 = y
T t=1 t

Dado que 2y = 2
entonces parece natural que el estimador de se obtenga
a partir de:
1 PT 2
2y =t=1 yt =
T 2
con lo cual llegamos a que el estimador de mtodo de los momentos para
ser:
2 2y
MM = 2
y 1

Es decir el estimador MM del mtodo de los momentos es el valor para el


cual los momentos poblacionales son igualados a los momentos observacios
muestrales.
Supongamos que adems del segundo momento se requiere calcular el
parmetro utilizando otros momentos como por ejemplo el cuarto momento
de la distribucin t que denotamos por (kurtosis):

32
E y4 =
( 2) ( 4)
P 4
con su contraparte muestral igual a T1 yt .
Dado que ahora son ms de una funcin a minimizar se requiere de alguna
forma de ponderacin entre ellas de manera de evitar conflictos entre cada
ecuacin a minimizar. El Mtodo de los Momentos Generalizados (GMM)
permite escoger de manera de minimizar la siguiente funcin:

QT () = g0 W g

donde W es una matriz simtrica definida positiva de ponderacin entre los


momentos y g (vector de orden 2x1) se denota por:
P 2
1
yt 2
g= P T
1 4 32
T
yt (2)(4)
12.2 MTODO GMM DE HANSEN 181

12.2 Mtodo GMM de Hansen


Definamos a t un vector de hx1 variables aleatorias observadas en t, un
vector de dimensin kx1. Sea h (, t ) un vector de funcin real de dimensin
rx1, y sea 0 el verdadero valor de , que supongamos obedece a la propiedad:

E [h (0 , t )] = 0rx1

Si denotamos por g () a la contraparte muestral de h (, t ):

1 PT
g () = h (, t )
T t=1

La idea detrs de la metodologa GMM es escoger de manera de hacer que


el momento muestral g () sea lo ms cercano posible al momento poblacional
de cero E [h (0 , t )] = 0.
Definicin. El estimador GMM GMM es el valor de que minimiza el
escalar:
QT () = g ()0 WT g ()
donde {WT } T =1 es una secuencia de matrices de ponderacin definidas posi-
tivas de orden rxr que pueden ser funcin de las series observadas.
As lo que podemos observar es que el estimador del mtodo de momentos
22y
clsico para MM = 2 1 es un caso especial de GMM:
y

t = yt
=
WT = 1

h (, t ) = yt2
2
1P 2
g () = yt
T 2
r = k=1
2
1P 2
QT () = yt
T 2
22y
La solucin de este problema claramente se logra cuando GMM = 2y 1
donde
P
2y = T1 Tt=1 yt2 , que corresponde al estimador MM .
182 CHAPTER 12 GMM

12.3 WT Optima
Es necesario determinar cual es el valor ptimo de WT al momento de cal-
cular los estimadores GMM. Supongamos que cuando se evala en el vector
verdadero 0 , el proceso {h (0 , t )}t=
t= es estrictamente estacionario com
media cero y matriz de autocovarianza de orden dada por:

= E h (0 , t ) h (0 , t )0
Asumiendo que estas autocovarianzas son sumables se define:
P

S=
=

Sabemos que S es la varianza asinttica de la media muestral de h (0 , t ):



S = lim T E g (0 ) g (0 )0
T

entonces el valor ptimo de la matriz de ponderacin de g () para g ()0 WT g ()


ser S 1 . De esta manera la mnima varianza asinttica del estimador GMM
T se obtiene cuando T se escoge de manera de minimizar la funcin:
QT () = g ()0 S 1 g ()
Existen dos alternativas de presentacin del vector que representa al pro-
ceso {h (0 , t )}t=
t= ya sea que esten serialmente no correlacionados o se-
rialmente correlacionado.
Si no existe correlacin entonces la matriz S = limT T E g (0 ) g (0 )0
puede ser estimada consistemente a travs de su contraparte muestral:
1 PT
ST = h (0 , t ) h (0 , t )0
T t=1
Calcular ST requiere de un estimador para 0 aunque puede demostrarse
que para cualquier estimador consistente de 0 , si h (0 , t ) no se correlaciona
serialmente, entonces:
1 PT 0
P
ST = h T , t h T , t S
T t=1
Dado el carcter recursivo del mtodo, pues para estimar requerimos
de un estimador de S, y para estimar S requerimos de un estimador de ,
entonces se plantea un esquema iterativo con criterio de convergencia con el
siguiente algoritmo:
12.3 WT OPTIMA 183

(0)
1. Obtener un estimador inicial de T minimizando la expresin:

Q () = g ()0 WT g ()

utilizando la matriz WT = Ir .
(0)
2. Con este estimador de (T ) se procede a calcular la primera esti-
macin de S:
1 P
T (0) (0) 0
(0)
ST = h T , t h T , t
T t=1
h i1
(0)
3. Utilizamos WT = ST en la expresin de Q () para estimar un
(1)
nuevo vector de parmetros GMM T :
h i1
0 (0)
Q () = g () ST g ()

(1) (1)
4. Con este nuevo vector T se calcula una nueva matriz S, ST movin-
donos al paso 2.

Este proceso itera hasta que la regla de detensin (stopping rule) es vlida,
es decir hasta que el vector de parmetros entre cada iteracin sea equivalente
considerando algn criterio de distancia (euclidiana por ejemplo):
(j) (j+1)
T = T

Si alternativamente se presume que el proceso vectorial de {h (0 , t )}t=


t=
est serialmente correlacionado, entonces se puede utilizar el estimador de
Newey-West (1987) para S:

Pq 0
ST = 0,T + ,T + ,T
=1 q+1

Pq 0
ST = 0,T + 1 ,T + ,T
=1 q+1
donde: 0
1 P T
,T = h , t h , t
T t=+1
184 CHAPTER 12 GMM

Hay que mencionar que existen variadas funciones kernels candidatos a


ponderar las matrices de autocovarianzas. A continuacin se presentan los
kernels ms conocidos entre los cuales se encuentra el propuesto por Newey-
West, que fue utilizado anteriormente:

1. Kernel Truncado (White):


1 para |x| 1
kT R (x) =
0 en otro caso

y 1.25

0.75

0.5

0.25

0
-2 -1 0 1 2

Kernel Truncado

2. Kernel Bartlett (Newey-West):


1 |x| , para |x| 1
kB (x) =
0, en otro caso
12.3 WT OPTIMA 185

y 1.25

0.75

0.5

0.25

0
-2 -1 0 1 2

Kernel Bartlett (Newey-West)

3. Kernel Parzen (Gallant):




2 3 1
1 6x + 6 |x| , para 0 |x| 2



3 1
kP R (x) = 2 (1 |x|) , para 2 |x| 1





0 en otro caso

y 1.25

0.75

0.5

0.25

0
-2 -1 0 1 2

Kernel Parzen

4. Tukey-Hanning:

(1+cos(x))
, para |x| 1
2
kT H (x) =
0, en otro caso
186 CHAPTER 12 GMM

y 1.25

0.75

0.5

0.25

0
-2 -1 0 1 2

Kernel Tukey-Hanning

5. Quadratic-Spectral (Andrews):
6x !
25 sin 5 6x
kQS (x) = 6x cos
12 2 x2 5
5

y 1.25

0.75

0.5

0.25

0
-2.5 -1.25 0 1.25 2.5

Kernel Quadratic Spectral (Andrews)

Otro punto de relevancia consiste en determinar el q ptimo, parmetro


conocido como bandwidth parameter. La literatura menciona criterios au-
tomticos de seleccin para este parmetro (Andrews, 1991, "Heteroskedas-
ticity and Autocorrelation Consistent Covariance Matrix Estimation", ECONO-
METRICA 59(3), y Newey and West, 1994, "Automatic Lag Selection in
Covariance Matrix Estimation", Review of Economic Studies 61(4)).
12.4 DISTRIBUCIN DE LOS ESTIMADORES GMM 187

Newey-West y Andrews determinan este parmetro segn las siguiente


ecuaciones para los kernel tipo Barttlet (Newey-West) y Quadratic-Spectral
(Andrews):
1
qB = 1.1447 [ (1) T ] 3
1
qQS = 1.3221 [ (2) T ] 5
donde:
Pk 42a 4a
a=1 (1a )6 (1+a )2
(1) = Pk 4a
a=1 (1a )4
Pk 42a 4a
a=1 (1a )8
(2) = Pk 4a
a=1 (1a )4

Para determinar el par a , 2a Andrews y Monahan ("An Improved Het-
eroskedasticity and Autocorrelation Consistent Covariance Matrix Estima-
tor", ECONOMETRICA 60) proponen estimar un proceso AR(1) para el
componente aesimo de {h (0 , t )} previamente "blanqueado" a travs de un
V AR(1) o un V AR(2).

12.4 Distribucin de los Estimadores GMM


Sea T el vector que minimiza la expresin:
h i1
Q () = g ()0 ST g ()
P
donde ST S. Asumiendo un ptimo interior, esta minimizacin se consigue
haciendo que la derivada de la expresin anterior con respecto al vector de
GMM
parametros sea cero. Luego el vector T se obtiene de la solucin del
siguiente sistema de ecuaciones no lineales:
h i1
0
Q () g () ST g ()
=

0 h i1
g ()
= ST g () = 0
=T
188 CHAPTER 12 GMM
0 h i1
g()
donde
es una matriz de orden kxr, ST es de orden rxr, g ()
=T
de orden rx1, y finalmente 0 es de orden kx1.
Utilizando la teora central del lmite se puede demostrar que la distribu-
cin asinttica del estimador T est dada por:

T T 0 N (0, V )
1
donde V = (DS 1 D0 ) , de manera que podemos decir que la distribucin
aproximada del estimador GMM ser:
!
VT
T N 0 ,
T
donde:
1
VT = DT ST1 DT0
0

PT

1
T
h T , t h T , t h no correlacionado

ST = t=1
P q h i


0,T +
1 q+1 ,T + 0,T h correlacionado
=1
0
g ()
DT =
=T

con DT es de orden kxr.

Ms formalmente las siguientes tres condiciones son las que permiten


llegar a la distribucin asinttica del estimador para T :
CLT
1. T g (0 ) N (0, S)
P
2. T 0

3. p lim g()
0 = p lim g()
0
= D0
=T =0

Estas condiciones permiten decir entonces que:



CLT
T T 0 N (0, V )

1 0 1 VT
donde V = (DS D ) , de manera que entonces T N 0 , T .
12.4 DISTRIBUCIN DE LOS ESTIMADORES GMM 189

12.4.1 S Cuasi-Singular
Empiricamente es comn encontar que la matriz S es casi singular, lo cual di-
ficulta el trabajar con su inversa S 1 . Ete hecho se da especialmente cuando
se estima modelos con retornos de activos pues estos tienden a estar fuerte-
mente correlacionados unos a otros, fenmeno que se refuerza cuando adems
se incluyen muchos activos en relacin al nmero de observaciones (un nivel
de saturacin parmetros/data muy alto).
Por ejemplo supongamos que:

1
S=
1

de manera que su inversa es:




211 2 1
S 1 =

2 1
211

La descomposicin matricial de Cholesky permite descomponer cualquier


matriz real cuadrada simtrica y definida positiva (como debiera ser S 1 ) en
dos matrices que cumplen con la condicin que C 0 C = S 1 . Para nuestro
ejemplo la descomposicin de Cholesky se denota por la matriz C definida
por: q

211 q
(2 1) 1
2 1

C= q
2
0 211 (2 1)2
(2 + 1)
Lo interesante de esta descomposicin es que nos permite visualizar el
peso que se le est dando a cada momento dentro de la funcin objetivo.
Recordemos que la funcin a minimizar la definimos por:

Q () = g ()0 ST1 g ()

Si reemplazamos ST1 por su descomposicin de Cholesky respectiva se ob-


tiene:
Q () = g ()0 C 0 [Cg ()]
de manera que la expresin Cg () nos seala la ponderacin que cada mo-
mento tendr en el proceso de minimizacin.
190 CHAPTER 12 GMM

Por ejemplo para el caso en que = 0.9 la matriz C es:



2. 294 2 2. 064 7
C=
0 1.0

indicando que el peso en la funcin objetivo del primer momento es ms del


doble de lo que se pondera el segundo momento, y que adems la diferen-
cia entre los dos momentos tienen una ponderacin doble a la del segundo
momento.
El consejo prctico es evaluar la matriz S 1 con su descomposicin de
Cholesky de manera de visualizar cul es la ponderacin de los momentos
que est siendo utilizada en la funcin objetivo.

12.4.2 Inferencia

esimo
En relacin a inferencia sobre el i elemento del vector T i,T podemos

utilizar la distribucin asinttica anterior T N 0 , VTT de manera que:

i,T i,0
= q N (0, 1)
Vii,T
T


de manera que si el estadstico es mayor a 1.96 entonces rechazamos la
hiptesis nula H0 : H i,0 = i,0 , donde i,T es el elemento i del vector T y
0

Vii,T es el elemento i de la diagonal de la matriz VT .


Para el caso de hiptesis conjuntas o multivariadas consideremos una
funcin F : <k 0J , es decir de los reales-dimension k a un vector de ceros de
dimensin J donde J indica el numero de hiptesis conjuntas (restricciones).
Entonces F (0 ) = 0J representa las J hiptesis que potencialmente puede
incorporar a todo o parte del vector de parmetros 0 .
Para testear la hiptesis nula F (0 ) = 0J , se debe hacer uso del hecho
que si efectivamente F (0 ) = 0J , entonces asintticamente como sabemos

que T T 0 N (0, V ), entonces se cumple que:


a
T F T N (0J , VF )
12.5 APLICACIONES 191

donde:

VF = f (0 ) V f (0 )0

F
f (0 )JxJ =
0 =0

La contraparte muestral de este test debe considerar estimadores para V


de manera que:
0
VF,T = f T VT f T

Finalmente el test se efecta con la expresin cuadrtica de la distribu-


cin asinttica normal, es decir una chi-cuadrado con J grados de libertad,
equivalente al nmero de restricciones o subhiptesis consideradas:

0
T F T VT1 F T 2 (J)

Test de Hansen

Usualmente denominado test de Hansen, este desarrolla una manera de testear


lo que se conoce como restricciones de sobreidentificacin (JT test) que
evala el ajuste completo del modelo estimado. Establece que el estadstico
formado por T veces el valor de la funcin objetivo minimizada en la segunda
etapa iterativa posee una distribucin chi-cuadrado con grados de libertad
equivalentes a la diferencia entre momentos considerados (r) y parmetros
estimados (k):
h i1
0
T JT = T min g () ST g () 2 (r k)

12.5 Aplicaciones
Esta seccin revisa las aplicaciones ms conocidas de la metodologa GMM.
192 CHAPTER 12 GMM

12.5.1 Mnimos Cuadrados


12.5.2 Modelos de Expectativas Racionales
Sea la funcin de bienestar del tipo de aversin relativa al riesgo contante
(CCRA), definida por:
1
ct para > 0 y 6= 1
1
u (ct ) =
ln (c ) para = 1
t

donde ct es el consumo del agente en el momento t, representa al coeficiente


de aversin relativa al riesgo, y la funcin de utilidad es creciente al tasas
decrecientes: u0 > 0 , u00 < 0.
En esta economa el agente representativo maximiza su nivel de bienestar
1
descontado a una tasa < 1 que es equivalente a 1+ donde > 0 representa
la tasa de descuento subjetivo del agente representativo.
El probela analticamente a resolver es:
P

MaxE0 t u (ct |=t )
t=0

sujeto a la restriccin de flujo que indica ct + pit sit+1 = (pit + dit ) sit , y al set
de informacin disponible por el agente y el econometrista en el perodo t,
el cual denotamos por =t . En cada momento del tiempo t el agente decide
cunto comprar de cualquiera de los m activos disponibles a invertir, cada
uno de los cuales retorna una tasa bruta de retorno (1 + ri,t+1 ) en t + 1.
Si asumimos una solucin interior, es decir que el inversionista toma una
posicin en cada activo disponible, el portafolio ptimo del accionista deber
satisfacer las condiciones de Euler (condiciones necesarias de primer orden
del problema de optimizacin dinmica) siguientes:
u0 (ct ) = E [(1 + ri,t+1 ) u0 (ct+1 ) |=t ] i = 1, 2, ..., m
Al incorporar el supuesto de una funcin de utilidad del tipo CRRA,
descrita anteriormente, la expresin de optimalidad de Euler se traducir a:

c
t = E (1 + ri,t+1 ) c
t+1 |=t i = 1, 2, ..., m
Al simplificar esta expresin a:
" #
ct+1
1 = E (1 + ri,t+1 ) |=t
ct
12.5 APLICACIONES 193

ct+1
queda claro que la variable aleatoria 1 (1 + ri,t+1 ) ct no estar
correlacionado con el set de informacin =t disponible en el perodo t. Esta
ltima expresin se puede representar
como una condicin de ortogonalidad,

ct+1
donde la variable aleatoria (1 + ri,t+1 ) ct 1 es ortogonal al set de
variables contenidas en =t , es decir:
" #
ct+1
E (1 + ri,t+1 ) 1|=t = 0
ct

Utilizando la notacin del modelo GMM definamos el vector de parmet-


ros y al vector de variables observadas por el econometrista t por:

= (, )0
0
ct+1 0
t = r1,t+1 , r2,t+1 , ..., rm,t+1 , , =t
ct
Concatenando las condiciones de ortogonalidad para los m activos disponibles
llegamos a representar la funcin h (, t ) por (r = m):

ct+1
(1 + r1,t+1 ) ct 1 |=t


(1 + r2,t+1 ) t+1
c
1 |=
ct t


h (, t ) = (1 + r3,t+1 ) ct+1 1 |=
ct t


....

ct+1

(1 + rm,t+1 ) ct 1 |=t
mx1

donde la representacin muestral de h (, t ) estar definida por:

1 PT
g () = h (, t )
T t=1
y la funcin objetivo es:
h i1
0
Q () = g () ST g ()
194 CHAPTER 12 GMM

Esta expresin debe ser minimizada numricamente con respecto a.


De acuerdo a la teora, la expresin 1 (1 + ri,t+1 ) ct+1 ct
no de-
biera estra correlacionada con ninguna variable del set de informacin =t
disponible en t, set que puede incluir incluso sus propios rezagos. Dada
esta caracerstica, el vector h (, t ) no debiera estar correlacionado con sus
propios rezagos, lo cual sugiere que la matriz S pueda ser consistentemente
estimada por1 :
0
1 PT
ST = h T , t h T , t
T t=1 rx1 1xr

donde T es un estimador inicial consistente que puede derivarse minimizando


Q () con ST = I.

12.5.3 Modelos de Descuento Estocstico


Tradicionalmente modelos de CAPM (Capital Asset Pricing Models) y APT
(Arbitrage Price Theory) consideran ciertos parmetros como exgenos en la
determinacin de retornos, ya sea la tasa libre de riesgo o los factores que
se consideran en los modelos de multifactores como el APT. En su repre-
sentacin estndar, en estos modelos las decisiones de portafolio no toman
en consideracin perodos futuros siendo ms bien modelos estticos, que
adems ignoran decisiones intertemporales de consumo.
Modelos de equilibrio intertemporal permiten establecer que existe un
factor de descuento estocstico tal, que la esperanza del producto de cualquier
retorno bruto de un activo con este factor es igual a uno.
En modelos de equilibrio general de precios de activos, que consideran
decisiones intertemporales de consumo del agente representativo, el factor
de descuento estocstico es la tasa marginal de sustitucin intertemporal del
agente representativo.
Formalicemos el resultado del modelo presentado en secciones anteriores.
Si consideramos un agente representativo que maximiza el valor descontado a
1
Es usual suponer que los instrumentos o variables consideradas en el set de informacin
de este pronlemas sean:
0
ct ct ct
=t = 1, , , ..., , r1t , r1t1 , ..., r2t , r2t1 , ...
ct1 ct1 ct1
12.5 APLICACIONES 195

una tasa del flujo de utilidades futuras u (ct ) podemos decir que el plan de
consumo y portfolio ptimo de este agente estar representado en las ecua-
ciones de Euler (condiciones de primer orden del problema de optimizacin)
definidas por:

u0 (ct ) = E [(1 + ri,t+1 ) u0 (ct+1 ) |=t ] i = 1, 2, ..., m

Dividiendo ambos lados de la ecuacin por u0 (ct ), llegamos a definir el factor


de descuento estocastico a partir de:

0
u (ct+1 )
E 0 (1 + ri,t+1 ) |=t = 1
u (ct )
E [mt+1 (1 + ri,t+1 ) |=t ] = 1

donde el factor de descuento estocstico, o precio-kernel, se define por mt+1 =


0
uu(c0 (ct+1
t)
)
.
A partir de esta definicin es posible verificar que el factor de descuento
estocstico es siempre positivo (o en rigor no negativo), pues las utilidades
marginales son positivas (la excepcin es cuando tericamente u0 () 0).
1
Si consideramos una funcin del tipo u (c) = c1 , entonces u0 (c) = c
de manera que el factor de descuento estocstico ser:


u0 (ct+1 ) ct+1
mt+1 = 0 =
u (ct ) ct

Modelos ms completos, que involucran hbitos de consumo y dinero


en forma de Cash In Advance (CIA) o Money in Utility Function (MUF ),
generan descuentos estocsticos modificados, los cuales se presentan a con-
196 CHAPTER 12 GMM

tinuacin:

Modelo Factor de Descuento



ct+1
C-CAPM ct
(1)
ct ct+1
Hbito Consumo ct1 c
(1)1 t (1)(1)
ct+1 Mt+1 Pt
Dinero MUF ct Mt Pt+1

Mt+1 Pt+1 Pt+1 Pt+1
Dinero CIA Mt Pt+2 Pt Pt+2
: CRRA
: Factor Subjetivo de Descuento
: Grado de Separabilidad en Hbitos de Consumo
: Ponderacin de Consumo en Funcin de Utilidad

Ejercicio. Utilizando informacin de consumo privado para Chile y los


retornos de precios de acciones (IPSA) estimamos por GMM los coeficientes
y para generar el factor de descuento estocstico mt+1 .

También podría gustarte