Está en la página 1de 54

Econometra de series de tiempo aplicada a

macroeconoma y nanzas
Series de Tiempo Estacionarias (Univariadas)
Carlos Capistr an Carmona
ITAM
Serie de tiempo
Una serie de tiempo es una sequencia de valores usualmente
registrados en intervalos de tiempo equidistantes.
x
t
t = 1, 2, ..., T.
Ejemplos:

N umero de nacimientos por a no en M exico.

Producci on semanal de autos en VW M exico.

Precios diarios del cierre de alguna acci on (e.g., TELMEX).

Producci on industrial mensual en M exico.

Inaci on mensual en M exico.


Serie de tiempo
Ejemplo: Inaci on anual en M exico 1925-2010
Inflacin Histrica
Aos
C
a
m
b
i
o

%

e
n

D
e
f
l
a
c
t
o
r

d
e
l

P
I
B
1940 1960 1980 2000
0
5
0
1
0
0
1
5
0
Procesos estoc asticos base
Proceso iid (iid)

t
es un proceso independiente e id enticamente distribuido (iid)
si:


t
,
s
son independientes pero tienen la misma distribuci on.
Ejemplo: x
t
=
t
,
t
N(0, 1), t = 1, ..., 100.
Proceso iid
Ejemplo: x
t
=
t
,
t
N(0, 1), t = 1, ..., 100.
-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
3
0 20 40 60 80 100
x
Procesos estoc asticos base
Martingala en diferencias (md)
La secuencia M es llamada una martingala si:
E
_
M
t
| M
tj
, j = 1, 2, ..., t

= M
t1
.
Una Martingala en diferencias se dene como: x
t
= M
t
M
t1
.

Propiedades:
E
_
x
t
| M
tj
, j 1

= 0,
cov (x
t
, x
tk
) = E
_
x
t
x
tk
| M
tj
, j 1

= 0.
N otese que no es independiente, ya que para eso se necesita:
E
_
(g(
t
E[g (
t
)]) h(
tj
)

= 0.
Procesos estoc asticos base
Ruido Blanco

t
es un proceso de ruido blanco si:

corr (
t
,
s
) = 0 t = s

E[
t
] es constante para todo t (usualmente 0).
Un proceso de ruido blanco b asicamente no tiene estructura
temporal (lineal).
Las principales propiedades de una serie de ruido blanco con
media cero son:

No hay correlaci on entre t erminos

Valores pasados no ayudan a pronosticar valores futuros


Si se utiliza un criterio de mnimos cuadrados, se puede mostrar
que el mejor pron ostico de todos los valores futuros de un proceso
de ruido blanco es simplemente la media de la serie.
N otese que:
ruido blanco Martingala en diferencias iid.
Estacionariedad y ergodicidad
Primeros dos momentos de una serie de tiempo:
E(x
t
) =
t
,
cov(x
t
, x
s
) =
t,s
.
C omo se estiman si en cada momento del tiempo s olo tenemos
una realizaci on de cada variable aleatoria?
Inflacin Histrica
Aos
C
a
m
b
i
o

%

e
n

D
e
f
l
a
c
t
o
r

d
e
l

P
I
B
1940 1960 1980 2000
0
5
0
1
0
0
1
5
0
Estacionariedad y ergodicidad
Estacionariedad
Se dice que un proceso estoc astico x
t
es estacionario de segundo
orden (o estacionario en covarianzas) si sus primeros dos
momentos no dependen del tiempo:
E[x
t
] = ,
Var [x
t
] =
2
,
Cov [x
t
, x
t
] =

.
N otese que la covarianzas s olo dependen de la distancia y no del
tiempo.
Se dice que un proceso estoc astico x
t
es estacionario en sentido
estricto si la distribuci on conjunta de (x
t
, ..., x
tk
) es independiente
de t para todo k (extremadamente difcil de probar).
Estacionariedad y ergodicidad
Ergodicidad
La ergodicidad requiere que valores del proceso sucientemente
separados en el tiempo casi no est en correlacionados.
Una denici on, aunque no muy estricta, es: una serie de tiempo
estacionaria es erg odica si cov [x
t
, x
t
] 0 cuando .
La ergodicidad permite que al promediar una serie en el tiempo,
uno este continuamente a nadiendo informaci on nueva y relevante
al promedio.
Desafortunadamente no es posible probar ergodicidad,
simplemente se asume.
Estacionariedad y ergodicidad
Si una serie de tiempo cumple con los supuestos de
estacionariedad y ergodicidad, entonces es posible formar
buenos estimadores de las cantidades de inter es promediando a
trav es del tiempo.
Un estimador consistente de la media es la media muestral:
=
1
T
T

t=1
x
t
.
Un estimador consistente de la autocovarianza es la
autocovarianza muestral:

=
1
T
T

t=1
(x
t
) (x
t
) .
Un estimador consistente de la autocorrelaci on es la
autocorrelaci on muestral:

0
.
Operadores y ltros
Operador rezago:
L
j
x
t
= x
tj
.
Operador diferencia:

j
x
t
=
_
1 L
j
_
x
t
= x
t
x
tj
.
Un ltro cambia las propiedades din amicas de una serie de
tiempo.
Operadores y ltros
Ejemplos
Ejemplos de ltros:
x
t
= y
t
+3y
t1
+2y
t2
,
= (1 +3L +2L
2
)y
t
.
x
t
= y
t
y
t1
,
x
t
= (1 L)y
t
.
Un ejemplo de la aplicaci on del operador rezago:
x
t
= ax
t1
+
t
,
(1 aL)x
t
=
t
,
x
t
=

t
(1 aL)
,
si |a| < 1 entonces :
x
t
=

j=0
a
j
L
j

t
=

j=0
a
j

tj
.
Modelos Autorregresivos (AR)
AR(p)
Autorregresivo de orden p, AR(p):
x
t
=
p

j=1

j
x
tj
+
t
,

t
: ruido blanco, E[
t
] = , var (
t
) =
2
tambi en puede escribirse como:

p
(L) x
t
=
t
,
donde
p
(L) = 1
p

j=1

j
L
j
.
Modelos Autorregresivos (AR)
Condici on de estacionariedad
La condici on para que un AR(p) sea estacionario es que las races
de la ecuaci on caracterstica
1
1
z
2
z
2
...
p
z
p
= 0,
est en fuera del crculo unitario (i.e. que el inverso de las races
est en dentro del crculo unitario, que es lo que usa Eviews).
Lo que esta condici on garantiza es que el proceso

p
(L) x
t
=
t
,
pueda escribirse como
x
t
=
p
(L)
1

t
,
con
p
(L)
1
convergiendo a cero, lo que implica que las
autocorrelaciones decaer an conforme aumenta la longitud del
rezago.
Modelos Autorregresivos (AR)
AR(1)
Algunos aspectos importantes de un AR(1):
x
t
= x
t1
+
t
empieza en t = 0,
x
t
=
t

j=0

tj
+ x
0

t
.
asumiendo que x
0
= 0, entonces:
E(x
t
) =
t

j=0

j
=
_

_
1
t+1
1
_
si = 1
(t +1) si = 1
var (x
t
) = E
_
(x
t
E(x
t
))
2
_
= E
_
_
_
t

j=0

j
_

tj

_
_
2
_
_
=
2
t

j=0

2j
=
_

2
_
1
2(t+1)
1
2
_
si = 1

2
(t +1) si = 1
Modelos Autorregresivos (AR)
AR(1)
Un modelo AR(1):
x
t
= x
t1
+
t
es estacionario si || < 1.
Porqu e?
En este caso, la media y la varianza est an dadas por:
E(x
t
) =

1
var(x
t
) =

2
1
2
Modelos Autorregresivos (AR)
AR(1)
La autocovarianza entre x
t
y x
t1
est a dada por:
cov(x
t
, x
t1
) = E[(x
t
E[x
t
]) (x
t1
E[x
t1
])]
= E[x
t
x
t1
] = E[(x
t1
+
t
) x
t1
]
= E
_
x
2
t1

+ E[
t
x
t1
] = E
_
x
2
t1

= var(x
t1
).
El segundo t ermino desaparece porque x
t
=

t
j=0

j

t1j
y por lo
tanto E
_

t1
j=0

j

t1j
_
= E
_

t1
j=0

j

t1j
_
= 0.
Por lo tanto la autocorrelaci on est a dada por:

1
= corr(x
t
, x
t1
) =
cov(x
t
, x
t1
)
var(x
t
)
=
var(x
t1
)
var(x
t
)
= ,
si var(x
t
) = var(x
t1
) que ocurre cuando || < 1.
En general, la funci on de autocorrelaci on est a dada por:

k
= corr(x
t
, x
tk
) =
k
.
Modelos Autorregresivos (AR)
Ejemplo: x
t
= 0.9x
t1
+
t
, con x
0
= 0,
t
N(0, 1), t = 1, ..., 100.
-5
-4
-3
-2
-1
0
1
2
3
4
0 20 40 60 80 100
x
;

A
R
(
1
)
,

p
h
i

=

0
.
9
Modelos Autorregresivos (AR)
Correlograma y correlograma parcial
-1
-0.5
0
0.5
1
0 2 4 6 8 10 12 14
lag
ACF for x; AR(1), phi = 0.9
+- 1.96/T^0.5
-1
-0.5
0
0.5
1
0 2 4 6 8 10 12 14
lag
PACF for x; AR(1), phi = 0.9
+- 1.96/T^0.5
Promedios M oviles (MA)
MA(q)
Promedio m ovil de orden q, MA(q):
x
t
=
q

j=0

tj

0
= 1.
tambi en puede escribirse como:
x
t
=
q
(L)
t
,
donde
q
(L) = 1 +
q

j=1

j
L
j
.
Promedios M oviles (MA)
MA(1)
Algunos aspectos de un MA(1) :
x
t
=
t
+
1

t1
,
de donde se obtiene:
E[x
t
] = 0,
var(x
t
) = E
_
(x
t
E[x
t
])
2
_
= E
_
(x
t
)
2
_
= E
_
(
t
+
1

t1
)
2
_
= E
_

2
t
+
1

t1
+
2
1

2
t1

=
_
1 +
2
1
_

2
.
Promedios M oviles (MA)
MA(1)
La autocovarianza de primer orden est a dada por:
cov(x
t
, x
t1
) = E[(x
t
E[x
t
]) (x
t1
E[x
t1
])]
= E[x
t
x
t1
] = E[(
t
+
1

t1
) (
t1
+
1

t2
)]
= E
_

t1
+
1

t2
+
1

2
t1
+
2
1

t1

t2

= E
_

2
t1

=
1

2
.
Por lo que la autocorrelaci on de primer orden es:
corr(x
t
, x
t1
) =
cov(x
t
, x
t1
)
var(x
t
)
=

1

2
_
1 +
2
1
_

2
=

1
_
1 +
2
1
_
.
n otese que es posible estimar
1
= corr(x
t
, x
t1
), pero entonces
obtendramos dos estimadores de
1
, uno siempre dentro de la region
[1, 1] , el otro siempre fuera de esa region.
Promedios M oviles (MA)
MA(1)
La autocovarianza de segundo orden es:
cov(x
t
, x
t2
) = E[x
t
x
t2
]
= E[(
t
+
1

t1
) (
t2
+
1

t3
)]
= E
_

t2
+
1

t3
+
1

t1

t2
+
2
1

t1

t3

= 0.
de donde se observa que todas las autocovarianzas (y por lo tanto
autocorrelaciones) mayores a q (el orden del MA) son cero.
Los procesos MA siempre son estacionarios.
Promedios M oviles (MA)
Ejemplo: x
t
=
t
+0.9
t1
, con
t
N(0, 1), t = 1, ..., 100.
-4
-3
-2
-1
0
1
2
3
0 20 40 60 80 100
x
;

M
A
(
1
)
,

t
h
e
t
a

=

0
.
9
Promedios M oviles (MA)
Correlograma y correlagrama parcial
-1
-0.5
0
0.5
1
0 2 4 6 8 10 12 14
lag
ACF for x; MA(1), theta = 0.9
+- 1.96/T^0.5
-1
-0.5
0
0.5
1
0 2 4 6 8 10 12 14
lag
PACF for x; MA(1), theta = 0.9
+- 1.96/T^0.5
Modelos Autorregresivos y de Promedios M oviles
(ARMA)
Proceso autorregresivo y de promedios m oviles de orden p,q,
ARMA(p, q):

p
(L)x
t
=
q
(L)
t
.
Un ejemplo es el proceso ARMA(1, 1):
x
t
= x
t1
+
t
+
1

t1
.
Modelos Autorregresivos y de Promedios M oviles
(ARMA)
Los procesos mixtos pueden generarse agregando otros modelos.
Por ejemplo:
x
t
AR(m), y
t
AR(n), x
t
y
t

1
(L)x
t
=
t

2
(L)y
t
=
t

t

t
, con media cero
z
t
= x
t
+ y
t
=

t

1
(L)
+

t

2
(L)
=
1

1
(L)
2
(L)
[
2
(L)
t
+
1
(L)
t
]

1
(L)
2
(L)z
t
= [
2
(L)
t
+
1
(L)
t
]
z
t
ARMA(m + n, r), r = m ax(m, n).
Metodologa de Selecci on de Modelos Box-Jenkins
Los procesos ARMA tienen rmas (ACF y PACF) que permiten
identicarlos, sin embargo dichas rmas son demasiado parecidas
o complejas, lo cual diculta la selecci on de la especicaci on.
Box y Jenkins propusieron una t ecnica estadstica para la selecci on
de un modelo ARMA que se ajuste a los datos, la cual consiste de
las siguientes etapas
1
Identicaci on
2
Estimaci on
3
Diagn ostico
4
Pron ostico
Metodologa Box-Jenkins (Identicaci on)
Selecci on del orden de un ARMA(p,q)
Para seleccionar el orden del proceso, es decir, p y q, se utilizan los
llamados criterios de informaci on. Los dos m as populares son el
Akaike (1974) y el Bayesiano de Schwarz (1978):
AIC = ln
_

2
p,q
_
+
2(p + q)
T
,
BIC = ln
_

2
p,q
_
+
(p + q) ln(T)
T
,
donde T es el tama no de la muestra. Se escogen los valores de p y
q que minimizan el criterio de informaci on seleccionado.
En caso de que no sea posible discriminar entre modelos, es
posible quedarnos con los modelos relevantes y tratar de
combinarlos de alguna forma (modelado denso: Thick
modeling).
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un ARMA(p,q)
Bajo el supuesto de que se conoce el orden p y q del proceso
ARMA, es posible hacer uso distintos de m etodos de estimaci on
de par ametros los cuales son puestos en pr actica con la ayuda de
programas computacionales.
Si el orden del proceso ARMA no es conocido, este puede ser
estimado con la ayuda de los criterios de informaci on. Para dicho
prop osito se estiman procesos ARMA de manera recursiva con un
orden creciente tanto en p como en q ( p = 1, . . . , p
max
y
q = 1, . . . , q
max
). Finalmente se elige la combinaci on (p

, q

) que
minimiza el criterio seleccionado.
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un AR(p)
Se mostrar a la estimaci on para el caso de un proceso AR(p), para
el cual sus par ametros pueden ser estimados mediante tres
m etodos:
1
M axima Verosimilitud
2
M etodo de Momentos (Ecuaciones Yule-Walker)
3
Mnimos Cuadrados
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un AR(p)
M axima Verosimilitud
Si conocemos la distribuci on del ruido blanco que genera el
proceso AR(p), los par ametros pueden ser estimados usando el
m etodo de m axima verosimilitud
Tomando x
1
como dada, la verosimilitud condicional para las
n 1 observaciones restantes es
L

= p (x
2
, x
3
, . . . , x
n
|x
1
)
= p (x
2
|x
1
) p (x
3
|x
1
, x
2
) (x
n
|x
1
, x
2
, . . . , x
n1
)
Para obtener la verosimilitud no condicional habr a que calcular
L = p (x
1
) L

Metodologa Box-Jenkins (Estimaci on)


Estimaci on de un AR(1)- M axima Verosimilitud
Bajo el supuesto de un proceso AR(1) con ruido blanco gaussiano, i.e.
x
t
= x
t1
+
t
E[
t
] = var[
t
] =
2
las distribuciones son:
t = 1
x
1
N
_

1
,

2
1
2
_
t = 2
x
2
|x
1
N
_
+ x
1
,
2
_
t > 1
x
t
|x
t1
, . . . , x
1
N
_
+ x
t1
,
2
_
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un AR(1)- M axima Verosimilitud
La funci on de Verosimilitud es
L =
1

2
_

2
1
2
_

1
2
exp
_

1
2
2
2
_
y
1


1
_
2
_
T

t=2
1

2
2
exp
_
(x
t
x
t1
)
2
2
2
_
La log-verosimilitud es
l =
T
2
ln(2)
1
2
ln
_

2
1
2
_

1
2
2
2
_
y
1


1
_
2

n 1
2
ln
_

2
_

t=2
(x
t
x
t1
)
2
2
2
la estimaci on de los par ametros se obtiene de maximizar ya sea
analticamente o mediante una optimizaci on num erica.
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un AR(p)
M etodo de Momentos - Ecuaciones Yule-Walker
Las ecuaciones Yule-Walker son extradas de la funci on de
autocorrelaci on de un proceso AR(p), la cual tiene la siguiente
forma:

j
=
_
1, para j=0;

j1
+
2

j2
+ . . . +
p

jp
, para j=1,2,. . . .
por lo tanto existen p par ametros distintos y hay p ecuaciones
Yule-Walker. Se puede resolver este sistema reemplazando
j
(correlaci on te orica) por
j
(correlaci on muestral) y obtener
estimadores de los par ametros
i
para i = 1, 2, . . . , p.
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un AR(p)
Mnimos Cuadrados
Se ajusta por MCO la siguiente especicaci on:
x
t
=
1
x
t1
+
2
x
t2
+ +
p
x
tp
+ u
t
si la ecuaci on satisface las condiciones de estacionariedad MCO
arroja estimadores consistentes. Adem as

T
_

i
_
i = 1, 2, . . . , p se distribuye asint oticamente normal.
El estimador de MCO es equivalente al estimador de MV cuando
el vector de errores sigue una distribuci on normal multivariada.
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un MA(q)
Se presenta la estimaci on de un proceso MA(q) por el m etodo de
M axima Verosimilitud, dicho m etodo no es el unico disponible
para estimarlo, pero cualquier m etodo que pretenda hacerlo debe
ser capaz de estimar una funci on no lineal en los par ametros (por
ejemplo, mnimos cuadrados no lineales).
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un MA(1)
M axima Verosimilitud
Se calcula la funci on de verosimilitud, para el caso
x
t
= +
t
+
t1

t

i.i.d.
N(0,
2
)
las probabilidades condicionales son:

t = 1 Bajo el supuesto
0
= 0
x
1
|(
0
= 0) N(,
2
)

1
= x
1

t = 2
x
2
|(x
1
,
0
= 0) N(
1
,
2
)

2
= x
2

1
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un MA(1)
Las probabilidades condicionales son en general de la forma
p(y
t
|
t1
)

t > 1
x
t
|(x
t1
, . . . , x
1
,
0
= 0) N(
t1
,
2
)

t
= x
t

t1
La funci on de verosimilitud es
L =
T

t=1
p(y
t
|
t1
)
=
T

t=1
1

2
2
exp
_


2
t
2
2
_
Metodologa Box-Jenkins (Estimaci on)
Estimaci on de un MA(1)
La log-verosimilitud es
l =
T
2
ln(2)
T
2
ln(
2
)
1
2
2
T

t=1

2
t
el ultimo t ermino de la expresi on es una funci on no lineal de los
par ametros por lo cual es necesario el uso de m etodos iterativos
para obtener los estimadores.
La estimaci on de un proceso ARMA(p, q) comparte el reto de
estimaci on presente en un proceso MA.
Metodologa Box-Jenkins (Diagn ostico)
Pruebas de Diagn ostico
La inferencia estadstica que se hace a partir de MCO o MV puede
ser aplicada en el contexto de la estimaci on de un proceso ARMA
siempre y cuando se cumplan las condiciones de estacionariedad.
Los residuales del modelo proveen informaci on importante, si
estos no aproximan un ruido blanco el modelo seleccionado no es
satisfactorio y es necesario una nueva especicaci on.
Metodologa Box-Jenkins (Pron ostico)
Pron osticos por pasos
Denotemos por p
t+h,t
al pron ostico realizado en t para el horizonte
h.
Se dene el error de pron ostico como e
t+h,t
= x
t+h
p
t+h,t
. Notese
que p
t+h,t
es conocido en el tiempo t, mientras que e
t+h,t
y x
t+h
lo
son hasta el periodo t + h.
El error cuadr atico medio (ECM) de un pron ostico es
ECM =
H

h=1
e
2
t+h,t
=
H

h=1
(x
t+h
p
t+h,t
)
2
el cual promedia el error de pron ostico de manera sim etrica.
Se puede demostrar que el mnimo en el ECM se alcanza cuando
el pron ostico de la variable p
t+h,t
es la esperanza condicional de la
variable x
t+h
, dada toda la informaci on disponible en el tiempo t.
Metodologa Box-Jenkins (Pron ostico)
Pron osticos por pasos para un AR(1)
Consideramos un proceso AR(1) de la forma
x
t
= x
t1
+
t
E[
t
] = var[
t
] =
2
Para calcular el pron ostico un paso hacia adelante del proceso
partimos de saber que su verdadero valor es
x
t+1
= x
t
+
t+1
El pron ostico, es la esperanza condicional de x
t+1
dada la
informaci on disponible en el tiempo t, cuando se minimiza el
ECM esto es
p
t+1,t
= E[x
t+1
|x
t
] = x
t
+
el error asociado es
e
t+1,t
= x
t+1
E[x
t+1
|x
t
]
= x
t+1
x
t

=
t+1

Metodologa Box-Jenkins (Pron ostico)


Pron osticos por pasos para un AR(1)
El pron ostico dos pasos hacia adelante es
p
t+2,t
= E[x
t+2
|x
t
] = E[x
t+1
|x
t
] + =
2
x
t
+ (1 + )
e
t+2,t
= x
t+2
E[x
t+2
|x
t
]
= x
t+1
+
t+2
E[x
t+1
|x
t
]
= e
t+1,t
+
t+2

=
t+2
+
t+1
(1 + )
El pron ostico h pasos hacia adelante es
p
t+h,t
= E[x
t+h
|x
t
] =
h
x
t
+
_
1 + +
2
+ +
h1
_
e
t+h,t
=
t+h
+
t+h1
+
2

t+h2
+ +
h1

t+1

_
1 + +
2
+ +
h1
_

Metodologa Box-Jenkins (Pron ostico)


Pron osticos por pasos para un AR(1)
Las propiedades del error de pron ostico de horizonte h son
E[e
t+h,t
] = 0
Var[e
t+h,t
] =
_
1 +
2
+
4
+ +
2(h1)
_

2
Conforme el horizonte de pron ostico crece
p
t+h,t


1
cuando h
Var[e
t+h,t
]

2
1
2
cuando h
i.e. el valor pron osticado tiende a la media no condicional del
proceso, y la varianza del error de pron ostico se incrementa hacia
la varianza no condiconal del proceso.
Metodologa Box-Jenkins (Pron ostico)
Pron osticos por pasos para un AR(1)
Al tener una distribuci on para el error de pron ostico es posible
construir intervalos de conanza (IC) para los pron osticos h pasos
hacia adelante.
Para el caso de un pron ostico un paso hacia adelante
e
t+1,t
N
_
0, (1 + )
2
_
por lo cual un IC al 95 % est a dado por
IC : + x
t
1,96
_
(1 + )
2

1
2
Metodologa Box-Jenkins (Pron ostico)
Pron osticos por pasos para un MA(1)
Consideremos un proceso MA(1) de la forma
x
t
= +
t
+
t1
E[
t
] = 0 var[
t
] =
2
Para calcular el pron ostico un paso hacia adelante del proceso
partimos de saber que su verdadero valor es
x
t+1
= +
t+1
+
t
El pron ostico, cuando se minimiza el ECM, es
p
t+1,t
= E[x
t+1
|x
t
] = +
t
El valor de
t
depende de los valores previos de , para la
implementaci on es com un jar
0
= 0, est a aproximaci on pierde
importancia conforme el tama no de muestra crece.
Calculamos el error asociado
e
t+1,t
= x
t+1
E[x
t+1
|x
t
]
= x
t+1

t
=
t+1
Metodologa Box-Jenkins (Pron ostico)
Pron osticos por pasos para un MA(1)
El pron ostico dos pasos hacia adelante es
p
t+2,t
= E[x
t+2
|x
t
] =
e
t+2,t
= x
t+2
E[x
t+2
|x
t
] = x
t+2
=
t+2
+
t+1
En un proceso MA(1) el pron ostico por pasos tiene el siguiente
esquema
p
t+h,t
= h 2
var(e
t+h,t
) = (1 +
2
)
2
h 2
para dos periodos adelante, el pron ostico de un MA(1) es
simplemente la media no condicional de la serie, y la varianza del
error de pron ostico es la varianza de la serie.
Teorema de Wold
x
t
univariada, estacionaria y con media cero. I
t
consiste del pasado
y del presente de la serie: x
tj
, j 0.
(Representaci on de Wold) Cualquier proceso estacionario {x
t
}
puede representarse como:
x
t
= c(L)
t
+ v
t
=

j=0
c
j

tj
+ v
t
,
donde c
0
= 1 y

j=0
c
2
j
< . El t ermino
t
es ruido blanco y
representa el error hecho al pronosticar x
t
bas andose en una
funci on lineal de rezagos de x
t
:

t
= x
t
P(x
t
| I
t1
).
v
t
un proceso linealmente determinstico y no est a correlacionado
con
tj
j, mientras que

j=0
c
j

tj
es llamado el componente
line almente no determinstico (i.e. estoc astico).
Procesos Determinsticos
Son aqu ellos que pueden ser pronosticados perfectamente, dado
que conocemos la funci on que los genera.
Por ejemplo, si la funci on generadora es:
y
t
= a + bt,
entonces, el valor de y
t+1
puede ser pronosticado perfectamente,
al igual que el de y
t+k
:
y
t+1
= a + b(t +1),
y
t+k
= a + b(t + k).
Descomposici on Tradicional de una Serie de Tiempo
Una serie de tiempo puede pensarse como compuesta de distintos
elementos, algunos de ellos determinsticos y otros estoc asticos:
y
t
= tendencia + estacionalidad + resto,
y
t
= t + s + ,
los dos primeros han sido considerados tradicionalmente como
determinsticos, asi que la parte estoc astica es a lo que llamamos
resto.
La tendecia puede ser lineal, o puede ser ajustada por un
polinomio de m as alto grado. Tambi en puede presentar cambios
estructurales o ser estoc astica. En caso de presentar tendencia, las
series son no estacionarias.
Estacionalidad
Existen varios m etodos para tratar datos estacionales:
En el caso en que sea verdaderamente repetitiva, podemos utilizar
un ltro de promedios moviles: y

t
=
12

j=12
a
j
y
tj
a
j
= a
j
.
Incluir una variable dicot omica (dummy) para cada estaci on (y
no incluir una constante). Esto asume que la estacionalidad no
cambia en la muestra.
Usar datos ajustados estacionalmente. El factor estacional se
estima tpicamente usando un ltro de dos lados para los datos de
cada estaci on en a nos contiguos. De esta forma se pueden
extraer una amplia gama de factores estacionales. Algunos ltros
son el X-12 ARIMA o el TRAMO-SEATS. Sin embargo, el ajuste
estacional tambi en altera las auto-correlaciones de las series.
Aplicar una diferencia estacional. Si s es el n umero de estaciones
(4 para trimestres, 12 para meses), entonces:
s
y
t
= y
t
y
ts
. La
serie
s
y
t
est a libre de estacionalidad, sin embargo, esto tambi en
elimina la tendencia de largo plazo.
Bibliografa
Box, George E.P., Gwilym M. Jenkins y Gregory C. Reinsel. 2008.
Time Series Analysis Forecasting and Control. 4a ed. New
Jersey:Wiley.
Brooks, Chris. 2008. Introductory Econometrics for Finance. 2a ed.
Cambridge:Cambridge University Press.
Enders, Walter. 2010. Applied Econometric Time Series. 3a ed. New
Jersey:Wiley.
Guerrero, Vctor. 2003. An alisis Estadstico de Series de Tiempo
Econ omicas. 2a ed. M exico:Thomson.
Granger, Clive W.J. y Paul Newbold. 1986. Forecasting Economic
Time Series. 2a ed. San Diego:Academic Press.
Hamilton, James D. 1994. Times Series Analysis. Princeton
University Press.

También podría gustarte