P. 1
Notas de Clase Series

Notas de Clase Series

|Views: 57|Likes:
Publicado pormaonal

More info:

Published by: maonal on Apr 05, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

11/12/2012

pdf

text

original

ECONOMETRÍA II

UNIVERSIDAD NACIONAL DE COLOMBIA
FACULTAD DE CIENCIAS ECONÓMICAS
Milena Hoyos G.
Primer semestre de 2009
1. MÓDULO: ANÁLISIS DE SERIES DE TIEMPO UNI-
VARIADAS
1.1. Procesos estocásticos y series de tiempo
Un proceso estocástico es una familia de variables aleatorias asociadas a un conjunto
de índice de números reales, que generalmente son el tiempo. Una serie de tiempo es
una realización de un proceso estocástico.
1.2. Uso de operadores y polinomios de retraso
Operador de retraso. Se de…ne mediante la relación
1
k
7
t
= 7
tk
para / = 0, 1, . . . , y toda t
donde 1 es el operador de retraso y 7 es una variable aleatoria. La expresión
anterior signi…ca que al aplicarse el operador de retraso 1
k
a 7
t
se obtiene la variable
retrasada / periodos.
Ejemplo: En el Cuadro 1 se presentan los datos mensuales del índice de tasa de
cambio real de Colombia para el periodo enero de 2006 a julio de 2007, denotado por la
serie de tiempo 7
t
. Adicionalmente se muestran las nuevas series \
t
, A
t
y 1
t
de…nidas
como \
t
= 17
t
, A
t
= 1
2
7
t
y 1
t
= 1
12
7
t
.
1
Cuadro 1: Operador de retraso para la serie ITCR
Fecha 7
t
\
t
= 17
t
A
t
= 1
2
7
t
1
t
= 1
12
7
t
ene-06 103.73
feb-06 103.37 103.73
mar-06 102.96 103.37 103.73
abr-06 106.51 102.96 103.37
may-06 109.97 106.51 102.96
jun-06 113.91 109.97 106.51
jul-06 113.76 113.91 109.97
ago-06 108.41 113.76 113.91
sep-06 108.35 108.41 113.76
oct-06 107.51 108.35 108.41
nov-06 104.60 107.51 108.35
dic-06 103.87 104.60 107.51
ene-07 102.61 103.87 104.60 103.73
feb-07 101.78 102.61 103.87 103.37
mar-07 100.37 101.78 102.61 102.96
abr-07 97.61 100.37 101.78 106.51
may-07 92.47 97.61 100.37 109.97
jun-07 88.82 92.47 97.61 113.91
jul-07 91.01 88.82 92.47 113.76
Operador diferencia. Se de…ne como
\
k
7
t
= (1 ÷1)
k
7
t
para / = 0, 1, . . . , y toda t
donde \ es el operador diferencia y 7 es una variable aleatoria.
Ejemplo: En el Cuadro 2 se presentan los datos mensuales del índice de tasa de
cambio real de Colombia para el periodo enero de 2006 a julio de 2007, denotado por
la serie de tiempo 7
t
y la serie '
t
de…nida como '
t
= \7
t
.
Polinomio de retraso. Se expresa como
G(1)7
t
= 7
t
÷q
1
7
t1
÷q
2
7
t2
÷ ÷q
k
7
tk
para / = 0, 1, . . . y toda t
donde G(1) = (1÷q
1
1÷q
2
1
2
÷ ÷q
k
1
k
) es el polinomio de retraso, los coe…cientes
q
1
, ..., q
k
son constantes que ponderan la importancia de los retrasos con los que están
asociados y 7 es una variable aleatoria.
2
Cuadro 2: Operador diferencia para la serie ITCR
Fecha 7
t
'
t
= 7
t
÷7
t1
ene-06 103.73
feb-06 103.37 -0.36
mar-06 102.96 -0.41
abr-06 106.51 3.55
may-06 109.97 3.46
jun-06 113.91 3.94
jul-06 113.76 -0.15
ago-06 108.41 -5.35
sep-06 108.35 -0.06
oct-06 107.51 -0.84
nov-06 104.60 -2.91
dic-06 103.87 -0.73
ene-07 102.61 -1.26
feb-07 101.78 -0.83
mar-07 100.37 -1.41
abr-07 97.61 -2.76
may-07 92.47 -5.14
jun-07 88.82 -3.65
jul-07 91.01 2.19
Ejemplos:
1. Promedios Móviles:
7
t
÷j = (1 ÷0
1
1 ÷0
2
1
2
÷ ÷0
q
1
q
)a
t
7
t
÷j = 0(1)a
t
2. Autorregresivos:
(1 ÷c
1
1 ÷c
2
1
2
÷ ÷c
p
1
p
)(7
t
÷j) = a
t
c(1)(7
t
÷j) = a
t
3. Autorregresivos de promedios móviles:
c(1)(7
t
÷j) = 0(1)a
t
4. Autorregresivos integrados y de promedios móviles:
c(1)\
d
7
t
= 0(1)a
t
3
1.3. Procesos estocásticos lineales
El proceso estocástico ¦7
t
¦ es lineal si puede ser expresado en función del proceso
de ruido blanco ¦a
t
¦ mediante la relación
7
t
= j +a
t
÷c
1
a
t1
÷c
2
a
t2
÷
7
t
= j +c(1)a
t
donde j es el parámetro que determina el nivel del proceso ¦7
t
¦ y c(1) es el
polinomio de retraso.
Un proceso estocástico independiente e idénticamente distribuido (iid), cuya media
es constante (usualmente cero) y cuya varianza es o
2
a
se conoce como proceso de ruido
blanco
¦a
t
¦ ~ iid(j, o
2
a
)
1.4. Procesos estacionarios
Un proceso es estacionario en sentido débil si sus momentos de primer y segundo
orden, es decir su media, varianza y covarianzas, no dependen del tiempo. Un proceso
estocástico es estrictamente estacionario si la función de densidad para un conjunto
arbitrario de variables aleatorias es invariante respecto a desplazamientos en el tiempo.
Estacionariedad estricta = Estacionariedad débil
Estacionariedad débil ; Estacionariedad estricta
Estac. débil + Gaussianidad = Estacionariedad estricta
Para el análisis de series de tiempo es su…ciente estudiar la estacionariedad en
sentido débil. Lo anterior signi…ca que para caracterizar completamente una serie esta-
cionaria se requiere conocer su media, varianza y covarianzas; sin embargo, para evitar
la in‡uencia de las unidades de medida también se acostumbra calcular las autocor-
relaciones.
1.5. Modelos para series de tiempo estacionarias
1.5.1. Modelos autorregresivos (AR):
El proceso estocástico ¦7
t
¦ se llama un proceso AR(j), si ¦7
t
¦ es estacionario y
para cada t
7
t
= c +c
1
7
t1
+c
2
7
t2
+ +c
p
7
tp
+a
t
4
o
(1 ÷c
1
1 ÷c
2
1
2
÷ ÷c
p
1
p
)7
t
= c +a
t
donde j es un entero no negativo, c y c = (1 ÷c
1
÷c
2
÷ ÷c
p
)j son parámetros, 1
es el operador de retraso y ¦a
t
¦ ~ 11(0, o
2
a
).
Estacionariedad. Un proceso AR es estacionario si y sólo si las raíces de la ecuación
característica c(r) = (1 ÷c
1
r ÷c
2
r
2
÷ ÷c
p
r
p
) = 0 se encuentran fuera del círculo
unitario. Otra forma de veri…car el supuesto de estacionariedad es mediante las auto-
correlaciones, las cuales decaen rápidamente a cero cuando el proceso es estacionario.
1.5.2. Modelos de promedios móviles (MA):
El proceso estocástico ¦7
t
¦ se llama un proceso MA(¡), si ¦7
t
¦ obedece a la ecuación
7
t
= c +a
t
÷0
1
a
t1
÷0
2
a
t2
÷ ÷0
q
a
tq
o
7
t
= c + (1 ÷0
1
1 ÷ ÷0
q
1
q
)a
t
donde ¡ es un entero no negativo, 0 y c son parámetros, 1 es el operador de retraso
y ¦a
t
¦ ~ 11(0, o
2
a
).
Invertibilidad. Un proceso MA es invertible si y sólo si las raíces de la ecuación
característica 0(r) = (1 ÷0
1
r ÷0
2
r
2
÷ ÷0
q
r
q
) = 0 se encuentran fuera del círculo
unitario.
1.5.3. Modelos autorregresivos de promedios móviles (ARMA):
El proceso estocástico ¦7
t
¦ se llama un proceso ARMA(j, ¡), si ¦7
t
¦ es estacionario
y para cada t
7
t
= c +c
1
7
t1
+c
2
7
t2
+ +c
p
7
tp
+a
t
÷0
1
a
t1
÷0
2
a
t2
÷ ÷0
q
a
tq
o
(1 ÷c
1
1 ÷ ÷c
p
1
p
)7
t
= c + (1 ÷0
1
1 ÷ ÷0
q
1
q
)a
t
donde j y ¡ son enteros no negativos, c, c y 0 son parámetros, 1 es el operador de
retraso y ¦a
t
¦ ~ 11(0, o
2
a
).
5
Estacionariedad e invertibilidad. Un proceso ARMA es estacionario si y sólo si
las raíces de la ecuación característica c(r) = (1 ÷ c
1
r ÷ c
2
r
2
÷ ÷ c
p
r
p
) = 0 se
encuentran fuera del círculo unitario. Un proceso ARMA es invertible si y sólo si las
raíces de la ecuación característica 0(r) = (1÷0
1
r÷0
2
r
2
÷ ÷0
q
r
q
) = 0 se encuentran
fuera del círculo unitario.
Si el proceso es estacionario admite la representación
7
t
÷j =
0(1)
c(1)
a
t
7
t
÷j = c(1)a
t
Si el proceso es invertible admite la representación
c(1)
0(1)
(7
t
÷j) = a
t
¬(1)(7
t
÷j) = a
t
con
1

i=1
[c
i
[ < · y
1

i=1

i
[ < ·, donde los coe…cientes c
i
y ¬
i
, i = 1, 2, . . . se obtienen
al igualar coe…cientes de potencias del operador 1 en las ecuaciones
(1 ÷c
1
1 ÷c
2
1
2
÷ )(1 ÷c
1
1 ÷ ÷c
p
1
p
) = 1 ÷0
1
1 ÷ ÷0
q
1
q
(1 ÷¬
1
1 ÷¬
2
1
2
÷ )(1 ÷0
1
1 ÷ ÷0
q
1
q
) = 1 ÷c
1
1 ÷ ÷c
p
1
p
Función de autocovarianza. Para / ¡ la función de autocovarianza es
¸
k
= c
1
¸
k1
+c
2
¸
k2
+ +c
p
¸
kp
mientras que para / _ ¡, la función además involucra los parámetros 0
k
, 0
k+1
, . . . , 0
q
.
Función de autocorrelación. Para / ¡ la función de aucorrelación corresponde
a
j
k
= c
1
j
k1
+c
2
j
k2
+ +c
p
j
kp
mientras que para / _ ¡, la función además involucra los parámetros 0
k
, 0
k+1
, . . . , 0
q
.
6
1.6. Modelos para series de tiempo no estacionarias
1.6.1. Modelos autorregresivos integrados y de promedios móviles (ARI-
MA):
El proceso estocástico ¦7
t
¦ obedece a un modelo ARIMA(j, d, ¡) si
_
1
t
= (1 ÷1)
d
7
t
_
~
ARMA(j, ¡). El modelo ARIMA puede ser escrito como
(1 ÷c
1
1 ÷ ÷c
p
1
p
)(1 ÷1)
d
7
t
= c + (1 ÷0
1
1 ÷ ÷0
q
1
q
)a
t
donde j, d y ¡ son enteros no negativos, c, c y 0 son parámetros, 1 es el operador de
retraso y ¦a
t
¦ ~ 11(0, o
2
a
).
Estacionariedad e invertibilidad. Un proceso ARIMA es estacionario si y sólo si
las raíces de la ecuación característica c(r) = (1 ÷ c
1
r ÷ c
2
r
2
÷ ÷ c
p
r
p
) = 0 se
encuentran fuera del círculo unitario. Un proceso ARIMA es invertible si y sólo si las
raíces de la ecuación característica 0(r) = (1÷0
1
r÷0
2
r
2
÷ ÷0
q
r
q
) = 0 se encuentran
fuera del círculo unitario.
1.7. Construcción de modelos para series univariadas
Box y Jenkins (1970) diseñaron una estrategia para la construcción de modelos de
series de tiempo, que consta de cuatro etapas: identi…cación, estimación, veri…cación,
validación y uso del modelo. La estrategia se puede representar grá…camente mediante
el proceso iterativo de la Figura 1.
Figura 1: Estrategia de Box-Jenkins para construir modelos
7
1.7.1. Identi…cación:
Consiste en:
a. Determinación de una serie estacionaria en función de la serie original para la
cual se pueda tener una representación ARMA.
Si la serie no tiene varianza constante se debe aplicar alguna transformación como
las que se presentan a continuación:
Transformación potencia: T(7
t
) =
_
Z

t
; 6=0
ln Zt; =0
Transformación Box-Cox: T(7
t
) =
_
Z

t
1

; >0
ln Zt; =0
Si la serie tiene una tendencia polinomial adaptiva se debe aplicar el operador
diferencia un número apropiado de veces para eliminar la tendencia. Las herramientas
usadas para determinar el número apropiado de diferencias son:
« FAC simple: se grá…ca la FAC muestral para las series ¦T(7
t
)¦ , ¦\T(7
t
)¦ y
_
\
2
T(7
t
)
_
y se escoge la primera que tenga un decaimiento rápido de las autocorrela-
ciones a cero.
« Desviación estándar: se calcula la desviación estándar de la series ¦T(7
t
)¦ ,
¦\T(7
t
)¦ y
_
\
2
T(7
t
)
_
y se escoge la que presenta menor desviación estándar. Este
método no siempre funciona y por tanto debe verse como una herramienta complemen-
taria de la FAC simple.
b. Identi…cación de los órdenes j y ¡
En esta etapa se intenta asociar la FAC simple y FACP muestral con un posible
proceso generador del tipo ARMA. El comportamiento de la FAC simple y FACP para
procesos AR, MA y ARMA se resume a continuación:
AR(j): en la FAC simple todas autocorrelaciones son distintas de cero, aunque con
convergencia a cero, mientras que en la FACP solamente las primeras j autocorrela-
ciones parciales son distintas de cero.
MA(¡): en la FAC simple solo las primeras ¡ autocorrelaciones son distintas de cero,
mientras que en la FACP todas las autocorrelaciones parciales son distintas de cero,
aunque con convergencia a cero.
ARMA(j, ¡): en la FAC simple existe un comportamiento irregular de las primeras ¡
autocorrelaciones y después se observa una convergencia a cero. En la FACP la sucesión
in…nita de las autocorrelaciones parciales es convergente a cero.
8
Figura 1: FAC y FACP para AR(1)
Figura 2: FAC Y FACP para AR(2)
9
Figura 3: FAC y FACP para AR(2)
Figura 4: FAC y FACP para MA(1)
10
Criterios de información. Los criterios de información también pueden ser usados
para la identi…cación de los modelos ARMA. La idea es esocoger los órdenes p y q que
minimicen
C1(j, ¡) = ln ´ o
2
a
+ (j +¡)
C(:)
:
,
donde ´ o
2
a
es el estimador de o
2
a
para el modelo ¹1'¹(j, ¡), : es el tamaño de la mues-
tra y C(:) es una función de este último. Entre los criterios más usados se encuentran:
« ¹1C = ln(´ o
2
a
) +
2(p+q)
N
[Akaike (1973,1974)]
« 11C = ln(´ o
2
a
) + (j +¡)
ln(n)
n
[Schwarz (1978) y Rissanen (1978)]
« HQ = ln(´ o
2
a
) + (j +¡)
2 ln ln(n)
n
[Hannan & Quinn (1979)]
1.7.2. Estimación:
Una vez identi…cado el modelo
c(1)\
d
T(7
t
) = c +0(1)a
t
se deben estimar los parámetros desconocidos c, c
1
, . . . , c
p
, 0
1
, . . . , 0
q
, o
2
a
. El método de
estimación usado en este caso es el de máxima verosimilitud. Suponiendo distribución
normal para el ruido blanco, la función de verosimilitud esta dada por
1(, , c, o
2
a
[Z) = (2¬)

(ndp)
2
o
(ndp)
a
exp
_
÷
n

t=d+p+1
a
2
t
2o
2
a
_
1.7.3. Veri…cación:
En esta etapa se debe veri…car que los supuestos del modelo se cumplan. En caso de
encontrarse evidencia de violación de alguno de estos, deberá corregirse. La veri…cación
se realiza analizando los residuos. Entre las pruebas más usadas se encuentran:
« Prueba de autocorrelación. La no autocorrelación puede veri…carse calculando
la FAC muestral de los residuos, dada por
´j
k
(a) =

n
t=k+1
´a
t
´a
tk

n
t=1
´a
2
t
y comparándola con los límites ±2,
_
:,. Si [´j
k
(a)[ ±2,
_
: se concluirá que la auto-
correlación k-ésima es signi…cativamente distinta de cero.
11
« Prueba de Box-Pierce-Ljung. Box and Pierce (1970) propusieron un test para
realizar una prueba de signi…cación conjunta de / autocorrelaciones simultáneamente.
Ljung and Box (1978) realizaron una modi…cación del estadístico de prueba y obtu-
vieron el siguiente
Q(/) = :(: + 2)
k

k=1
´j
2
k
(a)
(: ÷/)
con Q(/) ~
asint.
¸
2
kpq
. La hipótesis nula de Ruido Blando es rechazada para valores
grandes de Q()
« Prueba de Lomnicki-Jarque-Bera. Lomnicki (1961) y Jarque & Bera (1987)
propusieron una prueba para no-normalidad basada en el tercer y cuarto momento de
ldistribución (sesgo y kurtosis). El estadístico de prueba se construye como sigue
1J1 =
:
6
_
:
1
n

t=1
(´a
s
t
)
3
_
2
+
:
24
_
:
1
n

t=1
(´a
s
t
)
4
÷3
_
2
donde ´a
s
t
son los residuales estandarizados. El estadístico 1J1 ~
asint.
¸
2
2
. La hipótesis
nula de sesgo cero y kurtosis 3 es rechazada para valores grandes de 1J1().
1.7.4. Tendencia estocástica y determinística
Es importante modelar la tendencia de una manera apropiada. Esto implica dis-
tinguir una tendencia determinística de una estocástica. A continuación se presentan
algunos ejemplos de ambos tipos de tendencia, así como grá…cas de series simuladas.
Ejemplos:
Tendencia determinística
« Lineal: 7
t
= c +,t +a
t
, t = 1, ..., :
Tendencia estocástica
« Caminata aleatoria: 7
t
= 7
t1
+a
t
« Caminata aleatoria con deriva: 7
t
= c +7
t1
+a
t
Para una serie con tendencia determinística se puede estimar un modelo ARMA
que incluya la tendencia. Si esta es lineal el modelo ARMA es descrito por
c(1)T(7
t
) = c +,t +0(1)a
t
En el caso de una serie con tendencia estocástica se estima un modelo ARIMA.
12
Figura 5: Series generadas para el modelo Zt = +t +Zt1 +at; at RBN(0; 1); (1)
(; ; ) = (1; 0; 0;8); (2) (; ; ) = (1; 0;01; 0;8); (3) (; ; ) = (0; 0; 1)
1.7.5. Raíces unitarias:
Las pruebas conocidas como de raíces unitarias son una herramienta complemen-
taria de la grá…ca de la serie, FAC simple muestral y varianza muestral para decidir
el grado de diferenciacion apropiado a …n de volver estacionaria en nivel una serie. Si
se requieren d > 0 diferencias, se dice que ésta es integrada de orden d y se escribe
¦7¦ ~ 1(d). Algunas pruebas son Dickey-Fuller y Phillips-Perron.
Prueba de Dickey Fuller. Partiendo del modelo 7
t
= c + ,t + c7
t1
+ a
t
y
restando 7
t1
a ambos lados de la ecuación se llega a
\7
t
= c +,t +j7
t1
+a
t
donde j = c ÷ 1. La prueba de Dickey-Fuller considera tres ecuaciones de regresión
diferentes, c = , = 0, c ,= 0 y , = 0, y c = , ,= 0. El parámetro de interés en los tres
casos es j; si este es igual a cero la serie contiene una raíz unitaria. Para el caso en el
que c ,= 0 y , = 0 la hipótesis nula corresponde a
H
o
: j = c = 0
y para c = , ,= 0 es
H
o
: j = c = , = 0
Note que probar la restricción j = c = , = 0 es equivalente a probar la existencia
de una tendencia estocástica en la serie, y j < 0, , ,= 0 y c ,= 0, a probar una deter-
minística. Cuando en la ecuación de regresión se incluyen otros rezagos de \7
t
como
variable explicativas, la prueba recibe el nombre de prueba de Dickey-Fuller aumentada.
13
1.8. Pronósticos con modelos ARMA
Suponga que 1
t
es una serie de tiempo estacionaria de…nida como 1
t
= \
d
T(7
t
),
y que admite la representación ARMA. Si a partir del periodo t se desea pronosticar
la observación 1
t+h
, un pronóstico cualquiera de esta observación será denodato por
¯
1
t
(/), mientras que el pronóstico óptimo se escribira como
´
1
t
(/), con / el horizonte
de predicción. El criterio usado para determinar la optimalidad del pronóstico es el
error cuadrático medio mínimo. Así,
´
1
t
(/) para que sea el pronóstico óptimo deberá
satisfacer la condición
1
t
_
1
t+h
÷
´
1
t
(/)
_
2
= :i:
e
Yt(h)
1
t
_
1
t+h
÷
¯
1
t
(/)
_
2
en la cual 1
t
denota la esperanza condicional, dada toda la información hasta el mo-
mento t, es decir
1
t
_
1
t+h
÷
¯
1
t
(/)
_
2
= 1
_
_
1
t+h
÷
¯
1
t
(/)
_
2
[7
t
, 7
t1
, . . .
_
Se sabe que 1
t
(1
t+h
) proporciona el pronóstico con error cuadrático medio mínimo,
es decir
´
1
t
(/) = 1
t
(1
t+h
)
y que el error del pronóstico viene dado por
c
t
(/) = 1
t+h
÷
´
1
t+h
Una vez se han construido varios modelos para representar una serie de tiempo
resulta de interés analizar y comparar la capacidad de pronóstico de cada uno de ellos,
con el objeto de escoger el modelo que suministra los mejores pronósticos. Una forma de
estudiar dicha capacidad es vía contrastación de pronósticos de valores ya observados
de la serie, con sus valores reales, para diferentes horizontes de pronóstico. La forma
de proceder es cortar la serie en el instante t < T, donde T es el tamaño de muestra,
construir un modelo con las primeras t observaciones y pronosticar los valores desde
el periodo t + 1 hasta el periodo T. Este análisis se conoce con el nombre de análisis
posmuestral.
Para evaluar la capacidad predictiva de un modelo en términos de pronósticos
puntuales, en la literatura empírica comúnmente se ha utilizado el criterio de error
cuadrático medio (ECM). Recientemente, se han realizado varios estudios que incorpo-
ran pruebas formales, como la de Diebold and Mariano (1995), para probar diferencias
14
en medidas de evaluación de pronósticos, como el ECM, entre dos modelos. Adicional-
mente, estudiosos del tema han sugerido otros métodos de evaluación en términos de
intervalos de pronóstico y densidades de pronósticos, véase Christo¤ersen (1998) y
Diebold, Gunther and Tay (1998).
Para obtener pronósticos de la serie original 7
t
se puede aplicar la transformación
inversa T
1
siempre y cuando la trasformación que haya sido usada sea lineal. Pero
si ésta fue la transformación potencia o Box-Cox, es necesario corregir el sesgo que
intoduce la aplicación de la transformación inversa. Para detalles véase Guerrero (2003).
1.9. Análisis de series de tiempo estacionales
1.9.1. Estacionalidad
Comportamiento que se repite anualmente, quizá con cambios graduales a través de
los años. A pesar de que usualmente se considera un fenómeno repetitivo anual, esto no
signi…ca que no pueda existir otro tipo de comportamiento periódico de duración menor
al año; por ejemplo un período estacional semestral para series mensuales implicaría
que los meses de diciembre mostrarían un comportamiento similar a los meses de junio,
además de que los junios serían similares entre sí, al igual que los diciembres.
1.9.2. Operador diferencia estacional
Se de…ne mediante la relación
\
k
E
7
t
= (1 ÷1
E
)
k
7
t
para / = 0, 1, . . . y 1 = 1, 2, . . .
donde \
E
es el operador diferencia estacional y 7 es una variable aleatoria. El
periodo estacional comprende 1 observaciones contiguas.
Ejemplo: En el Cuadro 3 se presentan los datos mensuales del índice de producción
real de la industria manufacturera de Colombia para el periodo enero de 2006 a mayo
de 2007, denotado por la serie de tiempo 7
t
y la serie ·
t
de…nida como ·
t
= \
12
7
t
,
1 = 12 y / = 1.
15
Cuadro 3: Operador diferencia para la serie ITCR
Fecha 7
t
·
t
= 7
t
÷7
t12
ene-06 105.05
feb-06 110.55
mar-06 122.47
abr-06 111.64
may-06 124.18
jun-06 123.14
jul-06 125.96
ago-06 135.11
sep-06 137.05
oct-06 139.72
nov-06 140.94
dic-06 131.63
ene-07 120.76 15.71
feb-07 127.52 16.97
mar-07 140.24 17.77
abr-07 126.70 15.06
may-07 138.38 14.20
1.9.3. Modelos puramente estacionales
El proceso estocástico ¦7
t
¦ obedece a un modelo SARIMA(1, 1, Q)
E
, si ¦7
t
¦ obe-
dece a la ecuación
(1÷
1
1
E
÷
2
1
2E
÷ ÷
P
1
PE
)(1÷1
E
)
D
7
t
= c+(1÷
1
1
E
÷
2
1
2E
÷ ÷
Q
1
QE
)a
t
donde 1, 1 y Q son enteros no negativos, c, y son parámetros, (1 ÷ 1
E
) es el
operador diferencia estacional y ¦a
t
¦ ~ 11(0, o
2
a
).
1.9.4. Modelo multiplicativo estacional
El proceso estocástico ¦7
t
¦ obedece a un modelo multiplicativo estacional SARIMA(j, d, ¡)
(1, 1, Q)
E
, si ¦7
t
¦ obedece a la ecuación
c(1)(1
E
)\
d
\
D
E
7
t
= c +0(1)(1
E
)a
t
donde c(1) y (1
E
) son los polinomios autorregresivo y autorregresivo estacional,
respectivamente, 0(1) y (1
E
) son los polinomios de promedios móviles y de promedios
móviles estacional, respectivamente, \
d
y \
D
E
son los operadores diferencia y diferencia
estacional, y ¦a
t
¦ ~ 11(0, o
2
a
).
16
1.9.5. Estacionariedad e invertibilidad
Un proceso multiplicativo estacional SARIMA es estacionario si y sólo si las raíces
de las ecuaciones características c(r) = 0 y (r
E
) = 0 se encuentran fuera del círculo
unitario y es invertible si y sólo si las raíces de las ecuaciones características 0(r) = 0
y (r
E
) = 0 se encuentran fuera del círculo unitario.
1.10. Análisis de series in‡uencias por intervenciones
Una intervención puede ser interpretada como la ocurrencia de un evento exógeno al
comportamiento histórico de la serie en estudio. Los efectos pueden ser: i) aquellos que
se dejan sentir como una elevación o caída momentánea del nivel y que desaparecen sin
in‡uir sobre el comportamiento posterior de la serie, ii) los que ejercen una in‡uencia
sostenidad (no momentáneamente) sobre el nivel de la serie, pero dejan intacta la
estructura básica de su parte estocástica, y iii) los efectos que, independientemente de
in‡uir o no sobre la parte determinista, sí alteran la estructura de la parte estocástica.
Un modelo para una serie 7
t
que contenga los efectos de una intervención se expresa
como
T(7
t
) = -
I;t

t
donde ·
t
se asocia con un modelo ARIMA, estacionario e invertible, que representa la
parte estocástica de la serie, y -
I;t
es una función que permite representar los efectos
de la intervención.
Con el …n de lograr la especi…cación de -
I;t
, es conveniente usar la función de pulso
de…nida por
1
I;t
=
_
1 si t = 1
0 si t ,= 1
_
donde 1 denota el momento en el que ocurrió la intervención. Así -
I;t
satisface la
ecuación
(1 ÷c
1
1 ÷c
2
1
2
÷ ÷c
r
1
r
)\
b
-
I;t
= (n
o
÷n
1
1 ÷n
2
1
2
÷ ÷n
s
1
s
)1
I;t
cuya solución especí…ca dependerá de la condición
-
I;t
= 0 para t < 1
17
2. BIBLIOGRAFÍA
Enders, W. Applied Econometrics Time Series. John Wiley & Sons, 2004.
Enders, W. RATS Handbook for Econometric Time Series. John Wiley & Sons.
Guerrero, V. M. Análisis estadístico de series de tiempo económicas. Universidad
Autónoma Metropolitana. México, 2003.
Lutkepohl, H. and Kratzig, M. Applied Time Series Econometrics. Cambridge, 2004.
18

73 103.96 106.51 104. Ejemplo: En el Cuadro 2 se presentan los datos mensuales del índice de tasa de cambio real de Colombia para el periodo enero de 2006 a julio de 2007.60 103. Se expresa como G(B)Zt = Zt g1 Zt 1 g2 Zt 2 gk Zt k para k = 0.41 108.96 106.37 97.78 100.82 Xt = B 2 Zt Yt = B 12 Zt 103.76 108.73 103.35 107.87 102.76 Operador diferencia.41 108.37 102.61 92.61 101.61 92.97 113.41 108. los coe…cientes g1 .37 102.51 109.76 108.97 113.47 88.91 113.82 91.97 113.76 108.47 103.96 106. gk son constantes que ponderan la importancia de los retrasos con los que están asociados y Z es una variable aleatoria.60 103.73 103.37 97. :::.51 109. : : : .91 113.96 106.73 103. 1.91 113.87 102.61 92. Se de…ne como rk Zt = (1 B)k Zt para k = 0.37 97. 1.51 109. y toda t donde r es el operador diferencia y Z es una variable aleatoria.51 104.78 100.37 102. 2 .Cuadro 1: Operador de retraso para la serie ITCR Fecha ene-06 feb-06 mar-06 abr-06 may-06 jun-06 jul-06 ago-06 sep-06 oct-06 nov-06 dic-06 ene-07 feb-07 mar-07 abr-07 may-07 jun-07 jul-07 Zt 103.61 101.51 104.47 88.87 102. denotado por la serie de tiempo Zt y la serie Mt de…nida como Mt = rZt : Polinomio de retraso.37 102.61 101.60 103.35 107.91 113. : : : y toda t donde G(B) = (1 g1 B g2 B 2 gk B k ) es el polinomio de retraso.78 100.97 113.01 Wt = BZ t 103.51 109.35 107.

41 3.19 1 Ejemplos: 1.73 -1.97 113.76 108.61 101.Cuadro 2: Operador diferencia para la serie ITCR Fecha ene-06 feb-06 mar-06 abr-06 may-06 jun-06 jul-06 ago-06 sep-06 oct-06 nov-06 dic-06 ene-07 feb-07 mar-07 abr-07 may-07 jun-07 jul-07 Zt 103.76 -5.96 106.26 -0.35 107. Promedios Móviles: Zt = (1 1B Zt = (B)at 2.15 -5.84 -2.65 2.55 3.41 -2.37 97.51 104.51 109.78 100.73 103.83 -1.41 108.87 102. Autorregresivos de promedios móviles: (B)(Zt ) = (B)at 4.60 103.46 3.06 -0.36 -0.47 88.91 -0.82 91.94 -0.91 113.61 92.01 Mt = Z t Z t -0. Autorregresivos integrados y de promedios móviles: (B)rd Zt = (B)at 3 .35 -0.37 102.14 -3. Autorregresivos: 2 (1 1B 2B (B)(Zt ) = at 2 q )a t 2B qB pB p )(Z t ) = at 3.

1. para evitar la in‡ uencia de las unidades de medida también se acostumbra calcular las autocorrelaciones. débil + Gaussianidad ) . 1. 2 ) a 1. 1. Lo anterior signi…ca que para caracterizar completamente una serie estacionaria se requiere conocer su media. Procesos estocásticos lineales El proceso estocástico fZt g es lineal si puede ser expresado en función del proceso de ruido blanco fat g mediante la relación Zt = Zt = + at 1 at 1 2 at 2 + (B)at donde es el parámetro que determina el nivel del proceso fZt g y (B) es el polinomio de retraso. varianza y covarianzas.5. es decir su media. Estacionariedad estricta Estacionariedad débil Estac. Un proceso estocástico es estrictamente estacionario si la función de densidad para un conjunto arbitrario de variables aleatorias es invariante respecto a desplazamientos en el tiempo.3. cuya media es constante (usualmente cero) y cuya varianza es 2 se conoce como proceso de ruido a blanco fat g iid( .5. si fZt g es estacionario y para cada t Zt = c + 1 Zt 1 + 2 Zt 2 + + p Zt p + at 4 .4. sin embargo. Modelos para series de tiempo estacionarias Modelos autorregresivos (AR): El proceso estocástico fZt g se llama un proceso AR(p). no dependen del tiempo. varianza y covarianzas. Procesos estacionarios Un proceso es estacionario en sentido débil si sus momentos de primer y segundo orden.1. ) Estacionariedad débil Estacionariedad estricta Estacionariedad estricta Para el análisis de series de tiempo es su…ciente estudiar la estacionariedad en sentido débil. Un proceso estocástico independiente e idénticamente distribuido (iid).

Otra forma de veri…car el supuesto de estacionariedad es mediante las autocorrelaciones. 2 ): a son parámetros. Modelos autorregresivos de promedios móviles (ARMA): El proceso estocástico fZt g se llama un proceso ARMA(p.3. 1. 2 ): a 1B qB q 1 at 1 2 at 2 q at q )at y c son parámetros.2. si fZt g obedece a la ecuación Zt = c + at o Zt = c + (1 donde q es un entero no negativo. 2 ): a son parámetros.5. retraso y fat g RB(0.5. B es el operador de 5 . c. Un proceso AR es estacionario si y sólo si las raíces de la ecuación 2 p característica (x) = (1 1x 2x p x ) = 0 se encuentran fuera del círculo unitario. B es el operador de retraso Invertibilidad. B Estacionariedad. Un proceso MA es invertible si y sólo si las raíces de la ecuación 2 q característica (x) = (1 1x 2x q x ) = 0 se encuentran fuera del círculo unitario. 1. si fZt g es estacionario y para cada t Zt = c + o (1 1B pB p 1 Zt 1 + 2 Zt 2 + + p Zt p + at 1 at 1 2 at 2 q at q )Zt = c + (1 y 1B qB q )at donde p y q son enteros no negativos. las cuales decaen rápidamente a cero cuando el proceso es estacionario. Modelos de promedios móviles (MA): El proceso estocástico fZt g se llama un proceso MA(q).o (1 1B 2B 2 pB 1 p )Zt = c + at 2 p) donde p es un entero no negativo. q). y fat g RB(0. y c = (1 es el operador de retraso y fat g RB(0.

la función además involucra los parámetros Función de autocorrelación. donde los coe…cientes )(1 )(1 1B 1B pB qB p y i. k+1 . : : : .Estacionariedad e invertibilidad. : : : se obtienen )=1 1B 1B qB pB q 2 q )=1 p Función de autocovarianza. Si el proceso es estacionario admite la representación (B) at (B) (B)at Zt Zt = = Si el proceso es invertible admite la representación (B) (Zt (B) (B)(Zt con 1 P ) = at ) = at i i=1 j ij < 1 y (1 (1 1B 1B i=1 al igualar coe…cientes de potencias del operador B en las ecuaciones 2B 2B 2 1 P j i j < 1. Un proceso ARMA es estacionario si y sólo si 2 p las raíces de la ecuación característica (x) = (1 1x 2x p x ) = 0 se encuentran fuera del círculo unitario. Un proceso ARMA es invertible si y sólo si las q raíces de la ecuación característica (x) = (1 1 x 2 x2 q x ) = 0 se encuentran fuera del círculo unitario. 2. k+1 . q : mientras que para k q. Para k > q la función de aucorrelación corresponde a k = 1 k 1 + 2 k 2 + + p k p k . : : : . la función además involucra los parámetros 6 . i = 1. Para k > q la función de autocovarianza es k = 1 k 1 + 2 k 2 + + p k p k . q : mientras que para k q.

7. retraso y fat g RB(0. veri…cación. 1.1. Construcción de modelos para series univariadas Box y Jenkins (1970) diseñaron una estrategia para la construcción de modelos de series de tiempo. Un proceso ARIMA es invertible si y sólo si las q raíces de la ecuación característica (x) = (1 1 x 2 x2 q x ) = 0 se encuentran fuera del círculo unitario. c. Figura 1: Estrategia de Box-Jenkins para construir modelos 7 . estimación. 1. q) si Yt = (1 ARMA(p. 2 ). Modelos para series de tiempo no estacionarias Modelos autorregresivos integrados y de promedios móviles (ARIMA): B)d Zt El proceso estocástico fZt g obedece a un modelo ARIMA(p. d y q son enteros no negativos. Un proceso ARIMA es estacionario si y sólo si 2 p las raíces de la ecuación característica (x) = (1 1x 2x p x ) = 0 se encuentran fuera del círculo unitario. d. La estrategia se puede representar grá…camente mediante el proceso iterativo de la Figura 1.6. a son parámetros. validación y uso del modelo.1. q): El modelo ARIMA puede ser escrito como (1 1B pB p )(1 B)d Zt = c + (1 y 1B qB q )at donde p. B es el operador de Estacionariedad e invertibilidad.6. que consta de cuatro etapas: identi…cación.

En la FACP la sucesión in…nita de las autocorrelaciones parciales es convergente a cero. Las herramientas usadas para determinar el número apropiado de diferencias son: FAC simple: se grá…ca la FAC muestral para las series fT (Zt )g . aunque con convergencia a cero. frT (Zt )g y r2 T (Zt ) y se escoge la que presenta menor desviación estándar. ln Zt . mientras que en la FACP solamente las primeras p autocorrelaciones parciales son distintas de cero. 8 .1. Si la serie no tiene varianza constante se debe aplicar alguna transformación como las que se presentan a continuación: Z . frT (Zt )g y r2 T (Zt ) y se escoge la primera que tenga un decaimiento rápido de las autocorrelaciones a cero. MA(q): en la FAC simple solo las primeras q autocorrelaciones son distintas de cero. Identi…cación de los órdenes p y q En esta etapa se intenta asociar la FAC simple y FACP muestral con un posible proceso generador del tipo ARMA. q): en la FAC simple existe un comportamiento irregular de las primeras q autocorrelaciones y después se observa una convergencia a cero. MA y ARMA se resume a continuación: AR(p): en la FAC simple todas autocorrelaciones son distintas de cero. El comportamiento de la FAC simple y FACP para procesos AR. mientras que en la FACP todas las autocorrelaciones parciales son distintas de cero. Este método no siempre funciona y por tanto debe verse como una herramienta complementaria de la FAC simple. Determinación de una serie estacionaria en función de la serie original para la cual se pueda tener una representación ARMA.1. ARMA(p. >0 =0 Si la serie tiene una tendencia polinomial adaptiva se debe aplicar el operador diferencia un número apropiado de veces para eliminar la tendencia. Desviación estándar: se calcula la desviación estándar de la series fT (Zt )g . 6=0 =0 Transformación Box-Cox: T (Zt ) = Zt 1 . Identi…cación: Consiste en: a.7. b. aunque con convergencia a cero. Transformación potencia: T (Zt ) = lntZt .

Figura 1: FAC y FACP para AR(1) Figura 2: FAC Y FACP para AR(2) 9 .

Figura 3: FAC y FACP para AR(2) Figura 4: FAC y FACP para MA(1) 10 .

q) = ln b2 + (p + q) . Entre los criterios más usados se encuentran: AIC = ln(b2 ) + 2(p+q) [Akaike (1973. q . Si jbk (a)j > 2= n se concluirá que la autocorrelación k-ésima es signi…cativamente distinta de cero.. . la función de verosimilitud esta dada por ( ) n (n d p) P (n d p) 2 L( . La idea es esocoger los órdenes p y q que minimicen C(n) CI(p.7. Estimación: Una vez identi…cado el modelo (B)rd T (Zt ) = c + (B)at se deben estimar los parámetros desconocidos c. La no autocorrelación puede veri…carse calculando la FAC muestral de los residuos. 2 : El método de a estimación usado en este caso es el de máxima verosimilitud. deberá corregirse. dada por Pn bt bt k aa Pn bk (a) = t=k+1 2 a t=1 bt p p y comparándola con los límites 2= n.2. q). : : : . Suponiendo distribución normal para el ruido blanco. Veri…cación: En esta etapa se debe veri…car que los supuestos del modelo se cumplan. Los criterios de información también pueden ser usados para la identi…cación de los modelos ARMA. En caso de encontrarse evidencia de violación de alguno de estos.7.donde b2 es el estimador de 2 para el modelo ARM A(p. 2 jZ ) = (2 ) exp a2 2 2 a a t a t=d+p+1 1. 1 . a n 1. p .1974)] a N BIC = ln(b2 ) + (p + q) ln(n) [Schwarz (1978) y Rissanen (1978)] a n ln(n) HQ = ln(b2 ) + (p + q) 2 ln n [Hannan & Quinn (1979)] a Criterios de información. 11 .3. 1 . Entre las pruebas más usadas se encuentran: Prueba de autocorrelación. La veri…cación se realiza analizando los residuos. : : : . c. n es el tamaño de la muesa a tra y C(n) es una función de este último.

La hipótesis nula de sesgo cero y kurtosis 3 es rechazada para valores grandes de LJB( ): Es importante modelar la tendencia de una manera apropiada.7. El estadístico de prueba se construye como sigue LJB = n n 6 1 n P 2 t=1 (bs )3 at + n n 24 1 t=1 donde bs son los residuales estandarizados. El estadístico LJB at 1. A continuación se presentan algunos ejemplos de ambos tipos de tendencia. n Tendencia estocástica Caminata aleatoria: Zt = Zt 1 + at Caminata aleatoria con deriva: Zt = + Zt 1 + at Para una serie con tendencia determinística se puede estimar un modelo ARMA que incluya la tendencia. t = 1. Lomnicki (1961) y Jarque & Bera (1987) propusieron una prueba para no-normalidad basada en el tercer y cuarto momento de ldistribución (sesgo y kurtosis). Ljung and Box (1978) realizaron una modi…cación del estadístico de prueba y obtuvieron el siguiente k P b2 (a) k Q(k) = n(n + 2) k) k=1 (n con Q(k) asint. Si esta es lineal el modelo ARMA es descrito por (B)T (Zt ) = + t + (B)at En el caso de una serie con tendencia estocástica se estima un modelo ARIMA.4. Ejemplos: Tendencia determinística Lineal: Zt = + t + at . Box and Pierce (1970) propusieron un test para realizar una prueba de signi…cación conjunta de k autocorrelaciones simultáneamente. :::. 12 . así como grá…cas de series simuladas.Prueba de Box-Pierce-Ljung. 2 k p q: La hipótesis nula de Ruido Blando es rechazada para valores grandes de Q( ) Prueba de Lomnicki-Jarque-Bera. Tendencia estocástica y determinística n P 2 (bs )4 at 3 2: 2 asint. Esto implica distinguir una tendencia determinística de una estocástica.

01. Para el caso en el que 6= 0 y = 0 la hipótesis nula corresponde a Ho : y para = 6= 0 es Ho : = = = =0 =0 Note que probar la restricción = = = 0 es equivalente a probar la existencia de una tendencia estocástica en la serie. 13 . si este es igual a cero la serie contiene una raíz unitaria. a probar una determinística. ) = (0. ) = (1. 1) 1. 0. 0. 6= 0 y 6= 0. = = 0. Partiendo del modelo Zt = a ambos lados de la ecuación se llega a rZt = + t + Zt 1 + t + Zt 1 + at y 1 + at donde = 1: La prueba de Dickey-Fuller considera tres ecuaciones de regresión diferentes. 0. se dice que ésta es integrada de orden d y se escribe fZg I(d). y = 6= 0.7. Prueba de restando Zt Dickey Fuller.Figura 5: Series generadas para el modelo Zt = + t + Zt 1 + at . y < 0. Raíces unitarias: Las pruebas conocidas como de raíces unitarias son una herramienta complementaria de la grá…ca de la serie. Si se requieren d > 0 diferencias. (1) ( . ) = (1. Cuando en la ecuación de regresión se incluyen otros rezagos de rZt como variable explicativas. El parámetro de interés en los tres casos es . Algunas pruebas son Dickey-Fuller y Phillips-Perron.5. . FAC simple muestral y varianza muestral para decidir el grado de diferenciacion apropiado a …n de volver estacionaria en nivel una serie. at RBN (0. la prueba recibe el nombre de prueba de Dickey-Fuller aumentada.8). (3) ( . . 1). (2) ( . 0. 0.8). 6= 0 y = 0. .

mientras que el pronóstico óptimo se escribira como Yt (h). Pronósticos con modelos ARMA Suponga que Yt es una serie de tiempo estacionaria de…nida como Yt = rd T (Zt ). como la de Diebold and Mariano (1995). con el objeto de escoger el modelo que suministra los mejores pronósticos. Yt (h) para que sea el pronóstico óptimo deberá satisfacer la condición h i2 h i2 b e Et Yt+h Yt (h) = m{n Et Yt+h Yt (h) en la cual Et denota la esperanza condicional. y que admite la representación ARMA. en la literatura empírica comúnmente se ha utilizado el criterio de error cuadrático medio (ECM). es decir h Et Yt+h i2 h e Yt (h) = E Yt+h i2 e Yt (h) jZt . Así. Este análisis se conoce con el nombre de análisis posmuestral. con h el horizonte de predicción. Una forma de estudiar dicha capacidad es vía contrastación de pronósticos de valores ya observados de la serie. La forma de proceder es cortar la serie en el instante t < T . se han realizado varios estudios que incorporan pruebas formales. Zt 1. con sus valores reales. El criterio usado para determinar la optimalidad del pronóstico es el b error cuadrático medio mínimo. Si a partir del periodo t se desea pronosticar la observación Yt+h . donde T es el tamaño de muestra. construir un modelo con las primeras t observaciones y pronosticar los valores desde el periodo t + 1 hasta el periodo T . es decir b Yt (h) = Et (Yt+h ) et (h) = Yt+h b Yt+h Una vez se han construido varios modelos para representar una serie de tiempo resulta de interés analizar y comparar la capacidad de pronóstico de cada uno de ellos. para diferentes horizontes de pronóstico. Recientemente. Para evaluar la capacidad predictiva de un modelo en términos de pronósticos puntuales. dada toda la información hasta el momento t.1. para probar diferencias 14 . : : : e Yt (h) y que el error del pronóstico viene dado por Se sabe que Et (Yt+h ) proporciona el pronóstico con error cuadrático medio mínimo.8. un pronóstico cualquiera de esta observación será denodato por e b Yt (h).

1. Para detalles véase Guerrero (2003). E = 12 y k = 1.2. al igual que los diciembres. Ejemplo: En el Cuadro 3 se presentan los datos mensuales del índice de producción real de la industria manufacturera de Colombia para el periodo enero de 2006 a mayo de 2007. como el ECM. Pero si ésta fue la transformación potencia o Box-Cox. Para obtener pronósticos de la serie original Zt se puede aplicar la transformación inversa T 1 siempre y cuando la trasformación que haya sido usada sea lineal. 1. Adicionalmente. El periodo estacional comprende E observaciones contiguas. Análisis de series de tiempo estacionales Estacionalidad Comportamiento que se repite anualmente. quizá con cambios graduales a través de los años. 2. denotado por la serie de tiempo Zt y la serie Nt de…nida como Nt = r12 Zt . estudiosos del tema han sugerido otros métodos de evaluación en términos de intervalos de pronóstico y densidades de pronósticos. : : : y E = 1. : : : donde rE es el operador diferencia estacional y Z es una variable aleatoria. Gunther and Tay (1998).en medidas de evaluación de pronósticos. A pesar de que usualmente se considera un fenómeno repetitivo anual. entre dos modelos. Operador diferencia estacional Se de…ne mediante la relación rk Zt = (1 E B E )k Zt para k = 0.9. esto no signi…ca que no pueda existir otro tipo de comportamiento periódico de duración menor al año. además de que los junios serían similares entre sí.9.9. 15 . por ejemplo un período estacional semestral para series mensuales implicaría que los meses de diciembre mostrarían un comportamiento similar a los meses de junio. 1.1. es necesario corregir el sesgo que intoduce la aplicación de la transformación inversa. 1. véase Christo¤ersen (1998) y Diebold.

64 124. (1 B E ) es el El proceso estocástico fZt g obedece a un modelo multiplicativo estacional SARIMA(p.96 135.94 131.9.3. Modelo multiplicativo estacional son parámetros. D. a 16 .24 126. 1.05 139.52 140.4.18 123.05 110. D y Q son enteros no negativos.38 Nt = Z t Z t 12 15. 2 ).72 140. operador diferencia estacional y fat g RB(0.63 120.9. q) (P. D. Q)E . si fZt g obedece a la ecuación (1 1B E 2B 2E PB PE )(1 B E )D Zt = c+(1 y 2 ).55 122.06 14. (B) y (B E ) son los polinomios de promedios móviles y de promedios móviles estacional. a 1B E 2B 2E QB QE )at donde P . c. rd y rD son los operadores diferencia y diferencia E estacional.97 17. si fZt g obedece a la ecuación (B) (B E )rd rD Zt = c + (B) (B E )at E donde (B) y (B E ) son los polinomios autorregresivo y autorregresivo estacional.76 127.47 111.70 138. Q)E .20 1.11 137.14 125. Modelos puramente estacionales El proceso estocástico fZt g obedece a un modelo SARIMA(P.71 16.77 15. y fat g RB(0. respectivamente. respectivamente.Cuadro 3: Operador diferencia para la serie ITCR Fecha ene-06 feb-06 mar-06 abr-06 may-06 jun-06 jul-06 ago-06 sep-06 oct-06 nov-06 dic-06 ene-07 feb-07 mar-07 abr-07 may-07 Zt 105. d.

uir Un modelo para una serie Zt que contenga los efectos de una intervención se expresa como T (Zt ) = "I. que representa la parte estocástica de la serie. y "I. Así "I. 1.t + Nt donde Nt se asocia con un modelo ARIMA.t = 0 si t 6= I donde I denota el momento en el que ocurrió la intervención.t = (wo w1 B w2 B 2 ws B s )PI. estacionario e invertible. ii) los que ejercen una in‡ uir uencia sostenidad (no momentáneamente) sobre el nivel de la serie.t satisface la ecuación (1 1B 2B 2 rB r )rb "I. Análisis de series in‡ uencias por intervenciones Una intervención puede ser interpretada como la ocurrencia de un evento exógeno al comportamiento histórico de la serie en estudio. y iii) los efectos que. Con el …n de lograr la especi…cación de "I. independientemente de in‡ o no sobre la parte determinista. Los efectos pueden ser: i) aquellos que se dejan sentir como una elevación o caída momentánea del nivel y que desaparecen sin in‡ sobre el comportamiento posterior de la serie. Estacionariedad e invertibilidad Un proceso multiplicativo estacional SARIMA es estacionario si y sólo si las raíces de las ecuaciones características (x) = 0 y (xE ) = 0 se encuentran fuera del círculo unitario y es invertible si y sólo si las raíces de las ecuaciones características (x) = 0 y (xE ) = 0 se encuentran fuera del círculo unitario. pero dejan intacta la estructura básica de su parte estocástica.10.1. es conveniente usar la función de pulso de…nida por 1 si t = I PI.t .5.9.t = 0 para t < I 17 .t es una función que permite representar los efectos de la intervención. sí alteran la estructura de la parte estocástica.t cuya solución especí…ca dependerá de la condición "I.

V. BIBLIOGRAFÍA Enders. RATS Handbook for Econometric Time Series. Análisis estadístico de series de tiempo económicas. 18 . 2003. W. M. Applied Econometrics Time Series. México. H. 2004. Lutkepohl. M. Guerrero. W. and Kratzig.2. Applied Time Series Econometrics. Cambridge. John Wiley & Sons. John Wiley & Sons. Enders. Universidad Autónoma Metropolitana. 2004.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->