Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Analisis de Serie de Tiempo
Analisis de Serie de Tiempo
Cap. 1 - Pg. 1
1.1. BIBLIOGRAFIA
Los presentes apuntes estn basados en varios textos. En particular:
Ezequiel URIEL - ANALISIS DE SERIES TEMPORALES - MODELOS ARIMA -Coleccin Abaco - Ed.
Paraninfo - 1985.
Como bibliografa ampliatoria.
Antoni ESPASA y Jos Ramn CANCELO (Eds.) - METODOS CUANTITATIVOS PARA EL ANALISIS
DE LA COYUNTURA ECONOMICA - Alianza Economa - 1993.
En particular, la presente introduccin y el Captulo 2 se ha basado en dicho texto.
Otra referencia:
Andrew C. HARVEY - THE ECONOMETRIC ANALYSIS OF TIME SERIES - LSE HANDBOOKS IN
ECONOMICS - 1990.
Cap. 1 - Pg. 2
Y t = f( Y t -1 , Y t - 2 , ... )
1.3. VENTAJAS Y DESVENTAJAS
(comparacin con el mtodo de regresin)
Ventajas de los modelos de series temporales:
i)
a menudo no se dispone de los datos de las variables exgenas (por ejemplo, expectativas, gap de
producto);
ii)
dificultades en el marco del mtodo de regresin para la estimacin con variables retardadas
(especialmente con la variable endgena retardada);
iii)
iv)
v)
con niveles de desagregacin temporal elevados (datos mensuales, semanales, diarios) es mucho ms fcil
construir un modelo de series temporales;
Limitaciones:
vi)
un modelo economtrico, estimado adecuadamente, ser ms eficiente, y por lo tanto ms til que un
modelo de series temporales;
vii)
los modelos economtricos permiten conocer la forma en que la variable de inters se relaciona con las
variables exgenas; ste puede ser el objetivo principal del anlisis (por ejemplo, estimacin de una
elasticidad).
Cap. 1 - Pg. 3
Y t = PS t + at
La innovacin es un componente aleatorio en el que sus valores no tienen ninguna relacin o dependencia
entre s. La innovacin y la parte sistemtica son independientes. No es posible ningn tipo de descomposicin
de la innovacin con fines predictivos: es impredecible. Por eso tambin se la llama sorpresa o ruido. Una
innovacin slo ser autnticamente tal si es impredecible para cualquier conjunto de informacin existente.
Cap. 2 - Pg. 1
i ) E ( at ) = 0
[2.1.1]
ii ) V(at ) = E (at2 ) = 2
iii ) COV(at , a s ) = E ( at .a s ) = 0
[2.1.2]
t s
[2.1.3]
Esto es, la variable xt presenta una esperanza constante en el tiempo, e igual a 0; varianza constante e incorrelacin
temporal (autocorrelacin nula). Si se agrega la condicin de que la variable xt se distribuye normal, la condicin
(iii) de incorrelacin implica independencia.
Supondremos, salvo que se exprese lo contrario, que la distribucin de probabilidad asociada a un ruido blanco es
normal. Ello significa que las 3 condiciones anteriores pueden sintetizarse en la siguiente expresin:
at ~ Niid (0, 2 ) t
Niid: normales independientes e idnticamente distribuidas
El trmino ruido ha sido tomado de la teora de la comunicacin. En esta disciplina, un ruido corresponde a
perturbaciones aleatorias que vienen en funcin de la seal enviada, que es diferente de la seal recibida. Se
denomina ruido blanco a una perturbacin aleatoria con las caractersticas antes planteadas, por analoga con la
distribucin de energa continua en luz blanca de un cuerpo incandescente.
A continuacin se presenta el grfico de una serie temporal artificial de 100 observaciones, que es una realizacin
del proceso estocstico:
Y t = a t ; a t ~ Niid ( 0 , 1 )
Es decir, Yt es, en s mismo, un ruido blanco normal, con varianza igual a 1.
Cap. 2 - Pg. 2
100
150
200
250
300
cada observacin tiende a oscilar alrededor de una media que es constante a lo largo del tiempo. Es decir,
todas las variables del proceso tienen la misma esperanza matemtica:
E ( Yt ) =
ii)
la dispersin alrededor de esa media constante a lo largo del tiempo tambin es constante. Es decir, todas
las variables del proceso tienen la misma varianza:
V ( Y t ) = Y2
iii)
[2.2.1]
[2.2.2]
la covarianza entre dos variables que disten k perodos de tiempo (autocovarianza de orden k) es la
misma que existe entre cualesquiera otras dos variables que disten tambin k perodos entre s,
independientemente del momento del tiempo al que estn referidas:
[2.2.3]
Debe tenerse mucho cuidado en no confundir un proceso ESTACIONARIO con un proceso que presenta
ESTACIONALIDAD (fluctuaciones regulares dentro del ao).
Cap. 2 - Pg. 3
2.3. EJEMPLOS
A. Claramente un proceso de ruido blanco corresponde a un fenmeno estacionario en sentido amplio (y en
sentido estricto, como se ver ms adelante).
Su media es invariante en el tiempo, al igual que su varianza. Las autocovarianzas, al ser nulas, tambin cumplen
con la condicin (iii).
Yt = + at ; at ~ Niid (0 , 2 )
En adelante, la variable at se entender como un ruido blanco normal.
Obsrvese que Yt es una serie generada por un proceso estacionario, ya que:
E ( Yt ) =
V ( Yt ) = 2
COV ( Y t , Y t +k ) = 0
Yt = + . t + at
[2.3.1]
E ( Y t ) = + .t
Es decir, su media (esperanza) no es invariante en el tiempo.
Obsrvese que la variable Yt presenta tendencia, por lo que no puede ser generada por un proceso estacionario.
Tngase en cuenta que las series con tendencia no necesariamente deben ser generadas por procesos del tipo
[ 2.3.1]. Como se ver ms adelante, este proceso corresponde a un tipo muy particular, de tendencia
determinstica.
Cap. 2 - Pg. 4
D. La serie del Indice de Volumen Fsico (IVF) de la Industria Manufacturera, calculado por el Instituto Nacional
de Estadsticas, en el perodo 1982-1992.
Corresponde a una serie con tendencia. Por lo tanto, es un proceso no estacionario.
Grfico 2.3.1. IVF Industria Manufacturera
Indices Mensuales Ao 1982 = 100
140
130
120
110
100
90
80
70
82
83
84
85
86
87
88
89
90
91
92
Podramos decir que afortunadamente la serie del IVF industrial no corresponde a un proceso estacionario (aunque
quizs estemos planteando un juicio de valor respecto a la estructura productiva deseable). Analice en la misma
forma el Producto Bruto Interno.
E.
Las series de precios, monetarias, fiscales, de produccin, a precios corrientes, presentan claramente una
tendencia creciente, especialmente en pases con alta inflacin como en Uruguay. Evidentemente estas series no
pueden considerarse generadas por procesos estacionarios. Obsrvese que si bien la inflacin en los pases
desarrollados (y en EE.UU. en particular) es muy inferior a los registros uruguayos, de todas maneras se observan
una tendencia creciente de los precios, especialmente luego de la Segunda Guerra Mundial. Ello indica que an
variables medidas en dlares corrientes (como las relativas al comercio exterior), posiblemente presenten un
comportamiento no estacionario.
F.
Varios investigadores han encontrado que la varianza de los ndices de retornos (ganancias) de las acciones
cambia a lo largo del tiempo. Por ejemplo, los retornos diarios del portafolio compuesto del Standard & Poor's
fueron estudiados. Se encontr que la desviacin estndar en el perodo 1929-1933 fue alrededor de 4 veces ms
grande que en 1953-1970 1.
Sin disponer de ms datos sobre la serie, qu podra afirmar sobre la estacionariedad del proceso generador?
SCHWERT, G. William y SEGUIN, Paul J. - "Heteroskedasticity en Stock Returns" - The Journal of Finance,
Vol. XLV, No. 4 - Setiembre 1990.
Cap. 2 - Pg. 5
[2.2.3]
[2.4.1]
V ( Yt ) = o
que, por [ 2.2.2] es constante (invariante) en el tiempo.
De esta forma, la condicin (iii) de estacionariedad (en sentido amplio) puede escribirse alternativamente como:
[2.4.2]
Es decir, la correlacin entre dos momentos de la variable que disten k perodos de tiempo (autocorrelacin de
orden k) es la misma que existe entre cualesquiera otras dos momentos que disten tambin k perodos entre s,
independientemente del perodo del tiempo al que estn referidas.
El coeficiente de correlacin de orden k se define alternativamente como:
k
k =
o
[2.4.3]
k
k = -k
o = o 1
o
[2.4.4]
[2.4.5]
El conjunto (infinito) de los valores de los coeficientes de autocorrelacin se denomina funcin de autocorrelacin
(FAC), que es una funcin en k, cuyos valores son las autocorrelaciones definidas.
Cap. 2 - Pg. 6
Y =
Yt
t=1
T
T
V( Y ) = C o = o =
2
( Yt -Y )
t =1
T -k
C k = k =
( Y t - Y ) . ( Y t+k - Y )
t=1
C k = COV( Y t , Y t + k ) =
rk = k =
V( Y )
Co
T -k
( Y t - Y ) . ( Y t +k - Y )
t =1
2
( Yt -Y )
t =1
Cap. 2 - Pg. 7
A partir de los datos de una serie temporal, se puede estimar un nmero finito (K) de las autocorrelaciones
muestrales.
Como se observa en [ 2.4.4], slo es necesario estimar los coeficientes de autocorrelacin para k=1, 2, ..., K. El
grfico de las autocorrelaciones muestrales recibe el nombre de correlograma.
A continuacin se incluyen el histrograma y el correlograma para el ruido blanco presentado en el grfico 2.1.1
En las salidas incluidas, la funcin de autocorrelacin se denomina "ac". Tambin se incluye la funcin de
autocorrelacin parcial ("pac"). Esta ltima mide la autocorrelacin de orden k cuando se elimina el efecto de las
variables retrasadas en 1, 2, ..., k-1 perodos. Ms adelante se vuelve sobre estos aspectos as como sobre otras
estadsticas incluidas en la salida.
SMPL range: 1 200
Number of observations: 200
========================================================================
Variable
Mean
S.D.
Maximum
Minimum
========================================================================
EPSI
-0.0394907
0.9194777
2.6638090
-2.3261690
========================================================================
INTERVAL
COUNT
HISTOGRAM
========================================================================
-2.4 >= EPSI <-2.1
1
|*
-2.1 >= EPSI <-1.8
5
|******
-1.8 >= EPSI <-1.5
6
|*******
-1.5 >= EPSI <-1.2
10
|***********
-1.2 >= EPSI <-0.9
12
|*************
-0.9 >= EPSI <-0.6
20
|*********************
-0.6 >= EPSI <-0.3
19
|********************
-0.3 >= EPSI < 0.0
36
|*************************************
0.0 >= EPSI < 0.3
19
|********************
0.3 >= EPSI < 0.6
27
|****************************
0.6 >= EPSI < 0.9
14
|***************
0.9 >= EPSI < 1.2
12
|*************
1.2 >= EPSI < 1.5
9
|**********
1.5 >= EPSI < 1.8
5
|******
1.8 >= EPSI < 2.1
2
|**
2.1 >= EPSI < 2.4
2
|**
2.4 >= EPSI < 2.7
1
|*
========================================================================
Skewness 0.088156
Kurtosis 2.884407
Jarque-Bera normality test stat. 0.370399
Probability 0.830939
========================================================================
Cap. 2 - Pg. 8
IDENT EPSI
SMPL range: 1 200
Number of observations: 200
==========================================================================
Autocorrelations
Partial Autocorrelations
ac
pac
==========================================================================
|
.*| .
|
.*| .
| 1 -0.072 -0.072
|
. |*.
|
. |*.
| 2 0.046 0.041
|
. | .
|
. | .
| 3 0.001 0.007
|
. | .
|
. | .
| 4 0.011 0.009
|
***| .
|
***| .
| 5 -0.195 -0.196
|
. |*.
|
. |*.
| 6 0.077 0.052
|
.*| .
|
.*| .
| 7 -0.114 -0.094
|
.*| .
|
**| .
| 8 -0.107 -0.128
|
. | .
|
. | .
| 9 -0.021 -0.030
|
.*| .
|
.*| .
| 10 -0.063 -0.102
|
. | .
|
. | .
| 11 -0.033 -0.021
|
. | .
|
.*| .
| 12 -0.012 -0.062
|
. |*.
|
. | .
| 13 0.048 0.010
|
.*| .
|
.*| .
| 14 -0.059 -0.068
|
. |*.
|
. | .
| 15 0.060 -0.006
==========================================================================
Box-Pierce Q-Stat
18.19
Prob
0.2527
SE of Correlations 0.071
Ljung-Box Q-Stat
19.02
Prob
0.2130
==========================================================================
Cap. 2 - Pg. 9
p ( Y t +1 , Y t +2 , ..., Y t +k ) =
= p ( Y t +1+ s , Y t +2+ s , ..., Y t +k + s )
t, k, s
Los procesos estacionarios en sentido estricto tambin lo son en sentido amplio. Es decir, cumplen las condiciones
[ 2.2.5 ] a [ 2.2.7]. No es cierta la afirmacin inversa.
Obsrvese el caso de una variable ruido blanco. Si Yt sigue una distribucin conjunta Niid(0, ), entonces:
p ( Y t +1 , Y t +2 , ..., Y t +k ) =
k
= p ( Y t +i ) =
i= 1
= [ p( Y t ) ] = [ p ( Y t + s ) ] =
= p ( Y t + s+1 , Y t + s+2 , ... Y t + s+k )
k ,t ,s
En realidad, la deduccin anterior slo requiere que la serie en cuestin sea generado por un proceso asociado a
una distribucin de variables independientes e idnticamente distribuidas.
Cap. 2 - Pg. 10
LYt = Yt 1
Es decir, el resultado de aplicar el operador L corresponde a la observacin en el perodo anterior de la
variable (serie).
Aplicada dos veces sobre la variable Yt
L( LYt ) = L2Yt = Yt 2
y, en general:
Lk Yt = Yt k
La diferencia de una serie es:
Yt = Yt Yt 1 = (1 L)Yt
En general:
k Yt = (k 1Yt ) = (1 L) k Yt
Cap. 3 - Pg. 1
3. PROCESOS AUTORREGRESIVOS
3.1. MODELO AR(p)
Si el valor corriente de la variable Yt depende de sus valores pasados y de la innovacin corriente, puede
plantearse:
at ~ Niid (0, 2 )
[3.1.1]
La expresin anterior corresponde a la forma general del modelo autoregresivo de orden p, que se nota como
AR(p).
A partir del uso del operador de retardo L, la expresin [ 3.1.1 ] puede plantearse como:
p
2
Yt = C + 1 LYt + 2 L Yt + ... + p L Yt + at
Realizando algunas transformaciones, tenemos:
(1 1 L 2 L2 ... p Lp ) Yt = C +at
Por analoga, podemos definir la expresin entre parntesis como un polinomio en el operador de retardos L:
(L) 1 1 L 2 L2 ... p Lp
Y de esta forma, la expresin [ 3.1 ] puede plantearse sintticamente como:
(L) Yt = P (L) Yt = C + at
Comenzaremos por analizar el modelo ms sencillo, el correspondiente al modelo autoregresivo de 1er. orden,
AR(1).
Cap. 3 - Pg. 2
C se supone
[3.2.1]
Y t = Y t -1 + at
donde | | < 1
El supuesto respecto al parmetro , como veremos despus, est relacionado a la estacionariedad del proceso.
Partiendo de la base que [ 3.2.1] corresponde a un proceso estacionario, podemos derivar las expresiones de la
esperanza, la varianza y las auto-covarianzas de Yt.
E ( Y t ) = E ( Y t -1 + at ) =
= E ( Y t -1 ) + E ( at )
y = y
Excepto en el caso =0, que es trivial y que no dara lugar a un AR(1), se deduce:
E ( Yt ) = y = 0
La varianza del proceso:
V ( Y t ) = Y2 = E ( Y t2 ) =
E [ ( Y t -1 + at ) ] =
2
= E ( Y t2-1 ) + E ( at2 ) + 2 E ( Y t -1 at )
2
Cap. 3 - Pg. 3
El tercer trmino del segundo miembro de la expresin anterior es igual a 0. La fundamentacin rigurosa
quedar clara ms adelante cuando se analicen los procesos de medias mviles. Sin embargo, es posible
razonarlo en los siguientes trminos.
E(Yt-1.at) corresponde a la correlacin (poblacional) entre Yt-1 y el ruido blanco at. Yt-1 depende de los
valores pasados del ruido blanco (es decir, de at-1, at-2, ) pero no del valor futuro, ya que, justamente, at
es una sorpresa. De ah que la correlacin es nula.
Por el hecho de ser estacionaria la serie, V(Yt) = V(Yt-1) =
. De donde:
V ( Yt ) = 2 = 2 2 + 2
y
y
2
V ( Yt ) = = o =
( 1-2 )
2
y
La condicin de en valor absoluto menor que 1 es necesaria para la existencia de la varianza de Yt.
Las autocovarianzas pueden deducirse de una manera anloga. La autocovarianza de orden 1 es:
COV ( Y t , Y t - 1 ) = E ( Y t . Y t - 1 ) =
= E [ ( Y t -1 + a t ) . Y t -1 ] =
= V ( Y t -1 ) + E ( a t . Y t -1 )
1 = o
La autocovarianza de orden k es:
k = o
Como resulta inmediato de las ecuaciones anteriores, el coeficiente de autocorrelacin de orden k es:
k =
k
=k
0
Cap. 3 - Pg. 4
CORRELOGRAMA
PROCESO AR(1) - COEF. +0,8
CORRELOGRAMA
PROCESO AR(1) - COEF. -0,8
1,0
1,0
0,9
0,8
0,8
0,6
0,7
0,4
0,6
0,2
0,5
0,0
0
0,4
-0,2
0,3
-0,4
0,2
-0,6
0,1
-0,8
0,0
0
10
11
12
-1,0
10
11
12
Yt = 0.8 Yt-1 + at
Correlogram of Y1
==============================================================
Sample: 1 300
Included observations: 300
==============================================================
Autocorrelation Partial Correlation AC
PAC Q-Stat Prob
==============================================================
.|****** |
.|****** | 1 0.780 0.780 184.35 0.000
.|***** |
.|.
| 2 0.602-0.016 294.53 0.000
.|****
|
.|.
| 3 0.463-0.003 359.96 0.000
.|***
|
.|.
| 4 0.351-0.013 397.69 0.000
.|**
|
.|*
| 5 0.296 0.078 424.63 0.000
.|**
|
.|.
| 6 0.263 0.036 446.01 0.000
.|**
|
.|.
| 7 0.231 0.001 462.52 0.000
.|**
|
.|.
| 8 0.200-0.002 474.92 0.000
.|*
|
.|.
| 9 0.167-0.005 483.61 0.000
.|*
|
.|.
| 10 0.145 0.020 490.20 0.000
.|*
|
.|.
| 11 0.148 0.058 497.09 0.000
.|*
|
*|.
| 12 0.097-0.123 500.04 0.000
.|*
|
.|.
| 13 0.068 0.019 501.50 0.000
.|.
|
.|.
| 14 0.029-0.048 501.78 0.000
.|.
|
.|.
| 15 0.014 0.036 501.84 0.000
.|.
|
.|.
| 16 0.008-0.008 501.86 0.000
.|.
|
.|.
| 17-0.013-0.049 501.91 0.000
.|.
|
.|.
| 18-0.029-0.012 502.18 0.000
.|.
|
.|.
| 19-0.037 0.005 502.62 0.000
*|.
|
.|.
| 20-0.058-0.037 503.72 0.000
*|.
|
.|.
| 21-0.068-0.005 505.23 0.000
.|.
|
.|.
| 22-0.043 0.061 505.82 0.000
.|.
|
*|.
| 23-0.055-0.060 506.80 0.000
.|.
|
.|.
| 24-0.050 0.017 507.63 0.000
*|.
|
.|.
| 25-0.063-0.034 508.94 0.000
*|.
|
*|.
| 26-0.114-0.117 513.22 0.000
*|.
|
.|.
| 27-0.127 0.033 518.53 0.000
*|.
|
.|.
| 28-0.142-0.033 525.28 0.000
*|.
|
.|.
| 29-0.122 0.060 530.28 0.000
*|.
|
.|.
| 30-0.110-0.038 534.35 0.000
*|.
|
.|.
| 31-0.112-0.026 538.60 0.000
*|.
|
.|.
| 32-0.127-0.044 544.02 0.000
*|.
|
.|*
| 33-0.074 0.150 545.89 0.000
.|.
|
.|.
| 34-0.052-0.026 546.83 0.000
.|.
|
*|.
| 35-0.052-0.065 547.76 0.000
.|.
|
.|*
| 36-0.027 0.073 548.01 0.000
==============================================================
Cap. 3 - Pg. 5
Cap. 3 - Pg. 6
Yt = -0.8 Yt-1 + at
Correlogram of Y2
==============================================================
Sample: 1 300
Included observations: 300
==============================================================
Autocorrelation Partial Correlation AC
PAC Q-Stat Prob
==============================================================
******|.
| ******|.
| 1-0.776-0.776 182.57 0.000
.|***** |
.|.
| 2 0.594-0.021 289.97 0.000
***|.
|
.|.
| 3-0.447 0.020 350.92 0.000
.|**
|
.|.
| 4 0.319-0.042 382.06 0.000
**|.
|
*|.
| 5-0.252-0.067 401.60 0.000
.|*
|
.|.
| 6 0.186-0.036 412.26 0.000
*|.
|
.|.
| 7-0.114 0.059 416.24 0.000
.|.
|
.|.
| 8 0.062-0.007 417.44 0.000
.|.
|
.|.
| 9 0.001 0.065 417.44 0.000
*|.
|
*|.
| 10-0.064-0.065 418.70 0.000
.|*
|
.|.
| 11 0.113 0.043 422.71 0.000
*|.
|
.|*
| 12-0.110 0.076 426.51 0.000
.|*
|
.|.
| 13 0.097-0.005 429.49 0.000
*|.
|
.|.
| 14-0.076 0.013 431.34 0.000
.|.
|
.|.
| 15 0.038-0.055 431.79 0.000
.|.
|
.|.
| 16-0.020-0.008 431.92 0.000
.|.
|
.|.
| 17 0.013 0.019 431.98 0.000
.|.
|
.|.
| 18-0.016-0.028 432.06 0.000
.|.
|
.|.
| 19 0.004-0.039 432.06 0.000
.|.
|
.|.
| 20 0.021 0.026 432.20 0.000
==============================================================
Obsrvese que los coeficientes de autocorrelacin decrecen en forma geomtrica. En un modelo AR(1), si el
coeficiente es negativo, los coeficientes de autocorrelacin alternan de signo.
Media no nula
Si el proceso presenta constante, esto es:
Yt = C + Y t - 1 + a t
E (Yt ) = =
C
(1 )
<1
Cap. 3 - Pg. 7
Y t = 1 Y t -1 + 2 Y t - 2 + a t
E( Yt ) = y = 0
2
V ( Yt ) = = o =
2
1-1 -2
2
2
y
1 =
1
.
1-2 o
2
1
) . o
2 = ( 2+
1-2
1 =
1
1-2
2
1
2 = 2+
1-2
Cap. 3 - Pg. 8
Y t = 1 Y t - 1 + 2 Y t - 2 + ... + p Y t - p + a t
Utilizando el operador de retardos L:
p
2
Y t = 1 L Yt + 2 L Yt + ... + p L Yt + a t
(Yt 1 L Yt 2 L2 Yt ... p Lp Yt ) = a t
(1 1 L 2 L2 ... p Lp ) Yt = a t
y, en forma sinttica,:
( L ) Y t = p ( L ) Y t = at
[3.4.1]
La estacionariedad de la serie Yt requiere, entre otras condiciones, una media invariante. Es decir, la no
observacin de una tendencia. La serie no puede presentar un crecimiento (o decrecimiento) sostenido en el
tiempo.
La expresin [ 3.4.1] puede interpretarse como una ecuacin en diferencias finitas en la variable Yt. Como la
variable at es un ruido blanco y, por consiguiente, no influye sobre la existencia de una tendencia en la variable
Yt, la trayectoria en el tiempo de Yt estar determinada por el polinomio autoregresivo (miembro izquierdo de
la ecuacin). En otras palabras, lo que interesa analizar es la ecuacin homognea:
p ( L )Y t = 0
Cap. 3 - Pg. 9
Y t = 1 Y t -1 + 2 Y t - 2 + a t
( 1 - 1 L - 2 L2 ) Y t = at
La ecuacin homognea en Yt es:
Y t - 1 Y t -1 - 2 Y t - 2 = 0
Con la sustitucin habitual de Yt por rt se obtiene la ecuacin caracterstica:
2
r -1 r -2 = 0
[3.4.2]
( L ) 1 - 1 L - 2 L2
[3.4.3]
Obsrvese que las races de la ecuacin caracterstica [ 3.4.2] corresponden a las inversas de las races del
polinomio autorregresivo [ 3.4.3].
Para el caso general, la ecuacin caracterstica queda planteada como:
p
p -1
p-2
r - 1 r - 2 r - ... - p = 0
[3.4.4]
El polinomio Autoregresivo:
( L ) 1 - 1 L - 2 L2 ... p Lp
[3.4.5]
y admite p races, en general complejas, en la forma ri. La solucin general de la ecuacin homognea (que es
la que determina la trayectoria en el tiempo de Yt) puede plantearse como:
t
t
t
Y t = A1 r 1 + A2 r2 + ... + A p rP
Cap. 3 - Pg. 10
ri > 1
Si dentro de las races de la ecuacin caracterstica hay soluciones complejas, lo mismo vale para el mdulo de
las races.
En resumen, las races de la ecuacin caracterstica [3.4.4] deben ser, en mdulo, inferiores a 1. Como las
races del polinomio autoregresivo son las inversas de las correspondientes a la ecuacin caracterstica,
llegamos a la regla general de estacionariedad de un proceso AR(p).
Cap. 3 - Pg. 11
Y t = 1 Y t - 1 + 2 Y t - 2 + ... + p Y t - p + a t
Suponiendo que el modelo es estacionario, se multiplica ambos miembros por Yt-k y se toman esperanzas:
k = 1 k 1 + 2 k - 2 + ... + p k p
ya que
j i
se tiene:
k = 1 k 1 + 2 k 2 + ... + p k p
[3.5.1]
1 = 1 + 2 1 + 3 2 + ... + p 1 p 2 + p p 1
2 = 1 1 + 2 + 3 1 + ... + p 1 p 3 + p p 2
...
p = 1 p 1 + 2 p 2 + 3 p 3 + ... + p 1 1 + p
De la propiedad de
k = k
surge tambin
k = k
El sistema [3.5.2] recibe el nombre de ecuaciones de Yule-Walker, por los aportes de ambos autores
(entorno a 1930) a la teora de series de tiempo.
[3.5.2]
Cap. 3 - Pg. 12
El sistema [3.5.2] puede ser considerado tanto en trminos de los coeficientes de autocorrelacin
conocidos (con lo cual pueden deducirse los coeficientes
como a la inversa.
se dispone de sus
1 1
2 = 1
... ...
p p 1
1
1
...
p2
1
...
p 3
p 1
... p 2
... ...
... 1
...
2
...
p
4.
Cp. 4 - Pg. 1
Yt = + at 1 at 1 2 at 2 ... q at q
[4.1.1]
Los coeficientes van precedidos por el signo negativo, cuestin meramente de conveniencia en la
notacin. Algunos paquetes economtricos asumen, para la estimacin del modelo, que no se ha
modificado el signo del coeficiente.
La representacin [4.1.] corresponde al caso general para procesos de medias mviles finitos. Como se
ver ms adelante, en distintas aplicaciones se consideran modelos de infinitos trminos (que se notan
como
MA(
)).
Yt = + at 1 La t 2 L2 at ... q Lq at
Yt = + (1 1 L 2 L2 ... q Lq )at
Yt = + q ( L)a t
El polinomio
q (L)
Cp. 4 - Pg. 2
E (Yt ) = E ( + at 1 La t 2 L2 at ... q Lq at ) =
= E ( ) + E ( q ( L ) a t ) = + q ( L ) E ( a t )
ya que la esperanza de la suma es la suma de las esperanzas.
E (Yt ) = + q ( L) 0 =
En los procesos de medias mviles, la media (o esperanza) del proceso coincide con el trmino independiente.
Sin prdida de generalidad, podemos redefinir el caso general [4.1.1] sin trmino independiente. Bastara
transformar el modelo para una variable:
X= Y
Es decir, volvemos a plantear [4.1.1] como:
Yt = at 1 at 1 2 at 2 ... q at q
[4.1.2]
2
V (Yt ) = E (at2 + 12 at21 + ... + q at2 q ) +
+ ( 1 at at 1
Parte A
2 at at 2 + ... + 1 2 at 1 at 2 + ...)]
Parte B
Al aplicar el operador esperanza, los trminos que contienen productos cruzados se anulan (recurdese que,
por definicin, el ruido blanco at est incorrelacionado temporalmente).
Cp. 4 - Pg. 3
De esta forma:
2
V (Yt ) = E (at2 + 12 at21 + ... + q at2 q ) =
2
= E (at2 ) + 12 E ( at21 ) + ... + q E (a tq q )
2
2
V (Yt ) = (1 + 12 + ... + q ) a
Cp. 4 - Pg. 4
4.3. EJEMPLO
Supngase que se est modelizando el precio de un cierto producto agrcola en un contexto no inflacionario.
Para ello se dispone de una serie de tiempo donde la periodicidad se corresponde con el ciclo de cultivo del
producto (es decir, semestral, anual, segn corresponda). Un ejemplo de un modelo que podra describir este
proceso es un MA(1):
Yt = 10 + at + 0,8at 1
donde at es Niid (0 , 2^2)
Es decir, el ruido blanco o innovacin es normal, independiente e idnticamente distribuido con desvo
estndar de 2.
Supongamos que en el momento T se produce un hecho extraordinario (una sequa, por ejemplo) que repercute
en un valor extraordinario de la innovacin (usualmente llamado outlier). En el ejemplo presentado,
supongamos que en el momento T toma el valor de 7 (3,5 desvos estndar).
Para simplificar la exposicin, supongamos que en los perodos previos a T (T-1, T-2) el valor de at fue 0, y
que luego de T (T+1, T+2, ...) tambin toma valores 0 (esta es una simplificacin, para la presentacin del
ejemplo bastara que no ocurrieran nuevos outliers).
De esta forma tenemos:
aT-2 = 0
aT-1 = 0
aT = 7
aT+1 = 0
aT+2 = 0
aT+3 = 0
YT-2 = 10,0
YT-1 = 10,0
YT = 17,0
YT+1 = 15,6
YT+2 = 10,0
YT+3 = 10,0
Es decir, se observ un valor extraordinario en la serie (en T) que repercuti en el perodo siguiente (T+1) pero
que deja de producir efectos a partir de T+2.
En el ejemplo, la sequa impuls un incremento del precio en el perodo contemporneo, que es parcialmente
absorbido en el siguiente (por ejemplo, porque los demandantes deben recomponer el stock o porque el rea
sembrada en T+1 fue inferior a la de T-1) y se recompone el equilibrio en t+2, superado el efecto del outlier.
Si en lugar de especificar un modelo MA(1) se hubiera especificado el siguiente modelo AR(1):
X t = 2 + 0,8 X t 1 + at
Cp. 4 - Pg. 5
Obsrvese que el modelo AR(1) se defini de manera que la esperanza de ambos modelos fuera la misma.
E( X t ) =
2
= 10
1 0,8
Para comparar con el ejemplo anterior, suponemos el mismo comportamiento del ruido (y el valor de Y en T-1
y T-2):
XT-2 = 10,0
XT-1 = 10,0
XT = 17,0
XT+1 = 15,6
XT+2 = 14,5
XT+3 = 13,6
aT-1 = 0
aT = 7
aT+1 = 0
aT+2 = 0
aT+3 = 0
...
aT+10 = 0 XT+10 = 10,8
...
aT+20 = 0 XT+20 = 10,1
...
aT+30 = 0 XT+30 = 10,0
Como puede apreciarse en el ejemplo, el valor de equilibrio (la esperanza del proceso) es, al igual que en el
caso del MA(1), Y=10.
En los dos procesos, una vez ocurrido un hecho que lo aparta del equilibrio, la serie tiende a retornar a ste
(obsrvese que esta es una caracterstica de las series estacionarias: la media es invariante). La diferencia
radica en la trayectoria hacia el equilibrio. En la ausencia de nuevos choques, el proceso de MA retorna a su
equilibrio en nmero finito de perodos (de acuerdo al orden q del proceso), usualmente un nmero pequeo
de perodos.
Por otro lado, el proceso AR retorna al equilibrio con movimientos decrecientes, requirindose infinitos
perodos para alcanzarlo. (Como ejercicio, calcular, por ejemplo en una planilla Excel, los valores de Xt con
una precisin mayor que la presentada antes y verificar que XT+30 = 10,0086656 ). De todos modos, Xt estar
lo suficientemente prxima del valor de equilibrio en un nmero finito de perodos, con lo que a los efectos
prcticos el punto anterior no es sustantivo.
An con esta precisin, como puede observarse en el ejemplo, se requiere de un nmero mayor de perodos
para obtener un valor cercano al equilibrio. La precisin es vlida en general, aunque en los casos concretos
depender del orden de los modelos AR y MA y de los valores de los coeficientes.
Cp. 4 - Pg. 6
En el grfico siguiente se presentan las dos series. Los valores de T-2 a T+1 coinciden para ambas series.
18
17
MA(1)
AR(1)
16
15
14
13
12
11
10
9
1
T-
T
T+
1
T+
2
T+
3
T+
4
T+
5
T+
6
T+
7
T+
8
T+
9
T+
10
T+
11
T+
12
T+
13
T+
14
T+
15
T+
16
T+
17
T+
18
T+
19
T+
20
2
T-
Cp. 4 - Pg. 7
Yt = + at 1 at 1
donde at es un ruido blanco con las propiedades ya definidas.
Ejercicios.
a)
Demuestre que:
E (Yt ) =
V (Yt ) = 0 = (1 + 12 ) 2
1 = 1 2
k =0
k >1
1
1 + 2
1
k =
k =1
k >1
Yt = at 0,8at 1
Yt = at + 0,8at 1
[4.4.1]
Cp. 4 - Pg. 8
Yt = + at 1 at 1 2 at 2
Probar que la funcin de autocorrelacin es:
1 + 1 2
1+ 2 + 2
1
2
k = 1 + 12 + 22
k =1
k=2
k>2
[4.4.2]
Cp. 4 - Pg. 9
a t = Y t + a t 1
a t 1 = Y t 1 + a t 2
Sustituyendo la segunda expresin en la primera:
at = Yt + Yt 1 + 2 at 2
y continuando con la sustitucin recursiva:
Yt = iYt i + at
Alternativamente:
i =1
AR()
Cp. 4 - Pg. 10
Para que efectivamente ambos modelos sean equivalentes se requiere que el modelo AR sea estacionario, lo
que impone la condicin de que
<1
q (L)
Y t = a t + a t 1 = (1 L ) a t
at =
1
Yt
(1 L )
La expresin que pre-multiplica a Yt puede considerarse como la suma de una progresin geomtrica de razn
theta solamente si theta es, en valor absoluto, inferior a 1.
at =
1
Yt =
(1 L )
= (1 + L + 2 L2 + 3 L3 + ...) Y t
Y t = Y t 1 2 Y t 2 3Y t 3 ... + a t
Cp. 4 - Pg. 11
Yt = Dt + X t
donde Dt es linealmente determinista y Xt es un proceso MA infinito. En contraposicin al proceso determinista, a
la parte de medias mviles se le denomina puramente no determinista.
La parte Dt puede ser una funcin exacta del tiempo (por ejemplo, una funcin sinusoidal). En el caso ms simple,
Dt es simplemente una constante.
Ejemplos.
1) Modelo AR(1) estacionario:
Yt = C + 1Yt 1 + at
1 < 1
(1 1 L)(Yt ) = at
donde
C
1 - 1
Yt =
1
1
at = +
at
1 1 L
1 1 L
que da lugar a un proceso MA infinito, aunque estacionario, que se descompone en los dos trminos de Wold.
Cp. 4 - Pg. 12
Yt = 1Yt 1 + at - 1at 1
La condicin de que
1 < 1
1 < 1
(1 1L)Yt = (1 1L)at
y, finalmente, como un MA infinito (estacionario):
Yt =
(1 1 L)
at
(1 1 L)
Yt = 0,3Yt 1 + at + 0,8at 1
Cp. 5 - Pg. 1
5. PROCESOS ARMA
5.1. PRESENTACIN GENERAL
La combinacin de procesos AR y MA da lugar a los procesos mixtos ARMA.
La formulacin general de un proceso ARMA , ARMA(p,q), es:
[5.1.1]
+ at 1 at 1 2 at 2 ... q at q
Los momentos del proceso se derivan de la misma forma que se vio para los procesos AR y MA.
En particular, es importante analizar el correlograma de la serie. Lo haremos para el proceso ARMA(1,1).
5.2. ARMA(1,1)
Un proceso ARMA(1,1) (se excluye la constante por simplicidad) :
Yt = 1Yt 1 + at 1 at 1
[5.2.1]
E [atYt ] = 2
E [at 1Yt ] = E [at 1 (1Yt 1 + at 1at 1 )] =
= (1 1 ) 2
la expresin [5.2.2] se reduce a las siguientes expresiones:
[5.2.2]
Cp. 5 - Pg. 2
Para k=0
0 = 1 1 + 2 1 (1 1 ) 2
Para k=1
1 = 1 0 1 2
Sustituyendo este valor en la expresin de la varianza (0 ) se tiene:
0 = 1 (1 0 1 2 ) + 2 1 (1 1 ) 2 =
1 211 + 12 2
0 =
1 12
que vuelve a sustituirse en la expresin de la covarianza de primer orden (1 ).
Para k > 1
k = 1 k 1
De esta forma, los coeficientes de autocorrelacin quedan como:
(1 11 )(1 1 )
k = 1 211 + 12
1 k 1
k =1
k >1
Es decir, los coeficientes de autocorrelacin de un ARMA(1,q) se comportan como un AR(1) puro para k > 1.
Recurdese que los procesos MA tienen memoria finita.
Cp. 5 - Pg. 3
CORRELOGRAMA
PROCESO ARMA(1,1) - FI +0,5 THETA -0,5
CORRELOGRAMA
PROCESO ARMA(1,1) - FI -0,8 THETA +0,8
1,0
1,0
0,9
0,8
0,8
0,6
0,7
0,4
0,6
0,2
0,5
0,0
1
0,4
10
11
12
-0,2
0,3
-0,4
0,2
-0,6
0,1
-0,8
0,0
1
10
11
12
-1,0
Grfico 5.2.1
Grfico 5.2.2
CORRELOGRAMA
PROCESO ARMA(1,1) - FI +0,2 THETA +0,9
CORRELOGRAMA
PROCESO ARMA(1,1) - FI +0,9 THETA +0,2
1,0
1,0
0,9
0,8
0,8
0,6
0,7
0,4
0,6
0,5
0,2
0,4
0,0
1
-0,2
-0,4
-0,6
Grfico 5.2.3
10
11
12
0,3
0,2
0,1
0,0
1
Grfico 5.2.4
10
11
12
Cp. 5 - Pg. 4
0,8
1
0,7
0,9
0,8
0,6
0,75
AR(1)
ARMA(1,1)
0,57
AR(1)
ARMA(1,1)
0,7
0,5
0,6
0,4
0,5
0,3
0,4
0,3
0,2
0,2
0,1
0,1
0
1
Grfico 5.2.5
10
11
12
13
14
15
16
10
11
12
13
14
15
Grfico 5.2.6
16
6.
Cp. 6 - Pg. 1
La mayor parte de las series econmicas corresponden a procesos no estacionarios. As, si se desea obtener un
tratamiento de las series basado en el anlisis de series de tiempo (modelos ARMA), es necesario discutir
mecanismos de transformacin de las series a procesos estacionarios.
En principio pueden presentarse distintas (infinitas) formas por las que se introduce la no estacionariedad en un
proceso estocstico. Sin embargo, interesa considerar solo algunas formas de la no estacionariedad que sean
adecuados para describir el comportamiento de series econmicas y, al mismo tiempo, pasibles de ser
transformados en procesos estacionarios.
En primer lugar, analizaremos el proceso de caminata al azar.
Yt = Yt 1 + at
[6.1.1]
Yt = C + Yt 1 + at
[6.1.2]
El modelo [6.1.1] se denomina caminata al azar sin deriva (random walk without drift) y el [6.1.2] es con
deriva (with drift).
A diferencia de los procesos estacionarios (por ejemplo, de los procesos autoregresivos estacionarios) la presencia
de constante determina un cambio sustancial en el comportamiento de la serie, como se ver ms adelante. De
todas formas, para las consideraciones siguientes la existencia de constante no es relevante, por lo que
desarrollaremos los conceptos a partir de [6.1.1.].
Momentos no condicionales
Supongamos que la serie comienza en el perodo 0, y el valor de
Cp. 6 - Pg. 2
Lo que implica que, bajo los supuestos antes planteados, la esperanza no condicional de Yt existe y es invariante
en el tiempo. Es decir, se cumple la primera condicin de la estacionariedad en sentido amplio. Sin embargo, como
se ver enseguida, no se cumplen las condiciones de varianzas y autocovarianzas invariantes, por lo que el proceso
de caminata al azar no es estacionario.
A los procesos que cumplen con la condicin de esperanza invariante (aunque no con las
restantes) se les denomina procesos estacionarios en media. No debe perderse de vista
que estos procesos son no estacionarios. A los procesos estacionarios (es decir, que
cumplen con las tres condiciones) tambin se les denomina estacionarios en covarianzas.
Las consideraciones anteriores no son vlidas para el modelo [6.1.2]. Ello se ver ms adelante.
Cambiando el supuesto respecto de Y0, y suponiendo que el proceso se inicia en un pasado remoto, a partir de la
expresin [6.1.1] tambin puede observarse que:
Yt = Yt 1 + at = (Yt 2 + at 1 ) + at = a t + at 1 + Yt 2 =
= at + at 1 + (Yt 3 + at 2 )
Yt =
at j
j =0
A partir de la expresin anterior, se observa directamente que la varianza del proceso es infinita (estrictamente, no
existe) y el proceso es no estacionario.
Si se hubiera mantenido el supuesto de
resultado:
Y0
no aleatorio (y
a0
t 1
Yt = Y0 + at j
j =0
2
2
V (Yt ) = V (Y0 ) + t a = t a
La varianza de Yt existe, pero es variable en el tiempo (con lo que proceso es no estacionario).
De manera anloga se obtiene la autocovarianza de orden k.
2
COV (Yt , Yt k ) = (t k ) a
Cp. 6 - Pg. 3
El coeficiente de autocorrelacin de orden k para el momento t (ya que es variable en el tiempo), es:
k (t ) =
=
COV (Yt , Yt k )
V (Yt ) V (Yt k )
2
(t k ) a
2
t a
(t
2
k ) a
(t k )
k
= 1
t
t
Por lo que, para t suficientemente grande, los coeficientes de autocorrelacin resultan prximos a 1 y descienden
muy lentamente a cero (a medida que aumenta k). Esta es, justamente, una de las caractersticas que distinguen a
los procesos no estacionarios cuando se observa su correlograma.
En el caso del proceso [6.1.2], la serie presenta tendencia (creciente o decreciente, segn del signo de
Realizando sustituciones recursivas en [6.1.2], se tiene:
C).
Yt = C + Yt 1 + at = C + (C + Yt 2 + at 1 ) + a t =
= 2C + at + at 1 + Yt 2
t
Yt = t * C + at j
j =0
De otra forma:
Yt = C + Yt 1 + at
Yt = C + at
Yt crece aproximadamente a una tasa C en cada perodo. Aproximadamente porque la presencia del ruido at
puede provocar apartamientos (transitorios). La esperanza de la diferencia es de Yt es constante (e igual a C) pero
la esperanza de Yt ser variable en el tiempo. De hecho, la serie Yt registra tendencia.
Cp. 6 - Pg. 4
Momentos condicionales
Se deriv la esperanza matemtica (no condicionada) de la serie
esperanza condicional de la variable, dados los valores pasados.
Llamaremos Yt-1 al conjunto de los valores pasados de Yt. De esta forma, para el proceso [6.1.1]:
[6.1.3 ]
E (YT + p / Y T ) = Y T + p = YT
Es decir, si la ltima observacin corresponde al perodo T, la proyeccin puntual de Yt en T+p ser el ltimo
valor observado, YT .
E (YT + p / YT ) = YT + p = p * C + YT
[6.1.4]
Transformacin estacionaria
En el caso de una caminata al azar, tanto en el modelo [6.1.1] como [6.1.2], la transformacin estacionaria resulta
directa:
z t = Yt = Yt Yt 1 = C + at
z t = Yt = at
para [6.1.2] o
para [6.1.1]
Es decir, la primera diferencia de la serie es un ruido blanco (eventualmente, con media no nula, para el modelo
[6.1.2]).
Cp. 6 - Pg. 5
Diferenciacin estacionaria
Supongamos el siguiente proceso:
[6.1.5]
Yt = Yt 1 + ut
donde ut es un proceso estacionario, aunque no necesariamente ruido blanco.
La expresin anterior no puede considerarse estrictamente una caminata al azar, aunque el tratamiento es muy
similar. Supongamos que ut puede expresarse como un proceso autoregresivo en las primeras diferencias de
Por ejemplo:
Yt = Yt 1 + u t = Yt 1 + Yt 1 + at
Yt = Yt 1 + at
con < 1
[6.1.6]
Yt.
De esta forma, puede transformarse el proceso original y se obtiene un AR(1) en la primera diferencia de Yt. A
pesar de que estrictamente no correspondera denominarlas de esta manera, los procesos como [6.1.5] a menudo
son definidos como caminatas al azar.
Utilizando el operador de retardos, la expresin [6.1.6] puede reescribirse como:
Cp. 6 - Pg. 6
Yt
estacionario, ya que el polinomio autoregresivo incluye una raz unitaria. En la primera diferencia de
corresponde a un proceso AR(1) estacionario (ya que el coeficiente phi es inferior a 1 en valor absoluto).
Yt
Yt
sigue un
Si
z t = d Yt
(1 1 L 2 L2 ... p L p ) z t = (1 1 L 2 L2 ... q Lq )a t
p ( L) z t = q ( L) a t
entonces Yt sigue un proceso ARIMA(p,d,q).
Tambin se escribe en la variable original Yt como:
p ( L)(1 L) d Yt = q ( L)at
Generalmente no son necesarias diferencias regulares de orden superior a 2, excepto en el caso de variables que
presentan estacionalidad, como se ver ms adelante.
Cp. 6 - Pg. 7
Yt
( )
(Yt 1) /
=
ln Yt
0
=0
Cp. 6 - Pg. 8
6.4. HETEROCEDASTICIDAD
Una fuente importante de no estacionariedad corresponde a la presencia de heterocedasticidad en una serie dada.
En ciertos casos ello puede corregirse con la aplicacin de logaritmos (si la serie presenta tendencia creciente, es
muy probable que la varianza de los valores originales tambin sea creciente en el tiempo).
En otros casos, como sucede a menudo para series financieras, no es posible transformar la serie para volverla
homocedstica. Estos casos son abordados a travs de la familia de modelos ARCH (AutoRegresive Conditional
Heterocedasticity). A continuacin se presentan los delta log de datos diarios (desde agosto de 1990 a abril de
2001) de la cotizacin de la libra esterlina en el mercado de Nueva York.
2/02/01
2/11/00
2/08/00
2/05/00
2/02/00
2/11/99
2/08/99
2/05/99
2/02/99
2/11/98
2/08/98
2/05/98
2/02/98
2/11/97
2/08/97
2/05/97
2/02/97
2/11/96
2/08/96
2/05/96
2/02/96
2/11/95
2/08/95
2/05/95
2/02/95
2/11/94
2/08/94
2/05/94
2/02/94
2/11/93
2/08/93
2/05/93
2/02/93
2/11/92
2/08/92
2/05/92
2/02/92
2/11/91
2/08/91
2/05/91
2/02/91
2/11/90
-0,05
2/08/90
-0,04
Ilustracin 6.4.1
Como puede apreciarse en la ilustracin, en la primera mitad del perodo se aprecia una varianza ms elevada que
en la segunda (relacionada con el sistema cambiario adoptado). A pesar de que la serie transformada (delta log)
parecera estacionaria en media, claramente no lo es en varianzas, por lo que es no estacionaria.
Cp. 6 - Pg. 9
6.5. EJEMPLOS
Cotizacin del Marco Alemn
Se presenta a continuacin la ilustracin de la cotizacin del Marco Alemn respecto del dlar de EE.UU. (valores
de cierre diarios en NY) desde agosto de 1990 a abril de 2001 (encadenando con la cotizacin del euro).
MARCO ALEMAN
Datos diarios (cierres en NY) Log - DM / U$S
0,90
0,80
0,70
0,60
0,50
0,40
0,30
2/0
8/1
99
0
2/1
2/1
99
0
2/0
4/1
99
1
2/0
8/1
99
1
2/1
2/1
99
1
Ilustracin 6.5.1.
2/0
4/1
99
2
2/0
8/1
99
2
2/1
2/1
99
2
2/0
4/1
99
3
2/0
8/1
99
3
2/1
2/1
99
3
2/0
4/1
99
4
2/0
8/1
99
4
2/1
2/1
99
4
2/0
4/1
99
5
2/0
8/1
99
5
2/1
2/1
99
5
2/0
4/1
99
6
2/0
8/1
99
6
2/1
2/1
99
6
2/0
4/1
99
7
2/0
8/1
99
7
2/1
2/1
99
7
2/0
4/1
99
8
2/0
8/1
99
8
2/1
2/1
99
8
2/0
4/1
99
9
2/0
8/1
99
9
2/1
2/1
99
9
2/0
4/2
00
0
2/0
8/2
00
0
2/1
2/2
00
0
2/0
4/2
00
1
Cp. 6 - Pg. 10
A continuacin se presenta el histograma y distintos momentos de la serie original (en logaritmos) y de la primera
diferencia (deltalog), para el ltimo ao de la serie (308 observaciones - das hbiles -), realizados con el programa
EViews.
40
Series: LOG(MARCO)
Sample 2395 2702
Observations 308
30
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
20
10
Jarque-Bera
Probability
0.752312
0.749764
0.859890
0.639641
0.050269
-0.039185
2.427624
4.283198
0.117467
0
0.65
0.70
0.75
0.80
0.85
Ilustracin 6.5.2.
50
Series: DLOG(MARCO)
Sample 2395 2702
Observations 308
40
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
30
20
0.000368
0.000250
0.023183
-0.026836
0.008077
-0.147702
3.568211
10
Jarque-Bera
Probability
0
-0.02
Ilustracin 6.5.3.
-0.01
0.00
0.01
0.02
5.263285
0.071960
Cp. 6 - Pg. 11
Como puede apreciarse, para la serie deltalog no puede rechazarse que sea un ruido blanco (sera necesario realizar
otras pruebas adicionales, como el Box-Ljung, que se presenta ms adelante, pero efectivamente no se rechaza la
hiptesis de ruido blanco).
De esta forma, si la transformacin deltalog da lugar a un ruido blanco y la serie no presenta tendencia (como
puede observarse en el primer grfico del marco), se est ante una caminata al azar pura, modelo [6.1.1].
DJI - Cierre
Logaritmo Indice - Prom. Mensual
DJI - Cierre
Indice - Prom. Mensual
10
14.000
10
12.000
9
9
10.000
8.000
8
Nov-87
7
6.000
4.000
6
2.000
Ilustracin 6.5.4
Ilustracin 6.5.5
Como puede apreciarse, ms all de algunos episodios en que el ndice present un descenso (particularmente
desde diciembre de 1999) la tendencia general del ndice es creciente. Analice las razones por las cuales el ndice
debe necesariamente tener tendencia creciente.
Tomando logaritmos el comportamiento del ndice se asemeja ms a una recta en el tiempo. Se aprecian tambin
episodios de descenso (o de crecimiento) relevantes del ndice que antes pasaban desapercibidos, como el de
Noviembre de 1987.
dic-00
dic-98
dic-96
dic-94
dic-92
dic-90
dic-88
dic-86
dic-84
dic-82
dic-80
dic-78
dic-76
dic-74
dic-72
dic-70
dic-68
dic-66
dic-64
dic-62
dic-60
dic-58
dic-56
dic-54
dic-52
dic-00
dic-98
dic-96
dic-94
dic-92
dic-90
dic-88
dic-86
dic-84
dic-82
dic-80
dic-78
dic-76
dic-74
dic-72
dic-70
dic-68
dic-66
dic-64
dic-62
dic-60
dic-58
dic-56
dic-54
dic-52
dic-50
dic-50
Cp. 6 - Pg. 12
Finalmente, se presenta a continuacin la primera diferencia del logaritmo del ndice (transformacin deltalog).
DJI - Cierre
Delta Logaritmo Indice - Prom. Mensual
0,20
0,15
0,10
0,05
0,00
-0,05
-0,10
-0,15
Nov-73
-0,20
Oct-87
-0,25
dic
-50
dic
-52
dic
-54
dic
-56
dic
-58
dic
-60
dic
-62
-0,30
Ilustracin 6.5.6
dic
-64
dic
-66
dic
-68
dic
-70
dic
-72
dic
-74
dic
-76
dic
-78
dic
-80
dic
-82
dic
-84
dic
-86
dic
-88
dic
-90
dic
-92
dic
-94
dic
-96
dic
-98
dic
-00
7.
Cap. 7 - 1
7.1. Presentacin
Series de tiempo de frecuencia menor al ao (mensuales, trimestrales) pueden presentar estacionalidad. Es decir,
son series con ciclos u oscilaciones estrictamente peridicas, donde el perodo es igual o inferior al ao.
La presencia de este componente se explica por la existencia de las estaciones y su impacto sobre la actividad
econmica (por ejemplo, en la produccin agropecuaria, el turismo), las costumbres (el fin de ao, que es
estrictamente cultural), procesos fsicos (temperatura, pluviosidad), etc.
Yt = C + Yt 4 + at
con < 1
[7.2.1]
Es decir, el valor corriente de Y se explica por el ruido contemporneo y por el valor de Y cuatro trimestres atrs
(el mismo trimestre del ao anterior). El modelo recoge exclusivamente factores estacionales.
El modelo puede ser escrito como:
Yt Yt 4 = C + at
(1 L4 )Yt = C + at 4 ( L)Yt = C + at
donde (L) es el polinomio autoregresivo.
Designamos como s el perodo estacional (s=4 para datos trimestrales, s=12 para mensuales, etc.). El modelo
[7.2.1] se nota como SAR(1)s, o modelo autoregresivo estacional (Seasonal, en ingls) de primer orden.
Es suficiente que en valor absoluto sea menor que 1 para que el modelo sea
estacionario. En efecto, el polinomio
4 (1 L4 )
tiene 4
z1 = + 4 1 /
z2 < 1 4 1 /
=
z3 = + 4 1 /
Es suficiente que para que las races caigan fuera del crculo unidad.
z4 = 4 1 /
Cap. 7 - 2
0,80
0,64
0,17
0,11
10
10
0,09
11
11
0,07
12
0,64
0,13
16
0,21
15
0,26
0,80
0,33
14
0,41
13
0,51
0,51
12
0,05
13
0,04
14
0,04
15
0,03
0,41
16
La Funcin de Auto Correlacin (FAC) del proceso estacional puro SAR(1)4 considerado en [7.2.1] es:
k s = k / s
k =
0
con s=4
Yt = C + 1 Yt s + 2 Yt 2 s + at
De la misma forma que se definen los procesos estacionales puros autoregresivos, puede hacerse lo mismo con
procesos de medias mviles:
Yt = C + at at 4
Yt = C + at at 12
que corresponde al modelo SMA(1)4 y SMA(1)12, para datos trimestrales o mensuales, respectivamente.
Cap. 7 - 3
Yt = C + at 1at 1 4 at 4
Es decir, el ruido en t influye en t+1 y en t+4. El modelo planteado tiene la importante limitacin que no
recoge la influencia que tendr el efecto en t+4 sobre el valor de la variable en t+5. Es decir, el efecto un
trimestre despus se modeliza solamente en t+1.
Una manera de salvar este problema es con la formulacin de modelos estacionarios multiplicativos estacionales.
Yt = C + (1 1L)(1 4 L4 )at
[7.3.1]
Yt = C + at 1at 1 4 at 4 + 1 4 at 5
[7.3.2]
Es decir, el modelo justamente captura la interaccin de los dos efectos sobre el perodo t+5. Una forma
alternativa de escribir [7.3.2] es como un MA(5):
Yt = C + at 1at 1 4 at 4 5at 5
[7.3.3]
El modelo [7.3.3] es la versin no restringida. Contiene un parmetro ms que el modelo [7.3.2] ya que
justamente no impone la interaccin entre los dos efectos. Si los modelos tuvieran un poder explicativo similar,
siempre es preferible el primero porque es ms parsimonioso.
La prctica ha llevado a adoptar los modelos multiplicativos como la representacin general de efectos ordinarios y
estacionales en procesos estacionarios. En todo caso, siempre es posible estimar ambos modelos y realizar pruebas
de hiptesis para decidir por uno u otro.
Cap. 7 - 4
De la misma forma pueden plantearse modelos AR multiplicativos o modelos ARMA multiplicativos. Se presentan
a continuacin dos ejemplos para la frecuencia mensual:
[7.3.4]
[7.3.5]
Como en los modelos ARMA ordinarios, la estacionariedad del proceso est asociada a las races del polinomio
autoregresivo.
[7.4.1]
[7.4.2]
2
2
2
= E 1at21 112 at213 = ( 1 a )(1 + 12 )
3, 4, ..., 10 = 0
Cap. 7 - 5
2
11 = COV (Yt , Yt 11 ) = E (112 at212 ) = 112 a
2
12 = E ( 12 at212 1212 at213 ) = 12 a (1 + 12 )
2
13 = E (112 at213 ) = 112 a
k = 0 para k>13
De esta forma, el correlograma tendr valores no nulos para k=1, 11, 12 y 13.
Suponiendo modelos MA de orden bajo, tanto para la parte ordinaria como para la parte estacional, el
correlograma tendr coeficientes no nulos para los primeros retardos (hasta el orden de la parte ordinaria) y en
torno a la frecuencia estacional: en torno a 12 si es SMA(1)12, en torno a 12 y 24 si es SMA(2)12, etc.
Los coeficientes de autocorrelacin no nulos para k=11 y 13 se denominan satlites porque surgen de la
interaccin de la parte ordinaria y estacional.
La FAC para modelos AR o ARMA estacionales es ms compleja, pero en general, para modelos de orden bajo, se
observa una situacin similar a la planteada anteriormente. Los coeficientes de autocorrelacin de orden bajo se
comportan como un modelo no estacional, mientras que se observan coef. de autocorr. no nulos en torno a las
frecuencias estacionales.
Cap. 7 - 6
Cap. 7 - 7
Cap. 7 - 8
Cap. 7 - 9
Cap. 7 - 10
5.4
5.2
Figura 7.5.1
Log PIBt
5.0
4.8
4.6
4.4
84
86
88
90
92
94
96
98
00
02
Como puede observarse, la serie es claramente no estacionaria: presenta tendencia pero, como se comprobar a
continuacin, existen otros elementos que determinan la no estacionariedad de la serie.
El grfico de la primera diferencia de la serie ( log PIBt) es:
0.2
0.1
Figura 7.5.2
log PIBt
0.0
-0.1
-0.2
84
86
88
90
92
94
96
98
00
02
Si bien la serie no parece presentar tendencia, se observa un pico regular en el cuarto trimestre de cada ao,
mientras que se produce un valle en el primer trimestre. Es decir, la media de la serie no es constante, sino
sistemticamente ms alta en el cuarto trimestre, ms baja en el primero, etc.
Cap. 7 - 11
Si en lugar de haber realizado la primera diferencia de la serie hubiramos aplicado una diferencia estacional ( 4
Figura 7.5.3
4 log PIBt
0.05
0.00
-0.05
-0.10
-0.15
84
86
88
90
92
94
96
98
00
02
Es posible que la aplicacin de la diferencia estacional no sea suficiente para transformar en estacionaria a la serie.
En el grfico previo la serie resultante parece seguir un proceso del tipo de caminata al azar, aunque seran
necesarios otros elementos de anlisis (anlisis del correlograma, por ejemplo) para concluir sobre la conveniencia
de una diferencia adicional.
Cap. 7 - 12
Modelo de aerolneas
En el texto clsico de Box y Jenkins se analizan los datos de los pasajeros transportados por aerolneas (vuelos
internacionales) de EE.UU., con frecuencia mensual desde 1949 a 1960. A continuacin se presentan grficos de la
serie original (en logaritmos) y de distintas transformaciones.
7
0,25
0,2
6,5
0,15
0,1
0,05
5,5
0
-0,05
-0,1
-0,15
4,5
-0,2
4
ene-51 ene-52 ene-53 ene-54 ene-55 ene-56 ene-57 ene-58 ene-59 ene-60
-0,25
ene-51 ene-52 ene-53 ene-54 ene-55 ene-56 ene-57 ene-58 ene-59 ene-60
Figura 7.5.5. ln Yt
0,35
0,2
0,3
0,15
0,25
0,1
0,2
0,05
0,15
0
0,1
-0,05
0,05
0
-0,1
-0,05
-0,15
-0,1
-0,2
ene-51 ene-52 ene-53 ene-54 ene-55 ene-56 ene-57 ene-58 ene-59 ene-60
Figura 7.5.6. 12 ln Yt
ene-51 ene-52 ene-53 ene-54 ene-55 ene-56 ene-57 ene-58 ene-59 ene-60
Figura 7.5.7. 12 ln Yt
Cap. 7 - 13
La primera diferencia de la serie ( ln Yt) no resuelve la estacionariedad de la serie ya que la media difiere de
acuerdo al mes considerado (por ejemplo, en junio y diciembre los valores son sistemticamente ms altos).
La diferencia 12ava. (12 ln Yt), si bien aparentemente filtra la estacionalidad (al menos, la estacionalidad
regular), genera una serie con un comportamiento de caminata al azar. Es decir, una serie no estacionaria con una
raz unitaria.
Finalmente, la transformacin 12 ln genera un grfico donde no se advierten comportamiento no estacionarios.
Una vez transformada la serie (12 ln) Box y Jenkins ajustan un modelo SARMA(0,1)(0,1)12.
La notacin del modelo ajustado sobre (el logaritmo de) la serie original es:
SARIMA(0,1,1)(0,1,1)12
[7.5.1]
1 si t 1er. trimestre
D1t =
0 en otro caso
y anlogamente para D2t y D3t (no se incluye D4t, que est implcito en los valores anteriores y el trmino
constante).
Cap. 7 - 14
A continuacin se presenta el grfico de una serie generada con un modelo [7.5.1]: Yt = 10 + 3,2 * D1t + 2 * D2t
2.4 * D3t + at (datos trimestrales) con at normal estndar.
16
14
12
10
4
ene-01ene-02 ene-03 ene-04ene-05 ene-06 ene-07 ene-08ene-09ene-10 ene-11 ene-12 ene-13ene-14 ene-15ene-16 ene-17 ene-18ene-19 ene-20 ene-21ene-22 ene-23 ene-24ene-25
Cap. 7 - 15
[7.6.1]
2
con at ~ N(0, a )
Un proceso SARIMA (p,d,q) (P,D,Q)s se plantea como:
[7.6.2]