Documentos de Académico
Documentos de Profesional
Documentos de Cultura
::..enfoque clásico del análisis univariante de series temporales ha sido objeto de los
2 y 6. El presente capítulo introduce el enfoque moderno y se centra en
:..:.;::,::ulos
_:-..ipo de modelos estocásticos especialmente útiles para la predicción: los modelos
.:._~í~tA. Estos métodos son más complejos que los del capítulo anterior, y su apli-
:2.::ón requiere series temporales más largas.
este capítulo se inicia con unos conceptos introductorios sobre el enfoque moder-
: .: o estocástico, en el análisis de series temporales. A partir de 7.7 se expone la
-:-.-::odologiadesarrollada por Box y Jenkins t para tratar con los modelos lineales
_::":·;ariantes.
'_':-.proceso estocástico, {X(}, para t = 1,2,3, ... , se define como una colección de
.:.::ables aleatorias, X" ordenadas de acuerdo con el parámetro discreto t, que en
-::_:5tro contexto es el tiempo.
::::término de perturbación aleatoria en una regresión con series temporales cons-
:'':':'e un ejemplo de proceso estocástico. En este caso, se trata de un proceso inob-
..::-.able.
:;: x, G. E. P., y JnNKIl'S, G. M.: Time Series Analysis: Forecasting and Control, Holden-Day. Edición
':, :-ada, 1976. .
201
--
202 ECONOMETRÍA. SERrES TEMPORALES y PREDICCIÓN
Los modelos estocásticos de series temporales conciben una serie temporal dada, :...:.::efinición ¿~ =-5
Xl' como una colección de observaciones muestrales, cada una correspondiente a ~; .:-~.)2e.soestocé!.5::~
una variable del proceso t. - .::~:a es, sin d:.:':':'
Las leyes probabilísticas que rigen cualquier proceso estocástico se describen ex- .. .=- ~.) ceses eSlO~is::
haustivamente y sin ambigüedades mediante las funciones de distribución de proba- :::5 daros econc+,
bilidad (f.d.p.) conjunta de todos y cada uno de los vectores de variables aleatorias
que se pueden formar con las variables que constituyen el proceso. Sin embargo. .?:.:ede concebirSe. s
para muchos fines prácticos, los procesos se suelen describir mediante sus momen- = .r a:a de la estac:c:.
tos, entre los cuales destacamos los siguientes: _:". proceso es es:':
.:.:t.. o de covariar..z.:_
La media de un proceso estocástico se define por
(7.1)
t Obsérvese que la notación XI puede representar tanto una variable aleatoria como una observaciór.
muestral, dependiendo del contexto.
PROC:r;SOS ESTOCÁSTICOS y MODELOS ARIMA 203
ríe temporal dada, La definición de estacionariedad en sentido estricto implica que las características
correspondiente a del proceso estocástico no sufren alteración al considerar tiempos históricos diferen-
.es. Ésta es, sin duda, una restricción demasiado fuerte para imponerla a priori a
';0 se describen ex- :05 procesos estocásticos destinados a representar sistemas socioeconómicos, es de-
::ibución de proba- cir, los datos económicos reales violan, sin duda, la hipótesis de estacionariedad es-
"ariables aleatorias :ricta.
.eso. Sin embargo, Puede concebirse, sin embargo, otro tipo de estacíonariedad de interés práctico:
diante sus momen- se trata de la estacionariedad en sentido amplio.
Un proceso es estacionario en sentido amplio (o estacionario de segundo or-
ien, o de covarianza estacionaria, o débilmente estacionario) cuando se vcrifi-
ca que
(7.1)
Jlot = Jlo < 00 (7.5)
(7.6)
(7.2) La expresión (7.5) significa que la media del proceso es constante, y la (7.6)
que la autocovarianza es sólo función del lapso temporal considerado, y no del
),:.r una parte, para ::empo histórico. Los momentos de orden superior pueden variar con el tiempo.
Por ejemplo, en la figura 7.1(a) aparece representado un proceso estacionario en
sentido amplio; en (b), el proceso no es estacionario a causa de la evolución de
(7.3) .as medias (tendencia); en (e), la falta de estacionariedad se debe a una varian-
za que crece con el tiempo. yen (d) no hay constancia ni en la media ni en la va-
~ante la expresión
rianza.
En el caso de procesos con f.d.p. normales, la estacionaricdad en sentido amplio
(7.4) .mplica estacionariedad en sentido estricto (puesto que los momentos de primer y
segundo orden determinan cada f.d.p. normal).
Ciertamente, la mayoría de los procesos que representan sistemas económicos no
se ajustan a estas condiciones de estacionariedad, pero es posible eliminar sus ten-
dencias y estabilizar sus varianzas para transformarlos en otros aproximadamente
estacionarios. Una vez realizada la transformación, los procesos estacionarios se
,JS y evolutivos. modelizan, con fines de descripción y de predicción.
.plio y otro estricto. La función de autocorre/ación en estos procesos estacionaños es
ario si los vectores
:na f.d.p., indepen-
k = O, ::!::1, ::!::2, ••• (7.7)
'Yo> O,
:.1. como una observación (7.8)
Pk=P-k' Po = 1 y
... :......lIlIII/I.
204 ECONOMETRTA. Sl!lUES TEMPORALES y l'RllDlCCrÓN
x, x,
o
(a) (h) l
x,
o 5
(b)
Fig. 7.2. Correlo
(e) (d)
7.3. ERGODICIDAf
Fig. 7.1. Procesos estocásticos: (a) estacionario; (b), (e) y (d) evolutivos.
Las series temporales
vaciones históricas, e
La representación gráfica con PI<. en ordenadas y k en abscisas se denomina corre- .rrepetíbles. Una serie
lograma del proceso. experimento aleatorio
La función de autocorrelación de las series estacionarias disminuye sensiblemente del proceso.
a medida que aumenta el desfase temporal k. Esto no suele ocurrir con las series Para hacer inferenci
. no estacionarias. ble aleatoria es necesa
La figura 7.2 muest.ra los correlogramas de: (a) un proceso estacionario y (b) : de pruebas fuese necess
(e), dos procesos no estacionarios; el segundo muestra la presencia de periodicidade: ría problemas de infe
en la serie. mente, esto no es así, p
PROCESOS P..sTOCÁSTJCOS y MODELOS ARlMA 205
k
... (a)
ji'
rV
,I
5 10 k
1
o 5
1I
10
II ..
....
k
(b) (e)
Fig. 7.2. Corrclogramas de dos procesos: (a) estacionario; (b) y (e) evolutivos .
. ::. ERGODICIDAD
evolutivos.
_..:...:
series temporales que se manejan en Econometría están constituidas por obser-
., : ::-.eshistóricas, es decir, no proceden de la experimentación y, por tanto, son
;t denomina corre- ·-:7·!:ibles. Una serie temporal puede contemplarse como una sola prueba de un
-: :~:-::nento aleatorio multivariante y constituye [o que se denomina una realización
z: ';ye sensiblemente :.=. ;~0ceso.
:·':7"rircon las series :::.:a hacer inferencias estadísticas en problemas donde interviene una sola varia-
- : ':":;E.türiaes necesario recurrir a la repetición de experimentos. Si esta repetición
;~:acionario y (b) y -= ::-..:~basfuese necesaria con todos los procesos estocásticos, la Economía plantea-
:~ de periodicidades - ... :::Jblemas de inferencia estadística prácticamente inabordables. Afortunada-
7. ;-_::. esto no es así, porque se puede demostrar que, cuando un proceso estocásti-
206 EcoNOMETRÍA. SBRIES TEMPORALES Y PREDICCIÓN
..
nes se denominan ergodicos. .._ .. ~
Por ejemplo, un proceso estocástico estacionario es ergódico en la media, ¡J., si '- . ....:~ .=::IlII
es posible estimar consistentemente este parámetro haciendo uso de la media mues- - ..-::- .....;; .. :
Jim Pk = O.
k ....oo
Esto significa que. a medida que k crece, la autocorrelacíón del proceso va desapare-
cien.do. Si el proceso sigue una distribución normal, puede hablarse de una independen-
cia cada vez mayor de las nuevas observaciones respecto a las antiguas, o, lo que es le
mismo, que a medida que el tamaño muestral crezca, dispondremos siempre de nueva
información para estimar los parámetros del proceso. Este hecho permite construir es-
.. .:.....-~ -.. ._
timadores consistentes de estos parámetros. Dicho de otra forma, el proceso es ergó-
dico. Esta condición la cumplen todos los procesos económicos, ya que rara vez se
presentan series temporales económicas con componentes periódicas deterministas.
que son las que inducirían a que no se cumpliera la anterior condición de límite.
-
X= -r-1 t=LJ
~
1
XI· (7.9
z.ente sus característi- La representación gráfica de r/(, denominada correlograma muestral, constituye
.mplen tales condicio- ..:.::instrumento de análisis de series temporales de gran interés práctico.
Para obtener correlogramas debe partirse en Lapráctica de muestras de tamaño
:~O en la media, p" si ; ..:ficientemente grande. Algunos autores consideran que se necesitan al menos 50
~5() de la media mues- ::-servaciones. La función de autocorrelacíón muestral no se puede calcular, obvia-
:::ente, cuando k > T - 1_ En la práctica, no se debe calcular para
T
k>-·
4
:~5 observaciones, XI
;:.):1eestacionario, la Ejercicio 7.1. A partir de un conjunto de 60 observaciones se obtienen los si-
;'_;:emes valores para la función de autocorrelación muestral:
(7.9) k 1 2 3 4 5 6 7 8 9
'k 0,35 0,12 0,05 -0,09 0,07 -0,04 0,02 -0,02 0,01
~=-_edianteLa/unción
_Se puede afirmar que Pk = O para todo k?
(7.10) - 3.-\1UJ!IT,M. S.: «On the Thcoretical Specification 01' Sampling Propcrties of Autocorrelated Time Se-
r.es». Journal 01 the Royal Statisttcai Society. Series B, 8, 1946,
208 E.coNOMETRfA. SBRlllSTEMPORALES y PREDrCCrÓN
Para responder, hay que estimar la varianza de las autocorrelaciones muestrales suponien- y se comprueb
do que todos los Pk son iguales a cero. Aplicando (7.13) con K = O se tiene: algún r" caiga 1
:0 que se tradi
Gráficamenr
sas, entre los lí
El correspondiente error estándar es 0, l30. Como quiera que '1 es más de dos veces el error jos a partir de
estándar, concluimos que PI;: O. Continuando, hay que verificar si Pk = Opara k > 1. Apli-
cando de nuevo (7.13) con K = 1, Hay que tene
.ervalo correctc
var (rk) ::: (1/60)(l + 2 ' O,35~ = 0,0207; k> 1 aasta la mitad
y valores de rk es
aipótesis de au
error est. (rA:) "" 0,144.
Como todos los 'IC (k> 1) son pequeños en relación a este error, concluimos que hay evi-
=
dencia de que Pk 0, para todo k> 1. En la figura 7.3 se observa que todos los valores de "7.5. PROCES(
'k (k> 1) están dentro de la banda ::1:2 error esto (rA:)'
:.:n proceso esta
.e aleatorio, o
,
x (0,35)
Por ejemplo,
2 err. cst. = 0,29 a.eatoria de un
2 erro est. = 0,26 (K = L)
(K = O) x En este preces
x ><
'::e el eje de ord.
O x 5 10 k entre los valores
valor para predi
~.6. PROCESO
Fíg. 7.3. Correlograma muestral, ejercicio 7.1.
víuy pocas serie
::arias. Los mot
(a) Se present
(b) La varían.
A menudo se aplica la fórmula de Barlett para verificar si Pk = O para k:::: 1,2.
(e) Hay varia.
3, . , , • es decir, si la serie es aleatoria. Como esta fórmula es sólo aproximada. se
suele calcular simplemente el intervalo La presencia d
'::a del proceso,
Afortunadame
.acíonarias en ot
P.ROCESOS ESTOCÁSTJCOS y MOOELOS ARIMA 209
~.:.:~;;suponien- ~ecomprueba si cada r; (k = 1,2, ... ) cae dentro del mismo. En el caso de que
':':t;.io 'k caiga fuera del mencionado intervalo, se rechaza la hipótesis de que Pk = 0,
: que se traduce en que hay evidencia de que la serie no es aleatoria.
'.Jráficamente, suele trazarse una sola banda de confianza, paralela al eje de abscí-
:...!. entre los límites ±2/--./i, y se comprueba a simple vista si todos los rk calcula-
: , veces el error .:.: ó a partir de la muestra están dentro de dicha banda.
~~.:.k> 1. Apli- Hay que tener presente que la fórmula de Barlett es sólo aproximada y que.el in-
.=:-.-aJocorrecto puede llegar a ser en algunos casos, para valores de K muy bajos,
- .::..s:a la mitad del que arroja la fórmula. Por 10 tanto, el hecho de que todos los
':':.:-res de 'k estén dentro de la banda ±2/..{r no garantiza el cumplimiento de la
:_::-6tesisde ausencia de autocorrelación, especialmente para valores bajos de K.
p. = E(X¡) = O
'Yo = var (X,) = (J2 (7.14)
'Yk = cov(X(, X,+k) = 0, k = ±l, ±2, ±3, ...
Por ejemplo, éste es el proceso que se admite para el término de perturbación
. ~~l.::: 0,29 ,--:;_:oria de un modelo ordinario de regresión lineal.
, ~1 ':::1 este proceso, el correlograma se reduce a un segmento de longitud unitaria so-
7:~ el eje de ordenadas, lo que muestra que no existe dependencia estadística alguna
k :-:~e los valores desfasados en el tiempo. La información histórica no tiene ningún
~:: para predecir el futuro; el proceso no tiene «memoria».
algebraicas adecuadas. Este hecho permite, en definitiva, utilizar con series no esta- =~. general, un ¡:
cionarias los procedimientos de análisis diseñados para series estacionarias. :..: - ~;:>eracionesd
Examinemos algunos casos típicos. .-::..¿.-. .'1.
::: ce señalar qu.
7.6.1. Procesos no estacionarios homogéneos ...:: .:..:-e:-encias ade:
;_- ,.-;corto 0, por
A las series que presentan una tendencia lineal se las somete a la siguiente transfcr- =- :"::;'strumentoe
rnación: :-'-.:::; simplement.
::. ..:.:orma en que
X( - X¡ _ 1 == t:..x, == ZI' :-.:~.ar el orden.
El símbolo .t:.. denota incremento yes un operador t, cuya relación con L, el opera- -, ziodelizar se:
dor de retardos definido en 4.3, es, evidentemente, .....
: .: .os procedía
..:::.:;:;.;:ia, como :~
.t:.. == 1 - L. -::~:-::;del campar.
Si XI muestra una tendencia lineal, la primera diferencia de la serie, Zt, ya no ir.- _ ;-".:-.)el análisis,
corporará tendencia, según quedó comprobado en (2.3). En tal caso, se dice que X. _. _;,:-:anzade la s.
es una serie temporal homogénea de primer orden o integrada de primer orden. ~=-:.:-~ necesaria 5
Análogamente, si X, presenta una tendencia exponencial, ya se vio en 2.5, ecua- - ~ ~. pueden ene.:
ción (2.23), que, para eliminar la tendencia, se halla primero el logaritmo de la serie. :.= .ez.dencía fren:
y luego la diferencia primera de la nueva serie así calculada. Es decir, si Xl presenta
una tendencia exponencial, - 1':. Paseo alear
t Son muy conocidas las transformaciones Box-Cox, propuestas por estos autores en «An Analysis e:
Transformatíon», Journal 01 the Royal Statistical Society. SeriesB, 26, 2, 1964.
PROCESOS ESTOCÁSTICOS y MODELOS ARIMA 213
:::poral k. Lo primero que conviene hacer es eliminar la tendencia de la serie, ya que, de otra
:'crma, la diferencia entre los datos relativos al mismo mes (o fracción de año) sería
s.gnificativa, sin que ésto implique evidencia de variaciones estacionales,
(7.17) Si los datos son mensuales, la diferenciación estacional consiste en calcular
:-'.merorden. (7.18)
~:-=nciastiene
Con datos trimestrales calcularíamos
::.::ónde dife-
.::erto grado, Z( == XI - Xt-4, etc.
;.:.e suele pro-
Este procedimiento se basa en el modelo clásico aditivo de descomposición.
'. se denomina Si después de efectuar esta transformación la serie sigue presentando evidencia de
,"--¡adanes estacionales, es posible aplicar de nuevo el procedimiento, es decir, cal-
: ..:.:ar las diferencias de segundo orden, y así sucesivamente. "'OO'
:..::onariedad, suele
~que el comentado
~..:-.i!ogamente,si se opera una diferencia de segundo orden,
De aquí que
(7.19
y, así, la predicción de X realizada en el período T con un horizonte de 1 período e,
(7.20,
Análogamente,
Una vez obtenida la predicción '2T(/), la correspondiente a la serie original es -:"~ ::-.
t Véase NELSON, CH. R. (1973): Applied Time Series A natysis for Managerial Forecasting, Holden-Day. ',~ :':_i::_¡
Inc, 1973. págs. 161-165. : ¡~.:';-.:-'¡'~:
PROCESOS ESTOCÁSTICOS Y MODELOS ARíMA 21 S
- ::::¡de
(7.19)
.:':::rede 1 período es ~ -"-varianza del error de predicción correspondiente a ZT(I), que se puede estimar
(7.20) .:~ -=-se expone en 7.17.
!.':emás, la varianza del error de predicción de X,
:::ación:
. - 2XT_1· var [eT(l)] = exp [22T(/) + var [e~)(l)ll [cxp var [e~)(l)] - 1} .
.-~:::o ilustración de lo que precede, se va a mostrar aquí el proceso seguido :j: para
z-:..:.~:onarizar una serie mensual real, las pcrnoctaciones de viajeros nacionales en
: ::-=:-esde Málaga, 1974.7 (Julio) a 1986.5 (Mayo), que designamos por PERNA.
a serie original es = bsérvense en la figura 7Alas fuertes oscilaciones estacionales y la falta de esta bi-
. .:..:':en la varianza, que aumenta sensiblemente con el tiempo.
?ara estabilizar la varianza se utiliza la transformación logarítmica, definiéndose,
~: . 'a nueva serie
LOPNAt = In PERNA,
En la figura 7.5 puede apreciarse una relativa estabilidad de la varianza de la serie,
~_-=':andoaún remanente una fuerte estacionalidad. Para eliminar esta componente
(7.22)
. ~ supone que la distribución condicional de X;+I dado I, es normal, con esperanza Xt(f) y varianza
¡_:.: a la del error de predicción.
: ::';:e ejemplo está extraído del trabajo de ÜTliRO, J. M., yTJ(UJILLO. F.: «Análisis estadístico de la acti-
-d::a,tíng, Holden-Day. ·.zad turística en Málaga 1974-1986». Premio a la Investigación en la Universidad de Málaga, 1986.
=::. .rccinado por Surbega, S. A. Para la realización de este trabajo se utilizó el software RA TS.
'!
¡
216 ECONOM.ETRíA. SE:RlliS TEMPO&AI.ES y PREDICCIÓN
x 1000
500~--------------------------------------~---
400 _;
F:.:. :
I
I
300
200
100
Fig. -,,,
11.6
V \1 \
,
V ...::. :--~: :-:¡aria la nueva serie ::-
¡¡"l I
V , ;_":":-:~.
negativa, por cu~.~-:~
. :"..::.ante.
10,8 -I...__,..., T", ......... , ' ' ' 1' ' ' -.......,~ . .,.."'....--r! ...., ..,.,...., ':."" ..." """"'1"'" ...,...
........,....,,....,.•...........,.,...,.,.............,....,.....•........,.1.............., ,-, ........--
1976 1978 1980 1982 1984
Fig. 7.5. Gráfico de LüPNA (1974.7 a 1986.5).
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 2]7
FILOPNA1 = (1 - LI2)LOPNA,,
.:~
.• ....J
.. ~ I
:::~
1984 1986
.:.-
l'IAx 'JALIJE:.
I
{, ~~...-~+, ..........- .......+1......~+ l.............++~...,.+ ,.+.. +1'+" +'+ ~+.....'...."'.~+
i:, , f',
:/ A
_o
ti ~ ro
A
.. ~.
7 A
A
'"
so ~ A
",
il
,
• >
. Á
A
A
(\
1" ;',
!~,
!l. +
1 +
, A
¡,
¡e H
'9
•.
.
20
1\
'¿¡ A
11
2:: A
:':. A
:'4
:::e.: ",.,11'
..
...
~¿.
ZJ .)
:'"1
A
:'9
Q
,\
'1
A
A
1.000(>
r, ..
-110-+_ •• +++..++ ~+.+1,++,......++ ..... +-+ .... ++++++-+ 4--+-- .. +,* ++4....
,.++,.... ,..
• " A
" A.
~
..
....
A
:¡ 11
A
b
7 + A
8 A
..
9
:0 .. A
A
l.
!;!
1:;
... A A
A
....
H A
.1:;
16 " A"
1"
.. ·A
·A
....
18
11
'9
¿I) (\
.
21 A
j. 22 ., A
:?"= ~ "~
.
2. + A
2:>
~6
+ '" • A
':'7 A
~B 'A
2.
;;0
31
37.
'1
"A. . ~
33 'A
3.
'ss A ..
(\
'1, A
3~·
"A
l .
PROCESOS ESTOCÁSTlCOS y MODELOS ARIMA 219
0,8
0,6 -
0,4 -
+
0,2 -
0,0 AA h ~ ~f\ ~"' f'¡ 6n
~
f'l ~
-:
~
~ ~ ~ '~ ¡ni \
~
-0,2 - '"
-},4 -
- :',6 -
- :.8 1 I 1 I I 1 I I I I I
:>,.. JJ.I.lJJJ.lJJ.lJ.lJ.lJJJ..IJJ
1976 1977 1978 1979 1980 1981 1982 1983 1984 1985
Fig. 7.9. Gráfico de DFILOPNA.
.... -- ..
A
(7.::
Volviendo a (7.24),
Definiendo
(7.2~
se tiene:
(7.:9
PROCESOS ESTOCÁSTICOS y MODELOS ARIMA 221
-.8.1. Estaciooariedad
::as condiciones de estacionariedad de X, en (7.24) se derivan de las condiciones ex-
1Sbajo el enfoque de Box- 71estas en (7.5) y (7.6), que se transcriben a continuación:
m (AR), el de medias móvi-
E(Xr) = E(X( _ 1) = ... = E(Xt _ k) = P. < 00
fine mediante la expresión 'Yt,t+k = E[(Xt - P.)(X(+k - 1')] = 'Yk < oo ,
(7.24) Tomando esperanzas matemáticas en ambos miembros de (7.24) se tiene:
istantes y {et J es un proceso l' = {)+ 4>11'+ 4>21'+ ... + 4>pl'
ida con todas las X¡ _¡ para
1'=-- --, (7.30)
te define mediante 1- 4>1 - 4>2 - ... - 4>p
(7.25) • para que l' sea finita, es necesario que se cumpla
(7.33)
y, así, para que se cumpla (7.36), es necesario que ~epi sea convergente, es decir,
ec
(7.38) Queda así justificado
~.39), ¡<pI < 1, equiva
por lo que
tal y como se expresó
I~I< 1. (7.39)
cuíer orden, ecuación
Volviendo a (7.35), se puede escribir De acuerdo con los c
- .33) puede contempla
E(X;) = E(€f + epet _ 1 + ep2Er_ 2 + ... )2. :acterística
vi -;é ° de donde
se tiene:
de modo que exigir com
aer que
y puesto que Ecd-¡) = <1;, vi,
E(X:) = <1;(1 + ep2 + cJ¡4 + ... ). ~e coincide con lo qu
-iámica.
De aquí se obtiene la condición de estacionariedad, Todo lo dicho para
para el proceso AR(p)
(7.40) Antes de pasar a exp
rregresivos de orden su
el proceso autorregresiv
para lo cual es preciso que se cumpla que
lepl < 1.
<1, + ='x» + g = IX
't!Inu ou mpatn op OA!S~l~~llOlm~ose
raraduroo fi. U9!S~lgsTP snn lt!ZHe~l t! sonrax oronrtrd III rouodns uopro sp SO,'-
-Ol!_lllsosooord so] op pepotreuopersa sp SaUOp!pUOOSt!llaUodxa -e rasad ap s; - _o!')
o~o!pu?de P uc (d)lIV oseoord ~
Opt!'Z!1t!l~U~~Y1S~uapro ronnrd op OA!S;>~~1101n-eosooord 1~arad OtP!P 01 .,
o( ° •
'1> Izl
a-
-odun e ~ft!Arnb~ T > 1t{>1 anb popeunuopoise ep UPP!puo:J ouroo I!g!X~ snb opc
't{> =Z
llOnS!-JW 'z{ .. °
-eo u9!o-enoa ep 'oo!myu!p oppom un ouroo <>lU<>m¡t!mloJosrejduraruoo apand ~- _
uoroanoo 131'f opujdso Id no soisandxo t!0!illYU!Pop soidoouoo so¡ uoo opl;;>noe;.,;:
o(Z;t"L) u9p-enoa 'uapro -
-jano op SOA!S~Jg~JJO:JUllsosooord arad Sdft!l~U~a SOU!WJ?l Ud osardxa ~S ouroo
t{>
(ZvOL) '-=7
I
uotorqos -el euouqo as apuop T.
7</> - I == (7)</>
onb os-eo dlS~ tIO t!llns~l '(8Z'_ (Lf' L)
U~ l?p!'.>np0.I1UrlRl~U~~ U9P1?lOU t!} uoo opronoa <>Q 'eUlIOJ ano ap (6('L) U9P!PUOO
-e onmt
el resordxa aU~!AUOO'lOPddns uopro op SOS;}OOlde u9~O-eZn-eJ~u~gns -e S'I!lS!AuOJ
-uopro 1~Ul!Jd
~p OA!SdI8dlloln-e OSdOOJdl~P nq?p pepeusuopeisa ap dludPUns Ii. -epBS;}'.>~U
U9!.)
-!PUOO'l!lop ''I!A!l!U!J~PU~ '1?llHl;}S onb 0IIod '(6f' L) uoo dP~OU!OOU9!:l!PUOO'l!lsg
con el modelo autorrcgresivo de tendencia, ecuación (2.27). Obsérvese que arnba: _..:.~ondición necesar.
expresiones son formalmente análogas. Sin embargo, estos modelos se aplican a ~t·
ríes cuyo comportamiento es bien diferente. En primer lugar, aquí se exige q::!
1<p1 < 1; en cambio, en (2.27) el parámetro equivalente, 'Y1' no puede ser negativ; _;l..:. fuera del círcu.:
en tanto que sí puede ser mayor que la unidad. Esto significa que las series a;;:.; .:::~~condición coinc;
que se aplica el modelo autorregresivo de tendencia pueden ser no estacionarias, pe- :..;_:;z e segundo orden, ~
ro son series primarias (brutas), y los valores de la variable son siempre positivos .: ~;e han de cumplir
En cambio, las series a las que se aplica el modelo estocástico autorregresivo suele:
ser series estacionarizadas (después de eliminar la tendencia y otras componentes de- <PI + 0:
terministas) o series residuales, por lo que a menudo presentan valores positivos :.
negativos, pero hay otra diferencia notable, que conviene destacar. En las series :: . _~ .:::plican, a su vez.
las que se aplica el modelo autorregresivo de tendencia, la componente determinista
detenta un elevado porcentaje de la varianza total de Xt, en tanto que en las serie!
a las que se aplica el modelo estocástico autorregresivo, el término de innovación.
€t, posee un peso notable en la variabilidad de la serie (véase la figura 7.10). - .~.::. Función de autoc
\/·.Jriplicando ambos
:.:.:::nbién
'Yo
\1ultiplicando (7.48
o o 1"
Fig. 7.10. (a) Modelos autorrcgresivos de tendencia: XI:; 'Yo+ 'Y,Xr-1 + Uf; 1'1 > O. :)e la misma manera
(b) Modelos estocásticos autorregresivos: X, = Ó + ~lXr-¡ + Er; 14>1 < 1. : :::-.os:
1"2 ::
PROCESO A UTORREGRESIVO DE SEGUNDO ORDEN AR(2) 'Yk =
A título meramente ilustrativo de la condición de estacionariedad expuesta en
Esta ecuación mues
(7.32), consideremos el proceso AR(2):
::-:·.iaciónen diferencia
(7.44) ~.::ocorrelaciones, com
PROCESOS llSTOCÁSTJCOS y MODELOS ARIMA 225
Obsérvese que ambas :_a condición necesaria y suficiente de estacionariedad es que las raíces de
:-jelos se aplican a Se-
~. aquí se exige que (7.45)
e puede ser negativc .
.l...~an fuera del círculo de radio unitario.
:a que las series a las
Esta condición coincide con la de estabilidad dinámica de la ecuación en diferen-
:: no estacionarias, pe-
:~::..~
de segundo orden. discutida en el ejercicio 3.5. Las condiciones correspondien-
~.:>nsiempre positivos.
~': que han de cumplir ePI y 4>2 son, por tanto, análogas a (3.58),
zutorregresivo sueler.
e.ras componentes de- <PI + 4>2 < 1, <P2 - <PI <1 Y r/>2 > - 1, (7.46)
:an valores positivos :.
estacar. En las series a ~_~ implican, a su vez,
::-.ponente determinista
.anto que en las series -2 < epI < 2 y <1>2 < l. (7.47)
errnino de innovación.
~~ela figura 7.10). -.8.2. Función de autocovarlanza
:..::...;
funciones de autocovarianza y de autocorrelación (f.a.) de los procesos se utili-
:":':1 para aplicar la metodología Box-Jenkins en el análisis empírico.
Sea el proceso autorregresivo
(7.48)
: .ambién
'::Xr-1 + Ur; Yl > O. De la misma manera, multiplicando (7.48) por X, _2 Y por X( _ k, para k ~ p te-
:~Xr-l + El; 11/>1 < 1. ::emos:
. se utiliza la siguiente Como el valor de p es desconocido, se plantean sucesivamente los distintos casos:
:e Yule-Walker de ta-
'YI
(a) p = 1; de donde 1>11 = -A-'
A
epi
ep'}. .&'¡i
(e) p = 3;
[i;] [ ~o
'Y1 1'0
A
'Yz
~
1'1
1'1
~'J[!,,]
1'1
-Yo
epZ3'
(/,33
~ epp
(7.60) t Despejando,
2
epp+ 1
rPp+z
i ~13 j
r/>k
[
CPZ3
(/,33 Jr
de donde se obtiene (/,33'
.;: solución única, pues De manera análoga se determinan (/,44' éi>s:s, etc .
. _:' ... , rPk se igualan La sucesión
Dado que las soluciones de los cf>i dependen del valor de k, se utiliza la siguiera Cozao el valor de p es d
notación: cf>ik es la solución para cf>idel sistema de ecuaciones de Yule-Walker de lZ>-
maño k. Se acaba de demostrar que, si k < p, cf>ik ~ cf>i' = p= 1;
Obviamente, para k = p, cf>¡k = cf>i' Queda por ver qué ocurre cuando se especifica
que k> p. En este caso, resulta que cf>ik = O para i > p y cf>ik = <Pi para ¡ <».
Ésta es una importante propiedad para las aplicaciones prácticas, como se \0c:-:.
más adelante. Esta propiedad puede justificarse como sigue: escribamos el sistera,
de ecuaciones de Yule-Walker para k> p
- p = 2;
[~:J
'Yl 'Yo 'Yl 'Yk-l cf>l e p = 3;
G:J
'Yp-l 'Yp
'Yz 'Yl 'Yo 'Yp-z 'YP-l 'Yk-Z cf>2
cf>p
:lespejando,
'Yp 'Yp-l 'Yp - 2 'Yo 'YI 'Yk-p
= 'Y¡
(7.«
'Yp+ 1 'Yp 'Yp_ 1 'Yo 'Yk-p-I <Pp+
[
1
9
'Yp+2 'Yp + 1 'Yp 'Y2 'Yl 'Yk-p-2 cf>P+2
~
9
'Yk Y« -1 'Yk -2 'Yk-p 'Yk-p-l 'Yo ePk
-= donde se obtiene (/J33'
Éste es un sistema de k ecuaciones con k incógnitas que tiene solución única, pues ::>e manera análoga se d
la matriz de covarianzas es no singular. Obsérvese que, si cf>p+ l' ... , ePk se iguala; :..a sucesión
a cero, cada una de las ecuaciones es de la forma
.. 1 ~- . J
-,
~ - j "
\ '-,.~ '~I
.. p = 3;
Ui] [?'
1'1
-Y1
-Yo 1'1
'Y2 1'1 -Yo
~,][~"l cf>23'
if>33
~pejando,
(7.60
~: ;:] -1 [;~],
F.a. F.a.p.
tPkk
1,0 1,0
k k
-1,0 -1,0
1,0 1,0
-1,0 -1,0
(a) AR(I)
P/r (/>/rk
1,0 1,0
k k
-1,0 -1,0
1,0 1,0
-1,0 -1,0
1,0 1,0
-1,0 -1.0
1,0 1.0
-1,0
(b) AR(2)
7.8.4. Conclusiones
--- k
'1
j
~
es la primera etapa del procedimiento de modelización Box-Jenkins, que se conoce
con el nombre de identificacián t, y de la que nos ocuparemos más adelante, en §7.13.
La figura 7.11 recoge esquemáticamente las formas de estas funciones para diver-
sos procesos autorregresivos de primer y segundo orden.
(7.63)
i=l
(7.64)
.;. Adviértase que el término «identificación» guarda en este contexro un significado diferente al emplea-
do en Econometría (véase pág. 318).
::. WOLD. H. O.: A Study in the Analysis 01 Stationary Time Series. Almquist and Wicksell. Uppsala,
Rll). . 1938. "
232 ECONOMBTRÍA. SElUES TEIIU'ORALES y PREDICCiÓN
7.9.2. lnvertibilidad
Así como los procesos AR(p) admiten una representación MA( eo), cualquier proce- :.)nde
so MA(q) puede, bajo ciertas condiciones, expresarse como un AR(co). Estas condí-
ciones se denominan de in vertibilidad. O(
..;::ene que
t Ésta es la forma en que suele traducirse a nuestro idioma el término inglés «principio de parsimonia .
referido al análisis de series temporales. En la literatura científica anglosajona esta expresión goza ce
una fuerte tradición, Aunque el «principio de parsimonia» fue invocado por primera vez por Durar.; ..::.condición de inve
de Saínt-Pourcaiu (1270-1334). teólogo dominicano francés, William de Ockham, escolástico medie-
val, lo usó con tal frecuencia y de forma tan aguda que en inglés se lo conoce también con el nomb-e
de «Ockham's razor». «Parsimonia», en latín significa «frugalidad» (significado que no se conserva
en castellano). Por eso en inglés el principio de «parsimonia. se denomina también principio de econc-
mía, expresión que podríamos usar en nuestra lengua sin ningún inconveniente. .l..;an fuera del círcu
PROCESOS ESTOCÁSTICOS Y MODEWS ARIMA 233
co
Sea, por ejemplo, un modelo MA(l):
, preciso que _6 of sea
í= 1
sean decrecientes a par-
De aquí que
: una aproximación de
:-.a una buena justifica-
.onariedad del proceso
:-á.:tica estamos aproxi- y también
.as móviles, es de espe-
condíción, que parece
)-B¡L=O
cumple que ILI > l. Esta condición se denomina condición de inuertíbitidad del
::-orden, véase la ecua- proceso MA(l). Obsérvese que, si 1811> 1, entonces la contribución de los valo-
je manera que sólo p
res pasados de X al valor corriente, XI' crecería con el lapso temporal. Esto se-
:. parámetros libres. ría poco realista, y la representación autorregresiva carecería de sentido. El caso
: .ambién una aproxi- .el = 1 es un caso límite de «casi invertibilidad», que aparece, por ejemplo, en
procesos estacionarios que surgen después de aplicar diferencias finitas a proce-
e= varias alternativas. sos con términos deterministas, tales como una función lineal del tiempo (véase
~:ode parámetros. Es- 7.15.1) .
etrizacián escueta t.
...... En general, para un proceso MA(q) de media nula,
se tiene que
~:::ncipíode parsimonia»,
:::a. esta expresión goza de
.: primera vez por Durand y la condición de invertibilidad es que las raíces de
::óaro, escolásticomedie-
-:e también con el nombre
:""';adoque no se conserva 8(L) =O (7.66)
..==-ién principio de ecollo,
~=:l(e. caigan fuera del círculo de radio unitario.
- --.----~--------------------------------------~==~
234 ECONOMETRÍA. SERIES TEMPORALES Y PREDICCIÓN
(7.0
la varianza es
(7.~
puesto que
vi sej.
1'0lL
Análogamente,
-1,.1 j
(7.6~
1,0
En general, se tiene:
q
'Yk= -C1;Ok+(J; I; ()¡_kO¡; k = 1,2, ... , q. (7.7C
i=k+ 1
-1,0
Para k> q, obviamente,
(7.7! 1,°11
y lo mismo ocurre con la función de autocorrelación (véasela figura 7.12). Este últi-
mo resultado tiene mucho interés práctico, pues se utiliza para identificar el ordez
del proceso de medias móviles que se ajusta a una serie temporal dada, según se ex-
-1,01,
plica en 7.13.
Antes de pasar a la f.a.p., vamos a proporcionar una justificación del decreci-
miento de los (J¡.
La matriz de varianzas y covarianzas,
I,°h
-1,0
'YO 'Yk],
[ 'Yk 'Yo I'O~
debe ser definida positiva. Esta condición implica simplemente que no se presenta
nunca una correlación lineal perfecta entre X, y X, _k (k = 1,2,3, ... ). En efecto
si V(XtXt _ k) es definida positiva, -1,0
1,0 1,0
(7.67)
k k
(7.68)
-1,0 - L,O
1,0 1,0
.
~ .' == -1,0 -1,0
(a) MA(l)
(7.69) P/c rPklc
1,0 1,0
. q. (7.70) k k
-1,0 -1,0
1,0 1,0
(7.71)
-L,O -1,0
1,0 1,0
.~ que no se presenta
:.3, ... ). En efecto,
-1,0 -1,0
(b) MA(2)
Hg. 7.12. F.a. y La.p. para procesos MA(l} y MA(2).
236 ECONOMETRÍA. SERJES TllMPOR.Al.F.S y PREDICCIÓN
por lo que
es decir,
6(L) = O.
De aquí que
II(l - W¡L)-lX¡ = él
i
-:ro - el proces
: ~o..:.:!
.l: :: ""::;:05 términos
- : lo ~. InverHbilidad
_~ -:-::Jación(7.76) p
resultado de interés para identificar el orden q del proceso a partir de la La. mue:
tral, como se ve en 7.13.
PROCF.SOS ESTOCÁSTICOS Y MODELOS ARIMA 237
-.10.1. Estacíonaríedad
po == - ._-
o
--- ._-,
I - <PI - eP2 - ••• - cjJp
(7.75)
(7.76)
::-_donde
(7.77)
- -
(.. -~
;or lo que el proceso ARMA(p, q) es equivalente a un proceso de medias móviles
de infinitos términos con p + q coeficientes independientes.
..ene infi- Al igual que para los procesos autorregresivos, la condición necesaria y suficiente
::.identifi- de estacionariedad es que cp(L) -1 sea convergente, para lo cual las raíces de
O(L) = O
caigan fuera del círculo de radio unitario. Ésta es la 'condición de invertibilidad .:.,
proceso, análoga a la ya expresada para el modelo de medias móviles.
Las condiciones de estacionariedad y de invertibilidad son independientes.
Obsérvese que, para k > q, la parte debida a la media móvil se anula en esta ~!.
presión, ya que E(Et_¡ft_j) = 0, vi =i. Esto significa que la f'.a. de un preces:
MA(p, q) se comporta igual que la de un proceso autorregresivo a partir de k> c'
es decir, que disminuirá exponencial o sinusoidalrnente, con posible apariciór, ::
dientes de sierra, dependiendo de la raíz de mayor módulo de la ecuación en dife~::-.
das finitas a que queda reducida (7.79),
c.~:
En cuanto a la f.a. p., si p > q, se comporta como la de un proceso MA desp ;e.
de p - q retardos, es decir, con decrecimientos exponenciales o mediante oscilac:r-
nes amortiguadas.
La figura 7.13 ilustra algunos de los resultados que se acaban de comentar.
: a un proceso a:_:: :
::.es. Para que (".
que las raíces -"
,.
La. F.a.p.
~~:
!o"¡
=-_0viles.
1,0 1,0
:':'ependicntes.
D parcial (f.a.p.. k k
; ~ comporta COFo.:
¿_. tendrá tambié;
-1,0 -1,0
ARMA(p, '1
..:e50
~I (con /j == O) pc~ t ,0 1,0
-1,0 -1,0
1,0 1,0
anula en esta ex-
ó. de un procese
• partir de k > q,
:'::,leaparición de -1,0 -1,0
ación en diferen- 1,0 1,0
(7.80)
eso MA después
-1,0 -1,0
2ante oscilacio-
1,0 1,0
:'e comentar.
-1,0 -1,0
entonces
A -1 == (1 - L) -1 == (1 + L + L2 + ... ) == 1;. :
(7.~.:.
en donde s = 4 para datos trimestrales, 12 para datos mensuales, etc. Es posible q;.::
después de la operación de diferenciación estacional, la serie Z¡ resulte ser estaciona-
ria (en la práctica, lo seria s610 aproximadamente). Entonces se puede aplicar a Z ,'f
"
cualquiera de los modelos estudiados para las series estacionarias, AR(p), MAl.;-
o ARMA(p, q). -: : _~:'e escribir
En este último caso, por ejemplo, se tiene:
.acionarías des- ::5 posible que para conseguir la estacionariedad sea necesario aplicar d dife-
:. serie original. .::-:~:asjunto a la diferenciación estacional. En tal caso, Z¡ sería ARIMA(p, d, q),
: . .:eClf,
(7.81 (7.87)
~.:-adode media
-,12.1. Modelos autorregresivos estacionales
: ·.:naoperación
-=-~abajandocon datos mensuales, por ejemplo, es factible que X, pueda expresarse
'::: función de X¡ -12 (el valor correspondiente al mismo mes del año anterior), de
(7.83)
::>rma que
en:o de la dife-
o bien
(7.84)
(7.89)
Es posible que
= ser estaciona- Definiendo
:.':e aplicar a Z( 1J
(7.90)
_-\R(p), MA(q) 1;
,1
se puede escribir
(7.91)
(7.85)
Para este proceso, la f.a. se comporta como en el caso del modelo AR(P), pero
a intervalos de s retardos; en los retardos intermedios vale cero (véase la figu-
(7.86) ra 7.14).
0,7
0,49
0,35
4 8 12
116 k
XI = €t - SEr-s>
(~'.:.'-
° bien
Definiendo
se puede escribir
X( = 6(L h. J (7.~~
La f.a. de un proceso de
medias móviles estacional tiene el mismo comportamíec-
to que la f.a. de un proceso de medias móviles ordinario. Así, por ejemplo, para :.:.=
L.,._
sojspour sp U9!:)E:l~.mU;)P!131dJqOS S~\fP.¡Opsaur EJEd 'Sdldw!s sojopour soj dP E[ onb un I:1red'OId::.
l!:lB!P saur oqonur E:)!l:l'~Jd E~U~ 'B¡[nS;:JlsOA!l'B:)Hd9Inw sOI;:¡poUJsOLap U9!::l'B:l!Jpuap! -uaurrmrodurc
11'] 'U9p'B[;}lJO:lOln-e ap souopnnj S131 UO;)orod 'oursnu O} armoo 9l' L Em~u l1l ua
.ti < ')(nrad ul1lnuu ¡)S lepred U9Pp.\allO:lO¡n\! op sauorounj se} 'sr L I:1Jn~UEl ug (176' L)
'ZI = s arad U~pJO I~UJpd op SOA~l'B:>ndprnUJsdlenOp'B1Sa sorapour ap ¡l1pl'Bd U9~:l
-'BlallOOOlue al' 1.. U9pC¡allo;)O¡ne ap souorounj rrmncsardar 9 I L Á. 5;T'L s'BJuii!J S13'1
(€6'L)
.. u9l~;aJdxa 'El e opnodsar "er 'I 'O) x (I '1 'r)VWHIV oppoUJ la 'o}dma~¡) IOd :;l sa
'S(O)'\'l\
(L6'L) .;(r)vw 'uap::
(96'L)
. rod op~u!.:
-op ;)Ua~h seO'a 'cJ)vwnrv ['BUO~:)~lS~orxrtu oparñonn OS3:l01d p ';nu"UI'l:?~oIYUV
'aluaIUeA!l~ds;u '(f:6' L) Á (06' ¿) Ud O\UO;) (r7)9 Á (s7)<.p opuaunjar
(5;6' L)
8'0- := '<1>
8'0- '- Itp
8'0+' = Iof>
o 8'0-:::. 'tp
8'0- ..,.,
Iof>
s'o+ :- ,~~
j-
1-
8'0..1 = ti{>
8'0+ = 19
• °U9!:)
-- _:;:u;:>p~ns ap soiooja a VW"RV sosooord cp J1mopul~ el fi. lUlrillóll óllUóluodwoo ul
.,'.;; U9!O:)-el~1U~ Uf 'P.zrr-euu onb 't -eY;:¡d f.. 'S~U~¡U~ ap SOIll¡¡U;;>illOO SOSl;:¡AfP uoo SUl
-i:_: ;¡P U9!:)O;}{OJ suanq mm ;:>fi.npu! en b '.j. él}'epu-e A ólslUllnsuo:) opcnd S;)l13UO~013lSél
'1'
!'
F,a,p.
~l = -0,8 O-l-'-----L..L.O--....
t.~J = -0,8 12 k
1- 2
k
:":= -0,8
-70: = +0,8 O O+L~~~~~~~~~~~~~r'--
36
~: = +0,8
O
= -0,8
4- 36
": = +0,8 o+n~~~~~~~~Tn~~~r/_.
- = -'-0,8 °
:""!UJS Económico:
'
,~.
,
,
'
~:adesarrollada por Box y Jenkins para la predicción de series temporales.
Esta metodología consta de cuatro etapas: identificación. esttmacion, validación
:.predicción.
246 ECONOMETRÍA. SERIES TEMPORAt:ES y PRliDJCCJÓ.N
~J I
••
r
t
r
I
r
I I! , , ,.. 0' 1111,
I 20 k I I
I I1I ! I!
I
1 I
I I
I I
I I
I I
-1J.. ·-11..
(a)
~~¡ '. ,
I
I
I
I
I
r
o~wuuuwu~~~~~--~ O'
I 20 k I 20
I I
I
I ,
I
I I
I I
I I
)1.. -1..1.
(b)
I
I 1"
k
. 20
,
.'
-11..
(a)
."J (
I
---
20
..... k
o~ULWUWUUUUW~~~~~~
I
I
20 k
.!I
I
11
20
.. k
I I
I I
I I
I I
I I
-1 j_ ·-11..
(b)
.~X'_l + E/.
Fig. 1.18. F.a. y La.p.: (o) muestral;
(b) teórica, del proceso simulado XI"" O,SXr_1 + O,3Xf_2 + Ef'
=1Análisis de Se-
. y parecido al de
idueir. a partir de No obstante, en la práctica, debido, entre otras cosas, a la aparición de los errores de
:-5 de los que apa- muestreo, identificar modelos que describan aceptablemente comportamientos econó-
cas de la serie. Ya micos reales no suele ser una tarea simple. Obsérvense, por ejemplo, los casos represen-
'mas vienen en úl- tados en las figuras 7.17, 7.18, 7.19,7.20 y 7.21. Estos casos se han tomado de Ander-
:., los autorregre- son t. que incluye un conjunto más numeroso de figuras, cuyo análisis recomendamos.
::-0), sino también
1;:segundo orden
.stintos de cero). t ANPllRSON, O. D.: Time Series Analysis and Forecasting. Butterworths. Londres, 1916.
--- .._--
248 ECONOMETRÍA. SBRIES TEMPORALES y PREDICCIÓN
o, 1
":1 I
I
I
I
I
I
I
OLI~~~~~~~rU~~~ I I I , k
k i I I '11 1I 120'"
I
I
I k---
°111"I k-
I I
I I
I
I I '. .1
-1,J_ _}.1.
(a) . ....
o(
"'J I
·T
I
I
I
I
I
.) 1I
I
I 01 I
o~--------------------~ ... k I
I
I
20 k
0: 111'1' I " ..
20 1
I
k-
I I
I I
I I I
I I _ 1.1.
I I
_I..L -11.. '::' -.:0, F.a. y f'.a.p.: (al :-
(b) (h) :~
~"!1
I
I
tr .
1
I
1
----------- I
:'1 I JI I
I
I
1 O i I i .. k
I
! 120• k I 20 k 01 I 10 I 01 20
I
1
1 I k-
I ¡
1 I
I
I
I
I
.~
~
_1..1
Pk
(a) -1.1
4>k"l ¡
~ 1
'- 1
I
I
tt I
:~. 1
:'~
O 01: 1 11I I
I
I I
lit
I I ••
20
.. k
I 20 k i ••
......
k I
20 I I k-
I k- r
I I
I I
¡ r
_.}i (b) _}.1
· :.:. ESTIMACIÓN
.':1 I
·__;,~:-ies procedentes del ámb:
-._. !.Si que ante todo hay que
_ .'.~ hay que realizar d opera;
I .r: .!.~:,:lOes.
I
I ~:-. consecuencia, si el núrne
I · . :.!.::ón del proceso que ger.;
I
I · L:~--:-_etrosde un proceso AR~
O~IWW~~~-L~~~~~~ O
I
I I : ~~ admite que las ~r se d;
I I ~-: ': varianza constante a~, S
I I
I I · . ~..:..:
asociada a los vectores ¿
I I .:~:: ::-1 es
I I
-Ij_ _¡J.
....¡
(a)
L(t/>, 0, "
7.14. ESTIMACIÓN
Las series procedentes del ámbito de la Economía son ergódicas, pero no estaciona-
rias, así que ante todo hay que transformar la serie dada en otra estacionaria. Si a
tal fin hay que realizar d operaciones de diferenciación, se perderán otras tantas ob-
servaciones.
En consecuencia, si el número de observaciones es T + d, después de la iden-
tificación del proceso que genera los datos se plantea el problema de estimar los
parámetros de un proceso ARMA(p, q) a partir de un conjunto de T observacio-
~i ,,.,,..,,,--1....1.... -.. k nes.
20 Si se admite que las €t se distribuyen normal e independientemente con media
cero y varianza constante <1;, se puede obtener la función de verosimilitud condi-
cional asociada a los vectores de parámetros q" (J y <1•. El logaritmo natural de esta
función es
(7.99)
T
S(q,,8) = Z>: = ~
1= 1
(Z( - 1>Z'-1 + (}EI_l)2 (7.100)
t Box, G. E. P., y JllNl(lNS, G. M.: Op. cit. es la referencia clásica. Otras fuentes bibliográficas ;:-:;-::.--
res son las siguientes: ANDl::.RSON. T. W,: The Statistical Analysis of Time Series. Wiley, 1971. F~-_'-7
W. A.: Introduction to Statistical Time Series. Wíley, 1976. -~ -, ,.
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 253
.: :nás despreciable cuanto mayor es el tamaño muestral, esta solución parece acer-
..:.':a cuando se trabaja con muestras de gran tamaño.
La segunda forma de abordar el problema consiste en extender el sumatorio,
~:.~ ejemplo en (7.100), desde 1 = 2 hasta T. De este modo dejan de aparecer los
. z.ores iniciales de Z. Esta solución resuelve parcialmente el problema. porque,
:=':3. vista de (7.101), quedaría aún fO' Un procedimiento usual consiste en igualar a
: ero este valor inicial, con lo cual ya se puede proceder a la estimación por métodos
t.: lineales.
Por último, Box y Jenkínsr han ideado otro método consistente en consi.derar los
. ziores iniciales como parámetros desconocidos y estimarlos conjuntamente con los
,- = :'~!l1ás.Este método es de cálculo mucho más complejo.
I
(7.101 ) ::: planteado en (7.101).
Un método muy utilizado en los programas de ordenador es el de Gauss-Newton.
3. ~ debe hacerse por Para la aplicación de este método es preciso obtener unas estimaciones previas de
crnponente de media : JS parámetros, que se toman como punto de partida para iniciar un procedimiento
::erativo. En cada una de las iteraciones se plantea la minimización de una aproxi-
.ndicion de invertibi- ::-!aciónlineal de la función, que procede de un desarrollo cn serie de Taylor en torno
2:-: seria muy fuerte. ::..la estimación correspondiente a la iteración anterior.
.macíón, con lo que, I Las estimaciones previas, necesarias para iniciar la primera iteración, hay que ob-
:-:emente del criterio .enerlas fuera del procedimiento. En realidad, se puede partir de valores arbitrarios,
*i
érmino elfo sobre la
,~ge la invertibilidad
: '::bliográficas posterio-
::;. \\'i1ey, 1971. Fm.LBR,
+ Box, O.E. P., y JENKTNS, O.M.: Op. cit.
254 ECONOMF.TRrA. SERIES TEMPORALES Y PREDICCiÓN
Además, puede ocurrir que aparezcan soluciones múltiples, es decir, que, arra; _ ..: .I. Análisis de los ccod
cando de estimaciones iniciales diferentes, se alcancen resultados convergentes t¿=·
bién distintos. Para detectar la posible existencia de diversos mínimos locales. -: = f: : ~ coeficientes de pr :.:.~
puede establecer una malla de valores de los parámetros dentro de los intervalos ~.:. _. :-;·.acionariedad y de :.:..
misibles y explorar los valores de la función objetivo para cualquier combinac.: : ~~ comprobación de ::;_~
dada de valores de los parámetros. Si existieran diversos mínimos locales, el míniz : : -ecuaciones (7 A( :.
global se obtendría utilizando el método iterativo, partiendo para ello de unos \"2..:. _.: :: cer a hallar las ra: =-:-:
res (eesrímacicnes») iniciales de los parámetros próximos a la solución.
En el caso de que se presentara divergencia, sería posible que, partiendo de c.: .
conjunto de valores iniciales, se alcanzara la convergencia, pero no se puede aser _. : z.guna de esas raíces '
rar que ésta exista. En tal situación, habría que reespecificar el modelo. _ :, casos límite de ra.z e:
. _.: -'.;raíces sean pró.x.:::-
7.14.3. Inferencias ~_~-:do las raíces de ¿ :..
Las estimaciones correspondientes a la última iteración del procedimiento de Oa'_:,.· -:- -_.=.: esté subdiferenc.: z.
Newton pueden acompañarse de sus correspondientes estadísticos (valores 1, desv:~ ~ .: ;:-·..:ede aclararse ccr; ::
ciones estándar, etc.). Estos estadísticos tienen un significado limitado, por cuer.': : _:·:-ngamos que se t.é ::
se refieren exclusivamente a las estimaciones minimocuadráticas obtenidas en la e:
ma líncalización t. Por ejemplo, con Loserrores estándar de los parámetros puece:
obtenerse estimaciones por intervalos, pero éstos s610 pueden usarse de forma E::-.. .~:: .:!!U de sus raíces e~:~ t
tada. Asimismo, se puede calcular R2, y aunque su valor sea pequeño, esto no si;:. +. : :-~ la unidad). Ento:.::-;
rica que haya que rechazar el modelo. La validación del mismo debe hace: .:-.:
mediante otros procedimientos que son objeto del próximo apartado.
7 ~: .o tanto, el mode.: :
7.15. VALIDACIÓN
Una vez estimado el modelo, conviene analizar los resultados y someterlos a algur.r-
tests antes de hacer uso del mismo para la predicción. Este proceso es el que se de:-.:·
mina ualidacián o comprobación del diagnóstico.
Conviene tener presente, sin embargo, que la validación última de cualquier :":".:-
delo de predicción es la que proporciona la comparación de realizaciones con prcc.: ': serie X¡ diferenciada. :
_¡_
t El estimador dc la matriz de varianzas y covarianzas de los estimadores de los coeficientes corres; : '
diente a la última iteración es un estimador consistente elela correspondiente matriz de varianzas y : .. ..:.serie original era .._.
varianzas asintótica. La limitación se deriva del hecho de que los resultados que se desprenden ce _
teoría asintótica no son directamente aplicables en contextos dc muestras pequeñas.
PROCESOS ESTOCÁSTICOS 'r MODELOS ARIMA 255
:5 a algunos
en donde
~:.¡e se deno-
Z, = (1 - L)Xc == Xt - X¡ _ I
alquier mo-
con predic- es la serie X, diferenciada, que es la que habría que modelizar.
En el caso de que alguna de las raíces de O(L) = O sea igual a la unidad, es posible
~uisitos que que el modelo esté sobrediferenciado. En efecto, supongamos, por ejemplo, que se
s requisitos ha estimado un proceso MA(2), de manera que
(7.102)
:~;;correspon-
~jallZa& y co- Si la serie original era X, y, para estacionarizar el proceso, se convirtió en Zt>
;:~eDdende la
Z, = (1 - L)X(. (7,103)
256 ECONOMETRÍA.. SERIES TEMPORALES y l:'REl:>rccróN
cp(L)Zt = fJ(L)F.¡,
y factorizando,
~Im
P P
TI (1 -
i~ I
A¡Li)Zt = TI (1 - ¡.t.¡Li)f"
i-l (7.1(1-:
(I - L)X, == (1 - 8L)€/_
(7.105
Si 81"'" 1, podría admitirse que 0= 1, y entonces se tiene el modelo detcrmínís.;
equivalente
(7_10{
en donde a es una constante. En efecto, tomando diferencias finitas en éste último:
se tiene:
nr J:::1I~
(7.10-
es equivalente a
es decir, a
_. _. - - '--, __
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 257
(7.108)
con e
== 1.
En general, el modelo determinista polinómico
(7.110)
con
en donde
(7.107)
"t Ln:."'NG,
a., y Box, o. E. P.: «On a Measure ofLack of Fit in Time Series Models». Biometrtka, 65. 1978.
-----------~--------
258 ECONOMETRÍA. SERIES TEMPORALES Y PRELlrCCIÓN
7.15.3.1. Sobreajuste
Una técnica que suele utilizarse para comprobar si el modelo estimado es adecuad:
es la del sobreajuste, que consiste en reestimar el modelo añadiendo un paráme¡~:
más y comprobando si es significativo. Por ejemplo, si el modelo estimado es \:.:-:
ARMA(p, q), se estima a continuación un ARl\I1A(p + 1, q). Con este procedimier-
to se pretende captar la presencia de regularidades en los residuos que no hayan sic:
recogidas en los análisis precedentes. No conviene añadir simultáneamente un para-
l-_
PROCESOS ESTOCÁSTICOS y MODELOS ARlMA 259
_!:~adosde li:::~· :-::etroa la parte autorrcgresiva y otro a la media móvil, pues se podría caer en la
·.~:illlpaque se conoce con el nombre de redundancia paramétrica, que se puede ilus-
.r ar con el ejemplo siguiente.
Supóngase que se estima el proceso ARMA(l, 1)
:::.el orden 1:.
':-.'::'a hace disr:-..:- (7.112)
- - ~:...
1
2
~ :
5
ó +
A
...
1:
lA
...
A....
AA
i
I
Al
...
+-
... 6
1
2
!:
~
1)
+-
+-
..
(\
I
l
lA:
I A'"
A
.... A
': :-:...,-
+-
..
I
f'
(\ -+
.A
A
'+
+-
+-
...
.,
8+
9...
10
...
lA
I H+
.
A
"A
A
_.,:" " __ : ,0' :
..,
l' +- \4 +-
1:5 .. A. ... 15 .... 1" • 11"'"
1<> ~ ... lh +- A :.
17
11)
19
+
+
+
I
~
1
:
i
A
... 17
+- la
... 19
..
+
1-
lA A:
A+
1
:: -_ .....
:lO
21
~2.
+-
+-
I
I
('l'" I
A 1
... 20
... 21
" ;J.::>
...
+
..
I
I
A
ro:
+
A
I
I -. ;
23 I ": A ... 23 +
, A
lA
2q ... I A + .. 7" .,..
:?S ..
I ; A
+
....
2S
J!6 ...
A I
26 ...
+. fl "'+
.
27 • + 27
28 + A ... 28 ... +
2~J
JI)
..
+- A +
A ;¿'l
~() .
... + l'
At
31
3~
33
+
+-
•
A.
+A
A
+
+
~I
32
3-, •
+-
,
,'"I iI .
A·
+ ::~
" -.
.:~++++!
,S¿, ... .. ~4 + I A +
:.5
" +- 35 + I +A
':.6 : t 4 1' -+++i+1'+++ t + ++++++ ,.•• +++++++" .,+ .. : '36 : _ l ".+~+:+,.~ 1 ",". -++++ .,. ,i ,.~-_:
:.:.lea el pasado La parte no estacional parece ser MA(l), por la importancia relativa del coeficien-
E;-¡ 8.1. se des- .e de autocorrelación de primer orden, junto a la disminución exponencial del valor
absoluto de las primeras autocorrelaciones parciales.
La identificación de la estructura estacional es siempre más compleja. En nuestro
caso, el problema se agrava porque existen relativamente pocas autocorrelaciones
lES múltiplos de 12 que puedan examinarse (12, 24 Y 36).
Aparentemente, la estructura de la parte estacional es un MA(1)12' en virtud de
Que la única correlación estacional significativa es la del retardo 12, junto al com-
::2nes de vía- portamiento de la f.a.p.
':I,PERNA. El modelo ARMA(O, 1) x (0,1)12' una vez estimado, pasa todos los tests habitua-
Para derivar les. Sin embargo, su simulación histórica lleva a rechazarlo porque no reproduce
:-.;:-iaestacio- adecuadamente el comportamiento de la serie real en una parte del período mues-
. ·:¡ue ahora tral.
Probando con otras especificaciones por sobreajuste, se encuentra que un
ARMA(O, 1) x (2,0)12 supera Jos tests habituales, mostrando además un ECM infe-
rior al modelo anterior, dentro del período muestral.
. .a idem.. Los resultados de la estimación, obtenidos con el programa RATS t, aparecen en
:;; de 5011:- el la tabla 7.1.
EQUATION 4
OEF"ENDENT VARIABLE 2 DFlLOPNA
FROl'l 1978- 8 UNT 1L 1985-12
OBSERVATIONS 89 OEGREES OF FREEDOM 85
R**2 .57678868 RBAR**2 .56185181
SSR 2.2777060 SEE .16369649
OURIHN-WATSON. 2.00684230
GH 27)=< 16.6288 SIGNIFICANCE LEVEL .939881)
NO. LABEL VAR LAG CDÉFFICIENT STAND. ERROR T-STAT15TlC
f** ,****t* *** *** .2737896E-02
************ •4566655E-02 ,**.*.**,***
**,****t**** .5995408
1 CONSTANT () O
2 OFILOPNA 2 12 -.5936531 .1031613 -5.754612
3 DFILOPNA 2 24 -.2494629 • \02880.':, -2.424781
4 MVG AVGE -1 -,7412696 .7076841E-Ol -10.47458
MIN VALUE -.20476 MAX VAI.UE 1.0000SPACING .2400}e·Ol MIN VALUE ".21328 MAX VALUE 1.0000 SPACING .2'-,':
F,a. F.a.p.
fH-'+--. ,,+++,.+.~·t~"'·1 ~++" ~_1''',·..- .... +++...++01·... ++"..,....+·•. 10... +.".~ I'++~ -++++++ .. l. f..-t , , , ¡.+++'"+ ,,++ ,,~ .
~ .~ ... A (1 ~
.-. ~ •
~t
..
1 l. A
; :.e ....
n A
:5
~ +
A·
•
S .. A s + A
A
, 1+
6
a ,:
A
A
+A
"7 < A +
.~
A-·
A
-
~ :!
ro
.+
.. '.." A I ... lQ 1- A
• ..
'1 +", + 11 't A'
12 1+ A + .. i2 +
13 A ... l3 t ., .+ A
!~
15
1...
-
•A ..
...
+
14
)!S
T
• ....
A
ti. 1.... A. ... t~ .Jo 11
1;' 1+ A ... 17 .. A
];.1
'9
A
r-
+ A +
: ~:
..
~
+ 20 A +
2"
~l
z.?
'.
.+
.f<
.A : ~~1
A
A·
2' r+ •., ... 23 .. (. +
7.4
:';5 1: 1\
",'
1
..
+ 75
24 4-
+ ..
A+
+
2!.
7.7 ..
.+ A+
A : ~~
¡ A ..
..'"
7.8
2<)
1.,
.+
A
• I
+
..
?e
29
~
1 .... ..
A+ - : ", PREDIC
~...
) .... 1\ .... 30 .,. A
;; 1:'" ... 31 -+ A
: e M ~ : : ~ ~:
+
A 7.';':2. su valica
>6~ ... t:4+
•++.~+......
,.+++ ...+++ ..+++ .... .r+++++ .........+..... ++ ...++-+ ........
"'36
"Y .............. .,
+A I
.... ++ .. .¡...... "'+++-~..........~++++...........
~
.•++ ....,+- ...~-- .
+ ~+++.,.+.+~ =:-. :0 suce
Hg. 7.23. La. y La.p, de los residuos, ~.;;.\L\(p,q).
- :~::' se utilíza
,~:-:~,una vez
La figura 7.24 es el gráfico de los residuos, en donde se aprecian algunos atípicos, -':"'::5:ormaci
para los que hay que encontrar alguna explicación. Por ejemplo, los residuos corres- ,~ ~;¡lican los
pondientes a Abril de 1980, 83 y 84 pueden estar justificados por las vacaciones á~ Se van a ma
Semana Santa. El residuo correspondiente a Octubre de 1981 viene provocado por : zrernos por X
el final anticipado de la temporada turística en dicho año. ~':elantado l.
- .17.1. Predic
'_':1criterio bá
zel cuadrado
.riterio se den
_.-. _._._
PROC.ESOS ESTOCÁSTICOS y MODBLOS ARlMA 263
.ceptar la hipótesis de
: coeficientes resultan 0,5-r--------------------------------------------------~
~:::ode que R2 no sea
::':a, por lo que puede
:..:..:.za más adelante pa- 0,3
~:.:ra7.23. La primera
O,L
-,;;,p.
. - -- -. _44 ~+ ~ ++ 1 ~+ ~+ __ -O,L ~\ ,
l
-0,3
7.17. PREDICCIÓN
Una vez que el modelo ha sido estimado y sometido a las diversas comprobaciones
para su validación, se convierte en un instrumento útil para las predicciones.
En [o sucesivo se va a tratar de la predicción con un modelo estacionario
ARMA(p, q). Si se tratara de predecir los valores de una serie no estacionaria, pri-
mero se utilizarían los resultados del presente apartado para las predicciones de la
serie, una vez que se hubiera inducido la estacionaríedad mediante las adecuadas
2.:-. algunos atípicos, transformaciones. A continuación, para obtener predicciones de la serie primitiva,
:05 residuos corres- se aplican los resultados de 7.6.5.
: ~ .as vacaciones de Se van a mantener aquí las notaciones introducidas en el capítulo 6, y, así, desig-
:::::.eprovocado por naremos por XIJ) la predicción de origen T a horizonte 1, es decir, para el tiempo'
adelantado f.
I
,
---------------------------------------------------~
264 ECONOMETRÍA. SERIES TEMPORALES Y PREDICCIÓN
La aplicación de este criterio a un proceso ARMA lleva a la conclusión .::= __ ..' ~ práctica, (7.117) r,~ ~
la mejor predicción por punto es aquélla que se obtiene mediante la esperanza :::-.::..
. ~ : _::habrá que sustituir.as
mática condicional del proceso. Este resultado muestra que la solución más in:·_ :.. ~: - z.: erencia entre realíza r.;
al problema de la predicción posee una sólida justificación. Ésta es una conc.i.. .. .~ -:: 7) y (7.116) se r:;:!
general cuya deducción puede hacerse como sigue.
Sea Xr(l) la predicción obtenida mediante la esperanza matemática condíc.: '._
.:_ -
es decir, _ ·~=.1mente,para eva._.::
:;:-ero para calcular :-,._
.~T+J-Q. Análog aze
en donde Ir representa toda la información disponible hasta el período T, es ::: : l. lo que obliga a :::.~
XT, Xr-l" .. Vamos a demostrar que el prcdictor así definido es el de MEe:'>.' : :.: .~ practica, hay q::: 0
decir, que cualquier otro predictor basado en la misma información posee un =- ~ . ..:::-:.
~-:-.ente, esto plantea _:
mayor. -:-:-~;.::isohaber evalt z; :
Sea Xil) cualquier otro predictor de XT+/ obtenido a partir de IT• Defir.e:r ...• , €_Q' que, a::-~-.!
:.: j_::: áctica se opta ¡:.:: ':
: r : Esta solución es .!.~:!::
Entonces, la media cuadrática del error de predicción de XT(l) es ¡ ::-.:-·=:-:ancia de los \;;;..::~
-: ....:.:.-:-..:.:-.0 muestral.
El [Xl +1 - Xr(l)f/h} = El [Xr +/ - XT(l) - D]2/IT} = :: ...z.ados así Jos El p:: ~=-
~ 2 - -_
= E{[XT+1- Xr(l)] lIT} - 2DE{[Xr+/ - Xr(I)lIIrl -- ~".:: .: ~ e! por él en (".
(7.:: -: .3
Para t = T + 1 se tiene:
Xr(l) == E(Xr+/IT) = cJ>lXT+··· + cf¡pXT+1_P - (JI€T-'" - OqET+I_q (7.1:- - :. ~ .:.::los términos : - ..•
;4.; .:: -r espondlentes :-'::~
en donde todas las variables con subíndices inferiores a T + 1 han dejado de ~:- ::i..-~ .·>pyl>c¡.;.: ~
aleatorias, por lo que sus esperanzas matemáticas coinciden con sus realizacior;«
y E(en tf1r) = O, por hipótesis . .'(TU) = 0:-\'- -:
.___ --
PROCESOS BS'roCÁSTICOS y MODELOS ARIMA 265
.? conclusión de que En la práctica, (7.117) no puede evaluarse, porque todas las e son inobservables,
e la esperanza mate- así que habrá que sustituirlas por sus estimaciones. Estas estimaciones se obtienen
':ación más intuitiva por diferencia entre realizaciones y predicciones, Por ejemplo, restando las ecuacio-
a es una conclusión nes (7.117) y (7.116) se tiene:
Lógicamente, para evaluar ET+ 1 mediante (7.118) es preciso haber obtenido antes
(7.114) X r(l), pero para calcular ésta es necesario, de acuerdo con (7.117), tener evaluadas
Ep .•. , tET + 1- q' Análogamente, para estimar fr' es preciso haber calculado
~=ríodo T, es decir, X T-¡ (J), lo que obliga a haber obtenido antes tET_I, ••. , €T-q' Y así sucesivamente.
~5 el de MECM, es En la práctica, hay que-proceder a la evaluación de las e, desde la primera, Evi-
.ón posee un ECM dentemente, esto plantea un problema de valores iniciales, dado que para estimar
él es preciso haber evaluado antes X()(1), lo que habría exigido, a su vez, conocer
de Ir. Definamos EO' E _ l' • , • , e_ q' que, aparte de ser inobservables, caen fuera del período muestral.
En la práctica se opta por t.omar para estos valores su esperanza matemática, que
es cero. Esta solución es aceptable si el proceso es invertible, dado que, en tal caso,
, I es la importancia de los valores iniciales tiende a desaparecer a medida que aumenta
el tamaño muestral.
Estimados así los €t para el período muestral (t = 1, ... , T) se obtiene Et. Sustitu-
yendo los El por El en (7.117) se tiene. para la predicción de origen Tcon un período
de adelanto:
(7,119)
Este resultado, que es óptimo de acuerdo con el criterio del error cuadrático míni-
_;_~ue el predictor
mo, es, por otra parte, intuitivo a la vista de (7.116).
Procediendo de forma análoga para I = 2 se tiene:
:T .. ! _q (7.117) en donde los términos €T + ¡, 01€T + / _ l' ... , 8/_ 1ET + 1 han desaparecido por ser nulas
sus correspondientes esperanzas matemáticas.
:. dejado de ser
Para 1> p y 1> q, se tiene:
'':5 realizaciones
(7.122)
--._---=-
. ".. -...,.. _.;.:~..:. ... _ '(LZI'L) U~ opasardxo op
-E1Tns~ulE ~lu~urnlodl~p EA~nson rousitre u9pun::>d Rl '(H 1l ' L) muano ua opucruaj,
:.: :.; ~:
.; ~
,r +.L~ 1 -11ft = (¡).L.(f - (J + x
l) 1+.I
- ',' ,~:·Jd,\m::,:-.:
•• • w
'SOU!W191 SOl!U1]U! ap HA
-JW U!P~lU op ossoord OUlOO 11 e!p;)Ul op VW~V osocord la OPU;}!q~J:)SéI'op~p na
'elpaUl \31 e apuaq VW~V ojcp
_; :; ;oureu~:;c -our un ap onmd rod U9!O:lfPOJd 1'1[ 'a;)él.I;)uorootpcrd -elap onrozrroq p ano nptpaui V
>:';:;0 dN~sod ".:~,
;-:: :rq OS"BJ I~:::::
:_-, ::";ll~:lUI ;;11':'':;;
-::,,;.:1 BI ua ap s: ::
'b e JOF"JU!
-': .:-:maruodn5 ::- ., :: Ieng, amozuoq op souorootpard Sl?1ua 0[9S elU~n;) ~lIud 11S"'otpat¡ élQ 'U9!Sélldxó1
cap JOJ.13 '.!:'_[_ ~:.urW)e1sa ua optooredesop -el{ osooord PP l!A9Ul arpom ap alled el onb é)SaAI~sqo
PROCESOS ESTOCÁl;nCOS Y MODELOS ARIMA 267
,
.,
rr~¡
: :-~ávese que, a medida que 1crece, aumenta la varianza del error de predicción,
.; ::.:-.josccomo lím.ite a la varianza del proceso.
_:::-.:a práctica, los verdaderos parámetros son desconocidos, por lo que al anterior
.:-: ~ '::e predicción se le acumularán los errores en la estimación de los parámetros,
.' : ..:a1es vienen provocados por los errores de muestreo.
: :::;0 quiera que los parámetros se estiman por procedimientos iterativos, se pue-
_.:'~::-:nar como errores estándar de los coeficientes estimados los correspondientes
_ -'-estimación lineal de la última iteración. Estos errores estándar pueden usarse,
_ _'. ez, para estimar la varianza del error de predicción. Tales resultados son limi-
..:..':':~.por 10 que deben usarse con reserva.
=: .:so más importante de los errores de predicción es la construcción de intervalos
:.::.-"¿jicción. Tomando (7.131) como válida, el intervalo de predicción para la pre-
'" .:. ~:1 de X T + I es
-=',~: : ..
Xr(l) ± kpCTf -/ 1+ I/;i + .. :-+ >./;1-1 , (7.132)
- ;: ::de kp:::: 2, para un nivel de significación del 95 %. Una estimación de u; es
r
¿:; e:
;=1
(7.133)
T-p-q
::= .a expresión (7.132) se deduce que, para un nivel de significación fijo, a medí-
~.~ =.·,:e el horizonte de la predicción, 1, aumenta, el intervalo de predicción crece.
: : ::-.J quiera que ¿. I/;¡ es convergente, el crecimiento con {de los intervalos de pre-
: : :::-n presentaría un límite.
268 ECONOMETRíA. SERIES TCMPORALES y PRr.I>ICC¡ÓN
x 1000
__
500,-·---------------------------------------------
- Serie observa':': - - l
.... Serie predicha ..... :-::lJI
-
400 ~:. - _ ...•..:::tft
.••__
"
1,
,'1, ~ =-
, I
I ~.~- .. -::I:Il
I
_ . -....:
,: '
_ .....
~:
._.
300
, I
.....,;¡ .
- .
I
.
I
I .. 1. .~_.: . _ - -:-:::t
200 , I
.. '1Ui-._ : ' .. ...:-~
I
I
~ =. -'~
:._~-
..... -uc: . ..: :.- - _..:MI
& IU..~·· ...-:~ ....
100 _.~: _
~. - __ :
E M M J
Período rnuestral
S N E M M .J S N
Período de predicción
--"*;....----
E :VI M J S :-
~:;:
~ .• :-._ "0:
.~
...
...
Ejemplo. Con referencia al caso analizado en 7.16, se han obtenido las predi ~:'.:.
~
::a.--
._., :.- - -.
.. ' --
-~
tIj
lo que figura en el modelo es In XI' por lo que, para predecir Xl' es preciso o;:-·:---¡;
en la forma en que quedó explicado al final de 7.6.5.
Como el período muestral acaba en 1985. 12, resulta que la predicción pr.::_;-..::
mente dicha es la que corresponde al período que se extiende de 1986. 1 a 198f. _:. ~t··"·
En la figura 7.25 aparecen, junto a las observaciones muestraJes, Las observar.'.
nes correspondientes al período de predicción, a fin de comprobar gráficamerr s _
bondad predictiva del modelo. La «predicción» de 1984. 1 a 1985. 12 es realr::::.:
una simulación histórica. --
.':w¡¡.,¡. -
Es de gran interés práctico el saber que en la actualidad se dispone de prograz;a
que realizan de forma automática todo el proceso de identificación, diagnósticc. !:-
timación y predicción de modelos ARIMA t.
~~:e observada Hay una forma obvia, que ya ha sido mencionada en 6.1, en que los modelos econo-
~::~ predicha
métricos pueden complementarse en las aplicaciones prácticas con Losmétodos auto-
proyectivos. Se trata de que, para predecir una determinada variable (endógena), los
modelos econométricos incorporan información predictiva sobre otras variables (exó-
genas), información que puede obtenerse en muchos casos mediante la aplicación de
las técnicas autoproyectivas del análisis de series temporales, pero hay otra forma inte-
resante de combinar los modelos causales y los modelos ARIMA univariantes.
Para explicar el comportamiento de una determinada variable, los modelos eco-
nométricos incorporan información cuantitativa sobre otras variables. Los residuos
de la regresión deben entonces ser aleatorios. La forma usual de verificar la ausencia
de pautas estructurales en los residuos es a través del test dc Durbin y Watson, pero
este test tiene varias limitaciones, entre las cuales conviene destacar aquí que verifica
la hipótesis de ausencia de autocorrelación en el término de perturbación, frente a
la hipótesis alternativa de autocorreJación de primer orden. Los procedimientos al
uso en Econometría para corregir los resultados de la regresión, si se detecta autoco-
rrelacíón, se basan precisamente en el supuesto de que el término de perturbación
: :~dícción ,1 obedece a un proceso autorregrcsivo de primer orden. Si la estructura de autocorre-
lación del término de perturbación fuese más compleja, su detección podría pasar
S N inadvertida, pero, aunque se detectara, los métodos de estimación usuales (Cochra-
ne-Orcutt, Hildreth-Lu) se basan en aproximar la estructura autorregresiva del tér-
mino de perturbación por la más sencilla, es decir, por Lade primer orden. Sin duda,
este procedimiento repercutirá en la calidad de las predicciones.
Por otra parte, los métodos de análisis expuestos hasta ahora en el presente capí-
: ~ las prediccio- tulo proporcionan un instrumento para describir formalmente estructuras comple-
Para ello se ha jas en una serie temporal. En cambio, estos métodos carecen de la posibilidad de
r.diente, que no introducir información «a priori» para relacionar la variable en cuestión con otras
~ en cuenta que variables de las que supuestamente depende, de acuerdo con los modelos de la teoría
; preciso operar económica o con la experiencia o intuición del analista.
Todo lo anterior sugiere que una forma en que ambos enfoques se pueden combi-
:'icción propia- nar provechosamente es a través de la modelización de los residuos del modelo eco-
t::. 1 a 1986. 12.
nométrico aplicando la metodología Box-Jenkins+.
.as observacio- El ejemplo que sigue aclarará el procedimiento. Para su realización se ha utilizado
E;:-áficamelltela el software microTSP que es apropiado para este tipo de análisis y fácil de manejar.
~::.es realmente La forma en que se opera con este software puede resumirse como sigue. Primero
se halla la regresión ordinaria, de acuerdo con la especificación econométrica. Los
e de programas
~agnóstico, es-
t Conviene tener presente, sin embargo, que una causa potencial de autocorrelación en los residuos es
la presencia de errores de especificación en la ecuación. Por lo tanto, antes de buscar soluciones pura-
mente estadísticas, mejor será cerciorarse de que se han probado todas las especificaciones que, dado
el caso, parezcan relevantes a priori a la luz de la teoría económica.
270 ECONOMETRÍA. SERIES TEMPORALllS y PREDICCJÓN
residuos de esa regresión se someten a análisis para su identificación. Una Vez.identi- ~: : observaciones ~
ficados, se especifica la correspondiente estructura ARMA dentro del modelo de re- :::-5 siguientes ~:
gresión. A partir de este momento, el propio programa de regresión procede "-
obtener la estimación conjunta de todos los parámetros (los coeficientes de regresiór:.
y los parámetros del modelo ARMA) t.
POACt = (X, + 2:;CXj Wj + (XsP016( + CX60CU" + (X7POACt_1 + ét. (7.134 ::-=::.' .=~.:-:-
¡
, ... l
111
l.' iteración. Partiendo de los residuos de la regresión ordinaria, estima el correspondiente modele ••
l •
ARMA especificado. A partir de esta estimación obtiene «predicciones» de los residuos mediante 1<.
simulación histórica del modelo.
2." iteración. Los residuos predichos en la primera iteración se restan a la variable dependiente, :.
así se obtiene una nueva variable «ajustada». Olvidando la parte ARMA del modelo, se ajusta la regre-
sión de la nueva versión de la variable dependiente respecto a las independientes. De esta regresión ~e
obtienen unos nuevos residuos, con los que se procede al igual que en la iteración anterior, es decir.
se utilizan para estimar el modelo ARMA y simular nuevos residuos.
3.' iteración. Con los residuos de la iteración anterior, se realizan los mismos pasos que en la segur-
da iteración.
Así se va procediendo sucesivamente hasta que se alcance la convergencia, es decir, hasta que la dife-
rencia entre las estimaciones correspondientes a dos iteraciones consecutivas sea menor que una cant.-
dad prefijada. ~ _. _.
...:-
::
....
·u9,S~~j;f~1'el ep .repuylS:l .IOJ13 ~
" - ;)VOd oppotn l:l ua rooorede aod ~pJ~,d es U9pellI:lsqo -e1:lIn!ld 1l'J + -!1Ull:l aun :lnb JOU;=
-~."P 'el onb lllSllq •~:.;
ojos 0Ilpu:)s osn op SOllO ouroo S¡S~l soisa OlUP.l'OSll~ rambpmo u3: '1 < ('o) IBA.1
OSE::>~lsa U~ anbrod urqma ap tf III ll!ln::>IB:1opand as 0N 'OpBpll!laJ opuBsalg¿..: OU sow!lI~ S015~
ordord P lOS~Jíi~J ouroo ~::JaJlldll onb p U~ orxoiuoo als~ U;) oJlll::>!Jdll oioanoo sa 01; -sqan ap OpBJ~¿::':
'UOS1BM. Á uNJna op lsa1 p suoprodord dS.L0,K)!UI -ewtuíiOJd [;)p -eP!Ies -el onbuns -![:J<'lp u~UItuaE:::
'oíiluqwa U!S 'OpUAa[a sa r):l \}P .I0{l!AI\) ti. 'SOAfl-e::J!]1uíi1S
uos sa:).u"!::J!J;)o::JSOl sopoj, sapapo ap snuos.s
UH 'su::J!m9U0:1¿ e:
'89'1 = 'A1 'U :j: S'E'L = :ElS ZS'6'O = z~
-OA~ 11[ -e oíoad S¿': :
(S;17'Z) «1»
-;m u9Pulqod -el ;;
181Z'O = L1f1
(9'8) (,~'6) (S'E- ) «1» VZ!l'IV<INV y_\.
€SSf'O = 9y 9tS9'O = 'y 179'Il- = v1f1
(S;'S;- ) (E'9- ) (0'8--') «1>}
L9'61 - = E1f1 18'S'Z- = z1f1 9'0181- = l1f1 U9rSOJgaJ ap S~¡U;:
II apaoord U9!S~':~
:U9!S;)Jg~J III ap sfsll~Ul! pp sopsnnsar SalUQ!níirS sor u~:: -;)J ap oppour PF ~
-anqo as S;861 op ansaunn 0'17IU .j. 9L6 [ op onsounn 0-17p ~PS;)P sauotoaxrasqo UO] -nnapt Z~A euO .::.: