Está en la página 1de 72

~, .II1II ....

Procesos estocásticos y modelos ARIMA

::..enfoque clásico del análisis univariante de series temporales ha sido objeto de los
2 y 6. El presente capítulo introduce el enfoque moderno y se centra en
:..:.;::,::ulos
_:-..ipo de modelos estocásticos especialmente útiles para la predicción: los modelos
.:._~í~tA. Estos métodos son más complejos que los del capítulo anterior, y su apli-
:2.::ón requiere series temporales más largas.
este capítulo se inicia con unos conceptos introductorios sobre el enfoque moder-
: .: o estocástico, en el análisis de series temporales. A partir de 7.7 se expone la
-:-.-::odologiadesarrollada por Box y Jenkins t para tratar con los modelos lineales
_::":·;ariantes.

- .1. PROCESOS ESTOCÁSTICOS

'_':-.proceso estocástico, {X(}, para t = 1,2,3, ... , se define como una colección de
.:.::ables aleatorias, X" ordenadas de acuerdo con el parámetro discreto t, que en
-::_:5tro contexto es el tiempo.
::::término de perturbación aleatoria en una regresión con series temporales cons-
:'':':'e un ejemplo de proceso estocástico. En este caso, se trata de un proceso inob-
..::-.able.

:;: x, G. E. P., y JnNKIl'S, G. M.: Time Series Analysis: Forecasting and Control, Holden-Day. Edición
':, :-ada, 1976. .

201

--
202 ECONOMETRÍA. SERrES TEMPORALES y PREDICCIÓN

Los modelos estocásticos de series temporales conciben una serie temporal dada, :...:.::efinición ¿~ =-5
Xl' como una colección de observaciones muestrales, cada una correspondiente a ~; .:-~.)2e.soestocé!.5::~
una variable del proceso t. - .::~:a es, sin d:.:':':'
Las leyes probabilísticas que rigen cualquier proceso estocástico se describen ex- .. .=- ~.) ceses eSlO~is::
haustivamente y sin ambigüedades mediante las funciones de distribución de proba- :::5 daros econc+,
bilidad (f.d.p.) conjunta de todos y cada uno de los vectores de variables aleatorias
que se pueden formar con las variables que constituyen el proceso. Sin embargo. .?:.:ede concebirSe. s
para muchos fines prácticos, los procesos se suelen describir mediante sus momen- = .r a:a de la estac:c:.
tos, entre los cuales destacamos los siguientes: _:". proceso es es:':
.:.:t.. o de covariar..z.:_
La media de un proceso estocástico se define por

(7.1)

y generalmente es una función del tiempo.


La función de autocovarianza se define como

1', t+ k!:' COy (XI> Xc+ k) == Ef [XI - E(XI)][Xt+ k - E(Xt+k)] J


(7.2)
k= O, ::1:1, ±2, ±3, ... La expresión (7.51 s
~.:e la autocovariauz¿
A partir de esta función se obtienen dos resultados "Útiles.Por una parte, para ::empo histórico. Lo, -
k = O surge la función de varianza del proceso, ~. --
. or ejemplo, en la fü:·
sentido amplio; en (b~.
(7.3)
.as medias (tendencia):
Por otra parte, la función de autocorre/ación se define mediante la expresión za que crece con el tier::
rianza.
En el caso de procesos
(7.4)
implica estacionariedaé
segundo orden determir.~
Ciertamente, la mayo:-:
$e ajustan a estas condi~
7.2. ESTACIONARIEDAD dendas y estabilizar sus
estacionarios. Una vez :
Los procesos estocásticos se dividen en dos clases: estacionarios y evolutivos. modelizan, con fines de
De estacionariedad puede hablarse en dos sentidos, uno amplio y otro estricto.
La función de autocor;
En el sentido estricto, un
proceso estocástico es estacionario si los vectores
[Xt¡,X/z, ... ,X'n] y [X,,+s>Xt2+j, ... ,Xlnt.S] poseen la misma f.d.p., indepen-
dientemente de s, para cualquier n dado.
Un proceso que no sea estacionario es evolutivo.
Para procesos reales se

t Obsérvese que la notación XI puede representar tanto una variable aleatoria como una observaciór.
muestral, dependiendo del contexto.
PROC:r;SOS ESTOCÁSTICOS y MODELOS ARIMA 203

ríe temporal dada, La definición de estacionariedad en sentido estricto implica que las características
correspondiente a del proceso estocástico no sufren alteración al considerar tiempos históricos diferen-
.es. Ésta es, sin duda, una restricción demasiado fuerte para imponerla a priori a
';0 se describen ex- :05 procesos estocásticos destinados a representar sistemas socioeconómicos, es de-

::ibución de proba- cir, los datos económicos reales violan, sin duda, la hipótesis de estacionariedad es-
"ariables aleatorias :ricta.
.eso. Sin embargo, Puede concebirse, sin embargo, otro tipo de estacíonariedad de interés práctico:
diante sus momen- se trata de la estacionariedad en sentido amplio.
Un proceso es estacionario en sentido amplio (o estacionario de segundo or-
ien, o de covarianza estacionaria, o débilmente estacionario) cuando se vcrifi-
ca que
(7.1)
Jlot = Jlo < 00 (7.5)

(7.6)
(7.2) La expresión (7.5) significa que la media del proceso es constante, y la (7.6)
que la autocovarianza es sólo función del lapso temporal considerado, y no del
),:.r una parte, para ::empo histórico. Los momentos de orden superior pueden variar con el tiempo.
Por ejemplo, en la figura 7.1(a) aparece representado un proceso estacionario en
sentido amplio; en (b), el proceso no es estacionario a causa de la evolución de
(7.3) .as medias (tendencia); en (e), la falta de estacionariedad se debe a una varian-
za que crece con el tiempo. yen (d) no hay constancia ni en la media ni en la va-
~ante la expresión
rianza.
En el caso de procesos con f.d.p. normales, la estacionaricdad en sentido amplio
(7.4) .mplica estacionariedad en sentido estricto (puesto que los momentos de primer y
segundo orden determinan cada f.d.p. normal).
Ciertamente, la mayoría de los procesos que representan sistemas económicos no
se ajustan a estas condiciones de estacionariedad, pero es posible eliminar sus ten-
dencias y estabilizar sus varianzas para transformarlos en otros aproximadamente
estacionarios. Una vez realizada la transformación, los procesos estacionarios se
,JS y evolutivos. modelizan, con fines de descripción y de predicción.
.plio y otro estricto. La función de autocorre/ación en estos procesos estacionaños es
ario si los vectores
:na f.d.p., indepen-
k = O, ::!::1, ::!::2, ••• (7.7)

Para procesos reales se cumple además que

'Yo> O,
:.1. como una observación (7.8)
Pk=P-k' Po = 1 y

... :......lIlIII/I.
204 ECONOMETRTA. Sl!lUES TEMPORALES y l'RllDlCCrÓN

x, x,

o
(a) (h) l

x,

o 5

(b)
Fig. 7.2. Correlo

(e) (d)
7.3. ERGODICIDAf
Fig. 7.1. Procesos estocásticos: (a) estacionario; (b), (e) y (d) evolutivos.
Las series temporales
vaciones históricas, e
La representación gráfica con PI<. en ordenadas y k en abscisas se denomina corre- .rrepetíbles. Una serie
lograma del proceso. experimento aleatorio
La función de autocorrelación de las series estacionarias disminuye sensiblemente del proceso.
a medida que aumenta el desfase temporal k. Esto no suele ocurrir con las series Para hacer inferenci
. no estacionarias. ble aleatoria es necesa
La figura 7.2 muest.ra los correlogramas de: (a) un proceso estacionario y (b) : de pruebas fuese necess
(e), dos procesos no estacionarios; el segundo muestra la presencia de periodicidade: ría problemas de infe
en la serie. mente, esto no es así, p
PROCESOS P..sTOCÁSTJCOS y MODELOS ARlMA 205

k
... (a)

ji'

rV
,I
5 10 k
1

o 5
1I
10
II ..
....
k
(b) (e)

Fig. 7.2. Corrclogramas de dos procesos: (a) estacionario; (b) y (e) evolutivos .

. ::. ERGODICIDAD
evolutivos.
_..:...:
series temporales que se manejan en Econometría están constituidas por obser-
., : ::-.eshistóricas, es decir, no proceden de la experimentación y, por tanto, son
;t denomina corre- ·-:7·!:ibles. Una serie temporal puede contemplarse como una sola prueba de un
-: :~:-::nento aleatorio multivariante y constituye [o que se denomina una realización
z: ';ye sensiblemente :.=. ;~0ceso.
:·':7"rircon las series :::.:a hacer inferencias estadísticas en problemas donde interviene una sola varia-
- : ':":;E.türiaes necesario recurrir a la repetición de experimentos. Si esta repetición
;~:acionario y (b) y -= ::-..:~basfuese necesaria con todos los procesos estocásticos, la Economía plantea-
:~ de periodicidades - ... :::Jblemas de inferencia estadística prácticamente inabordables. Afortunada-
7. ;-_::. esto no es así, porque se puede demostrar que, cuando un proceso estocásti-
206 EcoNOMETRÍA. SBRIES TEMPORALES Y PREDICCIÓN

co cumple ciertas condiciones, es posible estimar consistentemente sus característi- --"~


cas a partir de una realización del mismo. Los procesos que cumplen tales condicio- .: :::.;---=-

..
nes se denominan ergodicos. .._ .. ~
Por ejemplo, un proceso estocástico estacionario es ergódico en la media, ¡J., si '- . ....:~ .=::IlII
es posible estimar consistentemente este parámetro haciendo uso de la media mues- - ..-::- .....;; .. :

tral temporal, que se define como


r
X= T-1 ¿; x..
i = '1

De forma análoga, puede hablarse de ergodicidad respecto a la autocovarianza. :..._-


.~'. '2
No es nuestra finalidad establecer aquí las condiciones bajo las cuales un procese-
es ergódico. Baste con decir que dichas condiciones casi siempre se cumplen paré
la clase de procesos que nos interesan. Como ilustración, supongamos un procese
estacionario de segundo orden indeterminable, es decir, que cumpla

Jim Pk = O.
k ....oo

Esto significa que. a medida que k crece, la autocorrelacíón del proceso va desapare-
cien.do. Si el proceso sigue una distribución normal, puede hablarse de una independen-
cia cada vez mayor de las nuevas observaciones respecto a las antiguas, o, lo que es le
mismo, que a medida que el tamaño muestral crezca, dispondremos siempre de nueva
información para estimar los parámetros del proceso. Este hecho permite construir es-
.. .:.....-~ -.. ._
timadores consistentes de estos parámetros. Dicho de otra forma, el proceso es ergó-
dico. Esta condición la cumplen todos los procesos económicos, ya que rara vez se
presentan series temporales económicas con componentes periódicas deterministas.
que son las que inducirían a que no se cumpliera la anterior condición de límite.

7.4. }'UNCIÓN DE AUTOCORRELACIÓN MUESTRAL

En las aplicaciones prácticas, en las que se dispone de ciertas observaciones, X,


(t = 1,2, ... , T), relativas a un proceso estocástico que se supone estacionario, le.
media del proceso se estima mediante

-
X= -r-1 t=LJ
~
1
XI· (7.9

Análogamente, la función de autocorrelación, Pb se estima mediante lafunció r.:


de auto correlación muestra!, que se define como
T
b (Xt - X)(Xr_k - X)
t =k+ 1
para k = 1, 2, ... (7.1ü
"'!"i' -, .....--- .
. _...
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 207

z.ente sus característi- La representación gráfica de r/(, denominada correlograma muestral, constituye
.mplen tales condicio- ..:.::instrumento de análisis de series temporales de gran interés práctico.
Para obtener correlogramas debe partirse en Lapráctica de muestras de tamaño
:~O en la media, p" si ; ..:ficientemente grande. Algunos autores consideran que se necesitan al menos 50
~5() de la media mues- ::-servaciones. La función de autocorrelacíón muestral no se puede calcular, obvia-
:::ente, cuando k > T - 1_ En la práctica, no se debe calcular para

T
k>-·
4

a la autocovarianza. Barlett t ha proporcionado una fórmula aproximada para Lacovarianza entre rk


.as cuales un proceso rj,: _ s en el caso de procesos estacionarios normales, supuesto Pk = O para todo
~_;re se cumplen para -:» K:
~.:':1gamosun proceso
cumpla (7,11)

Para s = O, se obtiene, para todo k> K,


:: ;:~ocesova desapare-
~s~de una independen- (7.12)
::.::guas, o, lo que es lo
::"_;)5 siempre de nueva Para T suficientemente grande, si Pk = 0, 'k sigue aproximadamente una distribu-
;: ;:ermite construir es- :',:':1 normal.
r.a. el proceso es ergó- En la práctica, se sustituye Pi por TI' Y así
.:s. ya que rara vez se
:':'jicas deterministas, (7.13)
zondición de limite.

!,';)resión .que suele utilizarse para verificar la hipótesis de que Pk = 0_

:~5 observaciones, XI
;:.):1eestacionario, la Ejercicio 7.1. A partir de un conjunto de 60 observaciones se obtienen los si-
;'_;:emes valores para la función de autocorrelación muestral:

(7.9) k 1 2 3 4 5 6 7 8 9

'k 0,35 0,12 0,05 -0,09 0,07 -0,04 0,02 -0,02 0,01
~=-_edianteLa/unción
_Se puede afirmar que Pk = O para todo k?

(7.10) - 3.-\1UJ!IT,M. S.: «On the Thcoretical Specification 01' Sampling Propcrties of Autocorrelated Time Se-
r.es». Journal 01 the Royal Statisttcai Society. Series B, 8, 1946,
208 E.coNOMETRfA. SBRlllSTEMPORALES y PREDrCCrÓN

Para responder, hay que estimar la varianza de las autocorrelaciones muestrales suponien- y se comprueb
do que todos los Pk son iguales a cero. Aplicando (7.13) con K = O se tiene: algún r" caiga 1
:0 que se tradi
Gráficamenr
sas, entre los lí
El correspondiente error estándar es 0, l30. Como quiera que '1 es más de dos veces el error jos a partir de
estándar, concluimos que PI;: O. Continuando, hay que verificar si Pk = Opara k > 1. Apli-
cando de nuevo (7.13) con K = 1, Hay que tene
.ervalo correctc
var (rk) ::: (1/60)(l + 2 ' O,35~ = 0,0207; k> 1 aasta la mitad
y valores de rk es
aipótesis de au
error est. (rA:) "" 0,144.

Como todos los 'IC (k> 1) son pequeños en relación a este error, concluimos que hay evi-
=
dencia de que Pk 0, para todo k> 1. En la figura 7.3 se observa que todos los valores de "7.5. PROCES(
'k (k> 1) están dentro de la banda ::1:2 error esto (rA:)'
:.:n proceso esta
.e aleatorio, o

,
x (0,35)
Por ejemplo,
2 err. cst. = 0,29 a.eatoria de un
2 erro est. = 0,26 (K = L)
(K = O) x En este preces
x ><
'::e el eje de ord.
O x 5 10 k entre los valores
valor para predi

~.6. PROCESO
Fíg. 7.3. Correlograma muestral, ejercicio 7.1.
víuy pocas serie
::arias. Los mot
(a) Se present
(b) La varían.
A menudo se aplica la fórmula de Barlett para verificar si Pk = O para k:::: 1,2.
(e) Hay varia.
3, . , , • es decir, si la serie es aleatoria. Como esta fórmula es sólo aproximada. se
suele calcular simplemente el intervalo La presencia d
'::a del proceso,
Afortunadame
.acíonarias en ot
P.ROCESOS ESTOCÁSTJCOS y MOOELOS ARIMA 209

~.:.:~;;suponien- ~ecomprueba si cada r; (k = 1,2, ... ) cae dentro del mismo. En el caso de que
':':t;.io 'k caiga fuera del mencionado intervalo, se rechaza la hipótesis de que Pk = 0,
: que se traduce en que hay evidencia de que la serie no es aleatoria.
'.Jráficamente, suele trazarse una sola banda de confianza, paralela al eje de abscí-
:...!. entre los límites ±2/--./i, y se comprueba a simple vista si todos los rk calcula-
: , veces el error .:.: ó a partir de la muestra están dentro de dicha banda.
~~.:.k> 1. Apli- Hay que tener presente que la fórmula de Barlett es sólo aproximada y que.el in-
.=:-.-aJocorrecto puede llegar a ser en algunos casos, para valores de K muy bajos,
- .::..s:a la mitad del que arroja la fórmula. Por 10 tanto, el hecho de que todos los
':':.:-res de 'k estén dentro de la banda ±2/..{r no garantiza el cumplimiento de la
:_::-6tesisde ausencia de autocorrelación, especialmente para valores bajos de K.

::; que hay evi-


:; :05 valores de - 5. PROCESO PURAMENTE ALEATORIO

_:-.proceso estacionario sencillo de gran interés es .eldenominado proceso puramen-


: :":eatorio, o ruido blanco, que se define por las siguientes condiciones:

p. = E(X¡) = O
'Yo = var (X,) = (J2 (7.14)
'Yk = cov(X(, X,+k) = 0, k = ±l, ±2, ±3, ...
Por ejemplo, éste es el proceso que se admite para el término de perturbación
. ~~l.::: 0,29 ,--:;_:oria de un modelo ordinario de regresión lineal.
, ~1 ':::1 este proceso, el correlograma se reduce a un segmento de longitud unitaria so-
7:~ el eje de ordenadas, lo que muestra que no existe dependencia estadística alguna
k :-:~e los valores desfasados en el tiempo. La información histórica no tiene ningún
~:: para predecir el futuro; el proceso no tiene «memoria».

-;" PROCESOS NO ESTACIONARIOS

.:~::pocas series temporales reales pertenecientes al mundo económico son estacio-


-- ----- :.:..-:a5. Los motivos de la falta de estacionariedad suelen ser:
.:l Se presenta una tendencia.
:-1 La varianza no es constante.
:' para k = 1, 2. _'1 Hay variaciones estacionales .
. ;:;.proximada, se
::"apresencia de variaciones estacionales se traduce en una variabilidad de la me-
:.':' del proceso, lo que es contrario a la hipótesis de estacionariedad.
:\:'ortunadamente, es posible transformar muchas series económicas reales no es-
":'~.onarias en otras aproximadamente estacionarias, sometiéndolas a operaciones
210 ECONOMETRÍA. SI1RlUS TEMPORALllS y PREDICC1ÓN

algebraicas adecuadas. Este hecho permite, en definitiva, utilizar con series no esta- =~. general, un ¡:
cionarias los procedimientos de análisis diseñados para series estacionarias. :..: - ~;:>eracionesd
Examinemos algunos casos típicos. .-::..¿.-. .'1.
::: ce señalar qu.
7.6.1. Procesos no estacionarios homogéneos ...:: .:..:-e:-encias ade:
;_- ,.-;corto 0, por
A las series que presentan una tendencia lineal se las somete a la siguiente transfcr- =- :"::;'strumentoe
rnación: :-'-.:::; simplement.
::. ..:.:orma en que
X( - X¡ _ 1 == t:..x, == ZI' :-.:~.ar el orden.
El símbolo .t:.. denota incremento yes un operador t, cuya relación con L, el opera- -, ziodelizar se:
dor de retardos definido en 4.3, es, evidentemente, .....
: .: .os procedía
..:::.:;:;.;:ia, como :~
.t:.. == 1 - L. -::~:-::;del campar.
Si XI muestra una tendencia lineal, la primera diferencia de la serie, Zt, ya no ir.- _ ;-".:-.)el análisis,
corporará tendencia, según quedó comprobado en (2.3). En tal caso, se dice que X. _. _;,:-:anzade la s.
es una serie temporal homogénea de primer orden o integrada de primer orden. ~=-:.:-~ necesaria 5
Análogamente, si X, presenta una tendencia exponencial, ya se vio en 2.5, ecua- - ~ ~. pueden ene.:
ción (2.23), que, para eliminar la tendencia, se halla primero el logaritmo de la serie. :.= .ez.dencía fren:
y luego la diferencia primera de la nueva serie así calculada. Es decir, si Xl presenta
una tendencia exponencial, - 1':. Paseo alear

::. z: oceso de pase


;_~:-.:e forma:
tendrá la tendencia eliminada.
La eliminación de una tendencia cuadrática se consigue mediante doble diferer-
ciaci6n. Esta operación se realiza en dos etapas: primero se obtiene ~ ~:::,ndeft es un
=-;:e proceso se :
:: :s ~ comprobar,
~2 media de es:
y, a continuación,

(Seguimos designando por Z, a la serie estacionaria, notación que se mantiene a lo


largo de este apartado.) =
La operación de doble diferenciación se simboliza mediante/:¡,_2Xr•
Si XI muestra una tendencia cuadrática, .t:..2XI no tiene tendencia. En este caso,
se dice que X, es homogénea de segundo orden.
Análogamente, una tendencia cúbica se elimina llevando a cabo una triple opera-
ción de diferencias.
~ ;~ opta inicialmcr;
.; :'.:::Ji: cuentas, ha
.: ':"::';:'0rmaciones ¡::-t
t Algunos autores prefieren la notación V. "-.: :;: caso si se pr-
PROC.ESOS ESTOCÁSTICOS Y MODELOS ARIMA 211

- - ~eneraJ, un proceso no estacionario que se convierte en estacionario después


~ . :;-eraciones de diferencia se denomina homogéneo de orden h o integrado de

:': :e señalar que, en la práctica, es difícil determinar si se ha realizado el número


~.::::.:·erencias adecuado para transformar la serie en estacionaria. Es posible que-
:_;_-:::corto o, por el contrario, llegar a una «sobrediferenciacián» de la serie.
:=:. .nstrumento que suele utilizarse para detectar el número adecuado de difcren-
:..;._=; simplemente la inspección visual del gráfico de la serie y de su correlograma
::: "-:':>rmaen que se ha explicado en 7.2. En 10.5 se introduce un test formal para
-r: :: :ar el orden de integración de una serie temporal,
.:._:::odelizar series que presenten una tendencia, son potencialmente aplicables
_-. : :05 procedimientos vistos en el capítulo 2, es decir, algún modelo clásico de
~':::-. cía, como la metodología Box-J enkins. La opción a tomar depende básica-
:: .;-:: = del comportamiento de la serie y del grado de precisión con que se desee llevar
- --".::::el análisis, aparte del tamaño muestral. Cuanto mayor sea la proporción de
e .Y. .... ~:anza de la serie que explique la parte determinista del modelo de tendencia,
::.::::;. necesaria será la aplicación de un modelo estocástico t. Más adelante, en
... _:. ... - ; .' ;:,ueden encontrarse unos comentarios sobre el uso del modelo autorregresivo
;..::.~::iencia frente al modelo autorregresivo estocástico de primer orden.

- .1:. Paseo aleatorio

:. : ~: ceso de paseo aleatorio es un proceso no estacionario que se define de la si-


':'_::-.:e forma;
(7.15)
:: ::je es un proceso puramente aleatorio.
El
=.,:-= procesose.ha utilizado como modelo para las cotizaciones en Bolsa. Como va-
::..- ~ comprobar, se trata de un proceso no estacionario homogéneo de primer orden.
__ <edia de este proceso es cero. En cambio, la varianza no es constante, pues
'Yr;;e E(X~) = E(X,_t + f¡)2 = E(Xt_1)2 + E(e;) =
= E(Xt_1)2 + a2 = E(X,_ 2 + Et)2 + (12 =
.,:, ..:
= E(X( _ 2)2 + 2a2 ==

case = E(X(_ki + kaz =


= 'Yt-k + ka", (7.16)

., :;-.a inicialmentepor utilizar la metodología de Box-Jenkins,puede ocurrir en algunoscasos que,


. - ':: cuentas, haya que estimar UD modelo determinista. Esto es 10que ocurriría si al aplicar las
.:.: ,,:::rmacionespertinentes resultara una serie estacionaria que fuese ruido blanco. También sería
• , ,: :350 si se presentara alguno de los supuestos que se contemplan más adelante en 7.15.1.
212 ECONOMETRÍA. SERlliS TBMPORALES y PREDICCIÓN

Obsérvese que la varianza aumenta indefinidamente con el lapso temporz


Aplicando diferencias primeras al proceso, resulta

y, puesto que f:t es un proceso puramente aleatorio, X, es integrado de primer e:..!::.


Obsérvese también que, en este proceso, la operación de tomar diferencias :..:::::
como consecuencia la estabilización de la varianza. En general, la aplicación de ; .
rencias finitas.a un proceso no estacionario cualquiera produce, hasta cierto g:-~.
reducciones en la varianza. La «sobrediferenciación» se advierte porque suele ;.-..
ducirse el efecto contrario.
Cuando la ecuación 7.15 incluye un término constante, el proceso X, se dencz.z;
paseo aleatorio con deriva.

7.6.3. Estabilización de la varianza


Ya se ha visto que la aplicación de diferencias finitas permite convertir en estacic r,»
dos los procesos homogéneos, pero es posible aplicar otras transformaciones r a-i
convertir en estacionarios procesos no estacionarios no homogéneos.
Se ha comprobado además que la transformación logarítmica se emplea cua::::.
la serie varía (crece o decrece) a una tasa constante. Esta transformación es tamr ~
útil cuando la varianza de la serie es proporcional al nivel medio de la misma.
En la práctica, suele utilizarse otra transformación alternativa para estabilizar la 'i::-
fianza: la raíz cuadrada de la serie original. Esta transformación es más «débil» que ....
primera, es decir, sirve para estabilizar series con varianzas menos desestabilizada,
Se han propuesto otros tipos de transformaciones para convertir en estacionaria
series que no lo son t. pero, en la práctica, se ha visto que basta con utiliza!" las ~ _!
hasta ahora se han expuesto: diferencias finitas, logaritmos y extracción de la rz.:
cuadrada. A menudo, en las aplicaciones prácticas hay que combinar dos proce':'·
míentos, caso en el que debe comenzarse aplicando la transformación logarttmin
o la de extracción de la raíz cuadrada, ya que la aplicación de diferencias puede pr:-
vocar que algunos términos de la serie transformada sean negativos, lo que imp.ze
que a continuación se aplique alguna de las otras dos transformaciones.

7.6.4. Corrección de las variaciones estacionales

La eliminación de las variaciones estacionales, para inducir la estacionariedad, suele


hacerse mediante un procedimiento de autoajuste, del mismo tipo que el comentad:
para la tendencia, denominado diferenciación estacional.

t Son muy conocidas las transformaciones Box-Cox, propuestas por estos autores en «An Analysis e:
Transformatíon», Journal 01 the Royal Statistical Society. SeriesB, 26, 2, 1964.
PROCESOS ESTOCÁSTICOS y MODELOS ARIMA 213

:::poral k. Lo primero que conviene hacer es eliminar la tendencia de la serie, ya que, de otra
:'crma, la diferencia entre los datos relativos al mismo mes (o fracción de año) sería
s.gnificativa, sin que ésto implique evidencia de variaciones estacionales,
(7.17) Si los datos son mensuales, la diferenciación estacional consiste en calcular

:-'.merorden. (7.18)
~:-=nciastiene
Con datos trimestrales calcularíamos
::.::ónde dife-
.::erto grado, Z( == XI - Xt-4, etc.
;.:.e suele pro-
Este procedimiento se basa en el modelo clásico aditivo de descomposición.
'. se denomina Si después de efectuar esta transformación la serie sigue presentando evidencia de
,"--¡adanes estacionales, es posible aplicar de nuevo el procedimiento, es decir, cal-
: ..:.:ar las diferencias de segundo orden, y así sucesivamente. "'OO'

-.6.5. Predicción de series no estacionarias


.: e:l estaciona-
·:::a.:iones para
:_: s modelos de predicción de series temporales están diseñados para procesos esta-
:' .r.arios. Las series que se presentan en las aplicaciones económicas suelen ser no
:',;:.:..:ionarias.Ésta es una limitación práctica de los métodos disponibles que no se
ernplea cuando
.:-;':: ignorar. Sin embargo, esta limitación no es tan seria, porque, en la práctica,
::,)D estambién
~; cperaciones descritas en Jos apartados anteriores permiten transformar las series
':e la misma.
.:-::-.;:-oralesno estacionarias en otras que lo son, al menos aproximadamente.
=,:abilizar la va-
~ «débil» que la
\{ás adelante se muestran modelos para predecir series estacionarias donde la es-
_¡.:::-nariedad ha podido ser inducida. Una vez modelada la serie estacionaria, para
.: =:;cstabilizadas.
-:.:..:.::ar las predicciones será preciso deshacer el cambio primitivo.
~:-.estacionarias
?::- ejemplo, sea
:-.',:tilizar las que
.acción de la raíz
~:-.ar dos proccdi-
=.::ón logarítmica ,'~ ':.:>ndeZ, es estacionaria. Si mediante la aplicación de un modelo se obtiene en
e::.:ias puede pro- : :·:~:odo TIa predicción tr(l) correspondiente al período T + 1 (con un horizonte
r s, lo que impide ~: ;7~dicción de 1 período), la correspondiente predicción de XT+J se obtiene te-
:::..::iones. :. ::':.J en cuenta que

:..::onariedad, suele
~que el comentado
~..:-.i!ogamente,si se opera una diferencia de segundo orden,

Z, = ó?X, = ~(Xt - Xt-1) = AXt - ÁXt_1 ==


= Xt - Xt - 1- (Xt - I - Xt - 2) =
:7~;en «An Analysis of
:;..:;.4.
= XI - 2X¡_1 + Xt-2•
214 ECONOMETRÍA. SERIES TEMPORALES Y PREDICCIÓN

De aquí que

(7.19
y, así, la predicción de X realizada en el período T con un horizonte de 1 período e,
(7.20,

Para generalizar estos resultados utilizaremos la siguiente notación:


X]'(/) :::: predicción de origen T y horizonte l.

De acuerdo con (7.19) y (7.20) se tiene:

XT(2) = ti2) + 2%r(1) - XT = 21'(2) + 2.21.(1) + 3Xl' - 2X1'_ 1•

Análogamente,

XT(3) = 2]'(3) + 2%1'(2) - Xr(1) >=:

= Zr(3) + 2Z(2) + 4Zr(1) + 6XT - 4XT_1 - .2T(1) - 2X1' + X1'-1 =


== 2T(3) + 2.2(2) + 32T(1) + 4X1' - 3Xr_1
y. en general,

%1(/) "" 2r(l) + 2Z1'(/ - l) + ... + IZT(l) + (1 + l)Xr - IX1'_ I :::::


== Xl' + I.6.Xr + /ZT(l) + (1 - 1)21'(2) + ... + 21'(/)' (7.21;

En el caso de procesos no homogéneos, y para realizar predicciones, la transfor-


mación logarítmica exige tomar antilogaritmos para deshacer el cambio.
Si la serie original es Xl' la transformada es
2, :;:InXt•
" ,:7::: :_,

Una vez obtenida la predicción '2T(/), la correspondiente a la serie original es -:"~ ::-.

%T(I) '#- exp .2T(/) ,


: :...:.~-:-. .L '
porque, en general, .:. -": _:' '

en donde le es la información disponible hasta el período t.


En este caso, hay que calcular t

X1'(l) :::::exp [21'(1) + -} var (e~)(/)]} , (7.22)


.~ a.:·: :!. : _
~.~ i. ¡ :.!.

t Véase NELSON, CH. R. (1973): Applied Time Series A natysis for Managerial Forecasting, Holden-Day. ',~ :':_i::_¡
Inc, 1973. págs. 161-165. : ¡~.:';-.:-'¡'~:
PROCESOS ESTOCÁSTICOS Y MODELOS ARíMA 21 S

- ::::¡de
(7.19)
.:':::rede 1 período es ~ -"-varianza del error de predicción correspondiente a ZT(I), que se puede estimar
(7.20) .:~ -=-se expone en 7.17.
!.':emás, la varianza del error de predicción de X,
:::ación:

~-:-.! jada por

. - 2XT_1· var [eT(l)] = exp [22T(/) + var [e~)(l)ll [cxp var [e~)(l)] - 1} .

:::'~ último, para construir intervalos de predicción de ZT+I' se tiene:

~ .:onde kp es el valor crítico correspondiente a la distribución normal para un ni-


:. :~ significación dado, pt, y el correspondiente intervalo de predicción para
es
(7.23)
l.! . (7.21) ~·..:.al,a diferencia del anterior, referido a ZT+1' no es simétrico.
c.ones, la transfor-
:: cambio, • -:..6. Ejemplo. Pemoctaciones de viajeros nacionales en hoteles de Málaga

.-~:::o ilustración de lo que precede, se va a mostrar aquí el proceso seguido :j: para
z-:..:.~:onarizar una serie mensual real, las pcrnoctaciones de viajeros nacionales en
: ::-=:-esde Málaga, 1974.7 (Julio) a 1986.5 (Mayo), que designamos por PERNA.
a serie original es = bsérvense en la figura 7Alas fuertes oscilaciones estacionales y la falta de esta bi-
. .:..:':en la varianza, que aumenta sensiblemente con el tiempo.
?ara estabilizar la varianza se utiliza la transformación logarítmica, definiéndose,
~: . 'a nueva serie

LOPNAt = In PERNA,
En la figura 7.5 puede apreciarse una relativa estabilidad de la varianza de la serie,
~_-=':andoaún remanente una fuerte estacionalidad. Para eliminar esta componente

(7.22)
. ~ supone que la distribución condicional de X;+I dado I, es normal, con esperanza Xt(f) y varianza
¡_:.: a la del error de predicción.
: ::';:e ejemplo está extraído del trabajo de ÜTliRO, J. M., yTJ(UJILLO. F.: «Análisis estadístico de la acti-
-d::a,tíng, Holden-Day. ·.zad turística en Málaga 1974-1986». Premio a la Investigación en la Universidad de Málaga, 1986.
=::. .rccinado por Surbega, S. A. Para la realización de este trabajo se utilizó el software RA TS.

'!
¡
216 ECONOM.ETRíA. SE:RlliS TEMPO&AI.ES y PREDICCIÓN

x 1000
500~--------------------------------------~---
400 _;
F:.:. :
I
I

300

200

100

1976 1978 1980 1982 1984 1986

Fig. 7.4. Pernoctaciones de viajeros nacionales en hoteles de Málaga (1974.7 a 19~~:- -


13,2 -r---------------------------
12,8
- .-
\ ,1 ~ I "~.:: -
12,4
·.t.
• _, ..J J ~

12,0 1976 1977 J9-~~ ,1

Fig. -,,,
11.6

V \1 \
,
V ...::. :--~: :-:¡aria la nueva serie ::-
¡¡"l I
V , ;_":":-:~.
negativa, por cu~.~-:~
. :"..::.ante.

10,8 -I...__,..., T", ......... , ' ' ' 1' ' ' -.......,~ . .,.."'....--r! ...., ..,.,...., ':."" ..." """"'1"'" ...,...
........,....,,....,.•...........,.,...,.,.............,....,.....•........,.1.............., ,-, ........--
1976 1978 1980 1982 1984
Fig. 7.5. Gráfico de LüPNA (1974.7 a 1986.5).
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 2]7

~;;aplica una diferencia estacional. La nueva variable transformada. que denomina-


::::05 FILOPNAt t, se define formalmente como

FILOPNA1 = (1 - LI2)LOPNA,,

~.su representación gráfica aparece en la figura 7.6, en la que puede apreciarse la


':=:;aparicióllde las variaciones estacionales.

.:~
.• ....J
.. ~ I
:::~

1984 1986

:~jt :\-1álaga (]974.7 a 1986.5

.:.-

i' . l' 'i' 'i" , , ' , 'i ., I t, i'" j , , , I ' , , i


J ~ J J J ~ J J _ J J J J J J J J J J J J
1976 ]977 ]978 1979 1980 1981 1982 1983 1984 1985

"Oig. 7.6. Gráficode FILOPNA.

-=: ~:acionaria la nueva serie FILOPNAt? La inspecciónde la figura 7.6 sugiere


..c¡-~;::·.lestanegativa, por cuanto la media parece seguir una trayectoria temporal
.: ..::..:.:.:.
oscilante.

:982 1984 1986


.. :..<.:" referenciaa «filtro», término que procede de la ingenieríay que se utiliza en el análisís de
• ..!..":" a 1986.5).
e: = ··=;:-oralespara designar una transformación de la serie mediante una operación matemática.
2 tR ECONOMETRÍA. Sli.R.IES TEMPORALES y PREDICCIÓN

l'IAx 'JALIJE:.
I
{, ~~...-~+, ..........- .......+1......~+ l.............++~...,.+ ,.+.. +1'+" +'+ ~+.....'...."'.~+
i:, , f',

:/ A
_o

ti ~ ro
A

.. ~.
7 A
A
'"
so ~ A
",
il
,
• >
. Á
A
A

(\
1" ;',
!~,
!l. +
1 +
, A
¡,
¡e H
'9
•.
.
20
1\
'¿¡ A
11
2:: A
:':. A
:'4
:::e.: ",.,11'
..
...
~¿.
ZJ .)
:'"1
A
:'9
Q
,\

'1
A
A

Hg. 7.7. F.a. de FILOPNA.

1.000(>

r, ..
-110-+_ •• +++..++ ~+.+1,++,......++ ..... +-+ .... ++++++-+ 4--+-- .. +,* ++4....
,.++,.... ,..
• " A
" A.
~
..
....
A
:¡ 11
A
b
7 + A
8 A
..
9
:0 .. A
A

l.
!;!
1:;
... A A
A

....
H A
.1:;
16 " A"
1"
.. ·A
·A

....
18
11
'9
¿I) (\

.
21 A

j. 22 ., A
:?"= ~ "~
.
2. + A
2:>
~6
+ '" • A
':'7 A
~B 'A
2.
;;0
31
37.
'1

"A. . ~
33 'A
3.
'ss A ..
(\

'1, A
3~·
"A

Fig. 7.8. F.a. de DFILOPNA.

l .
PROCESOS ESTOCÁSTlCOS y MODELOS ARIMA 219

0,8

0,6 -
0,4 -
+

0,2 -
0,0 AA h ~ ~f\ ~"' f'¡ 6n
~
f'l ~

-:
~
~ ~ ~ '~ ¡ni \
~
-0,2 - '"
-},4 -
- :',6 -
- :.8 1 I 1 I I 1 I I I I I
:>,.. JJ.I.lJJJ.lJJ.lJ.lJ.lJJJ..IJJ
1976 1977 1978 1979 1980 1981 1982 1983 1984 1985
Fig. 7.9. Gráfico de DFILOPNA.

.... -- ..
A

El correlograma de FILOP NAf, representado en la figura 7.7, confirma la sospe-


:':'3, por cuanto no se produce el típico decrecimiento rápido de la función de auto-
.: rrelacíón muestral de la serie, que es característica distintiva de las series
::_.;
.acionarias.
:::'1paso siguiente consiste en extraer la primera diferencia de la serie, a la que de-
~~::-:inamos

DFJLOPNAt = (1- L)FJLOPNAt•


::'s~aserie cuyo correlograma (Hg. 7.8) corresponde a una serie estacionaria, apa-
-::..::representada en la figura 7.9.
3: se realizan más operaciones de diferencia, ya sea regular, ya estacional, se ob-
-:;-.':'que las varianzas de las nuevas series son sensiblemente superiores a las primi-
.: .:....;.
lo que se interpreta como un síntoma de sobrediferenciacián.
:::r consiguiente, DFILOPNA es la serie a la que se aplicarán los métodos que
~ zescriben en los apartados que siguen para obtener predicciones.
220 ECONoMEnUA. SBRlES l'BMPORALES y PREJ)fCCIÓN

7.7. MODELOS ESTACIONARIOS UNEALES

Para analizar y predecir series temporales estacionarias bajo el enfoque de B:~.


Jenkins se utilizan tres tipos de modelos: el autorregrcsivo (AR), el de medias mc: .
les (MA) y el modelo mixto (ARMA).
El modelo autorregresioo de orden p, AR(p) , se define mediante la expresic ;

X, == o + cf>lXt-1 + if>2Xt-2 + ... + f/lpXr_p + el' (7.:-


í
en donde los parámetros epi (i ~ 1,2, ... ,p) y {> son constantes y {el} es un preces:
puramente aleatorio tal que cada el está [ncorrelacionada COIl todas las X¡ _ i p~-:.
todo i positivo. .
El modelo de medias móviles de orden q, MA(q), se define mediante

(7.::

en donde las f tienen análogo significado al de (7.24), y p. y (Ji (i = 1,2, ... , q) s; 7


parámetros constantes. El coeficiente 80 se considera igual a la unidad, sin que e:"':
suponga pérdida de generalidad, ya que se puede adoptar la escala adecuada pa._-:;
que ocurra así.
Por último, el modelo mixto, autorregresívo de medias móviles, ARMA(p, q), 50!
define mediante la ecuación

En todos estos modelos el término él recibe el nombre de innovación, por tratarse


de una parte de la serie que no puede predecirse a partir de su propio pasado.
En las próximas secciones se exponen las caracterfstícas básicas de estos modelos

7.8. MODELO AUTORREGRESNO AR(P)

Volviendo a (7.24),

XI:; (; + <PIXt-l + <P2Xt-2 + ... + <PpXI_P + f:t>


y haciendo uso del operador de retardos, L, definido en 4.3, se puede escribir -

Definiendo

(7.2~

se tiene:
(7.:9
PROCESOS ESTOCÁSTICOS y MODELOS ARIMA 221

-.8.1. Estaciooariedad
::as condiciones de estacionariedad de X, en (7.24) se derivan de las condiciones ex-
1Sbajo el enfoque de Box- 71estas en (7.5) y (7.6), que se transcriben a continuación:
m (AR), el de medias móvi-
E(Xr) = E(X( _ 1) = ... = E(Xt _ k) = P. < 00
fine mediante la expresión 'Yt,t+k = E[(Xt - P.)(X(+k - 1')] = 'Yk < oo ,
(7.24) Tomando esperanzas matemáticas en ambos miembros de (7.24) se tiene:
istantes y {et J es un proceso l' = {)+ 4>11'+ 4>21'+ ... + 4>pl'
ida con todas las X¡ _¡ para
1'=-- --, (7.30)
te define mediante 1- 4>1 - 4>2 - ... - 4>p
(7.25) • para que l' sea finita, es necesario que se cumpla

(i = 1,2, ... , q) son


:- p. y (J¡ 1 - cf> 1 - 4>2 - ... - cf>p -¡é O. (7.31)
mal a la unidad, sin que ello
Esta condición es, por tanto, necesaria para la estacionariedad del proceso, pero
ptar la escala adecuada para
co es suficiente.
Obsérvese que, cuando {)= 0, l' = O. Esto implica que, si se trabaja con desviacio-
ías móviles, ARMA(p, q), se
r-es respecto a la media, o se anula en (7.24), así que se puede prescindir de o en las
~ciones sin que esto signifique perder generalidad.
(7.26) Para que un proceso autorregresivo sea estacionario, los 4>¡ deben satisfacer otras
'l:"Sricciones, junto a (7.31), que se derivan de la condición de covarianza estaciona-
'c de innovación, por tratarse -.;;_.(7.6). La condición necesaria y suficiente de estacionariedad de AR(p) suele ex-
artir de su propio pasado. ~se diciendo que las raíces de la ecuación característica
cas básicas de estos modelos.
cp(L) =O (7.32)

_ estarfuera del circulo de radio unitario.


'=';;¡acondición se ilustra a continuación para los procesos autorregresivos de prí-
-=e:-: segundo orden y se demuestra con toda generalidad en el apéndice.

':)~r-p + €t, -XESO A UTORREGRESIVODE PRIMER ORDEN AR(l)


:l en 4.3, se puede escribir =:deremos el proceso AR(l) de media nula

(7.33)

tílízaudo el operador de retardos, L, se puede escribir


(7.281 (1 - 4>L)X¡ = Et (7.34)
X, = (1 - cpL)-IEr•
(7.29 X¡ = (1 + cpL + rf>2L2+ ... )e(. (7.35)
222 ECONOMETRÍA. SElUES TEMPORALES y PREDICCIÓN

Si X, es estacionario, debe cumplirse que Esta condición coíz


zión necesaria y suñe
E(Xt) '= 0, (7.36) primer orden.
Con vistas a su gen
-dado que en (7.33) no hay término independiente-, junto a
condición (7.39) de ot
'Yo = E(Xt)z < co , (7.37) - .28), resulta en este

De acuerdo con (7.35),


':--,según (7.32),
E(XJ == E(Et + epEt-l + ep2Et_Z + ep3Et_3 + ... ).
Puesto que E(Et_ ¡) = 0, Vi,
de donde se obtiene 2

y, así, para que se cumpla (7.36), es necesario que ~epi sea convergente, es decir,
ec
(7.38) Queda así justificado
~.39), ¡<pI < 1, equiva

por lo que
tal y como se expresó
I~I< 1. (7.39)
cuíer orden, ecuación
Volviendo a (7.35), se puede escribir De acuerdo con los c
- .33) puede contempla
E(X;) = E(€f + epet _ 1 + ep2Er_ 2 + ... )2. :acterística

Dado que, por hipótesis,

vi -;é ° de donde

se tiene:
de modo que exigir com
aer que
y puesto que Ecd-¡) = <1;, vi,
E(X:) = <1;(1 + ep2 + cJ¡4 + ... ). ~e coincide con lo qu
-iámica.
De aquí se obtiene la condición de estacionariedad, Todo lo dicho para
para el proceso AR(p)
(7.40) Antes de pasar a exp
rregresivos de orden su
el proceso autorregresiv
para lo cual es preciso que se cumpla que
lepl < 1.
<1, + ='x» + g = IX
't!Inu ou mpatn op OA!S~l~~llOlm~ose
raraduroo fi. U9!S~lgsTP snn lt!ZHe~l t! sonrax oronrtrd III rouodns uopro sp SO,'-
-Ol!_lllsosooord so] op pepotreuopersa sp SaUOp!pUOOSt!llaUodxa -e rasad ap s; - _o!')
o~o!pu?de P uc (d)lIV oseoord ~
Opt!'Z!1t!l~U~~Y1S~uapro ronnrd op OA!S;>~~1101n-eosooord 1~arad OtP!P 01 .,
o( ° •

'1> Izl
a-
-odun e ~ft!Arnb~ T > 1t{>1 anb popeunuopoise ep UPP!puo:J ouroo I!g!X~ snb opc

't{> =Z

(€voL) 'o = o zt{> - l. z

llOnS!-JW 'z{ .. °
-eo u9!o-enoa ep 'oo!myu!p oppom un ouroo <>lU<>m¡t!mloJosrejduraruoo apand ~- _
uoroanoo 131'f opujdso Id no soisandxo t!0!illYU!Pop soidoouoo so¡ uoo opl;;>noe;.,;:
o(Z;t"L) u9p-enoa 'uapro -
-jano op SOA!S~Jg~JJO:JUllsosooord arad Sdft!l~U~a SOU!WJ?l Ud osardxa ~S ouroo

'[ < 171


dnbmldA (Jv'L) op uoronjos el snb rouodun -e ~l-eA!nbd '1> 1t{>1 '(6:-_
pepatreuotomsc op U9P!PUOO t!l onb (I)lIV osooord Id -elt!d opsojjnsn] ¡SRRpanC

t{>
(ZvOL) '-=7
I
uotorqos -el euouqo as apuop T.

(WL) 'o = 7t{> - 1


0( ... +í

7</> - I == (7)</>
onb os-eo dlS~ tIO t!llns~l '(8Z'_ (Lf' L)
U~ l?p!'.>np0.I1UrlRl~U~~ U9P1?lOU t!} uoo opronoa <>Q 'eUlIOJ ano ap (6('L) U9P!PUOO
-e onmt
el resordxa aU~!AUOO'lOPddns uopro op SOS;}OOlde u9~O-eZn-eJ~u~gns -e S'I!lS!AuOJ
-uopro 1~Ul!Jd
~p OA!SdI8dlloln-e OSdOOJdl~P nq?p pepeusuopeisa ap dludPUns Ii. -epBS;}'.>~U
U9!.)
-!PUOO'l!lop ''I!A!l!U!J~PU~ '1?llHl;}S onb 0IIod '(6f' L) uoo dP~OU!OOU9!:l!PUOO'l!lsg

(ZZ VWnIV sorscow Á soousvoorsa S0S3801ld


224 ECONOM13TRtA, SERIES 1'l>}¡ll'OltAl.ES y PREDICCIÓN

con el modelo autorrcgresivo de tendencia, ecuación (2.27). Obsérvese que arnba: _..:.~ondición necesar.
expresiones son formalmente análogas. Sin embargo, estos modelos se aplican a ~t·
ríes cuyo comportamiento es bien diferente. En primer lugar, aquí se exige q::!
1<p1 < 1; en cambio, en (2.27) el parámetro equivalente, 'Y1' no puede ser negativ; _;l..:. fuera del círcu.:
en tanto que sí puede ser mayor que la unidad. Esto significa que las series a;;:.; .:::~~condición coinc;
que se aplica el modelo autorregresivo de tendencia pueden ser no estacionarias, pe- :..;_:;z e segundo orden, ~
ro son series primarias (brutas), y los valores de la variable son siempre positivos .: ~;e han de cumplir
En cambio, las series a las que se aplica el modelo estocástico autorregresivo suele:
ser series estacionarizadas (después de eliminar la tendencia y otras componentes de- <PI + 0:
terministas) o series residuales, por lo que a menudo presentan valores positivos :.
negativos, pero hay otra diferencia notable, que conviene destacar. En las series :: . _~ .:::plican, a su vez.
las que se aplica el modelo autorregresivo de tendencia, la componente determinista
detenta un elevado porcentaje de la varianza total de Xt, en tanto que en las serie!
a las que se aplica el modelo estocástico autorregresivo, el término de innovación.
€t, posee un peso notable en la variabilidad de la serie (véase la figura 7.10). - .~.::. Función de autoc

. -'... .unciones de autoc


.i.:: :;:ara aplicar la rne
~.-:=- el proceso autor~
X,
1'¡ :..= 1
'Y¡ "" 1,5

\/·.Jriplicando ambos

:.:.:::nbién

'Yo

\1ultiplicando (7.48

o o 1"

Fig. 7.10. (a) Modelos autorrcgresivos de tendencia: XI:; 'Yo+ 'Y,Xr-1 + Uf; 1'1 > O. :)e la misma manera
(b) Modelos estocásticos autorregresivos: X, = Ó + ~lXr-¡ + Er; 14>1 < 1. : :::-.os:

1"2 ::
PROCESO A UTORREGRESIVO DE SEGUNDO ORDEN AR(2) 'Yk =
A título meramente ilustrativo de la condición de estacionariedad expuesta en
Esta ecuación mues
(7.32), consideremos el proceso AR(2):
::-:·.iaciónen diferencia
(7.44) ~.::ocorrelaciones, com
PROCESOS llSTOCÁSTJCOS y MODELOS ARIMA 225

Obsérvese que ambas :_a condición necesaria y suficiente de estacionariedad es que las raíces de
:-jelos se aplican a Se-
~. aquí se exige que (7.45)
e puede ser negativc .
.l...~an fuera del círculo de radio unitario.
:a que las series a las
Esta condición coincide con la de estabilidad dinámica de la ecuación en diferen-
:: no estacionarias, pe-
:~::..~
de segundo orden. discutida en el ejercicio 3.5. Las condiciones correspondien-
~.:>nsiempre positivos.
~': que han de cumplir ePI y 4>2 son, por tanto, análogas a (3.58),
zutorregresivo sueler.
e.ras componentes de- <PI + 4>2 < 1, <P2 - <PI <1 Y r/>2 > - 1, (7.46)
:an valores positivos :.
estacar. En las series a ~_~ implican, a su vez,
::-.ponente determinista
.anto que en las series -2 < epI < 2 y <1>2 < l. (7.47)
errnino de innovación.
~~ela figura 7.10). -.8.2. Función de autocovarlanza

:..::...;
funciones de autocovarianza y de autocorrelación (f.a.) de los procesos se utili-
:":':1 para aplicar la metodología Box-Jenkins en el análisis empírico.
Sea el proceso autorregresivo

(7.48)

\lultiplicando ambos miembros por X, y tomando esperanzas matemáticas se


~.~l1e:

: .ambién

1'0 = 1>¡Yt + 1>zI'2 + ... + eppl'p + C1;. (7.49)

Multiplicando (7.48) por XI _ I se obtiene, análogamente,


....
(7.50)

'::Xr-1 + Ur; Yl > O. De la misma manera, multiplicando (7.48) por X, _2 Y por X( _ k, para k ~ p te-
:~Xr-l + El; 11/>1 < 1. ::emos:

1'2 == <Pll'l + 1>'21'0+ .,. + cfJpYp-2 (7.51)


ES AR(2)
vs= <PIYIc-J. + 1>2Yk-Z + '" + <PP'Yk-P' (7.52)
~..:jonariedad expuesta en
Esta ecuación muestra que para k ~ P las autocovarianzas satisfacen la misma
ecuación en diferencias que la serie temporal. Lo mismo puede afirmarse para las
(7.44) autocorrelaciones, como se deduce dividiendo (7.52) por 1'0'
228 &ONOMETRÍA. SlllU6S TEMPORALBSy PREDICCiÓN

__: ::-~Oel valor de p es é e-;


Dado que las soluciones de los ~i dependen del valor de k, se utiliza la siguier..s
notación: ~ik es la solución para 1>i del sistema de ecuaciones de Yule-Walker de :.:_-
maño k. Se acaba de demostrar que, si k < p, epik ~ epi' .: p = 1;
Obviamente, para k = p, <Pi/( = <Pi' Queda por ver qué ocurre cuando se especifi; ~
que k> p. En este caso, resulta que epik = O para ¡> p y r!>ik = epi para i ~ p.
Ésta es una importante propiedad para las aplicaciones prácticas, como se ver ~ ~l -. =
.., p == 2;
más adelante. Esta propiedad puede justificarse como sigue: escribamos el sistema r "12 _.
de ecuaciones de Yule-Walker para k> p

1'1 I 'Yo 1'1 'YP _ 1 'Yp 'Y" _} 1>1 :i p;:: 3;


'Y2 "11 'Yo 'Yp-2 'Yp_1 'Y/(-2 <1>2

-:J espei ando ,


'Y" 'YP_ I "Ip-z 'Yo 'YI "11<-p ~p
(7.60.
'Yp + I 'Yp "IP-l 'YI 'Yo 'Y" _p_1 epp+ 1
'Yp+2 "1P+ 1 'Yp "12 "11 'Yk-p-2 epP+2 :

'Yk 'Yk - 1 'Yk - 2 'Y" _p 'Yk-p- 1 'Yo cbk


':: donde se obtiene ó::
Éste es un sistema de k ecuaciones con k incógnitas que tiene solución única, pues De manera análoga ~=;
la matriz de covaríanzas es no singular. Obsérvese que, si cbp I 1, ..• , cbk se igualan La sucesión
a cero, cada una de las ecuaciones es de la forma

:.Jnsiderada como fu:,_::-


Si hay evidencia de ~_!
Estas ecuaciones darían como solución los coeficientes cbi del proceso AR(p), pues e. proceso generador ce .:
coinciden con (7_55). Por 10 tanto, una (la única) solución es <Pi = O para i > p y los :na de verificar si c:t>j« =
coeficientes del proceso para i ~ p. La t.a.p. puede cm::~=
Ya se ha dicho que, para k < p, ~ik ;.t <Pi' De entre todos los coeficientes epi/( :es de las autorregre~:: :,
(i = 1,2, ... , K) interesa particularmente el k-ésimo, es decir, ~kk • Considerando
X,::: :
k variable, estos coeficientes son función de k. También se ha visto que, para k> p,
estos coeficientes se anulan. Ahora conviene tener presentes estas ideas a fin de in- X - -
troducir un nuevo concepto, la función de auto correlación parcial. X, =:
e:.:: .
Definición. La sucesión cbkk' contemplada como función de k, se denominafun-
ción de autocorrelacián parcial (f.a.p.) De hecho, la f.a. p. :....
Esta función desempeña, junto a la función de autocorrelación del proceso (f.a.), anteriores coinciden :::~
un importante papel en la metodología Box-Jenkins, ra la estimación de ~:
Obsérvese que, si e: -;
Para ilustrar la definición, considérese que, a partir de una serie temporal dada,
generada por un proceso autorregresivo, se hallan las estimaciones de 'Yo, 1'1''Y2' ... , autorregresivas con ~=:.:
tes sean no significar. :
'Yk, . - -
PROCESOS ESTOCÁSTICOS Y MOlJl:lLOS ARIMA 229

. se utiliza la siguiente Como el valor de p es desconocido, se plantean sucesivamente los distintos casos:
:e Yule-Walker de ta-
'YI
(a) p = 1; de donde 1>11 = -A-'
A

:e cuando se especifica 1'0


'. = <!>¡ para i ~ p.
:a.~ticas, como se verá
escribamos el sistema
(b) p = 2;
[~:J [ ?o ?t 1 [~IZ],
1'1 1'0. r/>zz
de donde (b22 = ?Z/?l - ?1~JO.
I'Ohl - 'Yrho

epi
ep'}. .&'¡i
(e) p = 3;
[i;] [ ~o
'Y1 1'0
A

'Yz
~
1'1

1'1
~'J[!,,]
1'1
-Yo
epZ3'
(/,33

~ epp
(7.60) t Despejando,

2
epp+ 1
rPp+z
i ~13 j
r/>k
[
CPZ3
(/,33 Jr
de donde se obtiene (/,33'
.;: solución única, pues De manera análoga se determinan (/,44' éi>s:s, etc .
. _:' ... , rPk se igualan La sucesión

considerada como función de k, es la estimación de la j.a.p.


Si hay evidencia de que eplck = O para todo k mayor que un p dado, p*, entonces
,~proceso AR(p), pues el proceso generador de los datos es un proceso autorregresivo de orden p*. La for-
:: = O para i > p y los ma de verificar si ep kk = O para k > p se comenta en 7.12, ecuación (7.98).
La f.a.p. puede contemplarse también como la sucesión de los últimos coeficien-
:'~ los coeficientes epík tes de las autorregresiones sucesivas
.r, 0kk' Considerando
visto que, para k > p, X¡ = CPllXt-1 + ~L
estas ideas a fin de in- X( = ep12Xt- 1 + epzzX, - 2 + fl
~arcia1. (7.61)
Xt = CPl3Xt - l + cfJ23X, - 2 + 4>33X, - 3 + ft
etc.
;~ k, se denornina jus-
De hecho, la f.a.p. y la sucesión de los mencionados coeficientes de las regresiones
c.ón del proceso (f.a.), anteriores coinciden prácticamente cuando se utiliza el mismo conjunto de datos pa-
ra la estimación de ambos.
:: serie temporal dada, Obsérvese que, si el proceso autorregresivo es de orden p y se plantean ecuaciones
enes de 'Yo' 'Y1' 'Y2' ... , autorregresivas con retardos superiores ap, es de esperar que los últimos coeficien-
.es sean no significativos.
228 ECONOMETRÍA. SERIES TEMPORALES Y PREDIOCIÓN

Dado que las soluciones de los cf>i dependen del valor de k, se utiliza la siguiera Cozao el valor de p es d
notación: cf>ik es la solución para cf>idel sistema de ecuaciones de Yule-Walker de lZ>-
maño k. Se acaba de demostrar que, si k < p, cf>ik ~ cf>i' = p= 1;
Obviamente, para k = p, cf>¡k = cf>i' Queda por ver qué ocurre cuando se especifica
que k> p. En este caso, resulta que cf>ik = O para i > p y cf>ik = <Pi para ¡ <».
Ésta es una importante propiedad para las aplicaciones prácticas, como se \0c:-:.
más adelante. Esta propiedad puede justificarse como sigue: escribamos el sistera,
de ecuaciones de Yule-Walker para k> p
- p = 2;
[~:J
'Yl 'Yo 'Yl 'Yk-l cf>l e p = 3;
G:J
'Yp-l 'Yp
'Yz 'Yl 'Yo 'Yp-z 'YP-l 'Yk-Z cf>2

cf>p
:lespejando,
'Yp 'Yp-l 'Yp - 2 'Yo 'YI 'Yk-p
= 'Y¡
(7.«
'Yp+ 1 'Yp 'Yp_ 1 'Yo 'Yk-p-I <Pp+

[
1
9
'Yp+2 'Yp + 1 'Yp 'Y2 'Yl 'Yk-p-2 cf>P+2
~
9
'Yk Y« -1 'Yk -2 'Yk-p 'Yk-p-l 'Yo ePk
-= donde se obtiene (/J33'

Éste es un sistema de k ecuaciones con k incógnitas que tiene solución única, pues ::>e manera análoga se d
la matriz de covarianzas es no singular. Obsérvese que, si cf>p+ l' ... , ePk se iguala; :..a sucesión
a cero, cada una de las ecuaciones es de la forma

considerada como función


Si hay evidencia de que
Estas ecuaciones darían como solución los coeficientes ePi del proceso AR(p), p~ e, proceso generador de los
coinciden con (7.55). Por lo tanto, una (la única) solución es cf>¡= Opara i > p y le;: zaa de verificar si cf>kk = O
coeficientes del proceso para i ~ p. La f.a.p. puede contemp
Ya se ha dicho que, para k < p, cf>ik ~ cf>i' De entre todos los coeficientes o .es de las autorregresiones
(i = 1,2, ... ,K) interesa particularmente el k-ésimo, es decir, cf>kk' Considerancc
k variable, estos coeficientes son función de k. También se ha visto que, para k > ;; X, = cf>n
estos coeficientes se anulan. Ahora conviene tener presentes estas ideas a fin de iu- X, = eP12
troducir un nuevo concepto, la función de autocorrelación parcial. X, = cf>1
etc.
Definición. La sucesión cf>kk' contemplada como función de k, se denorninafur.-
cion de autocorrelación parcial (f.a.p.) De hecho, la f.a.p. y la su
Esta función desempeña, junto a la función de autocorrelación del proceso (f.a. anteriores coinciden práctic
un importante papel en la metodología Box-Jenkins. :a la estimación de ambos.
Para ilustrar la definición, considérese que, a partir de una serie temporal dada Obsérvese que, si el prece
generada por un proceso autorregresivo, se hallan las estimaciones de 'Yo, 'Yj,'Y2' ... autorregresivas con retardo
"[k» ••• tes sean no significativos.
~; 1

. ..i <: ..'.~..


..
• ...~ -_ . ¡

.. 1 ~- . J
-,
~ - j "
\ '-,.~ '~I

PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 229

za la siguiente czac el valor de p es desconocido, se plantean sucesivamente los distintos casos:


-Walker de ta-
~ 1'1
p= 1; de donde cf>u = -A-'
o se especifica 1'0
ara i ~p.
como se vera
nos el sistema
p = 2;
[~:J [ ~o
1'1
~1
'Yo
J [~12],
cf>22
de donde if> - -Y261 - -Y160 .
22-Ar1'0 1'1 - 1'1Ar'Yo

.. p = 3;
Ui] [?'
1'1
-Y1
-Yo 1'1
'Y2 1'1 -Yo
~,][~"l cf>23'
if>33

~pejando,
(7.60

~: ;:] -1 [;~],

1'1 1'0 1'3

_ .ionde se obtiene if>33'


ión única, pues :le manera análoga se determinan if>44, if>S5, etc.
'Ok se igualan :..a sucesión
~ll' ~22' ~33' ••. , ~kkl •.• ,

considerada como función de k, es la estimación de la [.a.p.


Si hay evidencia de que cf>kk = O para todo k mayor que un p dado, p*, entonces
so AR(p) , pues e! proceso generador de los datos es un proceso autorregresivo de orden p*. La for-
para i > p y los ma de verificar si cf>kk = O para k> p se comenta en 7.12, ecuación (7.98).
La f.a.p. puede contemplarse también como la sucesión de los últimos coeficien-
coeficientes cf>ik tes de las autorregresiones sucesivas
. Considerando
;ne, para k> p, XI = cf>l1Xt-l + e,
leas a fin de in- XI = <P12Xt-l + cf>22X'-2 + E, (7.61) I
X, = cf>13Xt-l + cf>23Xt-2 + cf>33X,-3 + f,
etc.
denomina [un-
De hecho, la f.a.p. y la sucesión de los mencionados coeficientes de las regresiones
I proceso (La.), anteriores coinciden prácticamente cuando se utiliza el mismo conjunto de datos pa-
ra la estimación de ambos.
temporal dada, Obsérvese que, si el proceso autorregresivo es de orden p y se plantean ecuaciones
!'Yo, 1'1,1'2"'" autorregresivas con retardos superiores a p, es de esperar que los últimos coeficien-
tes sean no significativos.
230 ECONOMETRÍA. SERIDS TEMPORALES y J.>.R.EDICCIÓN

F.a. F.a.p.

tPkk

1,0 1,0

k k
-1,0 -1,0
1,0 1,0

-1,0 -1,0
(a) AR(I)
P/r (/>/rk

1,0 1,0

k k
-1,0 -1,0
1,0 1,0

-1,0 -1,0
1,0 1,0

-1,0 -1.0
1,0 1.0

-1,0

(b) AR(2)

Hg. 7.11. F.a. y f.a.p. para procesosARO) y AR(2).


PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 231

7.8.4. Conclusiones

Resumiendo, las propiedades de la f.a. y de la I.a.p. de los procesos autorregresívos


pueden permitir. a la vista de su representación gráfica, la caracterización del proce-
.~ogenerador de los datos. así como la determinación del orden p del mismo. Ésta

--- k
'1

j
~
es la primera etapa del procedimiento de modelización Box-Jenkins, que se conoce
con el nombre de identificacián t, y de la que nos ocuparemos más adelante, en §7.13.
La figura 7.11 recoge esquemáticamente las formas de estas funciones para diver-
sos procesos autorregresivos de primer y segundo orden.

-- 7.9. MODELO DE MEDIAS MÓVILES MA(q)

El modelo de medias móviles de orden q fue definido en (7.25) mediante

Tomando esperanzas matemáticas en ambos miembros queda

--- k Por otra parte, la varianza del proceso es


(7.62)

(7.63)

Las condiciones de estacionariedad se cumplen, obviamente, pues. al ser limita-

- do el número de parámetros (Ji' ¿; 8r es convergente.


'1

i=l

7.9.1. Descomposición de Wold

- Wold t ha demostrado que todo proceso estocástico débilmente estacionario de me-


dia nula, XI> que no incorpore componentes deterministas, puede expresarse como
una función lineal de variables aleatorias íncorrelacionadas, €t, es decir,

(7.64)

Por lo tanto, el proceso de medias móviles es un caso particular de proceso débil-

--- mente estacionario.

.;. Adviértase que el término «identificación» guarda en este contexro un significado diferente al emplea-
do en Econometría (véase pág. 318).
::. WOLD. H. O.: A Study in the Analysis 01 Stationary Time Series. Almquist and Wicksell. Uppsala,
Rll). . 1938. "
232 ECONOMBTRÍA. SElUES TEIIU'ORALES y PREDICCiÓN

3ea, por ejemplo, un


Obsérvese que para la estacionariedad de X, en (7.64) es preciso que l.: 07 se;
i=1
convergente, para lo cual generalmente es preciso que los O¡sean decrecientes a par-
tir de uno de ellos. ):,: aquí que
El proceso de medias móviles puede contemplarse como una aproximación ce
cualquier proceso débilmente estacionario, 10 que proporciona una buena justifica- El = (1
ción al modelo de medias móviles. Al ser q finito, la estacionariedad del preces:
de medias móviles está siempre garantizada, pero, si en la práctica estamos aprox- '~bién
mando cualquier proceso estacionario mediante uno de medias móviles, es de espe-
rar que los O¡decrezcan a medida que i aumenta. Esta condición, que parece
intuitivamente aceptable, se justifica en 7.9.3. ::,,:a representación
Por otra parte, la descomposición de Wold proporciona también cierta justif"-
cación a los procesos autorregresivos estudiados en el apartado anterior. En efe.-
to, según se demuestra en el apéndice, ecuación (A.7. 7), un proceso autorregresiv ~
AR(p) admite una representación de tipo media móvil con infinitos términos. _ zecir, si la solución
MA(co),

:..=.::-leque ILI > 1. E


Por ejemplo, en el caso del proceso autorregresivo de primer orden, véase la ecua- ~- .ceso MA(l). Obsérv
ción (7.35). Pero en este caso, entre los ,pi existen relaciones de manera que s610; -~ -;asados de X al v
de ellos son independientes, en tanto que los (Ji en (7.64) son parámetros libres. -.1 :;:oco realista, y la
En consecuencia, los procesos autorregresivos constituyen también una apro);:- . = 1 es un caso lím
mación de cualquier proceso estacionario. :- .cesos estacionarios
En realidad, la modelización de un proceso real puede tener varias alternativas <s con términos deter
En la práctica interesa aquel modelo que necesite menor número de parámetros. E~- - ~:.l).
ta solución es la acorde con el denominado principio de parametrizacián escueta';'. ::':-.general, para un
o principio de economía.

7.9.2. lnvertibilidad

Así como los procesos AR(p) admiten una representación MA( eo), cualquier proce- :.)nde
so MA(q) puede, bajo ciertas condiciones, expresarse como un AR(co). Estas condí-
ciones se denominan de in vertibilidad. O(

..;::ene que

t Ésta es la forma en que suele traducirse a nuestro idioma el término inglés «principio de parsimonia .
referido al análisis de series temporales. En la literatura científica anglosajona esta expresión goza ce
una fuerte tradición, Aunque el «principio de parsimonia» fue invocado por primera vez por Durar.; ..::.condición de inve
de Saínt-Pourcaiu (1270-1334). teólogo dominicano francés, William de Ockham, escolástico medie-
val, lo usó con tal frecuencia y de forma tan aguda que en inglés se lo conoce también con el nomb-e
de «Ockham's razor». «Parsimonia», en latín significa «frugalidad» (significado que no se conserva
en castellano). Por eso en inglés el principio de «parsimonia. se denomina también principio de econc-
mía, expresión que podríamos usar en nuestra lengua sin ningún inconveniente. .l..;an fuera del círcu
PROCESOS ESTOCÁSTICOS Y MODEWS ARIMA 233

co
Sea, por ejemplo, un modelo MA(l):
, preciso que _6 of sea
í= 1
sean decrecientes a par-
De aquí que
: una aproximación de
:-.a una buena justifica-
.onariedad del proceso
:-á.:tica estamos aproxi- y también
.as móviles, es de espe-
condíción, que parece

Esta representación es de interés si


.ambién cierta justífi-
ado 'interior. En efec-
;~oceso autorregresivo
.:':1 infinitos términos, es decir, si la solución de la ecuación característica

)-B¡L=O

cumple que ILI > l. Esta condición se denomina condición de inuertíbitidad del
::-orden, véase la ecua- proceso MA(l). Obsérvese que, si 1811> 1, entonces la contribución de los valo-
je manera que sólo p
res pasados de X al valor corriente, XI' crecería con el lapso temporal. Esto se-
:. parámetros libres. ría poco realista, y la representación autorregresiva carecería de sentido. El caso
: .ambién una aproxi- .el = 1 es un caso límite de «casi invertibilidad», que aparece, por ejemplo, en
procesos estacionarios que surgen después de aplicar diferencias finitas a proce-
e= varias alternativas. sos con términos deterministas, tales como una función lineal del tiempo (véase
~:ode parámetros. Es- 7.15.1) .
etrizacián escueta t.
...... En general, para un proceso MA(q) de media nula,

Xt == (1 - (J¡L - 02L2 - ... - OqLQ.)ft =


= O(lJ)€(,
. :c), cualquier proce- en donde
. :\R( (0). Estas condi-
(7.65)

se tiene que

~:::ncipíode parsimonia»,
:::a. esta expresión goza de
.: primera vez por Durand y la condición de invertibilidad es que las raíces de
::óaro, escolásticomedie-
-:e también con el nombre
:""';adoque no se conserva 8(L) =O (7.66)
..==-ién principio de ecollo,
~=:l(e. caigan fuera del círculo de radio unitario.

- --.----~--------------------------------------~==~
234 ECONOMETRÍA. SERIES TEMPORALES Y PREDICCIÓN

7.9.3. Funciones de autocorrelación (f.a.) y de autocorrelación parcial (f.a.p.)

Considerando el proceso MA(q) de media nula

(7.0

la varianza es

(7.~

puesto que
vi sej.
1'0lL
Análogamente,
-1,.1 j
(7.6~
1,0
En general, se tiene:
q
'Yk= -C1;Ok+(J; I; ()¡_kO¡; k = 1,2, ... , q. (7.7C
i=k+ 1
-1,0
Para k> q, obviamente,
(7.7! 1,°11
y lo mismo ocurre con la función de autocorrelación (véasela figura 7.12). Este últi-
mo resultado tiene mucho interés práctico, pues se utiliza para identificar el ordez
del proceso de medias móviles que se ajusta a una serie temporal dada, según se ex-
-1,01,
plica en 7.13.
Antes de pasar a la f.a.p., vamos a proporcionar una justificación del decreci-
miento de los (J¡.
La matriz de varianzas y covarianzas,
I,°h
-1,0
'YO 'Yk],
[ 'Yk 'Yo I'O~
debe ser definida positiva. Esta condición implica simplemente que no se presenta
nunca una correlación lineal perfecta entre X, y X, _k (k = 1,2,3, ... ). En efecto
si V(XtXt _ k) es definida positiva, -1,0

'Yo> O 'Yo 'Yk I > 0,


y
I 'Yk 'Yo j'ig. 7.1':"
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 235

~Jación parcial (f.a.p.) F.a. F.a.p.

1,0 1,0
(7.67)

k k
(7.68)
-1,0 - L,O
1,0 1,0

.
~ .' == -1,0 -1,0

(a) MA(l)
(7.69) P/c rPklc

1,0 1,0

. q. (7.70) k k

-1,0 -1,0
1,0 1,0
(7.71)

:-;gura 7.12). Este últi-


:-a identificar el orden
-1,0 -1,0
'~3.1 dada, según se ex-
1,0 1,0
:::"::ación del decrecí-

-L,O -1,0
1,0 1,0

.~ que no se presenta
:.3, ... ). En efecto,
-1,0 -1,0
(b) MA(2)
Hg. 7.12. F.a. y La.p. para procesos MA(l} y MA(2).
236 ECONOMETRÍA. SERJES TllMPOR.Al.F.S y PREDICCIÓN

por lo que

'Y~ - 'Y~ > 0,


2
( -;r2) > O,
'Yo 1
'Yk

es decir,

Además, al ser 'Y~- 'Y~> O, resulta que

y esto, a la vista de (7.68) y (7.70), implica que, generalmente,

i = 1,2, ... ,q.

En cuanto a la f.a.p., se tiene:

X, == ()(L)fct = II(l - w¡L)fp


i

en donde los w¡ son las raíces características de la ecuación

6(L) = O.
De aquí que

II(l - W¡L)-lX¡ = él
i

-:ro - el proces
: ~o..:.:!
.l: :: ""::;:05 términos

El proceso MA(q) es equivalente a un AR(oo), y, por lo tanto, la f.a.p. tiene z,' o


-: .r.:.alqueparalo
nitos términos. Éste es otro resultado de interés práctico en conexión con la ide:::.o'- z: :,:'_;_..::onariedade
cación de estos procesos (véase la figura 7.12).
Obsérvese, por último, que la fórmula de Barlett, (7.13), aplicada a este proce-:
para el cual Pk = O para k> q, es .::~:: estar fuera de

- : lo ~. InverHbilidad

_~ -:-::Jación(7.76) p
resultado de interés para identificar el orden q del proceso a partir de la La. mue:
tral, como se ve en 7.13.
PROCF.SOS ESTOCÁSTICOS Y MODELOS ARIMA 237

• ~I).MODELO MIXTO ARMA(p, q)

= -: acuerdo con (7.26), este modelo se define mediante la expresión

-.10.1. Estacíonaríedad

_. ~I proceso es estacionario, la media, po, es constante y viene dada por

E(X,) = po = o + cjJ¡J-L + cjJ2po + ... + ePpPO

po == - ._-
o
--- ._-,
I - <PI - eP2 - ••• - cjJp

: = modo que para la estacionariedad es necesario que

(7.75)

Utilizando el operador de retardos, L, el modelo de media nula puede escribirse así:

(7.76)
::-_donde

La ecuación (7.76) puede escribirse así:

(7.77)
- -
(.. -~
;or lo que el proceso ARMA(p, q) es equivalente a un proceso de medias móviles
de infinitos términos con p + q coeficientes independientes.
..ene infi- Al igual que para los procesos autorregresivos, la condición necesaria y suficiente
::.identifi- de estacionariedad es que cp(L) -1 sea convergente, para lo cual las raíces de

': proceso, cp(L) =O


deben estar fuera del círculo de radio unitario.

(7.74) 7.10.2. Invertíbilidad

La ecuación (7.76) puede escribirse así:


.a. mues-
(7.78)
238 ECONOMETRÍA. SERIES TEMPOR.ALES y PREDICCIÓN

Esta expresión muestra que el proceso ARMA(p, q) equivale a un proceso E.:':'::-


rregresivo de infinitos términos con p + q coeficientes independientes. Para que (". - ;
tenga sentido, es preciso que 8(L) - ¡ sea convergente, es decir, que las raíces e:

O(L) = O

caigan fuera del círculo de radio unitario. Ésta es la 'condición de invertibilidad .:.,
proceso, análoga a la ya expresada para el modelo de medias móviles.
Las condiciones de estacionariedad y de invertibilidad son independientes.

7.10.3. Funciones de autocorrelaetén (f.a.) y de autocorrclacíén parcial (t.a.p.

De acuerdo con (7.78), el proceso MA(p, q) es equivalente a un proceso autorrej-.


sivo de infinitos térmínos. Por lo tanto, la f.a.p, del proceso MA(p, q) tendrá in::'::'
tos términos.
Análogamente, y de acuerdo con (7.77), el proceso MA(p, q) se comporta ccz :
un proceso de medias móviles de infinitos términos, así que su f.a. tendrá tamc.e-
infinitos términos.
Una expresión útil de la función de autocouarianza de un proceso ARMA(¡. :
de media nula se obtiene multiplicando los dos miembros de (7.26) (con = O) ;:< . o
X, _k Y tomando esperanzas matemáticas.
La función de autocovarianza es

"Ik = E(X¡X I_k) = E(rPIXt-lXt-k + </>zXt-ZXt-k + '" + <PpXt-pXt-k + c-:


+ EtX"_k - 8jEt-1X¡-k:-'" - °q€t-QXt-k)·

Obsérvese que, para k > q, la parte debida a la media móvil se anula en esta ~!.
presión, ya que E(Et_¡ft_j) = 0, vi =i. Esto significa que la f'.a. de un preces:
MA(p, q) se comporta igual que la de un proceso autorregresivo a partir de k> c'
es decir, que disminuirá exponencial o sinusoidalrnente, con posible apariciór, ::
dientes de sierra, dependiendo de la raíz de mayor módulo de la ecuación en dife~::-.
das finitas a que queda reducida (7.79),

c.~:
En cuanto a la f.a. p., si p > q, se comporta como la de un proceso MA desp ;e.
de p - q retardos, es decir, con decrecimientos exponenciales o mediante oscilac:r-
nes amortiguadas.
La figura 7.13 ilustra algunos de los resultados que se acaban de comentar.

7.11. MODEI,OS ARIMA(p, a, q)


Las series temporales que surgen en el análisis económico rara vez son estacionaria,
!

PROCESOS ESTOCÁST.lCOS y MODF.J..OS ARIlVlA 239

: a un proceso a:_:: :
::.es. Para que (".
que las raíces -"
,.
La. F.a.p.
~~:
!o"¡

:e invertibilidad .:, Pk cl>kk

=-_0viles.
1,0 1,0
:':'ependicntes.

D parcial (f.a.p.. k k

:.oceso autorreg~~· -1,0 -},O


.::..q) tendrá inh..:· 1,0 1,0

; ~ comporta COFo.:
¿_. tendrá tambié;

-1,0 -1,0
ARMA(p, '1
..:e50
~I (con /j == O) pc~ t ,0 1,0

-1,0 -1,0
1,0 1,0
anula en esta ex-
ó. de un procese
• partir de k > q,
:'::,leaparición de -1,0 -1,0
ación en diferen- 1,0 1,0

(7.80)

eso MA después
-1,0 -1,0
2ante oscilacio-
1,0 1,0
:'e comentar.

-1,0 -1,0

r; estacionarias. Fig. 7.13. ¡.'.a. y La.p. de procesos ARMi\(l, 1).


240 ECONOMETRÍA. SERIE.~TEMPORALP.S y l'Rl'lmCCIÓN

Muchas series económicas se convierten en aproximadamente estacionaru. ~


pués de aplicar diferencias en una o más etapas (véase 7.6.1). Si la serie c:-;::.a..
X" es homogénea de orden d, entonces
t = 1,2, ... , T,
es estacionaria.
Si ahora se admite que Z, obedece a un proceso ARMA(p, q), es decir,

entonces

y se dice que X, es un proceso ARIMA(p, d, q) (autorregresivo m.teg;rade de :: :~


m()\Ii\).E\ operador 4. -1 sude sustituirse por L, ya que la inversa de una ope-z; :r.
de diferencia consiste en una suma, así que

A -1 == (1 - L) -1 == (1 + L + L2 + ... ) == 1;. :

Esto justifica que el proceso se denomine «integrado».

7.12. MODELOS .ESTACIONAI,ES


.. ._
.. -;
~ -- -~: .....
Otra fuente de no estacionariedad en las series económicas reales la constituye :.e. r-
..,~ .. - :'""':.
tacionalidad (véase 7.6). El procedimiento que suele utilizarse en el análisis E: .
Jenkins para desestacionalizar las series es el de diferenciación estacional, descrr.:
en 7.6.4.
" ;::
Una vez que a la serie original X, se le aplica D veces el procedimiento de la c.:::.
renciación estacional, se tiene:

(7.~.:.

en donde s = 4 para datos trimestrales, 12 para datos mensuales, etc. Es posible q;.::
después de la operación de diferenciación estacional, la serie Z¡ resulte ser estaciona-
ria (en la práctica, lo seria s610 aproximadamente). Entonces se puede aplicar a Z ,'f
"

cualquiera de los modelos estudiados para las series estacionarias, AR(p), MAl.;-
o ARMA(p, q). -: : _~:'e escribir
En este último caso, por ejemplo, se tiene:

<I>(L)Z¡ = O(L)~{, (7.85


?ara este proceso, l
y sustituyendo Z¡ según (7.84), se tiene:
~ .r.tervaíos de S reta
-:. -.14).
PROCESOS ESTOCÁSl'lCOS y MODELOS ARIMA 241

.acionarías des- ::5 posible que para conseguir la estacionariedad sea necesario aplicar d dife-
:. serie original. .::-:~:asjunto a la diferenciación estacional. En tal caso, Z¡ sería ARIMA(p, d, q),
: . .:eClf,

(7.81 (7.87)

~.:~ lo que, sustituyendo en (7.84), queda


-s decir, que
(7.88)

Éste no es el modelo estacional más general, pues es frecuente que la estacionali-


.:..:.3 afecte a los datos de otra maneravsegún se expone en los casos que siguen,
(7.82)

~.:-adode media
-,12.1. Modelos autorregresivos estacionales
: ·.:naoperación
-=-~abajandocon datos mensuales, por ejemplo, es factible que X, pueda expresarse
'::: función de X¡ -12 (el valor correspondiente al mismo mes del año anterior), de
(7.83)
::>rma que

Así se tiene el proceso autorregresioo estacional de primer orden, para el que se


.:.:iIizala notación AR(1)12'
::':1stituye la es- En general, el proceso autorregresivo estacional de orden P, AR(P)p en donde
: I
:: análisis Box- ; vale 12 con datos mensuales, 4 con datos trimestrales, etc., viene definido por la . ¡

r.onal, descrito s.guiente ecuación:

en:o de la dife-
o bien
(7.84)
(7.89)
Es posible que
= ser estaciona- Definiendo
:.':e aplicar a Z( 1J
(7.90)
_-\R(p), MA(q) 1;
,1

se puede escribir

(7.91)
(7.85)
Para este proceso, la f.a. se comporta como en el caso del modelo AR(P), pero
a intervalos de s retardos; en los retardos intermedios vale cero (véase la figu-
(7.86) ra 7.14).

.~ ..... , '_ . ._. ._.w . ...,-.


242 ECONOMET.RÍA. SEIUES TEMPORALES y PREDICCIÓN

0,7
0,49
0,35

4 8 12
116 k

Fíg, 7.14. Proceso autorregresivo estacional 4'1 ;:::0,7, s == 4.

7.12.2. Modelos de medias móviles estacionales

Si el valor actual, Xt, se puede expresar en función de una perturbación ac t ..:.:_


de otra correspondiente a s períodos antes (por ejemplo, s = 4 para datos trime5:~:-
les), es decir, si

XI = €t - SEr-s>

entonces X¿ sigue un proceso de medias móviles estacional de primer orden, MAl:


En general, un proceso de medias móviles estacional de orden Q, MA(Q)p ::-;::
que cumple la relación

(~'.:.'-

° bien

Definiendo

se puede escribir

X( = 6(L h. J (7.~~

La f.a. de un proceso de
medias móviles estacional tiene el mismo comportamíec-
to que la f.a. de un proceso de medias móviles ordinario. Así, por ejemplo, para :.:.=

L.,._
sojspour sp U9!:)E:l~.mU;)P!131dJqOS S~\fP.¡Opsaur EJEd 'Sdldw!s sojopour soj dP E[ onb un I:1red'OId::.
l!:lB!P saur oqonur E:)!l:l'~Jd E~U~ 'B¡[nS;:JlsOA!l'B:)Hd9Inw sOI;:¡poUJsOLap U9!::l'B:l!Jpuap! -uaurrmrodurc
11'] 'U9p'B[;}lJO:lOln-e ap souopnnj S131 UO;)orod 'oursnu O} armoo 9l' L Em~u l1l ua
.ti < ')(nrad ul1lnuu ¡)S lepred U9Pp.\allO:lO¡n\! op sauorounj se} 'sr L I:1Jn~UEl ug (176' L)
'ZI = s arad U~pJO I~UJpd op SOA~l'B:>ndprnUJsdlenOp'B1Sa sorapour ap ¡l1pl'Bd U9~:l
-'BlallOOOlue al' 1.. U9pC¡allo;)O¡ne ap souorounj rrmncsardar 9 I L Á. 5;T'L s'BJuii!J S13'1
(€6'L)

.13(,,79 - I)(70 - r) = IX(v7 - r)(7 - 1)(71)- I)

.. u9l~;aJdxa 'El e opnodsar "er 'I 'O) x (I '1 'r)VWHIV oppoUJ la 'o}dma~¡) IOd :;l sa
'S(O)'\'l\
(L6'L) .;(r)vw 'uap::

nponb 'u9pn:msns cnmrodo e[ oqso 13opueA;:¡n «zs,


ua 'x otuoo
I'~l '(b 'p 'á)YWHIV osoocrd un ana!s onb OU~S'O!J'BUOplalsa S3 ou .;.
Á
onb opucnrmpe Á (%' L) al' opuonred amourreurroj resordxs epand os oppour alsg
-ansaurrn sO:
,S(o 'a 'd) x (h 'p 'd)YWnIV .: rem:>13U9F'E

sa U9pP.lOu ns 'OA!lB:>qdprnm ¡B::


-ope¡sa VWI1JV opeururouop ~Jana~ otm Ud aSJ'BU!qulO:>uopsnd '(96' L) uo Á (88'_
uo SOP!ll!PP sor opuasnpm 'lUOl.{1':?'B1S1:!qSOPHnoS1P saIEuo~oBlsa sojepotn soj sopo ;

Iluaua~ O~pll;)ndmnU1o(apow .., 'U'_

(96'L)

. rod op~u!.:
-op ;)Ua~h seO'a 'cJ)vwnrv ['BUO~:)~lS~orxrtu oparñonn OS3:l01d p ';nu"UI'l:?~oIYUV
'aluaIUeA!l~ds;u '(f:6' L) Á (06' ¿) Ud O\UO;) (r7)9 Á (s7)<.p opuaunjar

(5;6' L)

uorsardxa I:1lJlUU~PdW reO 'cl)VW~Y 1131JUd;;!O}X!tU ['P.UO!0l11SG OS;):


-ord p GSl!U!JdP opond 'sdluapa:>ald sopmrade sop so¡ op soppom SOl opuez~reJoua0

'17 :; " ;)S1:!Js~F


1'13apuodsauoo onb 'croo op onrusrp lo1eA oros un P.1U<lSdld TJ el ,y(¡)VW OS<l:'lOlC
.: -.--:.o...L '6L6l °ZI-Il 'SUI!lN '[[:)1 ep
._ ')U0:JlI sauJipvn:) .«SJlUH!JIlA!On VWl! V soppoin op U9p-eJ!J!lUJp! ~l uo (J<}pJUlJ)tq» .: a 'vt'I\<I :J:
'1:861 'SS;¡ld Jpn:>pll:lV 'spp0JA{ SUP¡UiJf-xo[J puo So!liJS ilUl.'.l pa!{ddv :. JoA '!fIV<lJo,."Y A .¡.
r . -:.::;:
~z: ::-::-:_:";:::" .,..
_ :..;;i-: ::.:.:-;..;:--: ..;:r:'l:':' oC"'"

8'0- := '<1>
8'0- '- Itp

8'0+' = Iof>
o 8'0-:::. 'tp

8'0- ..,.,
Iof>
s'o+ :- ,~~

j-
1-

8'0..1 = ti{>
8'0+ = 19

• °U9!:)
-- _:;:u;:>p~ns ap soiooja a VW"RV sosooord cp J1mopul~ el fi. lUlrillóll óllUóluodwoo ul
.,'.;; U9!O:)-el~1U~ Uf 'P.zrr-euu onb 't -eY;:¡d f.. 'S~U~¡U~ ap SOIll¡¡U;;>illOO SOSl;:¡AfP uoo SUl
-i:_: ;¡P U9!:)O;}{OJ suanq mm ;:>fi.npu! en b '.j. él}'epu-e A ólslUllnsuo:) opcnd S;)l13UO~013lSél
'1'
!'

PROCESOS ESTOCÁSTICOS y MODELOS ARIMA 245

ión de figu- F.a. F.a.p.


acción entre
tPkk
J identifica-

F,a,p.

~l = -0,8 O-l-'-----L..L.O--....
t.~J = -0,8 12 k

1- 2

k
:":= -0,8
-70: = +0,8 O O+L~~~~~~~~~~~~~r'--
36

~: = +0,8
O
= -0,8

4- 36
": = +0,8 o+n~~~~~~~~Tn~~~r/_.
- = -'-0,8 °

Hg. 7.16. f.a, y f.a.p. de modelos ARIMA(O,O, I} x (0,0,1)12'

7.13. ANÁLISIS BOX..JENKINS. IDENTIFICACIÓN


"
,

::'_osmodelos descritos en los epígrafes anteriores constituyen la base de la metodolo-

:""!UJS Económico:
'
,~.
,
,

'
~:adesarrollada por Box y Jenkins para la predicción de series temporales.
Esta metodología consta de cuatro etapas: identificación. esttmacion, validación
:.predicción.
246 ECONOMETRÍA. SERIES TEMPORAt:ES y PRliDJCCJÓ.N

~J I
••
r
t
r
I
r
I I! , , ,.. 0' 1111,
I 20 k I I

I I1I ! I!
I
1 I
I I
I I
I I
I I
-1J.. ·-11..
(a)
~~¡ '. ,
I
I
I
I
I
r
o~wuuuwu~~~~~--~ O'
I 20 k I 20
I I
I
I ,
I
I I
I I
I I
)1.. -1..1.
(b)

Fig, 7,17. F.a. y La.p.: (a) muestral;


(b) teórica, del proceso simulado X, :..:O,8X¡_ I + e,.
.. - ~ :,a. y f'.a.p.: (a) ::-
(b) :e
Como se ha podido apreciar ya, el término ideruificacián se usa en el Análisis e:: ~:
ries Temporales en un sentido diferente al que tiene en Econometría, y parecido <- :.:
.. : . :--:-;;:_'1te, en la práctica.
especificación. En efecto, identificar una serie temporal consiste en inducir, a partí; -==.
-.u:e¡::-~:. :jentíficar modelos
los datos, utilizando la f.a. y f.a.p, muestrales, qué modelo o modelos de los que ~::e:
recen en los apartados anteriores se adaptarían mejor a las características de la serie. ': ~ ~~ -::.:..::--5 no suele ser una :
'-;_" ~ ~ figuras 7.17, 7.1!
se ha visto que cada modelo presenta f.a, y f.a.p, peculiares, cuyas formas vienen e: _'
-.DI ~'_<! .acluve un conjunte
tima instancia influidas no sólo por la clase o familia de modelos (p.e., los autorrez-.
sivos presentan f.a.p. con un número finito de valores distintos de cero), sino tamr .e;
por el grado de parametrización (p.e., los modelos autorregresivos de segundo 0:::-:
presentan f.a.p. en que únicamente los dos primeros valores son distintos de ce: : ,::¡~.::-;. O. D.: Time Series ,
PROCESOS ESTOc:ÁSTICOS y MODIlLOS ARlMA 247

I
I 1"
k
. 20

,
.'

-11..
(a)

."J (
I

---
20
..... k

o~ULWUWUUUUW~~~~~~
I
I
20 k
.!I
I
11
20
.. k

I I
I I
I I
I I
I I
-1 j_ ·-11..
(b)
.~X'_l + E/.
Fig. 1.18. F.a. y La.p.: (o) muestral;
(b) teórica, del proceso simulado XI"" O,SXr_1 + O,3Xf_2 + Ef'
=1Análisis de Se-
. y parecido al de
idueir. a partir de No obstante, en la práctica, debido, entre otras cosas, a la aparición de los errores de
:-5 de los que apa- muestreo, identificar modelos que describan aceptablemente comportamientos econó-
cas de la serie. Ya micos reales no suele ser una tarea simple. Obsérvense, por ejemplo, los casos represen-
'mas vienen en úl- tados en las figuras 7.17, 7.18, 7.19,7.20 y 7.21. Estos casos se han tomado de Ander-
:., los autorregre- son t. que incluye un conjunto más numeroso de figuras, cuyo análisis recomendamos.
::-0), sino también
1;:segundo orden
.stintos de cero). t ANPllRSON, O. D.: Time Series Analysis and Forecasting. Butterworths. Londres, 1916.

--- .._--
248 ECONOMETRÍA. SBRIES TEMPORALES y PREDICCIÓN

o, 1

":1 I
I
I
I
I
I
I
OLI~~~~~~~rU~~~ I I I , k
k i I I '11 1I 120'"
I
I
I k---
°111"I k-
I I
I I
I
I I '. .1
-1,J_ _}.1.
(a) . ....
o(

"'J I
·T

I
I
I
I
I
.) 1I
I
I 01 I
o~--------------------~ ... k I
I
I
20 k
0: 111'1' I " ..
20 1
I
k-
I I
I I
I I I
I I _ 1.1.
I I
_I..L -11.. '::' -.:0, F.a. y f'.a.p.: (al :-
(b) (h) :~

Hg. 7.19. F.a. y f.a.p.: (a) muestral:


(b) teórica, del proceso simulado X, = ~,- O,8Et_ l'
:-zra la f.a.p. muestral Ó.
.::: ~

En la práctica, es frecuente que el analista seleccione varios modelos, para decidí:


más tarde, a la vista de los resultados de la estimación, por cuál de ellos se decanté. .:.:':1.de T es el número de
la elección. :. "~:-enciasadecuadas, si lleg
En 7.4 se vio la fórmula de Barlett, que permite discernir cuándo puede admitirse
estadísticamente que Pk es igual a cero a partir de un k dado (véase el ejercicio 7.1).
Esta fórmula es de utilidad para identificar procesos de media móvil, para los cuales :-.:::-:OUll,LE,M. H.: «Aproxiffi1
Pk se anula para k> q, según se comentó en 7.9.3., ecuación (7.74). . z Society, Series B, 11, 1. 19-
:¡ .
PROCESOS ESTOCÁSTICOS y MODELOS ARl\1A 249
•1:
:r·
~;
1
!~
...
;1
~
r,

~"!1
I
I
tr .
1
I
1
----------- I

:'1 I JI I
I
I
1 O i I i .. k
I
! 120• k I 20 k 01 I 10 I 01 20
I
1
1 I k-
I ¡
1 I
I
I
I

I
.~
~
_1..1

Pk
(a) -1.1

4>k"l ¡
~ 1
'- 1
I
I
tt I
:~. 1
:'~

O 01: 1 11I I
I
I I
lit
I I ••
20
.. k
I 20 k i ••

......
k I
20 I I k-
I k- r
I I
I I
¡ r
_.}i (b) _}.1

l;ig. 7.20. La. y La.p.: (a) muestral;


(b) teórica, del proceso simulado X( = f, + 0,3et _ 1 - 0,3E(- 2'

Para la f.a.p. muestral ¿'kk' Quenouille t demostró que la varianza de la estima-


ción es

JS, para decidir


k s-p, (7.98)
-llos se decanta en donde T es el número de observaciones (las que quedan después de obtener las
diferencias adecuadas, si llega el caso). Como puede observarse, a diferencia del ca-
uede admitirse
ejercicio 7. J).
~ara los cuales t QuENOUILLB. M. H.: (Aproxímate Testsof Correlation in Time-Series».Journalof the Royal Statlsti-
j. cal Society, Series B, 11, 1. 1949. .'
250 ECO"!'fOMETRÍA, SERIES TEMPORALES Y PREDICCIÓN

· :.:. ESTIMACIÓN

.':1 I
·__;,~:-ies procedentes del ámb:
-._. !.Si que ante todo hay que
_ .'.~ hay que realizar d opera;
I .r: .!.~:,:lOes.
I
I ~:-. consecuencia, si el núrne
I · . :.!.::ón del proceso que ger.;
I
I · L:~--:-_etrosde un proceso AR~
O~IWW~~~-L~~~~~~ O
I
I I : ~~ admite que las ~r se d;
I I ~-: ': varianza constante a~, S
I I
I I · . ~..:..:
asociada a los vectores ¿
I I .:~:: ::-1 es
I I
-Ij_ _¡J.

....¡
(a)
L(t/>, 0, "

_ :: -.':~ S(q), O) representa la s;


I
I _ ::-;;: cial de L respecto a los "
I .~ .:! .a suma de los cuaz;
I
I -:..:..:: : '::Jadráticos y los max.r;
I _::. :·~::J.ciónde verosimilituc
o~uwuu~ _.. I
O __
- :-; :'e la serie y de Et. En :-
r 20 k I - . ;':.: AR..1\1A(I, 1), por eje=
I J
I I
I I
I I
I
I
I
I
S(4), 9) = L: E~
-1..L -1..1..
(b) :-: :: :.:'e Z, es la serie estacioz,
I<'ig.7.21. P.a, y f.a.p.: (a) mucstral; _..:.=:Iimización de (7.1001 -
(h) teórica, del proceso simulado X( = O,5Xt_1 + El + O,5€¡_ t : :--==':-0, la suma de cuadrado
- = =~:e problema se denomíz
-:-:.: .z, =, crece con el orden de ::
so de la f.a., la f.a.p, depende exclusivamente del tamaño rnuestral. Mediante 1::. • • .-:. -!" se presentan p + q '.~
ecuación (7.98) se puede verificar si una muestra dada procede de un proceso ame- ~.: :=~undo lugar, la compone
rregresivo de orden dado, por ejemplo p*, comprobando si 4>kk es significativa- ;_:::.l:: ~:o, que es inobservable.
mente igual a cero para todo k> p*, para lo cual basta observar si bay algún va- '::...::-: 5·..:stituciones sucesivas. :
lor de l4>kkl (k> p*) superior al doble del error estándar, 2/..JT. Si se superara -:.":' e. ::_iemplo, partiendo de ~
esta cota para algún k > p*, se rechazaría la hipótesis de que el orden del procese
es p*.
PROC:ESOS ssrocxsrrcos y MODBWS ARIMA 251

7.14. ESTIMACIÓN

Las series procedentes del ámbito de la Economía son ergódicas, pero no estaciona-
rias, así que ante todo hay que transformar la serie dada en otra estacionaria. Si a
tal fin hay que realizar d operaciones de diferenciación, se perderán otras tantas ob-
servaciones.
En consecuencia, si el número de observaciones es T + d, después de la iden-
tificación del proceso que genera los datos se plantea el problema de estimar los
parámetros de un proceso ARMA(p, q) a partir de un conjunto de T observacio-
~i ,,.,,..,,,--1....1.... -.. k nes.
20 Si se admite que las €t se distribuyen normal e independientemente con media
cero y varianza constante <1;, se puede obtener la función de verosimilitud condi-
cional asociada a los vectores de parámetros q" (J y <1•. El logaritmo natural de esta
función es

(7.99)

en donde S(tb, O) representa la suma de los cuadrados de los residuos. La maximiza-


ción parcial de L respecto a los vectores de parámetros tb y ()equivale a la minimiza-
ción de la suma de los cuadrados de los residuos, es decir, los estimadores
~
., minimocuadráticos y los maxímovcrosímiles son coincidentes .
'~, La función de verosimilitud está condicionada a los valores iniciales inobser-
----.k
20
vables de la serie y de e(. En efecto, la suma de cuadrados de los residuos en un
proceso ARMA(1, 1), por ejemplo, suponiendo estacionariedad e invertibilidad,
sería

T
S(q,,8) = Z>: = ~
1= 1
(Z( - 1>Z'-1 + (}EI_l)2 (7.100)

en donde Z( es la serie estacionaria.


e
La minimización de (7.100) respecto a 1> y plantea dos problemas.
_'.7 €, + O,5Et_ r- Primero, la suma de cuadrados contiene a Zo ya EO, valores que no están disponi-
bles. Este problema se denomina «de los valores inicia/es». El número de valores
iniciales crece con el orden de los procesos. En general, al estimar un proceso AR-
-stral. Mediante la MA(p, q) se presentan p + q valores iniciales.
: un proceso auto- En segundo lugar, la componente de media móvil introduce el término El _ 1 en el
e e es significativa- sumatorio, que es inobservable, por lo que para minimizar hay que reducirlo me-
:: si hay algún va- diante sustituciones sucesivas. Para ilustrar el problema vamos a simplificar aún
T. Si se superara más el ejemplo, partiendo de un MA(t)
orden del proceso
252 EcoNOMETRÍA. SERlBS TEMPORALES y PREDICCIÓN

En este caso, se tiene: :- as despreciable ';:-;'::::.


l' T
~ cuando se traba-s ::'1
S(B) = 2:; E7 = 2.; (Z{ + Ot, _ t)2 = _..:.segunda forma :: ¡o
1: J C= 1 .." eemplo en (7.10( :.t:
T ., : ~:5 iniciales de Z, :=";_¿
= b [Z(
L=1
+ B(Zt-l + ()Er_Z)]2 = " :....'.~tade (7.101), .::_=-- ':'
;-: !sie valor inicial. ::: .
T .z.eales.
= ¿; (Z( + BZ'_I + 02EI_2)2 = ::: .iltimo, Box y l«: •. :
l=l
'- : -;, iniciales come ; -,--.
l'
~:-::~~. Este método ;:; .:..
= :L; (Zt + 02C-1 + 02Z1_2
(: 1
+ 03€t_3)2 =
- :~,~. Estimación D0 .:3I

T :. " . =:: diversos algo.::-,', - ..


= :L; (Z( + (JZ'_l + ... + 0'-IZ1 + ()tEO)2. (7.;: , : : ~:-.:eado en C:.: ': :
t: 1
. -. método muy '':':~::~.:.
Dado el valor Eo, la minimización de esta expresión respecto a ()debe hacerse ;:':. : '_-~ :3. aplicación ce !" '! '
métodos no lineales. Así pues, el segundo problema es que la componente de me:._;: . : .L"ametros. que ~~ .• ~:.
móvil introduce en la estimación no linealidades. ;~~::.D. En cada '':':-,~:: ~
Por otra parte, obsérvese en (7.101) que, si no se exigiera la condición de invez: ~" -:-........:.:= lineal de la :"_:-:' .~,
lidad 181 < 1, la influencia del término en (;0 sobre la estimación sería muy fue=-:! .. :...~::maci.ón cc~~=;: ::~
Siendo EO desconocido, hay que establecer algún criterio de estimación, con lo C.'_:: _.:.3 estimaciones :;::: '~
a fin de cuentas, cualquier estimación obtenida dependerá fuertemente del crite:' ' _:"::~.~~fuera del pr ; : ::':".=-
adoptado. Por el contrario, siendo IBI < 1, la influencia del término (JtEo sob-e .; ~: e. número de :::-~: '''
estimación será muy pequeña. Este hecho ilustra por qué se exige la invertibil.ca; _ : ';5 que no este:".:-:-,. -'.
a los procesos de media móvil. ; :; ;::1r05, las ceca: , ::.=
No es nuestra intención profundizar aquí en los problemas de estimación, ;:~-. z: .z.aciones» de :.:; : :-.:
lo cual se recomienda acudir a las obras especializadas t. Por ello, los comentar-e- "'::'":e= el caso de :::::::--: •
que siguen sólo pretenden ilustrar brevemente los problemas de inicialización :. _. ~: '=';05 de los :-e;.: _..
no linealidad suscitados en los párrafos precedentes. : =: proceso F~'~:: ,-'~
:.'_¿~::::e5deY:.J:::"';·-'-'-:::
7.14.1. Valores iniciales Jo..: :: con los pa:~":,,:'-:-
_::..:...::.:-::esiniciales .:.: _: ~
Hay tres formas de abordar este problema. La primera consiste en admitir que .'. = - ~ ~::leaiei,
valores iniciales coinciden con sus esperanzas matemáticas incondicionales, es cer.: -, ',:7'.;:lonan:= ;.=. ~:- _..:
cero. Esta solución introduce un elemento de arbitrariedad en la solución del prc t.: <:::-'-::-.::0 gara:::::,-". : _ ~
ma. Sin embargo, teniendo en cuenta que la incidencia de los valores iniciales es :..:_:, ..:..:.' :'eY1.lelo!·.:':':'!· :.:
-...:: : .=..:.? ','el rr.á-.

t Box, G. E. P., y JllNl(lNS, G. M.: Op. cit. es la referencia clásica. Otras fuentes bibliográficas ;:-:;-::.--
res son las siguientes: ANDl::.RSON. T. W,: The Statistical Analysis of Time Series. Wiley, 1971. F~-_'-7
W. A.: Introduction to Statistical Time Series. Wíley, 1976. -~ -, ,.
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 253

.: :nás despreciable cuanto mayor es el tamaño muestral, esta solución parece acer-
..:.':a cuando se trabaja con muestras de gran tamaño.
La segunda forma de abordar el problema consiste en extender el sumatorio,
~:.~ ejemplo en (7.100), desde 1 = 2 hasta T. De este modo dejan de aparecer los
. z.ores iniciales de Z. Esta solución resuelve parcialmente el problema. porque,
:=':3. vista de (7.101), quedaría aún fO' Un procedimiento usual consiste en igualar a
: ero este valor inicial, con lo cual ya se puede proceder a la estimación por métodos
t.: lineales.
Por último, Box y Jenkínsr han ideado otro método consistente en consi.derar los
. ziores iniciales como parámetros desconocidos y estimarlos conjuntamente con los
,- = :'~!l1ás.Este método es de cálculo mucho más complejo.

- .14.2. Estimación no lineal

Existen diversos algoritmos para resolver problemas de optimización no lineal como

I
(7.101 ) ::: planteado en (7.101).
Un método muy utilizado en los programas de ordenador es el de Gauss-Newton.
3. ~ debe hacerse por Para la aplicación de este método es preciso obtener unas estimaciones previas de
crnponente de media : JS parámetros, que se toman como punto de partida para iniciar un procedimiento
::erativo. En cada una de las iteraciones se plantea la minimización de una aproxi-
.ndicion de invertibi- ::-!aciónlineal de la función, que procede de un desarrollo cn serie de Taylor en torno
2:-: seria muy fuerte. ::..la estimación correspondiente a la iteración anterior.
.macíón, con lo que, I Las estimaciones previas, necesarias para iniciar la primera iteración, hay que ob-
:-:emente del criterio .enerlas fuera del procedimiento. En realidad, se puede partir de valores arbitrarios,
*i
érmino elfo sobre la
,~ge la invertibilidad

':'e estimación, para


']0, los comentarios
,
..¡i
,.
:o

I
pero el número de iteraciones se reduciría si se iniciara el proceso a partir de unos
valores que no estén muy alejados de la solución. En el caso de procesos autorregre-
sívos puros, las ecuaciones de Yule-Walker (7.54) podrían servir para despejar las
«estimaciones» de los coeficientes en función de las autocorrelaciones mucstrales,
pero en el caso de procesos autorregresivos puros, la minimización de la suma de
e inicialización y de cuadrados de los residuos no plantea ningún problema de no linealidad.
Si el proceso presenta una componente de media móvil, las correspondientes
ecuaciones de Yule-Walker, que relacionan los valores de la función de autocorre-
ladón con los parámetros, no serán lineales, y para obtener, por ejemplo, las es-
timaciones iniciales de un proceso MA(q), es preciso resolver un sistema de ecuacio-
;:en admitir que 105 nes no lineales.
dicíonales, es decir, Es importante saber que el procedimiento de estimación iterativo de Gauss-
solución del proble- Newton no garantiza la convergencia. Cabe la posibilidad de que sea divergente, es
ores iniciales es tan- decir, de que los valores de las estimaciones sucesivas de un mismo parámetro difie-
ran cada vez más.

: '::bliográficas posterio-
::;. \\'i1ey, 1971. Fm.LBR,
+ Box, O.E. P., y JENKTNS, O.M.: Op. cit.
254 ECONOMF.TRrA. SERIES TEMPORALES Y PREDICCiÓN

Además, puede ocurrir que aparezcan soluciones múltiples, es decir, que, arra; _ ..: .I. Análisis de los ccod
cando de estimaciones iniciales diferentes, se alcancen resultados convergentes t¿=·
bién distintos. Para detectar la posible existencia de diversos mínimos locales. -: = f: : ~ coeficientes de pr :.:.~
puede establecer una malla de valores de los parámetros dentro de los intervalos ~.:. _. :-;·.acionariedad y de :.:..
misibles y explorar los valores de la función objetivo para cualquier combinac.: : ~~ comprobación de ::;_~
dada de valores de los parámetros. Si existieran diversos mínimos locales, el míniz : : -ecuaciones (7 A( :.
global se obtendría utilizando el método iterativo, partiendo para ello de unos \"2..:. _.: :: cer a hallar las ra: =-:-:
res (eesrímacicnes») iniciales de los parámetros próximos a la solución.
En el caso de que se presentara divergencia, sería posible que, partiendo de c.: .
conjunto de valores iniciales, se alcanzara la convergencia, pero no se puede aser _. : z.guna de esas raíces '
rar que ésta exista. En tal situación, habría que reespecificar el modelo. _ :, casos límite de ra.z e:
. _.: -'.;raíces sean pró.x.:::-
7.14.3. Inferencias ~_~-:do las raíces de ¿ :..
Las estimaciones correspondientes a la última iteración del procedimiento de Oa'_:,.· -:- -_.=.: esté subdiferenc.: z.
Newton pueden acompañarse de sus correspondientes estadísticos (valores 1, desv:~ ~ .: ;:-·..:ede aclararse ccr; ::
ciones estándar, etc.). Estos estadísticos tienen un significado limitado, por cuer.': : _:·:-ngamos que se t.é ::
se refieren exclusivamente a las estimaciones minimocuadráticas obtenidas en la e:
ma líncalización t. Por ejemplo, con Loserrores estándar de los parámetros puece:
obtenerse estimaciones por intervalos, pero éstos s610 pueden usarse de forma E::-.. .~:: .:!!U de sus raíces e~:~ t
tada. Asimismo, se puede calcular R2, y aunque su valor sea pequeño, esto no si;:. +. : :-~ la unidad). Ento:.::-;
rica que haya que rechazar el modelo. La validación del mismo debe hace: .:-.:
mediante otros procedimientos que son objeto del próximo apartado.
7 ~: .o tanto, el mode.: :
7.15. VALIDACIÓN

Una vez estimado el modelo, conviene analizar los resultados y someterlos a algur.r-
tests antes de hacer uso del mismo para la predicción. Este proceso es el que se de:-.:·
mina ualidacián o comprobación del diagnóstico.
Conviene tener presente, sin embargo, que la validación última de cualquier :":".:-
delo de predicción es la que proporciona la comparación de realizaciones con prcc.: ': serie X¡ diferenciada. :
_¡_

ciones ex post. ::'., =: caso de que


algur a :
Para que el modelo ajustado sea aceptable, debe cumplir algunos requisitos e _: ~...::. ziodelo esté sobrec: ..·~
implícita o explícitamente van incorporados a su especificación. Estos requis.i ; :... :-,::.::;:¡ado
un proceso :".~
son, ante todo, las hipótesis relativas a
(a) los coeficientes
(b) el término de error (o innovación). .. _::a de las raíces de ~ .

t El estimador dc la matriz de varianzas y covarianzas de los estimadores de los coeficientes corres; : '
diente a la última iteración es un estimador consistente elela correspondiente matriz de varianzas y : .. ..:.serie original era .._.
varianzas asintótica. La limitación se deriva del hecho de que los resultados que se desprenden ce _
teoría asintótica no son directamente aplicables en contextos dc muestras pequeñas.
PROCESOS ESTOCÁSTICOS 'r MODELOS ARIMA 255

. que, arran- j .15.1. Análisis de los coeficientes


'~gentes tam-
:~ locales, se De los coeficientes de procesos ARMA(p, q) se espera que cumplan las condiciones
-::ervalos ad- de estacionariedad y de invertibilidad (véanse 7.8.1 y 7.9.2.)
:0mbinación La comprobación de estas condiciones en la práctica es sencilla cuando p ~ 2 Y
:3. el mínimo q ~ 2 -ecuaciones (7.40) Y (7.46)-. En los casos de órdenes superiores, hay que
.e unos valo- proceder a hallar las raíces de
'::1.
:::ldo de otro
~(L) =O y (j(L) = O.
:':lede asegu- Si alguna de esas raíces fuese inferior a la unidad, el modelo se rechazaría.
~0.
Los casos límite de raíces iguales a la unidad son raros, pero, aun en el caso de
que las raíces sean próximas a la unidad, hay que tener cierta cautela.
°
Cuando las raíces de 4>(L) = son próximas a la unidad, es posible que la serie
original esté subdiferenciada, es decir, que precise alguna diferenciación adicional.
:.) de Gauss-
~~st, desvia- Esto puede aclararse con el siguiente ejemplo.
. ~or cuanto Supongamos que se ha estimado el modelo AR(2)
as en la últi-
(1 - 1>1 L - 1>2L2)x, = Et
::::os pueden
.orma limi- y que una de sus raíces está próxima a 1 (nosotros vamos a admitir que su valor teó-
s:o no signi- rico es la unidad). Entonces
ebe hacerse

y, por lo tanto, el modelo puede reescribirse como

:5 a algunos
en donde
~:.¡e se deno-
Z, = (1 - L)Xc == Xt - X¡ _ I
alquier mo-
con predic- es la serie X, diferenciada, que es la que habría que modelizar.
En el caso de que alguna de las raíces de O(L) = O sea igual a la unidad, es posible
~uisitos que que el modelo esté sobrediferenciado. En efecto, supongamos, por ejemplo, que se
s requisitos ha estimado un proceso MA(2), de manera que

Si una de las raíces de (}(L) = 0, IJ.1' es igual a la unidad, se puede escribir

(7.102)
:~;;correspon-
~jallZa& y co- Si la serie original era X, y, para estacionarizar el proceso, se convirtió en Zt>
;:~eDdende la
Z, = (1 - L)X(. (7,103)
256 ECONOMETRÍA.. SERIES TEMPORALES y l:'REl:>rccróN

Sustituyendo (7.103) en (7.]02),

(1 - L)X, '= (1 - L)(l - f.l.2L)Et•


De aquí que

y el proceso estaba sobredifercnciado.


Por otra parte, el cálculo de las raíces características de cp(L) y de O(I perm.r, J)

la jactorización de ambos polinomios. Si la serie estacionaria es 2" se tiene:

cp(L)Zt = fJ(L)F.¡,
y factorizando,
~Im
P P
TI (1 -
i~ I
A¡Li)Zt = TI (1 - ¡.t.¡Li)f"
i-l (7.1(1-:

en donde Al son las raíces de cp(L) = O y ¡.ti las de e(L) = O.


Si existen raíces comunes pueden cancelarse en ambos miembros de la ecuació-
Esto significa que se podría utilizar para las predicciones un modelo igualmente úti..
que contiene dos parámetros menos, ARMA(p - l , q _ 1).
Un caso particular de cancelación de factores especialmente interesante es el q::.;
surge cuando existen componentes deterministas. Por ejemplo, en. el caso más sir::-
ple, IMA(l), se tiene:

(I - L)X, == (1 - 8L)€/_
(7.105
Si 81"'" 1, podría admitirse que 0= 1, y entonces se tiene el modelo detcrmínís.;
equivalente

(7_10{
en donde a es una constante. En efecto, tomando diferencias finitas en éste último:
se tiene:

nr J:::1I~

que es equivalente a (7.105), con O = L


Análogamente, el modelo de tendencia lineal

(7.10-
es equivalente a

(1 - L)X¡ = {3 + (et - Et-1),

es decir, a

_. _. - - '--, __
PROCESOS ESTOCÁSTICOS Y MODELOS ARIMA 257

(7.108)

con e
== 1.
En general, el modelo determinista polinómico

XL = ex + f3ll + f32t2 + ... + f3dtd + En (7.109)

después de diferenciado d veces, y tras un cambio de origen, proporciona

:..IY de fieL) permite (1 - is'x, = (1 - L/El'


. es Zt, se tiene: que es equivalente a

(7.110)

con

(7.104) 1-'1 =: l-L2 = . . . = 1-'t1 = 1.

7.15.2. Análisis de 'os residuos


'::~osde la ecuación. Se supone que el término de error de un modelo ARMA es un proceso normal pura-
:eio igualmente útil, mente aleatorio, es decir, que su varianza es constante, su medía es nula y no presen-
ta auto correlación ni correlación serial con la propia serie retardada.
:::::eresante es el que Las €t son inobservables, así que cualquier test sobre las mismas habrá de basarse
en el caso más sírn- en los residuos, E" Ésta es una limitación de todos los tests.
Todos los programas estándar de ordenador para el análisis de series temporales
(7.105) suelen incorporar el estadístico de Box-Pierce,
K
-.odelo determinista Q(K) = T h
k=t
rL, (7.111.0)

(7.106) o su versión más actual de Ljung-Box t.


K 1
:.::as en éste último, Q(K) = T(T+ 2) k~1 T- k r¡_r, (7.11 Lb)

en donde

(7.107)

es el coeficiente de autocorrelación de orden k de los residuos.

"t Ln:."'NG,
a., y Box, o. E. P.: «On a Measure ofLack of Fit in Time Series Models». Biometrtka, 65. 1978.

-----------~--------
258 ECONOMETRÍA. SERIES TEMPORALES Y PRELlrCCIÓN

Q(K) se distribuye asintóticamente como una X2 con K - (p + q) grados de I':~


tad si

Ra: Pl ,E,E = P2 = ... = p K,« = O


e ..

es cierta, es decir, si no existe autocorrelación en los residuos hasta el orden .;.
Las ecuaciones (7 .111.a) y (7 .IIl.b) se diferencian en que la segunda hace d:~::-.
nuir el sesgo con muestras pequeñas.
La elección de K es arbitraria. Es evidente que, cuanto mayor sea K, el test se ;'
tenderá a desfases mayores, pero la precisión en la estimación de los TI(,. dismint: :
Para maximizar la potencia del test hay que buscar una solución de comprom.s:
Éste es un test global sobre la independencia de los residuos, Por lo tanto, nc :-
suficiente para obtener conclusiones definitivas. 1
Ame todo, es conveniente representar gráficamente los residuos, así como su : ;..
- - .~
y su f.a.p. La gráfica de los residuos puede revelar a simple vista si, por ejemr":
es admisible la hipótesis de varianza constante, que es otra de las características ':-:
ruido blanco. Además, la aparición de residuos extremadamente grandes puede ::.:-
nernos sobre aviso de errores en los datos.
4 _"
La f.a. y la f.a.p. permitirán, a su vez, llevar a cabo un análisis gráfico de iden:::-·
t '. -._

cación de los residuos mediante el cual se podrá comprobar si éstos se compor az


1III11~... - _.
como ruido blanco o, si por el contrario, queda alguna estructura remanente ~._:
el modelo no pudo captar.
... -
iIIl.-:t:':""
La fórmula de Barlett, ecuación (7.13), proporciona una forma aproximada :.:
verificar si un valor particular de la función de autocorrelación fk,. es significar:. l·
mente distinto de cero. Para ello se comprueba, según se explicó en 7.4., si dicr; :
valor cae dentro del intervalo ±2/Vr.
lIJe.

7.15.3. Otras comprobaciones

Además del análisis de los coeficientes estimados y de los residuos, en la prácr n


S ''''1'':'':_.-,''
suelen hacerse otros dos tipos de análisis:
~.;:::."
(a) El sobreajuste (inclusión de parámetros adicionales por si el modelo está ::.
fradimensionado) . .III!:l=!.:' .
(b) La supresión de parámetros (por si el modelo está sobredimensionado). '&itl.-

7.15.3.1. Sobreajuste

Una técnica que suele utilizarse para comprobar si el modelo estimado es adecuad:
es la del sobreajuste, que consiste en reestimar el modelo añadiendo un paráme¡~:
más y comprobando si es significativo. Por ejemplo, si el modelo estimado es \:.:-:
ARMA(p, q), se estima a continuación un ARl\I1A(p + 1, q). Con este procedimier-
to se pretende captar la presencia de regularidades en los residuos que no hayan sic:
recogidas en los análisis precedentes. No conviene añadir simultáneamente un para-

l-_
PROCESOS ESTOCÁSTICOS y MODELOS ARlMA 259

_!:~adosde li:::~· :-::etroa la parte autorrcgresiva y otro a la media móvil, pues se podría caer en la
·.~:illlpaque se conoce con el nombre de redundancia paramétrica, que se puede ilus-
.r ar con el ejemplo siguiente.
Supóngase que se estima el proceso ARMA(l, 1)
:::.el orden 1:.
':-.'::'a hace disr:-..:- (7.112)

Retardando un período y restando de la anterior,


X. el test se e\-
";:.! disminuye Xr - Xt - l = <!>(X, - 1- Xr - 2) + €, - ir - 1 - O( ér - l - é,_ z),
:~ compromiso. ::-bien
~ lo tanto, no es

as: corno su f.a.


~:también, parametrizando de otra forma,
<. porejemplo.
~:-a,::terísticasde: (7.113)
;_.::despuede po-
La ecuación (7.113) se ha deducido de (7.112), de modo que ambas incorporan
::.:':':0 de identiti- :3. misma información.
::-3 se comportar. Si se plantea un sobreajuste partiendo de la ecuación (7.112), se acaba estimando la
~ remanente que misma ecuación, expresada como (7 J 13). En ese caso, se estaría cayendo en la trampa
.:lc la redundancia paramétrica, es decir, se estarían estimando parámetros adicionales
i aproximada de superfluos. Ésta sólo se podría descubrir mediante la adecuada factorización de los
, es significativa- ;,olinomios cf>(L) y O(L). En efecto, obsérvese que (7.113) puede escribirse así:
::::. '7.4., si dicho (J -L)Xr=(l-L)[t/>X'_l + ~t-th:l_l],
que, eliminando factores comunes, se reduce a (7.112).

- .15.3.2. Supresión de parámetros


: 5. en la práctica
Se pueden utilizar los errores estándar de los coeficientes estimados para detectar
parámetros que, al ser poco significativos, tal vez podrían suprimirse.
: modelo está in- Ya se ha comentado que los errores estándar que se calculan son los correspon-
dientes a la última iteración y que sus valores deben utilizarse con cautela, pero un
r.ensionado). valor de un parámetro varias veces superior a su error estándar sugiere que el pará-
metro es significativo, en tanto que, si su valor es inferior al doble de su error están-
dar, conviene llevar a cabo un nuevo ajuste suprimiendo el término correspondiente
a dicho parámetro y analizar los resultados, especialmente si el parámetro corres-
-.ado es adecuado
ponde al término de orden superior .
.':0 un parámetro
~ estimado es un
'7.15.3.3. Comentarios finales
=51e procedimien-
~·.;e no hayan sido Es posible que varios modelos alternativos pasen todas las pruebas anteriores y que,
eamente un pará- a fin de cuentas, se carezca de criterios para elegir uno de ellos.
260 ECONOMIlTlÚA. SERlllS TEMPORALES y PREDICCIÓN

En tales circunstancias, se podría elegir el modelo que mejor reproduzca el pasac:


de la serie o, mejor aún, el modelo que realice mejores predicciones. En 8.1. se di:,·
criben los indicadores que pueden utilizarse al efecto. -': z e .~ ::--:::.
• _ .::: 7_~ . :-_ : ;~. : :
.: ; ~: :-_:=_~ -e
7.16. ANÁLISIS DE UN CASO: PERNOCTACIONES EN HOTELES - :..::
DE LA COSTA DEI, SOL
.,= .; _::_:~ :: _.:....at

Continuamos aquí el ejemplo iniciado en 7.6.6 con la serie de pernoctaciones de v.a-


jeros nacionales en hoteles de Málaga, de 1974. 7 (Julio) a 1986.5 (Mayo), PER:KA . - :'':':.: ~-; '-'
En ese apartado se comprobó que PERNA es una serie no estacionaria. Para deriva:
una serie estacionaria se realizaron tres operaciones (logaritmos, diferencia estacte-
nal y diferencia simple), resultando la sede estacionaria DFILOPNA" que aho-,
trataremos de identificar y estimar.
En los procesos de diferenciación se han perdido las trece (12 + 1) observaciones
iniciales, de modo que ahora la serie estacionaria comienza en 1975. 8. _::~
La figura 7.22 representa la f.a. y la f'.a.p. de la serie. Ciertamente, la iden::·
fícación de una serie AR:tvlA estacional dista mucho de ser un problema de solu-
ción clara.

MIIII VALUE -.48 769 MAX VALUE 1.0000 SPACING .30361E-Ol


: ..
F.a. F.a.p_
o : t+:.....:
_.,.+++ ..... •. ·'t-t1''''+~··t ........ _++1 •• _-+1'..........~ o : ..........._ ..·t·..
....
,..
'.~.. 1....+'·· . t
.,..,
.... • __ .... ++++~-_ •••

- - ~:...
1
2
~ :
5
ó +
A
...
1:
lA
...
A....
AA
i
I
Al
...
+-

... 6
1
2
!:
~
1)
+-

+-
..
(\
I
l
lA:
I A'"
A

.... A
': :-:...,-

.:.:. :.:... ... - --


:
-
--
.,
8"
~.'
10
+-

+-
..
I
f'
(\ -+
.A

A
'+
+-
+-
...
.,
8+
9...
10
...

lA
I H+
.
A
"A

A
_.,:" " __ : ,0' :

1l ... ... Al" 11 ..


12 .~ A ... 12 +
1.3 +- lA'" 13 ...
~ ....
" + _- !":'_

..,
l' +- \4 +-
1:5 .. A. ... 15 .... 1" • 11"'"
1<> ~ ... lh +- A :.
17
11)
19
+
+
+
I
~
1
:
i
A
... 17
+- la
... 19
..
+
1-
lA A:
A+
1
:: -_ .....
:lO
21
~2.
+-

+-
I
I
('l'" I
A 1
... 20
... 21
" ;J.::>
...
+
..
I
I
A
ro:
+

A
I
I -. ;
23 I ": A ... 23 +
, A
lA
2q ... I A + .. 7" .,..
:?S ..
I ; A
+
....
2S
J!6 ...
A I
26 ...
+. fl "'+
.
27 • + 27
28 + A ... 28 ... +
2~J
JI)
..
+- A +
A ;¿'l
~() .
... + l'
At
31
3~
33
+
+-

A.
+A
A
+
+
~I
32
3-, •
+-
,
,'"I iI .

+ ::~
" -.
.:~++++!
,S¿, ... .. ~4 + I A +
:.5
" +- 35 + I +A

':.6 : t 4 1' -+++i+1'+++ t + ++++++ ,.•• +++++++" .,+ .. : '36 : _ l ".+~+:+,.~ 1 ",". -++++ .,. ,i ,.~-_:

l<'ig. 7.22. F.a. y I.a.p. de DFILOPNAt•


PROCESOS .ESTOCÁS't'lCOS y MODELOS ARIMA 261

:.:.lea el pasado La parte no estacional parece ser MA(l), por la importancia relativa del coeficien-
E;-¡ 8.1. se des- .e de autocorrelación de primer orden, junto a la disminución exponencial del valor
absoluto de las primeras autocorrelaciones parciales.
La identificación de la estructura estacional es siempre más compleja. En nuestro
caso, el problema se agrava porque existen relativamente pocas autocorrelaciones
lES múltiplos de 12 que puedan examinarse (12, 24 Y 36).
Aparentemente, la estructura de la parte estacional es un MA(1)12' en virtud de
Que la única correlación estacional significativa es la del retardo 12, junto al com-
::2nes de vía- portamiento de la f.a.p.
':I,PERNA. El modelo ARMA(O, 1) x (0,1)12' una vez estimado, pasa todos los tests habitua-
Para derivar les. Sin embargo, su simulación histórica lleva a rechazarlo porque no reproduce
:-.;:-iaestacio- adecuadamente el comportamiento de la serie real en una parte del período mues-
. ·:¡ue ahora tral.
Probando con otras especificaciones por sobreajuste, se encuentra que un
ARMA(O, 1) x (2,0)12 supera Jos tests habituales, mostrando además un ECM infe-
rior al modelo anterior, dentro del período muestral.
. .a idem.. Los resultados de la estimación, obtenidos con el programa RATS t, aparecen en
:;; de 5011:- el la tabla 7.1.

Tabla 7.1. Resultados de la estimación ARMA(O,l) X (2,0)12'

lTE:RATlONS TAKEN (ITERATE) 4

EQUATION 4
OEF"ENDENT VARIABLE 2 DFlLOPNA
FROl'l 1978- 8 UNT 1L 1985-12
OBSERVATIONS 89 OEGREES OF FREEDOM 85
R**2 .57678868 RBAR**2 .56185181
SSR 2.2777060 SEE .16369649
OURIHN-WATSON. 2.00684230
GH 27)=< 16.6288 SIGNIFICANCE LEVEL .939881)
NO. LABEL VAR LAG CDÉFFICIENT STAND. ERROR T-STAT15TlC
f** ,****t* *** *** .2737896E-02
************ •4566655E-02 ,**.*.**,***
**,****t**** .5995408
1 CONSTANT () O
2 OFILOPNA 2 12 -.5936531 .1031613 -5.754612
3 DFILOPNA 2 24 -.2494629 • \02880.':, -2.424781
4 MVG AVGE -1 -,7412696 .7076841E-Ol -10.47458

A la vista de estos resultados, el modelo estimado es

(1 + 0,594L12 + O,249L2A)~.6.12lnPERNAc = 0,00274 + (1 - O,741L)€t.

t RATS. VAR Econometrics. Minueapolis.


262 EcoNoMETRÍA. SERIES TEMl'ORALES y PRElJiCCIÓN

Obsérvese que el estadístico de Box-Pierce, Q(27), neva a aceptar la hipótesis .:~


que los residuos se comportan como ruido blanco. Todos los coeficientes resultar
significativos en la última iteración, y, como es sabido, el hecho de que R2 no s.=~
muy elevado carece de relevancia. La constante no es significativa, por 10 que puec:
eliminarse del modelo. (El modelo sin constante es el que se utiliza más adelante ~=-.
ra obtener predicciones.)
La f.a. y la f.a.p. de los residuos están representadas en la figura 7.23. La primen
presenta valores relativamente altos en los desfases 18 y 31.

MIN VALUE -.20476 MAX VAI.UE 1.0000SPACING .2400}e·Ol MIN VALUE ".21328 MAX VALUE 1.0000 SPACING .2'-,':

F,a. F.a.p.
fH-'+--. ,,+++,.+.~·t~"'·1 ~++" ~_1''',·..- .... +++...++01·... ++"..,....+·•. 10... +.".~ I'++~ -++++++ .. l. f..-t , , , ¡.+++'"+ ,,++ ,,~ .
~ .~ ... A (1 ~

.-. ~ •

~t
..
1 l. A
; :.e ....
n A
:5
~ +


S .. A s + A
A

, 1+
6

a ,:
A
A
+A
"7 < A +

.~
A-·
A
-
~ :!
ro
.+
.. '.." A I ... lQ 1- A

• ..
'1 +", + 11 't A'
12 1+ A + .. i2 +
13 A ... l3 t ., .+ A
!~
15
1...
-
•A ..
...
+
14
)!S
T
• ....
A
ti. 1.... A. ... t~ .Jo 11
1;' 1+ A ... 17 .. A
];.1
'9
A
r-
+ A +
: ~:
..
~
+ 20 A +
2"
~l
z.?
'.
.+
.f<
.A : ~~1
A

2' r+ •., ... 23 .. (. +
7.4
:';5 1: 1\
",'
1
..
+ 75
24 4-
+ ..
A+

+
2!.
7.7 ..
.+ A+
A : ~~
¡ A ..
..'"
7.8
2<)
1.,
.+
A
• I
+
..
?e
29
~
1 .... ..
A+ - : ", PREDIC
~...
) .... 1\ .... 30 .,. A
;; 1:'" ... 31 -+ A

'" .... "


.. :;2 r . - .:.':;:z ~ue e
~3 1+ .... 3~

: e M ~ : : ~ ~:
+
A 7.';':2. su valica
>6~ ... t:4+
•++.~+......
,.+++ ...+++ ..+++ .... .r+++++ .........+..... ++ ...++-+ ........
"'36
"Y .............. .,
+A I
.... ++ .. .¡...... "'+++-~..........~++++...........
~
.•++ ....,+- ...~-- .
+ ~+++.,.+.+~ =:-. :0 suce
Hg. 7.23. La. y La.p, de los residuos, ~.;;.\L\(p,q).
- :~::' se utilíza
,~:-:~,una vez
La figura 7.24 es el gráfico de los residuos, en donde se aprecian algunos atípicos, -':"'::5:ormaci
para los que hay que encontrar alguna explicación. Por ejemplo, los residuos corres- ,~ ~;¡lican los
pondientes a Abril de 1980, 83 y 84 pueden estar justificados por las vacaciones á~ Se van a ma
Semana Santa. El residuo correspondiente a Octubre de 1981 viene provocado por : zrernos por X
el final anticipado de la temporada turística en dicho año. ~':elantado l.

- .17.1. Predic

'_':1criterio bá
zel cuadrado
.riterio se den

_.-. _._._
PROC.ESOS ESTOCÁSTICOS y MODBLOS ARlMA 263

.ceptar la hipótesis de
: coeficientes resultan 0,5-r--------------------------------------------------~
~:::ode que R2 no sea
::':a, por lo que puede
:..:..:.za más adelante pa- 0,3

~:.:ra7.23. La primera

O,L

~.~= 1.0000 Sf'ACING .24761:-:'

-,;;,p.
. - -- -. _44 ~+ ~ ++ 1 ~+ ~+ __ -O,L ~\ ,
l
-0,3

1979 1980 1981 L982 1983 1984 1985

"·ig. 7.24. Residuos.

7.17. PREDICCIÓN

Una vez que el modelo ha sido estimado y sometido a las diversas comprobaciones
para su validación, se convierte en un instrumento útil para las predicciones.
En [o sucesivo se va a tratar de la predicción con un modelo estacionario
ARMA(p, q). Si se tratara de predecir los valores de una serie no estacionaria, pri-
mero se utilizarían los resultados del presente apartado para las predicciones de la
serie, una vez que se hubiera inducido la estacionaríedad mediante las adecuadas
2.:-. algunos atípicos, transformaciones. A continuación, para obtener predicciones de la serie primitiva,
:05 residuos corres- se aplican los resultados de 7.6.5.
: ~ .as vacaciones de Se van a mantener aquí las notaciones introducidas en el capítulo 6, y, así, desig-
:::::.eprovocado por naremos por XIJ) la predicción de origen T a horizonte 1, es decir, para el tiempo'
adelantado f.

7.17.1. Predictor de mínimo error cuadrático medio

Un criterio básico para comparar predictores es calcular la esperanza matemática


del cuadrado de sus respectivos errores de predicción. El mejor predictor bajo este
criterio se denomina predictor de minimo error cuadrático medio (MECM).

I
,

---------------------------------------------------~
264 ECONOMETRÍA. SERIES TEMPORALES Y PREDICCIÓN

La aplicación de este criterio a un proceso ARMA lleva a la conclusión .::= __ ..' ~ práctica, (7.117) r,~ ~
la mejor predicción por punto es aquélla que se obtiene mediante la esperanza :::-.::..
. ~ : _::habrá que sustituir.as
mática condicional del proceso. Este resultado muestra que la solución más in:·_ :.. ~: - z.: erencia entre realíza r.;
al problema de la predicción posee una sólida justificación. Ésta es una conc.i.. .. .~ -:: 7) y (7.116) se r:;:!
general cuya deducción puede hacerse como sigue.
Sea Xr(l) la predicción obtenida mediante la esperanza matemática condíc.: '._
.:_ -
es decir, _ ·~=.1mente,para eva._.::
:;:-ero para calcular :-,._
.~T+J-Q. Análog aze
en donde Ir representa toda la información disponible hasta el período T, es ::: : l. lo que obliga a :::.~

XT, Xr-l" .. Vamos a demostrar que el prcdictor así definido es el de MEe:'>.' : :.: .~ practica, hay q::: 0
decir, que cualquier otro predictor basado en la misma información posee un =- ~ . ..:::-:.
~-:-.ente, esto plantea _:
mayor. -:-:-~;.::isohaber evalt z; :
Sea Xil) cualquier otro predictor de XT+/ obtenido a partir de IT• Defir.e:r ...• , €_Q' que, a::-~-.!
:.: j_::: áctica se opta ¡:.:: ':
: r : Esta solución es .!.~:!::
Entonces, la media cuadrática del error de predicción de XT(l) es ¡ ::-.:-·=:-:ancia de los \;;;..::~
-: ....:.:.-:-..:.:-.0 muestral.
El [Xl +1 - Xr(l)f/h} = El [Xr +/ - XT(l) - D]2/IT} = :: ...z.ados así Jos El p:: ~=-
~ 2 - -_
= E{[XT+1- Xr(l)] lIT} - 2DE{[Xr+/ - Xr(I)lIIrl -- ~".:: .: ~ e! por él en (".

De acuerdo con (7.114), queda


. -ü 2 - 2 2
E{[XT+/-Ar(l)] lIT} =E{[XT-~l-Xr(l)l IIr} +D,
::..; '::;ultado, que es : 7..11
y, como D2 es una cantidad no negativa, esta expresión demuestra que el prec.r : "ll ::-' ;or otra parte .. :.-~
de XHI definido por (7.114) es el de MECM. :- ::,~:-'::endode fo!":..-'.U:I

7.17.2. Cálculo de las predicciones por puntos

Sea el modelo ARMA(p, q)

(7.:: -: .3

Para t = T + 1 se tiene:

=' 01XrC1 -: - :-)


Tomando esperanzas matemáticas condicionadas, de acuerdo con (7.114), se tiec: - 8¡tT - •. _. ~

Xr(l) == E(Xr+/IT) = cJ>lXT+··· + cf¡pXT+1_P - (JI€T-'" - OqET+I_q (7.1:- - :. ~ .:.::los términos : - ..•
;4.; .:: -r espondlentes :-'::~
en donde todas las variables con subíndices inferiores a T + 1 han dejado de ~:- ::i..-~ .·>pyl>c¡.;.: ~
aleatorias, por lo que sus esperanzas matemáticas coinciden con sus realizacior;«
y E(en tf1r) = O, por hipótesis . .'(TU) = 0:-\'- -:

.___ --
PROCESOS BS'roCÁSTICOS y MODELOS ARIMA 265

.? conclusión de que En la práctica, (7.117) no puede evaluarse, porque todas las e son inobservables,
e la esperanza mate- así que habrá que sustituirlas por sus estimaciones. Estas estimaciones se obtienen
':ación más intuitiva por diferencia entre realizaciones y predicciones, Por ejemplo, restando las ecuacio-
a es una conclusión nes (7.117) y (7.116) se tiene:

=-_ática condicional, (7.118)

Lógicamente, para evaluar ET+ 1 mediante (7.118) es preciso haber obtenido antes
(7.114) X r(l), pero para calcular ésta es necesario, de acuerdo con (7.117), tener evaluadas
Ep .•. , tET + 1- q' Análogamente, para estimar fr' es preciso haber calculado
~=ríodo T, es decir, X T-¡ (J), lo que obliga a haber obtenido antes tET_I, ••. , €T-q' Y así sucesivamente.
~5 el de MECM, es En la práctica, hay que-proceder a la evaluación de las e, desde la primera, Evi-
.ón posee un ECM dentemente, esto plantea un problema de valores iniciales, dado que para estimar
él es preciso haber evaluado antes X()(1), lo que habría exigido, a su vez, conocer
de Ir. Definamos EO' E _ l' • , • , e_ q' que, aparte de ser inobservables, caen fuera del período muestral.
En la práctica se opta por t.omar para estos valores su esperanza matemática, que
es cero. Esta solución es aceptable si el proceso es invertible, dado que, en tal caso,
, I es la importancia de los valores iniciales tiende a desaparecer a medida que aumenta
el tamaño muestral.
Estimados así los €t para el período muestral (t = 1, ... , T) se obtiene Et. Sustitu-
yendo los El por El en (7.117) se tiene. para la predicción de origen Tcon un período
de adelanto:

(7,119)

Este resultado, que es óptimo de acuerdo con el criterio del error cuadrático míni-
_;_~ue el predictor
mo, es, por otra parte, intuitivo a la vista de (7.116).
Procediendo de forma análoga para I = 2 se tiene:

en donde los términos ET+2 y 0lET+ I no figuran por ser


(7.115)

La predicción para I períodos de adelanto, siendo 1 < p y 1 < q, es, análogamente,


(7.116)
-: -q'
xr<_/) = 4>lXr(I- J) + 4>2XT(J - 2) + ... + 4>/XT+", + tPpXT+I_P-
,~.114), se tiene: - O,ET-'" - ()qeT+l-Q, (7.121)

:T .. ! _q (7.117) en donde los términos €T + ¡, 01€T + / _ l' ... , 8/_ 1ET + 1 han desaparecido por ser nulas
sus correspondientes esperanzas matemáticas.
:. dejado de ser
Para 1> p y 1> q, se tiene:
'':5 realizaciones
(7.122)

--._---=-
. ".. -...,.. _.;.:~..:. ... _ '(LZI'L) U~ opasardxo op
-E1Tns~ulE ~lu~urnlodl~p EA~nson rousitre u9pun::>d Rl '(H 1l ' L) muano ua opucruaj,

:.: :.; ~:
.; ~
,r +.L~ 1 -11ft = (¡).L.(f - (J + x
l) 1+.I

:3uafl as (~Z [ 'L) elUPlll e¡s~ -e opmnsa"tl

mb EJ~oluuerod aonpop as opuop ap '(~Z l ' L) ua sseq as (aI' L) op U9!:lUJlSOlUdP'Ir}


-.:. -::; . ;::-_::- - 'uIP 'S.rnd m,~p~ld ojapom I~ anb lOlEA Id Á U9pl'lZFTUOl-eA~nu eJ
;llua epuaJaJ!p uT e U9!OlOdOld ua sauorootpard SUlltl'.)!J!POUl anb Áuq 'sauopeAlaS
r -qo SEA;;JnU¡ríi1nS TU'onb nsardxa uoroanoa elSa '(1::1:1' L) U~ OP!UUap Ylsa /1 ;)PUOP uc
.:.
~ .. :... -:'.':';:-.:.~
~.o: _. ;::.:: ::- : opueoqde '(1 - 1)¡ +.LX zod Juui1~sap onb ¡('Sq aroqs onb 'IOP~¡U1'l U9pO!P
lE ;--':" :. ~:.::: '::-:- ,1 +LX orep oxsnu un a;);)Jud-e Á (/).1% opemojeo au JS ~S
-ard UIIEZFf'P.np'S opsnd as
R::: ,''; "o.:. :-; - .
1:;;::- :,,:.:?:,:::::.; :- . sauo!;);}!p3Jd S~l 3p U9P~Z!I"Cnpv 'p·a'L
~ :'':'::: ,o'~:~ _:--:
•7: ,:;::-.:- :::.::' ""-/

...a.: ':';:':;:'. ,';"7-: '. 'TI = (¡l% ID!!


l :..:.::::-;~.:;::-
.:_;'
opu-ep
-cnb '(~ZTL) ap ¡~ uc SOUrUl.1~ sor SOpOl uuynlIe 'dS 'co -1 opueno '~nb :;¡saAlysqo
a:: :-..=::- ~~:;:-:":7; 'O <.i-A 'O = (+,l.:¡):E/ onb otsond
L, ;-:;;~~:....:;;::
;ZTL) , , , + ¡ -J.;}I +/1 + .L:¡11 + 11 = (1).1%
'(vI T L) eruano uc opnatuci Á ~'m!lYUl31l?U1 snzrrerodso 0PU"BUIOl

:.:; Op::~:..:.,: anb jnba "0


- :

- ',' ,~:·Jd,\m::,:-.:
•• • w
'SOU!W191 SOl!U1]U! ap HA
-JW U!P~lU op ossoord OUlOO 11 e!p;)Ul op VW~V osocord la OPU;}!q~J:)SéI'op~p na
'elpaUl \31 e apuaq VW~V ojcp
_; :; ;oureu~:;c -our un ap onmd rod U9!O:lfPOJd 1'1[ 'a;)él.I;)uorootpcrd -elap onrozrroq p ano nptpaui V
>:';:;0 dN~sod ".:~,
;-:: :rq OS"BJ I~:::::
:_-, ::";ll~:lUI ;;11':'':;;
-::,,;.:1 BI ua ap s: ::
'b e JOF"JU!
-': .:-:maruodn5 ::- ., :: Ieng, amozuoq op souorootpard Sl?1ua 0[9S elU~n;) ~lIud 11S"'otpat¡ élQ 'U9!Sélldxó1
cap JOJ.13 '.!:'_[_ ~:.urW)e1sa ua optooredesop -el{ osooord PP l!A9Ul arpom ap alled el onb é)SaAI~sqo
PROCESOS ESTOCÁl;nCOS Y MODELOS ARIMA 267
,
.,
rr~¡

. .. :.. Error de predicción .1i


J.!
• ... :=.-.:.... - - -.:·...poníendo que los coeficientes q; y (J se conocieran exactamente, caso ideal que
'. ·.,':a en la práctica, la predicción de una variable aleatoria, como es X(, conlleva
~·-.::~eincertidumbre y, por 10 tanto, un error dc predicción.
_:::-.
d caso hipotético de que se conocieran los valores exactos de los coeficientes,
<- l ~osible obtener una expresión del error de predicción como sigue.
:·=:-inamos el error de predicción mediante

eT(l) = Xr+,- Xil). (7.129)


: .srituyendc .XT+( y X1.(/) según (7.124) y (7.125) se tiene:

eT(l) = (:1'+ I + 'fl €y + ¡..1 + ... + 1/;, - 1fT + 1, (7.130)


'::-::~ndo en cuenta que E[eT(I)] =' 0, se tiene:
E[eif)]2 = (1 + 1P~+ ... + 1P;_ 1)0-: (7.131 )
_ .:.:.:e
para r:;¡! O y todo t.

: :-~ávese que, a medida que 1crece, aumenta la varianza del error de predicción,
.; ::.:-.josccomo lím.ite a la varianza del proceso.
_:::-.:a práctica, los verdaderos parámetros son desconocidos, por lo que al anterior
.:-: ~ '::e predicción se le acumularán los errores en la estimación de los parámetros,
.' : ..:a1es vienen provocados por los errores de muestreo.
: :::;0 quiera que los parámetros se estiman por procedimientos iterativos, se pue-
_.:'~::-:nar como errores estándar de los coeficientes estimados los correspondientes
_ -'-estimación lineal de la última iteración. Estos errores estándar pueden usarse,
_ _'. ez, para estimar la varianza del error de predicción. Tales resultados son limi-
..:..':':~.por 10 que deben usarse con reserva.
=: .:so más importante de los errores de predicción es la construcción de intervalos
:.::.-"¿jicción. Tomando (7.131) como válida, el intervalo de predicción para la pre-
'" .:. ~:1 de X T + I es
-=',~: : ..
Xr(l) ± kpCTf -/ 1+ I/;i + .. :-+ >./;1-1 , (7.132)
- ;: ::de kp:::: 2, para un nivel de significación del 95 %. Una estimación de u; es
r
¿:; e:
;=1
(7.133)
T-p-q
::= .a expresión (7.132) se deduce que, para un nivel de significación fijo, a medí-
~.~ =.·,:e el horizonte de la predicción, 1, aumenta, el intervalo de predicción crece.
: : ::-.J quiera que ¿. I/;¡ es convergente, el crecimiento con {de los intervalos de pre-
: : :::-n presentaría un límite.
268 ECONOMETRíA. SERIES TCMPORALES y PRr.I>ICC¡ÓN

x 1000

__
500,-·---------------------------------------------
- Serie observa':': - - l
.... Serie predicha ..... :-::lJI

t - ...... :.: . __ JI::

-
400 ~:. - _ ...•..:::tft

.••__
"
1,
,'1, ~ =-
, I
I ~.~- .. -::I:Il
I
_ . -....:
,: '
_ .....
~:

._.
300
, I
.....,;¡ .
- .
I

.
I
I .. 1. .~_.: . _ - -:-:::t
200 , I
.. '1Ui-._ : ' .. ...:-~
I
I
~ =. -'~

:._~-
..... -uc: . ..: :.- - _..:MI
& IU..~·· ...-:~ ....
100 _.~: _
~. - __ :

E M M J
Período rnuestral

S N E M M .J S N
Período de predicción
--"*;....----

E :VI M J S :-
~:;:

~ .• :-._ "0:
.~
...
...

1984 1985 1986 ~ -: .. - -';.~


Fig. 7.25. PERNA, valores reales, simulación histórica y predicción. :I11III11: _: .... ..: ~

Ejemplo. Con referencia al caso analizado en 7.16, se han obtenido las predi ~:'.:.
~
::a.--
._., :.- - -.
.. ' --
-~
tIj

nes de PERNA en el período comprendido entre 1984.1 y 1986.12. Para ello Et :_


utilizado el modeJo estimado en 7.16 (eliminando el término independiente, qi;e :.
es significativo). Para obtener las predicciones de X, hay que tener en cuente. ~-=
_
_
.. ....
_..
.t::. _".-
-.
'-:-'

lo que figura en el modelo es In XI' por lo que, para predecir Xl' es preciso o;:-·:---¡;
en la forma en que quedó explicado al final de 7.6.5.
Como el período muestral acaba en 1985. 12, resulta que la predicción pr.::_;-..::
mente dicha es la que corresponde al período que se extiende de 1986. 1 a 198f. _:. ~t··"·
En la figura 7.25 aparecen, junto a las observaciones muestraJes, Las observar.'.
nes correspondientes al período de predicción, a fin de comprobar gráficamerr s _
bondad predictiva del modelo. La «predicción» de 1984. 1 a 1985. 12 es realr::::.:
una simulación histórica. --
.':w¡¡.,¡. -
Es de gran interés práctico el saber que en la actualidad se dispone de prograz;a
que realizan de forma automática todo el proceso de identificación, diagnósticc. !:-
timación y predicción de modelos ARIMA t.

t AUTOBOX es el más destacable. . ~


PROOESOS ESTOCÁSTICOS y MODELOS ARIMA 269

7.18. COMBINACIÓN DE MODELOS ECONOMí.--rruCOS y MODELOS ARMA

~~:e observada Hay una forma obvia, que ya ha sido mencionada en 6.1, en que los modelos econo-
~::~ predicha
métricos pueden complementarse en las aplicaciones prácticas con Losmétodos auto-
proyectivos. Se trata de que, para predecir una determinada variable (endógena), los
modelos econométricos incorporan información predictiva sobre otras variables (exó-
genas), información que puede obtenerse en muchos casos mediante la aplicación de
las técnicas autoproyectivas del análisis de series temporales, pero hay otra forma inte-
resante de combinar los modelos causales y los modelos ARIMA univariantes.
Para explicar el comportamiento de una determinada variable, los modelos eco-
nométricos incorporan información cuantitativa sobre otras variables. Los residuos
de la regresión deben entonces ser aleatorios. La forma usual de verificar la ausencia
de pautas estructurales en los residuos es a través del test dc Durbin y Watson, pero
este test tiene varias limitaciones, entre las cuales conviene destacar aquí que verifica
la hipótesis de ausencia de autocorrelación en el término de perturbación, frente a
la hipótesis alternativa de autocorreJación de primer orden. Los procedimientos al
uso en Econometría para corregir los resultados de la regresión, si se detecta autoco-
rrelacíón, se basan precisamente en el supuesto de que el término de perturbación
: :~dícción ,1 obedece a un proceso autorregrcsivo de primer orden. Si la estructura de autocorre-
lación del término de perturbación fuese más compleja, su detección podría pasar
S N inadvertida, pero, aunque se detectara, los métodos de estimación usuales (Cochra-
ne-Orcutt, Hildreth-Lu) se basan en aproximar la estructura autorregresiva del tér-
mino de perturbación por la más sencilla, es decir, por Lade primer orden. Sin duda,
este procedimiento repercutirá en la calidad de las predicciones.
Por otra parte, los métodos de análisis expuestos hasta ahora en el presente capí-
: ~ las prediccio- tulo proporcionan un instrumento para describir formalmente estructuras comple-
Para ello se ha jas en una serie temporal. En cambio, estos métodos carecen de la posibilidad de
r.diente, que no introducir información «a priori» para relacionar la variable en cuestión con otras
~ en cuenta que variables de las que supuestamente depende, de acuerdo con los modelos de la teoría
; preciso operar económica o con la experiencia o intuición del analista.
Todo lo anterior sugiere que una forma en que ambos enfoques se pueden combi-
:'icción propia- nar provechosamente es a través de la modelización de los residuos del modelo eco-
t::. 1 a 1986. 12.
nométrico aplicando la metodología Box-Jenkins+.
.as observacio- El ejemplo que sigue aclarará el procedimiento. Para su realización se ha utilizado
E;:-áficamelltela el software microTSP que es apropiado para este tipo de análisis y fácil de manejar.
~::.es realmente La forma en que se opera con este software puede resumirse como sigue. Primero
se halla la regresión ordinaria, de acuerdo con la especificación econométrica. Los
e de programas
~agnóstico, es-
t Conviene tener presente, sin embargo, que una causa potencial de autocorrelación en los residuos es
la presencia de errores de especificación en la ecuación. Por lo tanto, antes de buscar soluciones pura-
mente estadísticas, mejor será cerciorarse de que se han probado todas las especificaciones que, dado
el caso, parezcan relevantes a priori a la luz de la teoría económica.
270 ECONOMETRÍA. SERIES TEMPORALllS y PREDICCJÓN

residuos de esa regresión se someten a análisis para su identificación. Una Vez.identi- ~: : observaciones ~
ficados, se especifica la correspondiente estructura ARMA dentro del modelo de re- :::-5 siguientes ~:
gresión. A partir de este momento, el propio programa de regresión procede "-
obtener la estimación conjunta de todos los parámetros (los coeficientes de regresiór:.
y los parámetros del modelo ARMA) t.

7.19. EJEMPLO: PREDICCIÓN DE LA POBLACIÓN ACTIVA ANDALUZA

A continuación se describe brevemente un modelo de predicción de la población ac-


tiva en Andalucía que ha servido de base para realizar pronósticos respecto a la evo-
lución del paro a corto y medio plazo.
En la población activa in fluyen tanto fuerzas demográficas como económicas. E!:
efecto, potencialmente constituyen población activa todas las personas de edades
comprendidas entre 16 y 65 años, pero cuando la actividad económica entra en decli-
ve, muchos activos potenciales no llegan a tomar contacto con el mercado de traba-
jo, dedicándose, por ejemplo, al estudio o a labores domésticas. Éstos últimos nc
son considerados activos.
El modelo siguiente explica la población activa andaluza (POAC) en función de la
población de edades comprendidas entre 16 y 65 años (P016) y de la ocupaciór;
COCU).Esta última variable representa el estímulo para acudir al mercado de trabajo.
Los datos son trimestrales, y para recoger los efectos estacionales se utilizan varia-
bles ficticias estacionales, W¡ (i = 2, 3,4). La formulación queda como sigue:

POACt = (X, + 2:;CXj Wj + (XsP016( + CX60CU" + (X7POACt_1 + ét. (7.134 ::-=::.' .=~.:-:-
¡

La aparición de POACt-1 en el segundo miembro proporciona carácter dinámico -_".=::'--~ ..i


al modelo y admite diversas justificaciones teóricas alternativas, como ya se sabe
por los capítulos 3 y 4.

, ... l
111

t El programa lleva a cabo el siguiente procedimiento iterativo; 1 •

l.' iteración. Partiendo de los residuos de la regresión ordinaria, estima el correspondiente modele ••
l •
ARMA especificado. A partir de esta estimación obtiene «predicciones» de los residuos mediante 1<.
simulación histórica del modelo.
2." iteración. Los residuos predichos en la primera iteración se restan a la variable dependiente, :.
así se obtiene una nueva variable «ajustada». Olvidando la parte ARMA del modelo, se ajusta la regre-
sión de la nueva versión de la variable dependiente respecto a las independientes. De esta regresión ~e
obtienen unos nuevos residuos, con los que se procede al igual que en la iteración anterior, es decir.
se utilizan para estimar el modelo ARMA y simular nuevos residuos.
3.' iteración. Con los residuos de la iteración anterior, se realizan los mismos pasos que en la segur-
da iteración.
Así se va procediendo sucesivamente hasta que se alcance la convergencia, es decir, hasta que la dife-
rencia entre las estimaciones correspondientes a dos iteraciones consecutivas sea menor que una cant.-
dad prefijada. ~ _. _.
...:-
::
....
·u9,S~~j;f~1'el ep .repuylS:l .IOJ13 ~
" - ;)VOd oppotn l:l ua rooorede aod ~pJ~,d es U9pellI:lsqo -e1:lIn!ld 1l'J + -!1Ull:l aun :lnb JOU;=
-~."P 'el onb lllSllq •~:.;

-unsos l!1 1J:lanb scsr ~

'Jp:lp S:l '.lOp:llUll c:


os U9!S::l.l~i)1 -elS:l ~a
OLG' '0- :l::L170'O- Z, ::t: .:l.ril;¡J 111Blsn rll es 'C~;
10170 'O 6191"0 II u:: Á ':llTl~,pU:ld:lp :llqE::'
80171 '0- 11)(.:"['0- 01 :* :*
9L.'l:O·O-
tol80'(l-
;::::!;;B1'O- 6
6L61"O- 8 i*
:**
:**
III ~lUll!p:lIn SOnp!5;~
oppoui ;)lu:l!puods;~
t ezo '0- :>::1791'0- L :**
~LZ;Z·O- s;:or:;:'O- 9
s
:** : ***
T.t,;;6:~ '(1- :~r;;9~'0-- :**** : ****
6G90'O
:".';;00 'O
6L80'O
t>9:;:O'O
17
,-
z,
*: * ,:
1

rzz t '0 O!;;t>1 '0 z *1 :lcl


L 1<:::1'0 L.1Z,i '0 ti ;t:
cqas OS llÁ ouror
:::r.. O:1!myu!p J~¡:1?lE:
(]IS3~ .t.t-l30r
suoq:eA.Jesqo 9~
V'S861 - 1 "¿lb1 'dwe
:~níi!s ouroc ~
-ome ap ssuototmj Slll elU~s~Jd~l 9Z' L lUn.8!J -el 'O););)J;) U3 'S;)JOp-el;)AOlÁnm nos sop -"P.!1"BAuez!{pn~; ;
-mmsar SOl 'repl-ed U9pepllOOO¡ne ap Á u9pel~lJO;)Olnll ep seuopunj sel ~lUl!!pam 'of-eqtm ap OpB~':~
sonpjser SOl ;)p S!S!J~Ull P oqao II eA;)Il ;)S opusno 'olad 'sonpfs~l SOl tra uepso istu uopndnoo ul ;,lF .
-[,IÚ;)P U9pl'lpuo:>01nll ~lS!X;)ou onb ;)P ;){dm!s S!S;)l9d!Q -el 18:1!JpaA lu-ed ullJlfAJa5 III ap uorounj U~ , ~

ojos 0Ilpu:)s osn op SOllO ouroo S¡S~l soisa OlUP.l'OSll~ rambpmo u3: '1 < ('o) IBA.1
OSE::>~lsa U~ anbrod urqma ap tf III ll!ln::>IB:1opand as 0N 'OpBpll!laJ opuBsalg¿..: OU sow!lI~ S015~
ordord P lOS~Jíi~J ouroo ~::JaJlldll onb p U~ orxoiuoo als~ U;) oJlll::>!Jdll oioanoo sa 01; -sqan ap OpBJ~¿::':
'UOS1BM. Á uNJna op lsa1 p suoprodord dS.L0,K)!UI -ewtuíiOJd [;)p -eP!Ies -el onbuns -![:J<'lp u~UItuaE:::
'oíiluqwa U!S 'OpUAa[a sa r):l \}P .I0{l!AI\) ti. 'SOAfl-e::J!]1uíi1S
uos sa:).u"!::J!J;)o::JSOl sopoj, sapapo ap snuos.s
UH 'su::J!m9U0:1¿ e:
'89'1 = 'A1 'U :j: S'E'L = :ElS ZS'6'O = z~
-OA~ 11[ -e oíoad S¿': :
(S;17'Z) «1»
-;m u9Pulqod -el ;;
181Z'O = L1f1
(9'8) (,~'6) (S'E- ) «1» VZ!l'IV<INV y_\.
€SSf'O = 9y 9tS9'O = 'y 179'Il- = v1f1
(S;'S;- ) (E'9- ) (0'8--') «1>}
L9'61 - = E1f1 18'S'Z- = z1f1 9'0181- = l1f1 U9rSOJgaJ ap S~¡U;:
II apaoord U9!S~':~
:U9!S;)Jg~J III ap sfsll~Ul! pp sopsnnsar SalUQ!níirS sor u~:: -;)J ap oppour PF ~
-anqo as S;861 op ansaunn 0'17IU .j. 9L6 [ op onsounn 0-17p ~PS;)P sauotoaxrasqo UO] -nnapt Z~A euO .::.:

lLZ v[t\lnrv soranox A SO::>ILSy80.ISff SOSH:lO"lld


'OJ!UlPU!P :.:
rr=: :':dP ;)S OppOUl :m-:: ===============:::::::::::l=,,~~======::::t':::====:::::=:======::=:==========c.===:::::::=~:::::=====:ctr.:::::=
;081 '0-
':'8LO'0
g,Sl '0-
17880'0
7.:.1
ti *:
lU
*:
:**
::.asa "0- LgOC:"O- Ol :** l'*
:L:i::O '() :2::1~O'O- 6 ::l<
_690'0- ZC:17Z;'(l- 8 :* :u
,:,~nb '~AP~UH;:'P -;= ;:'':'171 '0-
LL6z"O-
:~~Z·O- !;;98Z'O-
L.
9
[*[*U :U*
'***
;°80"0- 28;:1 "0- s : lit : JI(
:;!'OO'O- g6iO'O 17
~:;Zl'O- i:f7170'O- ~ :*
=:12:'0 86:;:Z:'0 Z U: U:
~ ;81 'O 8!;81'O ** l U::
~~':::(d -el 11 'P.j7¡or~u-e,,:-::
L,;; _ ~; anb auodns ;:¡s ============~====;~======================~========:=~======~==m=====
aIS3~ .iN3aI
SUO~-=l1?I\..Jasqo 1~
v'S861 - ~'8L61 idWS

'SorI01~{'I! UOS onb lflfITIpe opand as anb aonpop as U9P:>;)dsu! ns ~a'sonp


·';;1 SOlS~ ;:,p . d '-e' J 'el f,. 'la'J 'éllsepaiucsardor uaoarnde a; t. 'l!mflu 'el ug -sonprscr SOA
-;:-.u SOl ep se::l!Jlpíl S1!lIeU!WUXa anb Áuq 'Op~::llélrélLd op~Z11eufJ rod .rep ap soiuv
-séluo~:>;)~paJdsel op 'B1ofarn ¡;j(qrsuas
p. -:-:::-]ldx:;l (s}<llq~P'l!:. -'- :-~:--U~ ueÁnuu~ sopeimscr sozanu SOl anb raradso ap s3' -opmtmnsrp 'e'l{u9!sar8aJ 'el
::....:;:-.~ anb ;modns o:JS - ::- repuyl~ 101Ja la h dlU<lUIBld8H openroume Ul.[ 'l~ '~uaUldlq!sUClS aJall!p L7() dlUo:J!;)
. ;~0J 10 'a'luélUlJBlm9J'P.d -SéllOPdlUU SOl op alU;)w'eJél~!l ml1amp sopaijnsar s0'1

'Z9'1 = '.M. 'a Z6'9 = ,gS Z96'0 = 7)1


CIl'Z- ) (g'l)
'» Á *Á's('''::-::--'' 606E'O- = ~p 6%1'0 = L~
.:':9~sdl~dr dP gOlo:Jpc'':: -
(Z'6) (~'Ol) (17'Z-)
; :'::;\;)sns Sd oppow ;>.:
~ .oparodo pp souuc;" •.
Z08('0 = 99 LOOL'O = >9 8~'11- ="~
=-:. -0:>u'eIQ optru un 5~:.:-: (~'~-) «('17-) (8'8-)
..:- red optonpo.id ''E-;:-: OL'BI- ="(? LO'~Z- = z~ L'8Z61- = 19
...: .:-.b -eJ~OIOU!lU.IalE; o_::=
:5;)1
.;·:-.il1S sopsnnsor sor asopuomsiqo 'sauo):)ul:ll! 17op sondsap upuél8JaJ\uo:'> Á'P.H
-JOpéllU'B opairade
: ::~ OPU¡UélWOJOAn'el~! ornorunpooord TOl~ldUlél onb 'dS..L0J;)!W ~m13~oJd Id
:-..:"?~(ld'B'epUJaua~ ras ~:-~--- . .: :r9~;)-eU.rnSéll?l 13apooord es '17 u 1 sanapro SOl Ud sojnu sa¡ua!O!JOlo::J UO;) '(~)~V
~ :~Bs!,unVWllV 0PF:::' .: '';~0Id un uau8!s sonprsor Sor onb sroqa OPU()9~lUPt!Á oppour 1<lOpuu;)m;)()ds~Ol~
.sonptsai SOl ua ~ uspro cp U9!;)'I!{dlJ
ni '1(1 0'13UOIV TI .:.:- ".:.: .ne cp upuasald el aSltrpaldu epond uIIól ug .sonpjsai sor ap lepJud u9Pularroo

También podría gustarte