Está en la página 1de 124

MODELOS PARA EL ANALISIS DE

LAS SERIES DE TIEMPO

Juan Carlos Abril


Universidad Nacional de Tucumán
Consejo Nacional de Investigaciones Científicas y Técnicas
de Argentina
Índice General

Prólogo xiii

1 Introducción 1
1.1 El Estudio de las Series de Tiempo . . . . . . . . . . . . . . . 1
1.2 Ejemplos de Series de Tiempo . . . . . . . . . . . . . . . . . . 2
1.3 Breve Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Enfoque General al Estudio . . . . . . . . . . . . . . . . . . . 16

I Análisis Clásico en el Dominio del Tiempo 19


2 Procesos Estocásticos Estacionarios 21
2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Modelos Probabilísticos para las ST . . . . . . . . . . . . . . . 22
2.3 Autocovarianzas y Autocorrelaciones . . . . . . . . . . . . . . 25
2.4 Autocorrelaciones Parciales . . . . . . . . . . . . . . . . . . . 29
2.5 Ergodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6 Ejemplos de Series Estacionarias . . . . . . . . . . . . . . . . . 31

3 Modelos Estocásticos Lineales 33


3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Modelo Autorregresivo de Primer Orden . . . . . . . . . . . . 33
3.2.1 Caso especial: camino aleatorio . . . . . . . . . . . . . 39
3.3 Modelo Autorregresivo de Segundo Orden . . . . . . . . . . . 40
3.3.1 Caso especial: AR(2) con raíces complejas . . . . . . . 44
3.4 Modelo Autorregresivo de Orden n . . . . . . . . . . . . . . . 44

iii
iv ÍNDICE GENERAL

3.5 Modelo de Promedio Móvil de Primer Orden . . . . . . . . . . 47


3.6 Modelo de Promedio Móvil de Orden k . . . . . . . . . . . . . 48
3.7 Representación AR de un MA(k) . . . . . . . . . . . . . . . . 54
3.8 Modelos AR con Errores MA . . . . . . . . . . . . . . . . . . 55
3.9 Función Generatriz de Autocovarianzas . . . . . . . . . . . . . 59
3.10 Descomposición de Wold . . . . . . . . . . . . . . . . . . . . . 60
3.10.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . 60
3.10.2 Otros resultados importantes . . . . . . . . . . . . . . 61
3.10.3 Aproximación de un proceso estacionario por una AR(4) 62
3.10.4 Teorema de la descomposición de Wold . . . . . . . . . 65

4 Correlación Serial 67
4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2 Estimadores de v . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3 Propiedades Asintóticas del Estimador de v . . . . . . . . . . 70
4.4 Tests de Correlación Serial . . . . . . . . . . . . . . . . . . . . 72
4.4.1 Resultados exactos . . . . . . . . . . . . . . . . . . . . 72
4.4.2 Resultados aproximados . . . . . . . . . . . . . . . . . 77
4.5 Poder de los Tests . . . . . . . . . . . . . . . . . . . . . . . . . 78

5 El Ajuste de Modelos de Series de Tiempo 81


5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2 Estimación en el Modelo AR(1) . . . . . . . . . . . . . . . . . 82
5.3 Estimación en el Modelo AR(n) . . . . . . . . . . . . . . . . . 84
5.4 Estimación en el Modelo MA(1) . . . . . . . . . . . . . . . . . 86
5.5 Estimación en el Modelo MA(k) . . . . . . . . . . . . . . . . . 89
5.6 Estimación en el Modelo ARMA(n> k) . . . . . . . . . . . . . . 92

6 Predicción 95
6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2 Proyección Estadística de una Serie . . . . . . . . . . . . . . . 96
6.3 Predicción de Modelos ARMA(n,k) . . . . . . . . . . . . . . . 96
6.4 Sistema de Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . 98
6.4.1 Predicción de modelos estacionarios . . . . . . . . . . . 98
6.4.2 Predicción de modelos no estacionarios (y no estacionales) 99
6.4.3 Predicción de modelos no estacionarios (y estacionales) 101
6.4.4 Identificación del modelo . . . . . . . . . . . . . . . . . 102
6.4.5 Estimación del modelo . . . . . . . . . . . . . . . . . . 105
ÍNDICE GENERAL v

6.4.6 Control de diagnóstico . . . . . . . . . . . . . . . . . . 106

7 Ejercicios de la Primera Parte 111


7.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

II Análisis en el Dominio de las Frecuencias 115


8 El Dominio de las Frecuencias 117
8.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.2 Modelos de ST en el Dominio de las Frecuencias . . . . . . . . 117
8.2.1 Variables aleatorias complejas . . . . . . . . . . . . . . 118
8.2.2 Procesos estocásticos en el dominio de las frecuencias . 119
8.3 Relación Entre el Espectro y la FGA . . . . . . . . . . . . . . 128
8.4 Efecto del Filtrado Lineal . . . . . . . . . . . . . . . . . . . . 130
8.5 Diagonalización de Matrices . . . . . . . . . . . . . . . . . . . 132

9 Estimación de la Densidad Espectral 139


9.1 El Periodograma . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.1.1 Periodograma de un proceso ortogonal . . . . . . . . . 140
9.1.2 Periodograma de una serie estacionaria general . . . . . 144
9.2 Estimación Consistente del Espectro . . . . . . . . . . . . . . 146
9.3 Elección de la Ventana . . . . . . . . . . . . . . . . . . . . . . 148
9.4 Estimadores Particulares del Espectro . . . . . . . . . . . . . . 150
9.4.1 Estimador de Daniell . . . . . . . . . . . . . . . . . . . 151
9.4.2 Estimador truncado . . . . . . . . . . . . . . . . . . . . 153
9.4.3 Estimador de Bartlett . . . . . . . . . . . . . . . . . . 153
9.4.4 Consideraciones generales . . . . . . . . . . . . . . . . 154
9.5 Estimación ARMA del Espectro . . . . . . . . . . . . . . . . . 155
9.6 Estimación de la Distribución Espectral . . . . . . . . . . . . . 156
9.7 Transformada Rápida de Fourier . . . . . . . . . . . . . . . . . 157
9.7.1 Cálculo de las autocovarianzas muestrales mediante la
transformada rápida de Fourier . . . . . . . . . . . . . 159

10 Tests en el Dominio de las Frecuencias 161


10.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
10.2 Tests Basados en el Periodograma . . . . . . . . . . . . . . . . 162
10.2.1 Test de Schuster de periodicidad . . . . . . . . . . . . . 163
vi ÍNDICE GENERAL

10.2.2 Test del periodograma de Fisher . . . . . . . . . . . . . 164


10.3 Test del Periodograma Acumulado . . . . . . . . . . . . . . . 167
10.3.1 Distribución de V1 > = = = > Vp31 bajo K0 . . . . . . . . . . 169
10.3.2 Disgresión sobre la función de distribución muestral . . 170
10.3.3 Relación con los estadísticos F . . . . . . . . . . . . . . 172
10.4 Test de Estacionariedad . . . . . . . . . . . . . . . . . . . . . 172

11 Estimación en las Frecuencias 175


11.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
11.2 Estimación en Procesos Estacionarios . . . . . . . . . . . . . . 176

12 Análisis Espectral Bivariado 185


12.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
12.2 El Espectro Cruzado . . . . . . . . . . . . . . . . . . . . . . . 186
12.3 Interpretación de f($) y t($) . . . . . . . . . . . . . . . . . . 189
12.4 Interpretación Adicional de la Coherencia . . . . . . . . . . . . 190
12.5 Efecto del Filtrado en la Coherencia . . . . . . . . . . . . . . . 191
12.6 Efecto de un Desplazamiento en la Fase . . . . . . . . . . . . . 193
12.6.1 Efecto en la correlación entre los componentes de las
series en la frecuencia $ . . . . . . . . . . . . . . . . . 196
12.7 Relaciones de Regresión . . . . . . . . . . . . . . . . . . . . . 198
12.8 Estimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

13 Ejercicios de la Segunda Parte 203


13.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

III Análisis Econométrico de Series de Tiempo 213


14 MC en Regresión con ST 215
14.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
14.2 Análisis Clásico de Regresión . . . . . . . . . . . . . . . . . . 215
14.3 Regresión con Errores No-Esféricos . . . . . . . . . . . . . . . 217
14.3.1 Consideremos el caso n = 1 . . . . . . . . . . . . . . . 218
14.3.2 Aplicación a una regresión cuyas variables son series
de tiempo . . . . . . . . . . . . . . . . . . . . . . . . . 220
14.3.3 Extensión para el caso n A 1 . . . . . . . . . . . . . . . 225
14.4 Sesgo en la Estimación de la Varianza . . . . . . . . . . . . . . 225
ÍNDICE GENERAL vii

14.5 Autorregresión con Errores AR(1) . . . . . . . . . . . . . . . . 229

15 Tests de Correlación Serial 231


15.1 Test de Durbin-Watson . . . . . . . . . . . . . . . . . . . . . . 231
15.2 Test k de Durbin . . . . . . . . . . . . . . . . . . . . . . . . . 234
15.3 Test en el Dominio de las Frecuencias . . . . . . . . . . . . . . 236

16 Estimación en Regresión con ST 239


16.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
16.2 MV en Regresión con Errores Correlacionados . . . . . . . . . 240
16.2.1 Caso simple con errores AR(1) . . . . . . . . . . . . . . 240
16.2.2 Caso general con errores ARMA(s> t) . . . . . . . . . . 243
16.2.3 Estimación eficiente en tres pasos . . . . . . . . . . . . 243
16.3 Estimación en el Dominio de las Frecuencias. I . . . . . . . . . 246
16.3.1 Caso circular . . . . . . . . . . . . . . . . . . . . . . . 247
16.3.2 Caso no circular . . . . . . . . . . . . . . . . . . . . . . 248
16.4 Estimación en el Dominio de las Frecuencias. II . . . . . . . . 253
16.5 Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253

17 Ejercicios de la Tercera Parte 255


17.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255

IV Análisis Basado en el Enfoque de Espacio de Es-


tado 263
18 La Forma de Espacio de Estado 265
18.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
18.2 Modelos Estructurales . . . . . . . . . . . . . . . . . . . . . . 267
18.2.1 Nivel local . . . . . . . . . . . . . . . . . . . . . . . . . 271
18.2.2 Tendencia lineal local . . . . . . . . . . . . . . . . . . . 272
18.2.3 Tendencia, estacionalidad e irregulares . . . . . . . . . 274
18.2.4 Ciclos . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
18.3 Modelos Reducidos en Forma ARIMA . . . . . . . . . . . . . 278
18.4 Forma de EE de Modelos ARIMA . . . . . . . . . . . . . . . . 280
18.4.1 Forma de EE de modelos ARMA . . . . . . . . . . . . 281
18.4.2 Forma de EE de modelos ARIMA . . . . . . . . . . . . 282
18.5 Variables Explicativas . . . . . . . . . . . . . . . . . . . . . . 284
viii ÍNDICE GENERAL

18.5.1 Ejemplo: Consumo de bebidas alcohólicas en Gran


Bretaña . . . . . . . . . . . . . . . . . . . . . . . . . . 285
18.6 Suavizado Curvilíneo . . . . . . . . . . . . . . . . . . . . . . . 286

19 El Algoritmo de Kalman 289


19.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
19.2 La Forma de Espacio de Estado . . . . . . . . . . . . . . . . . 290
19.3 Filtrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
19.4 Iniciación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
19.5 Suavizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
19.6 Estimación de los Hiperparámetros . . . . . . . . . . . . . . . 298
19.7 El Algoritmo EM y la Función Marcadora . . . . . . . . . . . 299
19.8 Bondad del Ajuste . . . . . . . . . . . . . . . . . . . . . . . . 301
19.9 Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302

20 Series Irregulares I 305


20.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
20.2 Observaciones Faltantes . . . . . . . . . . . . . . . . . . . . . 305
20.2.1 Observaciones faltantes en variables de “stock” . . . . 306
20.2.2 Observaciones irregularmente espaciadas . . . . . . . . 307
20.2.3 Agregado temporal . . . . . . . . . . . . . . . . . . . . 308
20.2.4 Agregado contemporáneo . . . . . . . . . . . . . . . . . 309
20.3 “Outliers” y Cambios Estructurales . . . . . . . . . . . . . . . 309
20.3.1 Ejemplo: El Producto Bruto Nacional de los Estados
Unidos . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
20.3.2 Detección de observaciones atípicas (“outliers”) . . . . 313
20.3.3 Detección de los cambios estructurales en el nivel . . . 317
20.3.4 Detección de los cambios en la pendiente . . . . . . . . 318
20.3.5 Detección de los cambios en la estacionalidad . . . . . 318
20.3.6 Estrategias para la detección de los outliers y de los
cambios estructurales . . . . . . . . . . . . . . . . . . . 319
20.3.7 Ejemplo: El caudal del Nilo . . . . . . . . . . . . . . . 320
20.3.8 Ejemplo: Consumo de bebidas alcohólicas en Gran
Bretaña . . . . . . . . . . . . . . . . . . . . . . . . . . 323
20.3.9 Control de diagnóstico continuo . . . . . . . . . . . . . 324
ÍNDICE GENERAL ix

21 Series Irregulares II 325


21.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
21.2 Períodos Especiales de Observación . . . . . . . . . . . . . . . 326
21.2.1 Observaciones semanales . . . . . . . . . . . . . . . . . 327
21.2.2 Observaciones diarias . . . . . . . . . . . . . . . . . . . 329
21.2.3 Observaciones horarias . . . . . . . . . . . . . . . . . . 330
21.3 Tiempo Continuo y Espaciado Irregular . . . . . . . . . . . . . 332
21.3.1 Modelos de espacio de estado en tiempo continuo . . . 332
21.3.2 Variables de stock . . . . . . . . . . . . . . . . . . . . . 334
21.3.3 Variables de flujo . . . . . . . . . . . . . . . . . . . . . 335
21.4 No Gaussianidad y Robustez . . . . . . . . . . . . . . . . . . . 337
21.4.1 Observaciones no Gaussianas . . . . . . . . . . . . . . 341
21.4.2 Robustez . . . . . . . . . . . . . . . . . . . . . . . . . . 346
21.5 Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348

22 Ejercicios de la Cuarta Parte 349


22.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
Parte IV
Análisis Basado en el Enfoque
de Espacio de Estado
Capítulo 18
La Forma de Espacio de Estado

18.1 Introducción
En esta Cuarta Parte del libro se presenta un enfoque unificado para el análi-
sis de series de tiempo. El tratamiento técnico está basado en los métodos
de espacio de estado (EE). Estos métodos pueden ser aplicados a cualquier
modelo lineal, incluyendo aquellos dentro de la clase de los autorregresivos
integrados de promedios móviles (ARIMA).
Todos los modelos lineales de series de tiempo tienen una representación
en la forma de espacio de estado. Esta representación relaciona el vector de
errores o disturbios {%w } con el vector de observaciones {yw } vía un proceso
de Markov {w }. Una expresión conveniente de la forma de espacio de estado
es
yw = Zw w + %w > %w  Q(0> Hw )>
(18.1)
w = Tw w31 + Rw  w > w  Q(0> Qw )> w = 1> = = = q>
donde yw es un vector de orden s × 1 de observaciones y w es un vector de
orden p × 1 inobservable, llamado el vector de estado.
La idea subyacente en el modelo es que el desarrollo del sistema en el
tiempo está determinado por w de acuerdo con la segunda ecuación de (18.1);
pero debido a que w no puede ser observado directamente, debemos basar
nuestro análisis en las observaciones yw . Las matrices Zw , Tw , Rw , Hw y
Qw se suponen inicialmente conocidas y los términos de error %w y  w se
suponen que son serialmente independientes e independientes entre sí en todo
momento de tiempo. La matrices Zw y Tw pueden depender de y1 > = = = > yw31 .
El estado inicial 0 se supone que es Q(a0 > P0 ) e independiente de %1 > = = = > %q

265
266 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

y de  1 > = = = >  q , donde en principio se supone que a0 y P0 son conocidos.


En capítulos posteriores consideraremos cómo proceder ante la ausencia de
conocimiento sobre a0 y P0 , y esto se conoce como iniciación.
Al sistema (18.1) se lo denomina usualmente modelo básico de espacio de
estado (MBEE), aunque también se lo conoce como modelo lineal Gaussiano
de espacio de estado. A la primera ecuación de (18.1) se la conoce usualmente
como la ecuación de medida o ecuación de observación y a la segunda, la
ecuación de transición o relación de transición o ecuación de estado. Es
interesante destacar que la ecuación de medida es equivalente a un modelo
de regresión con coeficientes w estocásticos que satisfacen la ecuación de
transición.
En muchas aplicaciones Rw es la matriz identidad. En otras, uno puede
definir  Ww = Rw  w y QWw = Rw Qw R0w , y proceder sin la inclusión explícita de
Rw , con lo cual se hace parecer al modelo mucho más simple. No obstante,
si Rw es de orden p × j y Qw tiene rango j ? p, existe una ventaja obvia en
trabajar con  w no singular en lugar de  Ww singular. En modelos univariados
s = 1, por lo tanto Zw es un vector fila y Hw es un escalar que se lo suele
denotar como  2% .
El modelo (18.1) provee herramientas poderosas para el análisis de una
amplia clase de problemas. En este Capítulo daremos la materia básica de
la teoría general, la cual será presentada en capítulos posteriores; aquí se
describirá un número de aplicaciones importantes del modelo a problemas de
análisis de series de tiempo.
El análisis estadístico de modelos no Gaussianos es ahora posible debido
a los desarrollos recientes en las técnicas de simulación, las que tienen solu-
ciones dentro del enfoque de espacio de estado.
Por muchos años los modelos autorregresivos integrados de promedios
móviles (ARIMA) han sido considerados como los que proveen la base prin-
cipal para el modelado de series de tiempo. Ahora bien, dada la tecnología
actual, puede haber alternativas más atractivas, particularmente cuando se
tratan datos desordenados. En las próximas secciones presentaremos las
ideas básicas del enfoque de espacio de estado y del modelado estructural de
series de tiempo, y haremos notar la relación con los modelos autorregresivos
integrados de promedios móviles. Una muy interesante discusión sobre las
semejanzas y diferencias entre los modelos de espacio de estado y los otros
modelos usados en la práctica del análisis de las series de tiempo puede verse
en Abril (2001b).
El filtro de Kalman es descripto en Capítulos posteriores. Este es nece-
18.2. MODELOS ESTRUCTURALES 267

sario para el manejo de modelos estructurales de series de tiempo, pero con


mayor importancia, y más allá de la clase de modelos usados, el mismo es
crucial para el tratamiento de datos desordenados. En el resto de esta Parte
del Libro se describen métodos para manejar una gran variedad de series de
tiempo. Todos estos métodos son presentados y tratados dentro de un marco
unificado. Las razones para nuestra preferencia por los modelos estructurales
serán aparentes a medida que se avance en la lectura.
En lo que sigue de este Capítulo se presentaran una pocas de las innu-
merables aplicaciones del modelo lineal Gaussiano de espacio de estado. En
general, cuando un modelo dinámico puede ser puesto en una forma lineal
Gaussiana de Markov se lo trata usualmente con los métodos de espacio de
estado.
La filosofía subyacente de esta Parte del Libro es introducir las ideas de
una manera que sea algebraicamente simple y manejable. Un libro recomen-
dado como apoyo a lo desarrollado en esta Cuarta Parte es el de Harvey
(1989). Este provee un excelente tratamiento enciclopédico del área hasta
aproximadamente 1989. Muy buenas fuentes suplementarias para aplica-
ciones futuras y trabajos posterior son Harvey y Shephard (1993) y Abril
(1997 y 1999). Interesantes aplicaciones de estas técnicas en econometría
pueden verse en Abril, Ferullo y Gaínza Córdoba (1998 y 1999) y Abril y
Blanco (2002). Un paquete de computación interesante para implementar el
análisis estructural de las series de tiempo, con el nombre de STAMP (Struc-
tural Time Series Analyser, Modeller and Predictor), ha sido desarrollado
por Koopman, Harvey, Doornik y Shephard (1995 y 2000). Otro conjunto de
rutinas escritas en C, que llevan el nombre de SsfPack, han sido desarrolladas
para realizar el análisis estadístico de modelos univariados y multivariados
puestos en la forma de espacio de estado. Las instrucciones de uso y las
propiedades de estas rutinas están documentadas en Koopman, Shephard y
Doornik (1999), además se puede lograr información adicional sobre ellas en
la página de internet http://www.ssfpack.com/.

18.2 Modelos Estructurales


Un modelo estructural de serie de tiempo es aquel en el cual la tendencia,
la estacionalidad, el ciclo y el error de una serie de tiempo, más otros
componentes relevantes, son modelados explícitamente. Esto está en agudo
contraste con la filosofía subyacente de los modelos ARIMA, donde la ten-
268 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

dencia y la estacionalidad son eliminadas mediante la diferenciación previa


al análisis detallado de la serie.
La idea básica de los modelos estructurales de series de tiempo (MEST)
es que por medio de ellos se pueden expresar los componentes, tanto los
observables como los no observables, de una serie de tiempo como partes
de modelos de regresión en donde la variables explicativas son funciones del
tiempo, con coeficientes que cambian a través del tiempo. Aun más, los
modelos estructurales tienen una representación de espacio de estado como
la dada en (18.1).
La facilidad de interpretación de los modelos estructurales de series de
tiempo, los que siempre pueden ser puestos en la forma de espacio de esta-
do, junto con la información asociada que producen el filtro y el suavizador
de Kalman, hacen de ellos el vehículo natural para el tratamiento de los
datos de series de tiempo, tanto cuando ellos están adecuadamente ordena-
dos como cuando están desordenados. Modelos estructurales de series de
tiempo pueden ser expresados en tiempo continuo, permitiendo con ello un
tratamiento general de observaciones irregularmente espaciadas. El caso de
modelos en tiempo continuo será discutido más adelante en el Libro.
Entonces, dentro de un marco de regresión, una tendencia simple sería
modelada en términos de una constante y el tiempo con un disturbio o error
aleatorio aditivo, esto es
|w =  + w + %w > w = 1> = = = > q= (18.2)
Este modelo es fácil de estimar usando mínimos cuadrados simple, pero
sufre de la desventaja de tener la tendencia es determinística. En general,
esto es muy restrictivo. En efecto, en economía por ejemplo, si una variable es
considerada que tiene tendencia determinística como la de (18.2) significaría
que cualquier impulso económico de cualquier intensidad no tendrá efectos
en el largo plazo, ya que todo retornará a su dada tendencia. Ahora bien, la
flexibilidad es introducida permitiendo a los coeficientes  y  que evoluciones
a través del tiempo como procesos estocásticos. De esta forma la tendencia
se puede adaptar a los cambios subyacentes.
La estimación actual, o filtrada, de la tendencia se la logra poniendo al
modelo en su forma de espacio de estado y aplicándole luego el filtro de
Kalman. El filtrado significa computar el mejor estimador en cada momen-
to w usando las observaciones disponibles hasta ese momento. Algoritmos
relacionados se usan para hacer predicciones y para los suavizados. Esto úl-
timo significa computar el mejor estimador en todos los puntos de la muestra
18.2. MODELOS ESTRUCTURALES 269

usando al conjunto total de observaciones. Los parámetros en los modelos


de espacio de estado usualmente se denominan hiperparámetros, presumi-
blemente para distinguirlos de los elementos del vector de estado los cuales
pueden pensarse como parámetros aleatorios. La magnitud por la cual los
parámetros aleatorios pueden variar está gobernada por hiperparámetros.
Ellos pueden se estimados por máxima verosimilitud, pero, nuevamente, la
llave de esto es la forma de espacio de estado y el filtro de Kalman. Todos
estos métodos y algoritmos son descriptos en lo que resta del Libro. Para el
trabajo aplicado, el punto importante es entender qué hacen los modelos y
cómo deben ser interpretados los resultados.
El enfoque clásico del modelado de series de tiempo, como lo vimos en
la Primera Parte, está basado en el hecho de que un modelo general para
cualquier serie estacionaria no determinística es el autorregresivo-promedio
móvil de orden (n, k), esto es

|w = !1 |w31 + · · · + !n |w3n +  w + 1  w31 + · · · + k  w3k >  w  LLG(0> 2 )>


(18.3)

donde LLG(0>  2 ) significa independiente, idénticamente distribuido con me-


dia cero y varianza  2 . A (18.3) usualmente se lo conoce como modelo
ARMA(n, k), como ya lo vimos en el Capítulo 3. La estrategia de mod-
elado, de acuerdo a lo discutido en los Capítulos 5 y 6, consiste primero en
especificar valores adecuados de n y k sobre la base de un análisis del correlo-
grama muestral y otros estadísticos relevantes. Luego el modelo es estimado,
usualmente bajo el supuesto que los errores  w ’s son Gaussianos. Después, se
examinan los residuos para ver si su apariencia corresponde a la aleatoriedad,
y se computan varios estadísticos para tests. En particular, el estadístico TW
de Box-Ljung, el cual está basado en las primeras N autocorrelaciones de
los residuos, se lo usa para testar la correlación serial de los residuos. Box
y Jenkins (1976) se refieren a estos pasos como identificación, estimación y
control de diagnóstico, y fueron descriptos en el Capítulo 6 anterior. Si el
control de diagnóstico es satisfactorio, el modelo está listo para ser usado en
las predicciones. Si no lo es, se deberá intentar otra especificación. Box y
Jenkins enfatizan el rol de la parsimonia, en el sentido que al seleccionar n
y k, los mismos deben ser pequeños. Ahora bien, existen argumentos, par-
ticularmente en econometría, que prefieren un modelo autorregresivo menos
parsimonioso debido a que es más fácil de manejar e interpretar. Vistos como
aproximaciones a procesos ARMA más generales, los modelos autorregresivos
270 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

se escribirán como
|w =  1 |w31 +  2 |w32 + · · · +  w >  w  LLG(0> 2 )= (18.4)
Muchas series no son estacionarias. Con el objeto de resolver estas situa-
ciones Box y Jenkins proponen que una serie debe ser diferenciada para
hacerla estacionaria. Luego de ajustar un modelo ARMA a la serie diferen-
ciada, el correspondiente modelo integrado es usado para las predicciones. Si
la serie es diferenciada g veces, el modelo total de la serie es denotado como
ARIMA(n, g, k). Efectos estacionales pueden ser capturados mediante la
diferenciación estacional.
La metodología de selección de modelos para los modelos estructurales
es de alguna manera diferente, en el sentido que se pone menos énfasis en
la observación del correlograma de diversas transformaciones de la serie con
el objeto de obtener una especificación inicial. Con esto no queremos decir
que no se debe observar el correlograma, pero nuestra experiencia es que él
puede ser difícil de interpretar sin un conocimiento previo de la naturaleza de
la serie, y en muestras pequeñas y/o con datos desordenados puede conducir
a conclusiones erróneas (ver, por ejemplo, Abril, 2002). En lugar de ello, el
énfasis está en la formulación del modelo en términos de componentes cuya
presencia estaría sugerida por el conocimiento del fenómeno bajo estudio, de
sus aplicaciones o por una inspección del gráfico de la serie. Por ejemplo,
con observaciones mensuales, uno desearía incorporar desde un principio una
parte estacional dentro del modelo, y solamente la sacará si luego prueba que
no es significativa.
Una vez que el modelo estructural ha sido estimado, el mismo tipo de tests
de diagnóstico que los usados para los modelos ARIMA pueden ser realizados
con los residuos. En particular el estadístico de Box-Ljung puede ser com-
putado, siendo sus grados de libertad igual al número de autocorrelaciones
residuales menos el número de hiperparámetros relativos. Tests estándares
de falta de normalidad y heteroscedasticidad pueden ser aplicado, como así
también tests de la calidad predictiva en períodos posteriores a la muestra.
Los gráficos de los residuos deben ser examinados, de la misma manera que
lo apuntado por Box y Jenkins para la construcción de modelos ARIMA. En
un modelo estructural de series de tiempo, estos gráficos pueden ser comple-
mentados con gráficos de los componentes suavizados. Estos, frecuentemente,
suelen ser muy informativos puesto que permiten al investigador constatar si
los movimientos en los componentes corresponden a lo que podría esperarse
sobre la base del conocimiento previo.
18.2. MODELOS ESTRUCTURALES 271

En las subsecciones siguientes se presentan los principales modelos es-


tructurales de series de tiempo univariadas. A su vez, en las secciones que
siguen se discuten las relaciones entre los modelos estructurales y los modelos
ARIMA y entre el suavizado curvilíneo y los modelos estructurales.

18.2.1 Nivel local


Como ya se definió en §1.4, una serie de tiempo es un conjunto de observa-
ciones |1 > = = = > |q ordenadas en el tiempo. El modelo básico para representar
una serie de tiempo es el aditivo

|w = w +  w + &w + %w > w = 1> = = = > q> (18.5)

donde, w es un componente que cambia suavemente en el tiempo llamado la


tendencia,  w es un componente periódico con período fijo llamado la esta-
cionalidad, &w es un componente periódico con frecuencia sustancialmente
menor que la estacionalidad llamado ciclo y %w es un componente irregular
llamado el error. En muchas aplicaciones, particularmente en economía, los
componentes combinan multiplicativamente, dando

|w = w  w &w %w = (18.6)

No obstante, tomando logaritmos y trabajando con el logaritmo de los val-


ores, el modelo (18.6) se reduce al modelo (18.5). Por lo tanto podemos usar
al modelo (18.5) también para este caso.
El modelo estructural de series de tiempo más simple presenta una situación
en la que no hay estacionalidad ni ciclos, la tendencia está compuesta sola-
mente por el nivel de la serie que cambia a través del tiempo. Ese nivel
es modelado por un camino aleatorio (“random walk”) sobre el cual se le
sobreimpone un error aleatorio o ruido blanco. Además, todas la variables
aleatorias se distribuyen normalmente. Esto da el modelo
|w = w + %w > %w  Q(0> 2% )>
(18.7)
w = w31 + w > w  Q(0> 2 )>
para w = 1> = = = > q, donde las %w ’s y las  w ’s son serialmente y mutuamente
independientes, y Q(d>  2 ) denota una distribución normal con media d y
varianza  2 . A (18.7) se lo conoce como modelo de nivel local (NL).
Una característica práctica muy importante del modelo (18.7) es que el
estimador del nivel, basado en la información corriente disponible, está dado
272 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

por un promedio móvil exponencialmente ponderado de las observaciones


pasadas, donde la constante de suavizado es una función del cociente señal-
ruido, t =  2 @ 2% (ver Abril, 2002). La predicción de observaciones futuras,
no importa cuantos pasos adelante, está dada exactamente por la misma
expresión. Esto fue mostrado por Muth (1960). Para un camino aleatorio
puro, t es infinito, llegándose a que la predicción es la última observación. A
medida que t tiende a 0, la predicción se acerca a la media muestral.

18.2.2 Tendencia lineal local

Los modelos de tendencia lineal local (TLL) reemplazan la tendencia deter-


minística de (18.2) por una tendencia estocástica. La formulación exacta
es

|w = w + %w > %w  Q(0> 2% )>


w = w31 +  w31 +  w > w  Q(0> 2 )> (18.8)
 w =  w31 +  w >  w  Q(0> 2 )=

para w = 1> = = = > q, con los errores de la ecuación de medida, %w , del nivel,
 w , y de la pendiente,  w , serialmente y mutuamente independientes. Las
magnitudes por las cuales el nivel w , y la pendiente  w , cambian a través
del tiempo están gobernadas por los hiperparámetros relativos t =  2 @ 2%
y t =  2 @ 2% . La función de predicción es una línea recta a partir de las
estimaciones del nivel y de la pendiente al final de la muestra.
Investigadores aplicados se quejan algunas veces porque dicen que la serie
de valores de w obtenidos al ajustar este modelo no parece ser lo suficien-
temente suave como para representar la idea que tienen de cómo debe ser
una tendencia. Esta objeción puede ser satisfecha haciendo 2 = 0 y luego
ajustando el modelo con esta restricción. Esencialmente el mismo efecto
puede ser logrado usando en lugar de la segunda y tercera ecuación de (18.8)
el modelo 42 w =  w o lo que es lo mismo w = 2w31  w32 +  w , donde
4w = w  w31 . Este y su extensión 4u w =  w para u A 2 han sido prop-
uestos para modelar tendencias en modelos de espacio de estado en una serie
de trabajos de Peter Young y sus colaboradores bajo el nombre de modelos
de camino aleatorio integrado (IRW); ver, por ejemplo, Young y Lane (1990).
18.2. MODELOS ESTRUCTURALES 273

Vemos que (18.8) puede ser escrito en la forma


µ ¶
w
|w = (1 0) + %w >
w
µ ¶ µ ¶µ ¶ µ ¶
w 1 1 w31 w
= + >
w 0 1  w31 w

el cual es un caso especial de (18.1).


Si  2 = 0, tenemos que  w =  w31 = · · · = . Ahora bien, si  es
diferente de cero, la tendencia es un camino aleatorio más una constante:
w = w31 +  + w . Así, con  = 0 y combinando esta última con la
correspondiente primera ecuación de (18.8), se verifica fácilmente que
w
X
|w =  + w +  l + %w =
l=1

Aquí el comportamiento de |w está gobernado por dos componentes no P esta-


cionarios: una tendencia lineal determinística y la tendencia estocástica l .
Cuando  2 = 0 y si  = 0, el modelo (18.8) se reduce al modelo de NL
dado en (18.7), el cual resolviendo nos conduce a
w
X
|w =  +  l + %w =
l=1

Nótese que los sucesivos shocks w tienen efecto permanente en la sucesión


{|w } por el hecho de que no hay un factor que decaiga y afecte los valores
pasados  w3l . Entonces, |w tiene una tendencia estocástica w .
Cuando  2 = 0,  2 = 0 y  es diferente de cero, la tendencia es una
función lineal determinística del tiempo, quedando el modelo para |w como
el clásico modelo de tendencia lineal más ruido

|w =  + w + %w =

Regresando al modelo general presentado en (18.8), tenemos que |w puede


expresarse como
w31
X w
X
|w = 0 +  0 w + (w  m) m + l + %w =
m=1 l=1
274 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

Aquí cada elemento de la sucesión {|w } contiene una tendencia determinís-


tica, una tendencia estocástica y un componente irregular o error. Lo más
interesante de este modelo es la forma de la tendencia. En lugar de ser deter-
minísticos, los coeficientes del tiempo dependen de las realizaciones pasadas
de la sucesión { w }. Estos coeficientes pueden ser positivos para algunos val-
ores de w y negativos para otros. En este caso, como 2 y  2 A 0, el nivel y
la pendiente de la tendencia pueden variar suavemente en el tiempo.
En el caso límite, cuando ambos hiperparámetros t y t son cero, la
tendencia determinística se la obtiene con  = 0 . Otro caso de especial
interés sucede cuando t = 0, en el cual la tendencia suavizada es similar a
una curvilínea (“spline”) cúbica.

18.2.3 Tendencia, estacionalidad e irregulares


Debido a que la estacionalidad es un componente periódico que se repite
dentro del período bajo estudio, tenemos que muchas series medidas trimes-
tralmente, mensualmente, de forma diaria, etc., están sujetas a variaciones
estacionales. De la misma manera que se necesita dar a la tendencia mayor
flexibilidad permitiéndole que sea estocástica, también el componente esta-
cional necesita que se le permita que cambie a través del tiempo. Aunque
el argumento para que el componente estacional sea estocástico es menos
fuerte que para la tendencia estocástica, todavía existen muchas razones por
las cuales pueden suceder cambios en la estructura estacional (ver Harvey,
1989, págs. 95-98).
Para modelar la estacionalidad, supóngase que hay v “meses” por “año”.
Así, para datos mensuales v = 12, para datos trimestrales v = 4, y para datos
diarios, cuando se modela la estructura semanal, v = 7. Si el componente
estacional es determinístico, debe tener la propiedad de sumar cero sobre el
año Panterior; esto asegura que no se confunde
Pv31con la tendencia. Se sigue
que v31 m=0  w3m = 0; por lo tanto,  w =  m=1  w3m , w = v> v + 1> = = = . En
situaciones prácticas, frecuentemente queremos que exista la posibilidad de
que el componente estacional cambie en el tiempo. Una manera simple de
lograrlo es agregando un término de error $ w a esta última relación, lo que
da el modelo
v31
X
w =   w3m + $ w > w = 1> = = = > q> (18.9)
m=1
18.2. MODELOS ESTRUCTURALES 275

donde los $w ’s son independientes Q(0> 2$ ). Esta es la forma de variables


ficticias (“dummy”) de la estacionalidad estocástica.
Una alternativa es denotar el efecto de la estación m en el momento de
tiempo w mediante  mw y luego hacer que  mw sea generado por el camino
aleatorio

 mw =  m>w31 + $mw > w = (l  1)v + m> l = 1> 2> = = = > m = 1> = = = > v>
(18.10)

con un ajuste adecuado para asegurar que cada sucesivo conjunto de v com-
ponentes estacionales suma cero (ver Harvey, 1989, §2.3.4).
Frecuentemente se suele preferir expresar la estacionalidad en su
forma trigonométrica, que para estacionalidad constante es
[v@2]
X 2m
w = ( m· cos m w +  Wm· senm w)> m = > m = 1> = = = > [v@2]>
m=1
v

donde, en este caso, [{] denota la parte entera de {. Para estacionalidad que
varía en el tiempo, esta última puede hacerse estocástica reemplazando  m· y
 Wm· por los caminos aleatorios

 mw =  m>w31 + $mw >  Wmw =  Wm>w31 + $ Wmw > m = 1> = = = > [v@2]> w = 1> = = = > q>
(18.11)

(para mayores detalles ver Young, Ng, Lane y Parker, 1991) o bien por el
modelo de cuasi-camino aleatorio
[v@2]
X
w =  mw > (18.12)
m=1

donde
µ ¶ µ ¶µ ¶ µ ¶
 mw cos m senm  m>w31 $ mw
= + > (18.13)
 Wmw senm cos m  Wm>w31 $ Wmw

con m = 1> = = = > [v@2], donde m = 2m@v es la frecuencia en radianes, $ mw y $ Wmw


son dos errores o disturbios del tipo ortogonal o ruido blanco mutuamente
no correlacionados con media cero y varianza común 2$ para w = 1> = = = > q.
276 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

Para v par, [v@2] = v@2, mientras que para v impar, [v@2] = (v  1)@2. Para
v par, la componente para m = v@2 colapsa en

 mw =  m>w31 cos m + $mw > m = v@2= (18.14)

(para mayores detalles ver Harvey, 1989, §2.3.4).


Sin los términos de error este modelo estacional dará la misma estructura
determinística que el modelo estacional con variables ficticias. De cualquier
manera, con estacionalidad estocástica es un mejor modelo porque permite
que el componente estacional evoluciones con mayor suavidad. Se puede
mostrar que la suma de las estacionalidades sobre el año anterior sigue un
modelo MA(v  2) en lugar de ser un ruido blanco.
Los efectos estacionales típicamente están combinados en forma aditi-
va con la tendencia y los componentes irregulares. Ahora bien, en muchas
aplicaciones, particularmente en economía, los componentes combinan multi-
plicativamente. De cualquier manera, tomando logaritmos y trabajando con
el logaritmo de los valores podemos llegar a la estructura aditiva antes men-
cionada. Esto nos conduce al modelo estructural básico (MEB) que puede
ser escrito como

|w = w +  w + %w > w = 1> = = = > q> (18.15)

donde el componente de tendencia estocástica, w , y el componente irregular


están definidos como en el modelo de tendencia lineal local presentado en
(18.8) anteriormente.
Cada uno de los modelos estacionales presentados anteriormente puede
ser combinado con cualquiera de los modelos de tendencia resultando un
modelo estructural de serie de tiempo y todo ello puede ser puesto en la
forma (18.1) de espacio de estado. Por ejemplo, para el modelo de TLL más
(18.9) tenemos
3 4 3 4
1 w
E 0 F E w F
E F E F
E 1 F E w F
E F E F
Z0w = E 0 F > w = E  w31 F>
E F E F
E .. F E .. F
C . D C . D
0  w3v+2
18.2. MODELOS ESTRUCTURALES 277
3 4
..
1 1 .
E .. 0 F
E 0 1 . F
E F
E ······ ··· ························ F
E F
E .. F
E . F
E 1 1 · · · 1 1 F
Tw = E .. F>
E . 1 0 ··· 0 0 F
E . . . .. F
E 0 .. 0 1 . 0 F
E . F
E .. .. . . . . . . .. F
E . . . . . . F
C D
.. 0 0 ··· 1 0
.
3 4
1 0 0
E 0 1 0 F 3 4
E F
E 0 0 1 F 2 0 0
E F
Rw = E 0 0 0 F> Qw = C 0  2 0 D =
E F
E .. .. .. F 0 0  2$
C . . . D
0 0 0

18.2.4 Ciclos
Un ciclo es un componente periódico con frecuencia sustancialmente menor
que la estacionalidad. Un ciclo determinístico puede ser expresado como una
onda sinusoidal, esto es
&w =  cos w +  sen w> w = 1> = = = > q= (18.16)
En la subsección anterior se puntualizó que una estructura estacional
puede ser modelada por un conjunto de tales ciclos definidos en las frecuencias
estacionales. Agregando errores se permite que la estructura cambie a través
del tiempo. Una situación algo diferente sucede cuando queremos modelar el
ciclo, el cual puede ser estocástico, y, a diferencia de los ciclos estacionales,
puede ser estacionario. La especificación estadística de tal ciclo, &w , es como
sigue
µ ¶ µ ¶µ ¶ µ ¶
&w cos f senf &w31 w
=  + > (18.17)
&Ww senf cos f &Ww31 Ww
para w = 1> = = = > q, donde f es la frecuencia en radianes en el intervalo 0 6
f 6 , w y Ww son dos procesos ortogonales o ruidos blanco mutuamente
278 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

no correlacionados con media cero y varianza común  2 , y  es un factor


amortiguador, tal que 0 ?  6 1. Nótese que el período es 2@f . Para
algunos propósitos es útil tomar a la varianza de &w , en lugar de la varianza
de w , como un hiperparámetro. Entonces, como 2 = (1  2 ) 2& , un ciclo
determinístico, pero estacionario, se obtiene cuando  = 1. La función de
autocorrelación u de &w es

u = u cos u> u = 0> 1> = = = = (18.18)

Esta es una función que tiende a cero a medida que u tiende a infinito,
excepto cuando  = 1. El espectro tiene un pico alrededor de f , mostrando
un comportamiento irregular o seudo-cíclico. El pico se hace más agudo a
medida que  se acerca a uno y en el caso límite cuando  es igual a uno
muestra un salto en la función de distribución espectral. Un test para la
hipótesis  = 1 versus la alternativa de que es menor que uno está dado en
Harvey y Streibel (1998).
Componentes cíclicos de este tipo resultaron útiles en economía para mod-
elar los ciclos económicos o de negocios, y en meteorología para modelar llu-
vias; ver Harvey y Jaeger (1993), Koopman, Harvey, Doornik y Shephard
(1995), y Abril y Blanco (2002). Componentes cíclicos pueden ser combi-
nados con los otros componentes, tales como tendencia y estacionalidad, y
también otros ciclos o quizás procesos autorregresivos. Un proceso AR(1)
es realmente el caso límite de un ciclo estocástico cuando f es 0 o , aún
cuando usualmente se lo especifica por separado, parcialmente para evitar
confusiones y parcialmente porque no es el caso límite en modelos multivari-
ados.

18.3 Modelos Reducidos en Forma ARIMA


Todos los modelos estructurales de series de tiempo descriptos en las sec-
ciones previas son lineales y por lo tanto existe el correspondiente modelo
ARIMA que produce idénticas predicciones. Puesto que los modelos ARI-
MA contienen solamente un disturbio, se los llama la forma reducida.
A fin de introducir una notación de uso frecuente, sean {|w = |w  |w31 ,
{ |w = {({|w ), {v |w = |w  |w3v , {2v |w = {v ({v |w ), y así en más, donde
2

suponemos que hay v “meses” por “año”. Además, E|w = |w31 , E v |w = |w3v ,
entonces { = (1  E), {v = (1  E v ), y así en más.
18.3. MODELOS REDUCIDOS EN FORMA ARIMA 279

La especificación de la forma reducida puede ser lograda en forma sen-


cilla para los modelos simples. Así, para el de nivel local (18.7), tomando
diferencias produce

{|w = w + %w  %w31 = (18.19)

La autocorrelación de primer orden es 1@(2t), donde t = 2 @ 2% , mientras


que las siguientes, de ordenes más alto, son todas cero. Entonces la función
de autocorrelación es la misma que la de un proceso MA(1), y por lo tanto
el nivel local tiene una forma reducida ARIMA(0, 1, 1), esto es

{|w =  w +  w31 > (18.20)

donde las  w ’s son independientes Q(0> 2 ). Igualando la autocorrelación de


primer orden en los modelos (18.19) y (18.20) nos da la siguiente relación
entre los parámetros estructurales y de la forma reducida

(t 2 + 4t)1@2  2  t
= = (18.21)
2
En la forma reducida ARIMA(0, 1, 1),  está condicionado a ser negati-
vo. En modelos más complicados, las condiciones tienden a ser más fuertes.
Así, la forma reducida del MEB definido en (18.15) con tendencia igual a la
segunda ecuación de (18.7) y con estacionalidad igual a (18.9), es un modelo
ARIMA en el cual las observaciones siguen un proceso ARMA(0, v + 1) luego
de tomar diferencias de primer orden y estacionales, esto es {{v |w sigue un
modelo ARMA(0, v + 1) pero con correlaciones de ordenes 1, 2, v  1, v y
v + 1 distintas de cero. Si no estuviera sujeto a restricciones, este proce-
so contendría considerablemente más parámetros que la forma estructural.
En efecto, un modelo ARIMA de tal complejidad virtualmente nunca sería
identificado, y si lo fuera probablemente resultaría imposible de estimar.
El MEB con tendencia igual a la segunda ecuación de (18.7) y con esta-
cionalidad igual a (18.9) tiene una forma reducida la cual, como lo mostró
Maravall (1985) (ver también Abril, 2001b), es muy próxima al modelo de
aerolínea del análisis de Box y Jenkins, o sea un ARIMA estacional de orden
(0, 1, 1)×(0, 1, 1)v el cual toma la forma

{{v |w = (1 + E)(1 + XE v ) w > (18.22)

donde las  w ’s son independientes Q (0> 2 ).


280 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

Los modelos autorregresivos pueden producir aproximaciones pobres cuan-


do los componentes son de cambios lentos. Por ejemplo, en los modelos de
nivel local, un valor pequeño de t corresponde a un valor de  próximo a 1
y el coeficiente AR en (18.4), el cual es igual a ()m , tiende a morir muy
lentamente. Cuando un componente estacional está presente, típicamente
cambiará lentamente en relación al resto de la serie, con el resultado que una
aproximación AR puede ser muy pobre; ver Harvey y Scott (1994).

18.4 Forma de EE de Modelos ARIMA


Consideremos ahora el problema inverso, partiendo de un modelo ARMA
o ARIMA escribamos su forma de espacio de estado. Por simplicidad y sin
pérdida de generalidad, consideraremos solamente modelos ARMA o ARIMA
que no tienen término constante.
Modelos ARIMA de series de tiempo fueron introducidos por Box y Jenk-
ins en su libro (1970) pionero dentro del área. Ver Box, Jenkins y Reinsel
(1994) para la versión actual de ese libro. De igual manera que los modelos
estructurales presentados en las secciones anteriores, Box y Jenkins consider-
aron que las series univariadas |w están formada por componentes de tenden-
cia, estacionalidad e irregular. En cambio, en lugar de modelar los diferentes
componentes de forma separada como en la propuesta de esta Cuarta Parte,
su idea fue eliminar la tendencia y la estacionalidad al inicio del trabajo me-
diante diferenciación. Las series diferenciadas resultante son tratadas como
series estacionarias, o sea series para las cuales ciertas características tales
como medias, covarianzas, etc. permanecen invariante bajo traslaciones a
través del tiempo, y así se procede a su análisis, como lo visto y discutido en
la Primera Parte de este Libro.
La ventaja de la formulación de espacio de estado es que las técnicas
que se han desarrollado para los modelos de espacio de estado son aplicables
también a los modelos ARMA y ARIMA. En particular, las técnicas para
la estimación exacta por máxima verosimilitud y para la iniciación están
disponibles para estos últimos modelos. Los modelos de espacio de estado
son muy generales. Cubren un amplio rango de casos incluyendo a todos
los modelos ARIMA. Las observaciones multivariadas pueden ser manejadas
mediante una extensión directa de la teoría univariada, lo cual no es el caso
del enfoque de Box y Jenkins. Además, observaciones faltante, variables
explicativas y otras cuestiones pueden ser incorporadas sin dificultad a los
18.4. FORMA DE EE DE MODELOS ARIMA 281

modelos de espacio de estado, tal como se lo verá en esta Cuarta Parte del
Libro.
Las formas dadas a continuación no son las únicas versiones de espacio de
estado de los modelos ARMA y ARIMA, pero resultan ser muy conveniente
en situaciones prácticas.

18.4.1 Forma de EE de modelos ARMA


Supongamos que la serie de tiempo |w satisface un modelo ARMA(n> k) esta-
cionario. Entonces, puede escribirse de la siguiente forma
u
X u31
X
|w = !m |w3m +  w + m  w3m > w = 1> = = = > q> (18.23)
m=1 m=1

donde u = max(n> k + 1), !m = 0 para m A n, m = 0 para m A k y las  w ’s son


independientes Q(0>  2 ). Tomemos
3 4
|w
E Pu P F
E !m |w3m+1 + u31 m  w3m+1 F
¡ ¢ E Pm=2
u Pm=1
u31 F
Zw = Z = 1 0 ··· 0 > w = E ! |
m=3 m w3m+2 + m=2  m  w3m+2 F>
E .. F
C . D
!u |w31 + u31  w
(18.24)

3 4 3 4
!1 1 0 1
E .. ... F E 1 F
E . F E F
Tw = T = E F> Rw = R = E .. F> (18.25)
C !u31 0 1 D C . D
!u 0 · · · 0 u31

y escribamos la relación de transición para w como


3 4 3 4
!1 1 0 1
E .. ... F E 1 F
E F E F
w = E . F w31 + E .. F w= (18.26)
C !u31 0 1 D C . D
!u 0 ··· 0 u31
282 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

Esto, junto con la ecuación de observación

|w = Zw w > (18.27)

es equivalente a (18.23), pero ahora está en la forma (18.1) de espacio de


estado con s = 1 y %w = 0.

Forma de EE de un modelo ARMA(2> 1)

Por ejemplo, para un modelo ARMA(2> 1) vemos que u = 2 y la relación de


transición es
µ ¶ µ ¶µ ¶ µ ¶
|w !1 1 |w31 1
= + w=
!2 |w31 + 1  w !2 0 !2 |w32 + 1  w31 1

¡ ¢
La ecuación de observación está dada por (18.27) con Zw = Z = 1 0 .

18.4.2 Forma de EE de modelos ARIMA


Supongamos que la serie {w contiene tendencia, la cual se la puede aproximar
adecuadamente en forma local por un polinomio de orden g, y un movimiento
periódico con periodicidad v (como podría ser el caso de la estacionalidad),
que se puede aproximar adecuadamente en forma local por un polinomio de
orden G. Entonces, a la serie |w = {g {G v {w se le ha eliminado la tendencia
y la estacionalidad y podría ser modelada mediante un modelo ARMA(n> k)
estacionario como el definido en (18.23).
Ahora bien, escribamos

gW
X
g v G
(1  E) (1  E ) = fm E m > (18.28)
m=0

donde gW = g + Gv. Con esto, es evidente que la serie {w sigue un modelo


ARIMA(k> gW > k), y nuestro interés es escribir este modelo, para {w , en la
18.4. FORMA DE EE DE MODELOS ARIMA 283

forma de espacio de estado. Tomando


3 4
|w
E Pu Pu31 F
E m=2 !m |w3m+1 + m=1  m  w3m+1 F
E .. F
E . F
E Pu Pu31 F
¡ ¢ E ! | F
Zw = Z = }1 · · · }u+gW > w = E m=3 m w3m+2 + m=2  m  w3m+2 F>
E !u |w31 + u31  w F
E F
E {w31 F
E F
E .. F
C . D
{w3gW
(18.29)
donde
}1 = 1>
}m = 0> para m = 2> = = = > u> (18.30)
}u+m = fm > para m = 1> = = = > gW >
con fm definido en (18.28),
3 4
!1 1 0 0 ··· 0 0
E .. ... .. .. .. F
E . . ··· . . F
E .. .. .. F
E ! . ··· . . F
E u31 0 1 F
E ! 0 ··· 0 0 ··· 0 0 F
Tw = T = E E }
u F>
F (18.31)
E 1 }2 ··· }u }u+1 · · · }u+gW 31 }u+gW F
E 0 0 ··· 0 1 0 0 F
E F
E . .. .. ... .. F
C .. . ··· . . D
0 0 ··· 0 0 1 0

3 4
1
E 1 F
E .. F
E F
E . F
E F
Rw = R = E u31 F> (18.32)
E F
E 0 F
E . F
C .. D
0
284 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

podemos escribir la forma de espacio de estado del modelo ARIMA(n> gW > k)


que sigue {w de la siguiente manera

{w = Zw w > (18.33)
w = Tw w31 + Rw  w = (18.34)

Debe notarse que en la ecuación de observación (18.33), al igual que en el


caso ARMA dado en (18.27), s = 1 y %w = 0.

Forma de EE de un modelo ARMA(n> g> k) no estacional


Supongamos que la serie {w contiene tendencia, la cual se la puede aproximar
adecuadamente en forma local por un polinomio de orden g, pero no contiene
ningún componente periódico, por lo tanto G = 0. Entonces, a la serie
|w = {g {w se le ha eliminado la tendencia y podría ser modelada mediante
un modelo ARMA(n> k) estacionario como el definido en (18.23). Bajo estas
circunstancias gW = g,
g
X g!
(1  E)g = (1)m Em > (18.35)
m=0
m!(g  m)!

}1 = 1>
}m = 0> para m = 2> = = = > u> (18.36)
g!
}u+m = (1)m31 > para m = 1> = = = > g=
m!(g  m)!

Consecuentemente, la forma de espacio de estado del modelo ARIMA(n> g> k)


que sigue {w es equivalente a la dada en (18.33) y (18.34) pero con la correc-
ciones en cuanto al orden de las matrices y a las dadas en (18.36) para los
}m ’s.

18.5 Variables Explicativas


Variables explicativas pueden fácilmente ser incluidas en un modelo estruc-
tural. En lo que resta de esta Cuarta Parte haremos uso extensivo de variables
explicativas tales como las variables ficticias. Ellas son usadas para el manejo
18.5. VARIABLES EXPLICATIVAS 285

Figura 18.1: Logaritmo del consumo anual per cápita de bebidas alcohólicas
en Gran Bretaña. 1870 a 1938

de las observaciones faltantes y de los efectos de las intervenciones. Si xw es


un vector de n × 1 variables explicativas observadas y  es el correspondiente
vector de parámetros, el modelo

|w = w + x0w  + %w > w = 1> = = = q> (18.37)

puede ser considerado un modelo de regresión con componente tendencia


estocástica, w , definido en (18.8). Si  2 =  2 = 0, el modelo se reduce a una
regresión lineal con constante y una tendencia lineal.

18.5.1 Ejemplo: Consumo de bebidas alcohólicas en


Gran Bretaña
El logaritmo del consumo anual per cápita de bebidas alcohólicas en Gran
Bretaña desde 1870 hasta 1938 se muestra en la Figura 18.1.
Los datos son parcialmente explicados por el ingreso per cápita (Figura
18.3) y los precios relativos (Figura 18.2). Un modelo de regresión usando
esas variables explicativas muestra una correlación serial significativa en los
286 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

Figura 18.2: Precios relativos de Gran Bretaña. Datos anuales desde 1870
hasta 1938

residuos aún cuando una tendencia determinística en el tiempo es incluida.


Ahora bien, incluyendo un componente de tendencia estocástica produce un
buen ajuste. Ambos, el ingreso y los precios son significativos, con valores
del test w de 5.67 y -14.17 respectivamente. Los datos están disponibles en
Koopman, Harvey, Doornik y Shephard (1995).

18.6 Suavizado Curvilíneo


Cuando queremos tratar la estructura periódica asociada con datos horarios
o semanales podemos usar curvilíneas (“splines”) variables en el tiempo, las
que pueden ser puestas en la forma de espacio de estado.
Supongamos que tenemos una serie univariada |w > = = = > |q y deseamos
aproximarla mediante una función i(w) relativamente suave. Un enfoque
estándar es tomar a la función i(w) de tal manera que se minimice
q
X q
X
2 £ 2 ¤2
[|w  i(w)] +  4 i(w) (18.38)
w=1 w=2
18.6. SUAVIZADO CURVILÍNEO 287

Figura 18.3: Ingreso per cápita en Gran Bretaña. Datos anuales desde 1870
hasta 1938

con respecto a i(w) para  A 0 dado. Si  es pequeño, los valores de i (w)


estarán cercanos a los de |w pero i(w) puede no ser suficientemente suave.
Si  es grande la serie i(w) será suave pero los valores de i(w) pueden no
estar suficientemente cercanos a los de |w . La función i(w) se llama curvilínea
discreta. Un repaso de los métodos relacionados con esta idea está dado en
Wahba (1990).
Consideremos ahora el problema desde el punto de vista de espacio de
estado. En lugar de considerar a la función i (w) como continua en el tiempo,
tratémosla como si fuera discreta haciendo w = i (w) para w = 1> = = = > q.
Supongamos que |w y w obedecen el modelo de espacio de estado
|w = w + %w > 42 w =  w > w = 1> = = = > q> (18.39)
donde Y (%w ) =  2 y Y ( w ) =  2 @ con  A 0. Por cuestiones de simplicidad
supongamos que 31 y 0 son fijos y conocidos. El logaritmo de la densidad
de 1 > = = = > q > |1 > = = = > |q es entonces, aparte de constantes irrelevantes,
q q
 X ¡ 2 ¢2 1 X
 2 4 w  2 (|w  w )2 = (18.40)
2 w=1 2 w=1
288 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO

Ahora supongamos que nuestro objetivo es suavizar la serie |w estimando


w mediante bw = H(w | \q ). Vamos a emplear una técnica que usaremos
en forma extensiva más adelante, por lo tanto la presentaremos con sufi-
ciente generalidad. Supóngase que  = (01 > = = = > 0q )0 e y = (y10 > = = = > yq0 )0
se distribuyen en forma conjunta como una normal con densidad s(> y) y
deseamos calcular b = H( | y). Entonces 
b es la solución de las ecuaciones

C log s(> y)
= 0= (18.41)
C
Esto surge puesto que log s( | y) = log s(> y)log s(y), entonces C log s( |
y)@C = C log s(> y)@C. Por otra parte, la solución de las ecuaciones
C log s( | y)@C = 0 es el modo de la densidad s( | y), y puesto que la
densidad es normal el modo es igual al vector de medias  b . La conclusión
sigue a continuación. Puesto que s( | y) puede ser tomada como la dis-
tribución a posteriori de  dado y, llamaremos a esta técnica estimación de
modo posterior. Un tratamiento general de esta técnica para observaciones
de la familia exponencial puede verse en Abril (2001a).
Aplicando esta técnica a (18.40), vemos que podemos obtener  b1 > = = = > 
bq
minimizando
q
X q
X ¡ 2 ¢2
(|w  w )2 +  4 w = (18.42)
w=1 w=1

Comparando (18.42) con (18.38) e ignorando por el momento la cuestión de


la iniciación, vemos que el problema de suavizado cuvilíneo puede ser resuelto
al encontrar H(w | \q ) para el modelo (18.39). Esto se logra mediante una
extensión estándar de las técnicas de suavizado del Capítulo 19. Se sigue que
las técnicas de espacio de estado pueden ser usadas para resolver al menos
algunos de los problemas de suavizado curvilíneo. Un tratamiento interesante
siguiendo este enfoque es el de Kohn y Ansley (1993).
Capítulo 19

El Algoritmo de Kalman

19.1 Introducción
En este Capítulo presentamos un tratamiento general desde el punto de vista
de la inferencia clásica del modelo Gaussiano de espacio de estado (18.1). Las
observaciones yw serán consideradas multivariadas y se discutirá el filtrado,
suavizado, la estimación de los hiperparámetros y la predicción. El filtrado
tiene por finalidad actualizar nuestro conocimiento del sistema cada vez que
una nueva observación yw es obtenida. El suavizado nos permite basar las
estimaciones de cantidades de interés en la muestra completa y1 > = = = > yq .
Los parámetros en los modelos de espacio de estado usualmente se de-
nominan hiperparámetros, presumiblemente para distinguirlos de los elemen-
tos del vector de estado los cuales pueden pensarse como parámetros
aleatorios. Además, recordemos que la magnitud por la cual los parámet-
ros aleatorios pueden variar está gobernada por esos hiperparámetros. En
este Capítulo analizaremos la estimación por máxima verosimilitud de los
hiperparámetros del modelo de espacio de estado.
La predicción tiene importancia especial en muchas aplicaciones del análi-
sis de series de tiempo; mostraremos que se pueden lograr los resultados de
las predicciones simplemente tomando a los valores futuros yq+1 > yq+2 > = = =
como observaciones faltantes.
En el Capítulo anterior se mostró que el análisis estadístico de los modelos
estructurales de series de tiempo está basado en la forma de espacio de estado.
Ahora bien, los modelos Gaussianos de espacio de estado pueden, con mucha
facilidad, ser estudiados estadísticamente mediante el filtro de Kalman y el

289
290 CAPÍTULO 19. EL ALGORITMO DE KALMAN

suavizador asociado. La función de verosimilitud se la construye a partir del


filtro de Kalman en términos de la predicción un paso adelante, y es max-
imizada con respecto a los hiperparámetros por optimización numérica. El
vector marcador (“score”) de los parámetros puede obtenerse a través de un
algoritmo de suavizado asociado con el filtro de Kalman. Una vez que los
hiperparámetros han sido estimado, el filtro es usado para lograr predicciones
de los residuos un paso adelante, lo que nos permite calcular los estadísticos
de diagnóstico para normalidad, correlación serial y bondad de ajuste. Con
los resultados del filtrado y suavizado se logran las predicciones de la serie
bajo estudio. El suavizador es usado para estimar componentes no observ-
ables, tales como tendencia y estacionalidad, y para calcular estadísticos de
diagnóstico que sirven para detectar observaciones atípicas y cambios estruc-
turales. Los modelos ARIMA también pueden ser manejados usando el filtro
de Kalman. El enfoque de espacio de estado es particularmente atractivo
cuando los datos tienen valores faltantes o han sido agregados temporal-
mente. Todos estos temas serán analizados en este y los próximos capítulos.

19.2 La Forma de Espacio de Estado


Como ya lo dijimos en el Capítulo 18, todos los modelos lineales de series
de tiempo tienen una representación en la forma de espacio de estado. Esta
representación relaciona el vector de errores o disturbios {%w } con el vector
de observaciones {yw } a través de un proceso de Markov {w }. Una expresión
conveniente de la forma de espacio de estado es

yw = Zw w + %w > %w  Q(0> Hw )>


(19.1)
w = Tw w31 + Rw  w >  w  Q(0> Qw )> w = 1> = = = q>

donde yw es un vector de orden s×1 de observaciones y w es un vector de or-


den p×1 inobservable, llamado el vector de estado. La idea subyacente en el
modelo es que el desarrollo del sistema en el tiempo está determinado por w
de acuerdo con la segunda ecuación de (19.1); pero debido a que w no puede
ser observado directamente, debemos basar nuestro análisis en las observa-
ciones yw . Las matrices Zw , Tw , Rw , Hw y Qw se suponen inicialmente conocidas
y los términos de error %w y  w se suponen que son serialmente independi-
entes e independientes entre sí en todo momento de tiempo. La matrices Zw
y Tw pueden depender de y1 > = = = > yw31 . El estado inicial 0 se supone que es
Q (a0 > P0 ) e independiente de %1 > = = = > %q y de  1 > = = = >  q , donde en principio
19.3. FILTRADO 291

se supone que a0 y P0 son conocidos; más adelante consideraremos cómo pro-


ceder ante la ausencia de conocimiento sobre a0 y P0 . Al sistema (19.1) se lo
denomina usualmente modelo básico de espacio de estado (MBEE), aunque
también se lo conoce como modelo lineal Gaussiano de espacio de estado. A
la primera ecuación de (19.1) se la conoce usualmente como la ecuación de
medida o ecuación de observación y a la segunda, la ecuación de transición
o relación de transición. Es interesante destacar que la ecuación de medida
es equivalente a un modelo de regresión con coeficientes w estocásticos que
satisfacen la ecuación de transición.
En muchas aplicaciones Rw es la matriz identidad. En otras, uno puede
definir  Ww = Rw w y QWw = Rw Qw R0w , y proceder sin la inclusión explícita de
Rw , con lo cual se hace parecer al modelo mucho más simple. No obstante,
si Rw es de orden p × j y Qw tiene rango j ? p, existe una ventaja obvia en
trabajar con  w no singular en lugar de Ww singular.
Denotemos como Yw31 al conjunto y1 > = = = > yw31 junto con toda la infor-
mación anterior al tiempo w = 1.Comenzando en w = 1 y construyendo la
distribución de w e yw recursivamente, se puede mostrar que

s(yw | 1 > = = = > w > Yw31 ) = s(yw | w )

s(w | 1 > = = = > w31 > Yw31 ) = s(w | w31 )>

estableciendo con ello la verdadera naturaleza Markoviana del modelo.

19.3 Filtrado
El objetivo del filtrado es actualizar nuestro conocimiento del sistema cada
vez que una nueva observación yw es obtenida. Una vez que el modelo ha
sido puesto en la forma (19.1) de espacio de estado, el camino está abierto
para la aplicación de un número importante de algoritmos. En el centro de
ellos está al filtro de Kalman. Este filtro es un procedimiento recursivo para
computar el estimador óptimo del vector de estado en el momento w, basado
en la información disponible hasta ese tiempo w. Esa información consiste en
observaciones hasta yw incluida.
En ciertas aplicaciones de ingeniería el filtro de Kalman es importante
debido a la posibilidad de lograr estimaciones sobre la marcha (“on-line”). El
292 CAPÍTULO 19. EL ALGORITMO DE KALMAN

valor actual del vector de estado es de primordial interés (por ejemplo, puede
representar las coordenadas de un cohete en el espacio) y el filtro de Kalman
permite que la estimación del vector de estado sea continuamente actualizada
cada vez que una nueva observación está disponible. A primera vista, el valor
de tal procedimiento en las aplicaciones económicas parece limitado. Nuevas
observaciones tienden a aparecer a intervalos menos frecuentes y el énfasis
está en hacer predicciones de observaciones futuras basadas en una muestra
dada. El vector de estado no siempre tiene una interpretación económica,
y en los casos en que la tiene, es más apropiado estimar su valor en un
punto particular del tiempo usando toda la información de la muestra y no
solamente parte de ella. Estos dos problemas son conocidos como predicción
y suavizado respectivamente. Sucede que el filtro de Kalman nos provee las
bases para las soluciones de ambos problemas.
Otra razón para el rol central del filtro de Kalman es que cuando los
errores y el vector de estado inicial están normalmente distribuidos, permite
que la función de verosimilitud sea calculada a través de lo que se conoce
como la descomposición del error de predicción. Esto abre el camino para
la estimación de cualquier parámetro desconocido en el modelo. También
provee las bases para los tests estadísticos y de especificación del modelo.
La forma en que se deriva más abajo el filtro de Kalman para el modelo
(19.1) se basa en el supuesto que el estado inicial 0 es Q(a0 > P0 ) e inde-
pendiente de %1 > = = = > %q y de  1 > = = = >  q , con a0 y P0 . Luego es usado un
resultado estándar sobre la distribución normal multivariada para mostrar
cómo es posible calcular recursivamente la distribución de w condicional en
la información establecida en el tiempo w, para todo w desde 1 hasta q. Estas
distribuciones condicionales son a su vez normales y por lo tanto están com-
pletamente especificadas por sus matrices de medias y varianzas. Son estas
cantidades las que el filtro de Kalman computa. Así, supóngase que quere-
mos obtener la distribución a posteriori de w+1 dado Yw . Puesto que todas
las distribuciones son normales, las distribuciones condicionales son también
normales. Supongamos que w dado Yw31 es Q(aw > Pw ) y la de w dado Yw
es Q(aw|w > Pw|w ). Nuestro objetivo es calcular recursivamente aw|w > Pw|w > aw+1 y
Pw+1 dado aw > Pw .
Sea

vw = yw  Zw aw = (19.2)
19.3. FILTRADO 293

Entonces vw es el error de predicción un paso adelante y satisface

vw = yw  H(yw | Yw31 )=

Denotemos a su matriz de varianzas como Fw = Y (vw ). Entonces

Fw = Zw Pw Z0w + Hw > w = 1> = = = > q= (19.3)

Mediante la teoría elemental de regresión se puede mostrar que la regresión de


w en Yw es igual a la regresión en Yw31 más la regresión en yw H(yw | Yw31 ).
Consecuentemente,

aw|w = aw + Bw vw > (19.4)

donde

Bw = H(w vw0 )[Y (vw )]31


= H[w (w  aw )0 Z0w + w %0w ]F31w
= Pw Z0w F31
w > w = 1> = = = > q= (19.5)

Nuevamente, mediante la teoría elemental de regresión,

Y (aw|w ) = Y (aw )  Bw Y (vw )B0w >

así

Pw|w = Pw  Pw Z0w F31


w Zw Pw > w = 1> = = = > q= (19.6)

Estos resultados también pueden obtenerse mediante la técnica de “completar


el cuadrado” y basándose en la teoría de la distribución normal multivariada y
sus distribuciones condicionales resultantes, pero la manipulación de matrices
es mucho más intrincada; ver, por ejemplo, el apéndice del Capítulo 3 y sus
aplicaciones en la sección 3.2.2 del libro de Harvey (1989). Ellos también
surgen de la teoría Bayesiana estándar. Para obtener aw+1 y Pw+1 simplemente
notamos que

aw+1 = H(w+1 | Yw )
= H(Tw+1 w + Rw+1 w+1 | Yw )
= Tw+1 aw|w > (19.7)
294 CAPÍTULO 19. EL ALGORITMO DE KALMAN

Pw+1 = Y (w+1 | Yw )
= Y (Tw+1 w + Rw+1  w+1 | Yw )
= Tw+1 Pw|w T0w+1 + Rw+1 Qw+1 R0w+1 > (19.8)

para w = 0> = = = > q  1, con a0|0 = a0 y P0|0 = P0 .


Podemos combinar las fórmulas (19.4) a la (19.8) para que den un solo
par de ecuaciones de actualización

aw+1 = Tw+1 aw + Kw vw > (19.9)

donde

Kw = Tw+1 Bw
= Tw+1 Pw Z0w F31
w > (19.10)

Pw+1 = Tw+1 Pw (T0w+1  Z0w K0w ) + Rw+1 Qw+1 R0w+1 > (19.11)

para w = 0> = = = > q  1, con K0 = 0.


El conjunto de fórmulas (19.4) a la (19.8), o alternativamente (19.9) a la
(19.11), constituyen el filtro de Kalman para el modelo (19.1).
Se puede mostrar que cuando las observaciones no están normalmente
distribuidas, restringiendo a estimaciones que son lineales en las yw ’s y bajo
supuestos apropiados, los valores de aw+1 dados por el filtro minimizan el
error cuadrático medio de estimación de cada componente de w+1 . Ver, por
ejemplo, Duncan y Horn (1972), Anderson y Moore (1979) y Abril (2001a,
2002) para detalles de este enfoque.

19.4 Iniciación
Ahora consideremos cómo iniciar el filtrado cuando nada se conoce sobre los
parámetros a0 y P0 de la distribución de 0 . En esta situación es razonable
representar a esa distribución como una distribución difusa a priori, esto es,
se fija a0 en un valor arbitrario y se hacen tender los elementos diagonales
de P0 a 4. Una aproximación adecuada puede, con frecuencia, alcanzarse
19.5. SUAVIZADO 295

numéricamente tomando a0 = 0 y P0 = NIp , donde Ip es la matriz iden-


tidad de orden p y N es un número finito pero grande. No obstante, en
algunos casos esto conduce a inaceptables errores de redondeo, por lo tanto
se requiere una técnica más precisa. Para modelos simples se pueden escribir
las primeras dos o tres ecuaciones del modelo tomando a 0 con distribución
Q(0> NIp ), y luego hacer que N $ 4. Pero esto rápidamente se hace muy
engorroso.
Una buena alternativa que opera en casos suficientemente simples es
tomar a 0 como fijo pero desconocido y luego estimarlo por máxima verosimil-
itud. Esto necesita la solución de los primeros p pares de ecuaciones en (19.1)
para p en términos de Yp > %1 > = = = > %p y  1 > = = = >  p . Escribiendo la solu-
ción en la forma p = AYWp + u donde Yp W
es Yp escrito como un vector
columna (“apilado”) y u depende linealmente de los %w ’s y  w ’s, se trata a
Yp como fijo y a u como teniendo su distribución incondicional y se inicia
el filtro tomando ap|p = AYWp y Pp|p = Y (u). Por ejemplo, para el modelo
de TLL definido en (18.8) encontramos que 2 = |2  %2 y  2 = |2  |1 +%1
%2  2 +  2 , así las condiciones iniciales son
µ ¶ µ ¶
2 |2
d2|2 = H = >
2 |2  |1
y
µ ¶
2
S2|2 = Y
2
µ 2 ¶
%  2%
= >
 2% 2 2% +  2 +  2

con |1 > |2 tomados como fijos. Detalles adicionales del método son dados,
para el caso univariado, por Harvey (1989) en la sección 3.3.4.
Detalles sobre otras alternativas de iniciación pueden verse en Abril (1999)
y en las referencias allí citadas.

19.5 Suavizado
Consideraremos ahora la estimación de 1 > = = = > q dada la muestra completa
Yq . El estimador con error cuadrático medio mínimo (ECMM) de w es
b w = H(w | Yq ). Llamamos a 
 b w el valor suavizado de w y llamamos a la
296 CAPÍTULO 19. EL ALGORITMO DE KALMAN

operación de calcular  b q suavizado. Consideremos primero el caso


b 1> = = = > 
en que a0 y P0 son conocidos y luego tratamos el caso difuso.
Puesto que v1 > = = = > vq son independientes y a su vez son transforma-
ciones lineales de y1 > = = = > yq y puesto que vw > = = = > vq son independientes de
y1 > = = = > yw31 y tienen media cero, donde los vw ’s fueron definidos en § 19.3,
vemos que
q
X
b w = H(w | Yw31 ) +
 H(w | vm )
m=w
q
X
= aw + Bwm vm > w = 1> = = = > q> (19.12)
m=w

donde Bwm es el coeficiente de la regresión de w en vw y está dado por Bwm =


H(w vm0 )F31
m . Ahora bien, vm = Zm (m  am ) + %m , y v  av = Lv31 (v31 
av31 ) + Rv  v  Kv31 %v31 , donde Lv31 = Tv  Kv31 Zv31 para v = m> m  1> = = = .
Puesto que H[(w  aw )(w  aw )0 ] = Pw tenemos, en consecuencia,

H(w vm0 ) = Pw L0w L0w+1 · · · L0m31 Z0m > m = w + 1> = = = > q=

Sustituyendo en (19.12) resulta

b w = aw + Pw Z0w F31
 0 0 31 0 0 0 31
w vw + Pw Lw Zw+1 Fw+1 vw+1 + Pw Lw Lw+1 Zw+2 Fw+2 vw+2 + · · ·
= aw + Pw rw31 > (19.13)

donde rw satisface la recursión hacia atrás

rw31 = Z0w F31 0


w vw + Lw rw > w = q> q  1> = = = > 1> (19.14)

con rq = 0. La varianza de rw31 está dada por

Nw31 = Z0w F31 0


w Zw + Lw Nw Lw > w = q> q  1> = = = > 1> (19.15)

con Nq = 0. Los residuos suavizados, tal como los definen de Jong (1989) y
de Jong y Penzer (1998), son estimados mediante la recursión

uw = F31 0
w vw  Kw rw = (19.16)

La varianza de uw está dada por

Mw = F31 0
w + Kw Nw Kw = (19.17)
19.5. SUAVIZADO 297

Como veremos más adelante, las cantidades uw y rw juegan el rol de pivotes en


la construcción de test de diagnóstico para observaciones atípicas y cambios
estructurales.
El suavizador, definido por (19.13) y (19.14), fue introducido por de Jong
(1989) en un esquema más general que el considerado aquí. En la literatura
el suavizador H(w | Yq ) para w variable y q fijo se llama suavizador de
intervalo fijo. Si w es fijo y q = w + 1> w + 2> = = = se llama suavizador de punto
fijo, y si ambos varían con q  w fijo se llama suavizador de rezago fijo. En su
trabajo, de Jong (1989), presenta algoritmos análogos para los suavizadores
de punto fijo y de rezago fijo. Un suavizador anterior, al cual nos referiremos
como suavizador clásico, está en la sección 3.6 de Harvey (1989) y es derivado
en el Capítulo 7 de Anderson y Moore (1979). Este último toma la forma
b w = Tw aw + PWw (b
 w+1  aw+1 )> w = q  1> = = = > 1>
(19.18)
PWw = Pw|w T0w+1 P31
w >

con  b q = aq|q . Comparando (19.18) con (19.13) y (19.14) se observa que el


suavizador clásico requiere la inversión de q  1 matrices Pw , las que posible-
mente pueden ser grandes, mientras que el suavizador de de Jong no requiere
inversiones salvo la de Fw , la cual ya fue invertida durante el proceso del
filtrado de Kalman. Esto puede ser una ventaja considerable para modelos
grandes.
Se puede mostrar directamente (ver Abril, 1999) que la varianza
b w  w ) = Pw  Pw Dw31 Pw >
Y ( (19.19)
donde Dw31 está dada por la recursión
Dw31 = Z0w F31 0
w Zw + Lw Dw Lw > w = q> q  1> = = = > 1> (19.20)
con Dq = 0, y también que la covarianza
cov(b b w  w ) = Pv L0v · · · L0w31 (I  Dw31 Pw )>
v  v >  v ? w= (19.21)
Si las matrices de varianzas y covarianzas no son requeridas, una variante
del suavizador de de Jong, debida a Koopman (1993), es computacionalmente
más rápida. Sea  b w = H( w | Yq ), w = 1> = = = > q. Puesto que H( w vm0 ) = 0
para m ? w, tenemos
q
X
bw =
 H( w vm0 )F31
m vm = (19.22)
m=w
298 CAPÍTULO 19. EL ALGORITMO DE KALMAN

Como antes, vm = Zm (m  am ) + %m y v  av = Lv31 (v31  av31 ) +


Rv  v  Kv31 %v31 , así para v A w, H[( w (v  av )0 ] = H[ w (v31  av31 )0 ]L0v31
mientras que H[ w (w  aw )0 ] = Qw R0w . De esta manera

H( w vm0 ) = Qw R0w L0w L0w+1 · · · L0m31 Z0m > m = w + 1> = = = > q= (19.23)

Sustituyendo en (19.22) nos da

b w = Qw R0w rw31 >


 (19.24)

b w son entonces calculados me-


donde rw satisface la recursión (19.14). Los 
diante la recursión hacia adelante

 b w31 + Rw 
b w = Tw  bw> w = 1> = = = > q  1> (19.25)

junto con  b 0 = a0 + 
b q = aq|q . El valor inicial es  b 0 con 
b 0 = P0 r0 .
La ventaja de este suavizador sobre el de de Jong es que es significativa-
mente menos costoso en términos computacionales, y requiere menos espacio
de almacenamiento. Los costos relativos de computación son examinados con
todo detalle por Koopman en su trabajo. Por otra parte, el suavizador de
Koopman tiene la desventaja de que las matrices de varianzas y covarianzas
de los errores de estimación no pueden calcularse a partir de él; así, si ellas
son necesarias, se deberá usar el suavizador de de Jong o el clásico.

19.6 Estimación de los Hiperparámetros


Como ya lo vimos, los parámetros en los modelos de espacio de estado usual-
mente se denominan hiperparámetros, presumiblemente para distinguirlos
de los elementos del vector de estado los cuales pueden pensarse como
parámetros aleatorios. Además, recordemos que la magnitud por la cual los
parámetros aleatorios pueden variar está gobernada por esos hiperparámet-
ros.
Ahora debemos estimar por máxima verosimilitud los hiperparámetros
del modelo de espacio de estado.
Comenzamos construyendo la verosimilitud. Suponiendo que a0 y P0 son
conocidos, la densidad conjunta de y1 > = = = > yq es
q
Y
s(Yq ) = s(yw | Yw31 )> (19.26)
w=1
19.7. EL ALGORITMO EM Y LA FUNCIÓN MARCADORA 299

donde s(yw | Yw31 ) = Q(Zw aw > Fw ). Por lo tanto, tomando logaritmos obten-
emos
q q
qs 1X 1 X 0 31
log O =  log(2)  log |Fw |  v F vw > (19.27)
2 2 w=1 2 w=1 w w

donde vw = yw  Zw aw y Fw está dada en (19.3). Se llama a (19.27) la descom-


posición del error de predicción del logaritmo de la verosimilitud.
Esta última fórmula debe maximizarse con respecto a los elementos del
vector # de hiperparámetros desconocidos. Poniendo Hw =  2 HWw , Qw =
 2 QWw , encontramos que Fw =  2 FWw donde FWw depende solamente de HWw y de
QWw junto con cualquier hiperparámetro desconocido que se encuentre en las
restantes matrices del modelo. El parámetro de escala 2 puede concentrarse,
reduciendo así la dimensión de la búsqueda numérica en una unidad.
En el caso difuso, cuando a0 y P0 son desconocidos, supongamos que 
es el menor valor de w para el cual s(w | Yw ) existe. Entonces tomamos la
verosimilitud condicional con Y fijo, dando
q q
(q   )s 1 X 1 X 0 31
log O =  log(2)  log |Fw |  v F vw = (19.28)
2 2 w= +1 2 w= +1 w w

Las expresiones (19.27) o (19.28) pueden luego maximizarse numéricamente,


posiblemente después de haber sido concentradas.

19.7 El Algoritmo EM y la Función Marcado-


ra
En lugar de estimar los hiperparámetros mediante maximización numérica
directa del logaritmo de la verosimilitud, puede usarse el algoritmo EM como
una alternativa, o las dos técnicas pueden combinarse usando el algoritmo
EM en los primeros pasos de la maximización, donde es relativamente rápi-
do, y luego cambiando a la maximización numérica en los últimos pasos,
donde es relativamente lento. Por simplicidad comenzamos suponiendo que
a0 y P0 son conocidos y que Rw = Ip ; las modificaciones necesarias cuando
Rw 6= Ip son fáciles de implementar. Denotando como  al vector “apila-
do” (00 > = = = > 0q )0 y al vector de hiperparámetros desconocidos como #, el
300 CAPÍTULO 19. EL ALGORITMO DE KALMAN

logaritmo de la densidad conjunta de  e Yq , es, ignorando constantes,


q q
1X 1X
log s(> Yq | #) =  log |Qw |  log |Hw |
2 w=1 2 w=1
1
 (0  a0 )0 P31
0 (0  a0 )
2
q
1X
 (w  Tw w31 )0 Q31
w (w  Tw w31 )
2 w=1
q
1X
 (yw  Zw w )0 H31
w (yw  Zw w )= (19.29)
2 w=1

e un valor experimental de #, sea H


Sea # ef la esperanza con respecto a
e
la densidad s( | Yq > #), sean  e
b = Hf (), V ew = H ef [(w   b w )0 ]
b w )(w  
e e b w31 )(w  
y Cw = Hf [(w31   0
b w ) ]. Entonces, en el paso E del algoritmo
tenemos
q q
ef log s(> Yq | #) = 1X 1X 1
H  log |Qw |  log |Hw |  p
2 w=1 2 w=1 2
q
1X ew
 trQ31 b w31 )(
w  Tw 
w [(b b w31 )0 + V
b w  Tw 
2 w=1
e w31 T0w  Tw C
+Tw V ew  C
e 0w T0w ]
q
X
1
 trH31 b w )0 (yw  Zw 
w [(yw  Zw  b w )0
2 w=1
e w Z0w ]=
+Zw V (19.30)

En el paso M esta expresión es maximizada en forma numérica o analítica con


respecto a los elementos de #, posiblemente después de haber sido concen-
trada. De esta forma obtenemos una mejor aproximación al estimador por
e El proceso se repite hasta que
máxima verosimilitud de # que la dada por #.
una adecuada convergencia ha sido lograda o bien se cambia a optimización
numérica.
El enfoque EM es particularmente adecuado para los modelos estruc-
turales de series de tiempo, debido a que se obtienen fórmulas elementales
para los elementos maximizantes de # en el paso M.
19.8. BONDAD DEL AJUSTE 301

Para los casos en que el algoritmo EM no es útil, es conveniente computar


la función marcadora (“score”) C log s(Yq | #)@C# con el objeto de especi-
ficar la dirección sobre la cual la exploración numérica debe realizarse a fin
de acelerar la optimización, donde s(Yq | #) es la densidad marginal de Yq
dado #. En nuestro caso tenemos

log s(Yq | #) = log s(> Yq | #)  log s( | Yq > #)= (19.31)

ef en ambos miembros de
Puesto que s(Yq | #) no depende de , tomando H
(19.31) nos da
ef [log s(> Yq | #)]  H
log s(Yq | #) = H ef [log s( | Yq > #)] = (19.32)

Para obtener el marcador en # = #, e diferenciamos ambos miembros y


ponemos # = #. e Puesto que la esperanza de una función marcadora es
cero,
¯
CHef [log s( | Yq > #)] ¯¯
¯ = 0= (19.33)
C# ¯ h
#=#

Entonces
¯ ¯
C log s(Yq | #) ¯¯ ef [log s(> Yq | #)] ¯¯
CH
¯ h= ¯ > (19.34)
C# #=# C# ¯ h
#=#

donde H ef [log s(> Yq | #)] está dada en (19.30). Propiedades adicionales


de la función marcadora, incluyendo una simplificación cuando pueden estar
presentes hiperparámetros en Qw y en Hw , pero no en Tw y en Zw , pueden
verse en Koopman y Shephard (1992), los autores de este enfoque.

19.8 Bondad del Ajuste


Una vez logrado el vector de hiperparámetros estimados #,e podemos querer
medir el ajuste del modelo bajo consideración para la serie de tiempo dada.
Las medidas de bondad de ajuste para modelos de series de tiempo están
usualmente asociadas con los errores de predicción. Una medida básica del
ajuste es la varianza de predicción Fw definida en (19.3) la cual puede ser
comparada con la varianza de predicción de un modelo ingenuo o sencillo.
302 CAPÍTULO 19. EL ALGORITMO DE KALMAN

Por otra parte, los supuestos subyacentes que los errores del modelo (19.1)
son Gaussianos y serialmente independientes deben constatarse a partir de
los datos analizados, utilizando los errores de predicción un paso adelante
vw estandarizados con los correspondientes elementos de la matriz Fw y, a
partir de ellos, se construyen los test de normalidad, heteroscedasticidad y
correlación serial necesarios.
Cuando se consideran modelos competitivos, podemos querer comparar
el valor del logaritmo de la verosimilitud de un modelo particular ajustado,
con los correspondientes valores de modelos competitivos. A fin de tener
una comparación imparcial entre modelos con números diferentes de hiper-
parámetros, deben usarse criterios de información tales como el AIC, el AICC
o el BIC, los cuales fueron desarrollados en el Capítulo 6 anterior.
En general, lo presentado en § 6.4.6 del Capítulo 6 referente a bondad de
ajuste y control de diagnóstico es aplicable a los modelos de espacio de estado.
Una discusión más detallada del control de diagnóstico puede encontrarse en
Harvey (1989, §§ 5.4 y 8.4) y a lo largo del manual del paquete de computación
STAMP de Koopman, Harvey, Doornik y Shephard (1995 y 2000).

19.9 Predicción
Supongamos que tenemos observaciones y1 > = = = > yq que satisfacen el modelo
(19.1) de espacio de estado y queremos predecir yq+c , c = 1> 2> = = = > M. Sigu-
iendo con el argumento dado en el Capítulo 6, queremos que la predicción sea
con mínimo error medio cuadrático de predicción (MEMCP) dada la mues-
tra completa Yq . O sea que buscamos aquella estimación y bq (c) de yq+c que
minimice

Fq+c = H[(b yq (c)  yq+c )0 | Yq ]


yq (c)  yq+c )(b (19.35)

en el sentido matricial, para todas las estimaciones de yq+c . De acuerdo a


lo mostrado en §6.2, la predicción con MEMCP de yq+c dada la muestra
completa Yq es la media condicional

bq (c) = H(yq+c | Yq )=
y (19.36)

Para c = 1 la predicción es directa. De (19.1) tenemos que

yq+1 = Zq+1 q+1 + %q+1 >


19.9. PREDICCIÓN 303

por lo tanto
bq (1) = Zq+1 H(q+1 | Yq )
y
= Zq+1 aq+1 > (19.37)
donde aq+1 es la estimación de q+1 producida por el filtro de Kalman en
(19.9). La matriz de varianza del error o matriz de error medio cuadrático
Fq+1 = H[(b yq (1)  yq+1 )0 | Yq ]
yq (1)  yq+1 )(b
= Zq+1 Pq+1 Z0q+1 + Hq+1 > (19.38)
es calculada por la relación (19.3) del filtro de Kalman.
Para c = 2> = = = > M, definamos
aq+c = H(q+c | Yq )> (19.39)
y
Pq+c = H[(aq+c  q+c )(aq+c  q+c )0 | Yq ]= (19.40)
Puesto que
yq+c = Zq+c q+c + %q+c >
tenemos
bq (c) = Zq+c H(q+c | Yq )
y
= Zq+c aq+c > (19.41)
con matriz de error medio cuadrático
Fq+c = H{[Zq+c (aq+c  q+c )  %q+c ][Zq+c (aq+c  q+c )  %q+c ]0 | Yq }
= Zq+c Pq+c Z0q+c + Hq+c = (19.42)
Ahora derivamos las recursiones para calcular aq+c y Pq+c . De (19.1) tenemos
que
q+c+1 = Tq+c+1 q+c + Rq+c+1  q+c+1 >
entonces
aq+c+1 = Tq+c+1 H(q+c | Yq )
= Tq+c+1 aq+c > (19.43)
304 CAPÍTULO 19. EL ALGORITMO DE KALMAN

para c = 1> = = = > M  1 y con aq+1 = aq+1 . También

Pq+c+1 = H[(aq+c+1  q+c+1 )(aq+c+1  q+c+1 )0 | Yq ]


= Tq+c+1 H[(aq+c  q+c )(aq+c  q+c )0 | Yq ]T0q+c+1
+Rq+c+1 H( q+c+1  0q+c+1 )R0q+c+1
= Tq+c+1 Pq+c T0q+c+1 + Rq+c+1 Qq+c+1 R0q+c+1 = (19.44)

Observamos que las recursiones (19.43) y (19.44) para aq+c y Pq+c re-
spectivamente, son las mismas que las recursiones para aq+c y Pq+c del filtro
de Kalman dadas en (19.9) y (19.11) respectivamente, siempre que tomemos
en estas últimas vq+c = 0 y Kq+c = 0 para c = 1> = = = > M  1. Pero estas
son precisamente las condiciones que se mostraran en el Capítulo 20, fórmu-
la (20.1), que nos permiten tratar a las observaciones faltantes mediante la
aplicación rutinaria del filtro de Kalman.
En consecuencia, hemos demostrado que las predicciones de yq+1 > = = = > yq+M
junto con sus matrices de varianzas de los errores de predicción pueden ser
obtenidas simplemente tratando a yw para w A q como observaciones faltantes
y usando los resultados de §20.2. En algún sentido esta conclusión podría ser
considerada intuitivamente obvia, no obstante pensamos que es importante
demostrarlo algebraicamente. Para resumir, las predicciones y sus matrices
de varianzas de los errores asociadas pueden obtenerse rutinariamente en el
análisis de series de tiempo basado en los modelos Gaussianos de espacio de
estado mediante la continuación del filtrado de Kalman más allá de w = q
con vw = 0 y Kw = 0 para w A q. Estos resultados para predicción consti-
tuyen una característica elegante de los métodos de espacio de estado para
el análisis de las series de tiempo.
Capítulo 20

Series Irregulares I

20.1 Introducción
El objetivo de este Capítulo y del siguiente es examinar los métodos para
tratar una gran variedad de datos con irregularidades que suceden en el análi-
sis práctico de series de tiempo. La atención se centra, en muchos casos, en
series de tiempo univariadas, pero se discute el uso de modelos multivariados
para la estimación de valores faltantes en las series.
Muchas series de tiempo están sujetas a irregularidades en los datos, tales
como valores perdidos o faltantes, observaciones atípicas (“outliers”), cam-
bios estructurales y espaciado irregular. Este Capítulo presenta un enfoque
unificado para el análisis de estos datos irregulares. El tratamiento técnico
está basado en los métodos de espacio de estado. Estos métodos pueden ser
aplicados a cualquier modelo lineal, incluyendo aquellos dentro de la clase de
los ARIMA. Ahora bien, la facilidad de interpretación de los modelos estruc-
turales de series de tiempo, junto con la información asociada que producen
el filtro y el suavizador de Kalman, hacen de ellos el vehículo natural para el
tratamiento de los datos desordenados.

20.2 Observaciones Faltantes


El mecanismo para observar una serie de tiempo es frecuentemente imper-
fecto. Fallas en el equipo, errores humanos y la eliminación de medidas in-
exactas pueden producir valores faltantes. La naturaleza no siempre provee
un conjunto completo de datos, por ejemplo, medidas de la concentración de

305
306 CAPÍTULO 20. SERIES IRREGULARES I

polución en las lluvias es imposible de lograr si no llueve. En esta sección se


describen algunas técnicas para el manejo de valores faltantes, tales como la
modificación del filtro de Kalman o el uso de variables ficticias.
Valores faltantes suceden cuando no hay observaciones acerca de una vari-
able de “stock”, por ejemplo la oferta monetaria en un momento particular
del tiempo. Cuando la variable en cuestión es un flujo, tal como el ingre-
so, es posible que la falta de observación en el momento w = n conduzca a
que observemos su agregado o acumulación en el momento w = n + 1. Esto
es conocido como agregado temporal y será tratado en otra sección de este
Capítulo.
Un ejemplo de datos con frecuencia mixta es una serie que ahora es medi-
da cada trimestre pero que originalmente estaba disponible únicamente sobre
una base anual. Con mayor generalidad, datos con frecuencia mixta suceden
cuando el intervalo de tiempo entre las observaciones no es constante. Este
problema puede ser encarado usando el enfoque de las observaciones irreg-
ularmente espaciadas descripto en la subsección 20.2.2 o bien formulando el
modelo en tiempo continuo como se lo propone en el próximo Capítulo.

20.2.1 Observaciones faltantes en variables de “stock”


El filtro de Kalman provee una herramienta general para manejar obser-
vaciones faltantes. Cuando una observación falta en el momento w =  , el
filtro simplemente salta la parte de actualización de las ecuaciones (19.2) a la
(19.8). Esto puede interpretarse como si se tratara a la observación faltante
como una variable aleatoria con varianza infinita por lo tanto H $ 4. El
filtro de Kalman establece en el tiempo w =  la ganancia de Kalman K
igual a cero y
a +1 = T +1 a > P +1 = T +1 P T0 +1 + R +1 Q +1 R0 +1 = (20.1)
No hay error de predicción en w =  . Las ecuaciones de suavizado (19.14) a
(19.17), en el momento w =  , se reducen a
r 31 = T0 +1 r > N 31 = T0 +1 N T +1 > (20.2)
con u = 0 y M = 0. El valor que toma el proceso en los puntos en que
no hay observaciones puede ser de interés. La estimación de y con media
cuadrática mínima está dada por
b = Z 
y b> (20.3)
20.2. OBSERVACIONES FALTANTES 307

donde  b  se lo obtiene de (19.13). La verosimilitud puede ser evaluada


usando (19.27), donde las sumas son ahora solamente sobre los errores de
predicción correspondientes a los valores observados.
Una observación faltante puede ser manejada introduciendo una variable
ficticia en la ecuación de medida de (19.1). A fin de hacer el álgebra más
simple y facilitar la comprensión de los conceptos, consideremos una serie
univariada, o sea tomemos s = 1 en la ecuación de medida de (19.1), esto es

|w = Zw w + {w + %w > w = 1> = = = q> (20.4)

donde {w es una variable indicativa que es igual a cero para todos los períodos
excepto en el tiempo w =  donde es uno. Debe notarse que el marco de espa-
cio de estado puede extenderse hasta incluir variables explicativas. Dados los
hiperparámetros, la introducción de variables ficticias tiene exactamente el
mismo efecto que saltar la actualización del filtro como se describió anterior-
mente; ver Harvey (1989, pág. 145). Si los hiperparámetros son desconocidos,
debe aplicarse una corrección al término que contiene el determinante de la
función de verosimilitud (Sargan y Drettakis, 1974). De cualquier manera,
cuando  es incluido en el vector de estado y el elemento del vector inicial
de estado asociado con  es tratado como una variables aleatoria difusa, la
función de verosimilitud computada por el filtro de Kalman exacto inicial se
corrige automáticamente. Este enfoque es fácilmente generalizado a múltiples
valores faltantes.

20.2.2 Observaciones irregularmente espaciadas


Si varias observaciones faltan en un intervalo de tiempo regular, es más
apropiado tratar a la serie como irregularmente espaciada. El enfoque es-
tándar es establecer un modelo de espacio de estado para las observaciones
disponibles o, con mayor generalidad, un modelo de espacio de estado con
intervalos desiguales de tiempo. Esto último resulta ser más general e incluye
a los modelos ARIMA en la forma de espacio de estado.
Para facilitar el tratamiento algebraico y la comprensión del problema,
consideremos en esta subsección series de tiempo univariadas, o sea tomemos
s = 1 en la ecuación de medida de (19.1). Además consideremos un mod-
elo con ecuación de transición cuyas matrices son invariante en el tiempo
con datos regularmente espaciados. La escala de tiempo para este modelo
subyacente es el mayor divisor común para los intervalos entre observaciones
308 CAPÍTULO 20. SERIES IRREGULARES I

consecutivas. Del modelo básico, derivamos una representación para las ob-
servaciones que varía en el tiempo. La variación en las matrices de sistema
está determinada por la longitud del intervalo entre las observaciones.
Tratemos a | ,  = 1> = = = > q, como las observaciones y definamos el in-
tervalo  = w  w 31 como el tiempo entre | 31 e | . Supóngase que + es
el mayor valor tal que m @+ es un entero para todo m. Para  = 1> = = = > q
los intervalos  son reescalados de tal manera que el valor de + es uno.
Suponiendo un reescalado similar de los puntos w , definimos la serie subya-
cente |w+ para w = 1> = = = > q+ , donde q+ = wq e |w+ = | . El modelo básico de
espacio de estado es
|w+ = Zw +w + %w > %w  Q(0> 2% )>
+ + (20.5)
+w = T w31 + R w > +w  Q(0> Qw )> w = 1> = = = q+ =
Para tomar en cuenta el intervalo de tiempo entre observaciones consec-
utivas | , definimos el modelo de espacio de estado que varía en el tiempo
como
| = Z  + % >
(20.6)
 = T  31 +   >  = 1> = = = q>
donde
X
 31 X
 31

T = T >  = Tm R +
 3m > Y (  ) = Tm RQ 3m R0 (T)m = (20.7)
m=0 m=0

Este enfoque es eficiente solamente cuando las operaciones en la matriz de


estado de transición para el modelo básico son computacionalmente caras. De
otra manera, es más directo usar el modelo básico y tratar a las observaciones
que no ocurren dentro del intervalo de tiempo + como faltantes. La última
opción claramente se aplica a modelos estructurales de series de tiempo.

20.2.3 Agregado temporal


Aquí seguimos trabajando con series univariadas. Cuando se trabaja con
agregados temporales, distinguimos entre la serie subyacente regularmente
espaciada |w+ , w = 1> = = = > q+ , y la serie observada | ,  = 1> = = = > q, la que
consiste en agregados de |w+ . La serie agregada puede ser escrita como

X
| = |w+ +13l = (20.8)
l=1
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 309

Un enfoque de espacio de estado aumentado se usa para el tratamiento de


estos agregados. El vector de estado para esta representación es
µ ¶
w
Ww = W > (20.9)
yw31

donde w es el vector de estado


¡ + de la representación
¢0 de espacio de estado de
W +
la serie subyacente, yw31 = |w31 · · · |w3+1 ,  = max  y w = w . Las
ecuaciones de medida y de transición son
¡ ¢
|w = 3Zw i0w Ww + %w >4 3 4
Tw 0 0 Rw w
(20.10)
Ww = C Zw31 0 0 D Ww31 + C %w31 D >
0 I32 0 0

donde tratamos a |w como perdida si w 6= w para cualquier  e iw es un vector


de orden (  1) × 1 cuyos primeros   1 elementos son iguales a uno y el
resto cero.

20.2.4 Agregado contemporáneo


En procesos multivariados podemos observar agregados entre series. Por
ejemplo, cada serie puede representar ventas de un dado bien y en un mo-
mento de tiempo solamente la venta agregada está disponible. Esto puede ser
manejado mediante una simple adaptación ¡ de la ecuación¢0de medida para el
proceso s dimensional subyacente, yw = |w>1 ·P · · |w>s . Supóngase que,
W s
en el momento w, solamente el agregado |w = m=1 |w>m es observado. La
ecuación de medida es

|wW = ZWw w + %Ww >

donde ZWw = i0 Zw , %Ww = i0 %w e i es un vector de s × 1 unos. Esta idea puede


claramente ser extendida a cualquier clase de agregados a través de las series.

20.3 “Outliers” y Cambios Estructurales


En esta sección discutimos las formas de testar la presencia de observaciones
atípicas (“outliers”) y cambios estructurales, y también la forma de distin-
guirlos entre sí. Presentamos los procedimientos generales, basados en la
310 CAPÍTULO 20. SERIES IRREGULARES I

Figura 20.1: Impulso en el componente irregular para capturar una obser-


vación atípica

forma de espacio de estado, para calcular los estadísticos requeridos. Esos


algoritmos son exactos, y pueden ser usados tanto dentro de un enfoque ARI-
MA como estructural de las series de tiempo. De cualquier manera, como
lo argumentamos en esta parte del Libro, existen considerables ventajas al
adoptar el enfoque estructural.
Una observación atípica (“outlier”) es una observación que no es consis-
tente con el modelo que se piensa que es el apropiado para la gran mayoría de
las observaciones. Puede ser capturada por una variable explicativa ficticia
(“dummy”), conocida como una variable de intervención del tipo impulso, la
que toma el valor uno en el momento del tiempo en que sucede la observación
atípica y cero de otra manera (Ver Figura 20.1).
Un cambio estructural ocurre cuando el nivel de la serie es trasladado
hacia arriba o hacia abajo, debido usualmente a algún evento específico. Se
lo modela mediante una variable de intervención de tipo escalón que toma el
valor cero antes del evento y uno a partir de él (Ver Figura 20.2). Un cambio
estructural en la pendiente puede ser modelado por una intervención lineal
de tipo de tendencia ascendente que toma los valores 1> 2> 3> = = = , comenzando
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 311

Figura 20.2: Cambio estructural en el nivel de la serie

en el período posterior al cambio (Ver Figura 20.3).


El concepto de observación atípica y cambio estructural se aplica en for-
ma muy general. De cualquier manera, es útil para lo que sigue, notar que
cambios en el nivel y en la pendiente pueden ser vistos en términos de im-
pulsos aplicados a las ecuaciones de nivel y de pendiente en el modelo de
tendencia lineal local dado en (18.8). El marco estructural también sugiere
que algunas veces puede ser más natural pensar que una observación atípica
se debe a que la misma contiene un valor inusualmente grande del error o
disturbio. Esto conduce al concepto de un cambio en el nivel producido por
un valor inusualmente grande del disturbio del nivel, mientras un cambio en
la pendiente puede ser pensado como un disturbio grande en el componente
de la pendiente. Por lo tanto las intervenciones pueden ser vistas como de
efectos fijos o de efectos aleatorios, ahora bien, el enfoque de efectos aleato-
rios es más flexible. Por ejemplo, introduciendo una intervención atípica en
w =  es equivalente a considerar la varianza del componente irregular en ese
punto como siendo igual a infinito. Usando una varianza grande pero finita,
podemos asegurarnos que la observación | está ponderada hacia abajo pero
sin que se la elimine totalmente.
Mirar los efectos de las intervenciones como aleatorios es consistente con
la representación de la tendencia estocástica dada en (18.8). En ese modelo,
312 CAPÍTULO 20. SERIES IRREGULARES I

Figura 20.3: Cambio estructural en la pendiente de la serie

el nivel y la pendiente están sujetas a shocks aleatorios en cada punto del


tiempo. Cuando dichos movimientos son anormalmente grandes, aumentar la
varianza del disturbio relevante o incluir una variable de intervención puede
ser apropiado.
En la formulación estructural de una series de tiempo que contenga esta-
cionalidad, es válido pensar que un cambio estructural puede suceder también
a través de una variación en el componente estacional. Esta variación puede
ser pensada como de efecto fijo o de efecto aleatorio, tal como se lo hizo con
los outliers y los cambios en la tendencia.

20.3.1 Ejemplo: El Producto Bruto Nacional de los


Estados Unidos
La Figura 20.4 muestra el logaritmo del Producto Bruto de los Estados
Unidos desde el primer trimestre de 1951 hasta el último trimestre de 1985.
Poniendo, de alguna manera arbitraria, intervenciones en la pendiente en el
trimestre 1 de 1960 y en el trimestre 1 de 1970 nos lleva a un modelo con una
tendencia determinística como la ilustrada en la Figura 20.5. Actualmente
hay una abundante literatura en econometría que tratan esas tendencias lin-
eales a trozos; ver por ejemplo a Stock (1994). De cualquier manera, a menos
que exista un conocimiento previo sobre el momento en que el cambio tiene
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 313

Figura 20.4: Producto Bruto de los Estados Unidos con tendencia estocástica,
desde el trimestre 1 de 1951 al trimestre 4 de 1985, en logaritmos

lugar, es inadmisible comenzar cualquier análisis ajustando una tendencia


lineal a trozos. Una tendencia estocástica es lo suficientemente flexible como
para adaptarse a los cambios estructurales, si es que están presentes, y nos
dará una indicación del momento en que esos cambios ocurren. La Figura
20.4 contiene la tendencia estocástica ajustada a los datos del logaritmo del
Producto Bruto de los Estados Unidos sin ninguna intervención.

20.3.2 Detección de observaciones atípicas (“outliers”)


Test para outliers usando variables de impulso
Supongamos que queremos testar por la presencia de un outlier en el mo-
mento w =  . Si un outlier estuviera presente, el modelo se lo podría escribir

|w = {w + zw > w = 1> = = = > q> (20.11)

donde {w es una variable ficticia que toma el valor uno en w =  y cero de


otra manera,  es un parámetro y zw está generada por un modelo de serie
de tiempo lineal. Este último puede ser un modelo estructural de serie de
314 CAPÍTULO 20. SERIES IRREGULARES I

Figura 20.5: Producto Bruto de los Estados Unidos con tendencia deter-
minística e intervenciones, desde el trimestre 1 de 1951 al trimestre 4 de
1985, en logaritmos

tiempo, un modelo ARIMA, o inclusive un modelo que no es invariante en el


tiempo. Escribiendo a (20.11) en forma matricial tenemos

y = x + w> H(w) = 0> Y (w) = 2 V> (20.12)

donde x es un vector de orden q×1 que tiene un uno en la  -ésima posición y


cero en las demás. Nótese que (20.11) fue introducido en la subsección 20.2.1
para el manejo de observaciones faltantes.
Si el modelo no es estacionario, la formulación anterior presupone condi-
ciones iniciales fijas. Los resultados son aplicables también cuando las condi-
ciones iniciales son difusas, y en efecto, este es el caso que lleva nuestro mayor
interés. De cualquier manera, (20.12) es fácil de trabajar para propósitos de
exposición.
Los hiperparámetros aparecen en la matriz V de orden q×q. Suponiendo
que sean conocidos, el estimador por mínimos cuadrados generalizados de 
es
e = x0 V31 y@x0 V31 x>
 (20.13)
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 315

mientras que su varianza es


e = 2 @x0 V31 x=
Y () (20.14)
Un test w para la significación del outlier puede ser construido como
s
w = x0 V31 y@b x0 V31 x> (20.15)

donde  b2 es un estimador insesgado de  2 . Si los hiperparámetros son esti-


mados, entonces w es asintóticamente normal y puede ser interpretado como
un test de multiplicadores de Lagrange (LM).
La construcción e inversión de la matriz V puede ser evitada poniendo
al modelo en la forma de espacio de estado y aplicándole el algoritmo de
suavizado presentado en las ecuaciones (19.13) a (19.17). El numerador y
el denominador de (20.15) están dados por los correspondientes elementos
de los residuos suavizados, uw , y sus varianzas incondicionales, Mw , definidas
en (19.16) y (19.17), respectivamente, para el momento w =  ; ver de Jong
(1989) y de Jong y Penzer (1998). Así, la estandarización de los uw , llamados
residuos estandarizados suavizados, constituyen los estadísticos para los tests
de outliers en cualquier punto de la muestra. Afortunadamente, el algoritmo
de Kalman provee los valores de estos residuos estandarizados suavizados
para todos los períodos de tiempo, siendo necesaria una sola pasada para
obtenerlos. Estos tests son válidos tanto en el caso en que los outliers son
producidos por efectos fijos como cuando los provocan efectos aleatorios. El
programa STAMP (Koopman, Harvey, Doornik y Shephard, 1995) computa
en forma rutinaria los valores de estos estadísticos, en donde se los conoce
con el nombre de residuos auxiliares irregulares. Esta terminología fue intro-
ducida por Harvey y Koopman (1992).
Para futuras referencias, vamos a denotar como u al vector de orden q×1
con w-ésimo elemento xw , de tal manera que
u = V31 y= (20.16)
Nótese que si L es la matriz triangular inferior correspondiente a la descom-
posición de Cholesky, V31 = L0 F31 L, donde F es una matriz diagonal con
w-ésimo elemento Iw dado en (19.3), entonces el vector de errores de predic-
ción un paso adelante de orden q × 1 del filtro de Kalman está dado por
v = Ly. Por lo tanto
u = L0 F31 v= (20.17)
316 CAPÍTULO 20. SERIES IRREGULARES I

Esto implica que xw depende de los errores de predicción un paso adelante fu-
turos y corrientes. Esta característica también es observable en el suavizador
dado en (19.16).

Efectos aleatorios
Como lo notamos en la introducción de esta sección, los outliers pueden ser
producidos por un modelo de efectos aleatorios, esto es
( )
|w = zw + %w > w = 1> = = = > q> (20.18)

( )
donde Y (%w ) =  2 en w =  y cero en todo otro lugar. El mejor test
localmente invariante (POL) de K0 :  2 = 0 versus K1 :  2 A 0 es de la
forma

y0 V31 xx0 V31 y


POL = A f> (20.19)
y0 V31 y

donde f es el valor crítico. Este resultado parte de la formulación general dada


por King y Hillier (1985) notando que cuando el modelo está en términos
matriciales, Y (y) =  2 V +  2 xx0 . Puesto que y0 V31 y es proporcional al
estimador de  2 , está claro que, luego de estandarizarlo, el test basado en
(20.19) será equivalente al test w para un outlier fijo dado en (20.15).

Residuos auxiliares irregulares


Consideremos cualquier modelo en el cual las observaciones pueden ser con-
sideradas como provenientes de dos componentes mutuamente no correla-
cionados, uno de los cuales, %w , es serialmente no correlacionado, esto es

|w = zw + %w > w = 1> = = = > q= (20.20)

Este es similar al modelo de efectos aleatorios de la sección anterior excepto


que el término aditivo de error aparece en todos los puntos de tiempo con
Y (%w ) =  2% para w = 1> = = = > q. Cuando el modelo es escrito en forma matricial
tenemos

y = w + %> (20.21)
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 317

con Y (y) =  2 V, Y (%) =  2% I, y H(w%0 ) = 0. Si y es Gaussiano se sigue casi


inmediatamente, escribiendo la matriz de varianzas de (y0 > %0 )0 , que

% = H(% | y) = ( 2% @ 2 )V31 y = ( 2% @ 2 )u>


b (20.22)

y su matriz de varianzas incondicional es

%) = ( 4% @ 2 )V31 = ( 4% @ 4 )Y (u)=
Y (b (20.23)

Entonces, los elementos de b % son proporcionales a los residuos suavizados


y tienen las mismas propiedades dinámicas. Cuando están estandarizados,
b
% es igual que el vector de estadísticos de los tests para detección de out-
liers dado en (20.15) y es computado en forma rutinaria por el programa
STAMP, donde se lo conoce con el nombre de vector de residuos auxiliares
irregulares. Esta terminología fue introducida por Harvey y Koopman (1992)
aún cuando usaron el término sin tomar en cuenta si b % dado en (20.22) es-
taba estandarizado o no. Debido a que las cantidades estandarizadas están
definidas sin ambigüedad, usaremos el término residuos auxiliares irregulares
para referirnos a
p p
%Ww = b
b %w @ Y (b%w ) = xw @ Y (xw )= (20.24)

Nótese que, aún cuando b %w puede considerarse como un estimador de %w ,


%Ww puede ser computado ya sea  2% igual a cero o no. Debe notarse también
b
que los residuos auxiliares son serialmente correlacionados aún cuando los
parámetros en el modelo sean conocidos.

20.3.3 Detección de los cambios estructurales en el


nivel
Un cambio en el nivel de una serie puede ser modelado haciendo que {w en
(20.11) sea uno para w >  . El estimador de  y el test w asociado son como
los dados en (20.13) y (20.15) donde x es un vector de orden q × 1 en el cual
los elementos para w = 1> = = = >   1 son iguales a cero y el resto son unos.
El numerador de  e puede ser construido a partir de los residuos suavizados,
puesto que
q
X
0 31 0
xV y=xu= xw = (20.25)
w=
318 CAPÍTULO 20. SERIES IRREGULARES I

De cualquier manera, esto no nos produce directamente las otras cantidades


requeridas. Una solución es tomar primeras diferencias de las observaciones.
Eso produce
{|w = {{w + {xw > w = 2> = = = > q> (20.26)
donde {{w es una intervención para outlier como en (20.11).
Si los cálculos son realizados por el filtro y el suavizador de Kalman no
hay necesidad de tomar diferencias de la serie, y, en cualquier caso, esto es
usualmente algo inconveniente. Como lo mostraron de Jong y Penzer (1998),
todo lo que se necesita es poner al modelo en la forma de espacio de estado de
tal manera que el cambio de nivel pueda ser inducido por una intervención de
tipo pulso en algún lugar de la ecuación de transición. Dada esa formulación,
el filtro y el suavizador de Kalman incorpora una identidad de conteo tal que
(20.25) se da directamente como el elemento de rw definido en (19.14) en la
posición correspondiente a la intervención de tipo pulso. Su varianza está
automáticamente disponible de Nw en (19.15). La estandarización conduce a
los residuos auxiliares del nivel y constituyen la base de los test de cambio
de nivel. La derivación algebraica de estos últimos es similar a la de los
residuos auxiliares irregulares presentada anteriormente, por lo tanto no la
mostraremos aquí.

20.3.4 Detección de los cambios en la pendiente


Tests para detectar cambios en la pendiente pueden ser basados en el modelo
dado en (18.8). Un cambio en la pendiente corresponde a una intervención de
tipo pulso en la ecuación para el componente pendiente en el tiempo w =  .
Como en el caso del nivel, el estadístico del test se lo obtiene del componente
apropiado de rw computado por el filtro y el suavizador de Kalman y definido
en (19.14). Su varianza está en el correspondiente componente de Nw definido
en (19.15). La estandarización produce los residuos auxiliares de la pendiente
y constituyen la base de los test de cambios en la pendiente.

20.3.5 Detección de los cambios en la estacionalidad


Si el modelo contiene un componente estacional, como en la subsección 18.2.3,
el vector de estado contendrá los v  1 elementos correspondientes al compo-
nente estacional y rw contendrá un conjunto correspondiente de v  1 elemen-
tos. Denotemos como rv>w al vector de orden (v1)×1 con esos elementos, con
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 319

matriz de varianzas  2 Nv>w . Un test para detectar un cambio en la estructura


estacional en el tiempo w =  puede ser realizado usando el estadístico

b32 r0v>w N31


I = v>w rv>w > (20.27)

para w =  , el cual se toma como que tiene una distribución I . Si los hiper-
parámetros son estimados, (v  1)I se toma como que tiene una distribución
"2v31 . Tests de cambios en estaciones particulares o grupos de estaciones
pueden también ser realizados.
Un gráfico del estadístico dado en (20.27) puede dar una indicación del
cambio en la estructura estacional en un momento de tiempo particular.
De cualquier manera, es difícil corregir por correlación serial y testar por
alejamientos de la distribución nula, esta es la distribución bajo el supuesto
que no están presentes cambios en la estacionalidad. Una serie de estadísticos
para testar cada estación pueden también ser construidos, aún cuando ello
típicamente requiere ciertas transformaciones a realizarse en rv>w . Un gráfico
de la evolución de cada componente estacional obtenido mediante suavizado
puede ser muy informativo.

20.3.6 Estrategias para la detección de los outliers y


de los cambios estructurales
La discusión hasta este momento ha supuesto que los parámetros que deter-
minan la matriz de varianzas de las observaciones son conocidos. Esto crea
problemas para un enfoque ARIMA puesto que en la presencia de outliers
o cambios estructurales las herramientas estándares para la identificación de
modelos son poco confiables. Por ejemplo Tsay (1986) y LeFrançois (1991)
muestran que sesgos muy serios pueden ser introducidos en la función de
autocorrelación muestral.
Bruce y Martin (1989) sugieren al diagnóstico de eliminación como un
medio de detectar observaciones influenciales en una serie de tiempo. Ellos
señalan que la correlación serial puede conducir a la distorsión de algún es-
tadístico de test. Como una forma de detectar conjuntos de observaciones
atípicas, sugieren ir incrementando el número, n, de observaciones consecu-
tivas que se eliminan. Desafortunadamente, Bruce y Martin desarrollaron su
método en un esquema ARIMA. Los problemas asociados con estos modelos
son caracterizados por su imposibilidad en identificar las estructuras esta-
cionales en los datos mensuales de exportaciones en Latinoamérica (ver los
320 CAPÍTULO 20. SERIES IRREGULARES I

Figura 20.6: Volumen del caudal del río Nilo en metros cúbicos en Aswan,
con nivel estocástico. Datos anuales desde 1871 hasta 1970

comentarios realizados por Harvey). El método de ellos requiere considera-


ciones de diferentes valores de n y reestimación repetida de los parámetros del
modelo. Como lo notó Kohn en sus comentarios, el costo computacional de
implementar el método puede significar que su valor es limitado para modelos
de ordenes alto.
Los modelos estructurales de series de tiempo proveen un marco más vi-
able puesto que las especificaciones del modelo adecuado no dependen mayor-
mente de estadísticos tales como las autocorrelaciones muestrales. Aún más,
usualmente los modelos estructurales de series de tiempo son formulados en
términos de componentes los cuales producen los residuos auxiliares requeri-
dos para testar por outliers y cambios estructurales. Harvey y Koopman
(1992) ilustraron, mediante la observación de tres casos, cómo los residuos
auxiliares pueden ser usados exitosamente. Aquí nos concentramos en otro
ejemplo, los datos del caudal del Nilo.

20.3.7 Ejemplo: El caudal del Nilo


Cobb (1978) analizó una serie de observaciones anuales, desde 1871 hasta
1970, del volumen del caudal del río Nilo en metros cúbicos en Aswan (ver
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 321

Figura 20.7: Residuos auxiliares irregulares del volumen del caudal del río
Nilo en Aswan con banda de confianza, desde 1871 hasta 1970

Figura 20.6). Esta serie ha sido analizada también por Carlstein (1988) y
Balke (1993).

Un modelo de NL como el presentado en (18.7), con  2% = 15099 y  2 =


1469> 2, ajusta bien a los datos del volumen del caudal del río Nilo. Los
residuos auxiliares para los componentes irregulares y de nivel son graficados
en las Figuras 20.7 y 20.8. Residuos auxiliares irregulares grandes en 1877
y 1913 indican valores atípicos. Los residuos auxiliares del nivel sugieren
un cambio de nivel entre 1897 y 1900, ocurriendo el valor más extremo en
1899. Esto corresponde con la construcción de la primera presa de Aswan,
la que se comenzó en 1899 y se completó en 1902. Ajustando nuevamente
el modelo con intervenciones para los outliers en 1877 y en 1913 y para un
cambio de nivel en 1899, resulta que la varianza del componente estocástico
del nivel se hace cero. Entonces, una vez que hemos tomado en cuenta el
cambio estructural de 1899 resulta innecesario un componente estocástico de
nivel (ver Figura 20.9). Este análisis es considerablemente más directo que
el presentado por Balke (1993).
322 CAPÍTULO 20. SERIES IRREGULARES I

Figura 20.8: Residuos auxiliares del nivel del volumen del caudal del río Nilo
en Aswan con banda de confianza, desde 1871 hasta 1970

Figura 20.9: Volumen del caudal del río Nilo en Aswan con nivel determinís-
tico e intervenciones, desde 1871 hasta 1970
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 323

Figura 20.10: Residuos auxiliares irregulares del logaritmo del consumo anual
de bebidas alcohólicas en Gran Bretaña, desde 1870 hasta 1938, con banda
de confianza

20.3.8 Ejemplo: Consumo de bebidas alcohólicas en


Gran Bretaña

Regresando al ejemplo de las bebidas alcohólicas de la subsección 18.5.1, gen-


eramos los residuos auxiliares. Las Figuras 20.10 y 20.11 indican un cambio
de nivel en 1909 y se observan varios candidatos a outliers durante la Primera
Guerra Mundial. Ajustando la intervención en el nivel y recalculando los
residuos auxiliares irregulares, el mayor valor ocurre en 1918. Repitiendo
este procedimiento se observa un segundo outlier en 1915. Estas conclu-
siones parecen razonables puesto que los datos para el período que va desde
1915 a 1919 fueron estimados basados en el consumo en el Ejercito Británico
siendo de esperar que sea menos confiable que las otras observaciones (Har-
vey y Koopman, 1992). El cambio de nivel en 1909 puede ser debido a un
período de reformas sociales iniciado en ese año por Lloyd George.
324 CAPÍTULO 20. SERIES IRREGULARES I

Figura 20.11: Residuos auxiliares del nivel del logaritmo del consumo anual
de bebidas alcohólicas en Gran Bretaña, desde 1870 hasta 1938, con banda
de confianza

20.3.9 Control de diagnóstico continuo


Hasta ahora hemos considerado datos consistentes en una muestra de tamaño
fijo q. En muchas aplicaciones, particularmente en los campos de finanzas y
procesos de control, la serie representa un proceso continuo.
Si nuevas observaciones están continuamente disponibles, requerimos un
mecanismo para actualizar sobre la marcha los estadísticos de diagnóstico.
Frecuentemente se supone que estamos solamente interesados en períodos
comprendidos en una ventana que representa el pasado reciente. Esta ven-
tana se mueva hacia adelante cuando nuevas observaciones están disponibles.
Convencionalmente, un banco de filtros (Willsky y Jones, 1976) es usado para
actualizar los estadísticos, y cada uno de esos filtros es asociado con un único
punto en la ventana. En un trabajo no publicado, de Jong y Penzer (1997)
proponen un proceso de actualización que es independiente del tipo de inter-
vención que está siendo considerada. Esto permite calcular, para cada punto
en la ventana móvil, estadísticos de máximo diagnóstico.
Capítulo 21

Series Irregulares II

21.1 Introducción
En este Capítulo continuamos examinando los métodos para tratar una gran
variedad de datos con irregularidades que suceden en el análisis práctico de
series de tiempo.
Los datos de las series de tiempo pueden estar desordenados, y por lo
tanto ser difícil de manejarlos mediante procedimientos estándares, especial-
mente cuando ellos son intrínsecamente no Gaussianos o contienen estruc-
turas periódicas complicadas tales como cuando son observados en una base
horaria, diaria o semanal. Este Capítulo prosigue con la presentación de un
enfoque unificado para el análisis de estos datos irregulares. Como antes, el
tratamiento técnico está basado en los métodos de espacio de estado que,
junto con la facilidad de interpretación de los modelos estructurales de series
de tiempo y con la información asociada que producen el filtro y el suavizador
de Kalman, hacen de ellos el vehículo natural para el tratamiento de los datos
desordenados.
Modelos estructurales de series de tiempo pueden ser expresados en tiem-
po continuo, permitiendo con ello un tratamiento general de observaciones
irregularmente espaciadas. La estructura periódica asociada con datos horar-
ios, diarios o semanales puede ser efectivamente tratada usando curvilíneas
(“splines”) variables en el tiempo, mientras que el análisis estadístico de mod-
elos no Gaussianos es ahora posible debido a los desarrollos recientes en las
técnicas de simulación.

325
326 CAPÍTULO 21. SERIES IRREGULARES II

21.2 Períodos Especiales de Observación


Usualmente, las series de tiempo, por ejemplo las económicas, son observadas
cada año, trimestre o mes. Cuando se trabajo con frecuencias trimestrales o
mensuales, se usan los modelos del Capítulo 18. En esta sección de este Capí-
tulo mostramos cómo los modelos estructurales de series de tiempo pueden
ser adoptados para el manejo de observaciones realizadas cada hora, día o se-
mana. La característica fundamental de tales modelos es el uso de curvilíneas
(“splines”) variables en el tiempo para crear modelos parsimoniosos de efec-
tos periódicos. Esta idea fue originalmente propuesta por Harvey y Koopman
(1993) como una forma de modelar cambios de estructura dentro del día y
dentro de la semana.
Un efecto periódico de longitud v es modelado como una función lineal de
un conjunto de parámetros contenidos en un vector  W de dimensión j ×1. Si
esos parámetros son fijos, la estructura periódica es fija, y podemos escribir
el l-ésimo efecto periódico como

 l = wl0  W > l = 1> = = = > v> (21.1)

donde wl es un vector de ponderaciones desconocidas de orden j × 1. La


idea es especificar el efecto periódico de tal manera que j sea razonablemente
pequeño, en particular mucho más chico que v. Existen esencialmente dos op-
ciones. La primera es dejar que  l sea una mezcla de funciones trigonométri-
cas. La segunda es modelarlo mediante una curvilínea periódica. En nuestro
contexto, la segunda opción parece ofrecer una mejor alternativa para una
parametrización parsimoniosa, principalmente debido a la necesidad de cap-
turar picos agudos.
Para trazar una curvilínea necesitamos elegir k “nudos” en el intervalo
[0> v]. Entonces wl depende de la posición de los nudos y está definido de
tal manera de asegurar continuidad de las curvilíneas de un período a otro,
esto es hacerla periódica en el tiempo; ver Poirier (1976, p. 43-7). Con el
objeto de tener al componente periódico estacional sumando cero sobre todo
el año, necesitamos modificar el vector de ponderaciones apropiadamente.
También las curvilíneas pueden evolucionar en el tiempo permitiendo que los
parámetros sigan un camino aleatorio. Así, podemos escribir

 Ww =  Ww31 + "w > w = 1> = = = > q> (21.2)

donde "w es un vector de disturbios serialmente no correlacionados de orden


21.2. PERÍODOS ESPECIALES DE OBSERVACIÓN 327

j × 1, con media cero y matriz de varianzas


µ ¶ v
X
1
Y ("w ) =  2" I 0
wW wW0 con wW = wl = (21.3)
wW wW l=1

La varianza  2" gobierna la velocidad con la cual la curvilínea puede cambiar.


La matriz de varianzas (21.3) establece la restricción que wW0 "w = 0. Nótese
que si hay un nudo para cada período, obtenemos el modelo estacional con
variables dummies de Harrison y Stevens (1976).

21.2.1 Observaciones semanales


Desarrollaremos esta subsección con un ejemplo obtenido de un trabajo de
Harvey, Koopman y Riani (1997). Una de las series más importantes de
oferta monetaria en Gran Bretaña es la cantidad de billetes y monedas en
circulación, más los depósitos en efectivo de los bancos comerciales en el
Banco de Inglaterra. Esto básicamente corresponde a lo que usualmente se
conoce en el mundo económico como M0, y en lo que sigue nos referiremos
a ella de esta forma. Estas cantidades muestran fluctuaciones estacionales
considerables, siendo particularmente alta justo antes de Navidad. Como
resultado de ello, el Banco de Inglaterra necesita producir series ajustadas
por estacionalidad para facilitar la interpretación.
Harvey, Koopman y Riani (1997) analizaron la serie M0 para el período
comprendido entre el 28 de Mayo de 1969 y el 28 de Diciembre de 1994.
Tomando logaritmos se obtiene una serie con una estructura estacional más
estable. Los datos son tomados cada miércoles, excepto cuando el miércoles
es feriado en cuyo caso se lo toma el martes anterior (o el lunes si el martes
también es feriado). Ellos notaron con toda claridad los picos correspon-
dientes a Navidad y Pascua, y como en la mayoría de las series de tiempo
económicas, es aparente que la estructura estacional ha evolucionado en el
tiempo debido a cambios en los factores institucionales y sociales.
El modelado de una estructura estacional cambiante con datos semanales
no es una tarea fácil. El primer problema es que la observaciones son tomadas
en un día particular de la semana, en lugar de hacerlo en fechas predetermi-
nadas, por lo tanto y debido al hecho de que no hay un número entero de
semanas en el año significa que el número de observaciones por año varía entre
52 y 53. Entonces, y aún cuando la estructura estacional sea determinística,
no puede ser modelada mediante un conjunto de variables dummies. Además,
328 CAPÍTULO 21. SERIES IRREGULARES II

las fechas de los días de observación cambian cada año, por ello, aún en el caso
que hubiera un número entero de semanas en el año, la estructura estacional
cambia de año a año. Por ejemplo, existe una gran diferencia si la oferta de
dinero es observada el día antes de Navidad o seis días antes de Navidad.
El primer caso se presenta cuando Navidad es un día jueves, y el segundo
cuando Navidad es un martes. Para hacer las cosas peores, esta estructura
estacional no es recurrente cada siete años debido a los años bisiestos.
El otro problema importante es que la posición de la Pascua cambia
de año a año. Además, sus efectos pueden ser diferentes dependiendo de
cuando ocurra. Si es tarde en el año, sus efectos pueden superponerse y
posiblemente interactuar con aquellos asociados con el feriado del Primero
de Mayo. Por supuesto, la posición de la Pascua también afecta a los modelos
para observaciones mensuales, pero estos casos son más fáciles de manejar y
existe una considerable literatura sobre el tema; ver Bell y Hillmer (1983).
Los procedimientos de tipo ARIMA no son fácilmente generalizables para
datos semanales. Uno de los pocos trabajos publicados sobre ajuste esta-
cional basado en modelos para datos semanales, por Pierce, Grupe y Cleve-
land (1984), redondea algunos de los problemas usando regresión para mod-
elar parte del efecto estacional de una manera determinística y luego encara
los efectos estocásticos por medio de modelos ARIMA.
Harvey, Koopman y Riani (1997) modelaron satisfactoriamente la oferta
monetaria M0 usando el modelo estructural de series de tiempo

|w = w +  w + w + %w > w = 1> 2> = = = > q> (21.4)

con las definiciones usuales para la tendencia w y los irregulares %w , y donde


 w y w denotan los efectos periódicos y de festividades móviles, respectiva-
mente. El componente periódico es modelado mediante una curvilínea que
varía en el tiempo. Para capturar los picos en momentos como Navidad,
un número relativamente grande de nudos son necesarios en un corto perío-
do. En otros momentos, la estructura estacional cambia muy lentamente
necesitándose solamente unos pocos nudos. Consideraciones similares son
aplicables en el modelado de la demanda por electricidad dentro de cada día,
lo que es descripto en la subsección 21.2.3. Aquí la situación es complicada
por la interacción entre la posición de las variables dummies necesarias para
capturar las festividades móviles y los nudos usados para capturar el resto de
la estructura estacional. La especificación final tiene diecinueve nudos deci-
didos por factores tales como los cocientes w de las coordenadas de los nudos
21.2. PERÍODOS ESPECIALES DE OBSERVACIÓN 329

y las dummies, los diagramas de diagnóstico y de los residuos, los estadísticos


de bondad de ajuste y el desempeño de las predicciones.
El efecto de cada feriado es modelado por un conjunto de variables dum-
mies asignadas a las semanas adyacentes. El día del año en el cual el feriado
ocurre, y por ende los días en los cuales las observaciones adyacentes ocurren,
depende del calendario. Todos los feriados públicos en Gran Bretaña ocurren
en lunes, excepto Viernes Santo, entonces once variables dummies estocás-
ticas son especificadas para el tratamiento de ellos. No se pone ninguna
restricción en los efectos de los feriados, aún cuando podría habérselo hecho.
Por ejemplo, la misma variable de estado puede ser usada para el Feriado de
Primavera y el de Agosto. Se incluye una dummy adicional en Junio de 1977
para el tratamiento del Jubileo de Plata de la Reina.
Otro problema en los datos semanales es el manejo de los años bisiestos.
Harvey, Koopman y Riani (1997) consideran dos soluciones diferentes. La
primera es establecer el efecto del 29 de Febrero como idéntico al del 28 de
Febrero, esto es, considerar al día 59 como que ocurre dos veces. Procediendo
de esta manera se asegura que Navidad ocurre exactamente en el mismo punto
de cada año, esto es en el día 359. Un enfoque algo diferente es permitir que
el efecto del año bisiesto se reparta en todo el año. En este caso, la curvilínea
es modificada multiplicando la posición de los nudos por 366/365.
En el trabajo de Harvey, Koopman y Riani (1997) se observa que los
residuos del modelo filtrado muestran considerable variabilidad alrededor de
Navidad. El impacto de la Navidad y la velocidad con la cual la estructura
puede cambiar significa que se puede encontrar un mejor modelo si se duplica
la varianza de los nudos de Navidad. Haciéndolo así se obtienen residuos que
son más parecidos a los de otras partes del año, reduciéndose, en consecuen-
cia, los errores de predicción. En efecto, los autores muestran que trabajando
de esta manera, los errores de predicción son menores que el 0.5% del nivel
la mayor parte del tiempo.

21.2.2 Observaciones diarias


Los modelos estructurales de series de tiempo pueden ser extendidos para
permitir el manejo de observaciones diarias introduciendo un componente
diario. Este es modelado en la misma forma que un componente estacional y
puede permitírsele que evolucione en el tiempo. Otros componentes como la
tendencia y la estacionalidad anual pueden ser introducidos como se lo hizo
antes.
330 CAPÍTULO 21. SERIES IRREGULARES II

La colección de trabajos en Bunn y Farmer (1985) nos permiten un so-


brevuelo sobre los diferentes tipos de modelos que, hasta hace poco tiempo,
se empleaba en la predicción a corto plazo de la energía. El enfoque princi-
pal está basado en los modelos ARIMA, de regresión, suavizado exponencial
o alguna mezcla de ellos. Para observaciones diarias, el llamado “modelo
ARIMA de aerolíneas”, basado en la operación de diferenciación , es algunas
veces usado. De cualquier manera, es poco probable que uno pueda identi-
ficar tal modelo a partir del correlograma en la forma propuesta por Box y
Jenkins (1976).
Koopman y Gordon (1997) consideran el consumo promedio diario de
electricidad entre Enero de 1991 y Diciembre de 1994 para tres áreas de
Brasil (Minas Gerais, Rio de Janeiro y Curitiba). El modelo incluye una
tendencia a largo plazo, un efecto estacional diario (v = 7), una curvilínea
periódica para la estacionalidad anual con diez nudos distribuidos sobre el año
calendario y un conjunto de variables dummies para los feriados nacionales
y locales. Se incluyeron variables dummies para los efectos posteriores a
los feriados. La curvilínea para la estacionalidad anual no es variable en
el tiempo ya que solamente están disponibles cuatro años de datos. Por lo
tanto, las curvilíneas se reducen a en efecto de regresión permitiendo el uso
sin modificaciones del paquete STAMP 5.0.
El modelo ajustado resultó ser razonablemente bueno, pero los datos
están sujetos a un número de outliers dentro de cada año, algunos muy
grandes en magnitud. Se concluye que el supuesto de normalidad para los
componentes irregulares no es apropiado. Adoptando las técnicas de §21.4 es
posible modelar a los irregulares mediante una distribución de colas pesadas
como la w o una mezcla de normales.

21.2.3 Observaciones horarias


Efectos dentro del día ocurren en una gran variedad de aplicaciones. Por
ejemplo, la demanda y la oferta regional de energía como el gas y la electri-
cidad, el uso regional de agua, el número de llamadas telefónicas recibidas,
la cantidad de dinero sacada de los cajeros automáticos, el flujo de tráfico
en una avenida de circunvalación, el nivel de polución del aire en una ciu-
dad, son observadas a intervalos casi permanentes. Tales datos pueden ser
acumulados de forma, por ejemplo, horaria o minuto a minuto para hacer
la serie más manejable. En el contexto de la demanda de electricidad, la
estructura dentro del día es conocida como la curva de carga. Es deseable
21.2. PERÍODOS ESPECIALES DE OBSERVACIÓN 331

modelar la curva de carga de una forma parsimoniosa para datos horarios,


y resulta aún más importante cuando las observaciones se las obtiene con
mayor frecuencia.
Por ejemplo, si se tienen datos horarios de la demanda de electricidad para
el verano y para el invierno en una cierta región, necesitaremos considerar
un efecto periódico que varía en el tiempo dado que las dos estaciones son
claramente diferentes. También suele ser diferente la demanda promedio
diaria en el invierno que la correspondiente al verano.
El principal propósito de un modelo horario es predecir la demanda de
electricidad futura con dos o tres días de anticipación. El modelo horario
está dado por

|w = w +  w +  w + %w > w = 1> 2> = = = > q> (21.5)

con tendencia w e irregulares %w como siempre y donde  w y  w denotan los


efectos dentro del día y los explicativos, respectivamente. Los irregulares
pueden ser modelados como un proceso ARMA de bajo orden para describir
la dinámica restante de corto plazo en la serie.
Los efectos estándares dentro del día son descriptos por una curvilínea
periódica. Un cierto trabajo experimental es necesario para determinar la
posición de los nudos. Para capturar los picos durante las mañanas y al final
de las tardes, se usan más nudos en esos momentos. Desafortunadamente,
la misma estructura dentro del día no será aplicable a todos los días de la
semana; en sábados y domingos el nivel de la demanda por electricidad y
la estructura dentro del día difiere de los otros días de la semana. Una
forma de manejar este problema es establecer una curvilínea que sea cero al
principio y al final del día y que se agregue e la curvilínea del día normal. Una
solución alternativa, preferida por Harvey y Koopman (1993), es establecer
una curvilínea para toda la semana, en donde los nudos son restringidos de
tal manera que tienen los mismos valores para los días estándares.
La introducción de variables explicativas en series de tiempo estructurales
es directa; ver §18.5. En el contexto de series de tiempo periódicas, las vari-
ables explicativas pueden comportarse en forma diferente a la variable depen-
diente en varios momentos del ciclo estacional (invierno - verano, mañana -
noche). Cuando disponemos de suficientes observaciones estos diferentes efec-
tos a lo largo de la estructura periódica pueden ser identificados estableciendo
curvilíneas periódicas para los coeficientes de regresión. El efecto explicati-
vo puede ser diferente para diferente valores de la variable explicativa. Por
332 CAPÍTULO 21. SERIES IRREGULARES II

ejemplo, valores extremos de temperatura tienen un efecto pronunciado en la


demanda de electricidad (cuando está frío, el efecto de la calefacción afecta
la demanda y cuando está caliente, el aire acondicionado afecta la demanda),
mientras que valores moderados de temperatura puede no afectar la deman-
da de electricidad de forma significativa. Este efecto de la temperatura suele
poder modelarse por una curvilínea cúbica donde la posición de los nudos
está emplazada dentro del rango de valores de la temperatura.

21.3 Tiempo Continuo y Espaciado Irregular


Los componentes típicos de una serie de tiempo pueden ser formulados en
tiempo continuo; ver Jones (1993) y Harvey y Stock (1994). Esto tiene el
atractivo de que el modelo es independiente del intervalo entre observaciones.
En efecto, las observaciones pueden estar irregularmente espaciadas.

21.3.1 Modelos de espacio de estado en tiempo contin-


uo
En lo que sigue supondremos que se tienen q datos irregularmente espaciados
en el tiempo y observados en los momentos w >  = 1> = = = > q. Estos momen-
tos de observación están separados cada uno por  unidades del tiempo
calendario, de tal manera que w = w 31 +  . El vector de estado en tiempo
continuo se lo denota como (w) y en el momento de observación se lo escribe
como  = (w ). Entonces, la convención es que cantidades tales como (w)
e y(w) son procesos continuos en el tiempo mientras que  e y denotan
los datos muestrales de esos procesos en los momentos discretos. El proceso
observable de tiempo discreto es y y los datos son las q observaciones de la
serie de tiempo (y1 > = = = > yq ).
El análogo en tiempo continuo de la ecuación de transición en tiempo
discreto e invariante en el tiempo dada en (18.1) es

g(w) = A(w)gw + Rg(w)> (21.6)

donde las matrices A y R pueden ser funciones de los hiperparámetros y


(w) es un proceso de Wiener multivariado y de tiempo continuo. Para una
interpretación formal de las ecuaciones diferenciales lineales y estocásticas,
21.3. TIEMPO CONTINUO Y ESPACIADO IRREGULAR 333

ver Bergstrom (1983). Los procesos de Wiener tienen incrementos indepen-


dientes que son Gaussianos con media cero y matriz de varianzas
5 v 6
Z Zv
H 7 g(w) g(w)0 8 = (v  u)Q> (21.7)
u u

donde Q es una matriz positiva semidefinida.


Supongamos que tenemos una serie univariada de observaciones en los
momentos w , para  = 1> = = = > q. Para una variable de stock las observaciones
están definidas por

| = Z + % >  = 1> = = = > q> (21.8)

donde % es un error o disturbio de tipo ruido blanco, con media cero y


varianza  2% , el cual es no correlacionado con los incrementos de (w) en
todos los momentos de tiempo. Para un flujo

Zw Zw
| = Z(u)gu + g%(u)> (21.9)
w 31 w 31

donde %(w) es un proceso estocástico de tiempo continuo con incrementos


no correlacionados, el que tiene media cero y varianza  2% sobre un intervalo
unitario de tiempo. El proceso %(w) es no correlacionado con (w) en todos
los momentos de tiempo en el que
5 v 6
Z Zt
H 7 g(w) g%(w)8 = 0> para todo u ? v y s ? t= (21.10)
u s

La formulación de espacio de estado de los modelos de tiempo continuo es


derivada de la ecuación integral estocástica que define la ecuación diferencial
estocástica (21.6). La relación entre el vector de estado en el momento w y
el correspondiente en el momento w 31 está dada por

Zw
(w ) = e A
(w 31 ) + eA(w 3v) Rg(v)= (21.11)
w 31
334 CAPÍTULO 21. SERIES IRREGULARES II

Esto produce la ecuación de transición en tiempo discreto

 = T  +   > (21.12)

donde T = eA , y  es un disturbio multivariado de tipo ruido blanco con


media cero y matriz de varianza
Z
0
Q = eA( 3v) RQR0 eA ( 3v) gv= (21.13)
0

En esta sección usaremos el modelo de tendencia lineal local para ilustrar


los métodos descriptos. El componente de tendencia lineal local en tiempo
continuo es
µ ¶ µ ¶µ ¶ µ ¶
g(w) 0 1 (w) g(w)
= gw + > (21.14)
g(w) 0 0 (w) g(w)

donde los procesos en tiempo continuo (w) y (w) tienen incrementos mutua-
mente y serialmente no correlacionados, y varianzas 2 y  2 respectivamente.

21.3.2 Variables de stock


La forma discreta de espacio de estado para variables de stock generadas por
un proceso en tiempo continuo consiste en la ecuación de transición (21.12)
junto con la ecuación de medida (21.8). El filtro y suavizador de Kalman
puede ser aplicado en la forma estándar. Cuando las observaciones están
equiespaciadas el modelo implicado en tiempo discreto es invariante en el
tiempo y  es tomada como igual a uno. De cualquier manera, una de las
grandes ventajas del enfoque en tiempo continuo es la facilidad de manejo de
las series irregularmente espaciadas, por lo tanto consideramos un  general.
Una vez que el modelo ha sido estimado puede ser usado para interpolar en
cualquier punto del tiempo. Esto se hace mediante suavizado usando el
mismo enfoque que fue usado para estimar los valores faltantes.
Los componentes en tiempo continuo pueden ser combinados para pro-
ducir modelos estructurales. Como en el caso discreto, usualmente se supone
que los componentes son mutuamente no correlacionados por lo que pueden
ser evaluados en forma separada. Consideremos el componente de tendencia
lineal local dado en (21.14). Para un modelo de tendencia lineal local en
21.3. TIEMPO CONTINUO Y ESPACIADO IRREGULAR 335

tiempo continuo, T = eA está dado por


½µ ¶ ¾ µ ¶ µ ¶
0 1 0  1 
T = exp   I + = (21.15)
0 0 0 0 0 1

Entonces, la representación en tiempo discreto de (21.14) es


µ ¶ µ ¶µ ¶ µ ¶
 1   31 
= + = (21.16)
 0 1   31 

La estructura simple de la matriz exponencial del integrando de (21.13)


junto con (21.15) nos permite evaluar explícitamente la matriz de varianzas
de los errores en tiempo discreto, produciendo
µ ¶ µ 2 ¶
  2 +  2 3  2 2
Y =  = (21.17)
  2 2  2

Cuando  = 1, el modelo dado en (21.16) se reduce al de tendencia local


lineal en tiempo discreto dado en (18.8). De cualquier manera, la ecuación
(21.17) muestra que la falta de correlación de los errores en tiempo continuo
implica que los correspondientes errores en tiempo discreto son correlaciona-
dos.

21.3.3 Variables de flujo


Variables de flujo observadas están definidas en (21.9). Para desarrollar un
modelos de espacio de estado en tiempo continuo para variables de flujo, es
útil introducir una variable acumuladora (o integradora) en tiempo continuo,
wZ +c
i
| (w + c) = |(u)gu> 0 ? c 6  = (21.18)
w

Entonces, | = | i (w ) para  = 1> = = = > q. Esta definición, junto con (21.9),
(21.11) y cierta cantidad de manipulación (Harvey y Stock, 1994), implica
que el acumulador en el momento w puede ser escrito como

| i (w ) = ZW( )(w 31 ) + Z i (w ) + %i (w )> (21.19)


336 CAPÍTULO 21. SERIES IRREGULARES II

donde

Zw
i
 (w ) = W(w  v)Rg(v)>
w 31
Zw
i
% (w ) = g%(v)>
w 31
Zu
W(u) = eAv gv=
0

Ahora hagamos  i   i (w ), %i  %i (w ) e |i  | i (w ). Recordando que


| i (w ) = | y combinando (21.12) con (21.19) resulta la forma de espacio de
estado aumentada
µ ¶ µ ¶µ ¶ µ ¶µ ¶ µ ¶
 eA 0  31 I 0  0
= + + >
|i ZW( ) 0 |i31 0 Z  i %i
µ ¶
¡ ¢ 
| = 0 1 > (21.20)
|i

con Y (%i ) =   2% y

µ ¶ Z µ 0 ¶
 eAu RQR0 eA u eAu RQR0 W(u)0
Y = 0 gu = Q+
 =
 i W(u)RQR0 eA u W(u)RQR0 W(u)0
0
(21.21)

Los estimadores por máxima verosimilitud de los hiperparámetros pueden


ser calculados usando la descomposición del error de predicción y aplicando
el filtro de Kalman a (21.20).
Regresando a nuestro ejemplo del modelo de tendencia lineal local, vemos
que

Zu µ ¶ µ u2

1 v u
W(u) = gv = 2 = (21.22)
0 1 0 u
0
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 337

Entonces, el elemento inferior derecho de la matriz (21.21), el cual es a su


vez una matriz, está dado por
Z Ã 3 5 4
!
 2 3 +  2 20  2 8
Y ( i ) = 0
W(u)RQR W(u) gu = 0
4 3 > (21.23)
 2 8  2 3
0

¡ ¢0
donde en este caso  i es el vector i  i de orden 2 × 1. Los bloques
fuera de la diagonal de (21.21) son derivados en forma similar, dando
Z
0
cov( i >  0 ) = W(u)RQR0 eA u gu
0
à 2 4 2
!
 2 2 +  2 8  2 6
= 3 2 = (21.24)
 2 3  2 2

El modelo de nivel local es un caso especial de esto, en donde Y ( i ) y


cov( i >  0 ) son escalares consistentes en los elementos superiores izquierdos
de (21.23) y (21.24) respectivamente.

21.4 No Gaussianidad y Robustez


En §20.3 hemos propuesto que una vez que un outlier ha sido detectado, se
lo puede manejar mediante la introducción de una variable dummy o me-
diante un incremento en la varianza del error de medición. En estos casos
el modelo permanece Gaussiano. Una estrategia alternativa es acomodar
cualquier outlier mediante el supuesto que el error de medición es generado
por una distribución de colas pesadas como la w de Student o una mezcla de
distribuciones Gaussianas. El modelo es, en estos casos, robusto en el senti-
do que las estimaciones de los componentes tendencia y estacionalidad, y las
predicciones de observaciones futuras, estarán relativamente poco afectadas
por observaciones que, en un modelo Gaussiano, serían clasificadas como
outliers. Consintiendo que los disturbios en la ecuación de estado sean gen-
erados por una distribución de colas pesadas, se puede hacer que el modelo
sea robusto a cambios estructurales. La desventaja de este enfoque es que el
modelo no puede ser trabajado solamente mediante el uso de las técnicas de
filtrado y suavizado lineal de Kalman.
338 CAPÍTULO 21. SERIES IRREGULARES II

Falta de Gaussianidad puede suceder como una consecuencia directa de


la naturaleza de las observaciones. Así, para datos de conteo consistentes en
enteros no negativos, una aproximación Gaussiana es irrazonable cuando los
números son pequeños, y una distribución de Poisson o binomial negativa es
más apropiada. Con observaciones cualitativas, las cuales en el caso binario
son codificadas como ceros o unos, una distribución Bernoulli debe ser usada.
Los modelos de regresión pueden fácilmente ser extendidos de tal manera que
permitan tener observaciones no Gaussianas. Para datos provenientes de una
familia exponencial esto nos conduce a la clase de modelos lineales generaliza-
dos (GLIM); ver McCullagh y Nelder (1989). Dentro del esquema GLIM, la
media se supone que depende de una combinación lineal de variables explica-
tivas la que determina la media de la distribución vía una función conectora.
Un modelo determinístico de series de tiempo puede ser construido como un
caso específico permitiendo que las variables explicativas sean funciones del
tiempo. De cualquier manera, por las razones expuestas anteriormente, esto
puede no ser satisfactorio. Las funciones del tiempo pueden, en consecuencia,
ser coeficientes estocásticos dados como en el modelo estructural básico de
series de tiempo presentado en (18.8).
Más allá de las razones para la no Gaussianidad, podemos considerar un
esquema general en el cual las observaciones satisfacen

s(yw | 1 > = = = > w > Yw31 ) = s(yw | w ) = s(yw | w )> (21.25)

donde w = Zw es llamada la señal. Los vectores de estado están determi-


nados independientemente por

w = Tw w31 + Rw  w >  w  s( w )> w = 1> = = = > q> (21.26)

donde los n elementos del vector de disturbios  w son serialmente y mutua-


mente independientes. Una o ambas densidades s(yw | w ) y s( w ) pueden ser
no Gaussianas. La matriz de selección Rw usualmente contiene n columnas
de alguna matriz diagonal de orden p × p, donde p es la dimensión del
vector de estado.
Un filtro para un modelo de la forma (21.25) y (21.26) puede ser constru-
ido mediante integración numérica; ver Kitagawa (1987), Harvey (1989, sec-
ción 3.7) y Frühwirth-Schnatter (1994). De cualquier manera, este enfoque
típicamente implica aproximaciones para las cuales la precisión no puede
ser medida o es solamente posible su uso para modelos de baja dimensión.
Recientemente, la literatura se ha enfocado en el análisis Bayesiano de los
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 339

modelos de series de tiempo usando los métodos de simulaciones conocidos


como “Markov Chain Monte Carlo” (MCMC), tales como el muestreo de
Gibbs y el algoritmo Metropolis-Hastings. Estos métodos han sido usados
por los estadísticos para una gran variedad de propósitos; ver Gilks, Richard-
son y Spiegelhalter (1996) para una extensiva revisión de ellos. Importantes
contribuciones a la literatura de series de tiempo incluyen a Carlin, Polson y
Stoer (1992), Shephard (1994), Carter y Kohn (1994, 1996) y Shephard y
Pitt (1997).
Métodos basados en modelos de inferencia clásica, calculando estimadores
puntuales y los errores cuadráticos medios asociados, han sido recientemente
desarrollados para modelos de espacio de estado por Shephard y Pitt (1997),
Durbin y Koopman (1997, 2000 y 2001) y Abril (1999, Capítulos 4 y 5;
2001a y 2002) usando técnicas de simulaciones de Monte Carlos tales como
“importance sampling”, variables “antithetic” y variables de control. Durbin
y Koopman (2000) y Abril (1999, Capítulos 4 y 5; 2001a y 2002) presentan
métodos exactos para calcular el estimador de modo posterior (“posterior
mode estimator”) del vector de estado usando iterativamente el filtrado y
suavizado de Kalman en lugar de simular. Ellos desarrollan una técnica de
simulación para estimar la media posterior y su error medio cuadrático. Las
muestras de Monte Carlo están basadas en la solución de modo posterior y
son generadas por el suavizador de simulación de de Jong y Shephard (1995).
Los métodos cuentan con fórmulas elegantes, la computación es eficiente y
un número relativamente pequeño de muestras deben simularse. Shephard y
Pitt (1997) y Durbin y Koopman (1997) discuten la estimación de parámetros
por máxima verosimilitud basada en técnicas similares de simulación.
El método de estimación desarrollado por Abril (2001a) para la estimación
de modo posterior se basa en un mecanismo que ha sido considerado para el
suavizado curvilíneo en §18.6. Sea  el vector apilado (01 > = = = > 0q )0 y sea
s( | Yq ) la densidad condicional de  dado Yq , el estimador de modo pos-
terior (EMP) de  se define como el valor  b de  que maximiza s( | Yq ).
Cuando el modelo es lineal y Gaussiano,  b = H( | Yq ); éste es el esti-
mador de  con el que hemos estado trabajando en el Capítulo 19. Cuando
las observaciones no son Gaussianas, en cambio, H( | Yq ) es generalmente
difícil o imposible de computar y usar el modo en su lugar es una alternativa
natural. Aun más, se puede argumentar que en el caso no Gaussiano el EMP
es preferible a H( | Yq ), puesto que es el valor más probable de  dado
los datos. En ese aspecto puede ser pensado como análogo al estimador por
máxima verosimilitud de un vector paramétrico fijo; ver, por ejemplo, Whit-
340 CAPÍTULO 21. SERIES IRREGULARES II

tle (1991) y la discusión subsecuente. El w-ésimo vector de  b se denomina el


valor suavizado de w y se lo denota como  b w.
Sea Aw el vector apilado (01 > = = = > 0w )0 , w = 1> = = = > q, entonces 
b es el
EMP de Aq y para el filtrado, el EMP de Aw dado Yw31 es el valor de Aw
que maximiza la densidad condicional s(Aw | Yw31 ), w = 1> = = = > q. El w-ésimo
subvector de éste se lo denota como aw .
En todos los casos que consideraremos, el EMP  b es la solución de las
ecuaciones
C log s( | Yq )
= 0> w = 1> = = = > q= (21.27)
Cw

No obstante y puesto que log s( | Yq ) = log s(> Yq )  log s(Yq ), es más
fácil de obtener el estimador a partir de la distribución conjunta como la
solución de las ecuaciones
C log s(> Yq )
= 0> w = 1> = = = > q= (21.28)
Cw
De forma similar, en el momento del filtrado el EMP de Aw dado Yw31 es la
solución de las ecuaciones
C log s(Aw > Yw31 )
= 0> v = 1> = = = > w= (21.29)
Cv
Dejamos de lado por el momento la cuestión de la iniciación.
En el caso no Gaussiano estas ecuaciones son no lineales y deben ser
resueltas mediante métodos iterativos. La idea que usaremos para obtener los
pasos adecuados de las iteraciones es la siguiente. Se escriben las ecuaciones
(21.28) para el análogo lineal y Gaussiano del modelo bajo consideración.
Puesto que para las densidades Gaussianas los modos son iguales a las medias,
la solución de las ecuaciones es H( | Yq ). Pero sabemos que ella está dada
por el suavizador y filtro de Kalman. Se sigue que en el caso lineal Gaussiano
las ecuaciones pueden ser resueltas por el suavizador y filtro de Kalman.
Ahora bien, retornando al caso no Gaussiano, sea  e un valor experimental
de , se construye una forma linealizada de (21.28) usando .e Esto puede ser
hecho expandiendo localmente la fórmula antes nombrada alrededor de  e o
mediante otros métodos que son ilustrados en Abril (2001a). Se manipula las
ecuaciones lineales resultantes hasta llegar a una forma que se parece a las
ecuaciones Gaussianas análogas y se resuelve usando el suavizador y filtro
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 341

de Kalman para obtener un valor mejorado de . Se repite y continúa el


proceso hasta que una adecuada convergencia ha sido lograda. Por supuesto,
esta iteración para la estimación del vector de estado debe ser combinada
con iteraciones paralelas para la estimación del vector de hiperparámetros.

21.4.1 Observaciones no Gaussianas


En esta subsección se describe como se aplica la metodología de Abril (2001a)
cuando los datos son intrínsecamente no Gaussianos, y se supone que provienen
de una familia exponencial. Entonces consideramos el modelo de la for-
ma (21.25) y (21.26) con s( w ) Gaussiano. West, Harrison y Migon (1985)
propusieron métodos aproximados para manejar tales modelos con un en-
foque Bayesiano, mientras que Fahrmeir (1992) sugirió un método basado
en el filtro de Kalman extendido. Smith (1979, 1981) y Harvey y Fernandez
(1989) dieron una solución exacta para modelos específicos de conteo usando
propiedades especiales de distribuciones conjugadas cuando solamente el niv-
el de una serie de tiempo es permitido que cambie en el tiempo; ver también
Grunwald, Guttorp y Raftery (1993). Ahora bien, éste último enfoque no
está basado en el modelo (21.25) y (21.26) y no generaliza fácilmente.

Estimación de modo posterior


Observaciones de una serie de tiempo provenientes de una familia exponencial
general de distribuciones tienen densidad
s(yw | w ) = exp[ 0w yw  ew (w ) + fw (yw )]> (21.30)
donde w = Zw w , w = 1> = = = > q. Retenemos la misma ecuación de estado de
transición que en el caso Gaussiano dado en (18.1), esto es
w = Tw w31 + Rw  w >  w  Q(0> Qw )> w = 1> = = = q= (21.31)
Este modelo cubre importantes aplicaciones de series de tiempo que ocurren
en la práctica, incluyendo datos de series de tiempo distribuidos como bino-
mial, Poisson, multinomial y exponencial. En (21.30), ew y fw se suponen que
son funciones conocidas, e yw es un vector de observaciones de orden s × 1, el
que puede ser continuo o discreto. Los supuestos con respecto a (21.31) son
los mismos que en el caso Gaussiano.
Si las observaciones yw en (21.30) hubieran sido independientes con w , ew
y fw constantes, entonces (21.30) hubiera sido un modelo lineal generalizado, el
342 CAPÍTULO 21. SERIES IRREGULARES II

tratamiento del cual puede verse en McCullagh y Nelder (1989). El modelo


(21.30) y (21.31) fue propuesto para tipos apropiados de datos de series
de tiempo no Gaussianas por West, Harrison y Migon (1985), quienes lo
llamaron el modelo lineal generalizado dinámico. Ellos dieron un tratamiento
aproximado basado en distribuciones a priori conjugadas. El tratamiento
presentado aquí difiere completamente del de ellos.
La razón principal para incluir Rw en (21.31) es que algunas ecuaciones
de (21.31) tienen término de error igual a cero. Esto ocurre, por ejemplo,
cuando algunos elementos del vector de estado son coeficientes de regresión
constantes en el tiempo. La función de Rw es entonces seleccionar aquellos
términos de error que no son cero. Esto se hace tomando las columnas de
Rw como un subconjunto de las columnas de la matriz identidad Ip . Por
simplicidad supongamos que esto es así. Entonces R0w Rw = Ij , donde j
es el número de términos de error distintos de cero. También, Rw Qw R0w y
Rw Q31 0
w Rw son inversas generalizadas de Moore-Penrose una de la otra (ver,
por ejemplo, §16.5 de Rao, 1973). Puesto que ningún elemento de  w necesita
ser degenerado, suponemos que Qw es positiva definida.
Por simplicidad, supongamos que 0 es fija y conocida, dejando de lado
las consideraciones de la cuestión de la iniciación, las que pueden verse en
Abril (1999 y 2001a). El logaritmo de la densidad de > Yq es entonces
q
1X
log s(> \q ) =  (w  Tw w31 )0 Rw Q31 0
w Rw (w  Tw w31 )
2 w=1
q
X
+ [0w Z0w yw  ew (Zw w ) + fw (yw )]=
w=1

Diferenciando con respecto a w e igualando a cero, obtenemos los EMP


b 1> = = = > 
 b q como solución de las ecuaciones
Rw Q31 0 31 0
w Rw (w  Tw w31 ) + Tw+1 Rw+1 Qw+1 Rw+1 (w+1  Tw+1 w )
+ Z0w [yw  bWw (Zw w )] = 0> (21.32)
para w = 1> = = = > q  1, donde para w = q el segundo término del primer miem-
bro está ausente. Aquí, bWw (x) denota el vector de orden s × 1 de gew (x)@gx
para cualquier vector x de orden s × 1.
Supongamos que  e w sea un valor experimental de w . Expandiendo
bWw (Zw w ) alrededor de  e w da
bWw (Zw w ) = bWw (Zw 
e w ) + bWW e w )Zw (w  
w (Zw  e w) (21.33)
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 343

hasta el primer orden, donde la matriz de orden s × s de segundas derivadas


bWW W 2 0
w (x) = gbw (x)@gx = g ew (x)@gx gx . Poniendo

ew = [bWW
y e w )]31 [yw  bWw (Zw 
w (Zw  e w )] + Zw 
ew

en el último término de (21.32) resulta

Z0w bWW e w )[e


w (Zw  yw  Zw w ]= (21.34)

Ahora las ecuaciones correspondientes a (21.32) para el modelo lineal


Gaussiano (18.1) son

Rw Q31 0 31 0
w Rw (w  Tw w31 ) + Tw+1 Rw+1 Qw+1 Rw+1 (w+1  Tw+1 w )
+ Z0w H31
w (yw  Zw w ) = 0= (21.35)

Comparando (21.34) con el último término de (21.35) vemos que la forma


linealizada de (21.32) tiene la misma forma que (21.35) si se reemplaza yw y
Hw por y ew y [bWW e w )]31 . Puesto que la solución de (21.35) está dada por el
w (Zw 
suavizador y filtro de Kalman se sigue que con estas sustituciones la solución
de la forma linealizada de (21.32) puede también ser obtenida mediante el
suavizador y filtro de Kalman. Por este medio obtenemos un valor mejorado
de  el cual es usado como nuevo valor experimental para obtener un nuevo
valor mejorado, y así hasta que se alcanza una adecuada convergencia. El
valor al que converge  ew = Zw e w es el modo posterior de w y se lo denota
b
como w .
La iniciación del filtro de Kalman puede realizarse mediante alguna de la
técnicas consideradas en §19.4.

Estimación de los hiperparámetros


La función de verosimilitud para modelos Gaussianos de espacio de estado
puede ser obtenida mediante la descomposición del error de predicción; ver
§19.6. Shephard y Pitt (1997), Durbin y Koopman (1997) y Abril (2001a)
proponen métodos que permiten calcular la función de verosimilitud para
el modelo no Gaussiano (21.25) y (21.26) con cualquier grado de precisión
usando simulaciones de Monte Carlo. Las muestras son generadas con el
suavizador de simulaciones de de Jong y Shephard (1995) basadas en el mod-
elo Gaussiano aproximado que produce las estimaciones de modo posterior.
344 CAPÍTULO 21. SERIES IRREGULARES II

Durbin y Koopman (1977) y Abril (2001a) muestran que la función de


verosimilitud de las observaciones generadas por el modelo no Gaussiano
(21.25) y (21.26) puede ser expresada mediante la relación
s(Yq | )
O(#) = OJ (#)z()> z() = > (21.36)
sJ (Yq | )
donde  = (1 > = = = >  q )0 , # es el vector de hiperparámetros, OJ (#) es la
función de verosimilitud del modelo Gaussiano aproximado, s(Yq | ) es
la densidad no Gaussiana de la ecuación de medida (21.25) y es la llamada
densidad de “importance”. Shephard y Pitt (1997) y Abril (2001a) proponen
usar la densidad del siguiente modelo Gaussiano aproximado
ew =  w + e
y %w > e e w )>
%w  Q(0> H w = 1> = = = > q> (21.37)
e w son calculados usando (21.33) y 
ew y H
para el cual y ew =  bw , como la densi-
dad de “importance”. El suavizador de simulaciones de de Jong y Shephard
(1995) es usado para generar muestras de w a partir de la distribución de
“importance”. La l-ésima muestra generada por el suavizador de simula-
ciones se la denota como  (l) = (1(l) > = = = > q(l) )0 , l = 1> = = = > Q, donde Q es el
tamaño de las simulaciones. La evaluación de la función de verosimilitud es
basada en estas muestras simuladas y
b
O(#) = OJ z> (21.38)
PQ
donde z = l=1 zl > y zl = z( (l) ). Los cálculos en la computadora pueden
ser implementados de forma muy eficiente. Se pueden usar en este proced-
imiento una gran variedad de técnicas de reducción de la varianza. Durbin
y Koopman (1997) proponen una nueva y efectiva variable “antithetic” que
trabaja en conjunto con la variable “antithetic” estándar en simulación. Tam-
bién desarrollan una variable de control.
Es más conveniente trabajar con log O(#) en lugar de O(#) ya que los
valores de log O(#) son más manejables. Tomando log a (21.38) y corrigiendo
por sesgo nos da

b v2
log O(#) = log OJ + log z + > (21.39)
2Qz2
b P
y la varianza asintótica de log O(#) es v2 @(Qz2 ) donde v2 = Q 31 Q
l=1 (zl 
z)2 . La estimación por máxima verosimilitud de # está basada en la maxi-
mización de (21.39) usando procedimientos de optimización numérica. Durbin
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 345

y Koopman (1997) argumentan que solamente pequeños valores de N son


necesarios para la estimación de los parámetros; por ejemplo, ellos proponen
usar Q = 200 para la mayoría de los casos prácticos. Cuando el investi-
gador no desea usar métodos de simulación, Durbin y Koopman (1997) dan
una fórmula de aproximación para la función de verosimilitud basada en una
expansión de Taylor de quinto orden. La aproximación trabaja bien para
familias exponenciales de distribuciones. Una aproximación basada en la
expansión de Taylor de primer orden nos conduce a la fórmula

b
log O(#) b
 log OJ + log z> (21.40)

donde z b y
b = z() b = (
b1 > = = = > 
bq )0 . Maximizando una función de verosimil-
itud aproximada produce buenos valores iniciales sin simulación para #.
Durbin y Koopman (2000) también desarrollan métodos para la evalu-
ación de media posterior del vector de estado y del error medio cuadrático
asociado. Estos métodos están basados en técnicas similares de simulación
siendo computacionalmente eficientes y requiriendo muestras simuladas de
pocos cientos. De cualquier manera, el requerimiento de cómputos es sustan-
cialmente mayor que para el cálculo de modo posterior. Después de investigar
las diferencias entre el modo y la media para una gran cantidad de casos, ellos
concluyen que las diferencias son muy pequeñas; en algunos casos el modo y
la media son indistinguibles.
Durbin y Koopman (2000) ilustran la aplicación de lo presentado an-
teriormente usando datos mensuales de conductores de vehículos utilitarios
livianos muertos en accidentes de tráfico desde 1969 hasta 1984 en Gran Bre-
taña. Los datos consisten en valores enteros pequeños por lo tanto el uso
de la distribución de Poisson es justificado. La media de la distribución de
Poisson es modelada mediante el modelo estructural básico consistente en
un nivel local (18.7), dummy estacionales (18.9) y una intervención de tipo
escalón en Febrero de 1982 para medir el efecto de la legislación sobre cintur-
ones de seguridad introducida en el mes anterior. La desviación estándar  
es estimada como 0> 025 mientras que la desviación estándar $ es estimada
como cero. La estimación de la intervención es 0> 276, con error estándar
0> 13, implicando una reducción del 24> 1% en las fatalidades; ver por ejemplo
Harvey (1989, p. 421).
346 CAPÍTULO 21. SERIES IRREGULARES II

21.4.2 Robustez
Los modelos pueden ser hecho robustos permitiéndoles distribuciones con co-
las pesadas; ver Kitagawa (1990) y Bruce y Jurke (1996). Aquí mostramos
cómo la metodología de Durbin y Koopman (2000) y Abril (2002) considera
disturbios generados por la distribución w. La metodología en sí misma es
general: se aplica a cualquier distribución no Gaussiana incluyendo la Gam-
ma y las mezclas de distribuciones, y también a modelos no lineales de series
de tiempo.

“Outliers”
Consideremos el modelo lineal para una serie univariada
|w = w + %w > %w  s(%w )> w = 1> = = = > q> (21.41)
donde s(%w ) es una densidad no Gaussiana, w = Zw w y w es generado por
(21.26) con s( w ) Gaussiano. Aquí consideramos el caso en que la densidad
s(%w ) está basada en la distribución w de Student, por lo tanto
1  +1 ¡ ¢
log s(%w ) = constante + log d() + log nw  log 1 + nw %2w > (21.42)
2 2
donde
¡ ¢
K +1
d() = ¡2¢ > nw31 = (  2)jw >  A 2> w = 1> = = = > q= (21.43)
K 2
La media de %w es cero y la varianza es jw para cualquier valor  de los grados
de libertad, los cuales no necesitan ser enteros. Entonces el modo posterior
de %w se lo obtiene mediante aplicación repetido del suavizador y filtro de
Kalman a
|ew = w + e
%w > e e2w )>
%w  Q(0>  w = 1> = = = > q> (21.44)
con |ew = |w y
1 2  2
e2w =
 e
% + jw > (21.45)
 +1 w +1
donde e %w es un valor inicial de prueba del modo posterior de %w . El proced-
imiento opera en la misma forma que para los modelos de familias exponen-
ciales. Valores iniciales para e%w pueden obtenerse del análisis Gaussiano del
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 347

modelo (21.44) con  e2w = jw . La convergencia al modo posterior b %w usual-


mente sucede después de diez iteraciones. El modo posterior de se lo obtiene
simplemente como b w = |w  b%w .
La estimación por máxima verosimilitud de los hiperparámetros, incluyen-
do los grados de libertad , se la realiza exactamente igual que para el caso de
las familias exponenciales. Las muestras simuladas son generadas del modelo
Gaussiano (21.44) con |ew = |w y  e2w dada por (21.45) donde e
%w es reemplazado
por la estimación de modo posterior b %w .
Durbin y Koopman (2000) consideran el logaritmo de la demanda trimes-
tral de gas en Gran Bretaña para el período 1961-1986 para ilustrar cómo
la metodología puede conducir a un efectivo método robusto de ajuste esta-
cional. El desempeño del modelo estructural básico con una distribución w
para los irregulares es comparado con el desempeño del mismo modelo pero
con irregulares Gaussianos. Ellos concluyen que el modelo w captura los out-
liers mejor que el modelo Gaussiano, concluyendo que el modelo w es robusto
para la estimación del componente estacional mientras que el Gaussiano no
lo es.

Cambios estructurales
La metodología de Durbin y Koopman (2000) y Abril (2001a) también es
aplicable a modelos con cambios estructurales en la tendencia. Consideremos
un modelo estructural básico (18.1) para el cual los disturbios  w del nivel local
(18.7) o de la tendencia lineal local (18.8) son generados por una distribución w
con  grados de libertad y varianza kw , w = 1> = = = > q. La teoría general necesita
ser modificada puesto que el error de estado es el que es no Gaussiano en lugar
de serlo el error de observación. De cualquier manera, el método de cálculo
de modo posterior de  w es sorpresivamente similar al método desarrollado
en la sub-subsección anterior, pero con %w reemplazado por w . El modelo
Gaussiano aproximado es el modelo estructural básico con  w  Q(0>  e2w ),
donde
1 2  2
e2w =
 e
 + kw > (21.46)
+1 w +1
yew es un valor inicial de prueba de modo posterior de  w . Repitiendo el
suavizador y filtro de Kalman para el modelo Gaussiano, el que produce
nuevos valores de prueba para e  w , conduce a la convergencia hacia el modo
posterior b
w . El modo posterior para la tendencia w se lo obtiene mediante
348 CAPÍTULO 21. SERIES IRREGULARES II

 bw31 + b
bw =  b0 , junto con los detalles de la estimación por
w ; la iniciación 
máxima verosimilitud están dados en Durbin y Koopman (2000).

21.5 Conclusión
Este Capítulo y el anterior han cubierto un amplio rango de irregularidades
en los datos y han mostrado que todos los problemas estadísticos asocia-
dos pueden ser tratados mediante el uso del enfoque de espacio de estado.
Las series de tiempo estructurales tienen intuitivamente una atractiva repre-
sentación de espacio de estado y el filtro y el suavizador de Kalman producen
cantidades que tienen interpretaciones prácticas. Esto da a los modelos es-
tructurales una clara ventaja sobre los modelos ARIMA cuando los datos
son desordenados o irregulares. Aún más, la especificación de un modelos
estructural adecuado no depende de estimaciones tales como el correlograma
muestral, lo que está sujeto a distorsión ante la presencia de irregularidades
en los datos. Una buena discusión sobre las ventajas del enfoque de espacio
de estado sobre el ARIMA o de Box y Jenkins para el análisis de las series
de tiempo puede verse en Abril (2001b).
Los modelos estructurales pueden ser extendidos para tratar estructuras
complicadas que varían en el tiempo. Investigaciones recientes han mostrado
también que la estimación de los modelos estructurales con disturbios no
Gaussianos es posible usando métodos modernos de simulación. Esto tiene
importantes implicancias para el ajuste de modelos puesto que son robustos
con respecto a los outliers y a los cambios estructurales. La conclusión general
es que los modelos estructurales de series de tiempo proveen un unificado y
práctico esquema para el tratamiento de las series de tiempo irregulares.
Capítulo 22
Ejercicios de la Cuarta Parte

En este Capítulo presentamos un conjunto de ejercicios que corresponden a


los temas tratados en la cuarta parte de este libro, con algunos agregados
que se relacionan con los temas de la primera, segunda y tercera parte. Se
ha decidido ponerlos a todos juntos por las mismas razones dadas en los
Capítulos 7, 13 y 17.

22.1 Ejercicios
1. Considere el modelo con tendencia amortiguada
|w = w + %w > %w  Q(0> 2% )>
w = w31 +  w31 +  w > w  Q(0> 2 )>
 w = * w31 +  w >  w  Q(0> 2 )> |*| ? 1=

donde %w , w y  w son procesos ortogonales mutuamente independientes,


para w = 1> = = = > q.

(a) Ponga el modelo en la forma de espacio de estado.


(b) Explique brevemente cómo evaluaría la verosimilitud exacta para
un dado conjunto de parámetros.
(c) Obtenga una expresión para el predictor óptimo de |q+c en térmi-
eq .
eq y 
nos de las estimaciones finales 

2. Considere un modelo trimestral compuesto de una tendencia de tipo


camino aleatorio y de una estacionalidad que cambia suavemente, de

349
350 CAPÍTULO 22. EJERCICIOS DE LA CUARTA PARTE

la forma

|w = w +  w >
w = w31 + w >
 w =  w31   w32   w33 + $ w >

donde w y $ w son mutuamente y serialmente independientes, normales,


con medias 0 y varianzas 2 y  2$ respectivamente.

(a) Derive la función de autocorrelación del modelo después de realizar


una transformación apropiada para lograr estacionariedad.
(b) ¿Qué clase de modelo ARIMA es la forma reducida? (No nece-
sita calcular valores de los parámetros).
(c) Encuentre el predictor óptimo de |w un año adelante y determine
su error medio cuadrático.
(d) Ponga al modelo en la forma de espacio de estado.

3. Considere el modelo ARIMA (0> 1> 1)

{|w =  w +  w31 > w = 2> = = = > q> (22.1)

donde la variables aleatorias  w ’s son independientes Q(0>  2 ), y el mod-


elo de camino aleatorio más ruido

|w = w + %w > %w  Q(0>  2% )>


(22.2)
w = w31 + w > w  Q(0> t 2% )>

donde las %w ’s y las w ’s son serialmente y mutuamente independientes.


Mediante la determinación de la función de autocovarianzas teórica de
la forma diferenciada, muestre que

(t 2 + 4t)1@2  2  t
= =
2
Si el modelo (22.2) es reformado de tal manera que la covarianza entre
los dos errores es * en lugar de cero, muestre que la autocorrelación de
primer orden puede ser positiva.
22.1. EJERCICIOS 351

4. Considere el modelo con tendencia amortiguada

|w = w + %w > %w  Q(0> 2% )>


w = w31 +  w31 +  w > w  Q(0> 2 )>
 w = * w31 +  w >  w  Q(0> 2 )> |*| ? 1=

donde %w , w y  w son procesos ortogonales mutuamente independientes,


para w = 1> = = = > q.

(a) Encuentre la función de autocorrelación de la forma estacionaria


del modelo.
(b) Determine los valores de s> g y t en la correspondiente forma re-
ducida de un modelo ARIMA(s> g> t).

5. Considere el camino aleatorio |w con valor inicial |0 fijo.

(a) Encuentre expresiones para la media y la varianza de |w . ¿Es el


proceso estacionario?
(b) Encuentre la función de predicción y el error cuadrático medio
asociado del predictor c pasos adelante. Construya un intervalo
de confianza de la predicción del 95%.
(c) Si el modelo contiene un desplazamiento , muestre que ese de-
splazamiento puede ser estimado a partir de la primera y la última
observaciones solamente.

6. Considere el modelo de camino aleatorio más ruido


|w = w + %w > %w  Q(0>  2% )>
(22.3)
w = w31 +  w >  w  Q(0> t 2% )>

donde las %w ’s y las w ’s son serialmente y mutuamente independientes.


Supóngase que el filtro de Kalman para (22.3) es iniciado con d0 = 0 y
S0 = . Muestre que cuando  $ 4, esto es equivalente a iniciarlo en
w = 1 con d1 = |1 y S1 =  2% .

7. Sea |w , w = 1> = = = > q, una serie de observaciones del logaritmo del niv-
el de precios en el mes w. Un analista financiero ajustó un modelo
ARIMA(0> 2> 1) a esos datos y estimó al parámetro de promedio móvil
como 0> 5 y a la varianza del error como 0> 4.
352 CAPÍTULO 22. EJERCICIOS DE LA CUARTA PARTE

(a) Calcule estimaciones de los parámetros 2% y t en el modelo de


nivel local aplicado a la tasa de inflación uw (= {|w )

uw = w + %w > %w  Q(0> 2% )>


w = w31 +  w >  w  Q(0> t2% )>

donde las %w ’s y las w ’s son serialmente y mutuamente independi-


entes.
(b) ¿Cómo calcularía y estimaría la tasa de inflación corriente suby-
acente, w ? Escriba una expresión para el error medio cuadrático
de ese estimador en términos de las cantidades generadas por el
filtro. Consecuentemente, determine el error medio cuadrático del
predictor óptimo de la tasa de inflación un año adelante.

8. El correlograma para una serie trimestral muy larga luego de tomar


primeras diferencias y diferencias estacionales es

 1 2 3 4 5 6
u( ) 0> 4 0 0> 2 0> 5 0> 2 0

Igualando autocorrelaciones teóricas y muestrales, estime los parámet-


ros en el modelo estacional ARIMA(0> 1> 1)×(0> 1> 1)v (o sea, un modelo
de aerolínea). Comente las características del modelo ajustado.
Escriba un modelo estructural de series de tiempo que sea equivalente al
modelo de aerolínea. Estime la varianza de los errores en el componente
tendencia relativa a la varianza del término irregular.
Bibliografía

[1] Abril, Juan Carlos (1985), Asymptotic expansions for time series
problems with applications to moving average models, Ph. D. Thesis,
The London School of Economics and Political Science, University of
London, England.

[2] Abril, Juan Carlos (1987), The approximate densities of some


quadratic forms of stationary random variables, J. Time Series Anal.,
8, 249-59.

[3] Abril, Juan Carlos (1997), Series de tiempo irregulares: un enfoque


unificado, Conferencia invitada pronunciada durante el XXV Coloquio
Argentino de Estadística. Sociedad Argentina de Estadística, Noviem-
bre de 1997.

[4] Abril, Juan Carlos (1999), Análisis de Series de Tiempo Basado


en Modelos de Espacio de Estado, EUDEBA: Buenos Aires.

[5] Abril, Juan Carlos (2000), James Durbin. Más allá de los tests de
correlación serial. Reporte técnico, Facultad de Ciencias Económicas
de la Universidad Nacional de Tucumán, Argentina.

[6] Abril, Juan Carlos (2001a), On time series of observations from


exponential family distributions, Pakistan Journal of Statistical, 17(3),
235-48.

[7] Abril, Juan Carlos (2001b), El enfoque de espacio de estado para


el análisis de las series de tiempo - Comparaciones, A publicarse en la
Revista de la Sociedad Argentina de Estadística.

353
354 BIBLIOGRAFÍA

[8] Abril, Juan Carlos (2002), Outliers, structural shifts and heavy-
tailed distributions in state space time series models, Pakistan Journal
of Statistical, 18(1), 25-43.
[9] Abril, J. C. y M. B. Blanco (2002), Stylized Facts of the Gross
National Product of Argentina: 1875 - 1999, Anales de la XXXVII
Reunión Anual de la Asociación Argentina de Economía Política.
[10] Abril, J. C., H. D. Ferullo y A. Gainza Córdoba (1998), Es-
timación de la relación de Okun: Argentina 1980-1996, Anales de la
XXXIII Reunión Anual de la Asociación Argentina de Economía Políti-
ca.
[11] Abril, J. C., H. D. Ferullo y A. Gainza Córdoba (1999), Ten-
dencias estocásticas en modelos de regresión dinámica: una aplicación
a la relación desempleo-crecimiento en la Argentina, Revista de la So-
ciedad Argentina de Estadística, 3, 9-35.
[12] Abril, J. C. y K. Maekawa (1991a), Approximate null distributions
of the Durbin-Watson test statistic for non-linear regression model,
Hiroshima Economic Review, 15, Nr 2, 149 a 168.
[13] Abril, J. C. y K. Maekawa (1991b), Durbin-Watson test in non-
linear regression models, Cuaderno Nr 57 (1991) del Instituto de Inves-
tigaciones Estadísticas, Facultad de Ciencias Económicas de la Univer-
sidad Nacional de Tucumán, Argentina.
[14] Abril, J. C. y K. Maekawa (1992), Distribuciones aproximadas
del estadístico de Durbin-Watson para modelos de regresión no-lineal,
Comunicaciones 1992 de la Sociedad Argentina de Estadística.
[15] Abril, J. C. y K. Maekawa (1997), Approximate distribution of
Durbin-Watson test statistic in non-linear regression models, Revista
de la Sociedad Argentina de Estadística, 1, 9-26.
[16] Abril, J. C. y K. Maekawa (1999), The use of the Durbin-Watson
test in non-linear regression models, Pakistan J. Statistics, 15, 41 a 46.
[17] Abril, J. C. y M. R. Santillán (1998), Approximation to the finite
sample distribution of a general estimator of the coe!cient in a AR(1)
model, Pakistan J. Statist., 14, 11-23.
BIBLIOGRAFÍA 355

[18] Akaike, H. (1969a), Fitting autoregressive models for prediction,


Ann. Institute of Statistical Mathematics, Tokyo, 21, 243-7.

[19] Akaike, H. (1969b), Power spectrum estimation through autoregres-


sive model fitting, Ann. Institute of Statistical Mathematics, Tokyo,
21, 407-19.

[20] Akaike, H. (1973), Information theory and an extension of the max-


imum likelihood principle, en 2nd International Symposium on Infor-
mation Theory (B. N. Petrov y F. Csaki, Eds.), Akademiai Kiado,
Budapest, 267-81.

[21] Akaike, H. (1974a), Markovian representation of stochastic processes


and its applications to the analysis of autoregressive moving average
processes, Ann. Inst. Statist. Math., 26, 363-87.

[22] Akaike, H. (1974b). A new look at the statistical model identification.


IEEE Trans. Automatic Control, AC-19, 716-22.

[23] Akaike, H. (1978), Time series analysis and control through para-
metric models, en Applied Time Series Analysis (D. F. Hendry, Ed.),
Academic Press: New York.

[24] Alspach, D. L. y H. W. Sorenson (1972), Nonlinear Bayesian es-


timation using Gaussian sum approximations, IEEE Trans. Automatic
Control, AC-17, 439-48.

[25] Amemiya, T. y W. A. Fuller (1967), A comparative study of alter-


native estimators of a distributed lag model, Econometrica, 35, 509-29.

[26] Anderson, B. D. O. y J. B. Moore (1979), Optimal Filtering,


Prentice-Hall: Englewood Clis, New Jersey.

[27] Anderson, R. L. (1942), Distribution of the serial correlation coe!-


cient, Ann. Math. Statist., 13, 1-13.

[28] Anderson, T. W. (1948), On the theory of testing serial correlation,


Skand. Aktuarietidskr., 31, 88-116.

[29] Anderson, T. W. (1971), The Statistical Analysis of Time Series,


Wiley: New York.
356 BIBLIOGRAFÍA

[30] Anderson, T. W. (1984), An Introduction to Multivariate Statistical


Analysis, Wiley: New York.

[31] Ansley, C. F. y R. Kohn (1985), Estimation, filtering and smooth-


ing in state space models with incompletely specified initial conditions,
Ann. Statist., 13, 1286-316.

[32] Ansley, C. F. y R. Kohn (1990), Filtering and smoothing in state


space models with partially diuse initial conditions, J. Time Series
Analysis, 11, 175-94.

[33] Balke, N. S. (1993), Detecting level shifts in time series, J. Business


and Economics Statist., 11, 81-92.

[34] Bartlet, M. S. (1946), On the theoretical specification and sampling


properties of autocorrelated time-series, Suppl. J. R. Statist. Soc., 8,
27-41, 85-97 (Corrigenda, 1948: 10, 200).

[35] Bartlet, M. S. (1950), Periodogram analysis and continuous spectra.


Biometrika, 37, 1-16.

[36] Bartlet, M. S. (1955), An Introduction to Stochastic Processes with


Special Reference to Methods and Applications, Cambridge University
Press: London.

[37] Bell, W. y S. Hillmer (1983), Modelling time series with calendar


variation, J. Amer. Statist. Ass., 78, 526-34.

[38] Bergstrom, A. R. (1983), Gaussian estimation of structural param-


eters in higher-order continuous time dynamic models, Econometrica,
51, 117-52.

[39] Blackman, R. B. y J. W. Tukey (1959), The Measurement of Pow-


er Spectra from the Point of View of Communications Engineering,
Dover Publications, Inc.: New York (printed originally in 1958, Bell
System Tech. J., 37, 185-282, 485-569).

[40] Box, G. E. P. y D. R. Cox (1964), An analysis of transformations,


J. R. Statist. Soc., B, 26, 211-25.Box, G. E. P. y G. M. Jenkins
(1970), Time Series Analysis: Forecasting and Control, Holden-Day,
Inc: San Francisco.
BIBLIOGRAFÍA 357

[41] Box, G. E. P. y G. M. Jenkins (1976), Time Series Analysis: Fore-


casting and Control (Revised edition), Holden-Day, Inc: San Francisco.
[42] Box, G. E. P., G. M. Jenkins y G. C. Reinsel (1994), Time Series
Analysis: Forecasting and Control, 3rd. edition, Holden-Day, Inc: San
Francisco.
[43] Box, G. E. P. y D. A. Pierce (1970), Distribution of residual au-
tocorrelations in autoregressive-integrated moving average time series
models, J. Amer. Statist. Assoc., 65, 1509-26.
[44] Box, G. E. P. y G. C. Tiao (1975), Intervention analysis with ap-
plications to economic and enviromental problems, J. Amer. Statist.
Assoc., 70, 70-9.
[45] Brockwell, P. J. y R. A. Davis (1991), Time Series: Theory and
Methods, second edition, Springer-Verlag: New York.
[46] Brockwell, P. J. y R. A. Davis (2000), ITSM 2000: Interac-
tive Time Series Modelling Package for the PC, version 6.0, Springer-
Verlag: New York.
[47] Brubacher, S. R. y G. Tunnicliffe Wilson (1976), Interpolat-
ing time series with application to the estimation of holiday eects on
electricity demand, Applied Statist., 25, 107-16.
[48] Bruce, A. G. y S. R. Jurke (1996), Non-Gaussian seasonal adjust-
ment: X-12 ARIMA versus robust structural models, J. Forecasting,
15, 305-28.
[49] Bruce, A. G. y R. D. Martin (1989), Leave-k-out diagnostics for
time series, J. R. Statist. Soc., B, 51, 363-424.
[50] Bunn, D. y E. D. Farmer (1985), Comparative Methods for Electrical
Load Forecasting, Wiley: New York.
[51] Burg, J. P. (1967), Maximum entropy spectral analysis. Trabajo pre-
sentado en el 37th Annual International SEG Meeting, Oklahoma City,
OK.
[52] Burg, J. P. (1972), The relationship between maximum entropy spec-
tra and maximum likelihood spectra, Geophysics, 37, 375-6.
358 BIBLIOGRAFÍA

[53] Capon, J. (1969), High resolution frequency-wave number spectral


analysis, Proc. IEEE., 57, 1408-18.

[54] Carlstein, E. (1988), Non-parametric change point estimation,


Biometrika, 75, 188-97.

[55] Carlin, B. P., N. G. Polson, y D. S. Stoffer (1992), A Monte


Carlo approach to non-normal and non-linear state-space modelling, J.
Amer. Statist. Ass., 87, 493-500.

[56] Carter, C. K. y R. Kohn (1994), On Gibbs sampling for state space


models, Biometrika, 81, 541-53.

[57] Carter, C. K. y R. Kohn (1996), Markov Chain Monte Carlo in


conditionally Gaussian state space models, Biometrika, 83, 589-601.

[58] Chang, I., G. C. Tiao y C. Chen (1988), Estimation of time series


parameters in presence of outliers, Technometrics, 30, 193-204.

[59] Cobb, G. W. (1978), The problem of the Nile: conditional solution to


a change point problem, Biometrika, 65, 243-51.

[60] Cooley, J. W. y J. W. Tukey (1965), An algorithm for the machine


calculation of complex Fourier series, Math. Comp., 19, 297-301.

[61] Cramér, H. (1946), Mathematical Methods of Statistics, Princeton


Univ. Press.

[62] Daniell, P. J. (1946), Discussion on “Symposium on autocorrelation


in time series”. Suppl. J. R. Statist. Soc., 8, 88-90.

[63] Daniels, H. E. (1956), The approximate distribution of serial corre-


lation coe!cients, Biometrika, 43, 169-85.

[64] de Jong, P. (1988), A cross-validation filter for time series models,


Biometrika, 75, 594-600.

[65] de Jong, P. (1989), Smoothing and interpolation with the state-space


model, J. Amer. Statist. Assoc., 84, 1085-88.

[66] de Jong, P. (1991), The diuse Kalman filter, Ann. Statist., 19, 1073-
83.
BIBLIOGRAFÍA 359

[67] de Jong, P. y J. R. Penzer (1997), Diagnosing shocks online, Lon-


don School of Economics discussion paper.

[68] de Jong, P. y J. R. Penzer (1998), Diagnosing shocks in time series,


J. Amer. Statist. Ass., 93, 796-806.

[69] De Jong, P. y N. Shephard (1995), The simulation smoother for


time series models, Biometrika, 82, 339-50.
[70] Dixon, W. J. (1944), Further contributions to the problem of serial
correlation, Ann. Math. Statist., 15, 119-144.

[71] Duncan, D. B. y S. D. Horn (1972), Linear dynamic recursive es-


timation from the viewpoint of regression analysis, J. Amer. Statist.
Ass., 67, 815-21.
[72] Durbin, J. (1959), E!cient estimation of parameters in moving aver-
age models, Biometrika, 46, 306-16.

[73] Durbin, J. (1960a), Estimation of parameters in time series regression


models, J. R. Statist. Soc., B, 22, 139-53.

[74] Durbin, J. (1960b), The fitting of time series models, Rev. Inst. In-
ternat. Statist., 28, 233-44.
[75] Durbin, J. (1969), Tests for serial correlation in regression analysis
based on the periodogram of least-squares residuals, Biometrika, 56,
1-15.
[76] Durbin, J. (1970), An alternative to the bounds test for testing for
serial correlation in least-squares regression, Econometrica, 38, 422-9.
[77] Durbin, J. (1973), Distribution Theory for Tests Based on the Sample
Distribution Function, Society for Industrial and Applied Mathematics
(SIAM): New York.
[78] Durbin, J. (1980a), Approximations for densities of su!cient estima-
tors, Biometrika, 67, 311-33.
[79] Durbin, J. (1980b), The approximate distribution of partial serial cor-
relation coe!cients calculated from residuals from regression on Fourier
series, Biometrika, 67, 335-49.
360 BIBLIOGRAFÍA

[80] Durbin, J. (1982), More than twenty-five years of testing serial corre-
lation in least squares regression, en Current Developments in the In-
terface: Economics, Econometrics, Mathematics (M. Hazewinkel y A.
H. G. Rinnooy Kan, Eds.), Proceedings of the Conference to celebrate
Twenty-fifth anniversary of the Econometric Institute, Rotterdam, 59-
71.

[81] Durbin, J. y M. Cordero (1994), Handling structural shifts, outliers


and heavy-tailed distributions in state space time series models, London
School of Economics Statistics Research Report.

[82] Durbin, J. y S. J. Koopman (1994), Filtering, smoothing and es-


timation for time series when the observations come from exponential
family distributions, London School of Economics Statistics Research
Report.

[83] Durbin, J. y S. J. Koopman (1997), Monte Carlo maximum likeli-


hood estimation for non-Gaussian state space models, Biometrika, 84,
669-84.

[84] Durbin, J. y S. J. Koopman (2000), Time series analysis of non-


Gaussian observations based on state space models, J. R. Statist. Soc.,
B, 62, 3-56.

[85] Durbin, J. y S. J. Koopman (2001), Time Series Analysis by State


Space Methods, Oxford University Press: Oxford.

[86] Durbin, J. y G. S. Watson (1950), Testing for serial correlation in


least squares regression. I, Biometrika, 37, 409-28.

[87] Durbin, J. y G. S. Watson (1951), Testing for serial correlation in


least squares regression. II, Biometrika, 38, 159-78.

[88] Durbin, J. y G. S. Watson (1971), Testing for serial correlation in


least squares regression. III, Biometrika, 58, 1-19.

[89] Fahrmeir, L. (1992), Posterior mode estimation by extended Kalman


filtering for multivariate dynamic generalised linear models, J. Amer.
Statist. Ass., 87, 501-9.
BIBLIOGRAFÍA 361

[90] Fisher, R. A. (1929), Tests of significance in harmonic analysis, Proc.


Roy. Soc., A, 125, 54-9.

[91] Fox, A. J. (1972), Outlier in time series, J. R. Statist. Soc., B, 34,


350-63.

[92] Frühwirth-Schnatter, S. (1994), Applied state space modelling


of non-Gaussian time series using integration-based Kalman filtering,
Statist. and Computation, 4, 259-69.

[93] Gilks, W. K., S. Richardson, y D. J. Spiegelhalter (1996),


Marcov Chain Monte Carlo in Practice, Chapman and Hall: London.

[94] Gomez, V. y A. Maravall (1993), Initializing the Kalman filter


with incompletely specified initial conditions, en Approximate Kalman
Filtering (Series on Approximation and Decomposition) (G. R. Chen,
Ed.), World Scientific Publ. Co.: London.

[95] Granger, C. W. J. y A. P. Anderson (1978), An Introduction to


Bilinear Time Series Models, Vandenhoeck and Ruprecht: Göttingen.

[96] Grenander, U. y M. Rosemblatt (1957), Statistical Analysis of


Stationary Time Series, Wiley: New York.

[97] Grenander, U. y G. Szego (1958), Toeplitz Forms and Their Ap-


plications, University of California Press: Los Angeles.

[98] Grunwald, G. K., P. Guttorp, y A. E. Raftery (1993), Pre-


diction rules for exponential family state space models, J. R. Statist.
Soc., B, 45, 187-227.

[99] Guttman, I. y D. Peña (1988), Bayesian approach to robustifying


the Kalman Filter, en Bayesian Analysis of Time Series and Dynamic
Models (J. Spall, Ed.), Marcel Dekker: New York.

[100] Guttman, I. y D. Peña (1989), Optimal collapsing of mixture distri-


butions in robust estimation, Communications in Statist. (Theory and
Methods), 18, 817-34.
362 BIBLIOGRAFÍA

[101] Haggan, V. y T. Ozaki (1979), Amplitude-dependent AR model


fitting for non-linear random vibrations. Trabajo presentado en el In-
ternational Time Series Meeting, University of Nottingham, UK, March
1979.

[102] Hannan, E. J. (1960), Time Series Analysis, Chapman and Hall:


London.

[103] Hannan, E. J. (1970), Multiple Time Series, Wiley: New York.

[104] Harrison, P. J. y C. F. Stevens (1971), A Bayesian approach to


short-term forecasting, Operational Research Quarterly, 22, 341-62.

[105] Harrison, P. J. y C. F. Stevens (1976), Bayesian forecasting, J.


R. Statist. Soc., B, 38, 205-47.

[106] Hart, B. J. (1942), Significance levels for the ratio of the mean square
succesive dierence to the variance, Ann. Math. Statist., 13, 445-7.

[107] Hart, B. J. y J. von Neumann (1942), Tabulation of the probabili-


ties for the ratio of the mean square succesive dierence to the variance,
Ann. Math. Statist., 13, 207-14.

[108] Harvey, Andrew C. (1989), Forecasting, Structural Time Series


Models and the Kalman Filter, Cambridge University Press: Cam-
bridge.

[109] Harvey, A. C. y J. Durbin (1986), The eects of seat belt legisla-


tion on British road casualties: a case study in structural time series
modelling (with discussion), J. R. Statist. Soc., A, 149, 187-227.

[110] Harvey, A. C. y C. Fernandes (1989), Time series models for count


data or qualitative observations, J. Business Econ. Statist., 7, 407-22.

[111] Harvey, A. C. y A. Jaeger (1993), Detrending stylised facts and


the business cycle, J. App. Econometrics, 8, 231-47.

[112] Harvey, A. C. y S. J. Koopman (1992), Diagnostic checking of


unobserved component time series models, J. Business Econ. Statist.,
10, 377-89.
BIBLIOGRAFÍA 363

[113] Harvey, A. C. y S. J. Koopman (1993), Forecasting hourly elec-


tricity demand using time-varying splines, J. Amer. Statist. Ass., 88,
1228-36.

[114] Harvey, A. C., S. J. Koopman y M. Riani (1997), The modelling


and seasonal adjustment of weekly observations, J. Business Econ.
Statist., 15, 354-68.

[115] Harvey, A. C. y S. Peters (1984), Estimation procedures for struc-


tural time series models, LSE Econometrics Programme Discussion Pa-
per Nr A44.

[116] Harvey, A. C. y R. G. Pierse (1984), Estimating missing observa-


tions in economic time series, J. Amer. Statist. Ass., 79, 125-31.

[117] Harvey, A. C. y A. Scott (1994), Seasonality in dynamic regression


models, Economic Journal, 104, 1324-45.

[118] Harvey, A. C. y N. Shephard (1993), Structural time series models,


en Handbook of Statistics, Vol. 11: Econometrics (G. S. Maddala, C.
R. Rao y H. D. Vinod, Eds.), 261-302.

[119] Harvey, A. C. y J. H. Stock (1994), Estimation, smoothing, inter-


polation and distribution for structural time-series models in continu-
ous time, en Models, Methods and Applications of Econometrics (P. C.
Phillips, Ed.), 55-70, Basil Blackwell: London.

[120] Harvey, A. C. y M. Streibel (1998), Test for deterministic versus


indeterministic cycles, J. Time Series Analysis, 19, 505-29.

[121] Hurvich, C. M. y C. L. Tsai (1989), Regression and time series


model selection in small samples, Biometrika, 76, 297-307.

[122] Imhof, J. P. (1961), Computing the distribution of quadratic forms


in normal variables, Biometrika, 48, 419-26.

[123] Jenkins, G. M. (1954a), An angular transformation for the serial


correlation coe!cient, Biometrika, 41, 261-82.

[124] Jenkins, G. M. (1954b, 1956), Tests of hypotheses in the linear au-


toregressive model. I: Null hypothesis distributions in the Yule scheme,
364 BIBLIOGRAFÍA

II: Null distributions for higher order scheme; non-null distributions,


Biometrika, 41, 405-28; 43, 186-206.

[125] Johnston, J. y J. Dinardo (1997), Econometric Methods, 4th edi-


tion, McGaw-Hill: New York.

[126] Jones, R. H. (1975), Fitting autoregressions, J. Amer. Statist. Ass.,


70, 590-2.
[127] Jones, R. H. (1993), Longitudinal Data with Serial Correlation: A
State-Space Approach, Chapman and Hall: London.

[128] Kalman, R. E. (1960), A new approach to linear filtering and predic-


tion problems, Trans. ASME, J. Basic Eng., 83D, 35-45.

[129] Kalman, R. E. y Bucy, R. S. (1961), New results in linear filtering


and prediction problems, Trans. ASME, J. Basic Eng., 83D, 95-108.
[130] Kendall, M. G. (1957), The moments of the Leipnik distribution,
Biometrika, 44, 270-85.
[131] Kendall, M. G. y A. Stuart (1968), The Advanced Theory of
Statistics, vol. 3, 2nd edition, Charles Gri!n: London.
[132] King, M. L. y G. H. Hillier (1985), Locally best invariant tests of
the error covariance matrix in linear regression models, J. R. Statis.
Soc., B, 47, 98-102.

[133] Kitagawa, Genshiro (1987), Non-Gaussian state-space modelling of


non-stationary time series (with discussion), J. Amer. Statist. Ass., 82,
1032-63.
[134] Kitagawa, Genshiro (1994), The two-filter furmula for smooth-
ing and an implementation of the Gaussian-sum smoother, Ann. Inst.
Statist. Math., 46, 605-23.
[135] Knott, M. (1975), On the minimum e!ciency of least squares,
Biometrika, 62, 129-31.
[136] Kohn, R. y C. F. Ansley (1986), Estimation, prediction and inter-
polation for ARIMA models with missing data, J. Amer. Statist. Ass.,
81, 751-61.
BIBLIOGRAFÍA 365

[137] Kohn, R. y C. F. Ansley (1989), A fast algorithm for signal extrac-


tion, influence and cross-validation in state space models, Biometrika,
76, 65-79.

[138] Kohn, R. y C. F. Ansley (1993), Accuracy and e!ciency of alter-


native spline smoothing algorithms, J. Statist. Comp. and Simul., 46,
1-18.

[139] Kolmogorov, A. N. (1933), Grundbegrie der Wahrscheinlichkeit-


srechnung, Berlin (reimpreso en 1946 por Chelsea Publishing Co.: New
York).

[140] Kolmogorov, A. N. (1941), Interpolation und extrapolation von sta-


tionären Zufälligen Folgen, Bull. Acad. Sci. (Nauk), USSR, Ser. Math.,
5, 3-14.

[141] Koopman, S. J. (1993), Disturbance smoother for state space models,


Biometrika, 80, 117-26.

[142] Koopman, S. J. (1997), Exact initial Kalman filter and smoother for
non-stationary time series models, J. Amer. Statist. Assoc., 92, 1630-
38.

[143] Koopman, S. J., y F. Gordon (1997), Time series modelling and


forecasting of daily observation using STAMP, London School of Eco-
nomics Discussion Paper.

[144] Koopman, S. J., A. C. Harvey, J. A. Doornik y N. Shephard


(1995), STAMP 5.0: Structural Time Series Analyser, Modeller and
Predictor, Chapman and Hall: London.

[145] Koopman, S. J., A. C. Harvey, J. A. Doornik y N. Shephard


(2000), STAMP 6.0: Structural Time Series Analyser, Modeller and
Predictor, Timberlake Consultants: London.

[146] Koopman, S. J. y N. Shephard (1992), Exact score for time series


models in state space form, Biometrika, 79, 823-26.

[147] Koopman, S. J., N. Shephard y J. A. Doornik (1999), Statistical


algorithms for models in state space form using SsfPack 2.2, Economet-
rics Journal, 2, 113-66. http://www.ssfpack.com/.
366 BIBLIOGRAFÍA

[148] Lacoss, R. T. (1971), Data adaptive spectral analysis methods, Geo-


physics, 36, 661-75.

[149] LeFrançois, B. (1991), Detecting over-influential observations in


time series, Biometrika, 78, 91-99.

[150] Leipnik, R. B. (1947), Distribution of the serial correlation coe!cient


in a circularly correlated universe, Ann. Math. Statist., 18, 80-7.

[151] Ljung, G. M. y G. E. P. Box (1978), On a measure of lack of fit in


time series models, Biometrika, 65, 297-303.

[152] Lomniki, Z. A. (1961), Test for departure from normality in the case
of linear stochastic processes, Metrika, 4, 37-62.

[153] Mann, H. B. y A. Wald (1943a), On stochastic limit and order


relationships, Ann. Math. Statist., 14, 217-26.

[154] Mann, H. B. y A. Wald (1943b), On the statistical treatment of


linear stochastic dierence equations, Econometrica, 11, 173-220.

[155] Maravall, Agustín (1985), On structural time series models and the
characterization of components, J. Business Econ. Statist., 3, 350-5.

[156] McCullagh, P. y J. A. Nelder (1989), Generalized Linear Models


(Second Ed.), Chapman and Hall: London.

[157] Muth, J. F. (1960), Optimal properties of exponentially weighted


forecasts, J. Amer. Statist. Ass., 55, 299-305.

[158] Parzen, E. (1957), On consistent estimates of the spectrum of a sta-


tionary time series, Ann. Math. Statist., 28, 329-48.

[159] Parzen, E. (1961), Mathematical considerations in the estimation of


spectra, Technometrics, 3, 167-90.

[160] Parzen, E. (1974), Some recent advances in time series modelling,


IEEE Trans. Automatic Control, AC-19, 723-30.

[161] Pearlman, J. G. (1980), An algorithm for the exact likelihood of


a high-order autoregressive-moving average process, Biometrika, 67,
232-33.
BIBLIOGRAFÍA 367

[162] Pérez de del Negro, María Angélica. (2000). Modelos estruc-


turales de series de tiempo. Precipitaciones en San Miguel de Tucumán
(1884-1993). Trabajo presentado en el XXVIII Coloquio Argentino de
Estadística, Posadas, Misiones, Argentina, Agosto de 2000.

[163] Pierce, D. A., M. R. Grupe y W. P. Cleveland (1984), Sea-


sonal adjustment of the weekly monetary aggregates: a model-based
approach, J. Business Econ. Statist., 2, 260-70.

[164] Poirier, D. J. (1976), The Econometrics of Structural Change, with


Special Emphasis on Spline Functions, North Holland: Amsterden.

[165] Press, W., B. Flannery, S. Teukolsky y W. Vetterling


(1986), Numerical Recipes: The Art of Scientific Computing, Cam-
bridge University Press: Cambridge.

[166] Priestley, M. B. (1965), Evolutionary spectra and non-stationary


processes, J. Roy. Statist. Soc., B, 27, 204-37.

[167] Priestley, M. B. (1980), State dependent models: a general ap-


proach to non-linear time series analysis, J. Time Series Anal., 1, 41-
71.

[168] Priestley, M. B. (1981), Spectral Analysis and Time Series, vols I,


II, Academic Press: London.

[169] Quenouille, M. H. (1948), Some results in the testing of serial cor-


relation coe!cients, Biometrika, 35, 261-84.

[170] Rao, C. Radhakrishna (1973), Linear Statistical Inference and Its


Applications (Second Ed.), Wiley: New York.

[171] Sage, A. y J. Melsa (1971), Estimation Theory, With Applications


to Communications and Control, McGraw-Hill: New York.

[172] Sargan, J. D. y E. G. Drettakis (1974), Missing data in an au-


toregressive model, Internat. Economic Rev., 15, 39-58.

[173] Schuster, A. (1898), On the investigation of hidden periodicities with


application to a supposed 26-day period of meteorological phenomena,
Terr. Mag. Atmos. Elect., 3, 13-41.
368 BIBLIOGRAFÍA

[174] Shephard, N. (1994), Partial non-Gaussian state space, Biometrika,


81, 115-31.

[175] Shephard, N. y M. K. Pitt (1997), Likelihood analysis of non-


Gaussian measurement time series, Biometrika, 84, 653-67.

[176] Shibata, R. (1976), Selection of the order of an autoregressive model


by Akaike’s information criterion, Biometrika, 63, 117-26.

[177] Smirnov, N. V. (1939a), Sur les écarts de la courbe de distribution


empirique, Rec. Math. (Matemat. Sbornik), N. S., 6 (48), 3.

[178] Smirnov, N. V. (1939b), On the estimation of the discrepancy be-


tween empirical curves of distribution for two independent samples,
Bull. Math. Univ. Moscou, Série Int., 2, Nr 2, 3.

[179] Smith, J. Q. (1979), A generalization of the Bayesian forecasting mod-


el, J. R. Statist. Soc., B, 41, 375-87.

[180] Smith, J. Q. (1981), The multiparameter steady model, J. R. Statist.


Soc., B, 43, 256-60.

[181] Snyder, R. D. y G. R. Saligari (1996), Initialization of the Kalman


filter with partially diuse initial conditions, J. Time Series Analysis,
17, 409-24.

[182] Solo, Victor (1989), A simple derivation of the Granger representa-


tion theorem. Unpublished manuscript.

[183] Sorenson, H. W. y D. L. Alspach (1971), Recursive Bayesian es-


timation using Gaussian sums, Automatica, 7, 465-79.

[184] Stock, J. H. (1994), Unit roots structural breaks and trends, en Hand-
book of Econometrics, Vol. 4, (R. F. Engle y D. L. McFadden, Eds.),
pp. 2740-841, Elsevier Science: New York.

[185] Subba Rao, T. (1970), The fitting of non-stationary time series with
time-dependent parameters, J. Roy. Statist. Soc., B, 32, 312-22.

[186] Subba Rao, T. (1981), On the theory of bilinear time series models,
J. Roy. Statist. Soc., B, 43, 244-55.
BIBLIOGRAFÍA 369

[187] Subba Rao, T. y M. M. Gabr (1984), An Introduction to Bispectral


Analysis and Bilinear Time Series Models, Springer-Verlag: Berlin.

[188] Tong, H. y K. S. Lim (1980), Threshold autoregression, limit cycles,


and cyclical data, J. Roy. Statist. Soc., B, 42, 245-92.

[189] Tsay, R. S. (1986), Time series model specification in the presence of


outliers, J. Amer. Statist. Ass., 81, 132-41.

[190] Tsay, R. S. (1988), Outliers, level shifts and variance changes in time
series, J. Forecasting, 7, 1-20.

[191] Tukey, J. W. (1949), The sampling theory of power spectrum es-


timates, Proc. Symp. on Applications of Autocorrelation Analysis to
Physical Problems, NAVEXOS-P-735, 46-67, O!ce of Naval Research,
Department of the Navy, Washington, DC.

[192] von Neumann, J. (1941), Distribution of the ratio of the mean square
successive dierence to the variance, Ann. Math. Statist., 12, 367-95.

[193] Wahba, Grace (1990), Spline Models for Observational Data, SIAM:
Philadelphia.

[194] Watson, G. S. (1955), Serial correlation in regression analysis. I,


Biometrika, 42, 327-41.

[195] Watson, G. S. (1956), On the joint distribution of the circular serial


correlation coe!cients, Biometrika, 43, 161-8.

[196] Watson, G. S. (1967), Linear least squares regression, Ann. Math.


Statist., 38, 1679-99.

[197] Watson, G. S. y J. Durbin (1951), Exact tests of serial correlation


using non-circular statistics, Ann. Math. Statist., 22, 446-51.

[198] Watson, G. S. y E. J. Hannan (1956), Serial correlation in regres-


sion analysis. II, Biometrika, 43, 436-49.

[199] West, M., P. J. Harrison y H. S. Migon (1985), Dynamic gener-


alized linear models and Bayesian forecasting, J. Amer. Statist. Ass.,
80, 73-97.
370 BIBLIOGRAFÍA

[200] Wetherill, G. B. (1977), Sampling Inspection and Quality Control


(2nd. edn.), Chapman and Hall: London.

[201] Whittle, Peter (1991), Likelihood and cost as path integrals (with
Discussion), J. R. Statist. Soc., B, 53, 505-29.

[202] Wiener, N. (1949), The Extrapolation, Interpolation and Smoothing


of Stationary Time Series with Engineering Applications, Wiley: New
York.

[203] Willsky, A. S. y H. L. Jones (1976), A generalized likelihood ratio


approach to the detection and estimation of jumps in linear systems,
IEEE Trans. Automatic Control, 21, 108-12.

[204] Wold, H. O. A. (1938), A Study in the Analysis of Stationary Time


Series, 2nd. edn, 1954. Almqvist & Wiksell: Stockholm.

[205] Wold, H. O. A. (1949), A large sample test of moving averages, J.


Roy. Statist. Soc., B, 11, 297.

[206] Yaglom, A. M. (1962), An Introduction to the Theory of Stationary


Random Functions (Revised English Edition, Richard A. Silverman,
trans. and ed.), Prentice-Hall: New Jersey.

[207] Young, P. y K. Lane (1990), The limitations of the IRW for mod-
eling trend behaviour in time series analysis, University of Lancaster
Discussion Paper.

[208] Young, P., C. N. Ng, K. Lane y D. Parker (1991), Recursive


forecasting, smoothing and seasonal adjustment of non-stationary en-
vironmental data, J. Forecasting, 10, 57-89.

[209] Yule, G. U. (1927), On a method of investigating periodicities in


disturbed series with special reference to Wolfer’s sunspot numbers,
Phil. Trans.Roy. Soc. London, Ser. A, 226, 267-98.
Índice de Materias

Aditivo, modelo, 17, 271 matriz de, 27


Agregado contemporáneo, 309 Autorregresión, véase Modelo au-
Agregado temporal, 308 torregresivo
AIC
criterio, 106 BIC
criterio, 107
AICC
Box-Cox
criterio, 107
transformación de, 104
Análisis espectral, véase Espectro
Box-Jenkins
AR(1), véase Modelo autorregresi-
enfoque de, 71, 98
vo de primer orden
Box-Pierce
AR(2), véase Modelo autorregresi-
estadístico de, 109
vo de segundo orden
AR(k), véase Modelo autorregresi- Cambios estructurales, 14, 297, 309,
vo de orden k 347
ARMA(k, h), véase Modelo AR- en el nivel, 310, 317
MA(k, h) en la estacionalidad, 312, 318
Autocorrelación, 26 en la pendiente, 310, 318
correlograma, 27 Camino aleatorio, 39, 271, 275
función de, 26 cuasi-, 275
matriz de, 28 integrado, 272
Autocorrelación muestral, 68 CAT
matriz de, 68 criterio, 106
Autocorrelación parcial, 29 Ciclo, 17, 271, 277
correlograma parcial, 30 determinístico, 277
función de, 29 estocástico, 277
Autocorrelación parcial muestral, 69 Circularización, 73
Autocovarianza muestral, 140 Co-espectro, 187
Autocovarianzas, 25 Coherencia, 187, 191, 193, 198, 199
función de, 8, 10, 25 diagrama de la, 189
matriz circular de, 132 Control de diagnóstico, 106, 302

371
372 ÍNDICE DE MATERIAS

Convergencia Ecuación de medida, 266, 291


en media cuadrática, 31 Ecuación de observación, véase E-
Correlación serial, 67 cuación de medida
circular, 73 Ecuación de transición, 266, 291
coeficiente de, 26, 67 Ecuación estocástica en diferencias
distribución de R. L. Anderson, de orden k, 44
76 de primer orden, 34
estimación de la, 68 de segundo orden, 40
poder de los tests, 78 Ecuación polinomial asociada
resultados aproximados, 77 al modelo AR(k), 45
test de, 72 al modelo MA(k), 54
Correlación serial parcial EE, véase Espacio de estado
coeficiente de, 29 Eficiencia, 217
estimación de la, 69 mínima, 221
Correlograma, véase Autocorrela- EM
ción algoritmo, 299
Correlograma parcial, véase Auto- EMP, véase Estimador de modo pos-
correlación parcial terior
Covarianzas Ergódico
conjuntas, matriz de, 186 teorema, 31
Cramer Ergodicidad, 30
representación de, 126 Error, 17, 267, 271
Curvilínea discreta, 287 Error cuadrático medio mínimo, 295
Curvilíneas, 15, 286, 326 Error de predicción
descomposición del, 299
Diagonalización
Error de predicción un paso ade-
de la matriz de autocovarian-
lante, 97, 293
zas, 132
Errores
Difusa, distribución a priori, 294,
esféricos, 216
296, 299
no-esféricos, 217
Disturbio, véase Error
Espacio de estado, 13, 265
Dominio de las frecuencias, 2
modelo básico de, véase Espa-
Dominio del tiempo, 2
cio de estado, modelo lineal
Dummy, véase Variables ficticias
Gaussiano de, véase Espa-
Durbin
cio de estado, modelo lineal
algoritmo de, 85
Gaussiano de
Ecuación de estado, véase Ecuación modelo lineal Gaussiano de, 266,
de transición 267
ÍNDICE DE MATERIAS 373

modelo lineal gaussiano de, 291 Estimación


Espectral de modo posterior, 341, 346, 347
densidad, véase Espectral, fun- de regresión con errores AR(1),
ción de densidad 240
densidad conjunta, 187 de regresión con errores ARMA(p,
densidad cruzada, 187 q), 243
densidad de un proceso AR(1), de regresión con errores correla-
127 cionados, 239
densidad de un proceso ortog- de regresión con errores correla-
onal, 126 cionados en el dominio de
función de densidad, 10, 123, las frecuencias, 246
126 de regresiones separadas con er-
función de distribución, 123, 126 rores correlacionados en el
estimación de, 156 dominio de las frecuencias,
representación, 117, 126 253
Espectro, 7, 8, 10 del modelo, 105
en cuadratura, 187 eficiente en tres pasos de regre-
estimación autorregresiva, 11 sión con errores correlaciona-
estimación consistente del, 146 dos, 243
estimación de Bartlett, 153, 174 en el dominio de las frecuen-
estimación de Daniell, 151 cias, 175
estimación por máxima entropía, en el dominio del tiempo, 81
11 Estimador de modo posterior, 339
estimación por máxima verosimil-
itud, 11 Fase, 189
estimación truncada, 153 diagrama de, 190
estimadores de ventana, 11 Fast Fourier transform, véase Fouri-
Espectro cruzado er, transformada rápida de
estimación consistente del, 187, Filtrado, 268, 289, 291
200 Filtro de Kalman, 14, 291, 294
Estacionalidad, 17, 102, 267, 271, Filtro lineal, 130
274, 282 dependiente del tiempo, 130
determinística, 274 invariante en el tiempo, 130
estocástica, 275 Fisher
Estacionariedad, 10, 14, 24 método de los marcadores, 245
completa o estricta, 24 Forma reducida, 278
conjunta, 185 Fourier
débil o ámplia, 24 inversas de, 125, 126, 148
374 ÍNDICE DE MATERIAS

matriz de, 136 Máxima verosimilitud


serie de, 124 estimación por, 82, 106, 280,
transformada de, 148 298
transformada rápida de, 157 Mínimo error medio cuadrático de
vectores de, 132 predicción, 96, 302
Frecuencias Mínimos cuadrados, 216
análisis en el dominio de las, estimación por, 83, 85
117 generalizados, 217
modelos en el dominio de las, MA(1), véase Modelo de promedio
117 móvil de primer orden
Función de predicción eventual, 101 MA(h), véase Modelo de promedio
Función generatriz de autocovari- móvil de orden k
anzas, 60 Markov
Función marcadora, 301 modelo de, 34
serie de, 34
Ganancia, 190 MBEE, véase Espacio de estado,
diagrama de la, 190 modelo lineal Gaussiano de
MC, véase Mínimos cuadrados
Hiperparámetros, 269, 289, 298, 299 MEB, véase Modelo estructural bá-
estimación por máxima verosimi- sico
litud, 289, 298, 343 MEMCP, véase Mínimo error medio
Identificación, 102 cuadrático de predicción
Importance MEST, véase Modelo estructural
densidad de, 344 Modelo AR(2), véase Modelo au-
muestreo, 344 torregresivo de segundo or-
Iniciación, 266, 294 den
Modelo AR(k), véase Modelos au-
Invertibilidad de un MA, 55
torregresivo de orden k
IRW, véase Camino aleatorio inte-
Modelo ARIMA, 12, 100, 280, 282,
grado
284
Kantorovich Modelo ARMA(k, h), véase Mode-
desigualdad de, 221 lo autorregresivo - de prome-
Kolmogorov dio móvil
fórmula para la varianza, 178 Modelo autorregresivo, 9
de orden k, 9, 44
Lag, véase Rezago estimación en, 84
Ljung-Box de primer orden, 33
estadístico de, 109 estimación en, 82
ÍNDICE DE MATERIAS 375

de segundo orden, 9, 40 Nivel local, modelo de, 271, 273,


Modelo autorregresivo - de prome- 337
dio móvil, 12, 55, 280
estimación en, 81, 92, 175 Observaciones
estimación en el dominio de las atípicas, 14, 309, 337, 346
frecuencias, 177 detección de, 313
predicción de, 96 diarias, 329
Modelo de aerolínea, 279 faltantes, 14, 304, 305
Modelo de promedio móvil en variables de stock, 306
de orden h, 9, 48 horarias, 15, 330
estimación en, 89 irregularmente espaciadas, 14,
de primer orden, 47 307, 332
estimación en, 86 no Gaussianas, 15, 337
Modelo estacionario semanales, 15, 327
predicción de un, 98 Observaciones atípicas, 297
Modelo estructural, 15, 267, 276 Orden del modelo
básico, 276 criterio AIC, 10
Modelo lineal generalizado, 341 criterio CAT, 10
dinámico, 342 Outliers, véase Observaciones atípi-
Modelo MA(h), véase Modelo de cas
promedio móvil de orden h
Modelo mixto, véase Modelo au- Parsimonia, 107
torregresivo - de promedio Período, 278
móvil Perfil de predicción, 97
Modelo no estacionario Periodograma, 8, 11, 139
y estacional cruzado, 201
predicción de un, 101 de intensidad, 139
y no estacional Portmanteau
predicción de un, 99 test, 110
Modelos estocásticos lineales, 33 Predicción, 2, 12, 95, 292, 302
Modo posterior, estimación, 288 de Box y Jenkins, 98
Multiplicativo, modelo, 17, 271 hacia atrás, 94
MV, véase Máxima verosimilitud Proceso ARIMA, véase Modelo ARI-
MA
Newton-Gauss Proceso autorregresivo, véase Mod-
método de, 93 elo autorregresivo
Newton-Raphson Proceso autorregresivo - de prome-
método de, 244 dio móvil, véase Modelo au-
376 ÍNDICE DE MATERIAS

torregresivo - de promedio Serie de tiempo, 1, 16, 17


móvil análisis, 2
Proceso de promedios móviles, véase continua, 16
Modelo de promedio móvil discreta, 16
Proceso determinístico, 65 modelado, 2
Proceso lineal, 66 modelo de, 16
Proceso ortogonal, 15, 32, 63, 127 Sesgo
Proceso puramente no determinís- en la estimación por MC de la
tico, 65 varianza, 225
Proceso singular, véase Proceso de- Sobreajuste, 106
terminístico Splines, véase Curvilíneas
Procesos estocásticos, 21 ST, véase Serie de tiempo
estacionarios, 25 Suavizado, 268, 289, 292, 295
normales o Gaussianos, 25 curvilíneo, 286
Suavizador, 297
Quasi-Newton-Raphson, véase Fish-
clásico, 297
er, método de los marcadores
de intervalo fijo, 297
Regresión, 215 de punto fijo, 297
y series de tiempo, 220 de rezago fijo, 297
Relación de transición, véase Ecua-
Tendencia, 17, 99, 102, 267, 271,
ción de transición
282, 284
Residuos auxiliares
de la pendiente, 318 determinística, 273
del nivel, 318 estocástica, 273
irregulares, 315—317 lineal local, modelo de, 272, 295,
Residuos estandarizados suavizados, 334, 336
315 lineal más ruido, 273
Residuos suavizados, 296, 317 Test
Respuesta en las frecuencias de correlación serial, 231
función de, 131 de correlación serial basado en
Rezago, 25, 40 el periodograma acumula-
Robustez, 337, 346 do, 236
Ruido blanco, véase Proceso ortog- de Durbin-Watson, 231
onal de estacionariedad, 172
de Schuster
Scoring, véase Fisher, método de de periodicidad, 163
los marcadores del periodograma
Serie de Fourier, 7 acumulado, 167
ÍNDICE DE MATERIAS 377

de Fisher, 164 ecuaciones muestrales de, 85


h de Durbin, 234
Tiempo
análisis en el dominio del, 117
Tiempo continuo, 15, 332
TLL, véase Tendencia lineal local,
modelo de
Toeplitz, 27
Transferencia
función de, 131
Transformada de Fourier, véase Es-
pectro

Variable aleatoria compleja, 118


estacionariedad débil, 118
Variables antithetic, 344
Variables de flujo, 306, 335
Variables de stock, 306, 334
Variables ficticias, 18, 275
Vector de estado, 265, 290
Ventana
de los rezagos, 148
de los rezagos de Bartlett, 153
de los rezagos de Daniell, 152
de los rezagos truncada, 153
espectral, 148
espectral de Bartlett, 153
espectral de Daniell, 151
espectral truncada, 153
Verosimilitud
concentrada, 299
von Neumann
estadístico de, 76, 232

Yule
serie de, 40
Yule-Walker
ecuaciones de, 45, 88

También podría gustarte