Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Series de Tiempo
Series de Tiempo
Prólogo xiii
1 Introducción 1
1.1 El Estudio de las Series de Tiempo . . . . . . . . . . . . . . . 1
1.2 Ejemplos de Series de Tiempo . . . . . . . . . . . . . . . . . . 2
1.3 Breve Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Enfoque General al Estudio . . . . . . . . . . . . . . . . . . . 16
iii
iv ÍNDICE GENERAL
4 Correlación Serial 67
4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2 Estimadores de v . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3 Propiedades Asintóticas del Estimador de v . . . . . . . . . . 70
4.4 Tests de Correlación Serial . . . . . . . . . . . . . . . . . . . . 72
4.4.1 Resultados exactos . . . . . . . . . . . . . . . . . . . . 72
4.4.2 Resultados aproximados . . . . . . . . . . . . . . . . . 77
4.5 Poder de los Tests . . . . . . . . . . . . . . . . . . . . . . . . . 78
6 Predicción 95
6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2 Proyección Estadística de una Serie . . . . . . . . . . . . . . . 96
6.3 Predicción de Modelos ARMA(n,k) . . . . . . . . . . . . . . . 96
6.4 Sistema de Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . 98
6.4.1 Predicción de modelos estacionarios . . . . . . . . . . . 98
6.4.2 Predicción de modelos no estacionarios (y no estacionales) 99
6.4.3 Predicción de modelos no estacionarios (y estacionales) 101
6.4.4 Identificación del modelo . . . . . . . . . . . . . . . . . 102
6.4.5 Estimación del modelo . . . . . . . . . . . . . . . . . . 105
ÍNDICE GENERAL v
18.1 Introducción
En esta Cuarta Parte del libro se presenta un enfoque unificado para el análi-
sis de series de tiempo. El tratamiento técnico está basado en los métodos
de espacio de estado (EE). Estos métodos pueden ser aplicados a cualquier
modelo lineal, incluyendo aquellos dentro de la clase de los autorregresivos
integrados de promedios móviles (ARIMA).
Todos los modelos lineales de series de tiempo tienen una representación
en la forma de espacio de estado. Esta representación relaciona el vector de
errores o disturbios {%w } con el vector de observaciones {yw } vía un proceso
de Markov {w }. Una expresión conveniente de la forma de espacio de estado
es
yw = Zw w + %w > %w Q(0> Hw )>
(18.1)
w = Tw w31 + Rw w > w Q(0> Qw )> w = 1> = = = q>
donde yw es un vector de orden s × 1 de observaciones y w es un vector de
orden p × 1 inobservable, llamado el vector de estado.
La idea subyacente en el modelo es que el desarrollo del sistema en el
tiempo está determinado por w de acuerdo con la segunda ecuación de (18.1);
pero debido a que w no puede ser observado directamente, debemos basar
nuestro análisis en las observaciones yw . Las matrices Zw , Tw , Rw , Hw y
Qw se suponen inicialmente conocidas y los términos de error %w y w se
suponen que son serialmente independientes e independientes entre sí en todo
momento de tiempo. La matrices Zw y Tw pueden depender de y1 > = = = > yw31 .
El estado inicial 0 se supone que es Q(a0 > P0 ) e independiente de %1 > = = = > %q
265
266 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO
se escribirán como
|w = 1 |w31 + 2 |w32 + · · · + w > w LLG(0> 2 )= (18.4)
Muchas series no son estacionarias. Con el objeto de resolver estas situa-
ciones Box y Jenkins proponen que una serie debe ser diferenciada para
hacerla estacionaria. Luego de ajustar un modelo ARMA a la serie diferen-
ciada, el correspondiente modelo integrado es usado para las predicciones. Si
la serie es diferenciada g veces, el modelo total de la serie es denotado como
ARIMA(n, g, k). Efectos estacionales pueden ser capturados mediante la
diferenciación estacional.
La metodología de selección de modelos para los modelos estructurales
es de alguna manera diferente, en el sentido que se pone menos énfasis en
la observación del correlograma de diversas transformaciones de la serie con
el objeto de obtener una especificación inicial. Con esto no queremos decir
que no se debe observar el correlograma, pero nuestra experiencia es que él
puede ser difícil de interpretar sin un conocimiento previo de la naturaleza de
la serie, y en muestras pequeñas y/o con datos desordenados puede conducir
a conclusiones erróneas (ver, por ejemplo, Abril, 2002). En lugar de ello, el
énfasis está en la formulación del modelo en términos de componentes cuya
presencia estaría sugerida por el conocimiento del fenómeno bajo estudio, de
sus aplicaciones o por una inspección del gráfico de la serie. Por ejemplo,
con observaciones mensuales, uno desearía incorporar desde un principio una
parte estacional dentro del modelo, y solamente la sacará si luego prueba que
no es significativa.
Una vez que el modelo estructural ha sido estimado, el mismo tipo de tests
de diagnóstico que los usados para los modelos ARIMA pueden ser realizados
con los residuos. En particular el estadístico de Box-Ljung puede ser com-
putado, siendo sus grados de libertad igual al número de autocorrelaciones
residuales menos el número de hiperparámetros relativos. Tests estándares
de falta de normalidad y heteroscedasticidad pueden ser aplicado, como así
también tests de la calidad predictiva en períodos posteriores a la muestra.
Los gráficos de los residuos deben ser examinados, de la misma manera que
lo apuntado por Box y Jenkins para la construcción de modelos ARIMA. En
un modelo estructural de series de tiempo, estos gráficos pueden ser comple-
mentados con gráficos de los componentes suavizados. Estos, frecuentemente,
suelen ser muy informativos puesto que permiten al investigador constatar si
los movimientos en los componentes corresponden a lo que podría esperarse
sobre la base del conocimiento previo.
18.2. MODELOS ESTRUCTURALES 271
|w = w w &w %w = (18.6)
para w = 1> = = = > q, con los errores de la ecuación de medida, %w , del nivel,
w , y de la pendiente, w , serialmente y mutuamente independientes. Las
magnitudes por las cuales el nivel w , y la pendiente w , cambian a través
del tiempo están gobernadas por los hiperparámetros relativos t = 2 @ 2%
y t = 2 @ 2% . La función de predicción es una línea recta a partir de las
estimaciones del nivel y de la pendiente al final de la muestra.
Investigadores aplicados se quejan algunas veces porque dicen que la serie
de valores de w obtenidos al ajustar este modelo no parece ser lo suficien-
temente suave como para representar la idea que tienen de cómo debe ser
una tendencia. Esta objeción puede ser satisfecha haciendo 2 = 0 y luego
ajustando el modelo con esta restricción. Esencialmente el mismo efecto
puede ser logrado usando en lugar de la segunda y tercera ecuación de (18.8)
el modelo 42 w = w o lo que es lo mismo w = 2w31 w32 + w , donde
4w = w w31 . Este y su extensión 4u w = w para u A 2 han sido prop-
uestos para modelar tendencias en modelos de espacio de estado en una serie
de trabajos de Peter Young y sus colaboradores bajo el nombre de modelos
de camino aleatorio integrado (IRW); ver, por ejemplo, Young y Lane (1990).
18.2. MODELOS ESTRUCTURALES 273
|w = + w + %w =
mw = m>w31 + $mw > w = (l 1)v + m> l = 1> 2> = = = > m = 1> = = = > v>
(18.10)
con un ajuste adecuado para asegurar que cada sucesivo conjunto de v com-
ponentes estacionales suma cero (ver Harvey, 1989, §2.3.4).
Frecuentemente se suele preferir expresar la estacionalidad en su
forma trigonométrica, que para estacionalidad constante es
[v@2]
X 2m
w = ( m· cos m w + Wm· senm w)> m = > m = 1> = = = > [v@2]>
m=1
v
donde, en este caso, [{] denota la parte entera de {. Para estacionalidad que
varía en el tiempo, esta última puede hacerse estocástica reemplazando m· y
Wm· por los caminos aleatorios
mw = m>w31 + $mw > Wmw = Wm>w31 + $ Wmw > m = 1> = = = > [v@2]> w = 1> = = = > q>
(18.11)
(para mayores detalles ver Young, Ng, Lane y Parker, 1991) o bien por el
modelo de cuasi-camino aleatorio
[v@2]
X
w = mw > (18.12)
m=1
donde
µ ¶ µ ¶µ ¶ µ ¶
mw cos m senm m>w31 $ mw
= + > (18.13)
Wmw senm cos m Wm>w31 $ Wmw
Para v par, [v@2] = v@2, mientras que para v impar, [v@2] = (v 1)@2. Para
v par, la componente para m = v@2 colapsa en
18.2.4 Ciclos
Un ciclo es un componente periódico con frecuencia sustancialmente menor
que la estacionalidad. Un ciclo determinístico puede ser expresado como una
onda sinusoidal, esto es
&w = cos w + sen w> w = 1> = = = > q= (18.16)
En la subsección anterior se puntualizó que una estructura estacional
puede ser modelada por un conjunto de tales ciclos definidos en las frecuencias
estacionales. Agregando errores se permite que la estructura cambie a través
del tiempo. Una situación algo diferente sucede cuando queremos modelar el
ciclo, el cual puede ser estocástico, y, a diferencia de los ciclos estacionales,
puede ser estacionario. La especificación estadística de tal ciclo, &w , es como
sigue
µ ¶ µ ¶µ ¶ µ ¶
&w cos f senf &w31 w
= + > (18.17)
&Ww senf cos f &Ww31 Ww
para w = 1> = = = > q, donde f es la frecuencia en radianes en el intervalo 0 6
f 6 , w y Ww son dos procesos ortogonales o ruidos blanco mutuamente
278 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO
Esta es una función que tiende a cero a medida que u tiende a infinito,
excepto cuando = 1. El espectro tiene un pico alrededor de f , mostrando
un comportamiento irregular o seudo-cíclico. El pico se hace más agudo a
medida que se acerca a uno y en el caso límite cuando es igual a uno
muestra un salto en la función de distribución espectral. Un test para la
hipótesis = 1 versus la alternativa de que es menor que uno está dado en
Harvey y Streibel (1998).
Componentes cíclicos de este tipo resultaron útiles en economía para mod-
elar los ciclos económicos o de negocios, y en meteorología para modelar llu-
vias; ver Harvey y Jaeger (1993), Koopman, Harvey, Doornik y Shephard
(1995), y Abril y Blanco (2002). Componentes cíclicos pueden ser combi-
nados con los otros componentes, tales como tendencia y estacionalidad, y
también otros ciclos o quizás procesos autorregresivos. Un proceso AR(1)
es realmente el caso límite de un ciclo estocástico cuando f es 0 o , aún
cuando usualmente se lo especifica por separado, parcialmente para evitar
confusiones y parcialmente porque no es el caso límite en modelos multivari-
ados.
suponemos que hay v “meses” por “año”. Además, E|w = |w31 , E v |w = |w3v ,
entonces { = (1 E), {v = (1 E v ), y así en más.
18.3. MODELOS REDUCIDOS EN FORMA ARIMA 279
(t 2 + 4t)1@2 2 t
= = (18.21)
2
En la forma reducida ARIMA(0, 1, 1), está condicionado a ser negati-
vo. En modelos más complicados, las condiciones tienden a ser más fuertes.
Así, la forma reducida del MEB definido en (18.15) con tendencia igual a la
segunda ecuación de (18.7) y con estacionalidad igual a (18.9), es un modelo
ARIMA en el cual las observaciones siguen un proceso ARMA(0, v + 1) luego
de tomar diferencias de primer orden y estacionales, esto es {{v |w sigue un
modelo ARMA(0, v + 1) pero con correlaciones de ordenes 1, 2, v 1, v y
v + 1 distintas de cero. Si no estuviera sujeto a restricciones, este proce-
so contendría considerablemente más parámetros que la forma estructural.
En efecto, un modelo ARIMA de tal complejidad virtualmente nunca sería
identificado, y si lo fuera probablemente resultaría imposible de estimar.
El MEB con tendencia igual a la segunda ecuación de (18.7) y con esta-
cionalidad igual a (18.9) tiene una forma reducida la cual, como lo mostró
Maravall (1985) (ver también Abril, 2001b), es muy próxima al modelo de
aerolínea del análisis de Box y Jenkins, o sea un ARIMA estacional de orden
(0, 1, 1)×(0, 1, 1)v el cual toma la forma
modelos de espacio de estado, tal como se lo verá en esta Cuarta Parte del
Libro.
Las formas dadas a continuación no son las únicas versiones de espacio de
estado de los modelos ARMA y ARIMA, pero resultan ser muy conveniente
en situaciones prácticas.
3 4 3 4
!1 1 0 1
E .. ... F E 1 F
E . F E F
Tw = T = E F> Rw = R = E .. F> (18.25)
C !u31 0 1 D C . D
!u 0 · · · 0 u31
|w = Zw w > (18.27)
¡ ¢
La ecuación de observación está dada por (18.27) con Zw = Z = 1 0 .
gW
X
g v G
(1 E) (1 E ) = fm E m > (18.28)
m=0
3 4
1
E 1 F
E .. F
E F
E . F
E F
Rw = R = E u31 F> (18.32)
E F
E 0 F
E . F
C .. D
0
284 CAPÍTULO 18. LA FORMA DE ESPACIO DE ESTADO
{w = Zw w > (18.33)
w = Tw w31 + Rw w = (18.34)
}1 = 1>
}m = 0> para m = 2> = = = > u> (18.36)
g!
}u+m = (1)m31 > para m = 1> = = = > g=
m!(g m)!
Figura 18.1: Logaritmo del consumo anual per cápita de bebidas alcohólicas
en Gran Bretaña. 1870 a 1938
Figura 18.2: Precios relativos de Gran Bretaña. Datos anuales desde 1870
hasta 1938
Figura 18.3: Ingreso per cápita en Gran Bretaña. Datos anuales desde 1870
hasta 1938
C log s(> y)
= 0= (18.41)
C
Esto surge puesto que log s( | y) = log s(> y)log s(y), entonces C log s( |
y)@C = C log s(> y)@C. Por otra parte, la solución de las ecuaciones
C log s( | y)@C = 0 es el modo de la densidad s( | y), y puesto que la
densidad es normal el modo es igual al vector de medias b . La conclusión
sigue a continuación. Puesto que s( | y) puede ser tomada como la dis-
tribución a posteriori de dado y, llamaremos a esta técnica estimación de
modo posterior. Un tratamiento general de esta técnica para observaciones
de la familia exponencial puede verse en Abril (2001a).
Aplicando esta técnica a (18.40), vemos que podemos obtener b1 > = = = >
bq
minimizando
q
X q
X ¡ 2 ¢2
(|w w )2 + 4 w = (18.42)
w=1 w=1
El Algoritmo de Kalman
19.1 Introducción
En este Capítulo presentamos un tratamiento general desde el punto de vista
de la inferencia clásica del modelo Gaussiano de espacio de estado (18.1). Las
observaciones yw serán consideradas multivariadas y se discutirá el filtrado,
suavizado, la estimación de los hiperparámetros y la predicción. El filtrado
tiene por finalidad actualizar nuestro conocimiento del sistema cada vez que
una nueva observación yw es obtenida. El suavizado nos permite basar las
estimaciones de cantidades de interés en la muestra completa y1 > = = = > yq .
Los parámetros en los modelos de espacio de estado usualmente se de-
nominan hiperparámetros, presumiblemente para distinguirlos de los elemen-
tos del vector de estado los cuales pueden pensarse como parámetros
aleatorios. Además, recordemos que la magnitud por la cual los parámet-
ros aleatorios pueden variar está gobernada por esos hiperparámetros. En
este Capítulo analizaremos la estimación por máxima verosimilitud de los
hiperparámetros del modelo de espacio de estado.
La predicción tiene importancia especial en muchas aplicaciones del análi-
sis de series de tiempo; mostraremos que se pueden lograr los resultados de
las predicciones simplemente tomando a los valores futuros yq+1 > yq+2 > = = =
como observaciones faltantes.
En el Capítulo anterior se mostró que el análisis estadístico de los modelos
estructurales de series de tiempo está basado en la forma de espacio de estado.
Ahora bien, los modelos Gaussianos de espacio de estado pueden, con mucha
facilidad, ser estudiados estadísticamente mediante el filtro de Kalman y el
289
290 CAPÍTULO 19. EL ALGORITMO DE KALMAN
19.3 Filtrado
El objetivo del filtrado es actualizar nuestro conocimiento del sistema cada
vez que una nueva observación yw es obtenida. Una vez que el modelo ha
sido puesto en la forma (19.1) de espacio de estado, el camino está abierto
para la aplicación de un número importante de algoritmos. En el centro de
ellos está al filtro de Kalman. Este filtro es un procedimiento recursivo para
computar el estimador óptimo del vector de estado en el momento w, basado
en la información disponible hasta ese tiempo w. Esa información consiste en
observaciones hasta yw incluida.
En ciertas aplicaciones de ingeniería el filtro de Kalman es importante
debido a la posibilidad de lograr estimaciones sobre la marcha (“on-line”). El
292 CAPÍTULO 19. EL ALGORITMO DE KALMAN
valor actual del vector de estado es de primordial interés (por ejemplo, puede
representar las coordenadas de un cohete en el espacio) y el filtro de Kalman
permite que la estimación del vector de estado sea continuamente actualizada
cada vez que una nueva observación está disponible. A primera vista, el valor
de tal procedimiento en las aplicaciones económicas parece limitado. Nuevas
observaciones tienden a aparecer a intervalos menos frecuentes y el énfasis
está en hacer predicciones de observaciones futuras basadas en una muestra
dada. El vector de estado no siempre tiene una interpretación económica,
y en los casos en que la tiene, es más apropiado estimar su valor en un
punto particular del tiempo usando toda la información de la muestra y no
solamente parte de ella. Estos dos problemas son conocidos como predicción
y suavizado respectivamente. Sucede que el filtro de Kalman nos provee las
bases para las soluciones de ambos problemas.
Otra razón para el rol central del filtro de Kalman es que cuando los
errores y el vector de estado inicial están normalmente distribuidos, permite
que la función de verosimilitud sea calculada a través de lo que se conoce
como la descomposición del error de predicción. Esto abre el camino para
la estimación de cualquier parámetro desconocido en el modelo. También
provee las bases para los tests estadísticos y de especificación del modelo.
La forma en que se deriva más abajo el filtro de Kalman para el modelo
(19.1) se basa en el supuesto que el estado inicial 0 es Q(a0 > P0 ) e inde-
pendiente de %1 > = = = > %q y de 1 > = = = > q , con a0 y P0 . Luego es usado un
resultado estándar sobre la distribución normal multivariada para mostrar
cómo es posible calcular recursivamente la distribución de w condicional en
la información establecida en el tiempo w, para todo w desde 1 hasta q. Estas
distribuciones condicionales son a su vez normales y por lo tanto están com-
pletamente especificadas por sus matrices de medias y varianzas. Son estas
cantidades las que el filtro de Kalman computa. Así, supóngase que quere-
mos obtener la distribución a posteriori de w+1 dado Yw . Puesto que todas
las distribuciones son normales, las distribuciones condicionales son también
normales. Supongamos que w dado Yw31 es Q(aw > Pw ) y la de w dado Yw
es Q(aw|w > Pw|w ). Nuestro objetivo es calcular recursivamente aw|w > Pw|w > aw+1 y
Pw+1 dado aw > Pw .
Sea
vw = yw Zw aw = (19.2)
19.3. FILTRADO 293
vw = yw H(yw | Yw31 )=
donde
así
aw+1 = H(w+1 | Yw )
= H(Tw+1 w + Rw+1 w+1 | Yw )
= Tw+1 aw|w > (19.7)
294 CAPÍTULO 19. EL ALGORITMO DE KALMAN
Pw+1 = Y (w+1 | Yw )
= Y (Tw+1 w + Rw+1 w+1 | Yw )
= Tw+1 Pw|w T0w+1 + Rw+1 Qw+1 R0w+1 > (19.8)
donde
Kw = Tw+1 Bw
= Tw+1 Pw Z0w F31
w > (19.10)
Pw+1 = Tw+1 Pw (T0w+1 Z0w K0w ) + Rw+1 Qw+1 R0w+1 > (19.11)
19.4 Iniciación
Ahora consideremos cómo iniciar el filtrado cuando nada se conoce sobre los
parámetros a0 y P0 de la distribución de 0 . En esta situación es razonable
representar a esa distribución como una distribución difusa a priori, esto es,
se fija a0 en un valor arbitrario y se hacen tender los elementos diagonales
de P0 a 4. Una aproximación adecuada puede, con frecuencia, alcanzarse
19.5. SUAVIZADO 295
con |1 > |2 tomados como fijos. Detalles adicionales del método son dados,
para el caso univariado, por Harvey (1989) en la sección 3.3.4.
Detalles sobre otras alternativas de iniciación pueden verse en Abril (1999)
y en las referencias allí citadas.
19.5 Suavizado
Consideraremos ahora la estimación de 1 > = = = > q dada la muestra completa
Yq . El estimador con error cuadrático medio mínimo (ECMM) de w es
b w = H(w | Yq ). Llamamos a
b w el valor suavizado de w y llamamos a la
296 CAPÍTULO 19. EL ALGORITMO DE KALMAN
b w = aw + Pw Z0w F31
0 0 31 0 0 0 31
w vw + Pw Lw Zw+1 Fw+1 vw+1 + Pw Lw Lw+1 Zw+2 Fw+2 vw+2 + · · ·
= aw + Pw rw31 > (19.13)
con Nq = 0. Los residuos suavizados, tal como los definen de Jong (1989) y
de Jong y Penzer (1998), son estimados mediante la recursión
uw = F31 0
w vw Kw rw = (19.16)
Mw = F31 0
w + Kw Nw Kw = (19.17)
19.5. SUAVIZADO 297
H( w vm0 ) = Qw R0w L0w L0w+1 · · · L0m31 Z0m > m = w + 1> = = = > q= (19.23)
b w31 + Rw
b w = Tw bw> w = 1> = = = > q 1> (19.25)
junto con b 0 = a0 +
b q = aq|q . El valor inicial es b 0 con
b 0 = P0 r0 .
La ventaja de este suavizador sobre el de de Jong es que es significativa-
mente menos costoso en términos computacionales, y requiere menos espacio
de almacenamiento. Los costos relativos de computación son examinados con
todo detalle por Koopman en su trabajo. Por otra parte, el suavizador de
Koopman tiene la desventaja de que las matrices de varianzas y covarianzas
de los errores de estimación no pueden calcularse a partir de él; así, si ellas
son necesarias, se deberá usar el suavizador de de Jong o el clásico.
donde s(yw | Yw31 ) = Q(Zw aw > Fw ). Por lo tanto, tomando logaritmos obten-
emos
q q
qs 1X 1 X 0 31
log O = log(2) log |Fw | v F vw > (19.27)
2 2 w=1 2 w=1 w w
ef en ambos miembros de
Puesto que s(Yq | #) no depende de , tomando H
(19.31) nos da
ef [log s(> Yq | #)] H
log s(Yq | #) = H ef [log s( | Yq > #)] = (19.32)
Entonces
¯ ¯
C log s(Yq | #) ¯¯ ef [log s(> Yq | #)] ¯¯
CH
¯ h= ¯ > (19.34)
C# #=# C# ¯ h
#=#
Por otra parte, los supuestos subyacentes que los errores del modelo (19.1)
son Gaussianos y serialmente independientes deben constatarse a partir de
los datos analizados, utilizando los errores de predicción un paso adelante
vw estandarizados con los correspondientes elementos de la matriz Fw y, a
partir de ellos, se construyen los test de normalidad, heteroscedasticidad y
correlación serial necesarios.
Cuando se consideran modelos competitivos, podemos querer comparar
el valor del logaritmo de la verosimilitud de un modelo particular ajustado,
con los correspondientes valores de modelos competitivos. A fin de tener
una comparación imparcial entre modelos con números diferentes de hiper-
parámetros, deben usarse criterios de información tales como el AIC, el AICC
o el BIC, los cuales fueron desarrollados en el Capítulo 6 anterior.
En general, lo presentado en § 6.4.6 del Capítulo 6 referente a bondad de
ajuste y control de diagnóstico es aplicable a los modelos de espacio de estado.
Una discusión más detallada del control de diagnóstico puede encontrarse en
Harvey (1989, §§ 5.4 y 8.4) y a lo largo del manual del paquete de computación
STAMP de Koopman, Harvey, Doornik y Shephard (1995 y 2000).
19.9 Predicción
Supongamos que tenemos observaciones y1 > = = = > yq que satisfacen el modelo
(19.1) de espacio de estado y queremos predecir yq+c , c = 1> 2> = = = > M. Sigu-
iendo con el argumento dado en el Capítulo 6, queremos que la predicción sea
con mínimo error medio cuadrático de predicción (MEMCP) dada la mues-
tra completa Yq . O sea que buscamos aquella estimación y bq (c) de yq+c que
minimice
bq (c) = H(yq+c | Yq )=
y (19.36)
por lo tanto
bq (1) = Zq+1 H(q+1 | Yq )
y
= Zq+1 aq+1 > (19.37)
donde aq+1 es la estimación de q+1 producida por el filtro de Kalman en
(19.9). La matriz de varianza del error o matriz de error medio cuadrático
Fq+1 = H[(b yq (1) yq+1 )0 | Yq ]
yq (1) yq+1 )(b
= Zq+1 Pq+1 Z0q+1 + Hq+1 > (19.38)
es calculada por la relación (19.3) del filtro de Kalman.
Para c = 2> = = = > M, definamos
aq+c = H(q+c | Yq )> (19.39)
y
Pq+c = H[(aq+c q+c )(aq+c q+c )0 | Yq ]= (19.40)
Puesto que
yq+c = Zq+c q+c + %q+c >
tenemos
bq (c) = Zq+c H(q+c | Yq )
y
= Zq+c aq+c > (19.41)
con matriz de error medio cuadrático
Fq+c = H{[Zq+c (aq+c q+c ) %q+c ][Zq+c (aq+c q+c ) %q+c ]0 | Yq }
= Zq+c Pq+c Z0q+c + Hq+c = (19.42)
Ahora derivamos las recursiones para calcular aq+c y Pq+c . De (19.1) tenemos
que
q+c+1 = Tq+c+1 q+c + Rq+c+1 q+c+1 >
entonces
aq+c+1 = Tq+c+1 H(q+c | Yq )
= Tq+c+1 aq+c > (19.43)
304 CAPÍTULO 19. EL ALGORITMO DE KALMAN
Observamos que las recursiones (19.43) y (19.44) para aq+c y Pq+c re-
spectivamente, son las mismas que las recursiones para aq+c y Pq+c del filtro
de Kalman dadas en (19.9) y (19.11) respectivamente, siempre que tomemos
en estas últimas vq+c = 0 y Kq+c = 0 para c = 1> = = = > M 1. Pero estas
son precisamente las condiciones que se mostraran en el Capítulo 20, fórmu-
la (20.1), que nos permiten tratar a las observaciones faltantes mediante la
aplicación rutinaria del filtro de Kalman.
En consecuencia, hemos demostrado que las predicciones de yq+1 > = = = > yq+M
junto con sus matrices de varianzas de los errores de predicción pueden ser
obtenidas simplemente tratando a yw para w A q como observaciones faltantes
y usando los resultados de §20.2. En algún sentido esta conclusión podría ser
considerada intuitivamente obvia, no obstante pensamos que es importante
demostrarlo algebraicamente. Para resumir, las predicciones y sus matrices
de varianzas de los errores asociadas pueden obtenerse rutinariamente en el
análisis de series de tiempo basado en los modelos Gaussianos de espacio de
estado mediante la continuación del filtrado de Kalman más allá de w = q
con vw = 0 y Kw = 0 para w A q. Estos resultados para predicción consti-
tuyen una característica elegante de los métodos de espacio de estado para
el análisis de las series de tiempo.
Capítulo 20
Series Irregulares I
20.1 Introducción
El objetivo de este Capítulo y del siguiente es examinar los métodos para
tratar una gran variedad de datos con irregularidades que suceden en el análi-
sis práctico de series de tiempo. La atención se centra, en muchos casos, en
series de tiempo univariadas, pero se discute el uso de modelos multivariados
para la estimación de valores faltantes en las series.
Muchas series de tiempo están sujetas a irregularidades en los datos, tales
como valores perdidos o faltantes, observaciones atípicas (“outliers”), cam-
bios estructurales y espaciado irregular. Este Capítulo presenta un enfoque
unificado para el análisis de estos datos irregulares. El tratamiento técnico
está basado en los métodos de espacio de estado. Estos métodos pueden ser
aplicados a cualquier modelo lineal, incluyendo aquellos dentro de la clase de
los ARIMA. Ahora bien, la facilidad de interpretación de los modelos estruc-
turales de series de tiempo, junto con la información asociada que producen
el filtro y el suavizador de Kalman, hacen de ellos el vehículo natural para el
tratamiento de los datos desordenados.
305
306 CAPÍTULO 20. SERIES IRREGULARES I
donde {w es una variable indicativa que es igual a cero para todos los períodos
excepto en el tiempo w = donde es uno. Debe notarse que el marco de espa-
cio de estado puede extenderse hasta incluir variables explicativas. Dados los
hiperparámetros, la introducción de variables ficticias tiene exactamente el
mismo efecto que saltar la actualización del filtro como se describió anterior-
mente; ver Harvey (1989, pág. 145). Si los hiperparámetros son desconocidos,
debe aplicarse una corrección al término que contiene el determinante de la
función de verosimilitud (Sargan y Drettakis, 1974). De cualquier manera,
cuando es incluido en el vector de estado y el elemento del vector inicial
de estado asociado con es tratado como una variables aleatoria difusa, la
función de verosimilitud computada por el filtro de Kalman exacto inicial se
corrige automáticamente. Este enfoque es fácilmente generalizado a múltiples
valores faltantes.
consecutivas. Del modelo básico, derivamos una representación para las ob-
servaciones que varía en el tiempo. La variación en las matrices de sistema
está determinada por la longitud del intervalo entre las observaciones.
Tratemos a | , = 1> = = = > q, como las observaciones y definamos el in-
tervalo = w w 31 como el tiempo entre | 31 e | . Supóngase que + es
el mayor valor tal que m @+ es un entero para todo m. Para = 1> = = = > q
los intervalos son reescalados de tal manera que el valor de + es uno.
Suponiendo un reescalado similar de los puntos w , definimos la serie subya-
cente |w+ para w = 1> = = = > q+ , donde q+ = wq e |w+ = | . El modelo básico de
espacio de estado es
|w+ = Zw +w + %w > %w Q(0> 2% )>
+ + (20.5)
+w = T w31 + R w > +w Q(0> Qw )> w = 1> = = = q+ =
Para tomar en cuenta el intervalo de tiempo entre observaciones consec-
utivas | , definimos el modelo de espacio de estado que varía en el tiempo
como
| = Z + % >
(20.6)
= T 31 + > = 1> = = = q>
donde
X
31 X
31
T = T > = Tm R +
3m > Y ( ) = Tm RQ 3m R0 (T)m = (20.7)
m=0 m=0
Figura 20.4: Producto Bruto de los Estados Unidos con tendencia estocástica,
desde el trimestre 1 de 1951 al trimestre 4 de 1985, en logaritmos
Figura 20.5: Producto Bruto de los Estados Unidos con tendencia deter-
minística e intervenciones, desde el trimestre 1 de 1951 al trimestre 4 de
1985, en logaritmos
Esto implica que xw depende de los errores de predicción un paso adelante fu-
turos y corrientes. Esta característica también es observable en el suavizador
dado en (19.16).
Efectos aleatorios
Como lo notamos en la introducción de esta sección, los outliers pueden ser
producidos por un modelo de efectos aleatorios, esto es
( )
|w = zw + %w > w = 1> = = = > q> (20.18)
( )
donde Y (%w ) = 2 en w = y cero en todo otro lugar. El mejor test
localmente invariante (POL) de K0 : 2 = 0 versus K1 : 2 A 0 es de la
forma
y = w + %> (20.21)
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 317
%) = ( 4% @ 2 )V31 = ( 4% @ 4 )Y (u)=
Y (b (20.23)
para w = , el cual se toma como que tiene una distribución I . Si los hiper-
parámetros son estimados, (v 1)I se toma como que tiene una distribución
"2v31 . Tests de cambios en estaciones particulares o grupos de estaciones
pueden también ser realizados.
Un gráfico del estadístico dado en (20.27) puede dar una indicación del
cambio en la estructura estacional en un momento de tiempo particular.
De cualquier manera, es difícil corregir por correlación serial y testar por
alejamientos de la distribución nula, esta es la distribución bajo el supuesto
que no están presentes cambios en la estacionalidad. Una serie de estadísticos
para testar cada estación pueden también ser construidos, aún cuando ello
típicamente requiere ciertas transformaciones a realizarse en rv>w . Un gráfico
de la evolución de cada componente estacional obtenido mediante suavizado
puede ser muy informativo.
Figura 20.6: Volumen del caudal del río Nilo en metros cúbicos en Aswan,
con nivel estocástico. Datos anuales desde 1871 hasta 1970
Figura 20.7: Residuos auxiliares irregulares del volumen del caudal del río
Nilo en Aswan con banda de confianza, desde 1871 hasta 1970
Figura 20.6). Esta serie ha sido analizada también por Carlstein (1988) y
Balke (1993).
Figura 20.8: Residuos auxiliares del nivel del volumen del caudal del río Nilo
en Aswan con banda de confianza, desde 1871 hasta 1970
Figura 20.9: Volumen del caudal del río Nilo en Aswan con nivel determinís-
tico e intervenciones, desde 1871 hasta 1970
20.3. “OUTLIERS” Y CAMBIOS ESTRUCTURALES 323
Figura 20.10: Residuos auxiliares irregulares del logaritmo del consumo anual
de bebidas alcohólicas en Gran Bretaña, desde 1870 hasta 1938, con banda
de confianza
Figura 20.11: Residuos auxiliares del nivel del logaritmo del consumo anual
de bebidas alcohólicas en Gran Bretaña, desde 1870 hasta 1938, con banda
de confianza
Series Irregulares II
21.1 Introducción
En este Capítulo continuamos examinando los métodos para tratar una gran
variedad de datos con irregularidades que suceden en el análisis práctico de
series de tiempo.
Los datos de las series de tiempo pueden estar desordenados, y por lo
tanto ser difícil de manejarlos mediante procedimientos estándares, especial-
mente cuando ellos son intrínsecamente no Gaussianos o contienen estruc-
turas periódicas complicadas tales como cuando son observados en una base
horaria, diaria o semanal. Este Capítulo prosigue con la presentación de un
enfoque unificado para el análisis de estos datos irregulares. Como antes, el
tratamiento técnico está basado en los métodos de espacio de estado que,
junto con la facilidad de interpretación de los modelos estructurales de series
de tiempo y con la información asociada que producen el filtro y el suavizador
de Kalman, hacen de ellos el vehículo natural para el tratamiento de los datos
desordenados.
Modelos estructurales de series de tiempo pueden ser expresados en tiem-
po continuo, permitiendo con ello un tratamiento general de observaciones
irregularmente espaciadas. La estructura periódica asociada con datos horar-
ios, diarios o semanales puede ser efectivamente tratada usando curvilíneas
(“splines”) variables en el tiempo, mientras que el análisis estadístico de mod-
elos no Gaussianos es ahora posible debido a los desarrollos recientes en las
técnicas de simulación.
325
326 CAPÍTULO 21. SERIES IRREGULARES II
las fechas de los días de observación cambian cada año, por ello, aún en el caso
que hubiera un número entero de semanas en el año, la estructura estacional
cambia de año a año. Por ejemplo, existe una gran diferencia si la oferta de
dinero es observada el día antes de Navidad o seis días antes de Navidad.
El primer caso se presenta cuando Navidad es un día jueves, y el segundo
cuando Navidad es un martes. Para hacer las cosas peores, esta estructura
estacional no es recurrente cada siete años debido a los años bisiestos.
El otro problema importante es que la posición de la Pascua cambia
de año a año. Además, sus efectos pueden ser diferentes dependiendo de
cuando ocurra. Si es tarde en el año, sus efectos pueden superponerse y
posiblemente interactuar con aquellos asociados con el feriado del Primero
de Mayo. Por supuesto, la posición de la Pascua también afecta a los modelos
para observaciones mensuales, pero estos casos son más fáciles de manejar y
existe una considerable literatura sobre el tema; ver Bell y Hillmer (1983).
Los procedimientos de tipo ARIMA no son fácilmente generalizables para
datos semanales. Uno de los pocos trabajos publicados sobre ajuste esta-
cional basado en modelos para datos semanales, por Pierce, Grupe y Cleve-
land (1984), redondea algunos de los problemas usando regresión para mod-
elar parte del efecto estacional de una manera determinística y luego encara
los efectos estocásticos por medio de modelos ARIMA.
Harvey, Koopman y Riani (1997) modelaron satisfactoriamente la oferta
monetaria M0 usando el modelo estructural de series de tiempo
Zw Zw
| = Z(u)gu + g%(u)> (21.9)
w 31 w 31
Zw
(w ) = e A
(w 31 ) + eA(w 3v) Rg(v)= (21.11)
w 31
334 CAPÍTULO 21. SERIES IRREGULARES II
= T + > (21.12)
donde los procesos en tiempo continuo (w) y (w) tienen incrementos mutua-
mente y serialmente no correlacionados, y varianzas 2 y 2 respectivamente.
Entonces, | = | i (w ) para = 1> = = = > q. Esta definición, junto con (21.9),
(21.11) y cierta cantidad de manipulación (Harvey y Stock, 1994), implica
que el acumulador en el momento w puede ser escrito como
donde
Zw
i
(w ) = W(w v)Rg(v)>
w 31
Zw
i
% (w ) = g%(v)>
w 31
Zu
W(u) = eAv gv=
0
con Y (%i ) = 2% y
µ ¶ Z µ 0 ¶
eAu RQR0 eA u eAu RQR0 W(u)0
Y = 0 gu = Q+
=
i W(u)RQR0 eA u W(u)RQR0 W(u)0
0
(21.21)
Zu µ ¶ µ u2
¶
1 v u
W(u) = gv = 2 = (21.22)
0 1 0 u
0
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 337
¡ ¢0
donde en este caso i es el vector i i de orden 2 × 1. Los bloques
fuera de la diagonal de (21.21) son derivados en forma similar, dando
Z
0
cov( i > 0 ) = W(u)RQR0 eA u gu
0
à 2 4 2
!
2 2 + 2 8 2 6
= 3 2 = (21.24)
2 3 2 2
No obstante y puesto que log s( | Yq ) = log s(> Yq ) log s(Yq ), es más
fácil de obtener el estimador a partir de la distribución conjunta como la
solución de las ecuaciones
C log s(> Yq )
= 0> w = 1> = = = > q= (21.28)
Cw
De forma similar, en el momento del filtrado el EMP de Aw dado Yw31 es la
solución de las ecuaciones
C log s(Aw > Yw31 )
= 0> v = 1> = = = > w= (21.29)
Cv
Dejamos de lado por el momento la cuestión de la iniciación.
En el caso no Gaussiano estas ecuaciones son no lineales y deben ser
resueltas mediante métodos iterativos. La idea que usaremos para obtener los
pasos adecuados de las iteraciones es la siguiente. Se escriben las ecuaciones
(21.28) para el análogo lineal y Gaussiano del modelo bajo consideración.
Puesto que para las densidades Gaussianas los modos son iguales a las medias,
la solución de las ecuaciones es H( | Yq ). Pero sabemos que ella está dada
por el suavizador y filtro de Kalman. Se sigue que en el caso lineal Gaussiano
las ecuaciones pueden ser resueltas por el suavizador y filtro de Kalman.
Ahora bien, retornando al caso no Gaussiano, sea e un valor experimental
de , se construye una forma linealizada de (21.28) usando .e Esto puede ser
hecho expandiendo localmente la fórmula antes nombrada alrededor de e o
mediante otros métodos que son ilustrados en Abril (2001a). Se manipula las
ecuaciones lineales resultantes hasta llegar a una forma que se parece a las
ecuaciones Gaussianas análogas y se resuelve usando el suavizador y filtro
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 341
ew = [bWW
y e w )]31 [yw bWw (Zw
w (Zw e w )] + Zw
ew
Rw Q31 0 31 0
w Rw (w Tw w31 ) + Tw+1 Rw+1 Qw+1 Rw+1 (w+1 Tw+1 w )
+ Z0w H31
w (yw Zw w ) = 0= (21.35)
b v2
log O(#) = log OJ + log z + > (21.39)
2Qz2
b P
y la varianza asintótica de log O(#) es v2 @(Qz2 ) donde v2 = Q 31 Q
l=1 (zl
z)2 . La estimación por máxima verosimilitud de # está basada en la maxi-
mización de (21.39) usando procedimientos de optimización numérica. Durbin
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 345
b
log O(#) b
log OJ + log z> (21.40)
donde z b y
b = z() b = (
b1 > = = = >
bq )0 . Maximizando una función de verosimil-
itud aproximada produce buenos valores iniciales sin simulación para #.
Durbin y Koopman (2000) también desarrollan métodos para la evalu-
ación de media posterior del vector de estado y del error medio cuadrático
asociado. Estos métodos están basados en técnicas similares de simulación
siendo computacionalmente eficientes y requiriendo muestras simuladas de
pocos cientos. De cualquier manera, el requerimiento de cómputos es sustan-
cialmente mayor que para el cálculo de modo posterior. Después de investigar
las diferencias entre el modo y la media para una gran cantidad de casos, ellos
concluyen que las diferencias son muy pequeñas; en algunos casos el modo y
la media son indistinguibles.
Durbin y Koopman (2000) ilustran la aplicación de lo presentado an-
teriormente usando datos mensuales de conductores de vehículos utilitarios
livianos muertos en accidentes de tráfico desde 1969 hasta 1984 en Gran Bre-
taña. Los datos consisten en valores enteros pequeños por lo tanto el uso
de la distribución de Poisson es justificado. La media de la distribución de
Poisson es modelada mediante el modelo estructural básico consistente en
un nivel local (18.7), dummy estacionales (18.9) y una intervención de tipo
escalón en Febrero de 1982 para medir el efecto de la legislación sobre cintur-
ones de seguridad introducida en el mes anterior. La desviación estándar
es estimada como 0> 025 mientras que la desviación estándar $ es estimada
como cero. La estimación de la intervención es 0> 276, con error estándar
0> 13, implicando una reducción del 24> 1% en las fatalidades; ver por ejemplo
Harvey (1989, p. 421).
346 CAPÍTULO 21. SERIES IRREGULARES II
21.4.2 Robustez
Los modelos pueden ser hecho robustos permitiéndoles distribuciones con co-
las pesadas; ver Kitagawa (1990) y Bruce y Jurke (1996). Aquí mostramos
cómo la metodología de Durbin y Koopman (2000) y Abril (2002) considera
disturbios generados por la distribución w. La metodología en sí misma es
general: se aplica a cualquier distribución no Gaussiana incluyendo la Gam-
ma y las mezclas de distribuciones, y también a modelos no lineales de series
de tiempo.
“Outliers”
Consideremos el modelo lineal para una serie univariada
|w = w + %w > %w s(%w )> w = 1> = = = > q> (21.41)
donde s(%w ) es una densidad no Gaussiana, w = Zw w y w es generado por
(21.26) con s( w ) Gaussiano. Aquí consideramos el caso en que la densidad
s(%w ) está basada en la distribución w de Student, por lo tanto
1 +1 ¡ ¢
log s(%w ) = constante + log d() + log nw log 1 + nw %2w > (21.42)
2 2
donde
¡ ¢
K +1
d() = ¡2¢ > nw31 = ( 2)jw > A 2> w = 1> = = = > q= (21.43)
K 2
La media de %w es cero y la varianza es jw para cualquier valor de los grados
de libertad, los cuales no necesitan ser enteros. Entonces el modo posterior
de %w se lo obtiene mediante aplicación repetido del suavizador y filtro de
Kalman a
|ew = w + e
%w > e e2w )>
%w Q(0> w = 1> = = = > q> (21.44)
con |ew = |w y
1 2 2
e2w =
e
% + jw > (21.45)
+1 w +1
donde e %w es un valor inicial de prueba del modo posterior de %w . El proced-
imiento opera en la misma forma que para los modelos de familias exponen-
ciales. Valores iniciales para e%w pueden obtenerse del análisis Gaussiano del
21.4. NO GAUSSIANIDAD Y ROBUSTEZ 347
Cambios estructurales
La metodología de Durbin y Koopman (2000) y Abril (2001a) también es
aplicable a modelos con cambios estructurales en la tendencia. Consideremos
un modelo estructural básico (18.1) para el cual los disturbios w del nivel local
(18.7) o de la tendencia lineal local (18.8) son generados por una distribución w
con grados de libertad y varianza kw , w = 1> = = = > q. La teoría general necesita
ser modificada puesto que el error de estado es el que es no Gaussiano en lugar
de serlo el error de observación. De cualquier manera, el método de cálculo
de modo posterior de w es sorpresivamente similar al método desarrollado
en la sub-subsección anterior, pero con %w reemplazado por w . El modelo
Gaussiano aproximado es el modelo estructural básico con w Q(0> e2w ),
donde
1 2 2
e2w =
e
+ kw > (21.46)
+1 w +1
yew es un valor inicial de prueba de modo posterior de w . Repitiendo el
suavizador y filtro de Kalman para el modelo Gaussiano, el que produce
nuevos valores de prueba para e w , conduce a la convergencia hacia el modo
posterior b
w . El modo posterior para la tendencia w se lo obtiene mediante
348 CAPÍTULO 21. SERIES IRREGULARES II
bw31 + b
bw = b0 , junto con los detalles de la estimación por
w ; la iniciación
máxima verosimilitud están dados en Durbin y Koopman (2000).
21.5 Conclusión
Este Capítulo y el anterior han cubierto un amplio rango de irregularidades
en los datos y han mostrado que todos los problemas estadísticos asocia-
dos pueden ser tratados mediante el uso del enfoque de espacio de estado.
Las series de tiempo estructurales tienen intuitivamente una atractiva repre-
sentación de espacio de estado y el filtro y el suavizador de Kalman producen
cantidades que tienen interpretaciones prácticas. Esto da a los modelos es-
tructurales una clara ventaja sobre los modelos ARIMA cuando los datos
son desordenados o irregulares. Aún más, la especificación de un modelos
estructural adecuado no depende de estimaciones tales como el correlograma
muestral, lo que está sujeto a distorsión ante la presencia de irregularidades
en los datos. Una buena discusión sobre las ventajas del enfoque de espacio
de estado sobre el ARIMA o de Box y Jenkins para el análisis de las series
de tiempo puede verse en Abril (2001b).
Los modelos estructurales pueden ser extendidos para tratar estructuras
complicadas que varían en el tiempo. Investigaciones recientes han mostrado
también que la estimación de los modelos estructurales con disturbios no
Gaussianos es posible usando métodos modernos de simulación. Esto tiene
importantes implicancias para el ajuste de modelos puesto que son robustos
con respecto a los outliers y a los cambios estructurales. La conclusión general
es que los modelos estructurales de series de tiempo proveen un unificado y
práctico esquema para el tratamiento de las series de tiempo irregulares.
Capítulo 22
Ejercicios de la Cuarta Parte
22.1 Ejercicios
1. Considere el modelo con tendencia amortiguada
|w = w + %w > %w Q(0> 2% )>
w = w31 + w31 + w > w Q(0> 2 )>
w = * w31 + w > w Q(0> 2 )> |*| ? 1=
349
350 CAPÍTULO 22. EJERCICIOS DE LA CUARTA PARTE
la forma
|w = w + w >
w = w31 + w >
w = w31 w32 w33 + $ w >
(t 2 + 4t)1@2 2 t
= =
2
Si el modelo (22.2) es reformado de tal manera que la covarianza entre
los dos errores es * en lugar de cero, muestre que la autocorrelación de
primer orden puede ser positiva.
22.1. EJERCICIOS 351
7. Sea |w , w = 1> = = = > q, una serie de observaciones del logaritmo del niv-
el de precios en el mes w. Un analista financiero ajustó un modelo
ARIMA(0> 2> 1) a esos datos y estimó al parámetro de promedio móvil
como 0> 5 y a la varianza del error como 0> 4.
352 CAPÍTULO 22. EJERCICIOS DE LA CUARTA PARTE
1 2 3 4 5 6
u( ) 0> 4 0 0> 2 0> 5 0> 2 0
[1] Abril, Juan Carlos (1985), Asymptotic expansions for time series
problems with applications to moving average models, Ph. D. Thesis,
The London School of Economics and Political Science, University of
London, England.
[5] Abril, Juan Carlos (2000), James Durbin. Más allá de los tests de
correlación serial. Reporte técnico, Facultad de Ciencias Económicas
de la Universidad Nacional de Tucumán, Argentina.
353
354 BIBLIOGRAFÍA
[8] Abril, Juan Carlos (2002), Outliers, structural shifts and heavy-
tailed distributions in state space time series models, Pakistan Journal
of Statistical, 18(1), 25-43.
[9] Abril, J. C. y M. B. Blanco (2002), Stylized Facts of the Gross
National Product of Argentina: 1875 - 1999, Anales de la XXXVII
Reunión Anual de la Asociación Argentina de Economía Política.
[10] Abril, J. C., H. D. Ferullo y A. Gainza Córdoba (1998), Es-
timación de la relación de Okun: Argentina 1980-1996, Anales de la
XXXIII Reunión Anual de la Asociación Argentina de Economía Políti-
ca.
[11] Abril, J. C., H. D. Ferullo y A. Gainza Córdoba (1999), Ten-
dencias estocásticas en modelos de regresión dinámica: una aplicación
a la relación desempleo-crecimiento en la Argentina, Revista de la So-
ciedad Argentina de Estadística, 3, 9-35.
[12] Abril, J. C. y K. Maekawa (1991a), Approximate null distributions
of the Durbin-Watson test statistic for non-linear regression model,
Hiroshima Economic Review, 15, Nr 2, 149 a 168.
[13] Abril, J. C. y K. Maekawa (1991b), Durbin-Watson test in non-
linear regression models, Cuaderno Nr 57 (1991) del Instituto de Inves-
tigaciones Estadísticas, Facultad de Ciencias Económicas de la Univer-
sidad Nacional de Tucumán, Argentina.
[14] Abril, J. C. y K. Maekawa (1992), Distribuciones aproximadas
del estadístico de Durbin-Watson para modelos de regresión no-lineal,
Comunicaciones 1992 de la Sociedad Argentina de Estadística.
[15] Abril, J. C. y K. Maekawa (1997), Approximate distribution of
Durbin-Watson test statistic in non-linear regression models, Revista
de la Sociedad Argentina de Estadística, 1, 9-26.
[16] Abril, J. C. y K. Maekawa (1999), The use of the Durbin-Watson
test in non-linear regression models, Pakistan J. Statistics, 15, 41 a 46.
[17] Abril, J. C. y M. R. Santillán (1998), Approximation to the finite
sample distribution of a general estimator of the coe!cient in a AR(1)
model, Pakistan J. Statist., 14, 11-23.
BIBLIOGRAFÍA 355
[23] Akaike, H. (1978), Time series analysis and control through para-
metric models, en Applied Time Series Analysis (D. F. Hendry, Ed.),
Academic Press: New York.
[66] de Jong, P. (1991), The diuse Kalman filter, Ann. Statist., 19, 1073-
83.
BIBLIOGRAFÍA 359
[74] Durbin, J. (1960b), The fitting of time series models, Rev. Inst. In-
ternat. Statist., 28, 233-44.
[75] Durbin, J. (1969), Tests for serial correlation in regression analysis
based on the periodogram of least-squares residuals, Biometrika, 56,
1-15.
[76] Durbin, J. (1970), An alternative to the bounds test for testing for
serial correlation in least-squares regression, Econometrica, 38, 422-9.
[77] Durbin, J. (1973), Distribution Theory for Tests Based on the Sample
Distribution Function, Society for Industrial and Applied Mathematics
(SIAM): New York.
[78] Durbin, J. (1980a), Approximations for densities of su!cient estima-
tors, Biometrika, 67, 311-33.
[79] Durbin, J. (1980b), The approximate distribution of partial serial cor-
relation coe!cients calculated from residuals from regression on Fourier
series, Biometrika, 67, 335-49.
360 BIBLIOGRAFÍA
[80] Durbin, J. (1982), More than twenty-five years of testing serial corre-
lation in least squares regression, en Current Developments in the In-
terface: Economics, Econometrics, Mathematics (M. Hazewinkel y A.
H. G. Rinnooy Kan, Eds.), Proceedings of the Conference to celebrate
Twenty-fifth anniversary of the Econometric Institute, Rotterdam, 59-
71.
[106] Hart, B. J. (1942), Significance levels for the ratio of the mean square
succesive dierence to the variance, Ann. Math. Statist., 13, 445-7.
[142] Koopman, S. J. (1997), Exact initial Kalman filter and smoother for
non-stationary time series models, J. Amer. Statist. Assoc., 92, 1630-
38.
[152] Lomniki, Z. A. (1961), Test for departure from normality in the case
of linear stochastic processes, Metrika, 4, 37-62.
[155] Maravall, Agustín (1985), On structural time series models and the
characterization of components, J. Business Econ. Statist., 3, 350-5.
[184] Stock, J. H. (1994), Unit roots structural breaks and trends, en Hand-
book of Econometrics, Vol. 4, (R. F. Engle y D. L. McFadden, Eds.),
pp. 2740-841, Elsevier Science: New York.
[185] Subba Rao, T. (1970), The fitting of non-stationary time series with
time-dependent parameters, J. Roy. Statist. Soc., B, 32, 312-22.
[186] Subba Rao, T. (1981), On the theory of bilinear time series models,
J. Roy. Statist. Soc., B, 43, 244-55.
BIBLIOGRAFÍA 369
[190] Tsay, R. S. (1988), Outliers, level shifts and variance changes in time
series, J. Forecasting, 7, 1-20.
[192] von Neumann, J. (1941), Distribution of the ratio of the mean square
successive dierence to the variance, Ann. Math. Statist., 12, 367-95.
[193] Wahba, Grace (1990), Spline Models for Observational Data, SIAM:
Philadelphia.
[201] Whittle, Peter (1991), Likelihood and cost as path integrals (with
Discussion), J. R. Statist. Soc., B, 53, 505-29.
[207] Young, P. y K. Lane (1990), The limitations of the IRW for mod-
eling trend behaviour in time series analysis, University of Lancaster
Discussion Paper.
371
372 ÍNDICE DE MATERIAS
Yule
serie de, 40
Yule-Walker
ecuaciones de, 45, 88