Está en la página 1de 85

CAPÍTULO 3

MÉTODOS AUTOPROYECTIVOS
ESTOCÁSTICOS DE PREDICCIÓN.
METODOLOGÍA DE BOX-JENKINS

PREDICCIONES INCONDICIONALES ESTOCÁSTICAS


En el capítulo anterior hemos estudiado las series temporales desde el punto
de vista determinista o clásico. En este apartado vamos a ver el estudio de las series
temporales desde el punto de vista estocástico o moderno, que utiliza métodos más
complejos y su aplicación requiere series más largas. También sabemos del capítulo
anterior que existen predicciones condicionales e incondicionales.

Las predicciones condicionales se realizan a través de modelos causales (se


predicen valores futuros de la variable independiente de un modelo según los valores
que tomen las variables independientes del modelo ajustado).

Las predicciones incondicionales se realizan mediante métodos


autoprotectivos (se predicen valores futuros de una variable en función de valores
pasados, actuales y futuros de la misma). Pero las predicciones incondicionales
pueden tener un enfoque determinista o estocástico según la naturaleza del modelo
utilizado.

El esquema siguiente ilustra la clasificación de las técnicas de predicción:

Condicionales  Se realizan mediante modelos causales (regresión, etc.)



Predicciones   Deterministas  Métodos autoproyectivos deterministas
 Incondicionales  Estocásticas  Métodos autoproyectivos estocásticos
 

En este capítulo se estudian las predicciones incondicionales mediante


métodos autoprotectivos con un enfoque estocástico a través de modelos ARIMA.
80 SERIES TEMPORALES

MODELOS ARIMA: PRIMEROS CONCEPTOS


Box y Jenkins son los autores de la modelización ARIMA. Un modelo ARIMA
(AutoRegresive Integrated Moving Average) es un modelo estadístico autoprotectivo que
permite predecir los valores de una variable en función de sus valores pasados sin
necesidad de ninguna otra información de variables auxiliares o relacionadas. Cada
observación en un momento dado es modelada en función de valores anteriores suyos en
el tiempo. El nombre genérico ARIMA de estos modelos se deriva de sus tres
componentes: Autoregresivo (AR), Integrado(I) de Medias Móviles (MA). El modelo
ARIMA presenta una ecuación explícita que permite describir un valor como una
función lineal de datos anteriores y errores debidos al azar. Puede incluir, además, un
componente cíclico o estacional. El objetivo consiste en obtener un modelo adecuado,
pero parsimonioso, es decir, el modelo ARIMA debe contener todos los elementos
necesarios, pero los mínimos necesarios para describir el fenómeno en estudio. Box y
Jenkins recomiendan como mínimo unas 50 observaciones en la serie temporal.
Modelizar una serie temporal consiste en derivar un modelo ARIMA que se ajuste al
conjunto de datos dado. Para ello es necesario estudiar características esenciales de las
series como estacionalidad, estacionalidad, funciones de autocorrelación, etc.

Series temporales y procesos estocásticos. Características


El concepto de serie temporal se deriva de un concepto más amplio como es
el de proceso estocástico. Se define un proceso estocástico {Xt}, para t = 1,2,3,...,
como una colección de variables aleatorias Xt, ordenadas de acuerdo con el
parámetro discreto t, que en nuestro contexto es el tiempo. Los modelos estocásticos
de series temporales conciben una serie temporal dada Xt como una colección de
observaciones muestrales, cada una correspondiente a una variable del proceso. Las
leyes probabilísticas que rigen cualquier proceso estocástico se describen
exhaustivamente y sin ambigüedades mediante las funciones de distribución de
probabilidad conjunta de todos y cada uno de los vectores de variables aleatorias que
se puedan formar con las variables que constituyen el proceso.

Sin embargo, para muchos fines prácticos, los procesos se suelen describir
mediante sus momentos. La media del proceso estocástico se define por ut = E(Xt) y
generalmente es una función del tiempo. La función de autocovarianza se define como:
g(t,t+k) = Cov[Xt,Xt+k] = E{[Xt-E(Xt)][Xt+k-E[Xt+k]]}
k = ... -3, -2, -1, 0, 1, 2, 3, ...
A partir de esta función se obtienen dos resultados útiles. Por una parte, para
k=0 surge la función de varianza del proceso g(t,t) = Var Xt.

Por otra parte la función de autocorrelación se define como:


CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 81

h(t,t+k) = g(t,t+k)/ [g(t,t)g(t+k,t+k)]1/2


k = ... -3, -2, -1, 0, 1, 2, 3, ...

Procesos estocásticos estacionarios. Funciones de autocorrelación


y autocorrelación parcial
Otro concepto importante en los procesos estocásticos es el de estacionariedad.
Un proceso estocástico es estacionario en sentido estricto si los vectores [Xt1, Xt2, ..,
Xtn] y [X t1+s, Xt2+s, ..., Xtn+s] poseen la misma función de distribución de probabilidad,
independientemente de s, para cualquier n dado. La definición de estacionariedad en
sentido estricto implica que las características del proceso estocástico no sufren
alteración en tiempos históricamente diferentes. Esta condición es quizá demasiado
fuerte para imponer en la práctica. Un proceso es estacionario en sentido amplio (o
estacionario de segundo orden, o de covarianza estacionaria, o débilmente estacionario)
cuando se verifica que ut = u <  y g(t,t+k) = gk < , lo que significa que la media
del proceso es constante (no depende del tiempo) y la autocovarianza es solo
función del lapso temporal considerado, y no del tiempo histórico. Los momentos
de orden superior pueden variar con el tiempo. En el caso de procesos con función
de distribución de probabilidad normal, la estacionariedad en sentido amplio implica la
estacionariedad en sentido estricto.
La función de autocorrelación FAC en procesos estacionarios es hk = gk / g0 =
Cov(Xt,Xt+k/V(Xt) k = ...-3,-2,-1,0,1,2,3...Para procesos reales se cumple además que
g0>0, gk = g-k, hk = h-k, h0 = 1 y |hk| menor o igual que 1. La representación gráfica con
hk en ordenadas y k en abscisas se denomina correlograma del proceso. La función
de autocorrelación de las series estacionarias disminuye sensiblemente a medida que
aumenta el desfase temporal k. Esto no suele ocurrir en las series no estacionarias.
En las aplicaciones prácticas, en las que se dispone de ciertas observaciones,
Xt (t = 1,2,…,T), relativas a un proceso estocástico que se supone estacionario, la
media del proceso se estima mediante:
T
Xt
X 
t 1 T
Análogamente, la función de autocorrelación, hk, se estima mediante la función de
autocorrelación muestral o función de autocorrelación estimada, que se define por:
T

(X t  X )( X t  k  X )
rk  t 1
T
k = 1, 2, ...
(X
t 1
t  X) 2
82 SERIES TEMPORALES

La representación gráfica de rk, denominada correlograma muestral, constituye


un instrumento de análisis de series temporales de gran interés práctico. Para obtener
correlogramas debe partirse en la práctica de muestras de tamaño suficientemente grande
(al menos 50 observaciones). La función de autocorrelación muestral no se puede calcular
cuando k >T+1, y en la práctica no debe calcularse para k >T/4.

Otro concepto que tiene importancia en la teoría de series temporales es el de ruido


blanco. Un proceso puramente aleatorio (ruido blanco), se define por las condiciones:

u = E(Xt) = 0, g02 = var(Xt) = , gk = cov[Xt,X t+k] = 0 k = ..., -3,-2,-1,0,1,2,3,...

En este tipo de procesos, puramente aleatorios, el correlograma se reduce a un


segmento de longitud unitaria sobre el eje de ordenadas.

Otro concepto muy útil en el análisis de series temporales es la función de


autocorrelación parcial FACP de una serie temporal. El primer término de la
función de autocorrelación parcial, que vamos a denotar por 11, puede estimarse
transformando la serie Xt en desviaciones respecto a su media muestral Yt = Xt - X y
a continuación estimando una regresión de Yt sobre Yt-1. La pendiente estimada de esta
regresión es 11. El modelo de regresión es Yt = 11Yt-1 + ut. Además, el primer valor
de la función de autocorrelación parcial 11 es precisamente igual al primer valor de la
función de autocorrelación. Esta es una propiedad de las funciones de autocorrelación
de todo proceso estocástico estacionario.

El segundo valor de la función de autocorrelación parcial, 22, se estima


mediante una regresión de Yt sobre Yt-1 e Yt-2. El modelo de regresión es Yt = 21Yt1 +
22Yt-2 + ut. El tercer valor de la función de autocorrelación parcial, 33, se estima
mediante una regresión de Yt sobre Yt-1, Yt-2 e Yt-3. El modelo de regresión es Yt = 31Yt-1
+ 32Yt-2 + 33Yt-3 + ut.

Vemos pues que la función de autocorrelación parcial puede estimarse


mediante una serie de regresiones, cada una de las cuales contiene como variable
explicativa un retardo más que la anterior, y de la que nos vamos quedando en cada
caso con los coeficientes estimados en los retardos más altos: 11, 22, 33, ..., que son
así los valores estimados de la función de autocorrelación parcial. Otra posibilidad de
obtener la función de autocorrelación parcial estimada es mediante fórmulas recursivas,
utilizando la función de autocorrelación previamente estimada y utilizando las
ecuaciones de Yule-Walker. A veces se suele denominar correlograma a la
representación gráfica de las funciones de autocorrelación y autocorrelación parcial.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 83

Series temporales estacionarias. Detección de la estacionariedad


Muy pocas series temporales reales del mundo económico son estacionarias. La
mayoría suelen presentar tendencia, suelen tener varianza no constante y también suelen
presentar variaciones estacionales. La presencia de variaciones estacionales se traduce en
una variabilidad de la media del proceso, lo que es contrario a la hipótesis de
estacionariedad. Pero, normalmente, es posible transformar muchas series económicas
reales no estacionarias en otras aproximadamente estacionarias, sometiéndolas a
operaciones algebraicas adecuadas. A las series no estacionarias que presentan una
tendencia lineal se las somete a la transformación Zt = Xt - Xt-1 para convertirlas en
estacionarias (en media). Si Xt muestra una tendencia lineal, la primera diferencia de la
serie, Zt, ya no tendrá esa tendencia. En este caso se dice que Xt es una serie temporal
homogénea de primer orden o integrada de primer orden y se denota por I(1).

La eliminación de una tendencia cuadrática puede conseguirse mediante


doble diferenciación. Esta operación se realiza en dos etapas, primero se obtiene Wt
= Xt - Xt-1 y, si sigue existiendo tendencia, se obtiene Zt = Wt - Wt-1. Si Zt ya no
incorpora tendencia (es estacionaria), se dice que Xt es una serie temporal homogénea
de segundo orden I(2). Análogamente una tendencia de orden p puede eliminarse
llevando a cabo una diferenciación de orden p dando lugar a una serie homogénea o
integrada I(p) de orden p.

Si hay duda sobre diferenciar o no, o sobre cuántas veces hay que
diferenciar, se calcula la varianza de la serie original y de la serie sometida a
diferentes diferenciaciones, tomando como diferenciación adecuada aquella para al
que la varianza es mínima. El método es tanto más adecuado cuanto mayor sea la
diferencia entre las varianzas anteriores. La sobrediferenciación suele evitarse
observando si en la parte de medias móviles alguna raíz es próxima a la unidad.

Si Xt muestra una tendencia exponencial, puede eliminarse la tendencia


hallando primero el logaritmo de la serie, y luego la diferencia primera de la nueva
serie así calculada. La serie Zt = LnXt - LnXt-1 puede tener la tendencia eliminada.

La estacionariedad en varianza suele corregirse aplicando logaritmos o una


transformación más general como la de Box-Cox. La transformación de Box-Cox
consigue estabilizar la varianza de una serie temporal (serie estacionaria en
varianza) y aproximar su distribución a una normal. Si Xt es la serie temporal inicial,
la transformación viene dada por:

 ( X t  l 2 ) l1  1
Z t  si l1  0 y X t  l 2
 l1 g l1 1
Z  gLn( X  l ) si l  0 y l  0
 t t 2 1 2
84 SERIES TEMPORALES

donde g es la media geométrica simple de Xt + l2. El primer parámetro l1 gobierna la fuerza


de la transformación. Para l1=1 tenemos la serie original Xt y l2 se elige de forma que Xt+l2
sea siempre positiva. Por lo tanto l2 será cero si trabajamos con datos positivos e igual en
valor absoluto al valor más negativo observado, en otro caso. La transformación de
Box_Cox es realmente una familia de transformaciones dependiente del parámetro l1, que
incluye como casos particulares la transformación logarítmica (l1=0), la raíz cuadrada
(l1=1/2) y la inversa o recíproca (l1=-1).
Una variante más sencilla de la transformación de Box- Cox es la siguiente:

 l
X t 1
Z t  X t l si l  0 y  1  l  1 Z t  si l  0
 o también  l
Z t  Ln( X t ) si l  0 Z  Ln( X ) si l  0
 t t

Se observa que para l = -1 tenemos la transformación recíproca, para l = -1/2


tenemos la recíproca de la raíz cuadrada, para l = 0 tenemos la logarítmica, para l =
1/2 tenemos la raíz cuadrada y para l = 1 tenemos la identidad.
La eliminación de las variaciones estacionales, para inducir la estacionariedad,
suele hacerse casi siempre, mediante la diferenciación estacional. Si los datos son mensuales,
la diferenciación estacional de la serie temporal Xt, consiste en calcular Zt= Xt - Xt-12. Con
datos trimestrales calcularíamos Zt = Xt - Xt-4. Si después de efectuar esta transformación la
serie sigue presentando evidencias de variaciones estacionales, es posible aplicar de nuevo el
procedimiento, es decir, calcular las diferencias de segundo orden, y así sucesivamente.
Para detectar rápidamente la estacionariedad se puede utilizar directamente el
gráfico de la serie. Se divide el campo de variación total de la serie en varios intervalos
calculándose para cada uno de ellos la media y la varianza. Si existe estacionalidad se toma
como longitud del intervalo la del período estacional. Para ver si la serie es estacionaria en
media basta comprobar que las medias de los intervalos no fluctúen mucho. Para ver si la
serie es estacionaria en varianza basta comprobar que las varianzas de los intervalos son
estables (no cambian bruscamente) y se mantienen en una franja estrecha. La Figura 2-1
ilustra estos conceptos

Figura 2-1
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 85

Otro criterio para detectar la estacionariedad en varianza es el gráfico rango-


media de Box-Cox (Figura 2-2), consistente en representar los puntos (media, rango)
para todos los intervalos en que se ha dividido la serie. Si los puntos del gráfico son
ajustables a una recta con pendiente positiva no hay estacionariedad en varianza (será
necesario tomar logaritmos en la serie original si  = 0 y elevar la serie a un exponente
fraccionario para otro valor de  distinto de uno). Si el gráfico no tiene tendencia
definida o es ajustable a una recta paralela al eje de abscisas hay estacionariedad en
varianza ( = 1).

Figura 2-2

Otro criterio para detectar la estacionariead es el criterio de la función de


autocorrelación estimada. Si los coeficientes de la FAC no decaen rápidamente hay
un indicio claro de falta de estacionariedad en media, lo que nos llevaría a tomar
primeras diferencias en la serie original.

Un criterio formal para detectar la estacionariead son los contrastes de


raíces unitarias (ADF, Phillips Perron, etc), que se estudiarán en capítulos
posteriores.

Un proceso puramente aleatorio (ruido blanco), se define por las


condiciones u = E(Xt) = 0, g02 = var(Xt) = , gk = cov[Xt,X t+k] = 0 k = ..., -3,-2,-
1,0,1,2,3,... En este tipo de procesos, puramente aleatorios, el correlograma se reduce a
un segmento de longitud unitaria sobre el eje de ordenadas.

Series temporales estacionales. Detección de la estacionalidad a


partir de las funciones de autocorrelación y autocorrelación parcial
Las funciones de autocorrelación y autocorrelación parcial estimadas
también validan los períodos estacionales de acuerdo a las siguientes
consideraciones:

 Los coeficientes de la FAC para retardos múltiplos del período estacional de


la serie deben ser significativamente distintos de cero
86 SERIES TEMPORALES

 Para una cantidad grande de retardos la FAC se configura en forma de


abanico que completa su ciclo girando sobre el eje de abscisas para una
cantidad de retardos igual al período estacional. La FACP debe presentar
estructura de coeficientes significativos para retardos periódicos (largos)
 La FAC y la FACP deben considerase a la vez, pues a veces intercambian
sus papeles en el comportamiento estacional.

ANÁLISIS DE LA ESTACIONARIEDAD Y ESTACIONALIDAD


CON SPSS
Como ejemplo, consideramos una serie de 100 datos relativos a la demanda
semanal de un manufacturero relativa a contenedores de plástico que utilizan las
compañías farmacéuticas. El manufacturero necesita predecir el número de contenedores
que le serán demandados en las 10 semanas siguientes con vistas a su producción. Los
100 datos se encuentran en la variable plastic del fichero marima.sav

Comenzamos abriendo el fichero marima.sav con la opción Abrir Datos del


menú Archivo. Para comenzar la fase de identificación realizamos una representación
gráfica de la serie plastic (Gráficos  Secuencia) con el objeto de observar la
estacionalidad. Se rellena la pantalla de entrada de Gráficos de secuencia según la Figura
2-11 y se obtiene el gráfico de la Figura 2-12 que presenta estructura no estacional.

Figura 2-11 Figura 2-12

Para observar mejor la estacionalidad, representamos el periodograma por


frecuencia de la serie mediante Gráficos  Serie temporal  Análisis espectral y
rellenando la pantalla de entrada del procedimiento Diagramas espectrales según se
indica en la Figura 2-13. Al pulsar Aceptar se obtiene el periodograma de la Figura 2-14,
que ofrece sus puntos máximos para valores de la frecuencia muy pequeños cuyos
inversos producen unos posibles períodos estacionales más elevados incluso que la
longitud de la serie. Esto indica que no hay estacionalidad, hecho que ya se derivaba
directamente de la observación del gráfico de la serie en la Figura 2-12.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 87

Figura 2-13 Figura 2-14

Pero la estacionalidad, así como la estacionariedad también puede detectarse a


través de las funciones de autocorrelación y autocorrelación parcial estimadas (FAC y FAC
parcial respectivamente). Para ello elegimos Gráfico  Series temporales 
Autocorrelaciones y rellenamos la pantalla de entrada del procedimiento tal y como se indica
en las Figuras 2-15 y 2-16. En el botón Opciones dejamos el número máximo de retardos a
16, que es el valor por defecto para representar la FAC con un tramo significativo. Al pulsar
Aceptar se obtiene la FAC de la Figura 2-17 y la FAC parcial de la Figura 2-18.

Figura 2-15 Figura 2-16

Figura 2-17 Figura 2-18


88 SERIES TEMPORALES

Se observa que los coeficientes de la FAC no decaen rápidamente, lo que indica


falta de estacionariedad en media. Por lo tanto diferenciaremos la serie original y
graficamos sus funciones de autocorrelación y autocorrelación parcial estimadas rellenando
la pantalla de entrada del procedimiento Autocorrelaciones según la Figura 2-16. Al pulsar
Aceptar se obtienen las nuevas FAC (Figura 2-19) y la FAC parcial (Figura 2-20).

Figura 2-19 Figura 2-20

Ahora los retardos significativos de la FAC decaen tan rápidamente que sólo es
significativo el primero, luego ya no existen problemas de estacionariedad en la serie
diferenciada, es decir la serie diferenciada es I(0) y la serie original es I(1).

ANÁLISIS DE LA ESTACIONARIEDAD Y ESTACIONALIDAD


CON STATGRAPHICS
Como ejemplo estudiaremos con Statgraphics la misma serie que hemos
estudiado previamente con SPSS.

Comenzamos abriendo el fichero cap13.sf3 con la opción Abrir Datos del menú
Archivo y seleccionando el procedimiento Métodos Descriptivos de la opción Análisis de
series Temporales del menú Avanzado, para rellenar su pantalla de entrada como se indica
en la Figura 2-29. Se pulsa Aceptar y se elige la opción gráfica Gráfico de Secuencia
Cronológica Horizontal (Figura 2-30) para hacernos una idea de la evolución de la serie
de datos. Se obtiene la Figura 2-31 que muestra la presencia de una posible tendencia y de
no estacionariedad en media y varianza.

A continuación se elige la opción gráfica Autocorrelation Function, que produce el


gráfico de la función de autocorrelación de la Figura 2-32. Este gráfico presenta un patrón
de autocorrelaciones con un decrecimiento lento, lo que sugiere la presencia de no
estacionariedad que puede ser salvada aplicando diferencias de primer orden.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 89

Figura 2-29 Figura 2-30

Figura 2-31 Figura 2-32


Por otra parte, el Periodograma (Figura 2-33) ofrece sus puntos máximos para
valores de la frecuencia muy pequeños cuyos inversos producen unos posibles períodos
estacionales más elevados incluso que la longitud de la serie. Esto indica que no hay
estacionalidad, hecho que ya se derivaba directamente de la observación del gráfico de la
serie en la Figura 2-31.
El Gráfico de Secuencia Cronológica Vertical (Figura 2-34) también indica que
no hay estacionalidad (no se observan repeticiones de secuencias).

Figura 2-33 Figura 2-34


90 SERIES TEMPORALES

Por lo tanto basta con analizar la serie de primeras diferencias de plastic.


Para ello se hace clic con el botón derecho del ratón sobre una salida tabular y se
elige la opción Opciones de Análisis para obtener la pantalla de opciones de ajuste de
la Figura 2-35 y situar en su casilla Orden No estacional el valor 1. Si ahora se
vuelve a utilizar la opción gráfica Gráfico de Secuencia Cronológica Horizontal se
obtiene la Figura 2-36, que ya muestra una distribución aleatoria en los puntos de la
serie. Asimismo, la opción gráfica Función de Autocorrelación ofrece el gráfico de la
Figura 2-37 que muestra el suavizado del decrecimiento y la presencia de mayor
aleatoreidad después de aplicar la primera diferencia. Por último, utilizamos la
opción gráfica Función de Autocorrelación Parcial que da lugar a la Figura 2-38.

ANÁLISIS DE LA ESTACIONARIEDAD Y ESTACIONALIDAD


CON EVIEWS
Como ejemplo estudiaremos con Eviews la misma serie que hemos estudiado
previamente con SPSS y Statgraphics.

Para comenzar la fase de identificación, y con el objeto de observar la


estacionalidad, realizamos una representación gráfica de la serie mediante Quick →
Graph → Line Graph, indicando la serie a graficar en Series List (Figura 2-43) para
obtener la representación de la serie en la Figura 2-44. Los datos se encuentran en el
archivo arima.wf1. Se observa a simple vista que el gráfico no presenta estructura
estacional. Sin embargo, este hecho hay que comprobarlo de modo formal.

Figura 2-43 Figura 2-44

Para probar la estacionalidad podemos utilizar el gráfico vertical de la serie


(Figura 2-46), que se obtiene haciendo doble clic sobre la serie SA para ver sus valores y
eligiendo View → Graph → Spike (Figura 2-45). A simple vista no se observa estructura
estacional en la serie. Pero la estacionalidad, así como la estacionariedad también
pueden detectarse a través de las funciones de autocorrelación y autocorrelación parcial
estimadas (FAC y FACP respectivamente).
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 91

Para ello elegimos View  Correlogram (Figura 2-47) y elegimos la serie en


niveles con 36 retardos (Figura 2-48). Se obtienen las funciones de autocorrelacón y
autocorrelación parcial estimadas de la Figura 2-49.

Figura 2-45 Figura 2-46

Figura 2-47 Figura 2-48

Figura 2-49
92 SERIES TEMPORALES

Se observa que los coeficientes de la FAC no decaen rápidamente, lo que


indica falta de estacionariedad en media. Por otro lado, en la FACP no se observa
estructura de coeficientes significativos para ningún tipo de retardos estacionales,
con lo cual no hay estacionalidad. Por lo tanto, debido a la no estacionariedad en
media, diferenciaremos la serie original creando la variable DPLASTIC con el botón
GENR como se indica en la Figura 2-50 y la graficamos mediante Quick → Graph
→ Line Graph obteniendo la Figura 2-51 en la que se observa estacionariedad en
media y en varianza. No obstante, graficamos las funciones de autocorrelación y
autocorrelación parcial estimadas de DPLASTIC mediante View  Correlogram y
elegimos la serie en niveles con 36 retardos (Figura 2-52). Se obtienen las funciones
de autocorrelación y autocorrelación parcial estimadas de la Figura 2-53.

Figura 2-50 Figura 2-51

Figura 2-52 Figura 2-53

En el correlograma se observa que los retardos significativos de la FAC decaen


tan rápidamente que sólo es significativo el primero, luego ya no existen problemas de
estacionariedad en la serie diferenciada, es decir la serie diferenciada es I(0) y la serie
original es I(1).
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 93

También se puede utilizar un contraste de raíces unitarias para ver la


estacionariedad de DPLASTIC. Para ello, con los datos de la variable en pantalla, se
elige View → Unit Root Test (Figura 2-54) y se rellena la pantalla de entrada como se
indica en la Figura 2-55. Al pulsar OK se ve que el p-valor de la t de Student en el
Test Aumentado de Dickey Fuller (0,0056) es menor que 0,05 (Figura 2-56), lo que
nos lleva a aceptar la estacionariedad de DPLASTIC. Si repetimos estos pasos para
PLASTIC (Figura 2-57) se observa un p-valor mayor que 0,05, lo que indica que
PLASTIC no es estacionaria (hecho que ya habíamos demostrado a partir de la FAC y
FACP).

Figura 2-54 Figura 2-55

Figura 2-56 Figura 2-57


94 SERIES TEMPORALES

ANÁLISIS DE LA ESTACIONARIEDAD Y ESTACIONALIDAD


CON SAS
Los procedimientos TIMESERIES y AUTORREG de SAS permiten analizar
la estacionaridad y estacionalidad de una serie temporal. Ya hemos visto en el primer
capítulo la sintaxis del primer procedimineto. Para analizar estacionaridad y
estacionalidad simultáneamente se utrliza la siguiente sintaxis :
PROC TIMESERIES plot=(series corr decomp espectra periofogram) ;
ID variable INTERVAL= opción de intervalo;
SPECTRA p s / adjmean;
VAR lista de variables;
La opción clave del procedimiento para el análisis de la estacionaridad y la
estacionalidad es plot=(series corr decomp espectra periodogram) que permite graficar la
serie, sus funciones de autocorrelación y autocorrelación parcial, sus componentes, su
densidad espectral y el periodograma. La variable de la sentencia ID es la que contiene la
referencia temporal de los datos de la serie y las opciones habituales de INTERVAL son
day, month, week, qtr y year para indicar series diarias, semanales, mensuales, trimestrales
y anuales. La sentencia SPECTRA ofrece los estadísticos del análisis espectral. Los más
habituales son P y S que ofrecen el periodograma y la densidad espectral. La opción
adjmean produce un centrado en la media que permite interpretar mejor las figuras La
sentencia VAR permite introducir las variables que van a ser analizadas.
Como ejemplo, consideramos una serie de 100 datos relativos a la demanda
semanal de un manufacturero relativa a contenedores de plástico que utilizan las
compañías farmacéuticas. El manufacturero necesita predecir el número de contenedores
que le serán demandados en las 10 semanas siguientes con vistas a su producción. Los
100 datos se encuentran en la variable plastic del fichero marima.sas7bdat.

La sintaxis SAS parea analizar la estacionaridad y la estacionalidad de la serie


plastic sería la siguiente:
ods graphics on;
data datos;
set ejemplos.marima;
proc timeseries data=datos plot=(series decomp corr periodogram);
var plastic;
id semana interval=week;
spectra p s / adjmean;
run;

En la salida observamos el gráfico de la serie (Figura 3-38), su


descomposición en componentes (Figura 3-39), el periodograma por periodos (Figura
3-40) y las funciones de autocorrelación y autocrrelación parcial para la serie y su
primera diferencia (Figura 3-41).
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 95

Figura 3-38

Figura 3-39
96 SERIES TEMPORALES

Figura 3-40

Figura 3-41
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 97

Tanto el gráfico de la serie, como su descomposición en componentes y el


periodograma muestran que la serie no es estacional. Además, las funciones de
autocorrelación y autocorrelación parcial no tienen una estructura de abanico con
repetición de secuencias ni tienen términos dignificativos múltiplos del periodo
estacional. El gráfico de la serie también muestra claramente que no hay
estacionariedad ni en media ni en varianza porque tiene una estructura claramente
creciente y poco estable. Por otro lado, la función de autocorrelación de la serie
decrece muy lentamente, lo que indica falta de estacionaridad. Sin embargo, la
función de autocorrelación de la primera diferencia ya no decrece lentamente (sólo
tiene el primer término significativo), lo que indica que la primera diferencia de la
serie es estacionaria, luego la serie será I(1), es decir, integrada de orden 1 u
homogénea de orden 1.

Adicionalmente, el procedimiento AUTORREG de SAS estima y predice


modelos de regresión con series de tiempo en presencia de autocrrelación y
heteroscedasticidad y realiza contrastes de estacionariedad y cointegración. Su
sintaxis, en lo referente al tratamiento de la estacionaridad a través de los contrastes
de raíces unitarias, es la siguiente:

PROC AUTOREG opciones ;


MODEL dependiente = regresores / opciones ;

Las opciones de MODEL para los diferentes contrastes de raíces unitarias


(aumentado de Dickey-Fuller, KPSS, Phillips-Perron, Kuratoski-Pesaran-Shin, ERS
y NP) son las siguientes :

STATIONARITY=(ADF)
STATIONARITY=(KPSS )
STATIONARITY=(PHILLIPS )
STATIONARITY=(ERS)
STATIONARITY=(NP)
STATIONARITY=(ADF,ERS, KPSS, NP, PHILLIPS )

La variable dependiente es la serie temporal que analizamos y lo habitual es


que no haya regresores.

Como ejemplo comprobamos si la serie plastic del archivo marima.sas7bdat


es estacionaria a través del contraste de Phillips Perron de raíces unitarias. La sintaxis
SAS adecuada sería la siguiente :

data datos;
set ejemplos.marima;
run;
98 SERIES TEMPORALES

proc autoreg data=datos;


model plastic = / stationarity = (phillips);
run;

La salida presenta p-valores de Rho y Tau muy altos, lo que indica que no
hay estacionaridad de la serie plastic.
Procedimiento AUTOREG

Variable dependiente PLASTIC

Estimadores de mínimos cuadrados ordinarios

SSE 60634359.4 DFE 99


MSE 612468 Raíz MSE 782.60352
SBC 1619.91309 AIC 1617.30792
MAE 646.5072 AICC 1617.34873
MAPE 11.2303751 HQC 1618.36228
Durbin-Watson 0.0574 R-cuadrado de regresión 0.0000
R-cuadrado total 0.0000

Test de raíz unitaria de Phillips-Perron

Tipo Retardos Rho Pr < Rho Tau Pr < Tau

Media cero 2 -0.0095 0.6788 -0.0251 0.6727


Media simple 2 -4.9243 0.4344 -1.6664 0.4453
Tendencia 2 -4.2722 0.8657 -1.2045 0.9037

Error Aprox
Variable DF Estimador estándar Valor t Pr > |t|

Intercept 1 5985 78.2604 76.48 <.0001

A continuación probamos si es estacionaria la serie de primeras diferencias a


través del contraste de Phillips Perron de raíces unitarias y a través del contraste de
Dickey-Fuller aumentado. La sintaxis SAS adecuada sería la siguiente :
data datos;
set ejemplos.marima;
dplastic=dif(plastic);
run;
proc autoreg data=datos;
model dplastic = / stationarity = (phillips);
run;

La salida es la siguiente:
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 99

Procedimiento AUTOREG

Variable dependiente dplastic

Estimadores de mínimos cuadrados ordinarios

SSE 3477240.69 DFE 98


MSE 35482 Raíz MSE 188.36679
SBC 1321.7413 AIC 1319.14618
MAE 139.480053 AICC 1319.18742
MAPE 105.14092 HQC 1320.19617
Durbin-Watson 1.1901 R-cuadrado de regresión 0.0000
R-cuadrado total 0.0000

Test de raíz unitaria de Phillips-Perron

Tipo Retardos Rho Pr < Rho Tau Pr < Tau

Media cero 1 -61.6560 <.0001 -6.5186 <.0001


Media simple 1 -61.6806 0.0009 -6.4895 <.0001
Tendencia 1 -62.8375 0.0003 -6.5574 <.0001

Augmented Dickey-Fuller Unit Root Tests

Type Lags Rho Pr < Rho Tau Pr < Tau F


Pr > F

Media cero 3 -172.7611 <.0001 -5.4845 <.0001


Media simple 3 -176.5303 <.0001 -5.4819 <.0001 15.0287
<.0010
Tendencia 3 -240.7950 <.0001 -5.8162 <.0001 16.9378
<.0010

Error Aprox
Variable DF Estimador estándar Valor t Pr > |t|

Intercept 1 4.4747 18.9316 0.24 0.8136

Se observa que, tanto para el test de Phillips Perron, como para el test aumentado
de Dickey-Fukker, los p-valores de Rho y Tau son muy pequeños, lo que indica
presencias de estacionariedad en la serie de primeras diferencias.

Hemos visto que los resultados del análisis de estacionaridad, tanto por los
métodos gráficos, como por los contrasyes formales de raíces unitarias, son coincidentes
para la serie de nuestro ejemplo.
100 SERIES TEMPORALES

MODELOS AUTOREGRESIVOS AR(p)


Un modelo autorregresivo (AR) describe una clase particular de proceso en el
que las observaciones en un momento dado son predecibles a partir de las observaciones
previas del proceso más un término de error. El caso más simple es el ARIMA(1,0,0), o
AR(1) o de primer orden, cuya expresión matemática es:

Xt = 1 Xt-1 + at

El proceso autorregresivo de orden p, representado por ARIMA(p,0,0), o


simplemente por AR(p) toma la forma:

Xt = 1 Xt-1 + 2 Xt-2 +...+ p Xt-p + at

que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:

(1- 1B - 2B2 -...- pBp ) Xt = at Bk(Xt) = Xt-k

Un proceso autorregresivo AR(p) es estacionario si las raíces del polinomio en


B dado por: 1- 1B - 2B2 -...- pBp caen fuera del círculo unidad. Esa condición es
equivalente a que las raíces de la ecuación: xp-1 x p-1 - 2 x p-2-...-p-1 x-p = 0 sean todas
inferiores a uno en módulo. Un proceso autorregresivo siempre es invertible.
 a2
La varianza de un proceso AR(1) es: g 0 
1  1
La función de autocovarianza de un proceso AR(1) es:
 a2
gk   k
k 1
1  1
1

La función de autocorrelación de un proceso AR(1) es :


hk   1k k 1
La función de autocorrelación parcial de un proceso AR(1) es:
 para j 1
hkk   1
0 para j 1
La varianza de un proceso AR(2) es: g 0   1 g1   2 g 2   a2
La función de autocovarianza de un proceso AR(2) es:
g k   1 g k 1   2 g k  2 k 1
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 101

La función de autocorrelación de un proceso AR(2) es :


hk   1 hk 1   2 hk  2 k 1
La función de autocorrelación parcial de un proceso AR(2) es:
 1
h1  para j 1
 1 2
 h  h
2

hkk   2 21   2 para j2


 1  h1
0 para j2



La varianza de un proceso AR(p) es: g 0   1 g 1   2 g 2    p g p   a2

La función de autocovarianza de un proceso AR(p) es:


g k   1 g k 1   2 g k  2     p g k  p k 1
La función de autocorrelación de un proceso AR(p) es:
hk   1 hk 1   2 hk  2     p hk  p k 1
La función de autocorrelación parcial de un proceso AR(p) es:

h1 para j 1

 h2  h1
2

para j2
 1  h12

 1 h1  h p2 h1
 h 1  h p 3 h2
 1

    
hkk  
 h p 1 h p  2  h1 hp
para j p
 1 h1  h p 2 h p 1

 h1 1  h p 3 h p 2
    

 h p 1 h p  2  h1 1

0 para j p

En la Figura 2-3 se observan las funciones de autocorrelación (izquierda) y


autocorrelación parcial (derecha) para procesos AR(1) y AR(2)
102 SERIES TEMPORALES

Figura 2-3
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 103

MODELOS DE MEDIAS MÓVILES MA(q)


Un modelo de medias móviles (MA) también describe una serie temporal
estacionaria. En este modelo el valor actual puede predrecirse a partir de la
componente aleatoria de este momento y, en menor medida, de los impulsos
aleatorios anteriores. El modelo ARIMA(0,0,1), también denotado por MA(1), viene
dado por la expresión:

Xt = at - v1 at-1

El proceso de medias móviles de orden q, representado por ARIMA(0,0,q), o


también por MA(q), viene dado por la expresión:

Xt = at - v1 at-1 - v2 at-2 - .... - vq at-q

que puede ponerse, mediante el operador de cambio retroactivo B, en la forma:

Xt = (1 - v1B - v2B2 - .... - vqBq) at

Un proceso de medias móviles es siempre estacionario.

Un proceso de medias móviles MA(q) es invertible si las raíces del polinomio


en B definido por: 1 - v1B - v2B2 - .... - vqBq caen fuera del círculo unidad. Esta
condición es equivalente a que las raíces de la ecuación xq-1 x q-1 - 2 x q-2 -...- q-1
x - q = 0 sean todas inferiores a uno en módulo.

La varianza de un proceso MA(1) es: g 0   a2 (1   12 )

La función de autocovarianza de un proceso M(1) es:

  1 a2 para k  1
gk  
0 para k  1

La función de autocorrelación de un proceso MA(1) es :

  1
 para k  1
hk  1   12
0 para k  1

La función de autocorrelación parcial de un proceso MA(1) es:


104 SERIES TEMPORALES

  1k (1   12 )
hkk  para k  1
1   12 ( k 1)

La varianza de un proceso MA(2) es: g 0   a2 (1   12   22 )

La función de autocovarianza de un proceso MA(2) es:

 ( 1   1 2 ) a2 para k  1

. g k    2 a2 para k  2
0 para k  2

La función de autocorrelación de un proceso MA(2) es :

   1   1 2
1   2   2 para k  1
 1 2

  2
hk   para k  2
1   1   2
2 2

0 para k  2

La función de autocorrelación parcial de un proceso MA(2) es:

h1 para k  1

 h2  h1
2
para k  2
 1  h12
hkk   3
 h1  h1 h2 (2  h2 ) para k  3
1  h 2  2h 2 (1  h )
 2 1 2



La varianza de un proceso MA(q) es: g 0   a2 (1   12   22     q2 )

La función de autocovarianza de un proceso MA(q) es:


CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 105

( k   1 k 1     q  k q ) a2 para k  1,2,, q


gk  
0 para k  q

La función de autocorrelación de un proceso MA(q) es:

   k   1 k 1     q  k q
 para k  1,2,, q
hk   1   12     q2
0 para k  q

La función de autocorrelación parcial de un proceso MA(q) es:

h1 para k  1

 h2  h1
2
para k  2
 1  h12
hkk   3
 h1  h1 h2 (2  h2 )  h3 (1  h1 ) para k  3
2

 1  h22  2h12 (1  h2 )



En la Figura 2-4 se observan las funciones de autocorrelación (izquierda) y


autocorrelación parcial (derecha) para procesos MA(1) y MA(2)

MODELOS ARMA(p,q)
Una extensión natural de los modelos AR(p) y MA(q) es un tipo de modelos
que incluyen tanto términos autorregresivos como de medias móviles y se definen
como ARMA(p,q) o también como ARIMA(p,0,q). Se representan por la ecuación:

Xt = 1 Xt-1 + 2 Xt-2 +...+ p Xt-p + at - v1 at-1 - v2 at-2 - .... - vq at-q

que puede ponerse de la forma:

Xt - 1 Xt-1 - 2 Xt-2 -...- p Xt-p = at - v1 at-1 - v2 at-2 - .... - vq at-q

o sea:

(1- 1B - 2B2 -...- pBp ) Xt = (1 - v1B - v2B2 - .... - vqBq ) at


106 SERIES TEMPORALES

Figura 2-4
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 107

El proceso ARMA(p,q) es estacionario si lo es su componente autorregresiva, y


es invertible si lo es su componente de medias móviles. Por lo tanto podemos decir que
un modelo ARMA(p,q) es invertible si las raíces del polinomio en B definido mediante
1 - v1B - v2B2 - .... - vqBq caen fuera del círculo unidad. Esta condición es equivalente a que
las raíces de la ecuación xq-1 x q-1 - 2 x q-2 -...- q-1 x - q = 0 sean todas inferiores a uno
en módulo.

Un modelo ARMA(p,q) es estacionario si las raíces del polinomio definido por


1- 1B - 2B2 -...- pBp caen fuera del círculo unidad. Esa condición es equivalente a
que las raíces de la ecuación: xp-1 x p-1 - 2 x p-2 -...-p-1 x - p = 0 sean todas inferiores
a uno en módulo.

 a2 (1   12  2 1 1 )
La varianza de un proceso ARMA(1,1) es: g 0 
1   12

La función de autocovarianza de un proceso ARMA(1,1) es:

 a2 (1   1 1 )( 1   1 )
 para k  1
gk   1   12
 g para k  1
 1 k 1
La función de autocorrelación de un proceso ARMA(1,1) es:

 (1   1 1 )( 1   1 )
 para k  1
hk   1   12  2 1 1
 h para k  1
 1 k 1
La función de autocorrelación parcial de un proceso ARMA(p,q) es:

h1 para k  1

 h2  h1
2
para k  2
 1  h1
2

hkk   3
 h1  h1 h2 (2  h2 )  h3 (1  h1 ) para k  3
2

 1  h22  2h12 (1  h2 )



En la Figura 2-5 se observan las funciones de autocorrelación (izquierda) y


autocorrelación parcial (derecha) para procesos ARMA(1,1)
108 SERIES TEMPORALES

ARMA(1,1)

Figura 2-5
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 109

MODELOS ARIMA(p,d,q)
Un modelo ARIMA(0,d,0) es una serie temporal que se convierte en un ruido
blanco (proceso puramente aleatorio) después de ser diferenciada d veces. El modelo
ARIMA(0,d,0) se expresa mediante: (1 - B)d Xt = at. El modelo general
ARIMA(p,d,q) denominado proceso autorregresivo integrado de medias móviles de
orden p, d, q, toma la siguiente expresión:

(1- 1B - 2B2 -...- pBp)(1-B)d Yt = (1 - v1B - v2B2 - .... vqBq )at

Un modelo ARIMA(p,d,q) permite describir una serie de observaciones


después de que hayan sido diferenciadas d veces, a fin de extraer las posibles fuentes
de no estacionariedad. Esta fórmula general se puede aplicar a cualquier modelo. Si
hay alguna componente p,d,q igual a cero, se elimina el término correspondiente de
la fórmula general.

LA METODOLOGÍA BOX JENKINS EN MODELOS ARIMA


Box y Jenkins en su desarrollo de modelos estadísticos para series
temporales fijaron distintas fases para su modelado. Básicamente estas fases se
resumen en la identificación del modelo ARIMA adecuado a los datos de la serie
(recogida de datos de la serie, representación gráfica, análisis de la estacionariedad,
transformaciones previas adecuadas para conseguir la estacionariedad, eliminación
de la tendencia si es necesario e identificación efectiva del modelo asociándolo a la
estructura ARIMA adecuada), estimación del modelo previamente identificado
(cálculo de los estimadores del modelo y residuales), validación del modelo
(contrastes para ver si el modelo es adecuado) y predicción (selección de los períodos
de predicción y cálculo de estadísticos para evaluar la capacidad predictiva). La
Figura 2-6 esquematiza estas fases que se amplían continuación.

La metodología para modelos ARIMA contempla las siguientes fases:

1. Recogida de datos de la serie: Es conveniente disponer de 50 o más datos, y en el


caso de series mensuales, es habitual trabajar con entre seis y diez años completos de
información. El mismo criterio se sigue para series con diferentes períodos estacionales.

2. Representación gráfica de la serie: Como primera tarea del proceso de identificación,


para decidir sobre la estacionariedad de la serie es de gran utilidad disponer de un gráfico
de la misma. A veces suelen utilizarse medias y desviaciones típicas por subperíodo para
juzgar sobre la estacionariedad de la serie. Por ello es necesario calcular todo tipo de
estadísticos relativos a la serie y necesarios en el proceso de identificación.
110 SERIES TEMPORALES

3. Transformación previa de la serie: También dentro del proceso de identificación, la


transformación logarítmica es necesaria en caso de serie no estacionaria en varianza. Sin
embargo, es una transformación muy frecuente, incluso en series con dispersión
relativamente constante en el tiempo. Una posibilidad práctica es ensayar siempre con la
serie original y en logaritmos y comprobar resultados. Puede ser necesario también utilizar
cualquier tipo de transformación Box Cox para estacionarizar la serie, en cuyo caso se
identificarán los parámetros adecuados para la transformación

4. Eliminación de la tendencia: La observación del gráfico de la serie nos indicará la


existencia o no de tendencia. Una tendencia lineal será corregida tomando primeras
diferencias, que será el caso más frecuente (d=1). Una tendencia no lineal suele llevar
en la práctica al uso de dos diferencias como mucho (d=2). Estacionarizada la serie,
habremos identificado el parámetro d.

5. Identificación efectiva del modelo: Consiste en determinar el tipo de modelo más


adecuado para la serie objeto de estudio, es decir, el orden de los procesos
autorregresivos p y de medias móviles q de las componentes regular y estacional.
Técnicamente esta decisión se tomará en base a las funciones de autocorrelación y
autocorrelación parcial. Habitualmente se terminará eligiendo entre los procesos más
simples AR(1), AR(2), MA(1), MA(2) y ARMA(1,1), tanto en la parte regular como
en la estacional. En caso de duda pueden seleccionarse varios modelos alternativos
que serán estimados y contrastados posteriormente, para definir el modelo
definitivamente adoptado.

6. Estimación de los coeficientes del modelo: Decidido el modelo, se procede a la


estimación de sus parámetros. Dado que se trata de un procedimiento iterativo de
cálculo, pueden sugerirse valores iniciales.

7. Contraste de validez del modelo o validación: Utilizaremos diversos


procedimientos para valorar el modelo o modelos inicialmente seleccionados:
contraste de significación de parámetros, covarianzas entre estimadores, coeficiente
de correlación, suma de cuadrados de errores, etc.

8. Análisis detallado de los errores: Las diferencias históricas entre valores reales y
estimados por el modelo constituyen una fuente de especial interés para una
valoración final del modelo. Deberá comprobarse un comportamiento no sistemático
de los mismos, así como analizarse la posible existencia de errores especialmente
significativos.

9. Selección del modelo: En base a los resultados de las etapas anteriores, debe
estarse en condiciones de decidir sobre el modelo adoptado.

10. Predicción: El modelo seleccionado servirá como fórmula inicial de predicción.


CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 111

Figura 2-6
112 SERIES TEMPORALES

Identificación de modelos ARIMA


Identificar un modelo significa utilizar los datos recogidos, y cualquier información
de cómo se genera la serie temporal objeto de estudio, para sugerir un conjunto reducido de
posibles modelos, que tengan muchas posibilidades de ajustarse a los datos. Ante una serie
temporal empírica, el investigador debe encontrar los valores p, d, q más apropiados.

Si la serie temporal presenta una tendencia, lo primero que se deber hacer es


convertirla en estacionaria mediante una diferenciación de orden d. Una vez
diferenciada la serie, una buena estrategia consiste en comparar los correlogramas de
la función de autocorrelación (FAC) y la función de autocorrelación parcial (FACP).
Esto suele ofrecer una orientación para la formulación del modelo tentativo.

Los procesos autorregresivos presentan función de autocorrelación parcial con


un número finito de valores distinto de cero. Un proceso AR(p) tiene los primeros p
términos de la función de autocorrelación parcial distintos de cero y los demás son
nulos (Figura 2-3). Esta afirmación es muy fuerte, y en la práctica se considera que una
muestra dada proviene de un proceso autorregresivo de orden p si los términos de la
función de autocorrelación parcial son casi cero a partir del que ocupa el lugar p. Un
valor se considera casi cero cuando su módulo es inferior a 2/T. Los programas de
ordenador construyen la franja (-2/T, 2/T) y detectan los valores de la FACP que
caen fuera de ella.

Los procesos de medias móviles presentan función de autocorrelación con un


número finito de valores distinto de cero. Un proceso MA(q) tiene los primeros q
términos de la función de autocorrelación distintos de cero y los demás son nulos
(Figura 2-4). Estas propiedades son muy importantes con vistas a la identificación de
un proceso mediante el análisis de las funciones de autocorrelación y
autocorrelación parcial.

Para modelos ARMA(p,q), los primeros valores de la función de


autocorrelación no tienen patrón fijo y van seguidos de una mezcla de oscilaciones
sinusoidales o exponenciales amortiguadas. Asimismo, los primeros valores de la
función de autocorrelación parcial no tienen patrón fijo, aunque suelen decrecer) y
van seguidos de una mezcla de oscilaciones sinusoidales y exponenciales
amortiguadas. La Figura 2-5 muestra estos patrones para distintos procesos
ARIMA(1,1).

Podemos resumir los pasos para la identificación de un modelo de series


temporales de la siguiente forma:

1. Decidir si Xt necesita ser transformada para eliminar la no estacionariedad en


media o la no estacionariedad en varianza (heteroscedasticidad). Puede ser
conveniente usar logaritmos de la serie o aplicar la transformación de Box-Cox.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 113

2. Determinación del grado de diferenciación adecuado d. En general la falta de


estacionariedad, se manifiesta en que los coeficientes de la función de
autocorrelación estimada tienden a decrecer muy lentamente. La cuestión
es, sin embargo, ¿cuán lentamente ha de ser el decrecimiento de los
coeficientes de la función de autocorrelación parcial para que el proceso sea
estacionario? En general, sólo ocasionalmente los datos económicos del
correlograma dejarán de decrecer tras las primeras diferencias, y en este caso
serían necesarias segundas diferencias. Una diferenciación superflua sólo
sirve para alterar el esquema de autocorrelación evidente en una serie
estacionaria y complicarlo innecesariamente.

3. Decidir los valores de p y q, y si existe una componente estacional, decidir


los órdenes de los operadores estacionales P y Q. Para este apartado se
utilizan las funciones de autocorrrelación y autocorrelación parcial según el
siguiente cuadro:

Proceso Función de autocorrelación Función de autocorrelación parcial


---------------------------------------------------------------------------------------------------------------------------
MA(q) Sólo los q primeros coeficientes son Decrecimiento rápido exponencial
significativos. El resto se anulan atenuado u ondas sinusoidales
bruscamente (coef. 0 para retardo>q)

AR(p) Decrecimiento rápido exponencial Sólo los p primeros coeficientes son


atenuado u ondas sinusoidales significativos. El resto se anulan
bruscamente (coef. 0 para retardo>p)

ARMA Los coeficientes no se anulan bruscamente Los coeficientes no se anulan bruscamente

ARIMA(p,d,q) Comportamiento irregular en los retardos Decrece (aproximadamente con


(1,...,q) con q picos. Decrecimiento para exponenciales atenuados y ondas
retardos posteriores a q sinusoidales). No cero pronto

Estimación de modelos ARIMA(p,d,q)


El criterio que suele utilizarse es obtener los parámetros de manera que la
suma cuadrática de los errores sea lo menor posible. Si representamos el proceso
ARIMA(p,d,q) de la forma (B) Xt = v(B) at los errores del modelo pueden
expresarse de la forma at =  -1(B) (B) at de forma que el objetivo es encontrar el
vector de parámetros  =  (1,...., p) y v = (v1,....,vp) que minimice la suma de
cuadrados de los errores 
at2  S (, v) .
t
La estimación es complicada ya que la ecuación es no lineal en los parámetros.
Debemos, pues, utilizar un método iterativo de estimación no lineal, como por ejemplo el
de Marquardt. Para comenzar el algoritmo necesitamos estimaciones preliminares de los
parámetros, que se obtienen mediante el método de los momentos.
114 SERIES TEMPORALES

Diagnóstico, validación o contraste de modelos ARIMA(p,d,q)


Box y Jenkins sugirieron un número considerable de tests para verificar si el
modelo elegido se ajusta correctamente al conjunto de datos dado. Uno de ellos,
conocido como sobreparametrización, consiste en ajustar un modelo de orden
superior al elegido y comprobar si los parámetros son significativamente distintos de
cero.
Por otra parte, si el modelo aproxima satisfactoriamente a la serie observada,
los residuos deben tender a comportarse como ruido blanco, lo cual se comprobaría
mediante las funciones de autocorrelación de los residuos (FAC y FACP). Dichas
funciones de autocorrelación deben ser nulas en todo su recorrido, excepto en cero.
Si el modelo no aproxima satisfactoriamente a la serie observada, los residuos
se comportarán como un ruido autocorrelado, problema análogo al encontrado en los
modelos econométricos con perturbaciones autocorrelacionadas. Por ello, deben
emplearse contrastes como el de Durbin-Watson (para la autocorrelación de primer
orden) o el de Wallis (para la de cuarto orden).
Otros tests, aplicados a los residuos, van encaminados a comprobar si los
residuos obtenidos son consistentes con el supuesto de ruido blanco (aleatorios).
m
Box y Pierce proponen el estadístico Q  r
k 1
k
2
donde rk viene definido por:
n n
rk   at at  k
t  k 1
a
t 1
2
t con at = residuos estimados y n = número de observaciones.

Bajo el supuesto de que m es suficientemente grande, Box y Pierce


demuestran que el estadístico Q se distribuye como una Chi-cuadrado con m-p-q
grados de libertad. La hipótesis de que los residuos son un ruido blanco se rechaza en
general para valores de Q muy altos. Más concretamente, se halla la región crítica a
nivel , calculando un valor I que cumpla P(Q>I)= . Si el valor del estadístico Q
cae dentro de la región crítica, que es {Q>I}, entonces se rechaza la hipótesis nula
de que los residuos son un ruido blanco. Si cae fuera se acepta la hipótesis nula. El
valor de m es arbitrario, pero conviene tomarlo lo más elevado posible.
Para valores de m no muy grandes, Ljung y Box proponen un estadístico alternativo:
m
Q'  n(n  2) rk2 (n  k ) , que también se distribuye como una Chi-cuadrado con
k 1
m-p-q grados de libertad.. Se halla la región crítica a nivel , calculando un valor I
que cumpla P(Q'>I)= . Si el valor del estadístico Q' cae dentro de la región crítica,
que es {Q'>I}, entonces se rechaza la hipótesis nula de que los residuos son un ruido
blanco. Si cae fuera se acepta la hipótesis nula.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 115

Un diagnóstico completo también surge de la inspección del gráfico de los


residuos. Si los residuos provienen de un proceso de ruido blanco, deben ser
incorrelacionados entre sí, lo que les hará alternar en signo, sin ningún criterio obvio.
Por el contrario, rachas de residuos consecutivos de un mismo signo son, en general,
un indicativo de mala especificación del modelo, bien por ser una indicación de
autocorrelación de los residuos o por indicar no estacionariedad de los mismos. Si los
residuos representados contra el índice tiempo t, es decir si el grafo (t,at), tiene una
tendencia conocida, puede haber heteroscedasticidad de los residuos.

Aquí se pueden aplicar todos los contrastes de aleatoriedad, autocorrelación,


heteroscedasticidad, falta de linealidad y no normalidad de los residuos.
El periodograma de los residuos debe presentar amplitudes destacables en
casi toda la gama de frecuencias. El periodograma acumulativo de los residuos debe
producir una curva de amplitudes sobre la recta de reposo sin presentar patrones de
oscilación en ninguna zona de frecuencias.

También existen métodos de otro tipo para contrastar la bondad del modelo
univariante estimado. Conviene estimar el modelo excluyendo algunas observaciones
al final de la muestra. Si esto provoca una variación sensible en los valores estimados
de los parámetros podría indicar una variación reciente de la estructura estocástica
subyacente, lo que desaconsejaría el modelo para fines predictivos.

Por otro lado, los modelos ARMA(p,q) deben cumplir las condiciones de
estacionariedad e invertibilidad. Por tanto, si representamos el proceso ARMA(p,q)
de la forma (B) Xt = v(B)at y alguna de las raíces de las ecuaciones (B) = 0 y
v(B)=0 es menor que uno en módulo, el modelo es rechazable.

Si alguna de las raíces de la ecuación (B) = 0 es muy próxima a la unidad,


la serie original puede estar subdiferenciada y precisará alguna diferenciación
adicional. Si alguna de las raíces de la ecuación v(B) = 0 es muy próxima a la unidad,
la serie original puede estar sobrediferenciada. Si coincide una raíz de ambas
ecuaciones, se puede cancelar un orden en el proceso, pasando a un ARMA(p-1,q-1).

Predicción en modelos ARIMA


Los modelos ARIMA proporcionan no solamente una predicción puntual,
sino la distribución de probabilidad completa para los valores futuros de la serie.
Considerando una predicción óptima a aquélla con un error cuadrático medio de
predicción mínimo, trataríamos de elegir nuestra predicción a horizonte l, Zt(l), tal
que E[et2(l)] = E{ [Xt+1-Zt(l)]2 } fuese mínimo. En general se puede demostrar que
dicha predicción viene dada por la esperanza condicionada de Xt+l, es decir:

Zt(l) = E[Xt+l /Xt,Xt-1,...,X1]


116 SERIES TEMPORALES

El cálculo real de la predicción Zt(l) puede hacerse de forma recursiva


utilizando el modelo ARIMA estimado, de forma que si escribimos el modelo como

dt = 1 dt-1 +...+ pdt-p + at - v1at-1 - ... - vq at-q

donde dt es la diferencia de orden d de Xt (supuesto Xt no estacionaria y convertible


en estacionaria mediante un proceso de d diferenciaciones consecutivas).

Para calcular la predicción Zt(l), se comienza calculando la estimación de


dt(1) como la esperanza condicionada de dt+1, y posteriormente se calcula la
estimación de dt(2), y así sucesivamente hasta calcular la estimación de dt(l). Una vez
que la serie dt ha sido predicha, podemos obtener una predicción de Xt sumando dt d
veces. Para calcular la predicción Zt(l) utilizamos la siguiente fórmula:

Zt(l)= ldt + l+1 dt-1 +l+2 dt-2 +...= Zt+l

MODELOS ARIMA CON SPSS. IDENTIFICACIÓN,


ESTIMACIÓN, DIAGNOSIS Y PREDICCIONES
Como ejemplo, ajustaremos a un modelo ARIMA adecuado una serie de 100
datos relativos a la demanda semanal de un manufacturero relativa a contenedores de
plástico que utilizan las compañías farmacéuticas. El manufacturero necesita predecir el
número de contenedores que le serán demandados en las 10 semanas siguientes con
vistas a su producción. Utilizaremos la metodología de Box y Jenkins para realizar las
predicciones. Los 100 datos se encuentran en la variable plastic del fichero marima.sav.
Esta serie ya había sido estudiada previamente y sabemos que no es estacional ni
estacionaria, pero su primera diferencia sí es estacionaria, por lo tanto la series es I(1).

Para identificar la serie utilizaremos las funciones de autocorrelación y


autocorrelación parcial estimadas (FAC y FACP respectivamente). Para ello
elegimos Analizar Prediciones  Autocorrelaciones y rellenamos la pantalla de
entrada del procedimiento tal y como se indica en la Figura 3-45 y 2-46. En el botón
Opciones dejamos el número máximo de retardos a 16, que es el valor por defecto
para representar la FAC con un tramo significativo. Al pulsar Aceptar se obtiene la
FAC de la Figura 3-47 y la FAC parcial de la Figura 3-48.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 117

Figura 3-45 Figura 3-46

Figura 3-47 Figura 3-48

Se observa que los coeficientes de la FAC no decaen rápidamente, lo que indica


falta de estacionariedad en media. Por lo tanto diferenciaremos la serie original y
graficamos sus funciones de autocorrelación y autocorrelación parcial estimadas rellenando
la pantalla de entrada del procedimiento Autocorrelaciones según la Figura 3-46. Al pulsar
Aceptar se obtienen las nuevas FAC (Figura 3-49) y la FAC parcial (Figura 3-50).

Figura 3-49 Figura 3-50


118 SERIES TEMPORALES

Ahora los retardos significativos de la FAC decaen tan rápidamente que sólo
es significativo el primero, luego ya no existen problemas de estacionariedad en la
serie diferenciada, es decir la serie diferenciada es I(0) y la serie original es I(1). En
cuanto a la identificación de la parte de media móvil de la serie vemos que sólo el
primer retardo de la FAC es significativo y que el decrecimiento de los retardos de la
FACP es muy rápido. Luego la parte de media móvil se modelizaría como un proceso
MA(1). Para identificar la parte autorregresiva vemos que, aunque hay tres retardos de
la FACP casi significativos, ninguno es claramente significativo, decreciendo rápido los
coeficientes significativos de la FAC. Luego la parte autorregresiva se modelizaría
como un proceso AR(0). Además, considerando las dos funciones de autocorrelación
en conjunto, vemos que sus retardos no se anulan demasiado bruscamente. Estamos
entonces ante una estructura ARMA(0,1) para la serie diferenciada.

Se concluye entonces que la serie original se ajusta a un modelo


ARIMA(0,1,1).

Hasta aquí hemos realizado una identificación manual de la serie. A


continuación, podemos utilizar el modelizador de SPSS para modelos ARIMA para
realizar la estimación del modelo ARIMA previamente identificado y calcular las
predicciones.

Para utilizar el modelizador, elija en los menús Analizar  Predicciones  Crear


modelos (Figura 3-51). Si la serie hubiese sido estacional sería necesario definir fechas
previamente. Aún así, el modelizador pregunta si es necesario definir fechas (Figura 3-52).
Podemos hacer clic en Definir fecha y realizar la definición adecuada si fuese necesario. En
nuestro caso pulsamos Aceptar para considerar la serie Plastic como temporal tratando los
casos como períodos de tiempo consecutivos. Se obtiene el Modelizador de series
temporales de la Figura 3-53.

Figura 3-51
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 119

Figura 3-52

Figura 3-53

Seleccionamos la serie plastic y la desplazamos al campo Variables dependientes.


El campo Variable independiente, que sería el tiempo, se mantiene vacío, ya que se
suponen por defecto períodos de tiempo consecutivos. A continuación hacemos clic en la
flecha situada a la derecha de la opción Modelizador experto del campo Método y
elegimos ARIMA (Figura 3-54). En la pantalla Criterios de ARIMA (Figura 3-55)
introducimos los parámetros del modelo ARIMA identificado previamente como
ARIMA(0,1,1). Al hacer clic en Continuar, ya tenemos la pestaña Variables del
modelizador rellenada adecuadamente (Figura 3-56). A continuación hacemos clic en la
pestaña Estadísticos y elegimos los estadísticos deseados en la salida (Figura 3-57. En la
pestaña Gráficos se eligen las opciones gráficas deseadas en la salida (Figura 3-58).
120 SERIES TEMPORALES

A continuación hacemos clic en la pestaña Filtro de resultados para incluir todos


los modelos posibles en los resultados (Figura 3-59). La siguiente tarea es hacer clic en
la pestaña Guardar para elegir las series a guardar (Figura 3-60). Por último hacemos
clic en la pestaña Opciones y situamos el valor 110 en la casilla Observación del campo
Fecha (Figura 3-61), ya que queremos predecir 10 semanas a partir de la número 100
(que es la última de la serie). Previamente se ha marcado la opción para situar el Periodo
de prediccíon desde el Primer caso después del final del período de estimación hasta
una fecha especificada.

Al hacer clic en Aceptar se obtienen los estadísticos de ajuste del modelo (Figura
3-62) entre los que destaca R2=0,948. No obstante, el p-valor correspondiente a la
constante en la tabla ARIMA Model Parameters es muy alto (0,785), lo que invalida su
presencia en el modelo por tener muy baja significatividad. Este hecho conduce a
eliminar la citada constante del modelo de ajuste de la serie. Para ello, en la pantalla
Criterios de ARIMA de la Figura 3-55 se elimina la marca de la casilla Incluir constante
en modelo y se ejecuta nuevamente la estimación con el modelizador. Ahora, los
resultados de la estimación de la Figura 3-63 son correctos, ya que el único parámetro
estimar, correspondiente a la media móvil, tiene una significatividad muy alta. El fichero
de datos presenta una columna adicional a la derecha con las predicciones.

Figura 3-54
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 121

Figura 3-55

Figura 3-56
122 SERIES TEMPORALES

Figura 3-57

Figura 3-58
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 123

Figura 3-59

Figura 3-60
124 SERIES TEMPORALES

Figura 3-61

Figura 3-62

Figura 3-63
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 125

Finalmente se obtienen las funciones de autocorrelación y autocorrelación parcial


residuales (Figura 3-64) cuyos valores no se salen de las bandas de confianza, lo que
certifica una buena diagnosis residual. Se obtiene también sobre la misma gráfica la serie
original, la serie suavizada y las predicciones obtenidas (Figura 3-65). Como se trata de un
modelo ARIMA(0,1,1) o modelo de líneas aéreas sin constante (sólo componente MA),
las predicciones deben calcularse una a una, es decir, se calcula una única predicción y
para calcular la siguiente se considera como nueva serie de datos toda la serie inicial más
la predicción anterior. Si calculamos todas las predicciones de una vez, aparecerán todas
con el mismo valor, tal y como se observa en la Figura 3-65. Las bandas de confianza tan
abiertas para las predicciones invalidan ya la segunda predicción.

Figura 3-64

Figura 3-65

La ecuación del modelo ARIMA(0,1,1) estimado será la siguiente:


(1-B)Yt = (1+0,727B)at  Yt – Yt-1 = at + 0,727Bat-1
126 SERIES TEMPORALES

MODELOS ARIMA CON STATGRAPHICS CENTURION.


IDENTIFICACIÓN, ESTIMACIÓN, DIAGNOSIS Y PREDICCIÓN
El proceso de identificación de la serie lo podemos realizar a través de la opción
Describir → Series de tiempo → Métodos descriptivos (Figura 3-81). Se obtiene la
pantalla de entrada del procedimiento que se rellena como sindica la Figura 3-82.

Figura 3-81

Figura 3-82

Datos en cap13.sf3. Al hacer clic en Aceptar se obtiene la Figura 3-83. Se observa


que el Periodograma ofrece sus puntos máximos para valores de la frecuencia muy
pequeños cuyos inversos producen unos posibles períodos estacionales más elevados
incluso que la longitud de la serie. Esto indica que no hay estacionalidad, hecho que ya se
derivaba directamente de la observación del gráfico de la serie y de la función de
autocorrelación estimada, que no presenta abanicos períodicos.

Se observa, además, que el gráfico de la función de autocorrelación estimada


presenta un patrón de autocorrelaciones con un decrecimiento lento, lo que sugiere
la presencia de no estacionariedad que puede ser salvada aplicando diferencias de
primer orden.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 127

Figura 3-83
Para analizar la serie en diferencias de primer orden, hacemos clic en
cualquier salida tabular con el botón derecho del ratón y elegimos la Opciones de
análisis en el menú emergente resultante. Se obtiene la pantalla Opciones de ajuste
de la Figura 3-84 y situamos un 1 en el campo Orden no estacional. Al hacer clic en
Aceptar se obtienen los resultados para la serie diferenciada (Figura 3-84).

Figura 3-84
128 SERIES TEMPORALES

Ahora, la opción gráfica Función de Autocorrelación ofrece un gráfico que


muestra un decrecimiento rápido con un solo valor significativo, lo que soluciona el
problema de la estacionariedad. Si observamos la opción gráfica Función de
Autocorrelación Parcial, su forma, junto con la forma de la función de
autocorrelación, sugieren el uso de una media móvil de orden 1, aparte de la
diferenciación no estacional de orden 1. Tenemos entonces que la serie diferenciada
se ajusta a un modelo ARMA(0,1).

Por lo tanto, el proceso de identificación de la serie original nos ha llevado


el ajuste a un modelo ARIMA(0,1,1).

Superada la fase de identificación, abordamos las fases de estimación,


diagnosis y predicción. Para ello utilizamos Pronósticos → Modelo definido por el
Usuario (Figura 3-85) y rellenamos la pantalla de entrada según la Figura 3-86.

Figura 3-85

Figura 3-86
Pulsamos Aceptar y sobre cualquier salida tabular de los resultados hacemos
clic con el botón derecho de ratón para elegir Opciones de Análisis en el menú
emergentre resultante. Se obtiene la pantalla de Opciones de especificación del modelo,
que se cumplimemta como se indica en la Figura 3-87. Al pulsar en Aceptar se obtiene
la salida de la Figura 3-88 con las opciones tabulares de Resumen de Análisis, Tabla de
Pronósticos, Comparación de Modelos y contrastes de Aleatoreidad activadas. Las
opciones gráficas a activar serían Gráfico de secuencia Cronológica, Función de
autocorrelación de Residuos y Priodograma de Residuos.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 129

Figura 3-87

Figura 3-88
130 SERIES TEMPORALES

La opción tabular Resumen de Análisis muestra que el modelo identificado


para la serie es un ARIMA(0,1,1) sin constante, ofreciendo la estimación delos
parámetros del mismo (coincidente con SPSS y STATGRAPHICS)
Pronósticos - plastic
Datos/Variable: plastic

Número de observaciones = 100


Indice Inicial = 1,0
Intervalo de Muestra = 1,0

Resumen de Pronósticos
Diferenciación no estacional de orden: 1
Modelo de pronóstico seleccionado: ARIMA(0,1,1)
Número de pronósticos generados: 12
Número de periodos retenidos para validación: 0

Periodo de Periodo de
Estadístico Estimación Validación
RMSE 156,675
MAE 120,989
MAPE 2,05293
ME 2,31786
MPE 0,0340701
Resumen de Modelo ARIMA
Parámetro Estimado Error Estd. t Valor-P
MA(1) -0,732512 0,0685066 -10,6926 0,000000
Pronóstico Histórico: sí
Varianza estimada de ruido blanco = 24978,4 con 98 grados de libertad
Desviación estándar estimada de ruido blanco = 158,046
Número de iteraciones: 4

La opción tabular Comparación de Modelos muestra los posibles modelos a


elegir y su orden de preferencia según el nivel de superación de los contrastes que se
especifican. Observamos que el modelo ARIMA(0,1,1) es el óptimo ya que es el que
supera más contrastes de diagnosis (es el que tiene más símbolos OK).

Comparación de Modelos
Variable de datos: plastic
Número de observaciones = 100
Indice Inicial = 1,0
Intervalo de Muestra = 1,0

Modelos
(A) ARIMA(0,1,1)
(B) Tendencia lineal = 5242,95 + 14,6972 t
(C) Promedio móvil simple de 3 términos
(D) Suavización exponencial simple con alfa = 0,9999
(E) Suavización exp. De Brown con alfa = 0,8122
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 131

Periodo de Estimación
Modelo RMSE MAE MAPE ME MPE
(A) 156,675 120,989 2,05293 2,31786 0,0340701
(B) 659,588 546,136 9,22751 3,63798E-14 -1,21264
(C) 280,442 220,117 3,63009 15,4639 0,173884
(D) 187,474 138,175 2,29981 4,43049 0,0364939
(E) 199,039 155,334 2,62356 -2,98316 -0,0213021

Modelo RMSE RUNS RUNM AUTO MEDIA VAR


(A) 156,675 OK OK OK OK OK
(B) 659,588 *** *** *** OK OK
(C) 280,442 *** *** *** OK OK
(D) 187,474 OK ** ** OK OK
(E) 199,039 OK OK *** OK OK

Clave:
RMSE = Root Mean Squared Error (Raíz del Cuadrado Medio del Error)
RUNS = Prueba corridas excesivas arriba y abajo
RUNM = Prueba corridas excesivas arriba y abajo de la mediana
AUTO = Prueba de Box-Pierce para autocorrelación excesiva
MEDIA = Prueba para diferencia en medias entre la 1ª mitad y la 2ª mitad
VAR = Prueba para diferencia en varianza entre la 1ª mitad y la 2ª mitad
OK = no significativo (p >= 0,05)
* = marginalmente significativo (0,01 < p <= 0,05)
** = significativo (0,001 < p <= 0,01)
*** = altamente significativo (p <= 0,001)

La opción tabular Prueba de Aleatoriedad de los Residuos presenta los


contrastes de rachas de la mediana, de rachas y de Box-Pierce. Como todos los p-
valores son superiores a 0,05, se acepta la aleatoriedad residual al 95% de confianza.
Prueba de Aleatoriedad de residuos
Variable de datos: plastic
Modelo: ARIMA(0,1,1)
(1) Rachas arriba o abajo de la mediana
Mediana = 3,38322
Número de rachas arriba o abajo de la mediana = 54
Número esperado de corridas = 50,0
Estadístico z para muestras grandes = 0,71078
Valor-P = 0,477218
(2) Rachas arriba y abajo
Número de rachas arriba y abajo = 68
Número esperado de corridas = 65,6667
Estadístico z para muestras grandes = 0,44106
Valor-P = 0,659166
(3) Prueba Box-Pierce
Prueba basada en las primeras 24 autocorrelaciones
Estadístico de prueba para muestras grandes = 34,9933
Valor-P = 0,0520954
132 SERIES TEMPORALES

La opción tabular Tabla de pronósticos presenta las predicciones.


Tabla de Pronósticos para plastic
Modelo: ARIMA(0,1,1)
Límite en 95,0% Límite en 95,0%
Periodo Pronóstico Inferior Superior
101,0 5548,16 5234,52 5861,79
102,0 5548,16 4920,76 6175,56
103,0 5548,16 4718,16 6378,15
104,0 5548,16 4556,11 6540,2
105,0 5548,16 4417,05 6679,27
106,0 5548,16 4293,3 6803,02
107,0 5548,16 4180,7 6915,61
108,0 5548,16 4076,7 7019,62
109,0 5548,16 3979,57 7116,74
110,0 5548,16 3888,12 7208,19
111,0 5548,16 3801,45 7294,86
112,0 5548,16 3718,88 7377,43

Al tratarse de un modelo de líneas aéreas sin constante, las predicciones son


iguales. Se toma la primera predicción (las demás son inadmisibles porque su banda
de confianza es muy ancha), se incorpora a la serie y posteriormente se calcula la
predicción siguiente. Mediante este proceso se calculan el resto de predicciones.

En cuanto a las opciones gráficas, la opción Gráfico de secuencia de tiempo


presenta la serie original con las predicciones e intervalos de confianza para las
mismas (Figura 3-89). La opción Función de Autocorrelación de los Residuos
ofrece la citada gráfica (Figura 3-90) observándose que ningún elemento se sale de
las bandas de confianza, lo que refuerza la diagnosis positiva residual.

Si hacemos clic con el botón derecho del ratón sobre cualquier salida tabular
y elegimos la opción Opciones de Análisis sobre el menú emergente resultante, se
obtiene la pantalla Opciones de especificación del modelo (Figura 3-87), que permite
restringir el ajuste de modelos a la selección realizada en la figura.

Figura 3-89 Figura 3-90


CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 133

MODELOS ARIMA CON EVIEWS


El software Eviews también permite realizar el ajuste de una serie temporal a
un modelo ARIMA que posibilita trabajar y realizar predicciones con series temporales,
a partir de la metodología de Box-Jenkins.

Como ejemplo estudiaremos con Eviews la misma serie que hemos estudiado
previamente con SPSS y Statgraphics.

Para comenzar la fase de identificación, y con el objeto de observar la


estacionalidad, realizamos una representación gráfica de la serie mediante Quick →
Graph → Line Graph, indicando la serie a graficar en Series List (Figura 2-43) para
obtener la representación de la serie en la Figura 2-44. Los datos se encuentran en el
archivo arima.wf1. Se observa a simple vista que el gráfico no presenta estructura
estacional. Sin embargo, este hecho hay que comprobarlo de modo formal.

Figura 2-43 Figura 2-44

Para probar la estacionalidad podemos utilizar el gráfico vertical de la serie


(Figura 2-46), que se obtiene haciendo doble clic sobre la serie SA para ver sus valores y
eligiendo View → Graph → Spike (Figura 2-45). A simple vista no se observa estructura
estacional en la serie. Pero la estacionalidad, así como la estacionariedad también
pueden detectarse a través de las funciones de autocorrelación y autocorrelación parcial
estimadas (FAC y FACP respectivamente).

Para ello elegimos View  Correlogram (Figura 2-47) y elegimos la serie en


niveles con 36 retardos (Figura 2-48). Se obtienen las funciones de autocorrelacón y
autocorrelación parcial estimadas de la Figura 2-49.
134 SERIES TEMPORALES

Figura 2-45 Figura 2-46

Figura 2-47 Figura 2-48

Figura 2-49
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 135

Se observa que los coeficientes de la FAC no decaen rápidamente, lo que


indica falta de estacionariedad en media. Por otro lado, en la FACP no se observa
estructura de coeficientes significativos para ningún tipo de retardos estacionales,
con lo cual no hay estacionalidad. Por lo tanto, debido a la no estacionariedad en
media, diferenciaremos la serie original creando la variable DPLASTIC con el botón
GENR como se indica en la Figura 2-50 y la graficamos mediante Quick → Graph
→ Line Graph obteniendo la Figura 2-51 en la que se observa estacionariedad en
media y en varianza. No obstante, graficamos las funciones de autocorrelación y
autocorrelación parcial estimadas de DPLASTIC mediante View  Correlogram y
elegimos la serie en niveles con 36 retardos (Figura 2-52). Se obtienen las funciones
de autocorrelación y autocorrelación parcial estimadas de la Figura 2-53.

Figura 2-50 Figura 2-51

Figura 2-52 Figura 2-53

En el correlograma se observa que los retardos significativos de la FAC decaen


tan rápidamente que sólo es significativo el primero, luego ya no existen problemas de
estacionariedad en la serie diferenciada, es decir la serie diferenciada es I(0) y la serie
original es I(1).
136 SERIES TEMPORALES

También se puede utilizar un contraste de raíces unitarias para ver la


estacionariedad de DPLASTIC. Para ello, con los datos de la variable en pantalla, se
elige View → Unit Root Test (Figura 2-54) y se rellena la pantalla de entrada como se
indica en la Figura 2-55. Al pulsar OK se ve que el p-valor de la t de Student en el
Test Aumentado de Dickey Fuller (0,0056) es menor que 0,05 (Figura 2-56), lo que
nos lleva a aceptar la estacionariedad de DPLASTIC. Si repetimos estos pasos para
PLASTIC (Figura 2-57) se observa un p-valor mayor que 0,05, lo que indica que
PLASTIC no es estacionaria (hecho que ya habíamos demostrado a partir de la FAC y
FACP).

Figura 2-54 Figura 2-55

Figura 2-56 Figura 2-57


CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 137

En cuanto a la identificación de la parte de media móvil de la serie DPLASTIC


vemos que sólo el primer retardo de la FAC es significativo y que el decrecimiento de los
retardos de la FACP es muy rápido (Figura 2-53). Luego la parte de media móvil se
modelizaría como un proceso MA(1). Para identificar la parte autorregresiva vemos que,
aunque hay tres retardos de la FACP estimada casi significativos ninguno es claramente
significativo, decreciendo rápido los coeficientes significativos de la FAC. Luego la parte
autorregresiva se modelizaría como un proceso AR(0).

Además, considerando las dos funciones de autocorrelación en conjunto, vemos


que sus retardos no se anulan demasiado bruscamente. Estamos entonces ante una
estructura ARMA(0,1) para la serie diferenciada DPLASTIC. Se concluye entonces que la
serie original PLASTIC se ajusta a un modelo ARIMA(0,1,1).

Una vez identificado el modelo realizamos su estimación y diagnosis. Para


ello se elige Quick  Estimate Equation, se escribe la ecuación del modelo a ajustar
en el campo Equation Specification de la solapa Specification teniendo en cuenta la
estructura ARIMA previamente identificada, se elige LS - Least Squares (NLS and
ARIMA) en el campo Method (Figura 2-58) y se hace clic en Aceptar. Se obtienen los
resultados de la Figura 2-59. El modelo presenta buena significatividad individual y
conjunta de los parámetros estimados y un estadístico de Durbin Watson casi igual a
2. Luego la diagnosis del ajuste es adecuada.

Figura 2-58 Figura 2-59


138 SERIES TEMPORALES

Figura 2-60

También es un buen instrumento de diagnosis el correlograma residual (Figura


2-60) obtenido mediante View  Residual Tests  Correlogram Q-Statistics. Se
observa que tanto la FAC como la FACP no tienen retardos claramente significativos y
además las probabilidades asociadas al estadístico Q son casi todas mayores que 0,05,
lo que indica que los residuos del modelo estimado se comportan como un ruido blanco.

Dado que la serie inicial como un modelo ARIMA(0,1,1), podemos escribir


la ecuación algebraica del modelo como:

DPLASTIC = (1-0,758281B) RESID  (1-B)PLASTIC = (1-0,758281B) RESID

Xt - Xt-1 = et - 0,75828et-1 (Xt = PLASTIC)

A continuación vamos a valorar la adecuación de este modelo para la


predicción. Para ello realizamos las predicciones de los valores ya conocidos de la
serie (predicción histórica) para ver las desavenencias con los valores reales de la
misma. Se trata por tanto de predecir lo conocido con la ecuación estimada. Para ello
se hace clic en la solapa Forecast de la parte superior derecha de la pantalla con los
resultados de la estimación del modelo y se señala Static forecast en la Figura 2-61.
Al pulsar OK se obtienen los resultados de la Figura 2-62 que evalúan nuestro
modelo estimado para hacer predicciones. Se observa que no hay sesgo en media ni
en varianza y todo el valor se concentra en la covarianza. El coeficiente de
desigualdad de Theil debiera aproximarse más a cero y el porcentaje de error
absoluto medio también debiera ser más bajo.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 139

Figura 2-61 Figura 2-62

A continuación vamos a realizar predicciones futuras. Para ello se hace clic


en la solapa Forecast de la parte superior derecha de la pantalla con los resultados de
la estimación del modelo y se señala Dinamic forecast en la Figura 2-63. Al pulsar
OK se obtienen los resultados de la Figura 2-64 que evalúan nuestro modelo
estimado para hacer predicciones. Se observa que los errores debieran ser más
pequeños.
La variable dplasticf situada en el campo Forecast name de la Figura 2-63
contendrá las predicciones pedidas. Es muy importante observar que en el campo
Forecast simple de la pantalla Forecast de la Figura 2-63 se introduce la muestra
temporal para la cual queremos que la variable dplasticf contenga las predicciones.
No olvidemos que estamos haciendo predicciones con la variable en diferencias
DPLASTIC, que posteriormente pueden ser transformadas a términos de la variable
PLASTIC.

Figura 2-63 Figura 2-64


140 SERIES TEMPORALES

MODELOS ARIMA CON SAS. IDENTIFICACIÓN,


ESTIMACIÓN, DIAGNOSIS Y PREDICCIONES
SAS dispone del procedimiento ARIMA que identifica, estima, valida y
predice modelos de series temporales según la metodología de Box y Jenkins. La
sintaxis básica del procedimiento ARIMA es la siguiente
PROC ARIMA opciones;
IDENTIFY VAR=variable opciones;
ESTIMATE opciones;
FORECAST opciones;
Las opciones más habituales de PROC ARIMA son DATA = conjunto de datos
de entrada y OUT = conjunto de datos de salida con predicciones.

La sentencia IDENTIFY identifica la serie temporal indicada en var=variable.


Las series en diferencias de orden d a utilizar si es necesario se especifican mediante
var=variable(d). Es conveniente utilizar una sentencia IDENTIFY para cada serie a
ajustar. Sus opciones más habituales son nlag=nº de retardos a considerar en la FAC
y FACP (por defecto nlag=24), stationarity= (adf=n o pp=n) para ejecutar los test de
estacionariedad de Dickey Fuller y Phillips Perron para n retardos y var=variable
para especificar la variable temporal a analizar.
La sentencia ESTIMATE estima el modelo. Sus opciones más habituales son
METHOD=ML|ULS|CLS para especificar el métodos de estimación (máxima
verosimilitud, mínimos cuadrados incondicionales o mínimos cuadrados
condicionales), P=orden de la parte AR del modelo, Q=orden de la parte MA del
modelo, NOCONSTANT para estimar el modelo sin constante y PLOT para graficar
las funciones de autocorrelación y autocorrelación parcial de los residuos.
La sentencia FORECAST calcula las predicciones con el modelo estimado. Las
opciones más importantes son ID=variable que identifica las observaciones temporales,
ALPHA=n para especificar el nivel de confianza de los intervalos de confianza para las
predicciones, INTERVAL=intervalo temporal entre observaciones y LEAD=n para
especificar el número de predicciones a obtener a partir del último valor de la serie.

Como ejemplo consideramos la serie semanal plastic del archivo


marima.sas7bdat y la identificamos, estimamos, validamos calculando 10
predicciones (consideramos 24 términos para las funciones de autocorrelación y
autocorrelación parcial. Comenzamos identificando la serie sin diferenciar y
contrastamos formalmente su no estacionariedad con la siguiente sintaxis de SAS:

proc arima data=ejemplos.marima;


identify var=plastic nlag=24 stationarity=(phillips);
run;
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 141

La salida es la siguiente:
Proc ARIMA

Nombre de la variable = PLASTIC


Media de series de trabajo 5985.16
Desviación estándar 778.6807
Número de observaciones 100

Autocorrelaciones

Retardo Covarianza Correlación -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Error std

0 606344 1.00000 | |********************| 0


1 582625 0.96088 | . |******************* | 0.100000
2 544533 0.89806 | . |****************** | 0.168718
3 503611 0.83057 | . |***************** | 0.211178
4 459448 0.75774 | . |*************** | 0.241647
5 418612 0.69039 | . |************** | 0.264341
6 381631 0.62940 | . |************* | 0.281796
7 338369 0.55805 | . |***********. | 0.295520
8 292955 0.48315 | . |********** . | 0.305876
9 251237 0.41435 | . |******** . | 0.313415
10 209164 0.34496 | . |******* . | 0.318846
11 170469 0.28114 | . |****** . | 0.322556
12 137797 0.22726 | . |***** . | 0.324997
13 104954 0.17309 | . |*** . | 0.326583
14 72137.771 0.11897 | . |** . | 0.327499
15 46463.914 0.07663 | . |** . | 0.327931
16 28168.369 0.04646 | . |* . | 0.328110
17 10665.862 0.01759 | . | . | 0.328176
18 -3623.574 -.00598 | . | . | 0.328185
19 -15690.603 -.02588 | . *| . | 0.328186
20 -33319.853 -.05495 | . *| . | 0.328206
21 -55589.782 -.09168 | . **| . | 0.328298
22 -75802.074 -.12502 | . ***| . | 0.328554
23 -94626.747 -.15606 | . ***| . | 0.329030
24 -105569 -.17411 | . ***| . | 0.329769

Pruebas de la raíz unidad de Phillips-Perron

Tipo Retardos Rho Pr < Rho Tau Pr < Tau

Media cero 0 0.0157 0.6845 0.05 0.6971


1 -0.0036 0.6801 -0.01 0.6776
2 -0.0095 0.6787 -0.03 0.6726
Media simple 0 -3.4134 0.6010 -1.43 0.5654
1 -4.5638 0.4709 -1.61 0.4726
2 -4.9243 0.4343 -1.67 0.4452
Tendencia 0 -2.1706 0.9641 -0.75 0.9663
1 -3.8102 0.8939 -1.12 0.9207
2 -4.2722 0.8656 -1.20 0.9037

Proc ARIMA

Comprobación de autocorrelación del ruido blanco

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 406.78 6 <.0001 0.961 0.898 0.831 0.758 0.690 0.629


12 514.59 12 <.0001 0.558 0.483 0.414 0.345 0.281 0.227
18 520.79 18 <.0001 0.173 0.119 0.077 0.046 0.018 -0.006
24 531.68 24 <.0001 -0.026 -0.055 -0.092 -0.125 -0.156 -0.174
142 SERIES TEMPORALES

En la salida se observa que la función de autocorrelación decrece lentamente


lo que es un síntoma claro de no estacionariedad. Además, los p-valores de los
estadísticos Tau y Rho del test de Phillips Perron son muy superiores a 0,05, lo que
constituye una prueba formal de la no estacionariedad. También se contrasta si la
serie es un ruido blanco para varios retardos de la FAC. El p-valor muy bajo de la
chi-cuadrado (<0,0001) indica que la serie inicial no es un ruido blanco (porque ni es
estacionaria).

El siguiente paso será constrastar la estacionariedad e identificar la serie en


primeras diferencias (consideramos ahora 12 términos para las funciones de
autocorrelación y autocorrelación parcial estimadas). Se utilizará la siguiente sintaxis
SAS:
proc arima data=ejemplos.marima;
identify var=plastic(1) nlag=12 stationarity=(phillips);
run;
Se obtiene la siguiente salida:

Proc ARIMA

Nombre de la variable = PLASTIC

Periodo(s) de diferenciación 1
Media de series de trabajo 4.474747
Desviación estándar 187.413
Número de observaciones 99
Observación(es) eliminadas por diferenciación 1

Autocorrelaciones

Retardo Covarianza Correlación -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Error std

0 35123.643 1.00000 | |********************| 0


1 14213.731 0.40468 | . |******** | 0.100504
2 -635.734 -.01810 | . | . | 0.115799
3 2887.572 0.08221 | . |** . | 0.115827
4 -2967.608 -.08449 | . **| . | 0.116415
5 -3749.628 -.10676 | . **| . | 0.117033
6 6845.842 0.19491 | . |****. | 0.118013
7 5098.978 0.14517 | . |*** . | 0.121221
8 -1922.583 -.05474 | . *| . | 0.122964
9 487.956 0.01389 | . | . | 0.123210
10 -1461.276 -.04160 | . *| . | 0.123226
11 -6075.351 -.17297 | . ***| . | 0.123368
12 -726.729 -.02069 | . | . | 0.125793

"." marca dos errores estándar

Autocorrelaciones parciales

Retardo Correlación -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1

1 0.40468 | . |******** |
2 -0.21748 | ****| . |
3 0.22485 | . |**** |
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 143

4 -0.29872 | ******| . |
5 0.15620 | . |***. |
6 0.17282 | . |***. |
7 -0.05219 | . *| . |
8 -0.04494 | . *| . |
9 0.01670 | . | . |
10 -0.07992 | . **| . |
11 -0.04605 | . *| . |
12 0.03127 | . |* . |

Comprobación de autocorrelación del ruido blanco

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 23.49 6 0.0006 0.405 -0.018 0.082 -0.084 -0.107 0.195


12 29.78 12 0.0030 0.145 -0.055 0.014 -0.042 -0.173 -0.021

Pruebas de la raíz unidad de Phillips-Perron

Tipo Retardos Rho Pr < Rho Tau Pr < Tau

Media cero 0 -58.3003 <.0001 -6.41 <.0001


1 -61.6560 <.0001 -6.52 <.0001
2 -55.7492 <.0001 -6.33 <.0001
Media simple 0 -58.3387 0.0009 -6.38 <.0001
1 -61.6806 0.0009 -6.49 <.0001
2 -55.7506 0.0009 -6.30 <.0001
Tendencia 0 -59.6628 0.0003 -6.46 <.0001
1 -62.8375 0.0003 -6.56 <.0001
2 -56.5803 0.0003 -6.36 <.0001
Proc ARIMA

Comprobación de autocorrelación del ruido blanco

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 23.49 6 0.0006 0.405 -0.018 0.082 -0.084 -0.107 0.195

Pruebas de la raíz unidad de Phillips-Perron

Tipo Retardos Rho Pr < Rho Tau Pr < Tau

Media cero 0 -58.3003 <.0001 -6.41 <.0001


1 -61.6560 <.0001 -6.52 <.0001
2 -55.7492 <.0001 -6.33 <.0001
Media simple 0 -58.3387 0.0009 -6.38 <.0001
1 -61.6806 0.0009 -6.49 <.0001
2 -55.7506 0.0009 -6.30 <.0001
Tendencia 0 -59.6628 0.0003 -6.46 <.0001
1 -62.8375 0.0003 -6.56 <.0001
2 -56.5803 0.0003 -6.36 <.0001

Ahora observamos que los p-valores de los estadísticos Tau y Rho del test de
Dickey Fuller aumentado son inferiores a 0,05, lo que constituye una prueba formal
de la estacionariedad de la serie en primeras diferencias, lo que nos permite ya
identificarla a través de la forma de sus funciones FAC y FACP. Las citadas
funciones observadas en la salida muestran que la serie en primeras diferencias puede
identificarse con una estructura ARMA(0,1). El p-valor muy bajo de la chi-cuadrado
144 SERIES TEMPORALES

(0,0008) indica que la serie diferenciada no es un ruido blanco (porque entonces no


se podría ajustar a una estructura ARIMA).

Una vez identificado el modelo, la siguiente tarea es realizar las estimaciones


y obtener las predicciones de la serie semanal (10 predicciones) con sus intervalos de
confianza al 95%. La sintaxis a utilizar es la siguiente:

proc arima data=ejemplos.marima;


identify var=plastic(1) nlag=12;
estimate q=1;
forecast lead=10 interval=week id=semana out=resultados;
run;

Se obtiene la salida siguiente:


Estimación por mínimos cuadrados condicional

Error Approx
Parámetro Estimador estándar Valor t Pr > |t| Retardo

MU 10.75076 26.95337 0.40 0.6909 0


MA1,1 -0.67831 0.07565 -8.97 <.0001 1

Constante Estimación 10.75076


Varianza Estimación 25931.52
Error std Estimación 161.0327
AIC 1289.088
SBC 1294.278
Número de residuales 99
* AIC y SBC no incluyen determinante de la log.

Correlaciones de los
estimadores de parámetro

Parámetro MU MA1,1

MU 1.000 -0.034
MA1,1 -0.034 1.000

Comprobación de los residuales de autocorrelación

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 12.47 5 0.0289 -0.054 -0.058 0.130 -0.052 -0.187 0.237


12 21.03 11 0.0330 0.082 -0.124 0.052 0.035 -0.213 0.069
18 27.21 17 0.0550 0.025 -0.107 -0.145 0.069 -0.107 -0.048
24 39.96 23 0.0155 0.046 0.213 -0.152 0.051 -0.024 -0.160

Modelo para la variable PLASTIC

Media estimada 10.75076


Periodo(s) de diferenciación 1
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 145

Factores de la media móvil

Factor 1: 1 + 0.67831 B**(1)

Predicciones para la variable PLASTIC

Error
Obs Predicción std. 95% Límites de confianza

101 5540.3970 161.0327 5224.7788 5856.0153


102 5551.1478 314.5999 4934.5433 6167.7523
103 5561.8986 414.7465 4749.0103 6374.7868
104 5572.6493 495.0315 4602.4053 6542.8933
105 5583.4001 564.0016 4477.9772 6688.8229
106 5594.1508 625.4114 4368.3671 6819.9346
107 5604.9016 681.3083 4269.5619 6940.2412
108 5615.6523 732.9546 4179.0876 7052.2171
109 5626.4031 781.1940 4095.2910 7157.5152
110 5637.1539 826.6230 4017.0025 7257.3053

Se observa que la constante no es significativa (p-valor de MU = 0,6909 que


es muy alto). Este hecho nos obliga a realizar la estimación sin constante mediante la
siguiente sintaxis SAS:

proc arima data=ejemplos.marima;


identify var=plastic(1) nlag=12;
estimate q=1 noconstant;
forecast lead=10 interval=week id=semana out=resultados;
run;

La salida es ahora la siguiente:

Estimación por mínimos cuadrados condicional

Error Approx
Parámetro Estimador estándar Valor t Pr > |t| Retardo

MA1,1 -0.67616 0.07553 -8.95 <.0001 1

Varianza Estimación 25708.79


Error std Estimación 160.3396
AIC 1287.249
SBC 1289.844
Número de residuales 99
* AIC y SBC no incluyen determinante de la log.

Proc ARIMA

Comprobación de los residuales de autocorrelación

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 12.45 5 0.0291 -0.054 -0.057 0.131 -0.052 -0.186 0.237


12 20.96 11 0.0338 0.082 -0.123 0.053 0.035 -0.212 0.070
18 26.96 17 0.0587 0.026 -0.106 -0.142 0.071 -0.104 -0.046
24 39.67 23 0.0167 0.050 0.215 -0.149 0.053 -0.022 -0.158
146 SERIES TEMPORALES

Modelo para la variable PLASTIC

Periodo(s) de diferenciación 1

No hay ningún término medio en este modelo.

Factores de la media móvil

Factor 1: 1 + 0.67616 B**(1)

Predicciones para la variable PLASTIC

Error
Obs Predicción std. 95% Límites de confianza

101 5533.4586 160.3396 5219.1987 5847.7184


102 5533.4586 312.9509 4920.0860 6146.8311
103 5533.4586 412.5140 4724.9460 6341.9711
104 5533.4586 492.3386 4568.4927 6498.4244
105 5533.4586 560.9160 4434.0834 6632.8337
106 5533.4586 621.9777 4314.4047 6752.5124
107 5533.4586 677.5587 4205.4680 6861.4491
108 5533.4586 728.9137 4104.8139 6962.1032
109 5533.4586 776.8814 4010.7990 7056.1181
110 5533.4586 822.0549 3922.2606 7144.6565

Se observa que los parámetros estimados del modelo son muy significativos
(el término MA tienen un p-valor menor que 0,0001). También se observan las
predicciones relativas a las 10 semanas con sus intervalos de confianza al 95%. Las
predicciones son iguales por tratarse de un modelo de líneas aéreas sin constante. En
este caso se realiza una sola predicción y se incorpora a la serie para realizar la
siguiente predicción. Y así sucesivamente hasta finalizar.

Ejercicio 3-1. Consideramos una serie de ventas con datos mensuales desde enero de
1988 hasta abril de 1996 (la variable date contiene los meses y la variable i el índice
temporal) contenida en el fichero SAS de nombre test.sas7bdat e intentamos
ajustarla al modelo ARIMA más adecuado para realizar 6 predicciones.

Con vistas a la fase de identificación, en primer lugar representamos la serie


y analizamos su estacionalidad y estacionaridad a través del procedimiento
TIMESERIES mediante la siguiente sintaxis SAS:
ods graphics on;
data datos;
set ejemplos.test;
proc timeseries data=datos plot=(series decomp corr
periodogram);
var ventas;
id date interval=month;
spectra p s / adjmean;
run;
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 147

En la salida observamos el gráfico de la serie (Figura 3-113), su descomposición


en componentes (Figura 3-114), el periodograma por periodos (Figura 3-115) y las
funciones de autocorrelación y autocrrelación parcial para la serie y su primera
diferencia (Figura 3-116). Tanto el gráfico de la serie, como su descomposición en
componentes y el periodograma muestran que la serie no es estacional. Además, las
funciones de autocorrelación y autocorrelación parcial no tienen una estructura de
abanico con repetición de secuencias ni tienen términos dignificativos múltiplos del
periodo estacional. El gráfico de la serie también muestra claramente que no hay
estacionariedad ni en media ni en varianza porque tiene una estructura claramente
creciente y poco estable. Por otro lado, la función de autocorrelación de la serie decrece
muy lentamente, lo que indica falta de estacionaridad. Sin embargo, la función de
autocorrelación de la primera diferencia ya no decrece lentamente (sólo tiene el primer
término significativo), lo que indica que la primera diferencia de la serie es estacionaria,
luego la serie será I(1), es decir, integrada de orden 1 u homogénea de orden 1.

Figura 3-113
148 SERIES TEMPORALES

Figura 3-114

Figura 3-115
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 149

Figura 3-116

A continuación comprobamos la no estacionaridad formal de la serie inicial y


la estacionaridad fotrmal de la primera diferencia. Para ello utilizamos el
procedimiento ARIMA de SAS.

ods graphics on;


proc arima data=ejemplos.test;
identify var=ventas nlag=24 stationarity=(phillips);
run;
Proc ARIMA

Nombre de la variable = VENTAS

Media de series de trabajo 137.3662


Desviación estándar 17.36385
Número de observaciones 100

Comprobación de autocorrelación del ruido blanco

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 426.44 6 <.0001 0.957 0.907 0.852 0.791 0.726 0.659


12 547.82 12 <.0001 0.588 0.514 0.440 0.370 0.303 0.238
18 554.70 18 <.0001 0.174 0.112 0.052 -0.004 -0.054 -0.098
24 585.73 24 <.0001 -0.135 -0.167 -0.192 -0.211 -0.227 -0.240
150 SERIES TEMPORALES

Pruebas de la raíz unidad de Phillips-Perron

Tipo Retardos Rho Pr < Rho Tau Pr < Tau

Media cero 0 0.4464 0.7904 3.05 0.9994


1 0.4376 0.7881 2.21 0.9933
2 0.4304 0.7863 1.86 0.9845
Media simple 0 -1.5048 0.8327 -1.29 0.6318
1 -2.0521 0.7692 -1.31 0.6241
2 -2.4922 0.7149 -1.36 0.5982
Tendencia 0 -2.0238 0.9681 -1.19 0.9068
1 -3.1810 0.9266 -1.39 0.8573
2 -4.1132 0.8758 -1.54 0.8074

Los p-valores de los estadísticos Tau y Rho del test de Phillips Perron son
muy superiores a 0,05, lo que constituye una prueba formal de la no estacionariedad
de la serie ventas. También se contrasta si la serie es un ruido blanco para varios
retardos de la FAC. El p-valor muy bajo de la chi-cuadrado (<0,0001) indica que la
serie inicial no es un ruido blanco (porque ni es estacionaria). En la salida del
procedimiento ARIMA (Figura 3-117) también se observa que la función de
autocorrelación decrece lentamente lo que es un síntoma claro de no estacionariedad.

Figura 3-117
El siguiente paso será constrastar la estacionariedad e identificar la serie en
primeras diferencias. Se utilizará la siguiente sintaxis SAS:
ods graphics on;
proc arima data=ejemplos.test;
identify var=ventas(1) nlag=24 stationarity=(phillips);
run;
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 151

Se obtiene la siguiente salida:


Proc ARIMA

Nombre de la variable = VENTAS

Periodo(s) de diferenciación 1
Media de series de trabajo 0.660589
Desviación estándar 2.011543
Número de observaciones 99
Observación(es) eliminadas por diferenciación 1

Comprobación de autocorrelación del ruido blanco

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 154.44 6 <.0001 0.828 0.591 0.454 0.369 0.281 0.198


12 173.66 12 <.0001 0.151 0.081 -0.039 -0.141 -0.210 -0.274
18 209.64 18 <.0001 -0.305 -0.271 -0.218 -0.183 -0.174 -0.161
24 218.04 24 <.0001 -0.144 -0.141 -0.125 -0.085 -0.040 -0.032

Pruebas de la raíz unidad de Phillips-Perron

Tipo Retardos Rho Pr < Rho Tau Pr < Tau

Media cero 0 -11.1217 0.0186 -2.15 0.0312


1 -15.4161 0.0052 -2.59 0.0100
2 -14.8546 0.0062 -2.54 0.0115
Media simple 0 -12.8588 0.0596 -2.37 0.1526
1 -17.5678 0.0167 -2.82 0.0594
2 -17.0212 0.0194 -2.77 0.0664
Tendencia 0 -12.5774 0.2623 -2.30 0.4315
1 -17.3104 0.1004 -2.76 0.2168
2 -16.7329 0.1136 -2.70 0.2371

Figura 3-118
152 SERIES TEMPORALES

Ahora observamos que los p-valores de los estadísticos Tau y Rho del test de
Dickey Fuller aumentado son inferiores a 0,05, lo que constituye una prueba formal
de la estacionariedad de la serie en primeras diferencias, lo que nos permite ya
identificarla a través de la forma de sus funciones FAC y FACP (Figura 3-118). Las
citadas funciones observadas en la salida muestran que la serie en primeras
diferencias puede identificarse con una estructura ARMA(1,1). El p-valor muy bajo
de la chi-cuadrado (0,0008) indica que la serie diferenciada no es un ruido blanco
(porque entonces no se podría ajustar a una estructura ARIMA).

Una vez identificado el modelo, la siguiente tarea es realizar las estimaciones


y obtener las predicciones de la serie semanal (6 predicciones) con sus intervalos de
confianza al 95%. La sintaxis a utilizar es la siguiente:

proc arima data=ejemplos.test;


identify var=ventas(1) nlag=24;
estimate p=1 q=1;
forecast lead=6 interval=month id=date out=resultados;
run;
Proc ARIMA

Nombre de la variable = VENTAS

Periodo(s) de diferenciación 1
Media de series de trabajo 0.660589
Desviación estándar 2.011543
Número de observaciones 99
Observación(es) eliminadas por diferenciación 1

Comprobación de autocorrelación del ruido blanco

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 154.44 6 <.0001 0.828 0.591 0.454 0.369 0.281 0.198


12 173.66 12 <.0001 0.151 0.081 -0.039 -0.141 -0.210 -0.274
18 209.64 18 <.0001 -0.305 -0.271 -0.218 -0.183 -0.174 -0.161
24 218.04 24 <.0001 -0.144 -0.141 -0.125 -0.085 -0.040 -0.032

Estimación por mínimos cuadrados condicional

Error Approx
Parámetro Estimador estándar Valor t Pr > |t| Retardo

MU 0.89288 0.49391 1.81 0.0738 0


MA1,1 -0.58935 0.08988 -6.56 <.0001 1
AR1,1 0.74755 0.07785 9.60 <.0001 1

Constante Estimación 0.225409


Varianza Estimación 0.904034
Error std Estimación 0.950807
AIC 273.9155
SBC 281.7009
Número de residuales 99
* AIC y SBC no incluyen determinante de la log.
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 153

Correlaciones de los estimadores


de parámetro

Parámetro MU MA1,1 AR1,1

MU 1.000 0.030 0.107


MA1,1 0.030 1.000 0.395
AR1,1 0.107 0.395 1.000

Proc ARIMA

Comprobación de los residuales de autocorrelación

Para Chi- Pr >


retardo cuadrado DF ChiSq --------------------Autocorrelaciones-------------------

6 3.95 4 0.4127 0.016 -0.044 -0.068 0.145 0.024 -0.094


12 7.03 10 0.7227 0.088 0.087 -0.037 -0.075 0.051 -0.053
18 15.41 16 0.4951 -0.221 -0.033 -0.092 0.086 -0.074 -0.005
24 16.96 22 0.7657 0.011 -0.066 -0.022 -0.032 0.062 -0.047

Modelo para la variable VENTAS

Media estimada 0.892875


Periodo(s) de diferenciación 1

Factores autorregresivos

Factor 1: 1 - 0.74755 B**(1)

Factores de la media móvil

Factor 1: 1 + 0.58935 B**(1)

Predicciones para la variable VENTAS

Error
Obs Predicción std. 95% Límites de confianza

101 171.0320 0.9508 169.1684 172.8955


102 174.7534 2.4168 170.0165 179.4903
103 177.7608 3.9879 169.9445 185.5770
104 180.2343 5.5658 169.3256 191.1430
105 182.3088 7.1033 168.3866 196.2310
106 184.0850 8.5789 167.2707 200.8993

Se observa que los parámetros estimados del modelo son muy significativos
(la constante tiene un p-valor de 0,0738 y los términos AR y MA tienen un p-valor
menor que 0,0001). También se observan las predicciones relativas a los 12 meses
del año siguiente con sus intervalos de confianza al 95%.

Dado que la serie inicial como un modelo ARIMA(1,1,1), podemos escribir


la ecuación algebraica del modelo como:

(1-0,74755B)DVENTAS = 0,89288 +(1+0,58935B) RESID 


154 SERIES TEMPORALES

(1-0,74755B)(1-B)VENTAS = 0,89288 + (1+0,58935B) RESID 

(1-1,74755B+0,74755B2)VENTAS = 0,89288 +(1+0,58935B) RESID 

Xt - 1,74755Xt-1 +0,74755Xt-2 = 0,89288 +et +0,58935et-1 (Xt = VENTAS)

Ya tenemos entonces la forma algebraica definitiva del modelo


ARIMA(1,1,1) ajustado para la serie inicial. Esta expresión permitirá el cálculo de
las predicciones conocidos los dos primeros valores de la serie y el primer valor
residual.

Ejercicio 3-2. Consideramos la serie de ventas identificada en el ejercicio anterior


con datos mensuales desde enero de 1988 hasta abril de 1996 contenida en el fichero
SPSS de nombre test.sav e intentamos ajustarla al modelo ARIMA más adecuado
para realizar 6 predicciones utilizando el modelizador de SPSS.

Para utilizar el modelizador, elija en los menús Analizar  Predicciones  Crear


modelos (Figura 3-119). Si la serie hubiese sido estacional sería necesario definir fechas
previamente. Aún así, el modelizador pregunta si es necesario definir fechas (Figura 3-120).
Podemos hacer clic en Definir fecha y realizar la definición adecuada si lo consideramos
adecuado (Figura 3-121). En nuestro caso pulsamos Aceptar para considerar la serie ventas
como temporal tratando los casos como períodos de tiempo mensuales.

Figura 3-119
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 155

Figura 3-120 Figura 3-121

Figura 3-122
Se obtiene el Modelizador de series temporales. Hemos seleccionado la serie
ventas y la hemos desplazado al campo Variables dependientes. El campo Variable
independiente, que sería el tiempo, se mantiene vacío, ya que se suponen por defecto
períodos de tiempo consecutivos. A continuación hacemos clic en la flecha situada a la
derecha de la opción Modelizador experto del campo Método y elegimos ARIMA (Figura
3-122). En la pantalla Criterios de ARIMA (Figura 3-123) introducimos los parámetros del
modelo ARIMA identificado previamente como ARIMA(1,1,1). Al hacer clic en
Continuar, ya tenemos la pestaña Variables del modelizador rellenada adecuadamente
(Figura 3-124). A continuación hacemos clic en la pestaña Estadísticos y elegimos los
estadísticos deseados en la salida (Figura 3-125. En la pestaña Gráficos se eligen las
opciones gráficas deseadas en la salida (Figura 3-126).
156 SERIES TEMPORALES

Figura 3-123

Figura 3-124

Figura 3-125
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 157

Figura 3-126

A continuación hacemos clic en la pestaña Filtro de resultados para incluir todos


los modelos posibles en los resultados (opción por defecto). La siguiente tarea es hacer
clic en la pestaña Guardar para elegir las series a guardar (Figura 3-127). Por último
hacemos clic en la pestaña Opciones y situamos los valores adecuados para predecir 6
meses en el campo Fecha (Figura 3-128). Previamente se ha marcado la opción para
situar el Periodo de prediccíon desde el Primer caso después del final del período de
estimación hasta una fecha especificada.

Al hacer clic en Aceptar se obtienen los estadísticos de ajuste del modelo (Figura
3-129) entre los que destaca R2=0,997 y los p-valores de los parámetros estimados muy
pequeños (el parámetro menos significativo es la constante al 85%, pero no se trata de un
valor para rechazar en este tipo de estimaciones). Por otro lado, el p-valor del estadístico
de Ljung-Box es lo suficientemente alto como para asegurar la aleatoriedad formal de los
residuos.

Finalmente se obtienen las funciones de autocorrelación y autocorrelación parcial


residuales (Figura 3-130) cuyos valores no se salen de las bandas de confianza, lo que
certifica una buena diagnosis residual. Se obtiene también sobre la misma gráfica la serie
original, la serie suavizada y las predicciones obtenidas (Figura 3-131).
158 SERIES TEMPORALES

Figura 3-127

Figura 3-128

Figura 3-129
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 159

Figura 3-130

Figura 3-131

Dado que hemos identificado la serie inicial como un modelo ARIMA(1,1,1), la


hemos diagnosticado adecuadamente y la hemos estimado según los resultados de la
Figura 3-129, podemos escribir la ecuación algebraica del modelo como sigue:

(1-0,74755B)(1-B)VENTAS = 0,89288 + (1+0,58935B) RESID


160 SERIES TEMPORALES

El fichero de datos presenta una columna adicional a la derecha con las


predicciones y sus intervalos de confianza (Figura 3-132).

Figura 3-132

Ejercicio 3-3. Consideramos la serie de ventas de los ejercicios anterioriores con


datos mensuales desde enero de 1988 hasta abril de 1996 contenida en el fichero
STATGRAPHICS de nombre cap13.sf3 e intentamos ajustarla al modelo ARIMA
más adecuado para realizar 6 predicciones usando STATGRAPHICS CENTURION.

Superada la fase de identificación en el ejercicio 3-1, abordamos las fases de


estimación, diagnosis y predicción. Para ello utilizamos Pronósticos → Modelo
definido por el Usuario (Figura 3-133) y rellenamos la pantalla de entrada según la
Figura 3-134. Pulsamos Aceptar y sobre cualquier salida tabular de los resultados
hacemos clic con el botón derecho de ratón para elegir Opciones de Análisis en el menú
emergentre resultante. Se obtiene la pantalla de Opciones de especificación del modelo,
que se cumplimemta como se indica en la Figura 3-135. Al pulsar en Aceptar se obtiene
la salida de la Figura 3-136 con las opción tabular de Comparación de Modelos
maximizada. Las opciones gráficas activadas serían Gráfico de secuencia Cronológica
y Función de autocorrelación de Residuos (con valores dentro de las bandas de
confianza). La opción tabular Comparación de Modelos muestra los posibles modelos
a elegir y su orden de preferencia según el nivel de superación de los contrastes que
se especifican. Observamos que el modelo ARIMA(1,1,1) es el óptimo ya que es el
que supera más contrastes de diagnosis (es el que tiene más símbolos OK).
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 161

Figura 3-133

Figura 3-134

Figura 3-135
162 SERIES TEMPORALES

Figura 3-136

La opción tabular Resumen de Análisis muestra que el modelo identificado


para la serie es un ARIMA(1,1,1) con constante, ofreciendo la estimación delos
parámetros del mismo (coincidente con SPSS y SAS).

Pronósticos - ventas
Datos/Variable: ventas

Número de observaciones = 100


Indice Inicial = 1,0
Intervalo de Muestra = 1,0

Resumen de Pronósticos
Diferenciación no estacional de orden: 1
Modelo de pronóstico seleccionado: ARIMA(1,1,1) con constante
Número de pronósticos generados: 6
Número de periodos retenidos para validación: 0

Periodo de Periodo de
Estadístico Estimación Validación
RMSE 0,948425
MAE 0,772115
MAPE 0,564996
ME -0,00195293
MPE 0,00578595
CÉSAR PÉREZ LÓPEZ. UNIDAD DE ESTADÍSTICA. INSTITUTO DE ESTUDIOS FISCALES. 163

Resumen de Modelo ARIMA


Parámetro Estimado Error Estd. t Valor-P
AR(1) 0,744901 0,078646 9,47157 0,000000
MA(1) -0,597111 0,0880865 -6,77869 0,000000
Media 0,819392 0,577447 1,41899 0,159140

El modelo estimado resulta ser:

(1-0,744901B)(1-B)VENTAS = 0,819392 + (1+0,59711B) RESID

La opción tabular Prueba de Aleatoriedad de los Residuos presenta los


contrastes de rachas de la mediana, de rachas y de Box-Pierce. Como todos los p-
valores son superiores a 0,05, se acepta la aleatoriedad residual al 95% de confianza.
Prueba de Aleatoriedad de residuos
Variable de datos: ventas
Modelo: ARIMA(1,1,1) con constante

(1) Rachas arriba o abajo de la mediana


Mediana = 0,0550846
Número de rachas arriba o abajo de la mediana = 50
Número esperado de rachas = 50,0
Estadístico z para muestras grandes = -0,10154
Valor-P = 1,0

(2) Rachas arriba y abajo


Número de rachas arriba y abajo = 59
Número esperado de rachas = 65,6667
Estadístico z para muestras grandes = 1,48356
Valor-P = 0,137924

(3) Prueba Box-Pierce


Prueba basada en las primeras 24 autocorrelaciones
Estadístico de prueba para muestras grandes = 14,8626
Valor-P = 0,868065

La opción tabular Tabla de pronósticos presenta las predicciones.


Tabla de Pronósticos para ventas
Modelo: ARIMA(1,1,1) con constante
Límite en 95,0% Límite en 95,0%
Periodo Pronóstico Inferior Superior
101,0 171,034 169,151 172,917
102,0 174,725 169,93 179,519
103,0 177,683 169,773 185,592
104,0 180,095 169,062 191,129
105,0 182,102 168,027 196,176
106,0 183,805 166,816 200,794

También podría gustarte