Está en la página 1de 41

UNIVERSIDAD NACIONAL AGRARIA LA

MOLINA
FACULTAD DE ECONOMIA Y PLANIFICACIÓN

MODELOS ARIMA

-2
10 20 30 40 50 60 70 80 90 00

Econ. Juan Pichihua Serna, M.A.


Profesor Principal del Departamento Académico de Economía y Planificación
Modelos ARIMA Juan Pichihua Serna

INDICE

1. Naturaleza de las Series de Tiempo 2


1.1 Definiciones Preliminares 2
1.2 Instrumentos de identificación 5
a) La función de autocorrelación simple 5
b) La función de autocorrelación parcial 6

2. Modelos ARIMA 6
2.1 Procesos Autorregresivos 7
a) Proceso AR(q) 7
b) Proceso AR(1) 8
c) Proceso AR(2) 11
2.2 Procesos de Media Móvil 15
a) Proceso MA(q) 15
b) Proceso MA(1) 16
c) Proceso MA(2) 19
2.3 Procesos Autorregresivos de Media Móvil 22
a) Proceso ARMA(p,q) 22
b) Proceso ARMA(1,1) 22
2.4 Procesos Autorregresivos de Media Móvil Integrados 23

3. Proceso Box-Jenkins 26
3.1 Identificación 26
3.2 Estimación 29
3.3 Control 29
a) Características de un buen modelo para pronóstico 30
b) Criterios para la selección de un modelo ARIMA 30

4. Problemas Comunes en la Estimación de Modelos ARIMA 31


4.1 Sobrediferenciación 31
4.2 Subdiferenciación 31
4.3 Sobreparametrización 32

5. Estacionalidad en Modelos ARIMA 32


5.1 Estacionalidad en los términos AR 32
5.2 Estacionalidad en los términos MA 33
5.3 Estacionalidad en los términos AR y MA 33

6. Reglas para la Identificación de Modelos ARIMA 34

7. Aplicaciones de los Modelos ARIMA 38

8. Bibliografía 43

1
Modelos ARIMA Juan Pichihua Serna

MODELOS ARIMA
Cuenta la historia que dos “papers” publicados por Yule1 en 1927 que dieron el inicio al
análisis de las series de tiempo. Diez años después Slutsky2 encuentra que los ciclos
económicos tienen en su origen procesos puramente aleatorios. En ambos casos se
rechazan, proponiendo modelos cuya raíz son procesos puramente aleatorios. En su
presentación Yule invita a sus lectores a imaginar un péndulo que va de un lado a otro
en movimientos armónicos, luego, cualquier desviación que se observa puede ser
atribuido a errores de observación y por lo tanto, podría ser eliminada sin ninguna
consecuencia sobre el proceso estacionario armónico que representa, sin embargo, si el
péndulo fuera interrumpido por alguien comienza a golpear el péndulo con arvejas hacia
uno y hacia otro lado, entonces el movimiento estará afectado por factores disturbantes.

La idea es que hay muchas series de tiempo que tienen un comportamiento regular, pero
que, debido a factores aleatorios pueden tomar valores por encima o por debajo de su
valor regular tal como se puede observar en el gráfico 1.
4

-2

-4

-6

-8
10 20 30 40 50 60 70 80 90 00

Gráfico 1: Yt = 1.343Yt-1 - 0.655Yt-2 + t

1. NATURALEZA DE LAS SERIES DE TIEMPO

1.1 DEFINICIONES PRELIMINARES

Definición 1: Un proceso estocástico es una secuencia de variables aleatorias


Y1 , Y2 , Y3 , ó Yt , cuyo valor se realiza en cada instante de tiempo, para
t  ,.....,2,1,0,1,2,.....,  . Cada una de estas variables aleatorias, Yt , puede tener su
propia distribución de probabilidad, cuyos momentos satisfacen algunas propiedades
específicas. Por ejemplo:

1
Yule, G. U. (1927), “On a Method of Investigating Periodicities in Disturbed Series with Special Reference toWolfer's
Sunspot Numbers”. Philosophical Transactions of the Royal Society, No. 89, pags. 1-64.
2
Slutsky, E. (1937), \The Summation of Random Causes as the Source of Cyclical Processes." Econometrica, 5,
105{146

2
Modelos ARIMA Juan Pichihua Serna

Ejemplo 1: Y1 , Y2 , Y3 , es una secuencia de variables aleatorias independientes


normalmente distribuidas con media cero y varianza  2 para cualquier momento t. Yt 
N( 0 ;  2 ) .

Ejemplo 2: Y1 , Y2 , Y3 , , Yt ,  es una secuencia de variables aleatorias donde Y1 


N ( 0 ; 1 ) , para t = 1, y donde Yt  Yt 1  u t , cualquier momento t >1, siendo u t 
N ( 0 ; 1) , para cualquier momento t.

Ejemplo 3: La tasa de desempleo durante el segundo semestre del año 2001 puede ser
considerada como una variable aleatoria (aunque sólo observemos una realización de
esta variable aleatoria), pero, la secuencia de tasas de desempleo trimestral en el Perú es
un proceso estocástico.

Definición 2: Una serie de tiempo y1 , y 2 , y 3 , , y n es una muestra de realizaciones


de un proceso estocástico. Por supuesto una serie de tiempo puede estar compuesta por
una sola realización de cada variable aleatoria Yt .

Note que mientras el Proceso Estocástico se refiere a la población, una serie de tiempo
es un concepto utilizado para referirse a la muestra. Por ejemplo:

Ejemplo 4: Sea el proceso estocástico Yt  N ( 0 ;  2 ) , una serie de tiempo asociada a


dicho proceso estocástico puede ser: {1.1, 2.3, 4.6, 3.5}.

Ejemplo 5: Observe la tasa de desempleo en el Perú entre el primer trimestre de 1990 y


el cuarto trimestre del 2000.

Definición 3: Un proceso estocástico es estacionario en sentido estricto si cualquier


conjunto de n observaciones de la variable aleatoria Y (t1 ), Y (t2 ), Y (t3 ),...., Y (tn ) mantiene
la misma distribución de probabilidad conjunta que otro conjunto de n observaciones
medido en otro momento de tiempo k períodos más adelante o más atrás
Y (t1  k ), Y (t2  k ), Y (t3  k ),...., Y (tn  k ) .

Esto significa que un proceso estocástico será estacionario si la distribución de


probabilidad de diferentes variables aleatorias es independientemente del momento de
tiempo en que se mide. Se dice que un proceso estocástico, Yt  , será estrictamente
estacionario si su media, varianza y autocovarianzas son constantes (primeros y
segundos momentos), así mismo serán constantes todos sus otros momentos de orden
superior. Por ejemplo.

Ejemplo 6: El proceso estocástico Yt  N ( 0 ;  2 ) del ejemplo 1, es un proceso


estacionario, pues tiene sus primeros, segundos, terceros y cuartos momentos
constantes, esto es:

Primer Momento:

3
Modelos ARIMA Juan Pichihua Serna

 La media:  (t )  E (Yt )   .

Segundo Momento:
   
 La varianza:  2 (t )  Var (Yt )  E (Yt  E (Yt )) 2  E (Yt   ) 2   2   0 .

 Las covarianzas:  (t , t  k )  Cov(Yt , Yt k )  E(Yt   )(Yt k   )   k   k

Tercer Momento:
 Y    3 
 Skewness (sesgo): skw(t )  E   t 0
    
 
Cuarto Momento:
 Y    4 
 Kurtosis: kur(t )  E   t   3.
    
 

Ejemplo 7: El proceso estocástico del ejemplo 2, es un proceso no estacionario, pues, Yt


es un paseo aleatorio (random walk) con Yt  N ( 0 ; t ) . Se puede demostrar que la
varianza de Yt está asociada al momento en el que se mide.

Definición 4: Un proceso estocástico Yt  será débilmente estacionario (o de covarianza


estacionaria) si para cualquier momento del tiempo t, sus primeros y segundos
momentos son independientes del tiempo. Esto es, tendrán media, varianza y covarianza
constantes.

 La media: E (Yt )   .
 
La varianza: Var (Yt )  E (Yt   ) 2   0 .
 Las covarianzas: Cov(Yt , Yt k )  E(Yt   )(Yt k   )   k   k ;  k  0 .

Una serie, yt , es de covarianza estacionaria si:

1) Exhibe reversión hacia la media, esto es, sus valores en el largo plazo fluctuan
alrededor de una media constante. E(yt) = E(yt-k) = , una constante para todo t y t-k.

2) Tiene una varianza finita e invariante en el tiempo. E(yt-)2 = E(yt-s-)2=2. Una


constante para todo t y k, y

3) Sus autocovarianzas no están afectadas por el cambio en el origen,


E[(yt - t-k - t-j -  t-j-k - ) = k

Cov (yt,yt-k) = Cov(yt-j,yt-j-k) = k .

Las covarianzas dependen únicamente de la distancia k y no del origen t o t-j.

4
Modelos ARIMA Juan Pichihua Serna

Definición 5: Un proceso estocástico será independiente e identicamente distribuido


“i.i.d.” si es un proceso débilmente estacionario y si para cada par de momentos de
tiempo t , t  k  con k  0 , Yt y Yt  k son independientes, luego, tienen covarianza
nula,  k  0 .

El proceso estocástico Yt del ejemplo 1 es un iid porque:


 La media: E (Yt )  
 La varianza: Var (Yt )  E[(Yt   ) ]   0  
2 2

 Las covarianzas: Cov(Yt , Yt k )  E[(Yt   )(Yt k   )]  0 ;  k  0 .

Si es un proceso estocástico Yt i.i.d. puede ser denotado como: Yt  iid ( 0 ;  2 ) .

Definición 6: Un proceso es estocástico estacionario es el Ruido Blanco (white-noise),


si sus valores son producto únicamente del azar, es decir, tienen media cero, varianza
constante y covarianza cero, por lo tanto, es un caso especial de proceso estocástico
i.i.d. con media cero.

El proceso estocástico Yt del ejemplo 1 es un ruido blanco, si:


 La media: E (Yt )  0
 La varianza: Var (Yt )  E[(Yt ) ]   0  
2 2

 Las covarianzas: Cov(Yt , Yt k )  E[Yt Yt k ]   k  0 ;  k  0 .

Ejemplo 8: Se dice que los cambios en las cotizaciones de la Bolsa de Valores o los
premios de la lotería son producto del azar, por lo tanto son ruido blanco.

1.2 INSTRUMENTOS DE IDENTIFICACIÓN


Para identificar la estructura de un proceso estocástico específico, se prefiere no utilizar
la varianza y las autocovarianzas de la variable aleatoria Yt , debido a que están influidas
por sus unidades de medida, en este caso se utiliza la función de autocorrelación simple
y la función de autocorrelación parcial, pues sus medidas están libres de unidades.

a) La función de autocorrelación simple

La función de autocorrelación simple, AC(j), de un proceso estocástico Yt  es la


colección de los coeficientes de autocorrelación lineal simple de la variable aleatoria Yt ,
medido entre en el momento t y el momento t-j..

Cov(Yt , Yt  j ) j j
AC(j):  j   
V (Yt ) . V (Yt  j )  0 . 0 0

Las medidas muestrales de la función de autocorrelación de una serie de tiempo es la


siguiente:

5
Modelos ARIMA Juan Pichihua Serna

t t
 (Yt  Y )(Yt  j  Y )  yt yt  j
j 1 j 1
̂ j  t
 t
 (Yt  Y )  yt
2 2

1 1

b) La función de autocorrelación parcial

La función de autocorrelación parcial, PAC(j), de un proceso estocástico Yt  es la


colección de los coeficientes de autocorrelación parcial de la variable aleatoria en el
momento t, Yt , y la variable aleatoria en el momento t-j, Yt  j , luego de eliminar el
efecto que tienen los rezagos intermedios Y1 , Y2 , Y3 ,…, Yt  j 1 sobre Yt .

Las medidas muestrales de la función de autocorrelación parcial,  jj se obtienen del


coeficiente asociado a la variable t-j en una regresión de y t contra sus rezagos hasta
y t  j donde la variable aleatoria y t se mide en desviaciones con respecto a su media,
esto es, yt  Yt  Y .

En este esquema la primera autocorrelación simple será igual a la primera


autocorrelación parcial, PAC(1)=AC(1)= 11  1 ,en cambio la segunda autocorrelación
parcial será el coeficiente asociado a y t  2 en una regresión de y t contra yt 1 y yt 2 . La
tercera autocorrelación parcial será el coeficiente asociado a y t 3 en una regresión de y t
contra yt 1 , yt 2 y yt 3 , el resto de coeficientes PAC se obtienen a través de las
siguientes regresiones:

t-(t-j) PAC Regresión


1 PAC(1) 11 yt  11 yt 1   t
2 PAC(2)  22 yt   21 yt 1   22 yt 2   t
3 PAC(3)  33 yt  31 yt 1  32 yt 2  33 yt 3   t
............ ........ .......................................................
p PAC(P)  pp yt  31 yt 1  32 yt 2  33 yt 3     pp yt  p   t

2. MODELOS ARIMA

Los procesos ARIMA son modelos matemáticos utilizados con fines de pronóstico.
ARIMA es un acronismo de los Modelos AutoRegresivos Integrados y de Media Movil
(AutoRegressive, Integrated, Moving Average), donde cada parte de la frase describe la
parte del modelo matemático que nos ocupará esta sección.

6
Modelos ARIMA Juan Pichihua Serna

Los procesos ARIMA fueron popularizados por George Box y Gwilym Jenkins a inicios
de los años 1970s; motivo por el cual los procesos ARIMA son también conocidos
como Modelos Box-Jenkins. Cada proceso ARIMA tiene tres partes: la parte
autoregresiva(o AR); la parte integrada (o I); y la parte de las medias móviles (o MA)
part, de modo corto se lo escribe como ARIMA(p,d,q) donde p describe la parte AR , d
describe la parte integrada y q describe la parte MA.

2.1 PROCESOS AUTORREGRESIVOS

a) Proceso AR(p)

Un proceso Autorregresivo de orden p, AR(p), es un modelo ARIMA(p,0,0), puede ser


expresado como función de los p rezagos de la misma variable, de la siguiente manera:

Yt  c  1Yt 1   2Yt 2  ......   pYt  p   t

Donde, c es una constante y  t es ruido blanco, con media cero, E ( t )  0 , varianza


constante e igual a V ( t )   2 , y covarianzas igual a cero Cov( t ,  t  j )  0, j  0 . O
también:

 
 t  RB 0 ;  2 y E ( t  t  j )  0, j  0

Utilizando operadores de rezago, el proceso AR(p) se puede expresar como:

Yt  1Yt 1   2Yt 2  ......   pYt  p  c   t

(1  1 L   2 L2  ......   p Lp )Yt  c   t

O también

 ( L)Yt  c   t

Donde el polinomio  (L) expresa las características del proceso autorregresivo, el


mismo que puede descubrirse hallando sus p raíces características L1 , L2 ,....Lq .

p
 ( L)  1  1 L   2 L2  ......   p L p  (1  1 L)(1  2 L)......(1   p L)   (1   j L)
j 1

Para que proceso AR(p) sea estacionario, es decir, tiene tener solución convergente a
una media constante, si y solo si satisface la “condición de estacionariedad”, es decir, si
las raíces características  (L) caen fuera del circulo unitario, L j > 1,

7
Modelos ARIMA Juan Pichihua Serna

El polinomio  (L) también puede ser expresado como  ( ) :

 p  1 p1   2  p2  ....   p1   p  0

Cuyas raíces características del polinomio  ( ) deben caer dentro del circulo unitario,
1
es decir,  j  1, dado que  j  .
Lj

El efecto de un shock aleatorio en el período t sobre un proceso estocástico del tipo


AR(p) se mide por la secuencia:

1
dYt  d t
1  1 L   2 L  ......   p L p
2

Luego, el efecto de largo plazo de un shock unitario se mide por:


1
dYt 
1  1   2  ......   p

b) Proceso AR(1)

Un proceso autorregresivo de primer orden, AR(1), se representa de la siguiente


manera:

Yt  c  Yt 1   t .

Donde  t es ruido blanco con E ( t )  0 , V ( t )   2 , y Cov( t ,  t  j )  0, j  0 .

Utilizando operadores de rezago, el proceso AR(1) puede expresarse como:

(1  L)Yt  c   t

Para que un proceso AR(1) sea estacionario será necesario que   1, es decir que
cumpla con la condición de estacionariedad. De acuerdo a esto, el proceso AR(1)
puede ser expresado como un proceso MA().

Demostración:
c 1 c
Yt   t    t   t 1   2 t  2   3 t  3  
1   (1  L) 1
c 
Yt     j t  j
1 j 0
c
Yt   MA()
1

8
Modelos ARIMA Juan Pichihua Serna

De modo que la media de Yt es:


c
E (Yt )  
1

La varianza de Yt es:
2
 j 
Var (Yt )   0  E[Yt   ]  E     t  j   E[ t    t 1    t 2  .....  2.crossprod]
2 2 2 2 4 2

 j 0 
Var (Yt )   0   (1      .....)
2 2 4

2
Var (Yt )   0 
1 2

y las covarianzas de Yt se obtienen de operar:



Yt      j  t  j
j 0

Yt  j      j  t  j 1
j 0
   2
Cov(Yt , Yt 1 )   1  E(Yt   )(Yt 1   )   .
1  2 
 
   2
 
j
Cov(Yt , Yt  j )   j  E (Yt   )(Yt  j   )   . , j  2.
1  2 
 

La función de autocorrelación simple, AC, de un proceso AR(1) es:



1  1  
0
2
2    .1   2
0
j
j    j 1   j .  j  2.
0

La función de autocorrelación parcial, PAC, de un proceso AR(1) es:

PAC(1)= 11 , se obtiene de la regresión: yt  11 yt 1 , donde yt  Yt  Y

PAC(2)=  22 = 0, se obtiene de la regresión: yt   21 yt 1   22 yt 2 .

PAC(2)=  33 = 0, se obtiene de la regresión: yt  31 yt 1  32 yt 2  33 yt 3 .

Note que en un AR(1) el PAC se hace cero luego del primer rezago.

9
Modelos ARIMA Juan Pichihua Serna

PROCESOS AUTORREGRESIVOS: AR(1)


4 6

3 4

2
2

1
0
0
-2
-1

-4
-2
Y= - 0.85*Y(-1)+
Y= 0.85*Y(-1)+
-3 -6
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00 05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

c) Proceso AR(2)

Un proceso autorregresivo de segundo orden, AR(2), se representa de la siguiente


manera:

Yt  c  1Yt 1   2Yt 2   t
Donde  t es ruido blanco con E ( t )  0 , V ( t )   2 , y Cov( t ,  t  j )  0, j  0 .

Utilizando operadores de rezago, el proceso AR(2) se puede expresar como:


Yt  1Yt 1   2Yt 2  c   t
(1  1 L   2 L2 )Yt  c   t

Para que se cumpla con la condición de estacionariedad, es decir, para que el proceso
AR(2), pueda ser expresado como un MA() es necesario que las dos raíces del
polinomio en L, 1  1 L   2 L2  0 , caigan fuera del círculo unitario,
(1  1 L)(1  2 L)  0 , esto es: Li  1
.

Operando se obtiene:
1  (1  2 ) L  12 L  1  1 L   2 L  0
2 2

10
Modelos ARIMA Juan Pichihua Serna

Luego: 1  2  1 y 12   2

Equivalentemente, si hacemos L  1 /  , obtenemos:

2  1   2  0

Para que se cumpla la condición de invertibilidad es necesario que, las dos raíces
características del polinomio en  , 2  1   2  0 , sean menores que uno, i  1 ,
esto es:
1  12  4 2
i   1.
2

Es decir, resolviendo las raíces del polinomio se obtiene:

1  12  4 2 1  12  4 2
1  1 y 2   1
2 2

En ambos casos las raíces características Li  1 y i  1 ocurren si y solo si:


 2  1 1;  2  1 1; y  2  1.

Por lo tanto, si se cumplen estas condiciones un proceso AR(2) es un proceso


estacionario y por lo tanto puede ser expresado como un proceso MA().

Por ejemplo, el proceso estacionario cuya representación es un AR(2),


Yt  10  0.7Yt 1  0.8Yt 2   t , es estacionaria porque:  2  0.8  1;
 2  1  0.8  0.7  0.1 1; y  2  1  0.8  0.7  1.5 1.

Pero, si la representación AR(2) fuera: Yt  10  0.7Yt 1  0.8Yt 2   t , no es


estacionaria porque,  2  1  0.8  0.7  1.5  1, por lo tanto no cumple con una
condición necesaria de estacionariedad.

De igual manera, si la representación AR(2) fuera: Yt  10  0.7Yt 1  1.3Yt 2   t ,


tampoco es estacionaria, porque  2  1.3 >1; Sin embargo, si la representación AR(2)
fuera: Yt  10  1.3Yt 1  0.7Yt 2   t , si es estacionaria, porque  2  0.7  1;
 2  1  0.7  1.3  2.0 1; y  2  1  0.7  1.3  0.6 1.

Los momentos de un proceso AR(2) se obtienen de adecuar la ecuación original:

Yt  c  1Yt 1   2Yt 2   t

(1  1 L   2 L2 )Yt  c   t

11
Modelos ARIMA Juan Pichihua Serna

c 1
Yt   t
1  1   2 1  1 L   2 L2

De modo que la media de Yt es:


c
E (Yt )   ;
1  1   2

Para obtener la varianza y las covarianzas de Yt se obtienen de realizar los siguientes


arreglos:

De la media de Yt se obtiene:
c  1  1   2     1   2 

Luego,
  c  1   2 

Restando la media,   c  1   2  , a ambos miembros del proceso AR(2) se


obtiene:
Yt    c  1Yt 1   2Yt 2   t  c  1   2   1 (Yt 1   )   2 (Yt 2   )   t .

Haciendo a Yt    yt , Yt 1    yt 1 , y así sucesivamente, tenemos:


yt  1 . yt 1   2 . yt 2   t
Multiplicando por y t , y t 1 y y t  2 tenemos:
yt2  1 . yt . yt 1   2 . yt . yt 2   t . yt
yt . yt 1  1 . yt21   2 . yt 1 . yt 2   t . yt 1
yt . yt 2  1 . yt 1 . yt 2   2 . yt22   t . yt 2

Tomando el valor esperado tenemos:


 0  1 . 1   2 . 2   2

 1  1 . 0   2 . 1

 2  1 . 1   2 . 0

De modo que la varianza de Yt es:


 2 (1   2 )
Var (Yt )   0 
(1   2 )(1  1   2 )(1  1   2 )

Las autocovarianzas se obtienen de la relaciónes anteriores:

 21
Cov(Yt , Yt 1 )   1 
(1  2 )(1  1  2 )(1  1  2 )

12
Modelos ARIMA Juan Pichihua Serna

 2 (1   2 ) 2  12 
Cov(Yt , Yt  2 )   2  , y así sucesivamente.
(1   2 )(1  1   2 )(1  1   2 )

La función de autocorrelación simple, AC, de un proceso AR(2) es:


1 
1   1
 0 1  2

2 12
2    2
 0 1  2

Para las autocorrelaciones mayores a 2 se debe utilizar la ecuación de Yule – Walker3,


sería:
1  1 .   2 .1
 2  1 .1   2 , y en general
 j  1 . j 1   2 . j 2 .

PROCESOS AUTORREGRESIVOS: AR(2)


4 6
Y=0.8*Y(-1)-0.25*Y(-2)+
3 Y=-0.8*Y(-1)-0.25*Y(-2)+
4
2

1 2

0
0

-1
-2
-2

-3 -4
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00 05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

3
Las ecuaciones de Yule-Walker para un AR(p) se obtienen de:
 j  1. j 1   2 . j 2  .....   p . j  p . Para todo j = 1, 2, 3, …., p. Donde  j   j

13
Modelos ARIMA Juan Pichihua Serna

2.2 Procesos de Media MÓVIL


a) Proceso MA(q)

Un proceso MA(q), es una representación de un ARIMA(0,0,q). La media movil es la


representación de un proceso estocástico expresado solamente en términos de valores
corrientes y rezagados de un ruido blanco, en ese sentido, todo proceso estacionario
tiene asegurado una representación de Média Móvil.

Un proceso de media móvil de orden q, MA(q), puede ser expresado de la siguiente


manera:
Yt  c   t   1 t 1   2 t 2  ....   q  t q

Donde, c es una constante y  t es ruido blanco, con media cero, E ( t )  0 , varianza


constante e igual a V ( t )   2 , y covarianzas igual a cero Cov( t ,  t  j )  0, j  0 . O
también:
 
 t  RB 0 ;  2 y E ( t  t  j )  0, j  0

Utilizando operadores de rezago, el MA(q) se puede expresar también como:

Yt  c  (1   1 L   2 L2  ....   q Lq ) t

Yt  c   q ( L) t

De modo que la media, la varianza y las covarianzas de un proceso de media móvil en


Yt , serán:
E (Yt )  E (c   t  1 t 1   2 t 2  .....   q  t q )  c

q
Var (Yt )   0    i . Donde  0  1 .
2 2

i 0

q j
Cov(Yt , Yt  j )   j    i i  j , j  1,2,3,...., q. Donde  0  1 .
2

i 0

Cov(Yt ,Yt  j )   j  0, j  q .

Por lo tanto, las funciones de autocorrelación de un proceso MA(q) son:

q j

  i i j
j  i 0
q
. Para j = 1, 2, 3, …., q. Donde  0  1 .

i 0
i
2

 j  0 . Para j  q.

14
Modelos ARIMA Juan Pichihua Serna

Por lo tanto, para determinar el orden q de la media movil bastará con observar los
coeficientes de autocorrelación simple, AC(j), distintas de cero,  j  0 . Pues para un
orden mayor a q las AC(j) serán cero.

Un proceso MA(q) puede ser expresado como un proceso autorregresivo de orden


infinito, AR(), si cumple con la condición de invertibilidad, para ello las raíces
características, en L, del polinomio  q (L) deben caer fuera del círculo unitario, o
también la inversa de la raíz debe caer dentro del círculo unitario. Esto es:

Si
Yt  c   t   1 t 1   2  t 2  .....   q  t q  c   q ( L) t ,

entonces,
Yt  c  (1   1 L   2 L2  .....   q Lq ) t

Para hallar las raíces características del polinomio  q (L) debemos igualarlo a cero y
resolverlo:
1   1 L   2 L2  .....   q Lq  (1  1 L)(1   2 L).....(1   q L)  0

Para que el polinomio sea invertible sus q raíces características, en L, deben caer fuera
1
del circulo unitario, esto es: L j   1.
j

El polinomio  q (L) , también puede expresarse como un polinomio  q ( ) , esto es:


1   1 L   2 L2  .....   q Lq  q   1q 1   2 q 2  ....   q 1   q  0

Para que se cumpla la condición de invertibilidad las q raíces características del


polinomio  q ( ) deben caer dentro del circulo unitario,  j  1 .

b) Proceso MA(1)

Una media móvil de primer orden se representa de la siguiente manera:

Yt  c   t   t 1  c  (1  L) t

 
Donde  t  RB 0 ;  2 y E ( t  t  j )  0, j  0

De modo que la media de Yt , E (Yt ) , es:


E (Yt )  E (c   t   t 1 )  c .

La varianza de Yt , V (Yt )   0 , es:


Var (Yt )   0  E[Yt  E (Yt )]  E[Yt  c]  E[c   t   t 1  c]
2 2 2

15
Modelos ARIMA Juan Pichihua Serna

Var (Yt )   0  E[ t  2 t  t 1    t 1 ]  E[ t ]  2 .E[ t  t 1 ]   E[ t 1 ]   (1   )


2 2 2 2 2 2 2 2

y sus autocovarianzas son:


Cov(Yt , Yt 1 )   1  E[(Yt  c)(Yt 1  c)]  E[( t   t 1 )( t 1   t 2 )]    , para j=1
2

y
Cov(Yt , Yt  j )   j  E[(Yt  c)(Yt  j  c)]  E[( t   t 1 )( t  j   t  j 1 )]  0, j  2.

Para que un MA(1) cumpla con la condición de invertibilidad basta que   1.

La función de autocorrelación simple, AC, de un proceso MA(1) es:


  . 2 
AC(1): 1  1  
 0 (1   ).2 2
1 2
0
AC(2)  2   0.
0
AC(j)  j  0 . Para j  2.

Por ejemplo, supongamos un proceso estacionario con representación MA(1):


Yt  10   t  2 t 1 , la varianza, las covarianzas y las autocorrelaciones simples son:

Rezagos Varianzas y Covarianzas Autocorrelación Simple


0 
Var (Yt )   0   (1  2 )  5
2 2 2
AC(1):  0  0  1
0
1  1  2. 2
Cov(Yt , Yt 1 )   1  2
2
AC(1): 1    0.4
0 5.
2

2  0
Cov(Yt , Yt 2 )   2  0 AC(2):  2  2  0
0 0
........ ........ ........
j Cov(Yt , Yt  j )   j  0 AC(j):  j  0 .

Sin embargo, supongamos otro proceso estacionario MA(1), Yt  10   t  0.5 t 1 , que


produce la misma función de autocorrelación simple4.

Rezagos Varianzas y Covarianzas Autocorrelación Simple


0 Var (Yt )   0   (1  0.5 )  1.25
2 2 2
AC(1):  0  1
 1  0.5 2
1 Cov(Yt , Yt 1 )   1  0.5
2
AC(1): 1    0.4
 0 1.25. 2
2 Cov(Yt , Yt 2 )   2  0 AC(2):  2  0
........ ........ ........
j Cov(Yt , Yt  j )   j  0 AC(j):  j  0 .

4
Se dice que estos modelos son ergódicos.

16
Modelos ARIMA Juan Pichihua Serna

PROCESOS MEDIA MOVIL: MA(1)

4 3

2
2
1

0 0

-1
-2
-2

MA(1): Y=ERR-0.85*ERR(-1) MA(1): Y=ERR+0.85*ERR(-1)


-4 -3
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00 05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

c) Proceso MA(2)

Un proceso estocástico tiene representación de media móvil de segundo orden si:

Yt  c   t  1 t 1   2 t 2  c  (1  1 L   2 L2 ) t

 
Donde  t  RB 0 ;  2 y E ( t  t  j )  0, j  0

La media de Yt es,
E (Yt )  c

La varianza de Yt es:

Var (Yt )   0   2 (1  12   22 )

y las autocovarianzas de Yt son:

Cov(Yt , Yt 1 )   1   1 (1   2 )
2

17
Modelos ARIMA Juan Pichihua Serna

Cov(Yt , Yt  2 )   2    2
2

Cov(Yt ,Yt  j )   j  0, j  3.

Para que se cumpla con la condición de invertibilidad, en el proceso estacionario


MA(2), Yt  c  (1  1 L   2 L2 ) t , es necesario que las dos raíces del polinomio en L,
1  1 L   2 L2  0 , caigan fuera del círculo unitario, (1  1L)(1  2 L)  0 , esto es:
Li  1 o i  1 , donde, L  1 /  , . Resolviendo:

1  (1  2 ) L  12 L  1  1L   2 L  0


2 2

Equivalentemente, si L  1 /  , para que se cumpla la condición de invertibilidad es


necesario que, las dos raíces características del polinomio en  , 2   1   2  0 ,
sean menores que uno, i  1 , esto es:

1  12  4 2
i   1.
2
Es decir,
1  12  4 2 1  12  4 2
1  1 y 2  
1
2 2
En ambos casos las raíces características Li  1 y i  1 ocurren si y solo si:
 2   1 1;  2   1 1; y  2  1.

La función de autocorrelación simple, AC, de un proceso MA(2) es:

 1   1 (1   2 )
AC(1): 1  
 0 1   12   22
 2
AC(2):  2  2 
 0 1   12   22
AC(j):  j  0 . Para j  3.

Por ejemplo, el proceso estacionario cuya representación es un MA(2),


Yt  10   t  0.7 t 1  0.8 t 2 , es invertible porque:  2  0.8  1;
 2  1  0.8  0.7  0.1 1; y  2  1  0.8  0.7  1.5 1.

Pero, si la representación MA(2) fuera: Yt  10   t  0.7 t 1  0.8 t 2 , no es invertible


porque,  2  1  0.8  0.7  1.5  1 , por lo tanto no cumple con una condición
necesaria de invertibilidad.

18
Modelos ARIMA Juan Pichihua Serna

De igual manera, si la representación MA(2) fuera: Yt  10   t  0.7 t 1  1.3 t 2 ,


tampoco es invertible, porque  2  1.3 >1; Sin embargo, si la representación MA(2)
fuera: Yt  10   t  1.3 t 1  0.7 t 2 , si es invertible, porque  2  0.7  1;
 2  1  0.7  1.3  2.0 1; y  2  1  0.7  1.3  0.6 1.

La varianza, las covarianzas y las autocorrelaciones simples de un proceso estacionario


cuya representación es un MA(2): Yt  10   t  0.7 t 1  0.8 t 2 serán:

Rezagos Varianzas y Covarianzas Autocorrelación Simple


0 0
Var (Yt )   0   2 (1  0.7 2  (0.8) 2 )  2.13 2 AC(0):  0  1
0
AC(1):
Cov(Yt , Yt 1 )   1   2 (0.7)(1  0.8)  1.26 2  1  1.26 2
1
1    0.59
 0 2.13 2
AC(2):
2 Cov(Yt , Yt 2 )   2  0.8 2  0.8 2
2  2   0.37
 0 2.13 2
3 0
Cov(Yt , Yt 3 )   3  0 AC(3):  3   0.
3
........ ........ ........
j Cov(Yt , Yt  j )   j  0 AC(j):  j  0 .

PROCESOS DE MEDIA MOVIL: MA(2)


4 3

2
2

0 0

-1
-2
-2
MA(2): Y=ERR-0.6*ERR(-1)-0.2*ERR(-2)
MA(2): Y=ERR+0.6*ERR(-1)+0.2*ERR(-2)
-4 -3
05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00 05 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 00

19
Modelos ARIMA Juan Pichihua Serna

2.3 PROCESOS AUTORREGRESIVOS DE MEDIA MÓVIL

a) Proceso ARMA(p,q)

Es un proceso que combina los modelos AR y MA. Un modelo ARMA(p,q) o un


ARIMA(p,0,q) se define como:

Yt  c  1 .Yt 1  ...   p .Yt  p   t  1 . t 1  .....   t q

Donde  t es proceso puramente aleatorio, ruido blanco, con media 0 y varianza  2 .

Utilizando operadores de rezago, podemos escribir un modelo ARMA de la siguiente


manera:

Yt  1.Yt 1  ...   p .Yt  p  c   t  1. t 1  .....   t  q

 ( L).Yt   ( L) t

Donde  (L). y  (L) son polinomios de orden p y q, respectivamente, definidos como:


 ( L)  1  1 L   2 L2  .....   p Lp .
 ( L)  1  1 L   2 L2  ......   q Lq .

Para que se cumpla con la condición de estacionariedad las raíces del polinomio  (L).
deben caer fuera del círculo unitario (o dentro del círculo unitario si se define la función
inversa). Para que se cumpla con la condición de invertibilidad del MA las raíces del
polinomio  (L) deben caer fuera del círculo unitario (o dentro del círculo unitario si se
define la función inversa).

Si se cumplen estas condiciones, un ARMA (p, q) puede ser expresado como un modelo
AR() o un modelo MA (), esto es:

 ( L) 1 . ( L).Yt   t , AR() , también o

Yt   ( L) 1 . ( L). t , MA ().

b) Proceso ARMA (1,1)

Yt  c  .Yt 1   t  1. t 1

La varianza y las autocovarianzas de Yt son:

20
Modelos ARIMA Juan Pichihua Serna

1  2. .   2 2
0  
1 2
(   )(1   . ) 2
 1   . 0  
1 2

 2   . 1 , y en general

 j   . j 1 . Para todo j mayor o igual a 2.

Como resultado de esto, la función de actocorrelación, AC, de un proceso ARMA (1,1)


es:
 (   )(1   . )
1  1  , en general,
0 1     2

 j   . j 1 . Para todo j mayor o igual a 2.

2.4 PROCESOS AUTORREGRESIVOS DE MEDIA MÓVIL INTEGRADOS

Es un proceso ARMA a una serie que ha sido diferenciada una cantidad necesaria de
veces hasta convertirla en estacionaria.

Yt  Yt  Yt 1
2Yt  Yt  Yt 1
d Yt  d 1Yt  d 1Yt 1

Luego un modelo ARIMA (p, d, q) se expresa de la siguiente manera:

d Yt  c  1 .d Yt 1  ...   p .d Yt  p   t  1 . t 1  .....   t q

Un modelo ARIMA(1,1,1) significa que la serie ha requerido una diferenciación para


transformarse en una serie estacionaria, y esta serie diferenciada tiene una
representación ARMA(1,1). Por ejemplo

Yt  c  1.Yt 1   t  1. t 1

Desarrollando la diferencia se tiene:

Yt  Yt 1  c  1.(Yt 1  Yt  2 )   t  1. t 1

Yt  c  (1  1 )Yt 1  1Yt  2   t  1. t 1

21
Modelos ARIMA Juan Pichihua Serna

PROCESO AUTORREGRESIVO DE MEDIA MOVIL: ARMA(1,1)


4 4
y= 0.5*y(-1) +  - 0.5*(-1)

2 2

0 0

-2 -2

-4 -4
y= -0.5*y(-1) +  + 0.5*(-1)
1920 1940 1960 1980 2000 1920 1940 1960 1980 2000

PROCESO AUTORREGRESIVO INTEGRADO DE MEDIA MOVIL:


ARIMA(1,1,1)
10 3

5 2

0 1

-5 0

-10 -1
-15
-2
-20
-3
y= 0.5*y(-1) +  - 0.5* (-1)
-25
1920 1940 1960 1980 2000
-4
1920 1940 1960 1980 2000
Y

22
Modelos ARIMA Juan Pichihua Serna

Proceso Box-Jenkins

La aproximación de los modelos ARIMA mediante el procedimiento de Box & Jenkins


se basan en los siguientes principios:

1° El pronóstico se supone que son producto de funciones lineales de las observaciones


muestrales.

2° El propósito es encontrar el modelo más simple que proporcione una adecuada


descripción de los datos observados. Este principio es conocido como el de la
parsimonia.

El procedimiento propuesto por Box & Jenkins para abordar los modelos
ARIMA(p,d,q) está compuesto de tres etapas: Identificación, Estimación y Control,
luego de los cuales puede utilizarse el modelo estimado con fines de pronóstico. Si el
modelo no es satisfactorio debe regresar a evaluar su representación mediante una
mejora en la identificación.

PROCESO DE BOX - JENKINS

IDENTIFICACION

ESTIMACION

CONTROL

PRONOSTICO

2.5 IDENTIFICACIÓN

Si la serie de tiempo analizada, Yt , es estacionaria, se debe identificar las órdenes de los


procesos autorregresivo, p, ( L)  1  1 L     p Lp y de media movil, q,
 ( L)  1  1 L     q L , que represente la serie de tiempo analizada.
q

23
Modelos ARIMA Juan Pichihua Serna

Si la serie de tiempo Yt no es estacionaria, debe hallarse previamente, primero, el


número de diferencias d necesarias para que se transforme en una serie estacionaria,
esto es, zt   Yt .
d

Si la serie de tiempo es estacionaria, pero con características estacionales, la serie debe


ser previamente desestacionalizada mediante una diferencia estacional, el valor de s
adecuado depende del ciclo estacional de la serie, para ello debe tenerse en cuenta la
frecuencia de la serie (mensual, trimestral u otra), es decir,
zt  Yt  Yt s  (1  L )Yt   sYt .
s

Si la serie de tiempo Yt no es estacionaria y además tiene características estacionales


debe estacionarizarse y desestacionalizarse previamente, es decir, zt   s  Yt , antes de
d

efectuar la identificación del proceso que la representa.

En todos estos casos los correlogramas para la función de autocorrelación simple y la


función de autocorrelación parcial permiten identificar los valores para p, d, q y s. En la
siguiente sección veremos algunas reglas para identificar la representación del modelo
ARIMA.

El estadístico de prueba en estos casos es el estadístico Q de Ljung-Box, que prueba la


hipotesis de las autocorrelaciones simples significativamente diferentes de cero.

Rezagos 1 2 ...... k
Hipótesis H 0 : 1  0 H 0 : 1   2  0 ...... H 0 : 1   2     k  0
H a : 1  0 H a : k  0 H a : k  0
Estadístico k  r j2   yt yt  j
de prueba Q  n(n  2)      k2 gl . Donde: rj 
j 1  n  j   yt
2
 
Decisión Si se acepta la hipótesis nula E[ yt yt  j ]  0 , indicaría no correlación de la
serie entre el período t y el período t-j. En otros caso habrá autocorrelación
en la serie.

Algunos puntos críticos para procesos estacionarios son:

1. La función AC de un proceso ARMA(p,q) decae al rezago q.

2. El función PAC de un proceso ARMA(p,q) decae al rezago p.

24
Modelos ARIMA Juan Pichihua Serna

PROPIEDADES DE LAS FUNCIONES AC Y PAC


Proceso Función AC Función PAC
Ruido Blanco -
White-noise Todos los s = 0 Todos los ss = 0
ARIMA(0,0,0)
AR(1): 1 > 1 Decae exponencialmente (s=1s ) 11 = ss = 0, s 2
Posiblemente los dos primeros rezagos sean Solo es significativo en el rezago 1.
significativos.
ARIMA (1,0,0)
1>Φ>0

AR(1): 1 < 1 Decae oscilando: s =1s 11 = ss = 0, s 2


Posiblemente los dos primeros rezagos sean
significativos pero con un pico negativo. Solo es significativo en el rezago 1
en el lado negativo.
ARIMA (1,0,0)
–1 < Φ < 0

Quiebre en el rezago p
AR(p) Decae a 0, puede oscilar
Todos los ss = 0, s p
Quiebre positivo en el rezago 1, Decae oscilando: 11 <0
MA(1): >0
s = 0 para s 0
Posiblemente los dos primeros
Solo es significativo en el rezago 1 en el lado
rezagos sean significativos pero con
negativo.
un pico negativo
ARIMA (0,0,1)
1>θ>0

Quiebre negativo en el rezago 1,


MA(1):  Decae: 
s = 0 para s 0
Posiblemente los dos primeros
Solo es significativo en el rezago 1. rezagos sean significativos pero con
un pico positivo.
ARIMA (0,0,1) -
1< θ < 0

Decae exponencialmente
Decae exponencialmente empezando en el
ARMA(1,1) empezando en el rezago 1. 
rezago 1, signo del signo(1 + 
Signo(ss) = signo (11)
Decae oscilante o directamente empezando en Decae oscilante o directamente
ARMA(p,q)
el rezago q empezando en el rezago p.
Solo es significativo en el rezago 1.
Decae lentamente empezando en el rezago 1.

ARIMA(0,1,0)

25
Modelos ARIMA Juan Pichihua Serna

2.6 ESTIMACIÓN

Consiste en utilizar el método adecuado para estimar los parámetros de la


representación ARMA(p,q).

En el caso de los modelos autorregresivos, AR(p), Yt  c  1.Yt 1  ...   p .Yt  p   t , es


suficiente utilizar el método de mínimos cuadrados ordinarios, toda vez que los
regresores no estan correlacionados con el error, E[ yt  j . t ]  0  j  0 , esto porque el
error tiene características de ruido blanco. Sin embargo, en los modelos AR(p) puede
existir problemas de multicolinealidad, pero esto no afecta las propiedades de los
estimadores de MCO, que siguen siendo MELI, de igual modo, si el patrón de la
colinealidad se mantiene, las propiedades óptimas de los pronósticos utilizando dichos
resultados se mantiene.

En el caso de los modelos MA(q), Yt  c   t  1 . t 1  .....   t q , y de los modelos


ARMA(p,q), Yt  c  1 .Yt 1  ...   p .Yt  p   t  1 . t 1  .....   t q , requieren ser
estimados por el método de Máxima Verosimilitud o cualquier alternativa de estimación
no lineal, esto porque si bien los errores no están correlacionados, son desconocidos, lo
que obliga a un proceso de estimación hacia atrás de los mismos, “backforecasting”, que
transforma en no lineal al modelo.

2.7 CONTROL
Consiste en encontrar la mejor representación ARIMA para la serie de tiempo, esto pasa
por verificar los resultados del modelo y en especial consiste en verificar si los residuos,
êt , de la estimación se comportan como ruido blanco.

En el proceso de construcción de un modelo ARIMA(p, d, q) se exige de manera muy


particular que las funciones de autocorrelación simple (AC)y de autocorrelación parcial
(PAC) para los residuos expresen un comportamiento de ruido blanco, por lo tanto, es
preciso verificar la significancia de las autocorrelaciones de los residuos y comparado
con aproximadamente el límite de dos desviaciones estándar, es decir, 2/ n .

El estadístico Q de Ljung-Box es una medida objetiva para verificar si una serie de


tiempo (el residuo) se comporta como un ruido blanco, tal como se viera en la etapa de
identificación.
k  rj   yt yt  j
2
Q  n(n  2)      2 . Donde: rj 
j 1 n  j 
k gl
 yt
2
 

Las hipótesis son:

Ho: ACs no son significantivamente diferentes de un ruido blanco, es decir, AC = 0.


H1: ACs no son de un ruido blanco, es decir, AC  0.

Si se rechaza la hipótesis nula se tiene que volver a identificar el modelo.

26
Modelos ARIMA Juan Pichihua Serna

a) Características de un buen modelo para pronóstico

1° “Ajuste bien” para los datos del pasado


 El ploteo de los valores actuales y ajustados son buenos.
 El R2 ajustado es alto.
 La suma de cuadrados de los residuos es la más baja con respeto a otros
modelos.
2° Pronostica valores razonables para la información disponible.
3° Es parsimonioso, simple pero efectivo, no tiene demasiados coeficientes.
4° Los coeficientes estimados de Φ y θ son estadísticamente significativos.
5° No deja patrones en las funciones AC y PAC.
6° Los residuos son ruido blanco.

b) Criterios para la Selección de un modelo ARIMA

¿Cuál es el valor de p y de q óptimo?. Por lo general, se presenta un trade-off entre el


deseo de minimizar la suma de cuadrado de los residuos (e’e) y el criterio de la
parsimonia (maximizar los grados de libertad).

El trade-off planteado es resuelto por los Criterios de Información de Akaike y de


Schwartz, AIC y SBC, respectivamente. En ambos casos lo óptimo es elegir el modelo
que presente valor más pequeño (puede ser el más negativo).

pq
AIC  log ˆ  2
2

n
pq
SBC  log ˆ  2
2
log( n)
n

Si bien ambos estadísticos miden el “costo del trade-off” entre ajuste y parsimonia, el
SBC puede ser preferido en algunos casos dado que tiene propiedades asintóticas
deseables.

27
Modelos ARIMA Juan Pichihua Serna

4. PROBLEMAS COMUNES EN LA ESTIMACIÓN DE MODELOS


ARIMA

4.1 SOBREDIFERENCIACIÓN DE SERIES DE TIEMPO

Supongamos que se tiene un proceso de media movil para una serie integrada, digamos
un ARIMA (0, 2, 2):  Yt  (1  1 L   2 L ) t  (1  1 L)(1  2 L) t . Si algún i  1 ,
2 2

implicaría que hay una raíz unitaria en la media movil. Por ejemplo si:
 Yt  (1  1.48L  0.49L ) t .
2 2
ARIMA(0,2,2)
Yt  Yt 1  (1  0.5L)(1  0.98L) t
(1  L)Yt  (1  0.5L)(1  0.98L) t

Dado que 2  0.98  1.00


(1  L)Yt  (1  0.5L)(1  L) t
Yt  (1  0.5L) t ARIMA(0,1,1)
Por lo tanto, un modelo ARIMA(0,2,2) se puede reducir a un ARIMA(0,1,1), esto
indica que si se evidencia una raíz unitaria en la media movil, puede indicar una
sobrediferenciación de la serie Yt , si esto es así se debe reducir una diferencia y se debe
reducir una media movil.

4.2 SUBDIFERENCIACIÓN DE SERIES DE TIEMPO

Supongamos que se tiene un proceso autorregresivo para una serie integrada, digamos
un ARIMA (1, 0, 1): Yt  Yt 1   t   t 1 . Si   1 , implicaría que hay una raíz
unitaria en el proceso autorregresivo. Por ejemplo si:

Yt  0.95Yt 1   t  0.6 t 1 . ARIMA(1,0,1)

Yt  0.95Yt 1  (1  0.95L)Yt  (1  0.6L) t

Dado que   0.95  1.00


(1  L)Yt  (1  0.6L) t

Yt  (1  0.6L) t ARIMA(0,1,1)

Por lo tanto, un modelo ARIMA(1,0,1) se puede reducir a un ARIMA(0,1,1), esto


indica que si se evidencia una raíz unitaria en el proceso autorregresivo, que indica una
sub diferenciación de la serie Yt , si esto es así se debe aumentar una diferencia y se
reducir un AR.

28
Modelos ARIMA Juan Pichihua Serna

4.3 SOBREPARAMETRIZACIÓN

Si las raíces del proceso AR es parecida a las raíces del proceso MA se puede
simplificar las raíces y reducir el número de términos AR y de términos MA. Por
ejemplo, sea el ARMA(2,1):

Yt  1.2Yt 1  0.35Yt 1   t  0.7 t 1


(1  1.2L  0.35L )Yt  (1  0.5L)(1  0.7 L)Yt  (1  0.7 L) t
2

(1  0.5L)Yt   t . AR(1)

En este ejemplo un ARMA(2,1) se reduce a un AR(1) si eliminamos las raíces comunes.

5. ESTACIONALIDAD EN MODELOS ARIMA


5.1 ESTACIONALIDAD EN LOS TÉRMINOS AR
Supongamos que una serie estacionaria tiene evidencias de un ciclo estacional
autorregresivo cada s-períodos. El tratamiento en un modelo ARIMA se inicia por la
separación de cada efecto, de la siguiente manera:

Yt  c   t (1)
 p ( L) t   t (2)
 s ( L) t  vt (3)

Donde:  p ( L)  1  1 L     p L ;  s ( L)  1   s L ; y vt es ruido blanco.


p s

Reemplazando (2) en (3)


 p ( L) s ( L) t  vt (4)
De (1) se tiene: Yt  c   t , luego reemplazándolo en (4) se tiene:
 p ( L) s ( L)[Yt  c]  vt (5)

Por ejemplo, un proceso AR(1) con estacionalidad cada 12 meses sería:


Yt  c   t (1)
 t  1 t 1  t (2)
t  12t 12  vt (3)

Daría como resultado un modelo ARIMA(p, d, q) x (s, 1, 0) ó AR(p)+SAR(s) o


ARIMA(1,0,0)(12,1,0) que se puede expresar así:
(1  1 L)(1  12 L )[Yt  c]  vt
12

Lo que equivale a una ecuación:


(1  1 L  12 L  112 L )[Yt  c]  vt
12 13

29
Modelos ARIMA Juan Pichihua Serna

Por lo tanto, Evt   0 , las proyecciones de Yt se obtienen de:


c
Yˆt   1Yt 1  12Yt 12  112Yt 13
1  1  12  112

5.2 ESTACIONALIDAD EN LOS TÉRMINOS MA


El tratamiento de una serie estacionaria con evidencias de un ciclo estacional en los
términos de media móvil cada s-períodos es el siguiente:
Yt  c   t (1)
 t   q ( L) t (2)
 t   s ( L)vt (3)

Donde:  q ( L)  1  1 L     q L ;  s ( L)  1   s L ; y vt es ruido blanco.


q s

Reemplazando (3) en (2) y esto en (1) se tiene:


Yt  c   q ( L) s ( L)vt

Por ejemplo, un proceso MA(1) con estacionalidad cada 4 trimestres sería:


Yt  c   t (1)
 t  t  1t 1 (2)
t  vt   4 vt 4 (3)

Daría como resultado un modelo ARIMA(p, d, q) x (0, 1, s) ó MA(q)+SMA(s) o


ARIMA(1,0,0)(12,1,0) que se puede expresar así:
Yt  c  (1  1 L)(1   4 L )vt
4

Lo que equivale a una ecuación:


Yt  c  (1  1 L   4 L  1 4 L )vt
4 5

Por lo tanto, dado que E[vt ]  0 , las proyecciones de Yt se obtienen de:


Yˆ  c   vˆ   vˆ    vˆ
t 1 t 1 4 t 4 1 4 t 5

5.3 ESTACIONALIDAD EN LOS TÉRMINOS AR Y MA


El tratamiento de una serie estacionaria con evidencias de un ciclo estacional en los
términos autorregresivos y de media móvil cada s-períodos es el siguiente:

Estacionario: Yt  c   t (1)
AR(p):  p ( L) t   t (2)
SAR(s):  s ( L) t  vt (3)
MA(q) vt   q ( L) wt (4)
SMA(s) wt   s ( L)t (5)

30
Modelos ARIMA Juan Pichihua Serna

Donde:  t es ruido blanco.

Reemplazando (2) en (3) y (5) en (4) e igualando ambos términos se tiene:


 p ( L) s ( L) t  vt   q ( L) s ( L)t (6)

De (1) se tiene: Yt  c   t , luego reemplazándolo en (6) se tiene:


 p ( L) s ( L)Yt  c  vt   q ( L) s ( L)t

Por ejemplo, la presencia de estacionalidad SAR(S) y SMA(S) cada 4 trimestres en una


ARMA(1,1) será:
Yt  c   t (1)
 t  1 t 1   t (2)
t   4 t 4  vt (3)
vt  wt  1wt 1 (4)
wt  t   4t 4 (5)

Reemplazando (2) en (3) y (5) en (4) e igualando ambos términos se tiene:


(1  1 L)(1   4 L ) t  vt  (1  1 L)(1   4 L )t
4 4
(6)

De (1) se tiene: Yt  c   t , luego reemplazándolo en (6) se tiene:


(1  1 L)(1   4 L )[Yt  c]  (1  1 L)(1   4 L )t
4 4

Lo que equivale a una ecuación:


(1  1 L   4 L  1 4 L )[Yt  c]  (1  1 L   4 L  1 4 L )t
4 5 4 5

Por lo tanto, dado que, E[t ]  0 , las proyecciones de Yt se obtienen de:


Yˆ  c*   Y   Y    Y          
t 1 t 1 4 t 4 1 4 t 5 1 t 1 4 t 4 1 4 t 5

Donde:
c
c 
*

1  1   4  1 4

6. REGLAS PARA LA IDENTIFICACIÓN DE MODELOS ARIMA


La primera y más importante etapa de la elección de un modelo ARIMA es la
determinación del orden de la diferencia necesaria para estacionarizar las series.
Normalmente la cantidad de diferencias adecuada es la que produce una serie de tiempo
que fluctúa alrededor de su valor promedio y cuya función de autocorrelación (AC) se
va rápidamente a cero. Las reglas para identificar el orden d de diferenciación a una
serie son:

Regla 1: Si la serie tiene autocorrelaciones positivas luego de un gran número de


rezagos, probablemente necesita de un orden mayor de diferenciación.

31
Modelos ARIMA Juan Pichihua Serna

Si la serie todavía exhibe una tendencia de largo plazo o muestra una tendencia para
retornar a media, o si sus autocorrelaciones son todas positivas después de un gran
número de rezagos, digamos 10 o más, entonces, será necesario diferencias de mayor
orden.

Las diferencias tienden a introducir correlaciones negativas. Si una serie inicialmente


muestra fuertes autocorrelaciones positivas, entonces una diferencia reducirá la
autocorrelación y quizá conduzca a que la primera autocorrelación de la serie
diferenciada sea de valor negativo. Si se aplica una segunda diferencia, la cual es
raramente necesaria, la autocorrelación de primer orden seguirá la dirección contraria a
la autocorrelación observada antes de la diferenciación.

Regla 2: Si la primera autocorrelación es cero o negativa, la serie no necesita una


diferencia de mayor orden. Si la primera autocorrelación es negativa con tendencia a
acercarse a –1, la serie puede haber sido sobre diferenciada.

Si la primera autocorrelación es muy negativa, digamos –0.5 o más negativa con


tendencia a –1, significa que la serie está sobre diferenciada. Si la serie no ha sido
diferenciada entonces no será necesario hacerle ninguna diferenciación.

Regla 3: El orden óptimo de diferenciación de una serie es aquel orden de


diferenciación que reduce al mínimo la desviación estándar de la serie.

Una serie sobre diferenciada, a simple vista, puede parecer completamente aleatoria,
pero si muestra demasiados cambios de signo de una observación a otra, su varianza
crecerá en vez de reducirse. En cambio una serie sub diferenciada puede corregirse
agregando términos AR al modelo.

Regla 4: Un modelo sin diferenciación supone que la serie original es estacionaria. Un


modelo con un diferencia supone que la serie original tiene una tendencia promedio
constante (es decir, es un random walk). Un modelo con dos diferencias supone que la
serie original tiene una tendencia que varía en el tiempo.

Otra consideración que se debe tomar para determinar el orden de la diferencia de la


serie es el rol que juega la constante en el modelo, si esta fuera incluida. La constante
representa la media de una serie estacionaria, no diferenciada, I(0), integrada de orden
cero; pero, representa la tendencia promedio de la serie si se usara una primera
deferencia, es decir si la serie fuera integrada de orden 1 o I(1), asimismo, representa la
curvatura si la serie fuera doblemente diferenciada o integrada de orden 2, I(2).

Regla 5: Un modelo sin diferencias normalmente incluye un término constante, el cual


representa la media de la serie. Un modelo con un total de dos diferencias normalmente
no incluye un término constante.

Una vez que una serie ha sido estacionarizada por diferenciación, la siguiente etapa es
identificar el proceso estocástico que mejor la representa en términos autorregresivos,
AR, y de media movil, MA.
Para identificar los términos AR y MA de la serie se utiliza su función de
autocorrelación simple (AC) y la función de autocorrelación parcial (PAC). La función

32
Modelos ARIMA Juan Pichihua Serna

AC mide el coeficiente de correlación simple entre una serie de tiempo y los rezagos de
si misma. La función PAC mide el coeficiente de correlación parcial entre la serie de
tiempo y sus rezagos, esto es, luego de separar el impacto de los otros rezagos.

La autocorrelación parcial de un rezago de k periodos es igual al valor del coeficiente


estimado para el AR(p) en un modelo con k términos rezagados, es decir, t-1, t-2, ..., t-p.
De modo que si la autocorrelación parcial es significativa al rezago p y no significativa
para rezagos mayores, estaremos frente a un modelo autorregresivo de orden p.

Regla 6: Si la PAC de una serie diferenciada muestra un rápido corte y/o la primera
autocorrelación (simple) es positiva, esto es, si aparentemente la serie está sub
diferenciada, entonces agrege un término AR en el modelo. El rezago en el cual el
término PAC deja de ser significativo indica el número de términos AR.

Algunas veces no es tan simple determinar la cantidad de términos de la


autocorrelación, algunas veces puede ser más eficiente añadir términos MA. En este
caso la función AC cumple el mismo rol para determinar el número de términos MA,
como el PAC para determinar el número de términos AR.

La función de autocorrelación AC nos dice cuántos términos MA probablemente sean


necesarios para eliminar los rasgos de autocorrelación de una serie diferenciada. Si la
AC es significativa hasta el rezago q, pero no significativa para rezagos mayores que q,
entonces la AC indica que debemos agregar exactamente q términos MA al modelo.

Una estructura MA comunmente está asociada a autocorrelaciones negativas en el


primer rezago y tiende a elevarse (acercarse a –1) frente a series ligeramente sobre
diferenciadas.

Regla 7: Si la AC de la serie diferenciada muestra un rápido corte y si al primer rezago


la autocorrelación es negativa, que sugiere “sobre diferenciación” de la serie que
puede ser corregida agregando términos MA en el modelo. El rezago en el cual la AC
deja de ser significativa, indica el número de término MA.

Si el coeficiente de la media movil es igual a cero,   0 , el modelo se reduce a un


modelo tipo random walk. Si el coeficiente de MA(1) es mayor que cero, equivale a
cancelar solo parcialmente un orden de diferenciación. Si la serie está sobre
diferenciada, esto es, si se ha producido una autocorrelación negativa, se debe cancelar
una diferencia y un MA en la serie.

En la mayoría de casos el mejor modelo utiliza únicamente términos AR o únicamente


términos MA, aunque en algunos casos un modelo mixto (con términos AR y MA)
pueden proveer un mejor ajuste para los datos. Sin embargo, se debe tener mucho
cuidado al elegir un modelo mixto, pues, es posible que los términos AR y MA pueden
anular sus efectos mutuamente, aun cuando en el modelo ambos términos aparezcan
estadísticamente significativos (en términos de sus estadísticos t-student).

Regla 8: Si se observa que la estimación de parámetros requiere más de 10 iteraciones


para converger, aunque hayan pocos términos AR y MA, es posible que se esté en el
camino incorrecto de especificar un modelo ARMA para representar a los datos.

33
Modelos ARIMA Juan Pichihua Serna

Por esta razón en los modelos ARIMA es mejor ir agregando progresivamente términos
AR o términos MA hasta encontrar la especificación adecuada, estimando y controlando
la función de autocorrelación simple y parcial, AC y PAC, de los residuos, hasta que
estos se comporten como un ruido blanco.

Si una serie esta groseramente sub diferenciada a menudo tendrá “raíces unitarias” en
los coeficientes AR y si está groseramente sobre diferenciada tendrá “raíces unitarias”
en los coeficientes MA en el modelo estimado.

Se dice que un AR(1) tiene raíz unitaria si el coeficiente AR(1) estimado no es


significativamente diferente de uno, cuando esto sucede significa que el término AR(1)
imita a una primera diferencia. En este caso se debe remover el AR(1) y agregar una
diferencia a la serie. En un modelo con un orden alto de AR, una raíz unitaria existe en
la parte AR del modelo si la suma de los coeficientes es aproximadamente igual a uno
(estadísticamente significativo no diferente de uno). En este caso se debe reducir en uno
el orden del término AR y agregar simultáneamente en uno el orden de la diferencia a la
serie. Una serie de tiempo con una raíz unitaria en el coeficiente AR es no estacionario,
requiere ser corregida agregando una diferenciación a la serie.

Regla 9: Si se evidencia una raíz unitaria en la parte AR del modelo, es decir si la suma
de los coeficientes AR es casi igual a uno, se debe reducir el número de términos AR y
simultáneamente incrementar el orden de la diferencia en uno.

De igual modo, un modelo MA(1) se dice que tiene una raíz unitaria si el coeficiente
MA(1) estimado es igual a 1. Cuando esto pasa, significa que se puede eliminar el
término MA(1) reduciendo (eliminando) una diferencia a la serie. En general, en
modelos con términos MA de alto orden, existe raíz unitaria si la suma de los
coeficientes MA son aproximadamente igual a uno.

Regla 10: Si hay una raíz unitaria en la parte MA de un modelo, es decir, si la suma de
los coeficientes MA es casi exactamente igual a uno, se debe reducir el número de
términos MA y reducir en uno el orden de la diferenciación de la serie.

Por ejemplo, si en un ARIMA (1,1,2), se puede verificar que la suma de los coeficientes
de los dos términos MA suman un valor cercano a uno. Si se reduce el orden del MA y
de la diferencia en uno, teniendo que estimarse solamente un modelo ARIMA (1,0,1).
En este caso la ecuación de predicción de un modelo MA con raíz unitaria no es
invertible, lo que significa que los residuos del modelo no pueden ser considerados
como ruido blanco (aleatorio).

Otro síntoma de una raíz unitaria es que las predicciones del modelo pueden explotar
“blow up” o comportarse de manera impredecible. Si se plotea una predicción de largo
plazo para el modelo aparecen de manera extraña, se debería chequear si los
coeficientes estimados evidencian la presencia de raíz unitaria.

Regla 11: Si la predicción de largo plazo se comporta de manera errática o inestable,


puede haber estar presentando raíz unitaria en los coeficientes AR o MA.

34
Modelos ARIMA Juan Pichihua Serna

7. APLICACIONES DE LOS MODELOS ARIMA


El propósito es desarrollar la metodología planteada por Box & Jenkins para el análisis
de series de tiempo estacionarias, esto es, identificación del proceso estocástico capaz
de generar los datos observados, estimar los parámetros de la representación ARIMA
identificada, el diagnóstico de los residuos, y el pronóstico utilizando el modelo
ARIMA elegido.

Supongamos datos teóricos del número de pasajes aéreos domésticos vendidos


mensualmente por una línea aérea cualquiera entre enero de 1988 y Diciembre de 1999.

y Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Promed
1988 112.0 118.0 132.0 129.0 121.0 135.0 148.0 148.0 136.0 119.0 104.0 118.0 126.7
1989 115.0 126.0 141.0 135.0 125.0 149.0 170.0 170.0 158.0 133.0 114.0 140.0 139.7
1990 145.0 150.0 178.0 163.0 172.0 178.0 199.0 199.0 184.0 162.0 146.0 166.0 170.2
1991 171.0 180.0 193.0 181.0 183.0 218.0 230.0 242.0 209.0 191.0 172.0 194.0 197.0
1992 196.0 196.0 236.0 235.0 229.0 243.0 264.0 272.0 237.0 211.0 180.0 201.0 225.0
1993 204.0 188.0 235.0 227.0 234.0 264.0 302.0 293.0 259.0 229.0 203.0 229.0 238.9
1994 242.0 233.0 267.0 269.0 270.0 315.0 364.0 347.0 312.0 274.0 237.0 278.0 284.0
1995 284.0 277.0 317.0 313.0 318.0 374.0 413.0 405.0 355.0 306.0 271.0 306.0 328.2
1996 315.0 301.0 356.0 348.0 355.0 422.0 465.0 467.0 404.0 347.0 305.0 336.0 368.4
1997 340.0 318.0 362.0 348.0 363.0 435.0 491.0 505.0 404.0 359.0 310.0 337.0 381.0
1998 360.0 342.0 406.0 396.0 420.0 472.0 548.0 559.0 463.0 407.0 362.0 405.0 428.3
1999 417.0 391.0 419.0 461.0 472.0 535.0 622.0 606.0 508.0 461.0 390.0 432.0 476.2

700 6.5

600
6.0
500

400
5.5
300

200
5.0
100

0 4.5
88 89 90 91 92 93 94 95 96 97 98 99 88 89 90 91 92 93 94 95 96 97 98 99

Y LOG(Y)
Se puede observar en el gráfico de la izquierda que la serie “y” presenta tres
características notorias: 1) evidencia estacionalidad cada doce meses (los datos son
mensuales), 2) mantiene una tendencia creciente año a año, y 3) la dispersión de la serie
aumenta año a año (varianza creciente). El gráfico de la serie en logarítmos, “log(y)”,
muestra que este procedimiento reduce drásticamente la heterocedasticidad. Para
eliminar la tendencia se debe diferenciar la serie, dlog(y), y para corregir la
estacionalidad se debe hallar la primera diferencia estacional con respecto a t-12, esto
es, dlog(y,1,12).

En síntesis:
1° Para reducir la heterocedasticidad en una serie se debe trabajar en logaritmos y no
en niveles: log(y) vs y.
2° Para quitar una tendencia lineal se debe trabajar con la primera diferencia de la
serie, si la serie tiene tendencia exponencial será necesario una segunda o una
diferencia mayor para transformarla en estacionaria:
 log yt  log( yt )  log( yt 1 )  d log( y)

35
Modelos ARIMA Juan Pichihua Serna

3° Para quitar la estacionalidad se debe trabajar con la primera diferencia estacional


(s=12):
12 log( yt )  d log( yt )  d log( yt 12 )  d log( yt / yt 12 )  d log( y,1,12)
1

Como se puede observar en el último gráfico, la serie desestacionalizada, dlog(y,1,12),


es notoriamente estacionaria alrededor de cero. Nótese también que la desviación
estándar se reduce con respecto a la serie no desestacionalizada, dlog(y).

0.3 0.15

0.2 0.10

0.1 0.05

0.0 0.00

-0.1 -0.05

-0.2 -0.10

-0.3 -0.15
88 89 90 91 92 93 94 95 96 97 98 99 88 89 90 91 92 93 94 95 96 97 98 99

DLOG(Y) DLOG(Y,1,12)

Identificación

La tendencia (no estacionariedad, o identificación del orden de integración d) y la


estacionalidad de la serie (la frecuencia de repetición estacional s) también pudo ser
detectado mediante el correlograma de la serie en logaritmos, log(y), pero, como vimos,
el análisis gráfico puede ser suficiente en estos casos. En cambio, la identificación del
proceso ARMA(p,q) requiere necesariamente analizar los correlogramas (funciones de
Autocorrelación-AC y de autocorrelación parcial-PAC) de la serie estacionaria y
desestacionalizada, es decir, dlog(y,1,12).

36
Modelos ARIMA Juan Pichihua Serna

Note que la función de autocorrelación AC tiene picos en los rezagos 1 y 12, y la


función de autocorrelación parcial PAC es significativo en los rezagos 1 y 12, esto
podría evidenciar dos posibles casos: 1) un componente MA(1) y un componente
estacional SMA(12), es decir, un ARIMA(0,1,1)x(0,1,12) de la serie log(y); o un
componente A(1) y un componente estacional SAR(12), es decir, un
ARIMA(1,1,0)x(12,1,0) de la serie log(y). En ambos casos la serie log(y) requiere una
diferencia para quitar la tendencia y una diferencia estacional con s=12.

Estimación:

Para el caso del ARIMA (0,1,1)x(0,1,12) de la serie log(y) sería:


Dependent Variable: DLOG(Y,1,12)
Method: Least Squares
Sample(adjusted): 1989:02 1999:12
Convergence achieved after 6 iterations
Backcast: 1988:01 1989:01
Variable Coefficient Std. Error t-Statistic Prob.
C -0.000215 0.000909 -0.236397 0.8135
MA(1) -0.376502 0.080696 -4.665673 0.0000
SMA(12) -0.624213 0.070534 -8.849842 0.0000
R-squared 0.364299 Mean dependent var 0.000291
Adjusted R-squared 0.354366 S.D. dependent var 0.045848
S.E. of regression 0.036840 Akaike info criterion -3.741845
Sum squared resid 0.173717 Schwarz criterion -3.676001
Log likelihood 248.0909 F-statistic 36.67621
Durbin-Watson stat 1.960799 Prob(F-statistic) 0.000000
Inverted MA Roots .96 .83+.48i .83 -.48i .48 -.83i
.48+.83i .38 .00+.96i -.00 -.96i
-.48+.83i -.48 -.83i -.83 -.48i -.83+.48i
-.96

Para el caso del ARIMA(1,1,0)x(12,1,0) de la serie log(y) sería:

Dependent Variable: DLOG(Y,1,12)


Method: Least Squares
Sample(adjusted): 1990:03 1999:12
Convergence achieved after 5 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C -0.000401 0.001723 -0.232628 0.8165
AR(1) -0.413850 0.084830 -4.878581 0.0000
SAR(12) -0.453451 0.082965 -5.465540 0.0000
R-squared 0.320812 Mean dependent var -0.000931
Adjusted R-squared 0.309000 S.D. dependent var 0.046208
S.E. of regression 0.038411 Akaike info criterion -3.655850
Sum squared resid 0.169672 Schwarz criterion -3.585409
Log likelihood 218.6951 F-statistic 27.15987
Durbin-Watson stat 2.029454 Prob(F-statistic) 0.000000
Inverted AR Roots .90 -.24i .90+.24i .66 -.66i .66 -.66i
.24 -.90i .24+.90i -.24 -.90i -.24+.90i
-.41 -.66+.66i -.66+.66i -.90+.24i
-.90 -.24i

37
Modelos ARIMA Juan Pichihua Serna

Sobre la base del Criterio de Información de Akaike (AIC) el menor valor (más
negativo) se obtiene en el modelo con términos MA(1) y SMA(12), además ambos son
estadísticamente significativos. Esto significa que el modelo elegido tiene la siguiente
representación:

(1  L)(1  L12 ) log( yt )  cˆ  (1  ˆL)(1  ˆ12 L12 )et

 12 log( yt )  0.0002  (1  0.376L)(1  0.624L )et


1 12

El lector puede verificar que si se estimara el modelo: log(y) contra AR(1) , SAR(12),
MA(1) y SMA(12), es decir, (1  L)(1  12 L ) log( yt )  c  (1  L)(1   12 L ) t , habría
12 12

una raíz unitaria que hace que los resultados no sean mejores que el modelo elegido.

Control

Para comprobar si esta es la representación correcta se debe chequear si los residuos se


comportan como ruido blanco.

Efectivamente, el correlograma de los residuos, tanto para la función AC como para el


2
PAC, todos se ubican dentro del intervalo de confianza , lo cual indica que los
n
residuos se comportan como ruido blanco.

38
Modelos ARIMA Juan Pichihua Serna

1. Pronóstico.

Si consideramos que el modelo estimado arriba es el correcto, se procederá ha realizar


el pronóstico de las ventas de pasajes de avión para el período 2000:01 2000:12.

800

700

600

500

400

300
00:01 00:03 00:05 00:07 00:09 00:11

YF ± 2 S.E.

Finalmente, podemos graficar los datos los datos pronosticados (YF) para el período
2000:01 al 2000:12 conjuntamente con los valores observados hasta el período 1999:12.

700

600

500

400

300

200

100

0
88 89 90 91 92 93 94 95 96 97 98 99 00

YF Y

Los resultados nos dicen que la tendencia creciente y la estacionalidad se mantendrán.,


tal como se puede observar en el siguiente cuadro.

y Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Promed
1999 417.0 391.0 419.0 461.0 472.0 535.0 622.0 606.0 508.0 461.0 390.0 432.0 476.2
2000 449,4 425,7 481,4 489,6 504,6 578,7 661,2 658,3 552,5 490,1 424,3 471,2 515,6

39
Modelos ARIMA Juan Pichihua Serna

BIBLIOGRAFIA

Box, G.E.P. & G.M. Jenkins. 1970. Time series analysis: Forecasting and control,
Holden-Day. San Francisco.
Judge, G.G., W.E. Griffiths, R.C. Hill, H. Lütkepohl, and T.C. Lee, (1988). Introduction
to the Theory and Practice of Econometric s, 2nd edition, John Wiley and
Sons, New York.

Makridakis, S., S.C. Wheelwright, & R.J. Hyndman. 1998. Forecasting: methods and
applications, John Wiley & Sons. New York.

Nazem, Sufi M. 1988. Applied Time Series Analysis for Business and Economic
Forecasting. University of Nebraska al Omaha, Marcel Dekker Inc., New
York.

Nelson, C. R.; Applied Time Series Analysis for Managerial Forecasting. Holden-Day,
Boca-Raton, Florida, 1973.

Novales, Alfonso. 1996. Econometría, Segunda edición. McGraw-Hill/Interamericana,


Madrid.

Pankratz, A. (1983) Forecasting with univariate Box–Jenkins models: Concepts and


Cases, 2nd ed. John Wiley & Sons. New York.

Pollock, D.S.G. 2000. The Methods of Time-Series Analysis. Queen Mary and
Westfield College, The University of London.

Pindyck, Robert S., and Daniel L. Rubinfeld, (1998) Econometría Modelos y


Pronósticos, Cuarta edición, Irwin McGraw-Hill, Boston,.

Slutsky, E. (1937), “The Summation of Random Causes as the Source of Cyclical


Processes”. Econometrica, Vol. 5, pags. 105 -146.

Yule, G. U. (1927), “On a Method of Investigating Periodicities in Disturbed Series


with Special Reference to Wolfer's Sunspot Numbers”. Philosophical
Transactions of the Royal Society, 89, pags. 1-64

40

También podría gustarte