Está en la página 1de 25

Técnicas de prospectiva

TEMA 4. ANÁLISIS A LARGO PLAZO: MODELOS ARIMA

1
Tema 4. Técnicas elementales de predicción con información histórica
1. Introducción y notación. Estacionariedad en media y varianza.
2. Modelos AR y MA.
3. Modelos ARIMA.
4. Fases de aplicación de la metodología ARIMA. Identificación, estimación,
contraste y predicción.
5. Modelos con estacionalidad y efectos calendario.

2
1. Introducción y notación. Estacionariedad en media y varianza
◼ En el tema anterior se estudió el concepto de tendencia, como hacer
predicción con series con tendencia y como eliminarla.
No se utilizaba el componente Irregular (It)
◼ La precisión de la predicción puede mejorar si una vez se ha descontado la
tendencia, se utiliza la información del componente irregular.
Ahora utilizaremos el componente Irregular (It)
◼ Para utilizar la información del componente irregular (It) se utilizarán
dos tipos de modelos (y la combinación de ambos):
 Modelos autorregresivos (AR): los valores actuales dependen de los pasados.
 Modelos de medias móviles (MA) (distinto al concepto de medias móviles del
tema anterior): la variable dependiente es función de los residuos del pasado.
◼ Estos modelos requieren que las series sean estacionarias.
 Las series han de ser estacionarias en media y en varianza o han sido
transformadas para que lo sean.
Recordemos:
Serie estacionaria en media: si no tiene tendencia determinística. La esperanza de la serie NO es función del tiempo.
Serie estacionaria en varianza: si no tiene tendencia estocástica. La varianza de la serie NO es función del tiempo

3
1. Introducción y notación. Estacionariedad en media y varianza
◼ Se supone que
 El proceso es lineal: se puede representar como una combinación lineal de
variables aleatorias.
 Los parámetros son constantes en el tiempo.
◼ Los procesos a estudiar en este tema son:
 procesos puramente aleatorios,
 procesos autorregresivos (AR),
 procesos de medias móviles (MA),
 procesos autorregresivos y con medias móviles (ARMA),
 proecesos integrados (ARIMA): procesos que necesitan tomar primeras
diferencias para que sea estacionario.
◼ A la hora de estudiarlos se va a analizar:
 Cómo se definen estos modelos
 Cómo se realiza la predicción

4
3. Componentes no observables de una serie temporal
Para saber si una serie tiene tendencia se utiliza:
◼ Función de autocorrelación estimada (FACE)
◼ La función de autocorrelación se define (cuando el proceso es estacionario): T

Cov (Yt , Yt −k )  (Y − Y )(Y


t t −k −Y )
rk = rk = = t = k +1
T
Var (Yt )Var (Yt −k )
 (Y − Y )
2
t
t =1

◼ ¿Son significativos? H0: rk=0; H1: rk≠0


 Bajo la hipótesis nula rk ~ N(0,2)
rˆ k
 Luego, rk será igual a cero si Pr(−1,96   1,96) = 0,95 . ˆ 2 = 1 N

◼ Función de autocorrelación parcial (FACP): secuencia de coeficientes de
correlación parcial: f11, f22, f33,…, ftt
 La FACP recoge la interrelación entre Yt e Yt-t eliminando los efectos lineales de las
variables Yt-1, Yt-2,…,Yt-(t−1).
 Es decir, los coeficientes de autocorrelación son los parámetros ftt estimados de un modelo
del tipo:
Yt=f11Yt-1+ et
Yt=f11Yt-1+ f22 Yt-2+…+ftt Yt-(t−1) + et Yt=f11Yt-1+ f22 Yt-2+ et
Yt=f11Yt-1+ f22 Yt-2+ f33 Yt-3 + et ...
El valor actual de la endógena depende de sus valores los pasados

5
2. Componentes no observables de una serie temporal
◼ ¿Cómo detectamos a través de la FACE la existencia de tendencia?
1. El primer coeficiente de autocorrelación suele estar cerca de 1 y es estadísticamente
significativo.
2. Los coeficientes de autocorrelación, siendo significativos, NO decrecen de forma
progresiva y rápidamente a medida que se aleja el desfase.

◼ Con el correlograma se comprueba que tanto la serie del IPI como del IBEX-
35 SI tienen tendencia

IBEX-35 Función de autocorrelación IPI

6
1. Introducción y notación. Estacionariedad en media y varianza
◼ El objetivo es identificar patrones comunes en los componentes
irregulares de las series para poder estimar y predecir las series.
◼ Aunque en las dos series siguientes no hay un patrón claro de
comportamiento, las técnicas estadísticas que vamos a desarrollar nos
permitirán obtener información útil para predecir.

Serie ruido blanco Serie estacionaria


9

1
1975 1980 1985 1990 1995 2000 2005

Y5

7
2. Modelos AR y MA
◼ PROCESOS PURAMENTE ALEATORIOS (RUIDO BLANCO):

Yt = e t Además se supondrá que la distribución


Donde: E(e t ) =0 t asociada a un ruido blanco es una normal
E (e t2 ) =  2 t independiente e idénticamente distribuida

E (e te t ' ) = 0 t  t '
◼ Proceso con media cero, varianza constante y cuyos valores en periodos de tiempo distintos
(t≠t’) no están relacionados.
◼ Dado que la correlación entre distintos periodos del tiempo es cero, el pasado no tiene
información útil para predecir el futuro.
Serie estacionaria en media (no tiene tendencia determinística) en
varianza (no tiene tendencia estocástica)

8
2. Modelos AR y MA

Modelos sin tendencia AR (1) Yt=-0,8Yt-1+et


Los coeficientes de autocorrelación, siendo
significativos, SI decrecen de forma progresiva
y rápidamente a medida que se aleja el desfase.

Modelo con tendencia. Paseo aleatorio: Yt=Yt-1+et Serie temporal puramente aleatoria Yt=et
Los coeficientes de autocorrelación, siendo Los coeficientes de autocorrelación, NO SON
significativos, NO decrecen de forma progresiva significativos. El pasado no contiene información útil
y rápidamente a medida que se aleja el desfase. para predecir el futuro

9
1. Introducción y notación. Estacionariedad en media y varianza
◼ Se dice que una serie temporal admite una representación autorregresiva
(AR) de orden p y se denota por AR(p) si es susceptible de ser modelizada
a través de la ecuación:
AR(p): Yt =  + f1Yt −1 + f2Yt −2 + .......... . + f p Yt − p + e t
◼ Yt se explica por los p retardos de la variable, más una variable ruido blanco
fechada en t.
◼ El ruido blanco (et) en un momento del tiempo sólo afecta a valores presentes
y futuros de Yt, pero nunca a valores pasados.

◼ Obviando la media, μ, y utilizando el operador de retardos el modelo puede


expresarse de forma compacta como:
f ( L) Yt = et donde f ( L) = 1−f1L −f2 L2 − ....... −f p Lp

10
2. Modelos AR y MA
MODELO AUTOREGRESIVO AR(1): Yt=f1Yt-1+et
◼ Si se utiliza el polinomio de retardos se obtiene:
(1−f1L )Yt = e t f ( L) Yt = e t
◼ Condición de estacionariedad: el proceso AR(1) será estacionario en media y
en varianza si |f1|1 .
 Los AR(1) se puede transformar de la forma siguiente:

Yt = f1Yt −1 + e t = f1 (f1Yt −2 + e t −1 ) + e t = f12 Yt −2 + f1 e t −1 + e t


 Sustituyendo de forma iterativa obtenemos (suponiendo que el proceso arranca en -∞)

Yt = e t + f1 e t −1 + f12 e t − 2 + f13 e t −3 + f14 e t − 4 .......... .......... ... =  f1j e t − j
j =0
◼ Por lo tanto, los AR(1) siempre se pueden transformar en un MA(∞)
◼ Bajo la condición de |f1|1, la media y la varianza de este proceso AR(1), son
finitas y constantes a lo largo del tiempo (estacionariedad):
 Media: E(Yt)=0
 e2
 Varianza: Var (Yt ) =  0 =  e + f  e + (f )  e + (f )  e + (f )  e + ... =
2 2 2 2 2 2 3 2 2 4 2 2

1 − f12
1 1 1 1

(suma que será convergente si f121, es decir si |f1|1).


11
2. Modelos AR y MA
MODELO AUTOREGRESIVO AR(2): Yt=f1Yt-1+f2Yt-2+et
◼ Si se utiliza el polinomio de retardos se obtiene:
(1 − f1 L − f 2 L2 )Yt = e t f ( L) Yt = et
 Media: E(Yt)=0.
◼ Condición de estacionariedad: el proceso AR(2) será estacionario en
media y en varianza las soluciones a la siguiente ecuación de segundo grado
son en valor absoluto menores a la unidad | l <1|.
f1  (−f1 ) 2 − 4 (−f2 )
l − f1l − f2 = 0
2
l=
2
 Esta ecuación tendrá, en general, dos soluciones.
 Las dos soluciones han de cumplir que |l|<1.
 Por sustituciones sucesivas el AR(2) se puede convertir en un proceso que
dependa únicamente de ruidos blancos.
◼ Que se cumpla la condición de estacionariedad implica que los ruidos más alejados
son menos importantes que los más recientes.
◼ Es similar a lo que sucedía en el AR(1).

12
2. Modelos AR y MA
◼ Se dice que una serie temporal Yt admite una representación de medias
móviles (MA) de orden q y se denota por MA(q) si es susceptible de ser
modelizada a través de la ecuación:
Yt=et - q1et-1 - q2et-2 -…- qqet-q=(1 - q1L - q2L2 -…- qqLq) et = q(L)et
 Los MA son modelos en los que las variables se mueven por shocks aleatorios, pero que
tienen efectos duraderos.

Modelo medias móviles MA(1): Yt=et - q1et-1 =(1 - q1L) et = q(L)et


◼ Condición de estacionariedad: Los modelos MA siempre son estacionarios.
 Media: E(Yt)=0
 Varianza: var(Yt)=E(Yt)2=E(et - q1et-1)2=(et 2+ q12et-12-2 q1etet-1)=2e+ q12e2= 2e(1+q12)
 Lo que quiere decir que los modelos MA (finitos) siempre son estacionarios.
◼ Condición de invertibilidad: Un MA(1) siempre se puede convertir en un
AR(∞) si q1 es menor que 1 en valor absoluto |q1| <1.

13
2. Modelos AR y MA
Modelo medias móviles MA(2): Yt=et - q1et-1 – q2et-2 =(1 - q1L-q1L2) et = q(L)et
◼ Condición de estacionariedad
 Media: E(Yt)=0
 Varianza: var(Yt)=E(Yt)2=E(et - q1et-1- q2et-2)2=2e(1+q12+q22)
 Lo que quiere decir que los modelos MA (finitos) siempre son estacionarios.
◼ Condición de invertibilidad Un MA(2) se puede convertir en un AR(∞) si
se cumple la condición de invertibilidad (equivalente a la de estacionariedad
de los AR(1).

14
3. Modelos ARIMA
◼ Se dice que una serie temporal Yt admite una representación de modelo mixto autoregresivo
y de medias móviles (ARMA) de orden p y q y se denota por ARMA(p,q) si es susceptible
de ser modelizada a través de la ecuación:
Yt=f1Yt-1+f2Yt-2+…+fpYt-p+et − q1et-1 - q2et-2 -…- qqet-q
AR:parte determinista MA:parte aleatoria

Yt-f1Yt-1-f2Yt-2-…-fpYt-p=et-q1et-1 - q2et-2 -…- qqet-q


ARMA(p,q)

(1-f1L-f2L2-…-fpLp)Yt=(1-q1L - q2L2 -…- qqLp)et f1 (L)Yt=q (L)et

◼ Condición de estacionariedad: El proceso será estacionario si la parte AR(p) es


estacionaria.
◼ Condición de invertibilidad: el proceso será invertible si la parte MA(q) es invertible.

ARMA(1,1): Yt=f1Yt-1+et-q1et-1
◼ Condición de estacionariedad: un ARMA (1,1) es estacionario si el valor absoluto de f1
< 1. Es decir: |f1 < 1|
◼ Condición de invertibilidad: un ARMA (1,1) es invertible si el valor absoluto de q1 < 1.
Es decir: |q1 < 1 | . Si se cumple el ARMA(1,1) se convierte en un AR(∞).
15
3. Modelos ARIMA
◼ Hasta ahora siempre se suponía que se cumplía la hipótesis de estacionariedad.
◼ Sin embargo, la mayoría de series temporales económicas no son
estacionarias.
◼ Aunque, en muchas ocasiones pueden ser transformadas en estacionarias. En
este caso se aplicaría la metodología ARMA aplicada a la serie transformada.
 Para transformar los modelos se suelen tomar diferencias de la serie original un
número determinado de veces (en ocasiones se requieren transformaciones adicionales
como primero tomar logaritmos y luego diferencias)
PROCESO INTEGRADO: ARIMA(p,d,q)
◼ Un proceso Yt se dice que está integrado, es decir, es un ARIMA(p,d,q) si
tomando diferencias de orden d se obtiene un proceso estacionario de orden
ARMA(p,q).
 La I central del término ARIMA indica integrado.
◼ Yt es no estacionaria y debe ser diferenciada d veces para que la serie
transformada (Wt) sea estacionaria:
Wt = DdYt = (1-L)dYt
◼ Si Wt es un ARMA(p,q), la serie original Yt es un ARIMA(p,d,q)
d: Número de veces que la serie original ha sido transformada (tomando
diferencias) para que sea estacionaria.
16
3. Modelos ARIMA
◼ En general, se dice que una serie temporal Yt admite una representación
autorregrevisa integrada con medias móviles de órdenes p, d, q,
respectivamente, y se denota por ARIMA(p,d,q) si es susceptible de ser
modelizada a través de la ecuación:
(1-f1L-f2L2-…-fpLp) (1-L)dYt=(1-q1L - q2L2 -…- qqLp)et
◼ o en forma compacta:
d: Número de veces que la serie original
f1 (L)Yt=q (L)et ha sido transformada (tomando
diferencias) para que sea estacionaria.

◼ Ejemplos:
 (1-0,8L) (1-L) Yt=(1-0,6L) εt Yt ∼ARIMA(1,1,1)
 (1-L) Yt =(1-0,5L) εt Yt ∼ARIMA(0,1,1)

17
4. Fases de aplicación de la metodología ARIMA
◼ Partimos de que tenemos los valores de una serie temporal y queremos
predecir el valor futuro de esta serie temporal utilizando la metodología
ARIMA.
◼ La elaboración de un modelo ARIMA consta de tres fases:
1. Identificación: Proponer o seleccionar un modelo o proceso estocástico como
proceso generador de la serie temporal (Se ha de determinar qué tipo de modelo
ha podido generar la serie temporal). ¿Es nuestra serie un AR(1), MA(2),
ARIMA(2,1,9)?
2. Estimación: Estimar los parámetros del modelo propuesto en la fase anterior.
3. Validación: Determinar si realmente el modelo especificado y estimado es
adecuado.
◼ Si el modelo es validado se utiliza para hacer predicción.
◼ En la actualidad la identificación se realiza automáticamente por los paquetes
informáticos.

18
4. Fases de aplicación de la metodología ARIMA

19
4. Fases de aplicación de la metodología ARIMA
◼ Consideraciones en el proceso de identificación:
1. LAS SERIES HAN DE SER ESTACIONARIAS. Se ha de analizar, por tanto
la estacionariedad de la serie temporal (identificar d). Si no lo fuese habría que
transformarla previamente en estacionaria.
2. Determinar los órdenes de la parte AR (p) y/o MA (q) del hipotético proceso
generador ARMA(p,q).
◼ En la actualidad la identificación se realiza automáticamente por los paquetes
informáticos.

3. Análisis de intervención, efecto calendario y observaciones atípicas (outliers)


4. Tener en cuenta el tamaño de la muestra. Cuanto mayor sea el número de
observaciones más sencilla será la identificación de la serie.

20
4. Fases de aplicación de la metodología ARIMA
ESTIMACIÓN:
◼ En esta fase el objetivo es la obtención de estimadores de los parámetros: f1, f2,...,fp,
q1, q2,...,qq y e.
◼ En general en la estimación será necesario utilizar procedimientos no lineales.
VALIDACIÓN
◼ El objetivo de elaborar un modelo ARIMA es encontrar un modelo que sea lo más
adecuado posible para representar el comportamiento de la serie analizada.
◼ Requisitos de un modelo estimado:
1. Los residuos del modelo se han de comportar como ruido blanco. Requisito esencial, en caso
de no cumplirse el modelo debe ser rechazado ya que es indicativo de que los residuos contienen
información relevante para la predicción. (Correlograma).
2. El modelo estimado es estacionario e invertible. 1º Modelización
2º Predicción
3. Los coeficientes son estadísticamente significativos.
4. El modelo se ajusta bien a los datos.
◼ La finalidad de la validación es analizar en qué medida el modelo que se ha identificado
y estimado cumple los anteriores requisitos.
◼ Si el modelo estimado supera satisfactoriamente los distintos contrastes a que le
sometemos en la etapa de validación puede ser utilizado para predecir, en caso contrario,
habría que reformular el modelo.
21
4. Fases de aplicación de la metodología ARIMA
◼ La fase de predicción consiste en utilizar el modelo estimado para la
obtención de valores futuros de la variable objeto de estudio.
◼ Ejemplo para un ARMA(p,q):
Yt = f1Yt −1 + f2Yt −2 + ..... + f pYt − p + e t −q1e t −1 − ..... −q q e t −q

◼ Predictor:
~ ~ ~ ~
YT +1 = f1YT + f2YT −1 + ..... + f pYT +1− p + e~T +1 −q1e~T − ..... −q q e~T +1−q
~
 Si Y se corresponde con el período muestral, en T o antes de T, se utiliza el valor
observado, en caso contrario se utiliza el valor previamente pronosticado.
~
 Si e se corresponde al período muestral, en T o antes de T, se toma el valor observado,
mientras que en los demás casos, periodos post-muestrales (después de T), se toma el
valor medio teórico 0.
◼ Ejemplo:
 Sea el modelo estimado de las ventas de una empresa: (1-0,6L)(1-L)Yt=et . Si las
ventas para el año 2005 y 2006 fueron de 6.000 y 6.200 unidades monetarias. Calcule
la predicción para el año 2007.
a) 7.320
b) 3.720
c) 6.400
d) 6.320

22
5. Modelos con estacionalidad y efectos calendario
◼ Generalmente los modelos ARIMA se utilizan en el contexto de series
temporales trimestrales, mensuales, etc, es decir con periodicidad inferior al
año, por lo que estas series temporales pueden presentar componente
estacional que debe tenerse en cuenta en el proceso de modelización.
◼ Los modelos ARIMA estacionales o SARISMA tratan de captar el
componente estacional de forma muy similar al del componente regular o no
estacional.
◼ Los modelos ARIMA estacionales se representan por SARISMA(P,D,Q)
donde P es el orden de la parte autorregresiva, D es el número de
diferencias estacionales y Q es el orden de la parte de medias móviles.
(1-F1Ls-F2L2s-…-FPLPs)(1-Ls)DYt=(1-Q1Ls-Q2L2s-…-QQLQs)
◼ donde s es la frecuencia estacional: s=4 (trimestral) y s=12 (mensual)
◼ Vamos a ver modelos estacionales puros y estacionales multiplicativos
(mixtos).

23
5. Modelos con estacionalidad y efectos calendario
MODELOS ESTACIONALES PUROS, (datos trimestrales) s=4:
◼ SARISMA(1,0,0): Yt=F1Yt-4+et (1-F1L4)Yt=et
◼ SARISMA(2,0,0): Yt=F1Yt-4+F2Yt-8+et (1-F1L4-F2L8)Yt=et
◼ SARISMA(0,0,1): Yt=et-Q1et-4 Yt=(1-Q1L4)et
◼ SARISMA(1,0,1): Yt=F1Yt-4+et-Q1et-4 (1-F1L4)Yt=(1-Q1L4)et
◼ SARISMA(1,1,1): (1-F1L4)(1-L4)Yt=(1-Q1L4)et
◼ En particular analizaremos la FAC y FACP del SARISMA(1,0,0) y del SARISMA(0,0,1).
◼ A continuación se recoge el correlograma de dos series estacionales puras.

24
5. Modelos con estacionalidad y efectos calendario
MODELOS ESTACIONALES MULTIPLICATIVOS
◼ Modelos mixtos regulares y estacionales:
ARMA(p,q)*SARMA(P,Q)
(1-f1L-f2L -…-fPL )(1-F1L -F2L -…-FPL )Yt=(1-q1L-q2L -…-qPL )(1-Q1L -Q2L -…-QQL )et
2 p s 2s Ps 2 p s 2s Qs

fp(L)Fp(Ls) Yt=qP(L)QQ(LQs) et
◼ Modelos no estacionarios: ARIMA(p,d,q)*SARMA(P,Q)
(1-f1L-f2L2-…-fPLp)(1-F1Ls-F2L2s-…-FPLPs)(1-Ls)DYt=(1-q1L-q2L2-…-qPLp)(1-Q1Ls-Q2L2s-…-QQLQs) et

fp(L)Fp(Ls) Yt=qP(L)QQ(LQs) et
◼ Ejemplo: ARMA(1,0)*SARMA(1,0)
◼ f1(L)F1(Ls) Yt= et
(1-f1L)(1-F1L )Yt=et
s

(1-f1L-F1L +f1F1L )Yt=et


s s+1

 Con s=4: Yt=f1Yt-1-F1Yt-4+f1F1Yt-5+et

 Con s=12: Yt=f1Yt-1+F1Yt-12+f1F1Yt-13+e

25

También podría gustarte