Está en la página 1de 26

Econometría III

Modelos ARMA (Selección y Predicción)

Gonzalo Ramírez Vargas


0 Contenido |1

1 Autocorrelación muestral 3 Predicción

2 Selección del modelo

Gonzalo Ramírez Vargas Econometría III


1 Contenido |2

1 Autocorrelación muestral 3 Predicción

2 Selección del modelo

Gonzalo Ramírez Vargas Econometría III


1 Autocorrelaciones muestrales |3

I Las autocorrelaciones muestrales y las autocorrelaciones parciales muestrales son usadas


para construir y validar los modelos ARMA.
I Primero, estos estadísticos serán aplicados en la data para entender la estructura de la
dependencia y para seleccionar a los modelos candidatos.
I Luego, se aplicarán a los residuos estimados {ˆt } para validar el supuesto de que los
residuos sean ruidos blancos.
I El estimador más común para la autocovarianza muestral sería
T
γ̂h = (T − h)−1 (Yi − Ȳ )(Yi−h − Ȳ )
X

i=h+1

I El estimador para la autocorrelación será


PT
i=h+1 (Yi − Ȳ )(Yi−h − Ȳ ) γ̂h
ρ̂h = PT =
i=1 (Yi − Ȳ )
2 γ̂0

Gonzalo Ramírez Vargas Econometría III


1 Autocorrelaciones muestrales |4

I Realizar pruebas de hipótesis sobre las autocorrelaciones de los residuos estimados sirve para
verificar la especificación del modelo elegido.
I El análisis puede ser gráfico (ACF - PACF) o numérico (p-value).
I Las pruebas gráficas nos podrían dar una idea para las siguientes hipótesis nulas:

H0 : ρh = 0 y H0 : αh = 0

I Sin embargo, las pruebas gráficas no son determinantes ya que para algunos valores de h se
podría rechazar la hipótesis nula a pesar de que esta sea verdadera.

Gonzalo Ramírez Vargas Econometría III


1 Pruebas gráficas - ACF |5

Gonzalo Ramírez Vargas Econometría III


1 Pruebas gráficas - PACF |6

Gonzalo Ramírez Vargas Econometría III


1 Pruebas estadísticas conjuntas |7

I Otra opción para validar la especificación del modelo es utilizar pruebas de hipótesis
conjuntas.
I Ambas pruebas de hipótesis son de la siguiente forma:

H 0 : ρ1 = ρ2 = · · · = ρh = 0

H1 : ρj 6= 0 para algún j
I Ambas pruebas se distribuyen asintóticamente como χ2h .

Gonzalo Ramírez Vargas Econometría III


1 Pruebas estadísticas conjuntas |8

Test de Box-Pierce
Es la suma de los cuadrados de las correlaciones muestrales reescaladas por el tamaño muestral.
h
QBP = T ρ̂2i
X

i=1

Test de Ljung-Box
Es una modificación del test de Box-Pierce que funciona mejor para muestras pequeñas.
h 
T +2

QLB = T ρ̂2i
X
T −i
i=1

Gonzalo Ramírez Vargas Econometría III


1 Pruebas estadísticas conjuntas |9

I Un paso importante en la aplicación de ambos test estadísticos es la selección del número


de rezagos h.
I Si se está probando un modelo ARMA(p,q), entonces h debe ser mayor que max p, q.
I Esto se debe a que las autocorrelaciones de los residuos que coinciden con o que son
menores los rezagos del modelo tendrían un problema de overfitting.
I Es común escoger un valor de h entre 5 y 20 para modelos ARMA pequeños (con valores de
p y q menores o iguales a 2).

Gonzalo Ramírez Vargas Econometría III


1 Ejemplo - ACF Residuos ARMA(1,1) - AR(1) | 10

Gonzalo Ramírez Vargas Econometría III


1 Ejemplo - PACF Residuos ARMA(1,1) - AR(1) | 11

Gonzalo Ramírez Vargas Econometría III


1 Ejemplo - Test Ljung-Box Residuos ARMA(1,1) - AR(1) | 12

Gonzalo Ramírez Vargas Econometría III


2 Contenido | 13

1 Autocorrelación muestral 3 Predicción

2 Selección del modelo

Gonzalo Ramírez Vargas Econometría III


2 Selección del modelo | 14

I Determinar el número de rezagos para los componentes AR y MA es uno de los pasos más
importantes al construir un modelo ARMA.
I Primero se deben inspeccionar las autocorrelaciones muestrales y las autocorrelaciones
parciales muestrales de la data. Así tendremos una idea de la estructura de la data.
I Caídas lentas en el ACF indican que el modelo necesita un componente AR.
I Caídas lentas en el PACF indican que el modelo necesita un componente MA.

Gonzalo Ramírez Vargas Econometría III


2 Error Cuadrático Medio (MSE - Mean Squared Error ) | 15

I Una vez que un modelo ha sido identificado, lo siguiente será medir su ajuste a la data.
I La medida más natural de ajuste es la varianza muestral de los residuos estimados. Esta
medida también se conoce como MSE (Mean Squared Error ).
T
1 X 2
MSE: σ̂ 2 = ˆt
T
t=1

I Valores más pequeños indican un mejor ajuste del modelo.


I El problema de esta medida es que añadir rezagos adicionales para el componente AR o
para el MA producirá MSEs más pequeños.
I La solución a este problema es añadir una penalidad de tal forma que esta incremente cada
vez que un nuevo parámetro es añadido al modelo.

Gonzalo Ramírez Vargas Econometría III


2 Criterios de Información - IC (Information Criteria) | 16

Criterio de información de Akaike - AIC

AIC = T ln σ̂ 2 + 2k

Criterio de información bayesiano - BIC

AIC = T ln σ̂ 2 + k ln T

Ambos criterios de información reflejan el tradeoff sesgo-varianza (bias-variance tradeoff ).


a) El BIC siempre escogerá un modelo más simple o pequeño que el AIC cuando T ≥ 8.
b) El BIC es un criterio de selección de modelos consistente (el modelo verdadero será elegido
a medida que T → ∞).

Gonzalo Ramírez Vargas Econometría III


2 Metodología Box-Jenkins | 17

I Box y Jenkins propusieron un enfoque formal para la selección del modelo más eficiente
dentro de la familia de modelos ARMA.
I Su metodología consiste en 3 pasos:
1) Identificar el modelo apropiado utilizando gráficos de las ACF y PACF.
2) Estimar los parámetros del modelo elegido utilizando MCO (solo para los modelos AR) o
máxima verosimilitud (para AR, MA o ARMA).
3) Realizar un diagnóstico de lo residuos del modelo estimado.
I Es posible que dos o más modelos con diferentes parámetros sean equivalentes, es decir, las
ACF y PACF de los residuos tienen un comportamiento similar.
I La metodología propone dos principios para seleccionar entre los modelos equivalentes:
i. Parsimonia: Escoger el modelo que tenga menos parámetros
ii. Invertibilidad: Cuando se escojan parámetros para un proceso MA, siempre escoger aquellos
que hagan que el componente MA sea invertible.

Gonzalo Ramírez Vargas Econometría III


3 Contenido | 18

1 Autocorrelación muestral 3 Predicción

2 Selección del modelo

Gonzalo Ramírez Vargas Econometría III


3 Predicción | 19

I La predicción consiste en utilizar la información disponible para predecir el futuro.


I Las predicciones se pueden realizar de forma puntual (solo para la próxima observación) o
para h periodos hacia adelante.
I La predicción puntual se representa como

E [YT +1 |FT ] = ET [YT +1 ]

I El conjunto de información FT contiene todos los valores que son conocidos hasta el
periodo T , incluida la historia de Y : YT , YT −1 , . . .
I También contiene la historia de los shocks: T , T −1 , . . . , y cualquier otra variable que haya
ocurrido hasta T .

Gonzalo Ramírez Vargas Econometría III


3 Predicción recursiva | 20

La predicción se puede generar de forma recursiva siempre y cuando se cumplan las siguientes
reglas:
1) La esperanza de cualquier variable con un sub-índice menor o igual a T es la realización de
dicha variable (ET [YT ] = YT ). Aplica de igual forma para los shocks.
2) La esperanza para los shocks futuros siempre será 0

ET [T +1 ] = ET [T +h ] = 0, para todo h ≥ 1

3) Las predicciones serán generadas de forma recursiva empezando por ET [YT +1 ].


La predicción para un horizonte h dependerá de los pasos previos:

(ET [YT +1 ], ET [YT +2 ], . . . , ET [YT +h−1 ])

Gonzalo Ramírez Vargas Econometría III


3 Predicción recursiva - AR(1) | 21

Suponiendo que la variable aleatoria Yt sigue un proceso AR(1):

Yt = δ + φYt−1 + t

La predicción puntual para el siguiente periodo observado será:

ET [YT +1 ] = ET [δ + φYT + T +1 ]
= δ + φET [YT ] + ET [T +1 ]
= δ + φYT

dependiendo, finalmente, solo del valor observado YT .

Gonzalo Ramírez Vargas Econometría III


3 Predicción recursiva - AR(1) | 22

La predicción para el segundo paso será:

ET [YT +2 ] = ET [δ + φYT +1 + T +2 ]
= δ + φET [YT +1 ] + ET [T +2 ]
= δ + φ(δ + φYT )
= δ + φδ + φ2 YT

Repitiendo los mismos pasos para cualquier horizonte h se tiene:

ET [YT +h ] = δ + φδ + φ2 δ + · · · + φh−1 δ + φh YT
h
φi δ + φh YT
X
=
i=0

Gonzalo Ramírez Vargas Econometría III


3 Predicción recursiva - AR(1) | 23

Cuando el valor de h es muy grande, entonces φh será pequeño debido a que se está asumiendo
que el proceso estocástico {Yt } es estacionario.

Se puede demostrar que:


h
δ
φi δ + φh YT =
X
lim
h→∞ 1−φ
i=0

Este límite coincide con el nivel de reversión a la media de un proceso AR(1).

Así, para cualquier serie de tiempo estacionaria en covarianzas se cumple que

lim ET [YT +h ] = E [Yt ]


h→∞

Gonzalo Ramírez Vargas Econometría III


3 Predicción recursiva - MA(3) | 24

Suponiendo que la variable aleatoria Yt sigue un proceso MA(3):

Yt = µ + θ1 t−1 + θ2 t−2 + θ3 t−3 + t

Realizando los mismos pasos que para el proceso AR(1) se tiene:

ET [YT +1 ] = µ + θ1 T + θ2 T −1 + θ3 T −2
ET [YT +2 ] = µ + θ2 T + θ3 T −1
ET [YT +3 ] = µ + θ3 T
ET [YT +4 ] = µ

Los procesos MA dependerán a lo mucho de q rezagos de los residuos, por ello las predicciones
para un horizonte igual a h > q serán iguales a la media de largo plazo µ.

Gonzalo Ramírez Vargas Econometría III


3 Error de predicción | 25

I El error de predicción es la diferencia entre el valor realizado de la variable aleatoria Yt en


un horizonte h y la predicción para el mismo horizonte

YT +1 − ET [YT +1 ] = T +1

que solo es el shock realizado en el siguiente periodo.


I Lo anterior sucede en cualquier modelo ARMA.
I Los errores de predicción para horizontes más largos son funciones de los parámetros del
modelo.

Gonzalo Ramírez Vargas Econometría III

También podría gustarte