Está en la página 1de 47

Modelos Predictivos de Series Temporales

Sesión 4: Modelo ARMA

PhD. Ricardo Olea Ortega

MAGISTER EN DATA SCIENCE MDS 2018

Martes 29 de octubre
Contenido I
Procesos ARMA(p, q)
Definción
Causalidad
Invertibilidad
Autocorrelación Parcial
Definición
Ejemplo
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)
Selección de Modelo
Criterio de Akaike (AIC)
Test t-Student
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA
Test de Raı́z Unitaria
Modelo ARIMA Estacional
Procesos ARMA(p, q)

Definición
{Xt } es un proceso ARMA(p, q) si {X } es estacionario y para todo
t,

Xt − φ1 Xt−1 − · · · − φp Xt−p = Zt + θ1 Zt−1 + · · · + θq Zt−q ,


(1)

donde {Zt } ∼ RB(0, σ 2 ) y los polinomios (1 − φ1 z − · · · − φp zp )


y (1 + θ1 z + · · · + θq zq ) no tienen factores comunes.
Nota: Un proceso {Xt } se dice ARMA(p, q) con media µ si
{Xt − µ} es un proceso ARMA(p, q).
Procesos ARMA(p, q)

Es conveniente utilizar la siguiente notación:

φ(B) Xt = θ(B) Zt ,

donde B es el operador de rezago, φ(·) y θ(·) polinomios de orden


p y q respectivamente.
I Si θ(z) = 1, entonces {Xt } ∼AR(p).
I Si φ(z) = 1, entonces {Xt } ∼MA(q).
I Si θ(z) = φ(z) = 1, entonces {Xt } ∼ RB(0, σ 2 ).
Procesos ARMA(p, q)

Existencia y Unicidad
Una solución estacionaria {Xt } de la ecuación (1) existe si y solo si

φ(z) = 1 − φ1 z − · · · − φp z p 6= 0, para todo |z| = 1

Causalidad
Un proceso {Xt } ARMA(p, q) es causal, P o una función causal de
{Zt }, si existen constantes {ψj } tal que ∞j=0 |ψj | < ∞ y


X
Xt = ψj Zt−j , para todo t.
j=0

Causalidad es equivalente a la condición:

φ(z) = 1 − φ1 z − · · · − φp z p 6= 0, para todo |z| ≤ 1


Procesos ARMA(p, q)

Invertibilidad
Un proceso {X } ARMA(p, q) es invertible, si existen constantes
Pt ∞
{πj } tal que j=0 |πj | < ∞ y

X
Zt = πj Xt−j , para todo t.
j=0

Invertibilidad es equivalente a la condición:

θ(z) = 1 + θ1 z + · · · + θq z q 6= 0, para todo |z| ≤ 1


Procesos ARMA(p, q)

Ejemplos
Obtenga los coeficientes {ψj } y {πj } se los siguientes procesos:
1. ARMA(1,1)
2. AR(2)
3. ARMA(2,1)
Procesos ARMA(p, q)

I Cabe señalar que la causalidad e invertibilidad no son


propiedades de {Xt } solamente, si no de la relación entre los
procesos {Xt } y {Zt }.
I Si {Xt } es un proceso ARMA definido por φ(B) Xt = θ(B) Zt ,
donde θ(z) 6= 0 si |z| = 1, entonces siempre es posible
encontrar polinomios φ(z)
e y θ(z),
e y una secuencia de ruido
blanco {Wt } tal que φ(B) Xt = θ(B) Wt , θ(z)
e e e y φ(z)
e son
distintos de cero para |z| ≤ 1. Sin embargo, si la secuencia
original de ruido blanco {Zt } es iid, la nueva secuencia no lo
será, a menos que {Zt } sea Gaussiana. En virtud de lo
mencionado, nos concentraremos en el estudio de procesos
ARMA causales e invertibles.
Autocorrelación Parcial (PACF)

Definición
La función de autocorrelación parcial de un proceso ARMA {Xt }
corresponde a la función α(·) definida por las ecuaciones

α(0) = 1

y
α(h) = φh h , h ≥ 1,
donde φh h son las componentes de

φh = Γ−1
h γh ,

con Γh = [γ(i − j)]hi,j=1 y γh = [γ(1), γ(2), . . . , γ(h)]0 .


Nota: φh,h es la correlación entre los errores de predicción
Xh − P(Xh | X1 , . . . , Xh−1 ) y X0 − P(X0 | X1 , . . . , Xh−1 ).
Autocorrelación Parcial (PACF)

Ejemplo: AR(1), yt = φyt−1 + εt


Como el MPL de yt dado Ft−1 es:

ŷt = φ̂yt−1 ,

se tiene que

α(1) = Corr(y1 , y2 ) = ρy (1) = φ


α(2) = Corr(y3 − PM {y3 }, y1 − PM {y1 })

donde M = {y2 }.
Luego, Py2 {y3 } = φy2 y Py2 {y1 } = αy2 , donde
α = γy−1 (0)/γy (1) = ρy (1) = φ. Esto es, Py2 {y1 } = φy2 .
Autocorrelación Parcial (PACF)

De esto último se desprende que,

ŷ3 = φy2 = ŷ1

“Predecir y3 basado en y2 , es lo mismo que predecir y1 basado en


y2 ”

∴ α(2) = Corr(y3 − PM {y3 }, y1 − PM {y1 })


= Corr(y3 − φy2 , y1 − φy2 )
= Corr(ε3 , y1 − φy2 )
=0
Autocorrelación Parcial (PACF)

Luego, para k > 2, α(k) = Corr(yk+1 − PM {yk+1 }, y1 − PM {y1 }),


donde
PM {yk+1 } = φyk
PM {y1 } = φy2
con M = {y2 , . . . , yk }.

α(k) = Corr(yk+1 − φyk , y1 − φy2 )


= Corr(εk+1 , y1 − φy2 )
=0

Ası́, en un proceso AR(1), α(1) = φ y α(k) = 0, k ≥ 2.


Autocorrelación Parcial (PACF)

Para φ = 0.5 La PACF de un proceso AR(1) es


0.5
0.4
0.3
Partial ACF

0.2
0.1
0.0

5 10 15 20

Lag
Autocorrelación Parcial (PACF)

Propuesto
Obtenga α(·) de los siguientes procesos:
I AR(p)
I MA(q)
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

Habitualmente la estimación de máxima verosimilitud de un


proceso ARMA se hace suponiendo que las observaciones de una
serie de tiempo tienen distribución gaussiana.
La distribución Normal Multivariada queda especificada por la
media y la varianza
 
X1
Xn =  ...  ∼ Normal (µ, Γn )
 

Xn

Estimación de µ
n
1X
µ̂ = Xt
n
t=1
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

Estimación del Modelo

φ(B)(Xt − µ) = θ(B)εt
Podemos expresar Γn como función de

η = (φ1 , . . . , φp , θ1 , . . . , θq , σ 2 ) ∈ Rp+q+1 ,

es decir,
Γn = Γn (η).
Luego el estimador de Γn es:

Γ̂n = Γn (η̂)

donde η̂ es el EMV.
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

La función de verosimilitud de para este caso es


 
−n/2 −1/2 1 0 −1
L(X1 , . . . , Xt , η) = (2 π) det(Γn ) exp − Xn Γn Xn
2

donde la log verosimilitud es

log L(η) = `(η)

luego el EMV se obtiene como

η̂ = max `(η)
η
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

Ejemplo: Proceso AR(1).

η = (φ, σ 2 ) ∈ R2

φ2 φn−1
 
1 φ ···
 φ 1 φ ··· φn−2 
σ2 
φ2 φ 1 ··· φn−3

Γn (η) =
 
1 − φ2
 
 .. .. .. .. .. 
 . . . . . 
φn−1 φn−2 φn−3 · · · 1
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

Ejemplo: Proceso MA(1).

η = (θ, σ 2 ) ∈ R2
 
1 + θ2 θ 0 ··· 0
 .. .. 

 θ 1 + θ2 θ . . 

2
Γn (η) = σ  .. .. .. 
0 . . . 0 
..
 
.. .. ..
. . .
 
 . θ 
0 ··· 0 θ 1 + θ2
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

En general en el caso de observaciones dependientes

L(X1 , . . . , Xn , η) = fX1 ,...,Xn (x1 , . . . , xn , η)


= fX1 (x1 , η) × fX2 | X1 =x1 (x2 , η) × · · · ×
fXn | Xn−1 =xt−1 ,...,X1 =x1 (xn , η)
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

Consideremos un proceso AR(1)

yt = φ yt−1 + εt
{εt } ∼ Normal(0, σ 2 ),

con |φ| < 1, se tiene que la distribución marginal y condicional es:

σ2
 
y1 ∼ Normal 0,
1 − φ2
yt | yt−1 , . . . , y1 ∼ Normal(φ yt , σ 2 ), para t ≥ 2
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)

Luego, la verosimilitud está dada por:


n
( )
−n/2 2 −n/2 2 1/2 1 (1 − φ2 ) 1 X
L(η) = (2 π) (σ ) (1−φ ) exp − y12 − (yt − φ yt−1 )2
2 σ2 2 σ 2 t=2

y la log-verosimilitud
n n 1 1
`(η) = − ln(2 π) + − ln(σ 2 ) + ln(1 − φ2 ) − S(φ),
2 2 2 2 σ2
con
n
X
S(φ) = y12 (1 − φ2 ) + (yt − φ yt−1 )2 = y12 (1 − φ2 ) + S ∗ (φ)
t=2
Estimación Máximo Verosı́mil
Estimación Procesos ARMA(p, q)


Igualando ∂ σ2
`(η) = 0, se obtiene que

S(φ̂)
σˆ2 =
n

y con ∂ φ `(η) = 0 se tiene que

φ 1 ∂
= S(φ),
1 − φ2 2 σ2 ∂ φ
donde
n
∂ X
S(φ) = y12 (−2φ) + 2 (yt − φ yt−1 ) (−yt−1 ).
∂φ
t=2
Selección de Modelo
Criterio de Akaike (AIC)

La forma más utilizada para escoger el orden del modelo ARMA es


el llamada Criterio de Información de Akaike (AIC).

AIC = −2`(η) + 2 · (q + p + 1)

Se escoge el modelo con menor AIC.


Luego, necesitamos estudiar los siguiente aspectos:
I Verificar la significancia de los parámetros AR y MA por
medio de los test de t-Student.
I Diagnostico y Validación: Chequear que los residuos del
modelos no tengan estructura de correlación y tengan
distribución Normal.
Selección de Modelo
Test t

Considere Γ = Var(η̂).
Las hipótesis a probar son:

H0 : ηi = 0 vs H1 : ηi 6= 0.

Donde el estadı́stico de prueba es:


η̂i aprox.
Ti = ∼ Normal(0, 1)
σ̂ηi
con p
σ̂ηi = Γii
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA

Definición
Si d es un entero no negativo, entonces {Xt } es un proceso
Autoregresivo Integrado de Media Móvil, ARIMA(p, d, q) si el
proceso Yt = (1 − B)d Xt es un proceso ARMA(p, q).
Esta definición satisface la siguiente ecuación:

Φ(B) (1 − B)d Xt = Θ(B) εt


{εt } ∼ RB(0, σ 2 )
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA

Ejemplo
Consideremos {Xt } un proceso ARIMA(1, 1, 0), con |φ| < 1.

(1 − φ B) (1 − B) Xt = εt
{εt } ∼ RB(0, σ 2 )

Este proceso puede ser re-escrito como:


t
X
Xt = X0 + Yt , t≥1
j=1

donde

X
Yt = (1 − B) Xt = φj εt−j
j=0
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Introducción
El problema de la raı́z unitaria surge cuando el polinomio
autoregresivo o de media móvil de un modelo ARMA tiene una raı́z
cercana al circulo unitario. Un raı́z unitaria en cualquiera de estos
polinomios tiene importantes implicaciones al modelar.
Por ejemplo, una raı́z cercana a uno de un polinomio autoregresivo
sugiere que los datos deben ser diferenciadas antes de ajustar un
modelos ARMA, mientras que una raı́z cercana a uno en el
polinomio de media móvil indica que los datos están sobre
diferenciados.
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Autoregresivos


Sean X1 ,. . . , Xn observaciones proveniente de un modelo AR(1)

Xt − µ = φ1 (Xt−1 − µ) + εt
{εt } ∼ RB(0, σ 2 )

donde |φ| < 1 y µ = E (Xt ) para todo t.


Para n grande, se tiene que el estimador máximo verosı́mil de φ1 ,
φ̂1 , distribuye aproximadamente Normal(φ1 , (1 − φ21 )/n). Para el
caso de una raı́z unitaria, esta aproximación no es aplicable, incluso
asintóticamente hablando.
Por esta razón es interesante testear la hipótesis
H0 : φ1 = 1 vs. H1 : φ1 < 1.
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Autoregresivos


El test lo podemos construir de la siguiente manera

∇ Xt = Xt − Xt−1 = φ∗0 + φ∗1 Xt−1 + εt ,

con {εt } ∼ RB(0, σ 2 ), φ∗0 = µ (1 − φ1 ) y φ∗1 = φ1 − 1.


Mediante mı́nimos cuadrados, podemos estimar φ∗1 a partir de un
modelo de regresión lineal con intercepto ∇ Xt ∼ Xt−1 . El error
estándar de φ∗1 esta dado por

n
!−1/2
X
c φ̂∗ ) = σ̂
SE( (Xt−1 − X )2 ,
1
t=2
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Autoregresivos


donde
n
X
σ̂ 2 = (∇ Xt − φ∗0 − φ∗1 Xt−1 )2 /(n − 3)
t=2

y X el promedio muestral de X1 ,. . . , Xn−1 .


Dickey y Fuller (1976) derivaron la distribución lı́mite cuando
n → ∞ de τ̂µ = φ∗1 /SE(
c φ̂∗ ), bajo el supuesto que φ∗ = 0. Esto es
1 1
equivalente a testear la hipótesis H0 : φ1 = 1.
Se rechaza H0 si τ̂µ < τtabla (α, n).
Algunos percentiles teóricos de τ̂µ son
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Distribución Acumulada Empı́rica de τ̂µ para φ1 = 1

Tamaño Muestra Percentil Acumulado (α)


n 0.010 0.025 0.050 0.100 0.900 0.950 0.975 0.990
25 -3.75 -3.33 -3.00 -2.63 -0.37 0.00 0.34 0.72
50 -3.58 -3.22 -2.93 -2.60 -0.40 -0.03 0.29 0.66
100 -3.51 -3.17 -2.89 -2.58 -0.42 -0.05 0.26 0.63
250 -3.46 -3.14 -2.88 -2.57 -0.42 -0.06 0.24 0.62
500 -3.44 -3.13 -2.87 -2.57 -0.43 -0.07 0.24 0.61
∞ -3.43 -3.12 -2.86 -2.57 -0.44 -0.07 0.23 0.60
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Autoregresivos


Este resultado se puede extender a un proceso AR(p) como sigue:

Xt − µ = φ1 (Xt−1 − µ) + · · · + φp (Xt−p − µ) + εt
{εt } ∼ RB(0, σ 2 )

El cual puede re-escribirse como

∇ Xt = φ∗0 + φ∗1 Xt−1 + φ∗2 ∇ Xt−1 + · · · + +φ∗p ∇ Xt−p+1 + εt ,



Pp
donde φP0 = µ (1 − φ1 − · · · − φp ), φ1 = i=1 φi − 1, y
φ∗j = − pi=j φi para j = 2, . . . , p.
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Autoregresivos


Si el polinomio autoregresivo tiene raı́z unitaria, entonces
0 = Φ(1) = −φ∗1 , y el proceso {∇ Xt } serı́a un proceso AR(p − 1).
Consecuentemente, testear la hipótesis de raı́z unitaria en el
polinomio autoregresivo es equivalente a testear que φ∗1 = 0.
Como en el caso AR(1), podemos estimar φ∗1 mediante una
regresión lineal de ∇ Xt con respecto a los regresores 1, Xt−1 ,
∇ Xt−1 ,. . . , ∇ Xt−p+1 .
El estadı́stico de prueba τ̂µ = φ̂∗1 /SE(
c φ̂∗ ) se contrasta con los
1
valores de los percentiles teóricos calculados por Dickey-Fuller
presentados anteriormente. Una alternativa, es contrastar el
estadı́sticos de prueba τ̂ = φ∗1 /SE(
c φ̂∗ ), obtenido asumiendo un
1
modelo de regresión sin intercepto.
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Distribución Acumulada Empı́rica de τ̂ (Sin intercepto) para


φ1 = 1

Tamaño Muestra Percentil Acumulado (α)


n 0.010 0.025 0.050 0.100 0.900 0.950 0.975 0.990
25 -2.66 -2.26 -1.95 -1.60 0.92 1.33 1.70 2.16
50 -2.62 -2.25 -1.95 -1.61 0.91 1.31 1.66 2.08
100 -2.60 -2.24 -1.95 -1.61 0.90 1.29 1.64 2.03
250 -2.58 -2.23 -1.95 -1.62 0.89 1.29 1.63 2.01
500 -2.58 -2.23 -1.95 -1.62 0.89 1.28 1.62 2.00
Inf -2.58 -2.23 -1.95 -1.62 0.89 1.28 1.62 2.00
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Medias Móvil


Una unidad raı́z en el polinomio de media móvil puede tener una
serie de interpretaciones dependiendo de la aplicación de
modelado. Por ejemplo, sea {Xt } un proceso ARMA causal y
invertible que satisface las ecuaciones

φ(B) Xt = θ(B) εt ,

con {εt } ∼ RB(0, σ 2 ). Entonces la serie diferenciada Yt = ∇ Xt es


un proceso ARMA(p, q + 1) no invertible cuyo polinomio de media
móvil es de la forma θ(Z )(1 − Z ).
Consecuentemente, una prueba de raı́z unitaria en el polinomio de
media móvil polinomio es equivalente a test en que la hipótesis es
que la serie ha sido sobre diferenciada.
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Medias Móvil


Una segunda aplicación, es posible distinguir entre los modelos

∇k Xt = a + Vt

y
Xt = c0 + c1 t + · · · + ck t k + Wt ,
donde Vt y Wt son procesos ARMA invertibles.
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Medias Móvil


El el primer modelo {∇ Xt } no tiene raı́z unitaria en el polinomio
de medias móviles, mientas que para el segundo {∇ Xt } tiene
como factor de media móvil una raı́z unitaria de orden k.
Por lo tanto podemos distinguir entre estos dos modelos utilizando
los valores observados de {∇ Xt } pára testear la presencia de una
raı́z unitaria de media móvil.
Analizaremos solo el caso MA(1) ya que que el caso general es
considerablemente más complicado y aún no resulto
completamente.
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Medias Móvil


Sean X1 ,. . . , Xn observaciones provenientes de un modelo MA(1)
Xt = θ εt−1 + εt
{εt } ∼ RB(0, σ 2 )

Davis y Dunsmuir (1996) mostraron que bajo el supuesto que


θ = −1, el estadı́stico n (θ̂ + 1) (con θ̂ el estimador máximo
verosı́mil de θ) converge en distribución. Un test para H0 : θ = −1
vs. H1 : θ > −1 se puede confeccionar con resultados lı́mite
rechazando H0 cuando

θ̂ > −1 + ,
n
donde cα corresponde al percentil (1 − α) de la distribución lı́mite
de n (θ̂ + 1) propuestos por Davis, Chen y Dunsmuir (1996).
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Medias Móvil


Algunos percentiles son: c0.01 = 11.93, c0.05 = 6.80 y c0.10 = 4.90.
Asumiendo que los datos tienen distribución Gaussiana tenemos
que la regla de rechazo de un test de razón de verosimilitud para la
hipótesis de raı́z unitaria en un proceso MA(1) es:
 
L θ = −1, σ 2 = S[θ=−1]
2
Λ=   < λc ,
L θ = θ̂, σ 2 = S 2
[θ=θ̂]
Series de Tiempo NO Estacionarias y Estacionales
Test de Raı́z Unitaria

Raı́z Unitaria en Medias Móvil


Donde λc es tal que

P(Λ < λc | θ = −1) = α ⇔ P(−2 ln Λ > cL.R, α | θ = −1) = α.

Para n ≥ 50, se rechaza H0 si para −2 ln Λ mayor que


cL.R, 0.01 = 4.41, cL.R, 0.05 = 1.94 y cL.R, 0.10 = 1.00.
Ejemplo: Simular un proceso MA(1) con θ = −1 y otro con
θ = 0.5. Para ambos casos teste la hipótesis H0 : θ = −1 vs. H1 :
θ > −1.
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA Estacional

Definición
Si d y D son enteros no negativos, entonces {Xt } es un proceso
SARIMA(p, d, q) × (P, D, Q)s si el proceso
Yt = (1 − B)d (1 − B s )D Xt es un proceso ARMA definido como.

φ(B) Φ(B s ) Yt = θ(B) Θ(B s ) εt


{εt } ∼ RB(0, σ 2 )

donde
φ(Z ) = 1 − φ1 Z − · · · − φp Z p
Φ(Z ) = 1 − Φ1 Z − · · · − ΦP Z P
θ(Z ) = 1 + θ1 Z + · · · + θp Z q
Θ(Z ) = 1 + Θ1 Z + · · · + ΘP Z Q
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA Estacional
SARIMA(0, 0, 0) × (1, 0, 0)12

(1 − 0.5 B 12 ) Xt = εt

{εt } ∼ RB(0, σ 2 )
1.0

0.5
0.4
0.8

0.3
0.6

Partial ACF
ACF

0.2
0.4

0.1
0.2

0.0
0.0

0 20 40 60 80 100 120 0 20 40 60 80 100 120

Lag Lag
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA Estacional
SARIMA(0, 0, 0) × (0, 0, 1)12

Xt = (1 + 0.8 B 12 ) εt

{εt } ∼ RB(0, σ 2 )
1.0

0.4
0.8

0.2
0.6

Partial ACF
ACF

0.4

0.0
0.2

−0.2
0.0

0 20 40 60 80 100 120 0 20 40 60 80 100 120

Lag Lag
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA Estacional
SARIMA(0, 0, 0) × (1, 0, 1)12

(1 − 0.5 B 12 ) Xt = (1 + 0.8 B 12 ) εt

{εt } ∼ RB(0, σ 2 )
1.0

0.6
0.8

0.4
0.6

Partial ACF

0.2
ACF

0.4

0.0
0.2

−0.2
−0.4
0.0

0 20 40 60 80 100 120 0 20 40 60 80 100 120

Lag Lag
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA Estacional
SARIMA(1, 0, 0) × (1, 0, 0)12

(1 − 0.6 B) (1 − 0.4 B 12 ) Xt = εt

{εt } ∼ RB(0, σ 2 )
1.0

0.6
0.8

0.4
0.6

Partial ACF

0.2
ACF

0.4

0.0
0.2

−0.2
0.0

0 10 20 30 40 50 0 10 20 30 40 50

Lag Lag
Series de Tiempo NO Estacionarias y Estacionales
Modelo ARIMA Estacional
SARIMA(1, 0, 0) × (0, 0, 1)12

(1 − 0.6 B) Xt = (1 + 0.8 B 12 ) εt

{εt } ∼ RB(0, σ 2 )
1.0

0.6
0.8

0.4
0.6

0.2
Partial ACF
ACF

0.4

0.0
0.2

−0.2
0.0

0 10 20 30 40 50 0 10 20 30 40 50

Lag Lag

También podría gustarte