Está en la página 1de 22

CAPÍTULO 6

Modelos ARMA para la Componente Aleatoria

6.1. Introducción

En los modelos de descomposición Yt = Tt + St + εt , t = 1, 2, . . . se estima ε̂t y se


determina si es o nó ruido blanco mediante las pruebas Ljung-Box y Durbin-Watson. En
caso de encontrar que ε̂t no es ruido blanco, el siguiente paso es modelar esta componente
mediante tres posibles modelos

1. Medias Móviles de orden q, M A(q).

2. Autoregresivos de orden q, AR(p).

3. Medias Móviles Autoregresivos, ARM A(p, q).

“Los tres modelos varı́an en su capacidad de capturar distintos tipos de


comportamiento de autoregresión.” “Comenzaremos dando las caracterı́sticas
de las funciones de autocorrelación y cantidadades relacionadads con cada
modelos, estás no tiene nada que ver con datos ni estimación pero son fun-
damentales para desarrollar una comprensión básica de las propiedades de
los modelos necesarios para llevar a cabo pronósticos inteligentes.” Diebold
[1999, pág. 129]

89
90

6.2. Procesos de Medias Móviles de orden q

Definición 6.2.1 (El Operador de Rezago). Se denota por L (lag, en inglés) y es tal que
L(Yt ) = Yt−1 . Es decir, L opera sobre una serie rezagándola un perı́odo hacia atrás. De
igual manera L(Yt−1 ) = Yt−2 , luego L(L(Yt)) = L2 (Yt ) = Yt−2 y en general Lp (Yt ) =
Yt−p . Se define también L0 = I, el operador identidad.

Un polinomio de grado p en el operador L se define como el operador formado por una


combinación lineal de potencias de L

BP (L) = β0 + β1 L + β2 L2 + · · · + βpLp , (6.1)

tal que

BP (L)(Yt) = (β0 + β1 L + β2 L2 + · · · + βpLp )Yt ,


p
X
= βj Lj Yt ,
j=0
p
X
= βj Yt−j ,
j=0

= β0 Yt + β1 Yt−1 + β2 Yt−2 + · · · + βp Yt−p .

Definición 6.2.2 (Proceso MA(q)). Se dice que una serie Yt sigue un proceso M A(q), q =
1, 2, . . . de media móvil de orden q, si se cumple que

Yt = εt + θ1 εt−1 + · · · + θq εt−q , t ∈ Z, (6.2)

donde εt ∼ RB(0, σ 2 ). La expresión con el operador L es, si se define el polinomio

θq (L) = 1 + θ1 L + · · · + θq Lq , (6.3)

entonces la ecuación (6.2) se expresa

Yt = θq (L)(εt). (6.4)

6.2.1. Propiedades

1. E(Yt) = 0

2. V ar(Yt ) = (1 + θ12 + · · · + θq2 )σ 2


91

luego V ar(Yt) > V ar(εt ), en general.

3. Cov(Yt , Yt+k ) = R(k), donde


 q−k

 X
σ 2 θj θj+k , k < q + 1
R(K) = j=0 (6.5)



0, k ≥ q+1

con θ0 = 1.

R(k)
4. Un M A(q) siempre es un proceso estacionario con fac, ρ(k) = R(0)
.

Interpretación de 3. Un M A(q) es un proceso débilmente correlacionado. Se puede ver


como una alternativa a un Ruido Blanco completamente incorrelacionado.

Ejemplo 6.2.1. Sea Yt ∼ M A(2) dado por

i.i.d.
yt = εt − θ1 εt−1 + θ2 εt−2 , εt ∼ N (0, 9), t ∈ Z,

con

θ1 = −0.4, θ2 = 0.4, σ2 = 9,

entonces


R(0) = 1 + 0.42 + 0.42 9 = 11.88
2−1
X
R(1) = 9 θj θj+1 = 9(θ0 θ1 + θ1 θ2 )
j=0

= 9 − 0.4 + (−0.4)(0.4) = −5.04
2−2
X
R(2) = 9 θj θj+2 = 9(θ0 θ2 ) = 9(0.4) = 3.6.
j=0

Entonces la FAC es

5.04 3.6
ρ(0) = 1, ρ(1) = − = −0.42, ρ(2) =
11.88 11.88
ρ(3) = ρ(4) = · · · = 0
92

True ACF

1.0
0.8
0.6
0.4
True ACF

0.2
0.0
−0.2
−0.4

0 1 2 3 4

Lag

Figura 6.1: Función de Autocorrelación.

Ejercicio 6.2.1. Encuentre la FAC de

1. Yt = εt − 0.5εt−1 − 0.5εt−2 .

2. Yt = εt + 0.6εt−1 − 0.3εt−2 − 0.1εt−3 .

Conclusión De acuerdo con (6.5), si la fac muestral de una serie Yt termina abruptamente
puede tratarse de un M A(q). Por ejemplo, en la siguiente gráfica 6.2 serı́a factible un modelo
MA(3).

Series MA.3
0.8
ACF

0.4
0.0

0 5 10 15

Lag

Figura 6.2: FAC muestral de un M A(3).

Definición 6.2.3 (Función de Autocorrelación Parcial (facp)). Suponga que (Yt , t ∈ Z)


es estacionaria. La facp es una función de k, α(k), k = 1, 2, . . . definida por

1. α(1) = ρ(1)

2. α(k) = Corr(ε1 , εk ) donde

ε1 = Y1 − E(Y1|Y2 , . . . , Yk−1 )
εk = Yk − E(Yk |Y2 , . . . , Yk−1 ), k = 2, . . .
93

Y la facp muestral se define por α̂(k)

1. α̂(1) = ρ̂(1)

2. α̂(2) : se regresa Yt sobre Yt−1 y Yt−2 tal que Yt = φ21 Yt−1 + φ22 Yt−2 + εt entonces
α̂(2) = φ̂22

3. α̂(k) : se regresa Yt sobre Yt−1 , . . . , Yt−k tal que Yt = φk1 Yt−1 + · · · + φkk Yt−k + εt
entonces α̂(k) = φ̂kk

La facp de un proceso Yt ∼ M A(q) se puede encontrar si se asume la condición de


invertibilidad para un M A(q)

6.2.2. Condición de Invertibilidad del Proceso MA(q)

Definición 6.2.4. Dado un proceso MA(q), Yt = θq (L)(εt) donde θq (L) = 1+θ1 L+θ2 L2 +
· · · + θq Lq , entonces considerando el polinomio en z ∈ C, θq (z) = 1 + θ1 z + · · · + θq z q y
sus q raı́ces (z1 , z2 , . . ., zq ) ∈ C, es decir, valores z ∈ C tales que θq (z) = 0, se dice que el
proceso Yt es invertible si se cumple

|zj | > 1, ∀j = 1, . . ., q, (6.6)

o también, si θq (z) 6= 0, ∀z, |z| ≤ 1. Note que (6.6) es equivalente a


1
< 1, ∀j = 1, . . . , q
|zj |

es decir, los inversos de las raı́ces deben caer dentro del cı́rculo unitario complejo.

Ejemplo 6.2.2. Sea Yt ∼ M A(a) tal que

Yt = εt − 0.4εt−1 + 0.4εt−2 , (6.7)

veamos si Yt es invertible. Hallamos las raı́ces del polinomio θq (z)

θ2 (z) = 1 − 0.4z + 0.4z 2 = 0,


p
0.4 ± 0.42 − 4(0.4)(1)
z=
2(0.4)
r r √ r
1 1 10 4 4 1 1 10 36
= ± −4= ± −
2 2 4 10 10 2 2 2 10
√ r
1 1 10 36 1 3
= ± i= ± i
2 2 2 10 2 2
94

por tanto

s    r
1 2 3 2 1
|z| = + ± = + 9 > 1,
2 2 4

luego Yt es invertible.

6.2.3. Función facp de un Proceso MA(q) invertible

Suponga un proceso Yt ∼ M A(q) invertible,

Yt = θq (L)(εt). (6.8)

1
Considere θq (z) = 1 + θ1 z + · · · + θq z q entonces θq (z) 6= 0, |z| ≤ 1, luego la función θq (z)
tiene desarrollo es serie de Taylor alrededor de z = 0, dado por

X ∞
1
= 1 + ψ1 z + ψ2 z 2 + . . . = ψj z j , ψ0 = 1, (6.9)
θq (z)
j=0

P∞
con j=0 ψ 2 < ∞, donde ψj → 0 si j → ∞. Multiplicando ambos miembros de (6.8) por
1
θq (L) se obtiene

1
εt = Yt = ψ(L)(Yt) = Yt + ψ1 Yt−1 + ψ2 Yt−2 + . . . (6.10)
θq (L)

Y despejando Yt

Yt = −ψ1 Yt−1 − ψ2 Yt−2 − · · · + εt , (6.11)

de donde concluı́mos que si hace la regresión de Yt sobre los primeros k rezagos Yt−j , j =
1, . . . , k, entonces el k-ésimo coeficiente es α(k) = ψ(k) 6= 0, ∀k y como ψ(k) → 0
entonces α(k) → 0 cuando k → ∞. Por tanto, la facp de un MA(q) decrece a cero. En las
Figuras siguientes 6.3 se observa la fac y la facp de un MA(3).
95

True ACF True PACF

1.0
0.8

0.6
True PACF
True ACF

0.4

−0.2 0.2
0.0

0 5 10 15 20 5 10 15 20

Lag Lag

(a) F AC (b) F ACP

Figura 6.3: F AC y F ACP de un M A(3).

6.2.4. Implementación en R

En R para identificar se usan las funciones acf y pacf y para estimar una de las funciones
usadas es arma de la librerı́a tseries.

Ejemplo 6.2.3. library(forecast,tseries)


n = 300
theta = c(-1,-0.4,-0.4)
(Mod(polyroot(theta)))
y = arima.sim(list(order=c(0,0,2), ma=theta[2:3]), n=n, sd=sqrt(2.3))

layout(1:3)
ts.plot(y)
acf(y,30)
pacf(y,30)

# Estimación: Función arma librerı́a tseries

modelo.y = arma(x=y, order=c(0,2))


summary(modelo.y)
96

Series y Series y

0.2 0.4
Partial ACF
0.6
ACF

0.0

−0.1
0 5 10 15 20 25 30 5 10 15 20

Lag Lag

(a) F AC (b) F ACP

Figura 6.4: F AC y F ACP del Ejemplo.

pred.y = predict(modelo.y, n.ahead=2)


plot(seq(1,9,1), c(tail(y), pred.y$pred), type=’b’)
points(seq(7,9,1), pred.y$pred, type=’b’, col=’red’)

6.3. Procesos Autoregresivos de Orden p, AR(p)

Definición 6.3.1 (Proceso AR(p)). Se dice que Yn , n ∈ Z sigue un proceso AR(p) si

Yn = ϕ1 Yn−1 + ϕ2 Yn−2 + · · · + ϕp Yn−p + εn , (6.12)

donde εn ∼ RB(0, σ 2). Usando el operador de rezago L se puede escribir (6.12) como

ϕp(L)(Yn ) = εn , (6.13)

con ϕp (z) = 1 − ϕ1 z + ϕ2 z 2 + · · · + ϕpz p , z ∈ C, el polinomio autorregresivo.

Condición Suficiente para que un AR(p) sea Estacionario

La condición suficiente para que Yt ∼ AR(p) sea estacionario en covarianza es que las p
raı́ces del la ecuación ϕp(z) = 0, z1 , z2 , . . ., zp cumplan

|zi | > 1 (6.14)

donde ϕp(z) es el polinomio caracterı́stico del AR(p) definido por


97

ϕp (z) = 1 − ϕ1 z − ϕ2 z 2 − · · · − ϕpz p , z ∈ C, (6.15)


q
Nótese que si zj = aj ± ibj entonces |zj | = a2j + b2j . La condición (6.14) no es, sin
embargo, necesaria. En palabras, la condición (6.14) se describe como “ para que un proceso
autoregresivo de orden p sea estacionario en covarianza, es suficiente que las raı́ces del
polinomio autorregresivo estén por fuera del cı́rculo unitario”. El cı́rculo unitario aparece en
la Figura 6.5. En esta figura se observa la posición de la raı́z zj y su conjugado z̄j .

Figura 6.5: Cı́rculo Unitario

6.3.1. Algunas Propiedades de los Procesos AR(p) Estacionarios

Proposición 6.3.1. Para un proceso Yt ∼ AR(p), definido en (6.12), se tiene E(Yt) = 0.

Demostración. Si Yt es estacionario en covarianza entonces E(Yt ) = µ. Además,

E(Yt) = ϕ1 E(Yt−1 ) + ϕ2 E(Yt−2 ) + · · · + ϕp E(Yt−p) + 0,

pero todas las esperanzas son µ luego

µ = ϕ1 µ + ϕ2 µ + · · · + ϕpµ.

Si µ 6= 0 entonces

1 = ϕ1 + · · · + ϕp

por tanto

ϕp(1) = 0
98

lo cual es una contradicción (→←), ya que ∀ z ∈ C, |z| ≤ 1 entonces

ϕp (z) 6= 0.

luego debe tenerse que µ = 0, es decir, el proceso definido en (6.12) es de media cero.

Un proceso Yt ∼ AR(p) con E(Yt ) = µ 6= 0 se define como

ϕp (L)(Yt) = ϕ0 + εt , (6.16)

donde

ϕ0 = ϕp (L)(µ)
= (1 − ϕ1 − ϕ2 − · · · − ϕp )µ.

Nótese que también se puede escribir Yt = (1−ϕ1 −· · ·−ϕp )µ+ϕ1 Yt−1 +· · ·+ϕp Yt−p +εt ,
de donde Yt − µ = ϕ1 (Yt−1 − µ) + · · · + ϕp (Yt−p − µ) + εt . Es decir, el proceso (Yt − µ)
es AR(p) de media cero.

La Función de Autocovarianza de los Procesos AR(p)

La función de autocovarianza de un proceso Yt ∼ AR(p) estacionario en covarianza, R(k)


se puede calcular resolviendo una ecuación recursiva lineal denominada, en plural, las
ecuaciones de Yule–Walker.
P
Proposición 6.3.2. Suponga un proceso AR(p), Yn = pj=1 ϕj Yn−j + εt , que satisface la
condición de estacionario en covarianza ((6.14)). Su función fac R(k) satisface la ecuación
recursiva
Xp
R(k) = ϕj R(k − j), k = 1, 2, . . . . (6.17)
j=1

denominada, en plural, Ecuaciones de Yule–Walker.

P
Demostración. Colocando µ = E(Yn ), como Yn = pj=1 ϕj Yn−j + εn , al tomar esperanza
P
en ambos miembros se obtiene µ = pj=1 ϕj µ + 0. Restando las expresiones anteriores se
P
obtiene Yn − µ = pj=1 ϕj (Yn−j − µ) + εn . Multiplicando ambos miembros de la identidad
anterior por Yn−k − µ, con k ≤ n, y tomando valor esperado E(.) se obtiene

R(k) = E((Yn − µ)(Yn−k − µ))


99

p
X
= ϕE((Yn−j − µ)(Yn−k − µ)) + E(εn (Yn−k − µ))
j=1
Xp
= ϕj R(k − j).
j=1

En el resultado anterior se tiene E(εn (Yn−k − µ)) = 0 porque, a partir de la definición del
proceso Yn en (6.12), Yn−k depende de εs con s ≤ n−k, que son variables incorrelacionadas
con εn .

La Varianza de los Procesos AR(p)

Si Yt ∼ AR(p) de media cero, estacionario en covarianza entonces ϕp (L)(Yn) = εn , para


εn ∼ RB(0, σ 2 ). Además, se cumple que ∀z, |z| ≤ 1 ϕp (z) 6= 0 entonces el cociente ϕp1(z)
se puede desarrollar en serie de potencias de z, y colocar

X∞
1
= ψj z j ,
ϕp (z)
j=0

para ciertos coeficientes (ψj , j = 0, 1, . . .), con ψ0 = 1. Por tanto, se puede colocar

1
Yn = (εn ) = εn + ψ1 εn−1 + ψ2 εn−2 + . . . . (6.18)
ϕp(L)
P∞
Tomando varianza a ambos miembros de (6.18), se obtiene V ar(Yn ) = σ 2 j=0 ψj .

Estimación de la FAC de un AR(p)

ρ(k) = Corr(Yt , Yt+k ), k = 1, 2, . . ., p, p + 1, . . . (6.19)

cumple que:

1. Se tiene un sistema lineal p × p que cumple


 
1 ρ(1) ··· ρ(p − 1)    
  ϕ1 ρ(1)
 ρ(1) ρ(2) ··· ρ(p − 2)     
   ϕ2   ρ(2) 
A=

ρ(2) ρ(3) ··· ρ(p − 3) , ϕ = 
  .. , ρ = 
  .. ,

 .. .. ..   .   . 
 . . . 
ϕp ρ(p)
ρ(p − 1) ρ(p − 2) · · · 1
100

entonces
Aϕ = ρ. (6.20)
Luego dada ρ̂(1), . . ., ρ̂(p) se puede resolver (6.20) tomando ϕ̂ = Â−1 ρ̂, los esti-
madores de Yule-Walker de ϕ

2.

ρ(k) = ϕ1 ρ(k − 1) + ϕ2 ρ(k − 2) + · · · + ϕp ρ(k − p), k = p, p + 1, . . . (6.21)

Entoces (6.21) forma una ecuación en diferencias finitas con condiciones iniciales
ρ(1), . . ., ρ(p), para ρ(k), k ≥ p + 1, con solución

ρ(k) = s1 g1k + s2 g22 + · · · + sp g2p, (6.22)

donde gi = 1/zi y zi es la i-ésima raı́z de la ecuación caracterı́stica

1 − ϕ1 z − ϕ2 z 2 − · · · − ϕp z p = 0 (6.23)

con |zi | > 1 ⇔ |gi | < 1, luego se debe cumplir que ρ(k) → 0, k → ∞

Nota 6.3.1. Si gi ≈ 1, por ejemplo gi = 1 − ε se tendrá si gik = si (1 − ε)k y por tanto


ρ(k) decae a cero más lento que si gi = ε.

True ACF True ACF


0.8

0.8
True ACF

True ACF
0.4

0.4
0.0

0.0

0 5 10 15 20 0 5 10 15 20

Lag Lag

(a) ϕ = 0.35 (b) ϕ = 0.88

Figura 6.6: FAC de Yt = ϕYt−1 + εt .

FACP de los Procesos AR(p)

La FACP de un procesos AR(p) es α(k) tal que α̂(k) es el coeficiente β̂k,k en la regresión

Yt = β0 + βk,1 Yt−1 + · · · + βk,k Yt−k + at, k=2 (6.24)


101

pero como βk,k = 0 si k ≥ p + 1 entoces α̂(k) = 0 si k ≥ p + 1

65
55
45

2000−09−27 2001−02−20 2001−07−16

Figura 6.7: FACP Muestral de AR(p).

Ejemplo 6.3.1. Sea Yt ∼ AR(2) con


i.i.d.
Yt = ϕ1 Yt−1 + ϕ2 Yt−2 + εt , εt ∼ N (0, σ 2)
Yt = 1.5Yt−1 − 0.9Yt−2 + εt ,
ϕ2 (z) = 1 − 1.5z + 0.9z 2 = 0 ecuación caracterı́stica
z = 0.83 ± 0, 64i, |z| = 1.054 > 1

luego Yt es estacionario en covarianza, además

ρ(k) = 1 − 1.5ρ(k − 1) + 0.9ρ(k − 2), k ≥ 2


ϕ1 1.5
ρ(0) = 1, ρ(1) = = = 0.789.
1 − ϕ2 1.9

6.3.2. Proceso AR(1)

El proceso AR(1) se ha utilizado anteriormente por ejemplo, en la prueba Durbin-Watson.


A continuación se desarrollan algunas de sus propiedades.

Si Yt es un AR(1) de media µ, entonces está definido por

Yt = ϕ0 + ϕ1 Yt−1 + εt , ϕ0 = (1 − ϕ1 )µ, (6.25)

donde el proceso Yt es estacionario si todas la raı́ces z de la ecuación ϕ1 (z) = 0 caen


fuera del circulo unitario |z| > 1. Luego el AR(1) es estacionario en covarianza si y solo si
|ϕ1 | < 1.

Definición 6.3.2 (Marcha Aleatoria). Se dice que Yt es una marcha aleatoria (Random
Walk) si cumple
Yt = µ + Yt−1 + εt , (6.26)
102

nótese que es un AR(1) con ϕ1 = 1.

Propiedades del AR(1)


ϕ0
1. E(Yt) = µ =
1 − ϕ1
σ 2 ϕk1
2. Cov(Yt , Yt+k ) = 1 − ϕk
, k = 0, 1, . . .
1

3. ρ(k) = ϕk1 , −1 < ϕ1 < 1.

Nota 6.3.2. Diebold [1999, pág. 138], Si Yt ∼ AR(1) de media cero estacionario en
covarianza entonces
Yt = ϕ1 Yt−1 + εt , εt ∼ R.B.(0, σ 2)

es decir

(1 − ϕ1 L)Yt = εt

y se puede escribir como


1
Yt = εt ,
1 − ϕ1 L
si se cumple que
X j ∞
1
f (z) = = ϕ1 z j = 1 + ϕ1 z + ϕ21 z 2 + . . .
1 − ϕ1 z
j=0

por que |ϕ1 z| < 1 ya que |ϕ1 | < 1 y |z| < 1. Entonces

Yt = εt + ϕ1 εt−1 + ϕ21 εt−2 + . . . ,

y como los εt son incorrelacionados

V ar(Yt) = σ 2 + ϕ1 σ 2 + ϕ21 σ 2 + . . .
 
2 1
= σ (1 + ϕ1 + ϕ21 + . . .) = σ 2
Varianza Incondicional
1 − ϕ1
Nota 6.3.3. Si Yt ∼ AR(1) de media cero estacionario en covarianza entonces
E(Yt|Yt−1 ) = E(ϕ1 Yt−1 + εy |Yt−1 ) = ϕ1 Yt−1 ,

y si se asume que εt son independientes de yt−1 , Yt−2 , . . .

V ar(Yt |Yt−1 ) = V ar(ϕ1 Yt−1 + εt |Yt−1 )


= ϕ21 V ar(Yt−1|Yt−1 ) + V ar(εt ) = σ 2 Varianza Condicional
103

6.4. Procesos Autoregresivos y de Medias Móviles ARMA(p,q)

Si en un proceso Yt ∼ AR(p)

Yt − ϕ1 Yt−1 − ϕ2 Yt−2 − · · · − ϕp Yt−p = εt , εt ∼ R.B.(0, σ 2), (6.27)

se cambia εt por un modelo M A(q), Zt = εt + θ1 εt−1 + · · · + θq εt−q entonces (6.27) queda

Yt − ϕ1 Yt−1 − · · · − ϕp Yt−p = εt + θ1 εt−1 + · · · + θq εt−q , (6.28)

donde εt ∼ RB(0, σ 2 ). El efecto de este cambio es que los errores no se toman incorrela-
cionados sino con autocorrelación débil. Se define entonces un proceso ARMA(p,q) como
un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades
de ruido débilmente autocorrelacionado en los MA(q), y que tiene suficiente flexibilidad y
parsimonia. Usando la notación del operador de rezago (6.28) se puede definir el proceso
ARM A(p, q) por

Definición 6.4.1. Un proceso Yt ∼ ARM A(p, q) se define mediante la ecuación (6.28), o


también por
ϕp (L)(Yt) = θq (L)(εt), t ∈ Z, (6.29)
P P
donde εt ∼ RB(0, σ 2), y ϕp (z) = 1 − pj=1 ϕj z j , θq (z) = 1 + qj=1 θj z j son los
polinomios autoregresivo y de media móvil respectivamente.

Las condiciones de estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q)


se asumen en el modelo ARMA(p,q), (6.29). Por lo tanto, se asume que las raı́ces de las
ecuaciones ϕp(z) = 0 y θq (z) = 0 están fuera del cı́rculo unitario. Además se asume que
estos polinomios no tienen raı́ces en común. Si se cumplen estas condiciones el proceso
Yt ∼ ARM A(p, q) es estacionario e identificable.

Ejemplo 6.4.1. Sea Yt ∼ ARM A(1, 1) dado por

ϕ1 (L)(Yt) = θ1 (L)(εt) (6.30)

donde ϕ1 (L) = 1 − ϕL y θ1 (L) = 1 + θL. Es decir Yt = ϕYt−1 + εt + θεt−1 . Si |ϕ| < 1 y


|θ| < 1 es estacionario e invertible. Por ejemplo

Yt = 0.9Yt−1 + εt − 0.4εt−1 ,

con εt ∼ RB(0, σ 2 )
104

Ejemplo 6.4.2. Consideremos un modelo de descomposición con tendencia lineal y esta-


cionalidad de perı́odo 12, modelada por variables indicadoras donde el residuo estructural
es un proceso ARM A(1, 1). Entonces el modelo se escribe como el sistema de dos ecua-
ciones siguiente.
11
X
Yt = β0 + β1 t + δj Ij (t) + εt ,
j=1

εt = ϕεt−1 + at + θat−1 ,

con at ∼ RB(0, σ 2 ), el residuo del proceso arma. Nótese que el número de parámetros de
este modelo es 16, incluyendo la varianza σ 2 .

Ejemplo 6.4.3. Considere el proceso Yt ∼ ARM A(2, 1) dado por


1 − 0.4L
Yt = 2 + εt , εt ∼ R.B.(0, σ 2)
1 − 1.5L + 0.9L2
osea

Yt = 2(1 − 1.5 + 0.9) + 1.5Yt−1 − 0.9Yt−3 + εt − 0.4εt−1

con ecuación caracterı́stica

1 − 1.5z + 0.9z 2 = 0

y sus raı́ces dadas por


p
1.5 ± 1.52 − 4(0.9)
z= = 0.83 ± 0.645i
2(0.9)
por tanto

|z| = 1.05 > 1

es un proceso estacionario en covarianza e invertible.

6.4.1. Propiedades de los Modelos ARMA

1. Suponga Yt ∼ ARM A(p, q) entonces E(Yt) = 0. Si el proceso es estacionario


P P∞
entonces se puede expresar θq (z)/ϕp(z) = ∞ j
j=0 ψj z con ψ0 = 1 y j=0 |ψj | < ∞.
A partir de ϕp (L)Yt = θq (L)εt, se puede escribir
X∞
θq (L)
Yt = εt = ψj εt−j = εt + ψ1 εt−1 + ψ2 εt−2 + . . . ,
ϕp(L)
j=0
105

por tanto
E(Yt) = E(εt + ψ1 εt−1 + ψ2 εt−2 + . . . ) = 0.

2. En caso de ser E(Yt) = µ 6= 0 se coloca

θq (L)
Yt = µ + εt (6.31)
ϕp (L)

de donde ϕp(L)Yt = ϕp(1)µ + θq (L)εt. Por ejemplo, sea Yt ∼ ARM A(1, 1) con
E(Yt) = µ entonces
1 + θL
Yt = µ + εt
1 − ϕL

luego

(1 − ϕL)Yt = (1 − ϕL)µ + (1 − θL)εt

pero (1 − ϕL)µ = µ − ϕµ = (1 − ϕ)µ, luego

Yt = (1 − ϕ)µ + ϕYt−1 + εt + θεt−1 .

3. La función de autocovarianza de un proceso Yt ∼ ARMA(p,q) estacionario de media


cero. Si se indica por R(k) = Cov(Yt , Yt+k ) su función de autocovarianza, para
k = 0, 1, . . . un método para calcular esta función se basa en la representación
P
ϕp (L)Yt = θq (L)εt , con θq (z)/ϕp(z) = ∞ j
j=0 ψj z . Multiplicando ambos miembros
por Yt−k y tomando esperanza E(.) se obtienen las ecuaciones recursivas siguientes,
similares a las ecuaciones Yule-Walker para AR(p), (6.17). Defina n = max(p, q + 1),


σ 2 Pq
j=k θj ψj−k , si k = 0, 1, . . ., n − 1
R(k)−ϕ1 R(k−1)−. . .−ϕp R(k−p) =
0, si k = n, n + 1, . . . .
(6.32)

Ejemplo 6.4.4. (tomado de Brockwell and Davis [2002], pag. 93). Considere el
proceso ARMA(2,1) dado por (1−L+ 14 L2 )Yt = (1+L)εt. Entonces n = max(p, q+
1) = 2, por tanto, para k = 0, 1 se tiene el sistema lineal

1
R(0) − R(1) + R(2) = σ 2 (ψ0 θ0 + ψ1 θ1 ) = σ 2 (1 + ψ1 ),
4
1
R(1) − R(0) + R(1) = σ 2 (θ1 ψ0 ) = σ 2 ψ0 = σ 2 . (6.33)
4
106

Para calcular los coeficientes (ψj , j = 0, 1, . . .) se puede utilizar la función de


R, ARMAtoMA(a,b,m), la cual calcula los coeficientes ψj , j = 1, 2, . . ., m,
dados los vectores a = (ϕ1 , . . ., ϕp) y b = (θ1 , . . . , θq ). Entonces, escribiendo
ARMAtoMA(c(1.0, -0.25), 1.0, 10), se obtiene el vector

[1] 2.00000000 1.75000000 1.25000000 0.81250000 0.50000000


[6] 0.29687500 0.17187500 0.09765625 0.05468750 0.03027344

de donde ψ1 = 2. Usando la segunda ecuación de (6.32), se obtiene R(2) = R(1) −


1
4 R(0), luego, reemplazando en el sistema (6.33), y resolviendo, se obtienen R(0) =
32σ 2 /3, R(1) = 28σ 2 /3. Utilizando la segunda ecuación de (6.32),
1
R(k) = R(k − 1) − R(k − 2), k = 2, 3, . . .
4
se puede calcular la autocovarianza recursivamente.

4. La varianza de un proceso Yt ∼ ARMA(p,q) estacionario de media cero. Es evidente


que a partir de la primera ecuación en (6.32) se puede definir un sistema lineal una de
cuyas incógnitas es R(0), la cual se resuelve en función de σ 2 .

6.4.2. Librerı́as para identificación, estimación y pronósticos de modelos AR-


MA

El plan de análisis con procesos ARMA consiste en

1. Identificar el modelo ARMA(p,q).

2. Estimar el modelo.

3. Chequeo del ajuste del modelo a los datos.

4. Pronósticos con el modelo. O simulación del modelo.

Algunas de las librerı́as y funciones a utilizar para este análisis son

1. stat, con la función arima(), estima primero por mı́nimos cuadrados condicionales y
luego por máxima verosimilitud.

2. tseries, con la función arma(), estima mediante mı́nimos cuadrados condicionales.

3. forecast, con la función auto.arima(), para identificación de modelos ARIMA.


107

4. FitAR, FitARMA, para estimación de AR(p) y ARMA(p,q).

5. timsac, con la función autoarmafit(), para identificación del modelo ARMA(p,q) con
menor AIC. El programa asume que el modelo ARMA(p,q) se define con θq (z) =
P
1 − qj=1 θj z j , es decir, los coeficientes θj se cambian de signo en esta librerı́a.
También tiene la función armafit() para ajuste de modelos ARMA.

6.4.3. Identificación de modelos ARMA

No es fácil identificar los modelos ARM A(p, q) mediante la FAC y FACP. Si (q ≥ p ≥ 1)


entonces para (k ≥ q + 1) se cumple (6.21) y para 1 ≤ k ≤ p − 1, ρ(k) no tiene un patrón
general, luego la FAC muestral presenta un patrón definido solamente para k ≥ q + 1.

Figura 6.8: Fac Muestral de ARM A(p, q).

Una alternativa consiste en buscar una pareja de órdenes (p, q) dentro de un rango inicial,
por ejemplo p, q = 0, 1, . . . , 10, que minimice alguna función de ε̂2 , como por ejemplo el
AIC ó el BIC.

6.4.4. Estimación de modelos ARMA

La estimación de procesos Yt ∼ ARMA(p,q) se basa en un supuesto: que el vector Y =


(Y1 , . . . , Yn )0 se distribuye Normal multivariado con media µ, y matriz de covarianzas
Σ = [Cov(Yi , Yj )]n×n . Como el proceso se asume estacionario, se cumple Cov(Yi , Yj ) =
R(j − i), donde R(k) es la función de autocovarianza de Yt . La forma de Σ es la de una
108

matriz tipo Toeplitz: las diagonales descendentes son constantes:


 
R(0) R(1) ··· R(n − 1)
 R(1) R(0) ··· R(n − 2) 
 
 
Σ=

R(2) R(1) ··· R(n − 3) .
 (6.34)
 .. .. .. 
 . . . 
R(n − 1) R(n − 2) · · · R(0)

Por ejemplo, para Yt un AR(p), R(k) se calcula mediante las ecuaciones Yule-Walker, (6.17),
P
R(k) = µ + pj=1 ϕj R(k − j). Por tanto, colocando β = (µ, σ 2 , ϕ1 , . . . , ϕp, θ1 , . . ., θq )0 ,
la matriz Σ depende del vector β, y se escribe Σ(β). Este supuesto permite implementar la
estimación por máxima verosimilitud. Se escribe la densidad Normal Multivariada como
 
1 1 −1 0
f (y, β) = q exp − (y − µ)Σ(β) (y − µ) (6.35)
(2π)n/2 det(Σ(β)) 2

donde µ = (µ, . . ., µ)0 ∈ Rn . La función de log-verosimilitud se define a partir del logaritmo


de la densidad (6.35), log(f (y, β)), y está dada por

n
X
L(β) := log f (yj , β)
j=1
n 1 1
= − log(2π) − log det(Σ(β)) − (y − µ)0 Σ(β)−1 (y − µ). (6.36)
2 2 2
El estimador ML de máxima verosimilitud de β se define como

b = argmin(−L(β)).
β (6.37)
β

La identificación con base en el AIC se basa en comparar varios modelos ARM A(p, q) para
valores de, por ejemplo, p = 0, 1, . . ., 20 y p = 0, 1, . . . , 20 con base en el criterio AIC el
cual está definido por

b + 2k,
AIC = −2L(β) k = p+q (6.38)

Entonces identifica un posible modelo parsimonioso escogiendo el modelo con el mı́nimo


AIC.

Ejemplo 6.4.5. Suponga que se requiere simular un ARM A(3, 2) tal que se escogen las
raı́ces de ϕ3 (z) y θ2 (z), con inversos dentro del cı́rculo unitario.
109

z1 = complex(3)
z1[1] = -0.8 - 1.3i
z1[2] = conj(z1[1])
z1[3] = 1.2

Entonces ϕ3 (z) = 1 − ϕ1 z − ϕ2 z 2 − ϕ3 z 3

(z-z1[1])(z-z1[2])(z-z1[3])

= −2.796 + 0.41z + 0.4z 2 + z 3 polinomio mónico

-z1[1]z1[2]z1[3] = -2.2796
a = poly.calc(z1)
a = a/a[1]

z2 = complex(2)
z2[1] = -1.2 -0.5i
z2[2] = conj(z2[1])
b = poly.calc(z2)
b = b/b[1]
n = 300

y = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,


sd=sqrt(0.3))

require(forecast)
auto.arima(y)

y1 = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,


sd=sqrt(0.3), randgeb = function(n,...))
auto.arima(y1)
stats::arima(y1)
mod1 = stats::arima(y1, c(3,0,2))
py1 = predict(mod1, n.ahead=20)

plot(1:70, c(y[(3200-49):3200],py1$pred),
110

ylim=c(min(py1$pred-1.64*py1$se),max()), type=’b’, col=2)


points(51:70,py1$pred, type=’b’, col=’blue’)
points(51:70, py1$pred+1.64*py1$se, type=’l’, col=’blue’)
points(51:70, py1$pred-1.64*py1$se, type=’l’, col=’blue’)

6.4.5. Pronósticos con modelos ARMA

También podría gustarte