Está en la página 1de 116

Econometría Avanzada I — Modelos Lineales Univariados

Rodrigo Herrera
Facultad de Economía y Negocios

Programa de Magister en Economía


Universidad de Talca
2 | 115

Contenido
Componentes 3 | 115

Contenido

Componentes

Tendencia
Tendencia determinista
Tendencia estocástica

Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica

Series Estacionarias: Perturbaciones de corto plazo


Estacionariedad
Función de auto-covarianza
Función de auto-correlación (FAC)
Función de auto-correlación parcial (FACP)
Componentes 4 | 115

Descomposición

Descomposición
Las series de tiempo se pueden descomponer en 4 elementos:

Xt = mt + st + ct + Yt

• Tendencia (mt ); ver Figura 1.


• Estacionalidad (st ); ver Figura 24.
• Oscilación cíclica (ct ); ver Figura 3.
• Perturbaciones de corto plazo - Dependencia (Yt ); ver Figura 4.
Componentes 5 | 115

Figura: Ejemplo de tendencias


Componentes 6 | 115

Figura: Ejemplo estacionalidad


Componentes 7 | 115

Figura: Ejemplo oscilación


Componentes 8 | 115

Figura: Ejemplo dependencia


Tendencia 9 | 115

Contenido

Componentes

Tendencia
Tendencia determinista
Tendencia estocástica

Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica

Series Estacionarias: Perturbaciones de corto plazo


Estacionariedad
Función de auto-covarianza
Función de auto-correlación (FAC)
Función de auto-correlación parcial (FACP)
Tendencia Tendencia determinista 10 | 115

Nota
Logaritmo
Muchas veces las series evolucionan proporcional al nivel inicial. Es decir que
los aumentos se consideran proporcional al nivel inicial, e.g.
xt − xt−h
mh = , h = 1, 2, 3, · · · .
xt−h
En estos casos, la transformación logarítmica nos sirve para eliminar la
proporcionalidad.
xt = xt−1 (1 + m1 ), (1)
Si tomamos logaritmo en ambos lados de la igualdad (1) tenemos

log (xt ) = log (xt−1 ) + log(1 + m1 ). (2)

Cuando m1 es pequeño
log(1 + m1 ) ≈ m1 ,
por lo que
m1 = log (xt ) − log (xt−1 ). (3)
Tendencia Tendencia determinista 11 | 115

Figura: Transformación logarítmica - Exportaciones Españolas - Datos Mensuales.


Tendencia Tendencia determinista 12 | 115

Ruido Blanco

Ruido Blanco
Un proceso que vamos a mencionar mucho en este curso es Ruido Blanco o
proceso White Noise. Este proceso se caracteriza por tener media cero, varianza
constante, y al menos ser incorrelado con su propio pasado y cualquier otro
proceso. Es decir, que si definimos a εt como un proceso ruido blanco entonces

E(εt ) = 0,

V(εt ) = σ 2 ∀t,
Cov(εt , εt−h ) = 0 ∀h ∈ E+ ,
Tendencia Tendencia determinista 13 | 115

Tendencia lineal

Una serie puede tener un componente tendencial lineal. Digamos


xt = a + bt + Yt ,
donde a y b son constantes, t es el tiempo y Yt es, por ahora, un proceso ruido blanco.

Figura: Tendencia creciente y decreciente lineales.


Tendencia Tendencia determinista 14 | 115

Tendencia cuadrática

Una serie puede tener un componente tendencial cuadrático. Digamos


xt = a + bt + ct2 + Yt ,
donde a, b y c son constantes, t es el tiempo y Yt es, por ahora, un proceso ruido
blanco.

Figura: Tendencia cuadrática.


Tendencia Tendencia determinista 15 | 115

Tendencia no-lineal

Una serie puede tener un componente tendencial segmentado. Digamos


Xt = a + a1 I(t≥T b) + bt + b1 (t − T b + 1)I(t≥T b) + ct2 + Yt ,
donde a, b y c son constantes, t es el tiempo, I(t≥T b) es una función indicadora que
asumirá el valor 1 (uno) si el tiempo es mayor o igual a T b 0 (cero) en caso contrario
y Yt es, por ahora, un proceso ruido blanco.

Figura: Tendencia segmentada.


Tendencia Tendencia determinista 16 | 115

Estimación tendencia segmentada 1

Figura: Tendencia segmentada Xt = a + a1 I(t≥T b) + bt + Yt .


Tendencia Tendencia determinista 17 | 115

Estimación tendencia segmentada 2

Figura: Tendencia segmentada Xt = a + bt + b1 (t − T b)I(t≥T b) + Yt .


Tendencia Tendencia determinista 18 | 115

Estimación tendencia segmentada 3

Figura: Tendencia segmentada Xt = a + a1 I(t≥T b) + bt + b1 (t − T b)I(t≥T b) + Yt .


Tendencia Tendencia estocástica 19 | 115

Diferencia

Antes de definir lo que es una tendencia estocástica, vamos a definir la


diferenciación de series de tiempo. Supongamos que tenemos una serie Xt , la
diferencia de ésta se define y se denota como sigue:

∆Xt = Xt − Xt−1 , t = 2, 3, · · · , T.

En forma similar para ∆XT −1

∆Xt−1 = Xt−1 − Xt−2 , t = 3, 4, · · · , T.

De esta definición podemos definir una segunda diferenciación como sigue:

∆2 Xt = ∆(∆Xt )
= ∆(Xt − Xt−1 )
= ∆Xt − ∆Xt−1
= (Xt − Xt−1 ) − (Xt−1 − Xt−2 )
= Xt − 2Xt−1 + Xt−2 , t = 3, 4, · · · , T.
Tendencia Tendencia estocástica 20 | 115

Diferencia

El análisis anterior de diferenciación de una serie de tiempo puede simplificarse


mediante el uso del operador de rezago o retardo L. Este operador cumple con
la siguiente propiedad:

LXt = Xt−1 ,
L2 Xt = L(Xt−1 ) = Xt−2
3
L Xt = L(Xt−2 ) = Xt−3
Lk = Xt−k , k = 4, 5, 6, · · · .
Usando este operador la diferencia de series de tiempo puede expresarse como sigue,
supongamos que tenemos una serie Xt , la diferencia de ésta se define y se denota
como sigue:
∆Xt = (1 − L)Xt = Xt − LXt = Xt − Xt−1 , t = 2, 3, · · · , T.
Luego,
∆2 Xt = (1 − L)2 Xt = (1 − L)(1 − L)Xt
= (1 − 2L + L2 )Xt
= Xt − 2Xt−1 + Xt−2 , t = 3, 4, · · · , T.
Tendencia Tendencia estocástica 21 | 115

Oscilaciones locales de nivel

Podemos tener una serie que tiene una tendencia que no es ni creciente ni decreciente,
Xt = µt + Yt
µt = µt−1 + ηt ,
donde Yt es, por ahora, un proceso ruido blanco y ηt es también un proceso ruido
blanco.

Figura: Tendencia con oscilaciones locales de nivel.


Tendencia Tendencia estocástica 22 | 115

Tomamos esperanza a la diferencia de la series para ver si existe un cambio


sistemático hacia el alza o la baja

E(∆Xt ) = E(Xt − Xt−1 )


= E(µt + Yt − µt−1 − Yt−1 )
= E(ηt + Yt − Yt−1 ) = 0.

Claramente se observa que, en promedio, no hay un cambio sistemático en el


proceso original, es decir en Xt .
Tendencia Tendencia estocástica 23 | 115

Tendencia estocástica constante

Suponga que tenemos una serie que tiene una tendencia - creciente o decreciente -
pero constante,
Xt = µt + Yt
µt = µt−1 + β + ηt ,
donde Yt es, por ahora, un proceso ruido blanco, β es una constante y ηt es un
proceso ruido blanco.

Figura: Tendencia estocástica constante.


Tendencia Tendencia estocástica 24 | 115
Tendencia Tendencia estocástica 24 | 115

Estimación tendencia estocástica constante como determinista

Figura: Tendencia estocástica constante estimada como determinista.


Tendencia Tendencia estocástica 25 | 115

Tomamos esperanza a la diferencia de la series para ver si existe un cambio


sistemático hacia el alza o la baja

E(∆Xt ) = E(Xt − Xt−1 )


= E(µt + Yt − µt−1 − Yt−1 )
= E(ηt + β + Yt − Yt−1 ) = β.

Como podemos apreciar, el valor de β determinará si existe un crecimiento


sistemático o un decrecimiento sistemático en Xt .
Tendencia Tendencia estocástica 26 | 115

Eliminación de la tendencia estocástica

Figura: Tendencia estocástica constante: (1 − L)Xt .


Tendencia Tendencia estocástica 27 | 115

Tendencia estocástica no constante

Suponga que tenemos una serie que tiene una tendencia que no es
constante,
Xt = µt + Yt
µt = µt−1 + βt + ηt
βt = βt−1 + ξt ,
donde Yt es, por ahora, un proceso ruido blanco, y ηt y ξt son también
procesos ruido blanco.
Tendencia Tendencia estocástica 28 | 115

Tendencia estocástica no constante

Figura: Tendencia estocástica no constante.


Tendencia Tendencia estocástica 29 | 115

Tendencia estocástica no constante estimada como determinista

Figura: Tendencia estocástica no constante estimada como determinista: residuos.


Tendencia Tendencia estocástica 30 | 115

Tomamos esperanza a la diferencia a la diferencia de la series para ver si existe


un cambio sistemático hacia el alza o la baja

E(∆Xt ) = E(Xt − Xt−1 )


= E(µt + Yt − µt−1 − Yt−1 )
= E(ηt + βt + Yt − Yt−1 ) = E(βt ).

Como podemos apreciar, el valor de E(βt ), que en este caso es variable en el


tiempo, determinará si existe un crecimiento o un decrecimiento en Xt . Ahora
si volvemos a tomar diferencia tendremos,

E(∆2 Xt ) = E (1 − L)2 Xt
 

= E [(1 − L)(ηt + βt + (1 − L)Yt )]


E ηt − ηt−1 + βt − βt−1 + (1 − L)2 Yt
 
=
= E [ηt − ηt−1 + ξt + Yt − 2Yt−1 + Yt−2 ] = 0.
Tendencia Tendencia estocástica 31 | 115

Tendencia estocástica variable

Figura: Tendencia estocástica variable: diferenciad 1ra y 2da, (1 − L)2 Xt .


Estacionalidad 32 | 115

Contenido

Componentes

Tendencia
Tendencia determinista
Tendencia estocástica

Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica

Series Estacionarias: Perturbaciones de corto plazo


Estacionariedad
Función de auto-covarianza
Función de auto-correlación (FAC)
Función de auto-correlación parcial (FACP)
Estacionalidad Estacionalidad determinista 33 | 115

Componente estacional determinista

De la misma forma que vimos para la tendencia, el componente estacional


puede ser modelado en forma determinista mediante el uso de variables ficticias
o Dummy’s como sigue:
S
X
Xt = bt + bj Sjt + Yt , (4)
j=1

donde S es la periodicidad estacional; e.g. S = 12 para datos mensuales, S = 4


para datos trimestrales, S = 2 para datos semestrales. bj , j = 1, 2, · · · , S son
constantes, Sjt , j = 1, 2, · · · , S son variables ficticias o “Dummies”que asumen
el valor 1 (uno) cuando el período del año es j y cero en otro caso.
En forma alternativa podemos escribir el modelo (4) como sigue
S−1
X
Xt = a + bt + bj Sjt + Yt , (5)
j=1
Estacionalidad Estacionalidad determinista 34 | 115

Componente estacional determinista

Figura: Componente estacional con tendencia determinista.


Estacionalidad Estacionalidad determinista 35 | 115

Estimación modelo estacionalidad determinista

Figura: Componente estacional determinista: estimación.


Estacionalidad Estacionalidad estocástica 36 | 115

Componente estacional estocástico

De la misma forma que vimos para la tendencia, el componente estacional


puede ser modelado en forma estocástica como sigue

Xt = µt + δt + Yt , (6)

donde µt es la media o nivel de la serie y δt es el componente estacional y está


definido como sigue
S−1
X
δt = − δt−j + ζt , (7)
j=1

donde ζt es un proceso ruido blanco.


Estacionalidad Estacionalidad estocástica 37 | 115

Componente estacional estocástico

Figura: Componente estacional con tendencia estocástica.


Estacionalidad Estacionalidad estocástica 38 | 115

Estimación modelo estacionalidad estocástico estimado como


determinista:

Figura: Componente estacional estocástico estimado como determinista.


Estacionalidad Estacionalidad estocástica 39 | 115

Estimación modelo estacionalidad estocástico estimado como


determinista:

Figura: Componente estacional estocástico: (1 − L12 )(1 − L)Xt .


Series Estacionarias: Perturbaciones de corto plazo 40 | 115

Contenido

Componentes

Tendencia
Tendencia determinista
Tendencia estocástica

Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica

Series Estacionarias: Perturbaciones de corto plazo


Estacionariedad
Función de auto-covarianza
Función de auto-correlación (FAC)
Función de auto-correlación parcial (FACP)
Series Estacionarias: Perturbaciones de corto plazo Estacionariedad 41 | 115

Estacionariedad

Definición 1.1 (Estacionariedad)


Una serie de tiempo Xt , t ∈ E es considera estacionaria si verifica:
• E|Xt |2 < ∞,
2
• V(Xt ) = σX , t ∈ E,
• E(Xt ) = m, t ∈ E,
• γX (r, s) = γX (r + t, s + t), r, s, t ∈ E.

Esta definición suele encontrarse como estacionariedad débil, estacionariedad en


co-varianza, estacionariedad en momento de orden 2. En palabras esta
definición dice que deben existir los momentos hasta de orden 2 y que la
relación entre dos valores separados en el tiempo sólo dependen de dicha
separación y no del momento del tiempo en el que se miden.
Series Estacionarias: Perturbaciones de corto plazo Estacionariedad 42 | 115

Figura: Serie de tiempo estacionaria.


Series Estacionarias: Perturbaciones de corto plazo Estacionariedad 43 | 115

Estacionariedad

Definición 1.2 (Estacionariedad Estricta)


Una serie de tiempo Xt , t ∈ E es considera estacionaria en forma estricta
si la distribución conjunta de {Xt1 , Xt2 , · · · , Xtk } y
{Xt1 +h , Xt2 +h , · · · , Xtk +h } son iguales para todo valor entero positivo
de k y para todo t1 , t2 , · · · , tk , h ∈ E.

En palabras esta definición dice las características estadísticas de dos


bloques iguales de tiempo de la variable Xt tienen que ser similares.
Series Estacionarias: Perturbaciones de corto plazo Estacionariedad 44 | 115

Estacionariedad

Nota: Relación entre estacionariedad débil y estricta


• A priori no podemos decir que estacionariedad estricta implica
estacionariedad débil. Sin embargo, si se tiene estacionariedad
estricta y se verifica que existen los momentos hasta de orden
2, entonces sí podemos decir que se verifica la estacionariedad
débil.
• Estacionariedad débil no implica estacionariedad estricta.
• Sólo en el caso en que Xt tenga distribución normal con
parámetros finitos entonces una estacionariedad implica a la
otra y viceversa.
Series Estacionarias: Perturbaciones de corto plazo Función de auto-covarianza 45 | 115

Función de auto-covarianza

Definición 1.3 (Función de auto-covarianza)


Sea un proceso Xt , t ∈ {1, T }, que verifica V(Xt ) < ∞, ∀t, entonces la
función de auto-covarianza γX (., .) de Xt se define como

γX (r, s) = Cov(Xr , Xs )
= E [(Xr − E(Xr ))(Xs − E(Xs ))] , r, s ∈ {1, T } . (8)
Series Estacionarias: Perturbaciones de corto plazo Función de auto-covarianza 46 | 115

Función de auto-covarianza

Sea una serie Xt , t ∈ {1, T }, observada que verifica V(Xt ) < ∞, ∀t,
entonces la función de auto-covarianza muestral γ bX (., .) de Xt se
define como
T −h
1 X
γ
bX (t + h, t) = (Xt+h − X̄)(Xt − X̄), 0 ≤ h < T, (9)
T t=1

1
PT
donde X̄ = T t=1 Xt .
Series Estacionarias: Perturbaciones de corto plazo Función de auto-covarianza 47 | 115

Cuando la series es estacionaria

Nota
En el caso de una series Xt que es estacionaria vemos que se verifica
γX (r, s) = γX (r − s, 0), s, t ∈ E.

De esta forma y por conveniencia en la notación vamos a escribir, sólo en


los casos en que la series sea estacionaria,
γX (k) = γX (r, s)
= γX (r − s, 0)
= E [(Xt+k − E(Xt+k ))(Xt − E(Xt ))] , t, k ∈ E,
donde k = r − s.
Series Estacionarias: Perturbaciones de corto plazo Función de auto-covarianza 48 | 115

Ejemplo de función de auto-covarianza muestral

γ
b(t, t) = V(X
b t ) = 1,6741
γ
b(t + 1, t) = 0,6106
γ
b(t + 2, t) = 0,1975
b(t + 3, t) = −0,1112
γ
b(t + 4, t) = −0,8031
γ
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación (FAC) 49 |
115

Función de auto-correlación

Definición 1.4 (Función de auto-correlación)


Sea un proceso Xt , t ∈ {1, T }, que verifica V(Xt ) < ∞, ∀t, entonces la
función de auto-correlación ρX (., .) de Xt se define como
Cov(Xr , Xs )
ρX (r, s) = p
V(Xr )V(Xs )
E [(Xr − E(Xr ))(Xs − E(Xs ))]
= q , r, s ∈ {1, T } . (10)
E [Xr − E(Xr )]2 E [Xs − E(Xs )]2
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación (FAC) 50 |
115

Función de auto-correlación

Sea una serie Xt , t ∈ {1, T }, observada que verifica V(Xt ) < ∞, ∀t,
entonces la función de auto-correlación muestral ρbX (., .) de Xt se
define como
γ
bX (t + k, t)
ρbX (t + k, t) = q , 0 ≤ k < T. (11)
b r )V(X
V(X b s)
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación (FAC) 51 |
115

Ejemplo de función de auto-correlación muestral

ρb(t + 1, t) = 0,3654
ρb(t + 2, t) = 0,1182
ρb(t + 3, t) = −0,0666
ρb(t + 4, t) = −0,4806
ρb(t + 5, t) = −0,1058
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
52 | 115

Función de auto-correlación parcial

Definición 1.5 (Función de auto-correlación parcial)


Sea un proceso Xt , t ∈ {1, T }, estacionario con media cero y que verifica
V(Xt ) < ∞, ∀t. Ahora, definimos el mejor predictor lineal usando los últimos
k − 1 valores históricos de la serie
bt = α1 Xt−1 + α2 Xt−2 + · · · + αk−1 Xt−k+1 .
X

En forma similar, el mejor predictor lineal de Xt−k usando los siguientes k − 1


valores de la serie está definido por
bt−k = α1 Xt−k+1 + α2 Xt−k+2 + · · · + αk−1 Xt−1 .
X

Entonces, la correlación parcial de orden k de Xt , αkk , puede ser definida como


la correlación entre Xt y Xt−k “ajustados”, es decir
 
αkk = Corr Xt − X bt , Xt−k − Xbt−k . (12)
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
53 | 115

Ejemplo de función de auto-correlación parcial muestral

α
b11 = 0,7746
α
b22 = −0,6919
α
b33 = −0,0203
α
b44 = −0,0146
α
b55 = −0,0085
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
54 | 115

Las ecuaciones de Yule-Walker

Sea Xt una serie de tiempo estacionaria con media cero, entonces el mejor
predictor lineal basado en las p últimas observaciones de la serie está definido
por
Xbt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p .

Ahora, si a este predictor lo multiplicamos por Xt−k y tomamos esperanza


tenemos que

γX (k) = φ1 γX (k − 1) + φ2 γX (k − 2) + · · · + φp γX (k − p), k > 0. (13)

Si dividimos (13) por la varianza γX (0) tendremos

ρX (k) = φ1 ρX (k − 1) + φ2 ρX (k − 2) + · · · + φp ρX (k − p), k > 0. (14)


Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
55 | 115

Las ecuaciones de Yule-Walker

Podemos formar un sistema de ecuaciones haciendo variar k = 1, 2, · · · , p,


tendremos
ρ1 = φ1 + φ2 ρ1 + φ3 ρ2 + ··· + φp ρp−1
ρ2 = φ1 ρ1 + φ2 + φ3 ρ1 + ··· + φp ρp−2
ρ3 = φ1 ρ2 + φ2 ρ1 + φ3 + ··· + φp ρp−3
(15)
. . . . .
. . . . .
. . . . ··· .
ρp = φ1 ρp−1 + φ2 ρp−2 + φ2 ρp−3 + ··· + φp
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
56 | 115

Las ecuaciones de Yule-Walker

Jugando con la notación de las ecuaciones de Yule-Walker en (15) tendremos


ρ1 1 ρ1 ρ2 ··· ρk−1 αk1
    
 ρ2   ρ1 1 ρ1 ··· ρk−2   αk2 
 . = . . . . . (16)
    
 .. . . . . .
 
  . . . ··· .  . 
ρk ρk−1 ρk−2 ρk−3 ··· ρ1 αkk
En forma compacta podemos escribirlo

P k αk = ρk .

Entonces, resolviendo el sistema para k = 1, 2, · · · sucesivamente obtenemos

α11 , α22 , · · · , αkk .

En la práctica, como tenemos que estimar todos los parámetros, se usa la


siguiente expresión
bk1 ρbX (j − 1) + α
ρbX (j) = α bk2 ρbX (j − 2) + · · · + α
bkk ρbX (j − k), j = 1, 2, · · · , k. (17)
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
57 | 115

Figura: Ejemplo correlograma completo: AR(2)


Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
58 | 115

Correlaciones significativamente diferentes de cero

Definición 1.6 (Estadístico Q (Ljung-Box-Pierce))


Sea Xt un proceso ruido blanco, entonces
K
X ρb2X (k)
Q = T (T + 2) . (18)
T −k
k=1

Este estadístico tiene una distribución asintótica igual a χ2K .


Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
59 | 115

Correlaciones significativamente diferentes de cero

Entonces, usando el estadístico (18) y podemos plantear las siguientes


hipótesis:

H0 : ρX (1) = · · · = ρX (K) = 0 versus H1 : H0 es falsa.

Cuando el valor del estadístico es muy grande rechazamos a hipótesis nula, lo


que significa que al menos una de las correlaciones entre los órdenes 1 y K es
diferente de cero.
Modelos lineales para series estacionarias 60 | 115

Contenido

Modelos lineales para series estacionarias


Modelos autorregresivos
Modelos de medias móviles
Modelos ARMA
Especificación, estimación y validación de modelos ARMA
Especificación inicial
Estimación
Valoración de modelos
Modelos lineales para series estacionarias 61 | 115

Series estacionarias

Todo proceso estocástico estacionario puede ser aproximado tanto como


se desee ya sea a través de un proceso MA(q), un AR(q), o una
combinación de ambos, es decir un proceso ARMA(p,q). La justificación
de esta afirmación viene dada por un teorema fundamental de
representación, y es el que nos permite estimar modelos lineales para
representar series que son estacionarias.
Modelos lineales para series estacionarias 62 | 115

Teorema 2.1 (Teorema de Wold)


2
Sea Xt,T un proceso estacionario, si σX > 0, entonces X1,T puede ser
expresado como sigue

X
Xt = ψj εt−j + dt ,
j=0

donde
P∞
• j=0 ψj2 < ∞, (ψ0 = 1)
• εt es un proceso ruido blanco,
• dt es una variable determinista.
Modelos lineales para series estacionarias Modelos autorregresivos 63 | 115

AR(1)

Auto-regresivo de orden 1 AR(1)


En un modelo auto-regresivo de 1 - AR(1), la serie observada en el momento t
como una combinación lineal entre la innovación actual y el pasado inmediato
de la serie observada,
Xt = c + φXt−1 + εt , (19)
donde c es una constante. Un proceso de medias móviles es siempre
estacionario. En forma alternativa el modelo en (19) se puede escribir como
sigue
φ(L)Xt = (1 − φL)Xt = c + εt . (20)
Modelos lineales para series estacionarias Modelos autorregresivos 64 | 115

AR(1)

Estacionariedad
La condición para que el proceso AR(1) sea estacionario es que verifique

X
Xt = c + φXt−1 + εt = ψj εt−j + dt ,
j=0

c
en este caso dt = 1−φ
, y
∞ ∞
X 1 X j j
ψj Lj = = φ L ,
j=0
1 − φL j=0

y que

X
φ2j < ∞ =⇒ |φ| < 1.
j=0
Modelos lineales para series estacionarias Modelos autorregresivos 65 | 115

Estacionariedad
En forma alternativa podemos podemos llegar al mismo resultado mirando que
las raíces del polinomio característico asociado a la variable Xt estén fuera del
círculo unitarios, es decir

1
φ(L) = 0 ⇔ (1 − φL) = 0, −→ L = > 1 =⇒ |φ| < 1.
φ
Modelos lineales para series estacionarias Modelos autorregresivos 66 | 115

AR(1)

Figura: Ejemplos de AR(1): φ = −0,7,φ = 0,7.


Modelos lineales para series estacionarias Modelos autorregresivos 67 | 115

AR(1)

Función de auto-covarianza y auto-correlación


La función de auto-covarianza está definida por
γ(k) = E[(Xt − E(Xt ))(Xt−k − E(Xt−k ))]
= φk γ(0)
= φk σ X
2
, k ≥ 1,

donde
2 σε2
σX = .
1 − φ2
La función de auto-correlación está definida por
γ(k)
ρ(k) = = φk , k ≥ 1.
γ(0)
Modelos lineales para series estacionarias Modelos autorregresivos 68 | 115

AR(1)

Función de auto-correlación parcial


La función de auto-covarianza parcial está definida por según la ecuación (12) como
sigue  
αkk = Corr Xt − X bt , Xt−k − X bt−k .

En nuestro caso X
bt y X
bt−k están definido por

X
bt = φXt−1 , X
bt−k = φXt−k+1 .

Ahora, la correlación parcial de orden 1 será


α11 = Corr (X2 , X1 ) = Corr (φX1 + ε2 , X1 )
= φCorr (X1 , X1 ) = φ.
La correlación parcial de orden 2 será
 
α22 = Corr X3 − X b3|2 , X1 = Corr (φX2 + ε3 − φX2 , X1 )

= Corr (ε3 , X1 ) = 0.
La correlación parcial de orden k ≥ 2 será
 
αkk = Corr Xk+1 − X bk+1|1,2,3,··· ,k , X1 = Corr (φXk + εk+1 − φXk , X1 )

= Corr (εk+1 , X1 ) = 0.
Modelos lineales para series estacionarias Modelos autorregresivos 69 | 115

AR(1)

Figura: Ejemplo AR(1): Correlograma (φ = −0,7)


Modelos lineales para series estacionarias Modelos autorregresivos 70 | 115

AR(1)

Figura: Ejemplo AR(1): Correlograma (φ = 0,7)


Modelos lineales para series estacionarias Modelos autorregresivos 71 | 115

AR(2)

Auto-regresivo de orden 2 AR(2)


En un modelo auto-regresivo de orden 2 - AR(2), la serie observada en el
momento t como una combinación lineal entre la innovación actual y los dos
período pasados inmediatos de la serie observada,

Xt = c + φ1 Xt−1 + φ2 Xt−2 + εt , (21)

donde c es una constante. Un proceso de medias móviles es siempre


estacionario. En forma alternativa el modelo en (21) se puede escribir como
sigue
φ(L)Xt = 1 − φ1 L − φ2 L2 Xt = c + εt .

(22)
Modelos lineales para series estacionarias Modelos autorregresivos 72 | 115

AR(2)

Estacionariedad
La condición para que el proceso AR(2) sea estacionario es que verifique

X
Xt = c + φ1 Xt−1 + φ2 Xt−2 + εt = ψj εt−j + dt ,
j=0
c
en este caso dt = 1−φ1 −φ2
, y
∞ ∞
X 1 X
ψj Lj = 2
= gj Lj ,
j=1
1 − φ1 L − φ2 L j=1

trabajando un poco tenemos que


1. g1 = φ1 ,
2. g2 = φ1 ψ1 + φ2 ,
3. gi = φ1 ψi−1 + φ2 ψi−2 , i ≥ 3
Modelos lineales para series estacionarias Modelos autorregresivos 73 | 115

AR(2)

Estacionariedad
En forma alternativa podemos podemos llegar al mismo resultado mirando que las
raíces del polinomio característico asociado a la variable Xt estén fuera del círculo
unitarios, es decir
φ(L) = 0 ⇔ 1 − φ1 L − φ2 L2 = 0,


lo que implica que los parámetros φ1 y φ2 tienen que caer dentro de la región del
siguiente triángulo,

Figura: Región en que los parámetros deben estar para que el proceso AR(2) sea
estacionario.

φ1 + φ2 < 1, φ2 − φ1 < 1, − 1 < φ2 < 1.


Modelos lineales para series estacionarias Modelos autorregresivos 74 | 115

AR(2)

Figura: Ejemplos de procesos AR(2) en según las 4 regiones de la Figura 29.


Modelos lineales para series estacionarias Modelos autorregresivos 75 | 115

AR(2)

Función de Auto-correlación
Imaginemos que tenemos un proceso AR(2) con media cero, entonces podemos
escribir Xt como sigue
Xt = φ1 Xt−1 + φ2 Xt−2 + εt .
Ahora, si multiplicamos Xt por Xt−k , tomamos esperanza y dividimos por γ(0)
tendremos
E(Xt Xt−k ) 1
= [φ1 E(Xt−1 Xt−k ) + φ2 E(Xt−2 Xt−k ) + E(Xt−k εt )]
γ(0) γ(0)
γ(k) γ(k − 1) γ(k − 2)
= φ1 + φ2
γ(0) γ(0) γ(0)
ρ(k) = φ1 ρ(k − 1) + φ2 ρ(k − 2), k > 0. (23)
En forma alternativa podemos escribirla como sigue,
G1 1 − G22 Gk1 − G2 1 − G21 Gk2
 
ρ(k) = , (24)
(G1 − G2 )(1 + G1 G2 )
donde G−1
1 y G−1
2 son las raíces del polinomio característico asociado al proceso
AR(2): 1 − φ1 L − φ2 L2 = 0.
Modelos lineales para series estacionarias Modelos autorregresivos 76 | 115

AR(2)

Función de auto-correlación parcial


La función de auto-covarianza parcial está definida por según la ecuación (12) como
sigue  
αkk = Corr Xt − X bt , Xt−k − X bt−k .

En nuestro caso X
bt y X
bt−k están definido por

X
bt = φ1 Xt−1 + φ2 Xt−2 , X
bt−k = φ1 Xt−k+1 + φ2 Xt−k+2 .

Ahora, la correlación parcial de orden 1 será


α11 = Corr (Xt , Xt−1 ) = ρ(1).
La correlación parcial de orden 2 será
 
α22 = Corr Xt − X bt|t−1 , Xt−2 − X
bt−2|t−1

= Corr(φ1 Xt−1 + φ2 Xt−2 + εt − φ1 Xt−1 ,


φ1 Xt−2 + φ2 Xt−3 + εt−1 − φ1 Xt−1 ) 6= 0.
La correlación parcial de orden k ≥ 3 será
 
αkk = Corr Xk+1 − X bk+1|1,2,3,··· ,k , X1

= Corr (φ1 Xk + φ2 Xk−1 + εk+1 − φ1 Xk − φ2 Xk−1 , X1 )


= Corr (εk+1 , X1 ) = 0.
Modelos lineales para series estacionarias Modelos autorregresivos 77 | 115

AR(2)

Figura: Correlograma de procesos AR(2) en según las 4 regiones de la Figura 29.


Modelos lineales para series estacionarias Modelos autorregresivos 78 | 115

AR(p)

Auto-regresivo de orden p AR(p)


En un modelo auto-regresivo de orden p - AR(p), la serie observada en el
momento t como una combinación lineal entre la innovación actual y los p
período pasados inmediatos de la serie observada,

Xt = c + φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + εt , (25)

donde c es una constante. Un proceso de medias móviles es siempre


estacionario. En forma alternativa el modelo en (25) se puede escribir como
sigue
φ(L)Xt = 1 − φ1 L − φ2 L2 − · · · − φp Lp Xt = c + εt .

(26)
Modelos lineales para series estacionarias Modelos autorregresivos 79 | 115

AR(p)

Estacionariedad
La condición para que el proceso AR(p) sea estacionario es que verifique

X
Xt = c + φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + εt = ψj εt−j + dt ,
j=0

c
en este caso dt = 1−φ1 −φ2 −···−φp
, y
∞ ∞
X 1 X
ψj Lj = = gj Lj .
j=1
1 − φ1 L − φ2 L − · · · − φp L
2 p
j=1

En forma alternativa podemos podemos llegar al mismo resultado mirando que


las raíces del polinomio característico asociado a la variable Xt estén fuera del
círculo unitarios, es decir

φ(L)Xt = 0 ⇔ 1 − φ1 L − φ2 L2 − · · · − φp Lp = 0.

Modelos lineales para series estacionarias Modelos autorregresivos 80 | 115

AR(p)

Función de Auto-correlación
Imaginemos que tenemos un proceso AR(p) con media cero, entonces podemos
escribir Xt como sigue
Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + εt .
Ahora, si multiplicamos Xt por Xt−k , tomamos esperanza y dividimos por γ(0)
tendremos
E(Xt Xt−k ) 1
= [φ1 E(Xt−1 Xt−k ) + φ2 E(Xt−2 Xt−k )+
γ(0) γ(0)
· · · + φp E(Xt−p Xt−k ) + E(Xt−k εt )]
γ(k) γ(k − 1) γ(k − 2) γ(k − p)
= φ1 + φ2 + · · · + φp
γ(0) γ(0) γ(0) γ(0)
ρ(k) = φ1 ρ(k − 1) + φ2 ρ(k − 2) + · · · + φp ρ(k − p), k > 0. (27)
Modelos lineales para series estacionarias Modelos autorregresivos 81 | 115

AR(p)

Función de Auto-correlación parcial


La función de auto-correlación parcial de un proceso AR(p) estará
dada por
(  
Corr Xt − X
bt , Xt−k − X
bt−k si k ≤ p
αkk = (28)
0 otro caso.
Modelos lineales para series estacionarias Modelos autorregresivos 82 | 115

AR(3)

Figura: Ejemplos de procesos AR(3).


Modelos lineales para series estacionarias Modelos autorregresivos 83 | 115

AR(3)

Figura: Correlograma de procesos AR(3).


Modelos lineales para series estacionarias Modelos autorregresivos 84 | 115

AR(4)

Figura: Ejemplos de procesos AR(4).


Modelos lineales para series estacionarias Modelos autorregresivos 85 | 115

AR(4)

Figura: Correlograma de procesos AR(4).


Modelos lineales para series estacionarias Modelos autorregresivos 86 | 115

AR(p)

Estimación
La estimación de los procesos autoregresivos se realiza mediante MCO. En este tipo de
modelos, el estimador por MCO es insesgado, consistente y asintóticamente eficiente.
El estimador por máxima verosimilitud (EMV) es equivalente al de MCO cuando los
errores son Normalmente distribuidos.
Modelo 1: ARMA, usando las observaciones 1970:01–2011:08 (T = 500)
Variable dependiente: Xt
Desviaciones típicas basadas en el Hessiano

Coeficiente Desv. Típica z Valor p


const 1.78179 0.0718666 24.7930 0.0000
φ1 −0.409569 0.0427922 −9.5711 0.0000
φ2 0.193466 0.0444240 4.3550 0.0000
φ3 0.320380 0.0445133 7.1974 0.0000
φ4 0.298808 0.0430554 6.9401 0.0000

Media de la vble. dep. 1.782979 D.T. de la vble. dep. 1.145035


media innovaciones −0.002696 D.T. innovaciones 0.966049
Log-verosimilitud −692.5813 Criterio de Akaike 1397.163
Criterio de Schwarz 1422.450 Hannan–Quinn 1407.086
Real Imaginaria Módulo Frecuencia
AR
Raíz 1 −1,2953 0,0000 1,2953 0,5000
Raíz 2 1,2112 0,0000 1,2112 0,0000
Raíz 3 −0,4940 −1,3745 1,4605 −0,3049
Raíz 4 −0,4940 1,3745 1,4605 0,3049
Modelos lineales para series estacionarias Modelos de medias móviles 87 | 115

Medias móviles de orden 1 MA(1)


En un modelo de medias móviles de orden 1 - MA(1), la serie observada en el
momento t como una combinación lineal entre la innovación actual y la pasada,

Xt = µ − θεt−1 + εt , (29)

donde µ es una constante, en este caso es la media marginal del proceso. Un


proceso de medias móviles es siempre estacionario.
Modelos lineales para series estacionarias Modelos de medias móviles 88 | 115

Figura: Ejemplos de MA(1).


Modelos lineales para series estacionarias Modelos de medias móviles 89 | 115

M A(1)

Invertibilidad
La condición para que el proceso MA(1) sea invertible es que verifique

X
Xt = −θεt−1 + εt = πj Xt−j + εt ,
j=0

y
∞ ∞
X 1 X j j
πj Lj = = θ L ,
j=0
1 − θL j=0

y que

X
θ2j < ∞ =⇒ |θ| < 1.
j=0

En forma alternativa podemos podemos llegar al mismo resultado mirando que


las raíces del polinomio característico asociado a la variable Xt estén fuera del
círculo unitarios, es decir

1
θ(L) = 0 ⇔ (1 − θL) = 0, −→ L = > 1 =⇒ |θ| < 1.
θ
Modelos lineales para series estacionarias Modelos de medias móviles 90 | 115

M A(1)

Función de auto-correlación
Suponga que tenemos un proceso MA(1) con media - µ - igual a cero, entonces
la auto-covarianza de orden 1 será

γ(1) = E(Xt Xt−1 )


= E[(−θεt−1 + εt )(−θεt−2 + εt−1 )]
= θ2 E(εt−1 εt−2 ) − θE(ε2t−1 ) − θE(εt εt−2 ) + E(εt εt−1 )
= −θσε2

donde
σε2 = V(εt ), ∀t.
La de auto-correlación de orden 1 está definida por
γ(1) θ
ρ(1) = =− ,
γ(0) 1 + θ2
donde
V(Xt ) = (1 + θ2 )σε2 .
Modelos lineales para series estacionarias Modelos de medias móviles 91 | 115

M A(1)

Función de auto-correlación parcial


Usando la ecuaciones de Yule-Walker (17) y que
θ

 − 1+θ2 si k = 1
ρ(k) =
0 si k ≥ 2,

podemos determinar la función de auto-correlación parcial

−θk (1 − θ2 )
αkk = − . (30)
1 − θ2(k+1)
Modelos lineales para series estacionarias Modelos de medias móviles 92 | 115

Figura: Ejemplo MA(1): Correlograma (θ = 0,8)


Modelos lineales para series estacionarias Modelos de medias móviles 93 | 115

Medias móviles de orden 2 MA(2)


En un modelo de medias móviles de orden 2 - MA(2), la serie observada en el
momento t como una combinación lineal entre la innovación actual y las dos
últimas,
Xt = µ − θ1 εt−1 − θ2 εt−2 + εt , (31)
donde µ es una constante, en este caso es la media marginal del proceso. Un
proceso de medias móviles es siempre estacionario. En forma alternativa,
podemos escribir el proceso como sigue,
Modelos lineales para series estacionarias Modelos de medias móviles 94 | 115

Figura: Ejemplos de MA(2).


Modelos lineales para series estacionarias Modelos de medias móviles 95 | 115

Invertibilidad
El proceso en (31) lo podemos escribir como
Xt = θ(L)εt = (1 − θ1 L − θ2 L2 )εt ,
y de esta forma la condición de invertibilidad estará dada por el
valor de las raíces del polinomio
θ(L) = 0 ⇔ (1 − θ1 L − θ2 L2 ) = 0. (32)
Si las raíces caen fuera del círculo unitario, entonces el proceso será
invertible. Recuerde que un proceso MA SIEMPRE es estacionario
(¿Por qué?).
Modelos lineales para series estacionarias Modelos de medias móviles 96 | 115

Invertibilidad
lo anterior implica que los parámetros θ1 y θ2 tienen que caer dentro de la
región del siguiente triángulo,

Figura: Región en que los parámetros deben estar para que el proceso MA(2) sea
invertible.

θ1 + θ2 < 1, θ2 − θ1 < 1, − 1 < θ2 < 1.


Modelos lineales para series estacionarias Modelos de medias móviles 97 | 115

M A(2)

Figura: Ejemplos de procesos MA(2) en según las 4 regiones de la Figura 39.


Modelos lineales para series estacionarias Modelos de medias móviles 98 | 115

M A(2)

Función de Auto-correlación y autor-correlación parcial


A partir de la varianza del proceso y de la auto-covarianza podemos determinar
la función de autocorrelación
 θ (1−θ )
 − 1+θ12 +θ22
1 2
 si k=1




ρ(k) = − 1+θθ22+θ2 si k=2 (33)

 1 2



si k ≥ 3.

0

La función de auto-correlación parcial se puede determinar de las ecuaciones de


Yule-Walker (17). Ésta es complicada, pero podemos resumir lo siguiente: será
la suma de dos funciones exponenciales si las raíces del polinomio (32) son
reales y por la combinación de seno y coseno si las raíces del polinomio (32)
son complejas. Al igual que en el caso AR(2), las raíces del polinomio (32)
dependerán de que los valores de los parámetros caigan en alguna de las cuatro
regiones que se presentan en la Figura 39.
Modelos lineales para series estacionarias Modelos de medias móviles 99 | 115

M A(2)

Figura: Correlograma de procesos AR(2) en según las 4 regiones de la Figura 39.


Modelos lineales para series estacionarias Modelos de medias móviles 100 | 115

Medias móviles de orden q MA(q)


En un modelo de medias móviles de orden q - MA(q), la serie observada en el
momento t como una combinación lineal entre la innovación actual y las q
últimas,
Xt = µ − θ1 εt−1 − θ2 εt−2 − · · · − θq εt−q + εt , (34)
donde µ es una constante, en este caso es la media marginal del proceso. Un
proceso de medias móviles es siempre estacionario.
Modelos lineales para series estacionarias Modelos de medias móviles 101 | 115

Invertibilidad
El proceso en (34) lo podemos escribir como
Xt = θ(L)εt = (1 − θ1 L − θ2 L2 − · · · − θq Lq )εt ,
y de esta forma la condición de invertibilidad estará dada por el valor de
las raíces del polinomio

θ(L) = 0 ⇔ (1 − θ1 L − θ2 L2 − · · · − θq Lq ) = 0. (35)
Si las raíces caen fuera del círculo unitario, entonces el proceso será
invertible. Esto permite escribir el proceso (34) como sigue

X 1
π(L) = πj Lj = θ−1 (L) = .
i=0
(1 − θ1 L − θ2 L2 − · · · − θq Lq )
Modelos lineales para series estacionarias Modelos de medias móviles 102 | 115

M A(p)

Estimación
La estimación de los parámetros en los procesos de medias móviles se realiza mediante
máxima verosimilitud (EMV).
Modelo 1: ARMA, usando las observaciones 1909/12/27–2005/10/17 (T = 5000)
Variable dependiente: Xt
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z Valor p
const 0.987455 0.0112361 87.8825 0.0000
θ1 −0.327206 0.0127716 −25.6198 0.0000
θ2 0.620347 0.00985789 62.9290 0.0000
θ3 −0.488266 0.0129475 −37.7113 0.0000
Media de la vble. dep. 0.987510 D.T. de la vble. dep. 1.286747
media innovaciones −0.000144 D.T. innovaciones 0.986980
Log-verosimilitud −7030.030 Criterio de Akaike 14070.06
Criterio de Schwarz 14102.65 Hannan–Quinn 14081.48
Real Imaginaria Módulo Frecuencia
MA
Raíz 1 1,6301 0,0000 1.6301 0,0000
Raíz 2 −0,1798 −1,1064 1.1209 −0,2756
Raíz 3 −0,1798 1,1064 1.1209 0,2756
Modelos lineales para series estacionarias Modelos ARMA 103 | 115

Modelos ARMA
Los modelos ARMA se pueden obtener al agregar modelos AR y modelos MA.
En particular, podemos escribir a un modelo ARMA(p,q) como sigue

Xt = c + φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p


−θ1 εt−1 − θ2 εt−2 − · · · − θq εt−q + εt . (36)

En forma alternativa podemos escribir el modelo (36) en notación polinómica


como sigue
(1 − φ1 L − · · · − φp Lp )Xt = c + (1 − θ1 L − · · · − θq Lq )εt ,
(37)
φ(L)Xt = c + θ(L)εt .
Modelos lineales para series estacionarias Modelos ARMA 104 | 115

Estacionariedad e invertibilidad
Un modelo ARMA(p,q) es estacionario si su parte autorregresiva es estacionaria
y es invertible cuando su componente de medias móviles es invertible. En el
caso más simple, el modelo ARMA(1,1) viene dado por

(1 − φL)Xt = (1 − θL)εt ,

La condición de estacionariedad es |φ| < 1 y la condición de invertibilidad es


|θ| < 1. La función de auto-correlación estará definida por
 (1+θφ)(θ+φ)
 1+θ2 −2θφ si k=1
ρ(k) =
φρ(h − 1) si k ≥ 2.

Las autocorrelaciones son similares a las del modelo AR(p) pero el decaimiento
no empieza desde el principio.
Modelos lineales para series estacionarias Modelos ARMA 105 | 115

Figura: Ejemplos de procesos ARMA(1,1).


Modelos lineales para series estacionarias Modelos ARMA 106 | 115

Figura: Correlograma proceso ARMA(1,1) - φ = 0,5; θ = 0,6.


Modelos lineales para series estacionarias Modelos ARMA 107 | 115

Figura: Correlograma proceso ARMA(1,1) - φ = 0,6; θ = −0,8.


Modelos lineales para series estacionarias Modelos ARMA 108 | 115

Figura: Correlograma proceso ARMA(1,1) - φ = −0,8; θ = −0,6.


Modelos lineales para series estacionarias Modelos ARMA 109 | 115

Figura: Correlograma proceso ARMA(1,1) - φ = −0,8; θ = 0,6.


Modelos lineales para series estacionarias Modelos ARMA 110 | 115

ARM A(1, 1)

Estimación
La estimación de los parámetros en los procesos de ARMA se realiza mediante máxima
verosimilitud (EMV).
Modelo 1: ARMA, usando las observaciones 1970:01–2011:08 (T = 500)
Variable dependiente: Xt1
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z Valor p
const 1.80943 0.136452 13.2605 0.0000
φ1 0.490286 0.0457593 10.7145 0.0000
θ1 0.599363 0.0407131 14.7216 0.0000
Media de la vble. dep. 1.808315 D.T. de la vble. dep. 1.561599
media innovaciones −0.000962 D.T. innovaciones 0.974996
Log-verosimilitud −697.4258 Criterio de Akaike 1402.852
Criterio de Schwarz 1419.710 Hannan–Quinn 1409.467
Real Imaginaria Módulo Frecuencia
AR
Raíz 1 2,0396 0,0000 2,0396 0,0000
MA
Raíz 1 −1,6684 0,0000 1,6684 0,5000
Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 111 | 115

Metodología Box-Jenkins

La metodología propuesta por Box y Jenkins para el análisis de series


temporales consiste en los siguientes pasos:
1. Determinar la transformación estacionaria de la serie.
2. Analizar el correlograma y el correlograma parcial para determinar cuál es
el modelo apropiado para la transformación estacionaria.
3. Estimar los parámetros del modelo.
4. Diagnóstico para comprobar que el modelo satisface los supuestos iniciales,
fundamentalmente que las innovaciones no están relacionadas con el
pasado.
5. En el caso de que las innovaciones no sean ruido blanco, proponer un
modelo alternativo en función de la información contenida en el
correlograma de los residuos.
Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 112 | 115

Especificación inicial
Dada una serie temporal concreta, la primera etapa para su análisis es la
especificación de un modelo inicial para ajustar a dicha variable. La propuesta
de dicho modelo inicial se basará en:
i Primero determinar cuál es la transformación estacionaria. Prueba de raíz
unitaria (Dickey-Fuller)
ii Analizar los correlogramas de la transformación estacionaria para determinar
los órdenes del modelo ARMA estacional multiplicativo adecuado. Una vez
que la serie ha sido transformada en una serie estacionaria, debemos analizar
el correlograma y el correlograma parcial para determinar cuál es el modelo
inicial apropiado para representar la dependencia dinámica de dicha
transformación estacionaria.
Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 113 | 115

Estimación
Los parámetros del modelo ARMA pueden estimarse por Máxima Verosimilitud
asumiendo una distribución condicional concreta para la serie de interés.
Aunque las observaciones no son mutuamente independientes, la verosimilitud puede
obtenerse mediante
L = f (X1 , X2 , · · · , XT )
| {z }
ZT

= f (XT |ZT −1 )f (ZT −1 )


= f (XT |ZT −1 )f (XT −1 |ZT −2 )f (Zt−2 )
" T #
Y
= f (Xt |Zt−1 ) f (X1 ). (38)
t=2

Luego la maximización puede realizarse en forma más simple tomando logaritmo.


T
T 1X
l = log(L) = − log(2π) − log [V (Xt |Zt−1 )]
2 2 t=2
T
1 X [Xt − E (Xt |Zt−1 )]2 1  (X1 − µ)2
− − log σ 2 − , (39)
2 t=2 V (Xt |Zt−1 ) 2 2σ 2

donde σ 2 = V(Xt |Zt−1 ) y µ = E(Xt |Zt−1 ).


Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 114 | 115

Valoración de modelos
Una vez que el modelo ha sido ajustado a la serie de interés, la última etapa
consiste en analizar si el modelo es apropiado.
Para ello vamos a realizar 3 tipos de análisis:
1. Contrastes sobre los coeficientes: significatividad y raíces comunes.
2. Diagnóstico: Este análisis se basa habitualmente en los residuos que no
deben estar correlacionados con el pasado: su correlograma no debe tener
ninguna correlación significativamente distinta de cero.
3. Contrastes respecto a modelos alternativos.
Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 115 | 115

Valoración de modelos
La selección de los parámetros p y q mediante el análisis del correlograma puede
presentar dificultades prácticas en algunos casos. Por ello, se han propuesto criterios
para decidir entre modelos alternativos para una determinada series temporal.
En la práctica se utilizan dos de estos criterios:
• AIC (Akaike Information Criteria),
(p + q + 1)
bε2 + 2

AIC = log σ , (40)
T
donde Lmax es la verosimilitud evaluada en las estimaciones.
• BIC (Bayes Information Criteria - Schwarz).
log (log(T ))
bε2 + (p + q + 1)

BIC = log σ , (41)
T
• (HQ) (Hannan-Quinn),
 2(p + q + 1) log(T )
bε2 +
HQ = log σ , (42)
T
1 PT
bε2 =
donde σ T t=1 (Xt
ct )2 .
−X

También podría gustarte