Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Rodrigo Herrera
Facultad de Economía y Negocios
Contenido
Componentes 3 | 115
Contenido
Componentes
Tendencia
Tendencia determinista
Tendencia estocástica
Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica
Descomposición
Descomposición
Las series de tiempo se pueden descomponer en 4 elementos:
Xt = mt + st + ct + Yt
Contenido
Componentes
Tendencia
Tendencia determinista
Tendencia estocástica
Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica
Nota
Logaritmo
Muchas veces las series evolucionan proporcional al nivel inicial. Es decir que
los aumentos se consideran proporcional al nivel inicial, e.g.
xt − xt−h
mh = , h = 1, 2, 3, · · · .
xt−h
En estos casos, la transformación logarítmica nos sirve para eliminar la
proporcionalidad.
xt = xt−1 (1 + m1 ), (1)
Si tomamos logaritmo en ambos lados de la igualdad (1) tenemos
Cuando m1 es pequeño
log(1 + m1 ) ≈ m1 ,
por lo que
m1 = log (xt ) − log (xt−1 ). (3)
Tendencia Tendencia determinista 11 | 115
Ruido Blanco
Ruido Blanco
Un proceso que vamos a mencionar mucho en este curso es Ruido Blanco o
proceso White Noise. Este proceso se caracteriza por tener media cero, varianza
constante, y al menos ser incorrelado con su propio pasado y cualquier otro
proceso. Es decir, que si definimos a εt como un proceso ruido blanco entonces
E(εt ) = 0,
V(εt ) = σ 2 ∀t,
Cov(εt , εt−h ) = 0 ∀h ∈ E+ ,
Tendencia Tendencia determinista 13 | 115
Tendencia lineal
Tendencia cuadrática
Tendencia no-lineal
Diferencia
∆Xt = Xt − Xt−1 , t = 2, 3, · · · , T.
∆2 Xt = ∆(∆Xt )
= ∆(Xt − Xt−1 )
= ∆Xt − ∆Xt−1
= (Xt − Xt−1 ) − (Xt−1 − Xt−2 )
= Xt − 2Xt−1 + Xt−2 , t = 3, 4, · · · , T.
Tendencia Tendencia estocástica 20 | 115
Diferencia
LXt = Xt−1 ,
L2 Xt = L(Xt−1 ) = Xt−2
3
L Xt = L(Xt−2 ) = Xt−3
Lk = Xt−k , k = 4, 5, 6, · · · .
Usando este operador la diferencia de series de tiempo puede expresarse como sigue,
supongamos que tenemos una serie Xt , la diferencia de ésta se define y se denota
como sigue:
∆Xt = (1 − L)Xt = Xt − LXt = Xt − Xt−1 , t = 2, 3, · · · , T.
Luego,
∆2 Xt = (1 − L)2 Xt = (1 − L)(1 − L)Xt
= (1 − 2L + L2 )Xt
= Xt − 2Xt−1 + Xt−2 , t = 3, 4, · · · , T.
Tendencia Tendencia estocástica 21 | 115
Podemos tener una serie que tiene una tendencia que no es ni creciente ni decreciente,
Xt = µt + Yt
µt = µt−1 + ηt ,
donde Yt es, por ahora, un proceso ruido blanco y ηt es también un proceso ruido
blanco.
Suponga que tenemos una serie que tiene una tendencia - creciente o decreciente -
pero constante,
Xt = µt + Yt
µt = µt−1 + β + ηt ,
donde Yt es, por ahora, un proceso ruido blanco, β es una constante y ηt es un
proceso ruido blanco.
Suponga que tenemos una serie que tiene una tendencia que no es
constante,
Xt = µt + Yt
µt = µt−1 + βt + ηt
βt = βt−1 + ξt ,
donde Yt es, por ahora, un proceso ruido blanco, y ηt y ξt son también
procesos ruido blanco.
Tendencia Tendencia estocástica 28 | 115
E(∆2 Xt ) = E (1 − L)2 Xt
Contenido
Componentes
Tendencia
Tendencia determinista
Tendencia estocástica
Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica
Xt = µt + δt + Yt , (6)
Contenido
Componentes
Tendencia
Tendencia determinista
Tendencia estocástica
Estacionalidad
Estacionalidad determinista
Estacionalidad estocástica
Estacionariedad
Estacionariedad
Estacionariedad
Función de auto-covarianza
γX (r, s) = Cov(Xr , Xs )
= E [(Xr − E(Xr ))(Xs − E(Xs ))] , r, s ∈ {1, T } . (8)
Series Estacionarias: Perturbaciones de corto plazo Función de auto-covarianza 46 | 115
Función de auto-covarianza
Sea una serie Xt , t ∈ {1, T }, observada que verifica V(Xt ) < ∞, ∀t,
entonces la función de auto-covarianza muestral γ bX (., .) de Xt se
define como
T −h
1 X
γ
bX (t + h, t) = (Xt+h − X̄)(Xt − X̄), 0 ≤ h < T, (9)
T t=1
1
PT
donde X̄ = T t=1 Xt .
Series Estacionarias: Perturbaciones de corto plazo Función de auto-covarianza 47 | 115
Nota
En el caso de una series Xt que es estacionaria vemos que se verifica
γX (r, s) = γX (r − s, 0), s, t ∈ E.
γ
b(t, t) = V(X
b t ) = 1,6741
γ
b(t + 1, t) = 0,6106
γ
b(t + 2, t) = 0,1975
b(t + 3, t) = −0,1112
γ
b(t + 4, t) = −0,8031
γ
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación (FAC) 49 |
115
Función de auto-correlación
Función de auto-correlación
Sea una serie Xt , t ∈ {1, T }, observada que verifica V(Xt ) < ∞, ∀t,
entonces la función de auto-correlación muestral ρbX (., .) de Xt se
define como
γ
bX (t + k, t)
ρbX (t + k, t) = q , 0 ≤ k < T. (11)
b r )V(X
V(X b s)
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación (FAC) 51 |
115
ρb(t + 1, t) = 0,3654
ρb(t + 2, t) = 0,1182
ρb(t + 3, t) = −0,0666
ρb(t + 4, t) = −0,4806
ρb(t + 5, t) = −0,1058
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
52 | 115
α
b11 = 0,7746
α
b22 = −0,6919
α
b33 = −0,0203
α
b44 = −0,0146
α
b55 = −0,0085
Series Estacionarias: Perturbaciones de corto plazo Función de auto-correlación parcial (FACP)
54 | 115
Sea Xt una serie de tiempo estacionaria con media cero, entonces el mejor
predictor lineal basado en las p últimas observaciones de la serie está definido
por
Xbt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p .
P k αk = ρk .
Contenido
Series estacionarias
donde
P∞
• j=0 ψj2 < ∞, (ψ0 = 1)
• εt es un proceso ruido blanco,
• dt es una variable determinista.
Modelos lineales para series estacionarias Modelos autorregresivos 63 | 115
AR(1)
AR(1)
Estacionariedad
La condición para que el proceso AR(1) sea estacionario es que verifique
∞
X
Xt = c + φXt−1 + εt = ψj εt−j + dt ,
j=0
c
en este caso dt = 1−φ
, y
∞ ∞
X 1 X j j
ψj Lj = = φ L ,
j=0
1 − φL j=0
y que
∞
X
φ2j < ∞ =⇒ |φ| < 1.
j=0
Modelos lineales para series estacionarias Modelos autorregresivos 65 | 115
Estacionariedad
En forma alternativa podemos podemos llegar al mismo resultado mirando que
las raíces del polinomio característico asociado a la variable Xt estén fuera del
círculo unitarios, es decir
1
φ(L) = 0 ⇔ (1 − φL) = 0, −→ L = > 1 =⇒ |φ| < 1.
φ
Modelos lineales para series estacionarias Modelos autorregresivos 66 | 115
AR(1)
AR(1)
donde
2 σε2
σX = .
1 − φ2
La función de auto-correlación está definida por
γ(k)
ρ(k) = = φk , k ≥ 1.
γ(0)
Modelos lineales para series estacionarias Modelos autorregresivos 68 | 115
AR(1)
En nuestro caso X
bt y X
bt−k están definido por
X
bt = φXt−1 , X
bt−k = φXt−k+1 .
= Corr (ε3 , X1 ) = 0.
La correlación parcial de orden k ≥ 2 será
αkk = Corr Xk+1 − X bk+1|1,2,3,··· ,k , X1 = Corr (φXk + εk+1 − φXk , X1 )
= Corr (εk+1 , X1 ) = 0.
Modelos lineales para series estacionarias Modelos autorregresivos 69 | 115
AR(1)
AR(1)
AR(2)
AR(2)
Estacionariedad
La condición para que el proceso AR(2) sea estacionario es que verifique
∞
X
Xt = c + φ1 Xt−1 + φ2 Xt−2 + εt = ψj εt−j + dt ,
j=0
c
en este caso dt = 1−φ1 −φ2
, y
∞ ∞
X 1 X
ψj Lj = 2
= gj Lj ,
j=1
1 − φ1 L − φ2 L j=1
AR(2)
Estacionariedad
En forma alternativa podemos podemos llegar al mismo resultado mirando que las
raíces del polinomio característico asociado a la variable Xt estén fuera del círculo
unitarios, es decir
φ(L) = 0 ⇔ 1 − φ1 L − φ2 L2 = 0,
lo que implica que los parámetros φ1 y φ2 tienen que caer dentro de la región del
siguiente triángulo,
Figura: Región en que los parámetros deben estar para que el proceso AR(2) sea
estacionario.
AR(2)
AR(2)
Función de Auto-correlación
Imaginemos que tenemos un proceso AR(2) con media cero, entonces podemos
escribir Xt como sigue
Xt = φ1 Xt−1 + φ2 Xt−2 + εt .
Ahora, si multiplicamos Xt por Xt−k , tomamos esperanza y dividimos por γ(0)
tendremos
E(Xt Xt−k ) 1
= [φ1 E(Xt−1 Xt−k ) + φ2 E(Xt−2 Xt−k ) + E(Xt−k εt )]
γ(0) γ(0)
γ(k) γ(k − 1) γ(k − 2)
= φ1 + φ2
γ(0) γ(0) γ(0)
ρ(k) = φ1 ρ(k − 1) + φ2 ρ(k − 2), k > 0. (23)
En forma alternativa podemos escribirla como sigue,
G1 1 − G22 Gk1 − G2 1 − G21 Gk2
ρ(k) = , (24)
(G1 − G2 )(1 + G1 G2 )
donde G−1
1 y G−1
2 son las raíces del polinomio característico asociado al proceso
AR(2): 1 − φ1 L − φ2 L2 = 0.
Modelos lineales para series estacionarias Modelos autorregresivos 76 | 115
AR(2)
En nuestro caso X
bt y X
bt−k están definido por
X
bt = φ1 Xt−1 + φ2 Xt−2 , X
bt−k = φ1 Xt−k+1 + φ2 Xt−k+2 .
AR(2)
AR(p)
AR(p)
Estacionariedad
La condición para que el proceso AR(p) sea estacionario es que verifique
∞
X
Xt = c + φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + εt = ψj εt−j + dt ,
j=0
c
en este caso dt = 1−φ1 −φ2 −···−φp
, y
∞ ∞
X 1 X
ψj Lj = = gj Lj .
j=1
1 − φ1 L − φ2 L − · · · − φp L
2 p
j=1
φ(L)Xt = 0 ⇔ 1 − φ1 L − φ2 L2 − · · · − φp Lp = 0.
Modelos lineales para series estacionarias Modelos autorregresivos 80 | 115
AR(p)
Función de Auto-correlación
Imaginemos que tenemos un proceso AR(p) con media cero, entonces podemos
escribir Xt como sigue
Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + εt .
Ahora, si multiplicamos Xt por Xt−k , tomamos esperanza y dividimos por γ(0)
tendremos
E(Xt Xt−k ) 1
= [φ1 E(Xt−1 Xt−k ) + φ2 E(Xt−2 Xt−k )+
γ(0) γ(0)
· · · + φp E(Xt−p Xt−k ) + E(Xt−k εt )]
γ(k) γ(k − 1) γ(k − 2) γ(k − p)
= φ1 + φ2 + · · · + φp
γ(0) γ(0) γ(0) γ(0)
ρ(k) = φ1 ρ(k − 1) + φ2 ρ(k − 2) + · · · + φp ρ(k − p), k > 0. (27)
Modelos lineales para series estacionarias Modelos autorregresivos 81 | 115
AR(p)
AR(3)
AR(3)
AR(4)
AR(4)
AR(p)
Estimación
La estimación de los procesos autoregresivos se realiza mediante MCO. En este tipo de
modelos, el estimador por MCO es insesgado, consistente y asintóticamente eficiente.
El estimador por máxima verosimilitud (EMV) es equivalente al de MCO cuando los
errores son Normalmente distribuidos.
Modelo 1: ARMA, usando las observaciones 1970:01–2011:08 (T = 500)
Variable dependiente: Xt
Desviaciones típicas basadas en el Hessiano
Xt = µ − θεt−1 + εt , (29)
M A(1)
Invertibilidad
La condición para que el proceso MA(1) sea invertible es que verifique
∞
X
Xt = −θεt−1 + εt = πj Xt−j + εt ,
j=0
y
∞ ∞
X 1 X j j
πj Lj = = θ L ,
j=0
1 − θL j=0
y que
∞
X
θ2j < ∞ =⇒ |θ| < 1.
j=0
M A(1)
Función de auto-correlación
Suponga que tenemos un proceso MA(1) con media - µ - igual a cero, entonces
la auto-covarianza de orden 1 será
donde
σε2 = V(εt ), ∀t.
La de auto-correlación de orden 1 está definida por
γ(1) θ
ρ(1) = =− ,
γ(0) 1 + θ2
donde
V(Xt ) = (1 + θ2 )σε2 .
Modelos lineales para series estacionarias Modelos de medias móviles 91 | 115
M A(1)
−θk (1 − θ2 )
αkk = − . (30)
1 − θ2(k+1)
Modelos lineales para series estacionarias Modelos de medias móviles 92 | 115
Invertibilidad
El proceso en (31) lo podemos escribir como
Xt = θ(L)εt = (1 − θ1 L − θ2 L2 )εt ,
y de esta forma la condición de invertibilidad estará dada por el
valor de las raíces del polinomio
θ(L) = 0 ⇔ (1 − θ1 L − θ2 L2 ) = 0. (32)
Si las raíces caen fuera del círculo unitario, entonces el proceso será
invertible. Recuerde que un proceso MA SIEMPRE es estacionario
(¿Por qué?).
Modelos lineales para series estacionarias Modelos de medias móviles 96 | 115
Invertibilidad
lo anterior implica que los parámetros θ1 y θ2 tienen que caer dentro de la
región del siguiente triángulo,
Figura: Región en que los parámetros deben estar para que el proceso MA(2) sea
invertible.
M A(2)
M A(2)
M A(2)
Invertibilidad
El proceso en (34) lo podemos escribir como
Xt = θ(L)εt = (1 − θ1 L − θ2 L2 − · · · − θq Lq )εt ,
y de esta forma la condición de invertibilidad estará dada por el valor de
las raíces del polinomio
θ(L) = 0 ⇔ (1 − θ1 L − θ2 L2 − · · · − θq Lq ) = 0. (35)
Si las raíces caen fuera del círculo unitario, entonces el proceso será
invertible. Esto permite escribir el proceso (34) como sigue
∞
X 1
π(L) = πj Lj = θ−1 (L) = .
i=0
(1 − θ1 L − θ2 L2 − · · · − θq Lq )
Modelos lineales para series estacionarias Modelos de medias móviles 102 | 115
M A(p)
Estimación
La estimación de los parámetros en los procesos de medias móviles se realiza mediante
máxima verosimilitud (EMV).
Modelo 1: ARMA, usando las observaciones 1909/12/27–2005/10/17 (T = 5000)
Variable dependiente: Xt
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z Valor p
const 0.987455 0.0112361 87.8825 0.0000
θ1 −0.327206 0.0127716 −25.6198 0.0000
θ2 0.620347 0.00985789 62.9290 0.0000
θ3 −0.488266 0.0129475 −37.7113 0.0000
Media de la vble. dep. 0.987510 D.T. de la vble. dep. 1.286747
media innovaciones −0.000144 D.T. innovaciones 0.986980
Log-verosimilitud −7030.030 Criterio de Akaike 14070.06
Criterio de Schwarz 14102.65 Hannan–Quinn 14081.48
Real Imaginaria Módulo Frecuencia
MA
Raíz 1 1,6301 0,0000 1.6301 0,0000
Raíz 2 −0,1798 −1,1064 1.1209 −0,2756
Raíz 3 −0,1798 1,1064 1.1209 0,2756
Modelos lineales para series estacionarias Modelos ARMA 103 | 115
Modelos ARMA
Los modelos ARMA se pueden obtener al agregar modelos AR y modelos MA.
En particular, podemos escribir a un modelo ARMA(p,q) como sigue
Estacionariedad e invertibilidad
Un modelo ARMA(p,q) es estacionario si su parte autorregresiva es estacionaria
y es invertible cuando su componente de medias móviles es invertible. En el
caso más simple, el modelo ARMA(1,1) viene dado por
(1 − φL)Xt = (1 − θL)εt ,
Las autocorrelaciones son similares a las del modelo AR(p) pero el decaimiento
no empieza desde el principio.
Modelos lineales para series estacionarias Modelos ARMA 105 | 115
ARM A(1, 1)
Estimación
La estimación de los parámetros en los procesos de ARMA se realiza mediante máxima
verosimilitud (EMV).
Modelo 1: ARMA, usando las observaciones 1970:01–2011:08 (T = 500)
Variable dependiente: Xt1
Desviaciones típicas basadas en el Hessiano
Coeficiente Desv. Típica z Valor p
const 1.80943 0.136452 13.2605 0.0000
φ1 0.490286 0.0457593 10.7145 0.0000
θ1 0.599363 0.0407131 14.7216 0.0000
Media de la vble. dep. 1.808315 D.T. de la vble. dep. 1.561599
media innovaciones −0.000962 D.T. innovaciones 0.974996
Log-verosimilitud −697.4258 Criterio de Akaike 1402.852
Criterio de Schwarz 1419.710 Hannan–Quinn 1409.467
Real Imaginaria Módulo Frecuencia
AR
Raíz 1 2,0396 0,0000 2,0396 0,0000
MA
Raíz 1 −1,6684 0,0000 1,6684 0,5000
Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 111 | 115
Metodología Box-Jenkins
Especificación inicial
Dada una serie temporal concreta, la primera etapa para su análisis es la
especificación de un modelo inicial para ajustar a dicha variable. La propuesta
de dicho modelo inicial se basará en:
i Primero determinar cuál es la transformación estacionaria. Prueba de raíz
unitaria (Dickey-Fuller)
ii Analizar los correlogramas de la transformación estacionaria para determinar
los órdenes del modelo ARMA estacional multiplicativo adecuado. Una vez
que la serie ha sido transformada en una serie estacionaria, debemos analizar
el correlograma y el correlograma parcial para determinar cuál es el modelo
inicial apropiado para representar la dependencia dinámica de dicha
transformación estacionaria.
Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 113 | 115
Estimación
Los parámetros del modelo ARMA pueden estimarse por Máxima Verosimilitud
asumiendo una distribución condicional concreta para la serie de interés.
Aunque las observaciones no son mutuamente independientes, la verosimilitud puede
obtenerse mediante
L = f (X1 , X2 , · · · , XT )
| {z }
ZT
Valoración de modelos
Una vez que el modelo ha sido ajustado a la serie de interés, la última etapa
consiste en analizar si el modelo es apropiado.
Para ello vamos a realizar 3 tipos de análisis:
1. Contrastes sobre los coeficientes: significatividad y raíces comunes.
2. Diagnóstico: Este análisis se basa habitualmente en los residuos que no
deben estar correlacionados con el pasado: su correlograma no debe tener
ninguna correlación significativamente distinta de cero.
3. Contrastes respecto a modelos alternativos.
Modelos lineales para series estacionarias Especificación, estimación y validación de modelos
ARMA 115 | 115
Valoración de modelos
La selección de los parámetros p y q mediante el análisis del correlograma puede
presentar dificultades prácticas en algunos casos. Por ello, se han propuesto criterios
para decidir entre modelos alternativos para una determinada series temporal.
En la práctica se utilizan dos de estos criterios:
• AIC (Akaike Information Criteria),
(p + q + 1)
bε2 + 2
AIC = log σ , (40)
T
donde Lmax es la verosimilitud evaluada en las estimaciones.
• BIC (Bayes Information Criteria - Schwarz).
log (log(T ))
bε2 + (p + q + 1)
BIC = log σ , (41)
T
• (HQ) (Hannan-Quinn),
2(p + q + 1) log(T )
bε2 +
HQ = log σ , (42)
T
1 PT
bε2 =
donde σ T t=1 (Xt
ct )2 .
−X