Está en la página 1de 32

ECONOMETRIA II

Milena Hoyos

Facultad de Ciencias Económicas


Universidad Nacional de Colombia

2018-I

1 / 32
Contenido

Procesos estacionarios.

Proceso de ruido blanco.

Procesos ARMA(p,q).

Metodologı́a Box y Jenkins.

Referencia: Enders, Capı́tulo 2.

2 / 32
Definiciones

Considere una variable aleatoria yt .

El operador de retraso L es un operador lineal tal que

Li yt = yt−i para i = 0, 1, ...

La expresión anterior significa que al aplicarse el operador de


retraso Li a yt se obtiene la variable retrasada i periodos.

El operador de retraso tiene las siguientes propiedades:


 Lc = c donde c es una constante.
 (Li + Lj )yt = Li yt + Lj yt = yt−i + yt−j .
 Li Lj yt = Li (Lj yt ) = Li yt−j = yt−i−j .
 L−i yt = yt+i .
 (1 + aL + a 2 L2 + · · · )yt = yt /(1 − aL) para |a| < 1.

3 / 32
Definiciones

El operador diferencia ∆ se define como

∆i yt = (1 − L)i yt para i = 0, 1, ...

Un proceso estocástico es una secuencia de variables


aleatorias indexadas por el tiempo.

Una serie de tiempo es una realización del proceso estocástico.

El subı́ndice t indica el tiempo en que se observa el dato yt .

4 / 32
Ejemplo de Datos de Series de Tiempo

La siguiente tabla presenta datos trimestrales de una serie de


tiempo económica yt . Adicionalmente se muestran las series
wt = Lyt , xt = L2 yt , dyt = (1 − L)yt .

Fecha yt wt xt dyt
2015-I 3.5
2015-II -1.5 3.5 -5.0
2015-III -0.3 -1.5 3.5 1.2
2015-IV 4.2 -0.3 -1.5 4.5
2016-I 5.6 4.2 -0.3 1.4
2016-II 7.2 5.6 4.2 1.6
2016-III 8.4 7.2 5.6 1.2
2016-IV 10.8 8.4 7.2 2.4
2017-I 10.6 10.8 8.4 -0.2
2017-II 11.2 10.6 10.8 0.6
2017-III 11.5 11.2 10.6 0.3
2017-IV 11.0 11.5 11.2 -0.5

Table: Datos de una serie de tiempo trimestral

5 / 32
Estacionariedad

El proceso estocástico {yt : t = 1, 2, ...} es estrictamente


estacionario si para cada cada entero s ≥ 1 y para cada
conjunto de ı́ndices temporales 1 ≤ t1 < t2 < ... < tm , la
distribución conjunta de (yt1 , yt2 , ..., ytm ) es la misma que la
distribución conjunta de (yt1 +s , yt2 +s , ..., ytm +s ).

El proceso estocástico {yt : t = 1, 2, ...} es estacionario en


covarianza si
 el segundo momento es finito, E (yt2 ) < ∞,
 E (yt ) es constante,
 Var (yt ) es constante y
 Cov (yt , yt+s ) depende sólo de s no de t para cualquier t
y s ≥ 1.

6 / 32
Procesos Débilmente Dependientes

El proceso estocástico {yt : t = 1, 2, ...} es débilmente


dependiente si yt y yt+s son casi independientes a medida que
s se incrementa sin lı́mite.

La dependencia débil es necesaria para que la ley de los


grandes números y el teorema de lı́mite central sean válidos.

Ejemplos de procesos débilmente dependientes


 Un proceso estacionario alrededor de su tendencia en el
tiempo.
 Un proceso estacionario autorregresivo de orden p AR(p).
 Un proceso de promedio móvil de orden q MA(q).
 Un proceso estacionario ARMA(p,q).

7 / 32
Proceso de Ruido Blanco

El proceso estocástico {εt } es un proceso de ruido blanco


(RB) si satisface las siguientes propiedades:

 Media cero: E (εt ) = 0.


 Varianza constante: E (ε2t ) = σε2 .
 No correlacionado: E (εt εs ) = 0 para toda t 6= s.

La última propiedad (no correlación) es más débil que


 Independencia: εt y εs son independientes para t 6= s.

Un proceso que satisface las cuatro propiedades anteriores se


denomina un proceso de ruido blanco independiente.

8 / 32
Proceso Autorregresivo de orden 1, AR(1)

El proceso estocástico {yt } es un proceso autorregresivo de


orden uno, AR(1), si

yt = a0 + a1 yt−1 + εt , εt ∼ RB (0, σε2 ).

Sustitución repetida da
t−1
X t−1
X
yt = a0 a1i + a1t y0 + a1i εt−i .
i=0 i=0

Cuando t → ∞ y |a1 | < 1 se obtiene



a0 X
limyt = + a1i εt−i .
1 − a1
i=0

9 / 32
Proceso Autorregresivo de orden 1, AR(1)
El valor esperado es
a0
µ ≡ E (yt ) = .
1 − a1

La función de autocovarianza es
a1s σε2
γs ≡ E (yt − µ)(yt−s − µ) = , s ≥ 0.
(1 − a12 )

La función de autocorrelación es
γs
ρs ≡ = a1s , s ≥ 1.
γ0

La función de autocorrelación parcial es


φ11 = ρ1 ,
φss = 0, s ≥ 2.
10 / 32
Proceso Autorregresivo de orden p, AR(p)
El proceso estocástico {yt } es un proceso autorregresivo de
orden p, AR(p), si
yt = a0 + a1 yt−1 + ... + ap yt−p + εt , εt ∼ RB (0, σε2 ).

El valor esperado es
a0
µ= .
1 − a1 − · · · − ap
La función de autocovarianza es
γs = a1 γ1 + ... + ap γp + σε2 , s = 0,
γs = a1 γs−1 + ... + ap γs−p , s ≥ 1.

La función de autocorrelación es
ρs = a1 ρs−1 + ... + ap ρs−p , s ≥ 1.

11 / 32
Promedio Móvil de Orden 1, MA(1)
Un proceso estocástico {yt } se llama un proceso MA(1) si
obedece a la ecuación
yt = a0 + εt + β1 εt−1 , εt ∼ RB (0, σε2 ).

El valor esperado es µ = a0 .

La función de autocovarianza es
γ0 = Var (yt ) = (1 + β12 )σε2 ,
γ1 = Cov (yt , yt−1 ) = β1 σε2 ,
γs = Cov (yt , yt−s ) = 0, s ≥ 2.
La función de autocorrelación es
γ1 β1
ρ1 = = ,
γ0 (1 + β12 )
ρs = 0, s ≥ 2.
12 / 32
Promedio Móvil de Orden q, MA(q)
Un proceso estocástico {yt } se llama un proceso MA(q) si
obedece a la ecuación
yt = a0 + εt + β1 εt−1 + ... + βq εt−q , εt ∼ RB (0, σε2 ).

El valor esperado es µ = a0 .

La función de autocovarianza es
γ0 = (1 + β12 + ... + βq2 )σε2 ,
γs = (βs + βs+1 β1 + ... + βq βq−s )σε2 , s ≤ q,
γs = 0, s > q.
La función de autocorrelación es
γs βs + βs+1 β1 + ... + βq βq−s
ρs = = , s≤q
1 + qi=1 βi2
P
γ0
ρs = 0, s > q.
13 / 32
Proceso ARMA(p,q)
Un proceso estocástico {yt } se llama autorregresivo de
promedios móviles ARMA(p,q) si obedece a la ecuación

yt = a0 + a1 yt−1 + ... + ap yt−p + εt + β1 εt−1 + ... + βq εt−q ,

donde εt ∼ RB (0, σε2 ).

El proceso ARMA(p,q) también puede escribirse como

(1 − a1 L − · · · − ap Lp )yt = a0 + (1 + β1 L + · · · + βq Lq )εt ,
a(L)yt = a0 + β(L)εt ,

donde

a(z ) = 1 − a1 z − · · · − ap z p ,
β(z ) = 1 + β1 z + · · · + βq z q

son polinomios de orden p y q, respectivamente.


14 / 32
Proceso ARMA(p,q)

El valor esperado es
a0
µ= .
1 − a1 − · · · − ap

Para k > q la función de autocovarianza es

γk = a1 γk −1 + a2 γk −2 + ... + ap γk −p ,

mientras que para k ≤ q, la función además involucra los


parámetros βk , βk +1 , ..., βq .

Para k > q la función de autocorrelación es

ρk = a1 ρk −1 + a2 ρk −2 + ... + ap ρk −p ,

mientras que para k ≤ q, la función además involucra los


parámetros βk , βk +1 , ..., βq .
15 / 32
Comportamiento de la Función de Autocorrelación (FAC)
y Función de Autocorrelación Parcial (FACP)

Proceso FAC FACP


RB Todas las autocorrelaciones son Todas las autocorrelaciones
cero. parciales son cero.

AR(p) Convergencia a cero. Únicamente las primeras p


autocorrelaciones parciales
son diferentes de cero.

MA(q) Únicamente las primeras q Convergencia a cero.


autocorrelaciones son diferentes
de cero.

ARMA(p,q) Comportamiento irregular de las Comportamiento irregular de las


primeras q autocorrelaciones y primeras p autocorrelaciones y
después convergencia a cero. después convergencia a cero.

Table: Comportamiento de la Función de Autocorrelación (FAC) y Función de


Autocorrelación Parcial (FACP).

16 / 32
FAC y FACP de un proceso AR(1)

1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0
0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso AR(1) con a1 > 0.


1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0

0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso AR(1) con a1 < 0.

17 / 32
FAC y FACP de un proceso AR(2)

1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0
0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso AR(2) con a1 > 0 y a2 > 0.


1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0

0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso AR(2) con a1 < 0 y a2 > 0.

18 / 32
FAC y FACP de un proceso AR(2)

1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0
0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso AR(2) con a1 > 0 y a2 < 0.


1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0

0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso AR(2) con a1 < 0 y a2 < 0.

19 / 32
FAC y FACP de un proceso MA(1)

1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0
0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso MA(1) con β1 > 0.


1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0

0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso MA(1) con β1 < 0.

20 / 32
FAC y FACP de un proceso ARMA(1,1)

1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0
0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso ARMA(1,1) con a1 > 0 y β1 > 0.


1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0

0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso ARMA(1,1) con a1 > 0 y β1 < 0.

21 / 32
FAC y FACP de un proceso ARMA(1,1)

1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0
0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso ARMA(1,1) con a1 < 0 y β1 > 0.


1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0

0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: FAC y FACP de un proceso ARMA(1,1) con a1 < 0 y β1 < 0.

22 / 32
Procesos ARMA Estacionarios

Los procesos AR(p) y ARMA(p,q) son estacionarios en


covarianza si y sólo si las raı́ces de la ecuación caracterı́stica

a(z ) = 1 − a1 z − a2 z 2 − ... − ap−1 z p−1 − ap z p = 0

se encuentran por fuera del cı́rculo unitario.

Un proceso MA(q) es estacionario en covarianza para


cualquier valor de β1 , β2 , ..., βq .

La función de autocorrelación (FAC) de un proceso


estacionario decae rápidamente a cero.

23 / 32
Procesos ARMA Estacionarios

Los procesos AR y ARMA estacionarios en covarianza son


débilmente dependientes ya que la correlación entre yt y yt+s
se vuelve cero cuando s → ∞.

Si el proceso es estacionario admite la representación

β(L)
yt − µ = εt ,
a(L)
yt − µ = ψ(L)εt ,
P∞
donde ψ(z ) = 1 + ψ1 z + ψ2 z 2 + · · · , con i=1 |ψi | < ∞.

Un proceso estacionario tiene una representación de un


proceso MA(∞).

24 / 32
Procesos ARMA Invertibles

Los procesos MA(q) y ARMA(p,q) son invertibles si y sólo si


las raı́ces de la ecuación caracterı́stica

β(z ) = 1 − β1 z − β2 z 2 − ... − βq−1 z q−1 − βq z q = 0

se encuentran por fuera del cı́rculo unitario.

Si el proceso es invertible admite la representación


a(L)
(yt − µ) = εt ,
β(L)
π(L)(yt − µ) = εt ,
P∞
donde π(z ) = 1 + π1 z + π2 z 2 + · · · , con i=1 |πi | < ∞.

Un proceso invertible tiene una representación de un proceso


AR(∞).
25 / 32
Construcción de Modelos para Series Univariadas

Box and Jenkins (1976) diseñaron una estrategia para la


construcción de modelos de series de tiempo, que consta de
cuatro etapas:

 Identificación del modelo.


 Estimación de parámetros.
 Verificación de supuestos.
 Uso del modelo.

26 / 32
Identificación

La identificación de un modelo consiste en:

1. Determinación de una serie estacionaria en función de la


serie original.
 Si la serie no tiene varianza constante se debe aplicar
alguna transformación como por ej. el logaritmo natural.
 Si la serie tiene una tendencia estocástica se debe aplicar
el operador diferencia.

2. Determinación de los valores p y q. En esta etapa se


intenta asociar la FAC muestral y la FACP muestral con un
posible proceso generador del tipo ARMA.

27 / 32
Identificación

Los criterios de información también pueden ser usados para


la identificación de los órdenes p y q del modelo ARMA.

El procedimiento consiste en:

 Escoja un valor máximo para p y q, esto es pmax y qmax .

 Estime un modelo ARMA(p,q) para cada una de las


combinaciones de p(p = 0, 1, ..., pmax ) y q(q = 0, 1, ..., qmax )
usando las observaciones (t = s + 1, ..., T ), donde
s = max(pmax , qmax ) y T es el número de observaciones.

 Escoja los órdenes p y q que minimicen el criterio de


información.

28 / 32
Identificación

Note que el mismo número de observaciones T − s es usado


para estimar cada uno de los modelos.

Dos de los criterios de información más usados son:

 Criterio de información de Akaike (AIC):

AIC = (T − s)ln(suma de los residuos al cuadrado) + 2k

 Criterio de información de Schwartz (SBC):

SBC = (T −s)ln(suma de los residuos al cuadrado)+k ln(T −s)

donde k es el número de parámetros estimados (p + q + 1).

29 / 32
Ejemplo de la Identificación

(a) (b)

1.0
4000

0.5
3000

ACF

0.0
y

2000

−0.5
1000

−1.0
0 50 100 150 200 250 300 0 5 10 15

Index Lag

Figure: (a) Gráfico de la serie mensual de exportaciones tradicionales para el periodo


Enero de 1990 a Junio de 2017 (yt ) y (b) FAC muestral de yt .

En la gráfica (a) se observa que la serie de exportaciones no


tiene media ni varianza constante.
La gráfica (b) muestra que la FAC muestral tiene un
decaimiento lento a zero, indicando que la serie no es
estacionaria en media.
30 / 32
Ejemplo de la Identificación

(a) (b)

1000

0.4
0.2
500

0.0
dly
dy

−0.2
−0.4
−500

0 50 100 150 200 250 300 0 50 100 150 200 250 300

Index Index

Figure: (a) Gráfico de la serie ∆yt y (b) Gráfico de la serie ∆log(yt ).

La gráfica (a) muestra que la serie ∆yt tiene media constante


y es heterocedástica.
La gráfica (b) muestra que la serie ∆log(yt ) es estacionaria.

31 / 32
Ejemplo de la Identificación

(a) (b)

1.0

1.0
0.5

0.5
Partial ACF
ACF

0.0

0.0
−0.5

−0.5
−1.0

−1.0
0 5 10 15 2 4 6 8 10 12 14

Lag Lag

Figure: (a) FAC muestral de la serie ∆log(yt ) y (b) FACP muestral de la serie
∆log(yt ).

La gráfica (b) muestra que las autocorrelaciones parciales


tienen un decaimiento muy rápido a cero, sugiriendo un
modelo MA.
En la gráfica (a) se observa que la primera autocorrelación es
estadı́sticamente diferente de cero, indicando p = 1.
32 / 32

También podría gustarte