Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tema 3 Series e Stud
Tema 3 Series e Stud
Procesos autorregresivos
Los procesos autorregresivos deben su nombre a la regresion y son los
primeros procesos estacionarios que se estudiaron.
Proceso autorregresivo: Un proceso autorregresivo de orden p, AR(p),
es un proceso estocastico (Yt )tZ que sigue el modelo
Yt = c + 1 Yt1 + + p Ytp + at ,
t Z.
(3.1)
En esta ecuacion:
c, 1 , . . . , p R son constantes;
El proceso (at ) es un ruido blanco con varianza 2 . Los at se llaman
innovaciones, ya que representan la nueva informacion que aparece en
cada instante.
Influye at en los valores posteriores del proceso Yt+h , h 0? ...
Y en los pasados Yth , h > 0? ...
El valor actual de la serie es una funcion lineal de los valores anteriores
y la innovacion actual. El proceso se puede expresar como una funcion
lineal de todas las innovaciones anteriores.
Depende Yt de los valores pasados anteriores a Ytp ? ...
66
3.1.
|1 | < 1.
(3.2)
Soluci
on general: Sustituir la ecuacion para Yt1 , Yt2 , . . . , Ytk sucesivamente en Yt ,
Yt = ...
= ...
= ...
= ...
= ...
Suponemos que la serie esta definida para todo t Z. Tomando lmite
cuando k , se obtiene
Yt = ...
= ...
(3.3)
(3.4)
68
h N.
Funci
on de autocorrelaci
on simple:
...
X Como |1 | < 1, en un AR(1) las autocorrelaciones decrecen geometricamente hacia cero cuando h .
Condici
on de estacionariedad: El AR(1) es estacionario en sentido debil
si
|1 | < 1.
Representaci
on media m
ovil de orden infinito MA(): Expresamos
el proceso AR(1) como suma ponderada de las innovaciones anteriores,
reemplazando las ecuaciones de Yt1 , . . . , Ytk en Yt y tomando lmite cuando k :
Yt
=
=
=
=
=
=
k
...
...
...
...
...
...
...
...
Esta representacion del AR(1) es valida solo bajo el supuesto de que |1 | <
1; es decir, de que el proceso sea estacionario en sentido debil. Otra forma
de obtener esa representacion es multiplicando la ecuacion del proceso por
1
(1 1 B)
(1 B)i .
i=0
X
i=0
69
i1 ati .
1.0
0.5
0.0
0.5
1.0
Figura 3.1: Procesos AR(1): trayectorias (izq.) y fas (der.) para 1 = 0,6
20
40
60
80
100
time
1.0
0.5
0.0
0.5
1.0
lag
20
40
60
80
100
time
lag
Distribuci
on marginal vs. distribuci
on predictiva
Distribucion marginal de Yt : Es estacionaria y su variabilidad es la
suma de las variabilidades debido al desconocimiento del valor anterior,
Yt1 , y de la innovacion at ,
E(Yt ) = ...
V ar(Yt ) = ...
Distribucion predictiva (o condicionada al pasado del proceso): Esta
verifica
E(Yt |Yt1 = y) = ...
V ar(Yt |Yt1 = y) = ...
Es la varianza condicionada mayor o menor que la varianza marginal?
...
70
3.2.
y tomamos esperanzas
...
Para h = 1 obtenemos
...
Reemplazamos esto en la ecuacion para la varianza y despejamos 0 :
...
...
...
Por lo tanto, la varianza es
0 = ...
Para que esta varianza sea positiva, el numerador y el denominador tienen
que tener el mismo signo. Esto ocurre si
1 < 2 < 1;
1 + 2 < 1;
2 1 < 1.
Funci
on de autocorrelaci
on: Dividiendo la funcion de autocovarianzas
entre la varianza, se obtiene
...
(3.9)
Para h = 1 tenemos
...
Para h = 2,
...
Soluci
on general de la recursi
on: Sean G1
y G1
las races de la
1
2
ecuacion caracterstica. Hay tres posibilidades:
72
1.0
0.5
0.0
0.5
1.0
1.0
0.5
0.0
0.5
1.0
Figura 3.2: Correlogramas de procesos AR(2): races reales (izq.) y complejas (der.)
Parte real positiva
Ambas races positivas
lag
lag
0.5
0.0
0.5
1.0
1.0
0.5
0.0
0.5
1.0
1.0
lag
lag
73
Condici
on de estacionaridad: Una solucion general del proceso se obtiene resolviendo la ecuacion caracterstica con B como incognita. Las solu1
ciones pueden ser reales o complejas conjugadas. Llamamos G1
1 y G2 a
las soluciones. Las condiciones de estacionariedad son:
|Gi | < 1,
i = 1, 2.
1 + 2 < 1;
2 1 < 1.
Representaci
on MA() del proceso: El proceso AR(2) se puede expresar en funcion de las innovaciones anteriores. Par ello, consideremos el
operador inverso
(B) = (1 1 B 2 B 2 )1 = 1 + 1 B + 2 B 2 +
Los coeficientes i se pueden determinar realizando el producto
(1 1 B 2 B 2 )(1 + 1 B + 2 B 2 + ) = 1,
agrupando los coeficients de cada potencia de B e igualandolos a cero,
...
...
...
...
...
Observese que esta ecuacion para los coeficientes h es igual a la ecuacion
para las autocorrelaciones.
Multiplicando la ecuacion del proceso (3.7) por (B) = 1+1 B+2 B 2 +
obtenemos
...
Distribuci
on predictiva (condicionada al pasado del proceso):
E(Yt |Yt1 = yt1 , Yt2 = yt2 ) = ...
V ar(Yt |Yt1 = yt1 , Yt2 = yt2 ) = ...
Ejemplo 34 Visones atrapados en Canada, 1848-1911 (no. 27). La Figura
3.3 muestra el grafico de la serie y su correlograma. Se puede observar el
comportamiento periodico de la serie en ambos graficos.
74
Figura 3.3: N
umero de visones y su correlograma
0.6
0.4
ACF
0.2
6 e+04
0.2
0.0
4 e+04
0.4
2 e+04
Number
8 e+04
0.8
1 e+05
1.0
Series visones
10
20
30
40
50
60
Year
10
15
Lag
3.3.
(3.10)
(3.11)
p (B) = (1 G1 B) (1 Gp B) = 0.
Varianza: Multiplicamos (3.10) por Yt :
...
y tomando esperanzas obtenemos
V ar(Yt ) = 0 = 1 1 + + p p + 2
Autocovarianzas: Multiplicando (3.10) por Yth obtenemos
...
y tomando esperanzas, obtenemos
...
Autocorrelaciones: Dividiendo por 0 , obtenemos
...
(3.12)
76
1
Soluci
on general de la recursi
on: Sean G1
1 , . . . , Gp las soluciones de
la ecuacion caracterstica, suponiendo que son todas distintas. La solucion
general de la ecuacion en diferencias para h es:
h =
p
X
Ai Ghi .
i=1
Condici
on de estacionaridad: |Gi | < 1, i = 1, . . . , p, analoga a la de un
AR(2).
Ecuaciones de Yule-Walker: Si en la formula (3.12) tomamos las p
primeras autocorrelaciones, es decir, tomamos h = 1, . . . , p, obtenemos el
siguiente sistema de p ecuaciones que relaciona 1 , . . . , p con 1 , . . . , p :
1 = 1 + 2 1 + + p p1
2 = 1 1 + 2 + + p p2
..
.
. = ..
p = 1 p1 + 2 p2 + + p
De este sistema podramos despejar los coeficientes 1 , . . . , p en funcion
de las autocorrelaciones. En forma matricial, el sistema es
1
0
1
2 p1
1
0
1 p2 2
2
1
(3.13)
.. = ..
..
..
..
.
.
.
.
.
.
.
.
.
. .
p
p1 p2 p3 0
p
=
R
Despejando , se obtiene = R1 .
Representaci
on MA(): Multiplicando (3.11) por el operador inverso
(B) = p (B)1 = 1 + 1 B + 2 B 2 +
La funci
on de autocorrelaci
on parcial
Coeficiente de autocorrelaci
on parcial de orden h: Es la correlacion
entre observaciones separadas por h instantes despues de eliminar la correlacion producida por las observaciones intermedias.
Procedimiento para obtener la autocorrelaci
on parcial:
1. Eliminar de yt el efecto lineal de yt1 , . . . , yth+1 mediante la regresion
yt = 1 yt1 + + h1 yth+1 + ut
2. Eliminar de yth el efecto lineal de yt1 , . . . , yth+1 mediante la regresion
yth = 1 yt1 + + h1 yth+1 + vt
3. Calcular la correlacion simple entre los residuos ut y vt , ya que contienen la parte de yt y yth , respectivamente, no com
un con las observaciones intermedias.
Las tres etapas anteriores equivalen a ajustar la regresion m
ultiple
yt = h1 yt1 + + h,h1 yth+1 + hh yth + t
donde el coeficiente hh de yth es el coeficiente de autocorrelacion parcial
de orden h.
Funci
on de autocorrelaci
on parcial (fap): es la representacion de los
coeficientes de autocorrelacion parcial en funcion del retardo. Ajustando
las regresiones
yt = 11 yt1 + 1t
yt = 21 yt1 + 22 yt2 + 2t
yt = 31 yt1 + 32 yt2 + 33 yt3 + 3t
..
..
.
.
la funcion de autocorrelacion parcial es la secuencia h = hh , h N.
X En un proceso AR(p) la fap h verifica:
h 6= 0 para h p y h = 0, para h > p.
Por tanto, graficando la fap en funcion del retardo podemos identificar el
orden p de un proceso AR(p).
79
Series ar1
20
30
40
50
10
20
30
40
0.0
0.2
50
10
20
30
40
50
10
20
30
Lag
Lag
Lag
Series ar2
Series ar2
Series ar2
Series ar2
Partial ACF
0.6
40
50
40
50
0.2
0.4
0.4
ACF
0.4
Partial ACF
0.2
50
0.0
0.6
0.8
1.0
0.8
0.6
ACF
0.4
0.0
0.0
0.6
0.2
0.0
20
30
40
50
10
20
30
40
50
10
20
30
40
50
10
20
30
Lag
Lag
Lag
Lag
Series ar2
Series ar2
Series ar2
Series ar2
1.0
20
30
40
50
0.1
0.4
0
10
20
Lag
30
40
0.5
0.5
10
0.2
Partial ACF
ACF
0.0
0.6
0.5
0
0.3
0.2
0.4
0.0
ACF
Partial ACF
0.5
0.5
0.0
1.0
0.0
10
0.2
50
Lag
10
20
30
40
50
10
20
Lag
Series visones
0.2
0.4
0.2
0.2
0.0
0.0
0.2
0.4
Partial ACF
0.6
0.4
0.8
0.6
1.0
Series visones
10
15
Lag
10
Lag
80
30
Lag
ACF
40
0.2
Lag
0.2
10
1.0
0.6
0.0
0.0
0.5
0.5
0.2
0.2
0.4
0.3
Partial ACF
ACF
0.4
0.0
0.4
ACF
Partial ACF
0.6
0.5
0.6
0.8
0.1
0.8
1.0
Series ar1
1.0
Series ar1
15