Está en la página 1de 23

Series temporales.

Mtodos Numricos I: e e Modelos autoregresivos.

Una serie temporal es una secuencia ordenada de valores, correspondientes a la magnitud de una variable en un determinado instante en el tiempo {X } X1, X2, . . . , Xt, . . . =1
Ejemplo: Ruido blanco gaussiano: Secuencia de variables aleatorias con una distribucin normal N (0, ) o
1, 2, . . . t, . . .

Contenidos 1. Series temporales. Valores esperados. Procesos estacionarios. Ecuaciones de diferencias. Prediccin. o 2. Modelos de series temporales Medias mviles: Modelos MA(q). o Procesos autorregresivos: AR(p). Series no estacionarias. Heterocedasticidad Modelo ARCH(q) Modelo GARCH(p,q).

Caminante Browniano: Secuencia de variables aleatorias


2 3 , =1 =1 , . . . =1 t , . . .

0,

1,

en la cual { } es ruido blanco gaussiano. =1

La hiptesis que realizamos es que la serie temporal o de longitud T est generada mediante la extraccin de a o muestras de una distribucin de densidad de probabilidad o P {X } =1
1

Ejemplo: En una secuencia determinista, en la cual la trayectoria es unica, la distribucin es un producto de distribuciones delta o
T

Valores esperados.

{X }T=1

=
=1

(X G(X 1 , ))

Ejemplo: Para ruido blanco gaussiano la distribucin de densidad de o probabilidad es factorizable


T

El valor esperado de una determinada funcin de los valores o T de una serie temporal F ({X } =1) es
E F

{ }T=1

=
=1

1 exp 2

1 2

{X }T=1 dX1

= dXT F ({X } =1)P


T

dX2 . . .

{X } =1

La distribucin marginal de la variable Xt se obtiene o mediante integracin de la distribucin completa respecto o o al resto de las variables
P (Xt) = dX1 ... dX2 . . . dXt1 . dXt+1 . . .

En la prctica los valores esperados se obtienen mediante a un promedio sobre realizaciones de la serie temporal

(i) X

T
=1

X1 , X2 , . . . , XT ,

(i)

(i)

(i)

i = 1, 2, . . . I

dXT P

T {X } =1

La estimacin emp o rica mediante el promedio sobre I realizaciones es


F 1 = I
I

(i) X

T
=1

i=1

Esta estimacin converge al valor exacto en el l o mite de un nmero innito de realizaciones: u F E [F ] , cuando I .

Media: Varianza: Deniendo


la varianza es

E [Xt ] = t .

Procesos estacionarios.

Xt = Xt t ,
2 2 E Xt = t .

Autocovarianza:
o Autocorrelacin:

Un proceso X0, X1, . . . , Xt, . . . es estacionario en sentido estricto si se cumple P (Xt1 , Xt2 , . . . , Xtr ) = P (Xt1+ , Xt2+ , . . . , Xtr + ). Un proceso es dbilmente estacionario, o estacionario e con respecto a la covarianza si cumple las condiciones E [Xt] = E Xt+ Xt =

E Xt+ Xt = (t; ). (t; ) = (t; ) . 2 t

Ejemplo: Ruido blanco gaussiano. E [ t] = 0 E [ t+ t] = 2,0 t N (0, )

La condicin de estacionaridad estricta implica la dbil si o e existen los dos primeros momentos de la distribucin. o
Un proceso estacionario es ergdico respecto a la media si o

1 X = T

X ,
=1

Un proceso estacionario es ergdico respecto a la varianza si o

1 T

T t=1

Xt+ Xt ,

Funcin de autocovarianza/autocorrelacin. o o
Para un proceso estacionario (a partir de este momento, se utilizar la condicin dbil), se dene la funcin de a o e o covarianza como = E [Xt+ Xt] . El coeciente de correlacin es o = . 0

Ecuaciones de diferencias de primer orden.

Consideremos la ecuacin de diferencias de primer orden o Xt = Xt1 + t. La ecuacin se resuelve mediante un mtodo recursivo o e
t1

Xt = X0 +
t =0

El valor de este coeciente est acotado a 1 1. Se dene el operador de retrasos LXt = Xt1; con las propiedades L0Xt = Xt; L1 Xt = Xt+1; L Xt = Xt ; Los comportamientos posibles de la solucin son o

Con el valor > 1 la solucin es explosiva. o Con el valor < 1 la solucin es explosiva y presenta oscilaciones. o Con el valor 0 < 1 la solucin decae exponencialmente. o Con el valor 1 < 0 la solucin decae exponencialmente con o oscilaciones.

x 10 1 X
t

17

= 1.50

Ecuaciones de diferencias de orden p.


60 70 80 90 100

1 2 0 4 2 X 0
t

10

20

30

40

50 = 1.00

Consideremos la ecuacin de diferencias de primer orden o


p

2 4 0 2 1 X 0
t

10

20

30

40

50 = 0.50

60

70

80

90

100

Xt =
i=1

i Xti + t.

1 2 0 10 20 30 40 50 Tiempo 60 70 80 90 100

Deniendo un vector de estado Figure 1: Simulaciones ( = 1).


= 0.50

= (Xt Xt1 . . . Xtp+1) , t la ecuacin se puede reescribir como o

2 1 X
t

0 1 2 0 10 20 30 40 50 = 1.00 60 70 80 90 100

2 0 X
t

t = F t1 + con las deniciones

t,

2 4 6 0 17 x 10 10 20 30 40 50 = 1.50 60 70 80 90 100

0 1 2 X
t

3 4 5 0 10 20 30 40 50 Tiempo 60 70 80 90 100

0 . 0 . . 00)
t 1 2 3

Figure 2: Simulaciones ( = 1).

1 1 0

0 0 0

0 0 0

... ... ... ... ...

p1 0 0 1

p 0 0 0

El caracter explosivo de la evolucin depende de los o autovalores de F.


8 9

Ejemplo: Consideremos la ecuacin de diferencias de orden 2 o Xt = 1Xt1 + 2Xt2 + t. La ecuacin se puede escribir de manera equivalente como o Xt Xt1 = 1 2 1 0 Xt1 Xt2 +
t
2

1.5

(0,1)

0.5

Real; 2 < 1 Real; | j | < 1

Real; 1 > 1

0 2 = 1 + 1 Complex; | j | < 1 2 = 1 1

0.5

(2,1)

(2,1)

1.5

Complex; | | > 1
j

2 + 4 = 0
1 2

2 3

0 1

Figure 3: Diagrama de valores. El comportamiento de las soluciones depende de los autovalores de de F


t

x 10 8 6 4 X

= 1.22
1

= 1.22
2

= 0.71
1

= 0.71
2

3 2 1 X
t

2 0

0 1 2

1 = 2 =

1 1 + 2 1 1 2

2 + 42 , 1 2 1 + 42 .

2 4 0 20 40 60 Tiempo 80 100

20

40 60 Tiempo

80

100

1 = 0.71 i 2 1

2 = 0.71 i 4

x 10

1 = 1.22 i

2 = 1.22 i

2 X X 0 20 40 60 Tiempo 80 100 0
t t

0 1 2 2 0 20 40 60 Tiempo 80 100

Figure 4: Simulaciones ( = 1).

10

11

Prediccin en series econmicas. o o

Eleccin del modelo a utilizar. o


Modelos paramtricos e Lineales. No lineales (ej. modelos con cambio de rgimen). e Modelos no paramtricos e Redes neuronales. Mezclas jerrquicas de expertos. a Arboles de regresin. o

Las series econmicas presentan una serie de caracter o sticas comunes


Generalmente las series temporales disponibles son cortas (excepto las series de alta frecuencia). Los valores de la serie temporal son generalmente dif ciles de medir con precisin (deniciones imprecisas: inaccin, desempleo, PNB, o o etc). No son estacionarias (tendencias a largo plazo, tendencias estacionales en la media y en la varianza, cambios en el paradigma econmico, memoria a largo plazo, etc.) o Series no-lineales con componentes estocsticos. a

Estimacin y evaluacin del modelo seleccionado o o


El conjunto de datos se divide en un conjunto de entrenamiento que sirve para estimar los parmetros del modelo propuesto, y en a un conjunto de prueba que se utiliza para evaluar la capacidad de prediccin (generalizacin) del modelo. Generalmente se utiliza o o el Error cuadrtico medio como criterio par la evaluacin de la a o prediccin, aunque puede haber casos en los que sta no sea una o e medida razonable.

En el problema de prediccin hay diversos elementos que o entran en juego:


Conjunto de datos de partida.
Determinar variables relevantes al problema. Determinar ventana de tiempo ptima. o Determinar frecuencia ptima de los datos. o Obtener los datos.

En general los modelos predicciones ser debida a

se observa con este procedimiento que lineales simples son ms robustos en sus a que los no lineales. Esta fenmeno puede o varias causas

Esta eleccin est condicionada a si el horizonte de prediccin es a o a o largo / corto plazo.

Los modelos no lineales memorizan la serie temporal (sobreajuste). La serie datos de prueba suelen ser ms corta que la serie a de entrenamiento, y los efectos de la no-linealidad pueden ser pequeos. n El criterio de error elegido puede conducir a conclusiones errneas o sobre la calidad de la prediccin. o
13

12

Medias mviles: MA(q) o

La media del proceso es = 0

El proceso de medias mviles de orden q es generado o mediante la ecuacin de diferencias o Xt =


t

La funcin autocovarianza del proceso es o + j=1 j +j 2 0 >q


q

+ t ,
(q)

donde t es ruido blanco gaussiano con desviacin estndar o a , el vector de retrasos de este ruido blanco es t con la denicin o
(q) t (q)

(q) t

Ejemplo: MA(1) Xt = +
Varianza:
2 2 2 E Xt = (1 + ) . t

t1

Autocovarianza:

=(

t1

t2 . . .

tq ) .

= =

2 3 = . . . = 0

El vector de parmetros es a = 0 , con = (1 2 . . . q ) .


14

2
Autocorrelacin : o

1 2

= =

, 1 + 2 3 = . . . = 0
15

Xt = t + 0.59 t1 4 2 0 2 4 0 10 20 30 40 50 60 Autocorrelaciones 70 80 90 100 4 2 0 2 4 0 10 20 30

Xt = t

40 50 60 Autocorrelaciones

70

80

90

100

1 Magnitud Magnitud 0 1 Magnitud Magnitud 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

0.5

0.5

0 0 1 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

0.5

0.5

0 0 2 4 6 8

0 10 12 14 16 18 20 0 2 4 6 8

Figure 5: Simulacin MA(1) ; = 1 . o

Figure 7: Simulacin MA(0) ; = 1 . o


Xt = t + 0.75 t1 0.97 t2 + 0.54 t3 + 0.94 t4 10 5 0 5

10

12

14

16

18

20

Xt = t 0.88 t1 + 0.21 t2 4

10

20

30

40 50 60 Autocorrelaciones

70

80

90

100

1
2

Magnitud
0 10 20 30 40 50 60 Autocorrelaciones 70 80 90 100

0 2 4

0.5 0 0 1 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

1 Magnitud

Magnitud
0 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

0.5 0 0.5

0.5

0 0 2 4 6 8

1 Magnitud

Figure 8: Simulacin MA(4) ; = 1 . o


0 2 4 6 8 10 12 14 16 18 20

10

12

14

16

18

20

0.5

Figure 6: Simulacin MA(2) ; = 1 . o


16 17

Proceso al l mite MA()


Consideremos el modelo de medias mviles o

Procesos autorregresivos: AR(p)

Xt = +
=0

t ,

El proceso autorregresivo de orden p es generado mediante la ecuacin de diferencias o (p) Xt = X t + t , donde t es ruido blanco gaussiano con desviacin estndar o a , el vector de retrasos de X es (p) Xt
(p) Xt

donde

es ruido blanco gaussiano con desviacin estndar . o a

La condicin suciente para que el proceso sea estacionario es o


=0

< .

Normalmente, se requiere una condicin ms estricta que implica la o a anterior

1 Xt

(p)

| | < .
=0

= (Xt1 Xt2 . . . Xtp) ,

En el caso de que el proceso sea estacionario,

y el vector de parmetros es a
La media del proceso es
E[Xt ] =

0 ,

La varianza es 0 = La funcin de autocovarianza es o

=0

= (1 2 . . . p) .
2

El proceso es estacionario si las ra de la ecuacin ces o


p

=
=0

+j .
i=1
18

i z i = 1
19

se encuentran fuera del c rculo unidad en el plano complejo. La media incondicional del proceso es E [Xt] = 0 1
p i=1 i

Ejemplo: AR(1) Xt = 0 + 1Xt1 +


Media:
t,

1 < 1

E [Xt ] =
Varianza:

0 . 1 1 2 1 2 1

2 E Xt =
Autocovarianza y autocorrelacin: o
p

La media condicional del proceso es E [Xt | Xt1Xt2 . . . Xtp] = 0 +


i=1

= =
X = 0.90 X
t t1

iXti
j
5

j 2 1 2 1 1 j 1
+ epsilon
t

Ecuaciones de Yule-Walker: Las funciones de autocorrelacin satisfacen la misma ecuacin que el o o proceso autorregresivo
=
i=1 p
Magnitud

10

20

30

40 50 60 Autocorrelaciones

70

80

90

100

1 Magnitud

0.5 0 0.5 0 1 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

i i + ,0

=
i=1

i i

0.5

0 0 2 4 6 8

Figure 9: Simulaciones AR(1) ( = 0.9; = 1).

10

12

14

16

18

20

20

21

Xt = 0.45 Xt1 + epsilont 4 2 0 2 4 2 0 2 0 10 20 30 40 50 60 Autocorrelaciones 70 80 90 100 4 0 10 20 30

Xt = 0.45 Xt1 + epsilont

40 50 60 Autocorrelaciones

70

80

90

100

1 Magnitud 0.5 0 Magnitud 0 1 Magnitud Magnitud 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

0.5

0 0 1 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

0.5

0.5

0 0 2 4 6 8

0 10 12 14 16 18 20 0 2 4 6 8

Figure 10: Simulaciones AR(1) ( = 0.45; = 1).

Figure 12: Simulaciones AR(1) ( = 0.45; = 1).


Xt = 0.90 Xt1 + epsilont 10 5 0 5

10

12

14

16

18

20

Xt = 0.00 Xt1 + epsilont 4 1 2 0 2 4 0 10 20 30 40 50 60 Autocorrelaciones 70 80 90 100 Magnitud 0.5

10

20

30

40 50 60 Autocorrelaciones

70

80

90

100

0 0 1 Magnitud 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

1 Magnitud

0.5

0.5

0 0 1 Magnitud 2 4 6 8 10 12 14 Autocorrelaciones de los valores absolutos 16 18 20

0 0 2 4 6 8

Figure 13: Simulaciones AR(1) ( = 0.9; = 1).


0 2 4 6 8 10 12 14 16 18 20

10

12

14

16

18

20

0.5

Figure 11: Simulaciones AR(1) ( = 0; = 1).


22 23

El proceso AR(p) como un proceso MA()

Ejemplo: AR(1) El proceso AR(1) con |1| < 1

En trminos del operador de retardo LXt = LXt1, el e proceso AR(p) se puede escribir como
p

Xt = 0 + 1Xt1 + es equivalente a un proceso MA()

Xt = 0 +
=1

L Xt +

Xt = (1 1L)1 [0 + t] = 1 0 + 1 1 1 1 L
t

o, de manera equivalente
p

0 = + L 1 1 =0 1

(1
=1

L )Xt = 0 +

0 + 1 1 =0 1

t .

Suponiendo que el inverso existe (lo cual est garantizado a si el proceso es estacionario respecto a la covarianza) Xt = + (L) t, que corresponde a un proceso MA() con = 0 1
p =1

(L) =

. p L =1

24

25

Procesos ARMA(p,q)
Se puede construir un modelo que incluya simultneamente a trminos de medias mviles y autorregresivos e o Xt = c + X t +
(p) (q) t

Prediccin o

+ t.

La prediccin del valor de Xt+h basado en un conjunto o de variables explicativas It {Yt ; 0} equivale a hacer una estimacin de la distribucin condicional o o P (Xt+h|It). Normalmente las estimaciones se restringen a los dos primeros momentos: La media condicional Xt+h|t = E [Xt+h|It] = La varianza condicional E Xt+h Xt+h|t
2

El proceso es estacionario respecto a la varianza si las ra ces de p 1


i=1

i z i = 0

se encuentran fuera del c rculo unidad. Esta condicin es o independiente de los valores de los coecientes del trmino e correspondiente a medias mviles. o El proceso tambin se puede expresar como un modelo e MA() Xt = + (L) t, con las deniciones = c 1
p i=1 i

(L) =

q i i=1 i L . p iLi i=1

|It

De esta forma se puede tambin poner de maniesto posibles e problemas de modelos degenerados: Modelos con factores comunes en el denominador y numerador de (L) generan series temporales que son indistinguibles.
26

La media condicional es el estimador para Xt+h que minimiza el error cuadrtico medio (varianza) de la a estimacin. o
27

Prediccin en procesos ARMA(p,q) o


Consideremos un proceso ARMA(p,q) invertible 1
p

Prediccin con un nmero nito de o u observaciones

j L
j=1

(Xt ) = 1 +

j Lj

j=1

Este proceso se puede reescribir como


p

Xt =
j=1

j Lj (Xt ) + 1 +

j Lj t.

Las frmulas de prediccin del apartado anterior asumen que o o disponemos de un nmero innito de observaciones hacia u el pasado. En caso de que el nmero de observaciones sea u nito {Xtm+1, Xtm+2, . . . , Xt}, podemos suponer que las innovaciones son nulas para los tiempos anteriores al inicial <= t m. Este procedimiento es razonable siempre que la memoria de la serie temporal sea a corto plazo y que t 0.

j=1

La prediccin con un horizonte s = 1 es o Xt|t1 = de donde se deduce


t p q

j L (Xt ) +
j j=1 j=1

j Lj t,

Esiste una prediccin ms precisa, basada en encontrar la o a a proyeccin exacta de (Xt+1 ) en los m valores ms o recientes X = (Xt , Xt1 , . . . , Xtm+1 ) . t La prediccin con un horizonte s = 1 es o

= Xt Xt|t1

La prediccin con un horizonte s es o Xt+s|t =


p j=1

j (Xt+sj|t ) +

j
j=s

t+sj .

Xt+1|t =
28

i (Xti+1 )
i=1
29

tiene como solucin o 0 1 . . 1 0 . . 1 1 . . . m1 . . . m2 2 2 . . = . . ... . . . ... 0 m m

Descomposicin de Wold (Wold, 1938). o


Un proceso cualquiera {Xt}t=, estacionario respecto a la covarianza y de media cero, puede ser representado mediante el proceso

m1 m2

Numricamente el sistema se puede resolver mediante una e descomposicin de Cholesky. o La prediccin con un horizonte s es o Xt+1|t = tiene como solucin o 0 1 . . 1 0 . . . . . m1 . . . m2 . ... . ... 0 (s) 1 (s) 2 . . (s) m = s s+1 . . s+m1
t m i=1

Xt =
j=0

tj

+ t

i (Xti+1 )

(s)

con 0 = 1 y |j |2 < . La componente t es ruido j=0 blanco y representa el error de prediccin para Xt de la o prediccin lineal ptima a partir de toda la serie de valores o o anteriores de la variable = Xt E [Xt|Xt1, Xt2, . . .]

m1 m2

La componente linealmente determinista t no est a u correlacionada con tj para ningn valor de j y puede ser predicha linealmente a partir de la secuencia de valores anteriores de Xt t = E [t|Xt1, Xt2, . . .] La componente j=0 j linealmente no-determinista.
tj

es

una

componente

30

31

La descomposicin de Wold no puede utilizarse directamente o para proponer un modelo para la serie temporal, ya que contiene un nmero innito de parmetros. Con la hiptesis u a o adicional de que la funcin (L) puede ser aproximada con o cierta precisin por un aproximante de Pad o e (L) = j L L (L) j=0
j q q i=0 q L , p p j=0 j L

Metodolog Box-Jenkins. a

La observacin de que modelos con un nmero excesivo de o u parmetros conduce a modelos que generalizan de manera a deciente, nos lleva a preferir modelos con el nmero ms u a pequeo de parmetros. n a Box y Jenkins proponen una metodologia para modelacin o de series temporales
1. Realizar las transformaciones necesarias sobre los datos de forma que la serie transformada sea estacionaria.

con 0 = 0 = 1.

Transformacin logar o tmica Yt = log Transformacin a rendimientos o rt = log Substraer tendencias Yt = Xt ( + t). Tomar diferencias Yt = Xt Xt1
33

Xt Xt1

St St1

St St1 St1

32

Eliminar componentes estacionales Yt = Xt Xt12


2. Elegir un modelo ARMA(p,q), con p y q pequeos. n 3. Estimar los parmetros del modelo. a 4. Hacer tests de diagnstico para comprobar que el modelo es o coherente con los datos de la serie temporal.

Modelo para una serie temporal no estacionaria.

Hasta este momento hemos descrito modelos de una variable para una serie temporal que pueden ser escritos como

Xt = +
=0

= + (L)

con la propiedad

| | <
=0

y con las ra ces de (z) fuera del c rculo de radio unidad en el plano complejo. Para este tipo de series se cumple E [Xt] = Xt+s|t lim E [Xt + s|Xt, Xt1, Xt1, . . .] = .
s

En el contexto de series econmicas o nancieras esto no o tiene por qu ser correcto. e

34

35

Hay dos formas de describir tendencias en una serie temporal Procesos que tienen un comportamiento estacionario una vez que se substrae un trmino de tendencia. e
Ejemplo: Modelo con tendencia lineal

Modelos integrados o de ra unidad: Un modelo z integrado de orden d es tal que al ser diferenciado d veces da lugar a un proceso estacionario.
Caminante aleatorio con deriva

Xt = Xt1 + +
t

t,

(1) = 0.

Xt = + t + (L)
Las propiedades de este modelo son Prediccin o

Ejemplo: Proceso integrado de orden 1

(1 L)Xt = + (L) t ,

(1) = 0

Consideremos el proceso con una ra unidad z

Xt+s|t = + (t + s) +

s+
=0

Xt = + t + ut ,
donde ut es un proceso ARMA(p,q). El proceso diferenciado es estacionario (1 L)Xt = + (L) t , donde

Comportamiento en el l mite: Dado que lim > = 0, se cumple


s

lim E Xt+s|t ( + (t + s)) = 0.

Error de prediccin: o

(L)
s1

= (1 L)ut .

Xt+s Xt+s|t =

tau=0

t+s

Las propiedades de este modelo son Prediccin: o La relacin bsica es la prediccin de las primeras diferencias o a o

El valor del error cuadrtico medio es a E

E [Xt+s Xt+s1 |Xt, Xt1 , . . .] = +

s+
=0

t .

Xt+s Xt+s|t

s1 tau=0

Con la observacin o

Converge a una constante cuando s .


36

Xt+s = (Xt+s Xt+s1 )+(Xt+s Xt+s1 )+. . . (Xt+s X


37

se llega a la relacin o

Xt+s|t = s + Xt + Errores de prediccin o El error de prediccin es o Xt+s Xt+s|t =

Procesos ARIMA(p,d,q)
s

+ t
=0 =1

=1 =0

t+s .

Un caso especialde modelos integrados son los procesos ARIMA(p,d,q). La diferencia de orden d de un proceso ARIMA(p,d,q) da lugar a un proceso estacionario ARMA(p,q). Consideremos el proceso ARIMA(0,1,1)

El valor del error cuadrtico medio es a E

Xt+s Xt+s|t

Crece linealmente cuando s .

=1 =0

Xt = Xt1 + +
Prediccin o

t1

Xt+s|t = s + Xt + t. Xt+1|t = Xt + t.

En resmen, la mayor diferencia entre procesos no u estacionarios de estos dos tipos es la persistencia del efecto de las innovaciones: En los procesos con tendencia la inuencia de las innovaciones disminuye con el tiempo. Sin embargo, en los procesos con ra unidad, el efecto de z las innovaciones se acumula en el tiempo. A pesar de las diferencias cualitativa, determinar cul es el proceso a subyacente a partir de una muestra nita puede ser problemtico. a

Suponiendo = 0, s = 1

Utilizando
t

= Xt Xt|t1 .

Xt+1|t = Xt (Xt Xt|t1 ). Iterando esta relacin se obtiene la prediccin correspondiente a un o o exponential smoothing Xt+1|t = (1 + )

obtenemos

() Xt .
=0

38

39

heterocedasticidad: ARCH(q)

Volatilidad incondicional 2 = E u2 = t 0 1
q i=1 i

Este modelo intenta reejar la estructura temporal de la volatilidad de una serie temporal, proponiendo un modelo autoregresivo para la serie temporal y otro distinto para las innovaciones (m) Xt = X t + ut ut = ht
t (q)

Volatilidad condicional E u2 | ut1ut2 . . . utq = u2 t t


(q)

ht = u2 t

o a donde t es ruido blanco gaussiano con desviacin estndar igual a 1. La condicin de no negatividad o i >= 0 implica que el proceso es estacionario respecto a la covarianza si q i < 1
i=1

Estimacin por mxima verosimilitud Suponiendo que o a las innovaciones tienen una distribucin normal la o probabilidad condicional es (X X (m))2 t 1 t (max(q,m)) )= exp , p(Xt|X t 2ht 2ht donde y t ht = u2
(q)

El vector de retrasos para las innovaciones es


(q) u2 t

ut = Xt X t . La funcin a optimizar, con las restricciones o correspondientes es el logaritmo de la funcin de o verosimilitud


T

(q)

u2 t1

u2 t2

...

u2 tq
40

LL =
t=r

log p(Xt|X t ),

(r)

r = max(q, m).

41

Ejemplo: AR(1) / ARCH(1) Xt ut ht = = = 0 + 1 Xt1 + ut


t t 2

heterocedasticidad: GARCH(p,q)

0 + 1 ut1

Volatilidad incondicional:

E u2 = t
Volatilidad condicional:

0 . 1 1

Este modelo intenta reejar la estructura temporal de la volatilidad de una serie temporal, proponiendo un modelo autoregresivo para la serie temporal y otro distinto para las innovaciones (m) Xt = X t + ut ut = ht
t (p)

u2 t

| ut1

= 0 +

1u2 t1

ht = + [ht]

+ u2 t

(q)

donde t es ruido blanco gaussiano con desviacin estndar o a igual a 1. El vector de retrasos para las innovaciones es
2 (q) ut

u 2 u 2 . . . u2 t1 t2 tq .

El vector de retrasos para ht [ht]


(p)

= (ht1 ht2 . . . htp) .

Las restricciones para los parmetros son a No-negatividad > 0; j 0; j 0


42 43

Proceso estacionario (respecto a la covarianza)


r

(i + i) < 1; r = max{p, q}
i=1

Volatilidad incondicional 2 = E u2 = t 1
r i=1(i

+ i)

Ejemplo: AR(1) / GARCH(1,1) Xt ut ht = = = h+ X


0 1 t t t1

+ ut
2

+ ht1 + ut1

Volatilidad incondicional:

E ut

. 1

44

También podría gustarte