Está en la página 1de 98

Capitulo 9: Modelos unvariados

de series temporales

Procesos estocsticas
Funcin de autocovarianza, autocorrelacin y autocorrelacin parcial.
Procesos de ruido blanco y paseo aleatorio
Teorema de Wold
Procesos AR(p)
Procesos MA(q)
Procesos ARMA(p,q)
Procesos ARIMA(p,d,q)
Procesos estocsticos
Definicin: Un proceso estocstico es una
sucesin de variables aleatorias ordenadas
en el tiempo (en el caso de series
temporales).

Definicin: Una serie temporal es una


realizacin del proceso estadstico, es decir,
es una observacin de T variables aleatorias
ordenadas en el tiempo.
Restricciones a la heterogeneidad
temporal del proceso.

Restricciones de Estacionaridad
Definicin: Un proceso estocstico es
estacionario en sentido estricto o fuerte cuando
la distribucin de probabilidad conjunta de
cualquier parte de la secuencia de variables
aleatorias es invariante del tiempo.

F ( xt , xt 1 ,..., xt k ) F ( xt , xt 1 ,..., xt k )
Restricciones a la heterogeneidad
temporal del proceso.
Definicin: Un proceso estocstico es
estacionario en sentido dbil si los
momentos del primero y segundo orden
de la distribucin (esperanzas, varianzas,
covarianzas) son constantes a largo del
tiempo.
E(x ) , para todos los t .
t

E ( xt t ) 2 2
para todos t y .
Ext t xt t ,
Restricciones a la heterogeneidad
temporal del proceso.
Restricciones de memoria del proceso, ergodicidad.

lim 0

La relacin entre dos variables aleatorios de un proceso
es ms dbil cuando las variables son ms lejanas en el
tiempo.
Al aumentar el nmero de observaciones de la serie
temporal aumenta el nmero de covarianzas, pero no el
nmero de parmetros de estimar.
Restricciones a la heterogeneidad
temporal del proceso.
Definicin: Homogenizacin de una serie
temporal es cuando a travs de una
transformacin el serie temporal es
estacionar.

Queremos tener una serie temporal con


una media y varianza (ms o menos)
constante a largo del tiempo.
Restricciones a la heterogeneidad
temporal del proceso.
Transformacin Box-Cox:

xt 1
si 0
xt( )

ln xt si 0
Restricciones a la heterogeneidad
temporal del proceso.
Para conseguir una media constante a largo del tiempo se puede aplicar operadores de
diferencia, . 1 L , donde L es el operador de retardo. Lxt xt 1 .
xt (1 L) xt xt xt 1.

Una media estacionaria se puede conseguir a travs diferenciaciones sucesivas.

wt d xt (1 L) d xt
Las funciones de autovarianza y
autocorrelacin
Funciones de autocorrelacin miden la
relacin lineal entre variables aleatorias de
procesos separadas de una cierta
distancia en el tiempo.
Estimacin de estas funciones permiten
determinar la forma del procesos
estocstico.
Las funciones de autovarianza y
autocorrelacin
La funcin de autocovarianza
t , Cov( xt , xt ) E[( xt t )( xt t )]
...,1,0,1,...

Si el proceso es estacionario, su esperanza


es constante a largo del tiempo, y la
funcin de autocovarianza no depende del
momento en tiempo, slo la distancia
temporal. E[( xt )( xt )]
Las funciones de autovarianza y
autocorrelacin
Para cada retardo hay un valor diferente
para la funcin de autocovarianzas,
autocovarianza de orden .

Funcin de autocorrelacin simple (FAS),


t , E[( xt t )( xt t )]
t ,
t t E ( xt t ) E ( xt t )
2 2
Las funciones de autovarianza y
autocorrelacin
Si el proceso es estacionario, los
momentos de segunda orden no depende
de t .

E[( xt )( xt )]

0 E ( xt ) 2

Una correlograma ensea la FAS en


funcin de .
Las funciones de autovarianza y
autocorrelacin
La funcin de autocorrelacin parcial
(FAP) ensea la relacin lineal cuando se
ha eliminado la correlacin que estas
variables tienen con otras variables.

kk Corr ( xt , xt k | xt 1,..., xt k 1 )
Las funciones de autovarianza y
autocorrelacin
Cov(( xt xt ), ( xt k xt k ))
kk
Var ( xt xt )Var ( xt k xt k )

Se puede obtener los coeficientes de FAS a


travs regresiones. x x v
t 11 t 1 t
x x x v
t 21 t 1 22 t 2 t


xt k1 xt 1 k 2 xt 2 ... kk xt k vt

Nota: Si la esperanza de xt no es cero, hay


que aadir una constante en cada regresin.
Las funciones de autovarianza y
autocorrelacin
Se puede demostrar que los coeficientes
de FAS se pueden escribir como una
funcin de coeficientes de FAP. Esta
relacin se llama el sistema de
ecuaciones de Yule-Walker.
Estimacin de los momentos
mustrales
Para un proceso estocstico estacionario con
ergodicidad, con una sola serie temporal, podemos
estimar;
T
Media ( ) ( x T 1
x )
t 1
t

Varianza ( 0 )
Autocovarianzas ( )
Autocorrelaciones ( )
Autocorrelaciones parciales ( kk )
La funcin de autocovarianza
La funcin de autocovarianza se puede
estimar a travs de la funcin de
autocovarianza muestral:
T
T 1 ( xt x )( xt x )
t 1
Funcin de autocorrelacion simple
Funcin de autocorrelacion simple
muestral,
T

(x t x )( xt x )
r t 1
0 T

t
( x
t 1
x ) 2
Funcin de autocorrelacion simple
Si el proceso es a) estacionario gaussiano (normal) y b) k 0 para k , se puede
estimar la varianza de r con esta formula,

1
1 2
V (r ) 1 2 ri
T i 1

Se puede usar la varianza para contrastar la H 0 : 0 . r 1.96std (r ) donde std ()


es el error estndar. Rechazamos la hiptesis si r es fuera del intervalo
( 1.96std (r ), 1.96std (r ) ).
funcin de autocorrelacin parcial
Para hacer la funcin de autocorrelacin parcial
muestral se puede aplicar MCO.
xt c 11xt 1 vt
x c x x v
t 21 t 1 22 t 2 t


xt c k1 xt 1 k 2 xt 2 ... kk xt k vt

Donde 11,...,kk son estimaciones consistentes de la FAP. Bajo los supuestos que el
proceso es gaussiano (normal) y que kk k 1, k 1 ... 0 , se puede estimar la varianza
con,

1
V (kk ) de manera que si kk est fuera del intervalo ( 1.96T 1 / 2 , 1.96T 1 / 2 )
T
rechazamos la hiptesis que kk 0 .
Procesos de ruido blanco
Definicin:

t t 1 es un proceso estocstico de ruido
T

blanco si;
E ( t ) 0 para todos t

E ( t ) V ( t )
2 2
para todos t
E ( ) 0 para todos t y 0
t t

Es un proceso con media = 0, varianza


constante, y sin autocorrelacin. No se
puede predecir a partir de su pasado.
Procesos de paseo aleatorio
Definicin (18)
Un proceso estocstico sigue un paseo
aleatorio si; xt xt 1 t
donde t es ruido blanco

El valor en un momento es el valor del


periodo anterior ms un efecto aleatorio
ruido blanco. x x x (1 L) x
t t 1 t t t
Procesos de paseo aleatorio
Procesos de paseo aleatorio
Se puede generalizar el modelo e
incorporar una deriva.
xt t
xt xt 1 t
Procesos de paseo aleatorio
Memoria permanente; todo los efectos
aleatorios tienen un efecto permanente.
xt xt 1 t ( xt 2 t 1 ) t ...
t 1
x0 t t j
j 0

es una pendiente de una tendencia


determinista.
xt est formado por la suma de todo las
perturbaciones pasadas.
Procesos de paseo aleatorio
El primero momento;
t 1
E ( xt ) E x0 t t j x0 t
j 0

Si 0 el proceso no es estacionario en
media.
Procesos de paseo aleatorio
La varianza;
2

t 1
t ,0 E ( xt E ( xt )) E t j
2

j 0
t 1 t 1
t 1

E t j 2 t j t j ' E ( t2 j )
2

j 0 j , j ' 0 j 0
j j'
2t t es ruido blanco, y E ( t t j ) 0 j 0
No es estacionario en varianza; tiene una tendencia
(incrementa linealmente). Paseo aleatorio tiene una
tendencia en varianza o tendencia estocstica.
Procesos de paseo aleatorio
Otra manera de llegar al mismo resultado;
Procesos de paseo aleatorio
Autocovarianza;
t , E( xt E ( xt ))( xt E ( xt ))
t 1 t 1 t 1
E t j t j E ( t2 j )
j 0 j 0 j 0
2 (t )

La autocovarianza tampoco es constante


Procesos de paseo aleatorio
Conclusin: Paseo aleatorio no es
estacionar. Esto complica la inferencia. De
todos modos, hay un camino definida de
variacin a largo del tiempo.
Procesos de paseo aleatorio
Si transformamos el proceso a travs de una
diferencia, la transformacin sera estacionaria.

wt xt t
wt es estacionario; es un ruido blanco alrededor de la media, .
Procesos de paseo aleatorio
Es importante detectar si un serie est generada
por un pasea aleatorio.

1) La funcin de autocorrelacin simple puede


dar una indicacin.
t , 2 (t ) (t )
t , 1
t ,0 t ,0 t (t )
2 2
t (t ) t

Una correlograma presentar los primeros


coeficientes muy cerca de 1, y esta va
decreciendo suavemente.
Procesos de paseo aleatorio

xt c 11xt 1 ut
x c x x u
t 21 t 1 22 t 2 t


xt c k1 xt 1 k 2 xt 2 ... kk xt k ut

La FAP, resultara en un primero


coeficiente significativo y cerca de uno,
mientras los siguientes coeficientes sern
cero.
Procesos de paseo aleatorio
Normalmente un FAS que est
decreciendo muy lento con un primer FAP
cerca uno y los restos cero, indica que
podemos diferenciar para conseguir un
serie temporal estacionario.
Procesos de paseo aleatorio
Otra manera para saber si se debe diferenciar
una serie temporal son los contrastes de races
unitarias.
Constaste de races unitarias. unit roots.
Estima la ecuacin;

xt xt 1 t
Y contrastar si H 0 : 1
Procesos lineales
T
Definicin: Un proceso estocstico t t 1
es lineal cuando lo podemos escribir como
una funcin de una combinacin lineal
(posiblemente infinita) de variables
aleatorios de ruido blanco.
xt t 1 t 1 2 t 2 ...

j t j
j 0
Procesos lineales
Hay tres tipos de procesos estocsticos lineales;

Autoregresivas (AR)
Media mvil (MA)
ARMA (la combinacin de AR y MA)

AR( p ); xt 1 xt 1 2 xt 2 ... p xt p t
MA(q ); xt t 1 t 1 2 t 2 ... q t q
ARMA( p, q ); xt 1 xt 1 ... p xt p t 1 t 1 ... q t q
t es un trmino aleatorio, independiente e idnticamente distribuido (ruido blanco).
Procesos lineales
Se puede introducir una constante para tener
procesos con una media 0 .

Se puede expresar los procesos con un


polinomio de operadores de retardos. El
operador de retardos L esta definido por;
Lxt xt 1
Lk xt xt k
Este operador retarda la serie tantas periodos
como el exponente k indica.
Procesos lineales
Utilizando el operador de retardos y la
generalizacin con el constante, ,
podemos escribir los procesos:
AR( p); p ( L) xt t
MA(q); xt q ( L) t
ARMA( p, q); p ( L) xt q ( L) t
p ( L) 1 1L 2 L2 ... p Lp polinomio autoregressivo
p ( L) 1 1L 2 L2 ... q Lq polinomio media mvil

Se puede transformar procesos AR y


ARMA en procesos MA.
Procesos lineales
Teorema de Wold. Cualquier proceso
estocstico estacionario se puede
representar con una suma de dos
procesos.
xt dt ut

Donde dt es linealmente determinista y ut


es un proceso MA() : u ( L)
t t

Donde t es ruido blanco.


j 0
j t j
Procesos lineales
El proceso MA( ) se puede aproximar a travs
modelos lineales, cuando el polinomio infinito (L)
se puede aproximar bien con un cociente de dos
polinomios en
q ( L)
L : ( L )
p ( L)

Transformaciones puede hacer series


estacionarios y la teorema permite crear
modelos relativamente sencillas a partir de
modelos lineales.
Procesos autoregresivos (AR)
Un proceso autoregresivo se puede
escribir,
p ( L) xt t
(1 1L 2 L2 ... p Lp ) xt t
xt 1 xt 1 2 xt 2 ... p xt p
Procesos autoregresivos (AR)
Para que un proceso AR sea estacionario el
polinomio en el operador de retardos p (L)
asociados al proceso tiene que ser estable, es
decir, al calcular las races del polinomio,
p ( L) (1 1L 2 L ... p L ) 0
2 p

estas tienen de caer fuera del crculo unidad. Los


valores de L que satisfacen esto cumple L 1 .
Procesos autoregresivos (AR)
Si hay alguno raz igual a 1 (raz unitario)
el proceso AR no es estacionario, y no se
pueden expresar como procesos MA() . Si
hay alguna raz inferior a 1 el proceso ser
explosivo y tampoco estacionario.
Procesos autoregresivos (AR)
Las condiciones para estacionariedad son:

p
(necesaria, pero no suficiente):

j 1
j 1

p
(suficiente, pero no necesario):
j 1
j 1
Procesos autoregresivos (AR)
AR(1) estacionariedad
xt 1 xt 1 t
(1 L) xt t

Condicin necesaria y suficiente: 1


Procesos autoregresivos (AR)
Un proceso AR(1) estacionario se puede
escribir como un proceso MA( ) .
t
xt (1 L 2 L2 ...)( t )
(1 L)

j t j
1 j 0

Se puede llegar a la misma solucin a


travs de substitucin recursiva.
xt xt 1 t .
Procesos autoregresivos (AR)
La solucin se usa para calcular los momentos
del proceso. Tambin se puede usar para
ensear el siguiente resultado, valido por h 0 .


E ( xt t h ) E t t 1 t 2 ... t h 0
2

Dado que E ( t s ) 0 para todos t s .


Procesos autoregresivos (AR)
El momento de primer orden es;


E ( xt ) E t j
j

1 j 0 1

Con estacionariedad ( E ( xt ) E ( xt 1 ) )
tenemos el mismo resultado;
E ( xt ) E ( xt 1 t ) (1 ) 1
Procesos autoregresivos (AR)
La varianza del proceso es;
2

2
0 E ( xt )2 E j t j 2 j 2 2
j 0 j 0 1

Tambin se puede llegar a este resultado


a travs;
0 V ( xt ) V ( xt 1 t ) 0 (1 )
2 2 2 2 1
Procesos autoregresivos (AR)
La autocovarianza del proceso es,
donde; ~xt indica la desviacin con
respecto a la media.
1 E ( ~xt ~xt 1 ) E ((~xt 1 t ) ~xt 1 ) 0
2 E ( ~xt ~xt 2 ) E ((~xt 1 t ) ~xt 2 ) 1 2 0

E ( ~xt ~xt ) E ((~xt 1 t ) ~xt ) 0
Procesos autoregresivos (AR)
La funcin de autocorrelacin simple es;


0

y tiene un decrecimiento exponencial.

FAP, al otro lado, slo tiene un coeficiente


diferente de cero. Se puede demostrar con las
ecuaciones de Yule-Walker.
Procesos autoregresivos (AR)
Procesos autoregresivos (AR)
AR(2): xt 1 xt 1 2 xt 2 t
(1 1 L 2 L2 ) xt t
2 ( L ) xt t
donde 2 ( L) (1 1 L 2 L2 )
Al calcular las races del polinomio
(1 1L 2 L2 ) 0 tendramos dos soluciones
y hay los siguientes requisitos
(simultneamente) para tener un
2 1 1
polinomio estable.
2 1 1
2 1
Procesos autoregresivos (AR)
Los resultados para la covarianza de
AR(1) se puede generalizar.
Procesos autoregresivos (AR)
Procesos media mviles (MA(q))
Un proceso media mvil de orden q;
xt t 1 t 1 2 t 2 ... q t q
q ( L) t

Estos procesos siempre son estacionarios (los


momentos de primer y segundo orden son
siempre finitas y constantes a largo del tiempo).
Una condicin (que hay que comprobar) para
estos procesos es que son invertibles.
Procesos media mviles (MA(q))
Esta condicin implica que las races del
polinomio q (L) estn fuera del crculo de
unidad. Los procesos MA no invertibles no
permiten una representacin
autoregresiva convergente.
Procesos media mviles (MA(1))
MA(1): xt t 1 t 1

La condicin de invertibilidad es para un


proceso MA(1) es 1 .

Esperanza:
E ( xt ) E ( t 1 t 1 )
Procesos media mviles (MA(1))
Varianza:
0 E ( xt )2 E ( t 1 t 1 )2 E ( t2 ) 12 E ( t21 ) 21E ( t t 1 )

1 12 2
Autocovarianza:
1 E( xt )( xt 1 ) E( t 1 t 1 )( t 1 1 t 2 ) 1 2
2 E( xt )( xt 2 ) E( t 1 t 1 )( t 2 1 t 3 ) 0
0 2
Procesos media mviles (MA(1))
FAS es: 1
1
(1 1 )
2

0 2

La FAP presenta un decrecimiento exponencial;


1k (1 12 )
kk
1 12( k 1)
Se puede llegar a este resultado general con las
ecuaciones de Yule-Walker.
Procesos media mviles (MA(1))
1
11
1 12
2 12 12
22
1 1 2
1 12 14
3 13 1 22 2 1 2 12 3 13
33
1 2 1 2 2 1 2
2 2 2
1 2 12
3
1

2
3
1
1
1

1
2
1 2
4
6

1 2
1 1 1
2
1 1
Procesos media mviles (MA(1))
Procesos media mviles (MA(2))

Calcular las races del polinomio.


(1 1L 1L ) 0
2
Procesos media mviles (MA(2))
Para tener un modelos estable;
Procesos media mviles (MA(2))
Procesos media mviles (MA(2))
Procesos media mviles (MA(2))
Funcin de autocorrelacin simple
Procesos media mviles (MA(2))
Procesos media mviles (MA(2))
Procesos media mviles (MA(q))
MA(q) con deriva:
E ( xt ) E ( t 1 t 1 2 t 2 q t q )

0 E ( xt ) 2 E ( t 1 t 1 2 t 2 q t q ) 2

1 12 22 q2 2

(el mismo resultado)


Procesos media mviles (MA(q))
1 E( xt )( xt ) E ( t 1 t 1 2 t 2 q t q )( t 1 t 1 2 t 1 q t q )
( 11 q q ) 2 si q

0 si q
Procesos media mviles (MA(q))
Procesos autoregresivos media
mviles (ARMA(p,q))
Un modelo autoregresivo media mvil
(ARMA(p,q)) sigue la forma;

Es decir, tiene una parte autoregresivo y otra


parte media mvil.
Procesos autoregresivos media
mviles (ARMA(p,q))
Debemos comprobar si la parte
autoregresiva es estacionaria y la parte
media mvil es invertible.

Si la parte AR es estacionario, se puede


escribir como un MA( )
Procesos autoregresivos media
mviles (ARMA(p,q))
Si la parte MA es invertible, se puede
expresarlo como un AR()
Procesos autoregresivos media
mviles (ARMA(p,q))
Los procesos ARMA tienen un FAS como
la de su parte AR y una
FAP como su parte MA.
ARMA tiene FAS y FAP que decrecen
exponencialmente en valor absoluta hacia
cero.
No se puede determinar el orden.
Procesos autoregresivos media
mviles (ARMA(p,q))
ARMA(1,1)
xt xt 1 t 1 t 1
(1 1 )1
1 211 12 2
0
1 12

(1 11 )(1 1 )
1
FAS: 1 211 12

1 1 1
ARMA(1,1)
ARMA(p,q)

p (1)1
Representar con MA( ) :

xt j t j ( L) t
j 0

0 E ( xt )2 2 2j
j 0
Procesos autoregresivos
integrados media mvil;
ARIMA(p,d,q)
Procesos ARIMA presentan races
unitarias en el polinomio autoregresivo; no
*
son estacionarios. Se puede factorizar r ( L)
a partir de las races unitarias. Podemos
escribir; *
r ( L) (1 L) d r d ( L)

Donde r* d ( L )
no incluye races unitarias y d
es el nmero de races unitarias.
Procesos autoregresivos
integrados media mvil;
ARIMA(p,d,q)
Recuerda el operador de diferencias;
ARIMA(p,d,q)
Por ejemplo, ARIMA(0,1,0) es un paseo
aleatorio.
ARIMA(p,d,q)
Si una serie presenta un correlograma
como un AR(1) con 1 ; FAS est muy
cerca 1, y no caen rpidamente.
ARIMA(p,d,q)
Si aplicamos el operador de diferencia
cuando no es necesario (sobre-
diferenciar), tendremos un MA(1) que no
es invertible.

Por ejemplo: Ruido blanco;


ARIMA(p,d,q)
Cuando el orden de diferencia se ha
decidido , se puede escribir un
procesos ARIMA como AR() o un MA() .
Procesos estacinales
Si tenemos datos con informacin de varias ocasiones
durante un ao, podemos observar estacionalidad, es
decir, un comportamiento econmico que depende del
tiempo durante un ao. (Ejemplos; temperaturas,
vacaciones, movimientos tursticos). Los procesos
anteriores estn pensados para series con slo una
observacin cada ao, o series sin estacionalidad.
El numero de estaciones durante el ao llamamos s. Por
ejemplo, S=12 para datos mensuales, o 4 para
trimestrales. Se puede generalizar los procesos explicas
arriba para captar estacionalidad.
Procesos estacinales
Procesos estacinales
Procesos estacinales
Procesos estacinales
Una serie temporal con estacionalidad puede
tener una estructura de dependencia estacional
y otra parte regular (no estacional) que sigue un

Normalmente estos partes pueden interactuar


en una especificacin multiplicativa. Este es un
modelo
Procesos estacinales
En estos modelos hay efectos satlites.
Por ejemplo

Nota el trmino que se nota en


FAP y FAS asociados los retardos prximos a
los mltiples de S, pero esto no significa que
tengamos procesos adicionales de MA(0,1) y
SMA(0,1).
Procesos estacinales
FAS: Se reproduce la parte regular de la FAS
alrededor de los coeficientes estacinales.
FAP: Se reproduce la parte regular de la FAS
a la izquierda de los coeficientes estacinales
y la parte de FAP a la derecha.
Signos:
En FAS se multiplica el signo del coeficientes
estacional por el de regular.
En FAP, si el signo del coeficiente estacional es
positivo se inversa el signo a la parte derecha (FAP
regular) mientras si es negativo, se inversa el de la
izquierda (FAS regular).
Procesos estacinales

También podría gustarte