Está en la página 1de 4

Series de Tiempo

Proceso Estacionario Un proceso estacionario xt : t = 1, . . . es estacionario


si para cada para de t (ej t1 , t2 ), la distribucin conjunta de (xt1 , . . . , xtm ) es la
misma que la distribucin de (xt1+h ,. . . , xtm+h ) para todo entero 1 h.
Proceso de Covarianza Estacionaria Un proceso estocstico xt : 1, . . .,
con E(x2t ) < es estacionario en la covarianza si

1. E(xt ) es constante
2. V ar(xt ) es constante
3. t, h > 1, Cov(xt , xt+h ) depende solo en h y no en t.
Un proceso estacionario en la covarianza (o estacionario dbil) se enfoca en los
primeros dos momentos del proceso. En un nivel ms tcnico, la estacionariedad
simplica los puntos de la LGN y del teorma del lmite central. Las Series de
Tiempo Dbilmente Dependientes La dbil dependencia reemplaza las restricciones de qu tan fuerte la dependencia entre las variables aleatoria xt y xt+h
puedn ser mientras que la distancia entre t y h crecen.
En trminos de intucin: la estacioanriedad en covarianzas puede ser caracterizada en trminos de sus correlaciones: una serie de teimpo de covarianza
estacionaria es dbilmente dependiente si la correlacin entre xt y xt+h va a
cero mientras que h . Cuando Corr(xt , xt+h ) 0 y h se dice que
son asintticamente incorrelacionadas.
MA(1)

La siguiente secuencia dbilmente dependiente:


xt = et + 1 et1

donde et : t = 1, . . . es iid, con media cero y varianzae2 . A este proceso se


le conoce como proceso de media movil de orden 1, M A(1) : xt es el promedio
ponderado entre et y et1
Demostracin de dependencia dbil. Notar que xt+1 = et+1 + 1 et ,
luego Cov(xt , xt+1 ) = 1 V ar(et ) = 1 e2 .Como V ar(xt ) = (1+12 )e2 , Corr(xt , xt+1 ) =
1
. Si vemos la correlacin en otros pedios notaremos que no estn correla1+21
cionados xt+2 = et+2 + 1 et+1 es independiente de xt al seret independiente en
todo t.
Por lo tanto M A(1) es dbilmente estacionario, y entonces LLN y el TLC
pueden ser aplicados. para xt

AR(1)

yt = 1 yt1 + et , t = 1, . . .

Esta secuancia empieza con y0 . Asumiremos que {et : t = 1, . . .} y que


E(y0 ) = 0. Adems, necesitamos asumir la condicin de estabilidad |1 |< 1|
Supondremos que E(yt ) = E(yt1 ). Tomando varianzas V ar(yt ) = 21 V ar(yt1 )+
e2
V ar(et ) y2 = 2y y2 + e2 y2 = 1
2
Usando covarianza (ver pag 351)

Corr(yt , yt+h ) =

Cov(yt , yt+h )
= h1
y y )

Con la ultima ecuacin podemos ver que meintras yt es correlada con cualquier
h 1, esta se hace ms pequeo mientras crece h ya que |1 |>1, 1 0.
Supuestos asintticos de OLS en TS
TS1:

Linealidad en los parmetros

TS2

Media condicional cero E(u_t | x_t )

TS3

No hay perfecta colinearidad

Teorema1.

Consistencia de OLS. Bajo TS1 y TS2 y TS3, p lim 1 = j . j =

0, 1, . . . , k
TS4

Homocedasticidad, t, V ar(ut |xt ) = 2

TS5

No correlacin serial.t 6= s, E(ut us |xs , xs ) = 0


OLS asintticamente normal. Bajo TS 1 hasta 5, el estimador OLS
es asintocamente normal. Los errores estndarm los estadsitocs t. F y
LM son asintoticamente validos.

Teorema2

Usando Series de Tiempo altamente Resistente es Anlisis


de Regresin

Como en AR(1), el supuesto de 1 | < 1 es crucial para la dbil dependencia.


Qu pasara si sucediera que 1 = 1?
Podemos escribir
yt = yt1 + et , t = 1, . . .

Manteniendo los otros supuestos de AR(1). A este proceso se le conoce como


caminata aleatoria. Podemo reescribir la ecuacion como
yt = et + et1 + . . . + e1 + y0

Tomando valor esperado en ambos lados


E(yt ) = E(y0 ), t 1

A lo que conocemor pro caminata aleatoria. Por otro lado, la varianza


V ar(yt ) = V ar(et )+ V ar(et1 )+ . . . +V ar(e1 ) = e2 t. Que en este caso la varianza crece en una proporcin linear a travez del tiempo. An mas importante
el valor de y en t es importante para conocer el valor en t + h con h grande.
yt+h = et+h + et+h1 + . . . + et+1 + yt

Como el valor esperado de et+j dado por yt es cero j 1


E (yt+h |yt ) = yt , h 1

podemos ver, ademas que la correlacion entre yt y yy+h es cerca de uno


para grandes t cuando {yt } sigue caminata aleatoria. Si V ar(y0 ) = 0, se puede
mostrar que
r
Corr(yt , yt+h ) =

t
t+h

Mientras ms grande sea t, la correlacin a cero es ms lenta para cuando h es


grande. Una caminata aleatoria es un caso especial de lo que se concoe como
proceso de raz unitaria (su nombre viene de que = 1 en un AR(1)).
Es importante no confundir series con tendencia con comportamiento de alta
persistencia. An, es posible encontrar series que tengan ambas propiedades.
Un modelo asi es el random walk, with drift
yt = 0 + yt1 et

donde et y y0 satisfcan las propiedades de la caminata aleatoria. Es fcil demostrar que E (yt ) = 0 t cuando y0 = 0. Tambin que E (yt+h |yt ) = 0 h + yt
Transformaciones en series altamente persistentes

A los procesos dbilmente dependientes se les llama integrados de orden cero


I(0). En trminos prcticos, nada se necesita hacer a las series para poderles
hacer un anlisis de regresin. En cambio, los procesos de raz unitaria como
la caminata aleatoria son integrados de orden uno I (1) que signica que con la
primera diferencia el proceso es dbilmente dependiente.
En una caminata aleatoria
yt = yt yt1 = et

por loq eu la serie en primera diferencia {yt : t = 2, . . .}es una serie iid. A
dems esta serie es dbilmente dependiente cuando {et } tambin es dbilmente
dependiente. Si nuestra serie fuera en logaritmos tendramos que
log yt

yt yt1
yt1

por otro lado, diferenciar una serie benecia que podemos eliminar tendencias
lineales.
3

Decidiendo si la serie es I(1)

Es muy difcil determinar si una series es I(0) o I(1). Existen mtodos inormales
para determinarlo. Como hemos visto un proceso AR(1) es estable si 1 =
Corr(yt , yt1 ), podramos estimar 1 . Este coeciente de correlacin es conocido
como autocorrelacin de primer orden de {yt }. Usando LGN, 1 es concistente
a 1 dado que |1 | < 1. Entonces podramos decidir segn la distancia a 1.
Como regla de dedo algunos economistas > .9 es suciente para pensar en
AR(1)
Modelos dinmicos completos y la ausencia de correlacin serial

En el AR(1) asumimos no correlacin serial.

También podría gustarte