Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PRÁCTICA DIRIGIDA
Indicaciones
El desarrollo de esta práctica calificada es domiciliaria y será desarrollada en forma grupal.
Cada grupo estará conformado a lo más por cinco integrantes y deberá resolver 20 ejercicios.
Observación: Si algún grupo que cuenta con cinco integrantes, requiere la incorporación de
un sexto, deberá resolver 24 ejercicios.
Fecha de entrega: Jueves 13 de Octubre de 2016 (1er. Examen Parcial)
Problemas
1. Sea un proceso de média móvil infinito. Probar que la sumabilidad absoluta de sus
coeficien-
∞ PT j
tes {ψj }j=0 implica sumabilidad cuadrática. Luego, pruebe que j=0 ψj L t presenta
convergencia en media cuadrática conforme T → ∞, y que la sumabilidad absoluta de los
coeficientes del proceso implican que el proceso es ergódico para la media.
Zt, si t es par
2. Sea Zt ∼ GW N (0, 1) y Xt =
Z2 − 1
t−1 √ , si t es impar
2
(a) Muestre que Xt es W N (0, 1) pero no es ruido iid(0, 1).
(b) Encuentre E [Xt+1 |Xt , . . . , X1 ] para t impar y para t par. Compare los resultados.
T
3. Sean {xt }t=1 un conjunto de valores observados, la función de autocovarianza muestral se
T −|j|
γ
bj 1 X
define como ρbj = donde γ bj = (xt+|j| − x)(xt − x). i) Si xt = a + bt, donde a y
γ
b0 T t=1
b son constantes con b 6= 0, muestre que para cada j ≥ 1, ρbj → 1 conforme T → ∞. ii) Si
Xt = A cos(ωt), donde A y ω son constantes (con A 6= 0 y ω ∈ h−π, π]), muestre que para
cada j, ρbj → cos(ωj) conforme T → ∞..
4 P∞
4. Derive los cuatro primeros valores {ψi }i=1 de Ψ(L) = j=0 ψj Lj correspondientes al proceso
ARMA(2,1): Yt = φ1 Yt−1 + φt−2 + t + θ1 t−1 donde ∼ N (0, σ 2 ).
T
5. Considere una serie de tiempo de frecuencia semestral {Yτ }τ =1 que sigue el proceso AR(1):
Yt = φ1 Yt−1 + t , donde t ∼ W N (0, σ2 ). Suponga el siguiente proceso ARMA Xt = αXt−1 +
T /2
Vt + θVt−1 , donde {Xt }t=1 son observaciones anuales que agregan los datos semestrales, esto
es Xt = Y2t−1 + Y2t . Determine los parámetros α y θ en función de φ1 y σ2 .
Así mismo, para los procesos que resulten ser causales, calcule
Plos primeros
seisPcoeficientes
5 ∞ j ∞
{ψj }j=0 en la representación causal de {Yt }: Yt = Ψ(L)t = ψ
j=0 j L t = j=0 ψj t−j
1 Eninglés: Trend component
2 Eninglés: Seasonal component
3 Causalidad: Un proceso ARMA(p, q) {Y } de la forma Φ(L)Y = Θ(L) es causal, o una función causal de
t t t
P∞ P∞ P∞
{t }, si existen constantes {ψj } tales que j=0
|ψj | < ∞ y Yt = Ψ(L)t = j=0
ψj Lj t = j=0
ψj t−j para
todo t. Dicho de otro modo, causalidad es equivalente a la condición Φ(z) 6= 0 para todo |z| ≤ 1 .
12. Para el proceso causal AR(2) definido mediante (1−z1−1 L)(1−z2−1 L)Yt = t , con |z1 | , |z2 | > 1,
probar que:
σ 2 z12 z22
h
2
−1 1−j 2
−1 1−j i
z1 − 1 z 1 − z2 − 1 z2 , para z1 6= z2
(z z − 1) (z2 − z1 )
1 2
γj =
r2 + 1
2 4 −j
σ r · r sen jθ + r2 − 1 tan θ
, para z1 = reiθ y z2 = z1
(r2 − 1) (r4 − 2r2 cos 2θ + 1) sen θ
13. Suponga que {Yt } es un proceso MA(1) no invertible Yt = t + θt−1 ,t ∼ W N (0, σ 2 ), donde
P∞ −j
|θ| > 1. Defina un proceso {ηt } como ηt = j=0 (−θ) Yt−j y pruebe que ηt ∼ W N (0, ση2 ).
Exprese ση2 en términos de θ y σ 2 y muestre que Yt tiene la siguiente representación invertible
1
(en términos de ηt ): Yt = ηt + ηt−1 .
θ
14. Denote a {Yt } la solución estacionaria única de las ecuaciones autoregresivas Yt = φYt−1 +
t , con t = 0, ±1, . . ., donde t ∼ W N (0, σ 2 ) y |φ| > 1. Entonces Yt está dado por la
P∞ 1
expresión Yt = − j=1 φ−j t+j . Defina la nueva secuencia κt = Yt − Yt−1 , muestre que
φ
κt ∼ W N (0, σκ2 ), y exprese σκ2 en términos de σ 2 y φ. Estos cálculos muestran que Yt es
1
la solución (única y estacionaria) de las ecuaciones causales AR: Yt = Yt−1 + κt , con
φ
t = 0, ±1, . . .
15. Pruebe que el valor del rezago 2 de la función de autocorrelación parcial del proceso MA(1):
θ2
Yt = t + θt−1 , para t = 0, ±1, . . ., donde t ∼ W N (0, σ 2 ) es α2 = − .
1 + θ2 + θ4
16. Considere la serie de tiempo Yt = ψ 0 zt + t , donde ψ 0 zt = δ + αt es el componente deter-
minístico con las constantes δ y α conocidas, y t es un proceso ruido blanco con varianza
σ2 . (i) Determine si Yt es estacionario. (ii) Muestre que el proceso Zt = ∆Yt = Yt − Yt−1
(primera diferencia de Yt ) es estacionario. (iii) Muestre que la media del promedio móvil
q
1 X
vt = Yt−j es ψ 0 zt , y brinde una expresión simplificada para la función de auto-
2q + 1 j=−q
covarianzas.
17. Considere el siguiente modelo caminata aleatoria con deriva (random walk with drift):
Yt = δ + Yt−1 + t para t = 1, 2, . . ., con Y0 = 0, donde Yt es ruido blanco con varianza σY2 .
Pt
(a) Muestre que le modelo puede ser escrito como Yt = δt+ k=1 k . (b) Encuentre la función
media y la función autocovarianzarde Yt . (c) Fundamente porque Yt no es estacionario en
t−1
covarianzas. (d) Muestre que ρ1 = → 1 conforme t → ∞. ¿Qué implicancia tiene este
t
resultado?. (e) Sugiera una transofmración para hacer la serie estacionaria, y pruebe que la
serie transformada es estacionaria.
18. Una serie de tiempo con componente periódico puede ser construida mediante una com-
binación de funciones sinusoidales Yt = A1 sen(2πfo t) +A2 cos(2πf
o t), donde A1 y A2 son
variables aleatorias independientes con medias cero y E A21 = E A22 = σ 2 . La constante
1/f0 determina el periodo o tiempo que toma el proceso en completar un ciclo. Muestre que
esta serie es débilmente estacionaria con función de autocovarianza γj = σ 2 cos(2πf0 j).
19. Considere dos series: Xt = Yt , Yt = t − θt−1 + ut , donde t y ut son series ruido blanco
independientes con varianzas σ2 y σu2 respectivamente, y θ es una constante específica. (a)
Exprese la función de autocorrelación, ρj para j = 0, ±1, ±2. . . . de la serie Yt como una
función de σ2 , σu2 y θ. (b) Determine la función de correlación cruzada ρX,Y,j que relaciona
Xt y Yt . (c) Muestre que Xt y Yt son estacionarias conjuntas.
20. Sea Xt un proceso normal estacionario con media µX y función de autocovarianzas γj . Defina
la serie de tiempo no lineal Yt = exp (Xt ). (a) Exprese la función media E [Yt ] en términos de
µX y γ0 . La función generadora de momentos de una variable aleatoria normal X con media
2 1 2 2
µ y varianza σ es MX = E [exp (λX)] = exp µλ + σ λ . (b) Determine la función de
2
autocovarianza de Yt . La suma de las dos variables normales aleatorias Xt+j +Xt sigue siendo
una variable aleatoria normal.
21. Sea t , para t = 0, ±1, ±2, . . . un proceso ruido blanco normal, y considere la serie Yt = t t−1 .
Determine la función media y la función de autocovarianza de Yt , y determine si ésta es
estacionaria.
22. Una función de valor real gt , definida sobre los enteros, es definida no negativa si y solo si
a0 Ga ≥ 0 para todo n−vector positivo a = (a1 , a2 , . . . , an )0 6= 0 con Gij = g (ti − tj ) para
i, j = 1, 2, . . . , n. (a) Probar que γh , la función de autocovarianza del proceso estacionario,
es una función definida no negativa. (b) Verificar que la autocovarianza muestral γ bh es una
función definida no negativa.
23. (a) Suponga que Xt es una serie de tiempo débilmente estacionaria P∞ con media cero y con
función de autocovarianza sumable absolutamente, γj , tal que j=−∞ γj = 0. Probar que
√ p
T X → 0 , donde X es el promedio temporal. (b) Muestre un ejemplo de un proceso que
satisfaga las condiciones de (a). ¿Qué tiene de especial este proceso?.
24. Sea Yt una secuencia iid(0, σ 2 ) para t = 0, ±1, ±2, . . .. (a) Para j ≥ 1 y k ≥ 1, probar que
Yt Yt+j y Yτ Yτ +k no están correlacionadas para todo τ 6= t. (b) Para j ≥ 1 fijo, muestre
PT 0 d
que el j-vector presenta la convergencia σ −2 T −1/2 t=1 (Yt Yt+1 , . . . Yt Yt+j ) → (z1 , . . . , zj )0
donde z1 , . . . , zj son variables aleatorias iidN(0, 1). [Observación: La secuencia Yt Yt+j para
t = 1, 2, . . . es j-independiente y ruidoh blanco 0, σ 4 . Utilice el dispositivo Cramér-Wold].
PT PT −j i d
(c) Muestre, para cada j ≥ 1, T −1/2
t=1 Yt Yt+j − t=1 Y t − Y Y t+j − Y → 0 con-
−1
PT
forme T → ∞ donde Y = T t=1 Yt .
Referencias
Brockwell, P. (2002), Introduction to time series and forecasting. 2nd Edition, Springer-Verlag.
Franses P., Dijk V. y Anne Opschoor. (2014). Time Series Models for Business and Economic
Forecasting. 2nd. Edition, Cambridge University Press.
Hamilton, J. D. (1994), Time Series Analysis, Princeton University Press.
Shumway R. y Stoffer D. (2011). Time Series Analysis and its Applications. With R Examples.
3th Edition, Springer-Verlag.