Está en la página 1de 33

Solution for Time Series Analysis (Hamilton, 1994)

Lucca Simeoni Pavan

26 de maio de 2017

Doutorando em Desenvolvimento Econmico, PPDGE/UFPR - warrenjax@gmail.com

1
2

Captulo 3

Processos ARMA estacionrios

3.1
E(Yt ) = 0 = 0

Var(Yt ) = E(Yt )2 = E(Yt )2 = Var(t + 2.4t1 + 0.8t2 )


= (1 + 5.76 + 0.64) 2 = 7.4
Como a mdia e a varincia no dependem do tempo, o processo estacionrio em covarincia.

Cov(Yt , Yt1 ) = E(Yt )(Yt1 ) = E(t + 2.4t1 + 0.8t2 )(t1 + 2.4t2 + 0.8t3 )
= (2.4 + 1.92) 2 = 4.32

Cov(Yt , Yt2 ) = E(Yt )(Yt2 ) = E(t + 2.4t1 + 0.8t2 )(t2 + 2.4t3 + 0.8t4 )
= 0.8E(2t2 ) = 0.8 2 = 0.8

3.2
Yt = 1.1Yt1 0.18Yt2 + t
(1 1.1L + 0.18L2 )Yt = t
Yt = (1 1.1L + 0.18L2 )1 t

E(Yt ) = (1 1.1L + 0.18L2 )1 E(t ) = 0 = 0

Encontrando a varincia : 0
Yt2 = 1.1Yt Yt1 0.18Yt Yt2 + Yt t
E(Yt2 ) = 1.1E(Yt Yt1 ) 0.18E(Yt Yt2 ) + E(Yt t )
0 = 1.11 0.182 + 2

Encontrando a autocovarincia j :
Yt Ytj = 1.1Yt1 Ytj 0.18Yt2 Ytj + Ytj t
E(Yt Ytj ) = 1.1E(Yt1 Ytj ) 0.18E(Ytj Yt2 ) + E(Ytj t )
j = 1.1j1 0.18j2
Captulo 3. Processos ARMA estacionrios 3

Dado que j = j /0 dividindo ambos os lados de j por 0 temos:

j = 1.1j1 0.18j2

Para j = 1, 1 = 1.10 0.181 , ento:


1.1
1 = = 0.9322
(1 + 0.18)

Para j = 2, 2 = 1.11 0.18, ento:

2 = 1.1(0.9322) 0.18
= 0.8454

Como j = j 0 , podemos escrever a varincia 0 como:

0 = 1.11 0 0.182 0 + 2
= 1.1(0.9322)0 0.18(0.8454)0 + 2
= 1.025420 0.1521760 + 2
(1 1.02542 + 0.152176)0 = 2
2
0 = 7.9 2
(1 1.02542 + 0.152176)

Podemos verificar pela frmula geral:


(1 2 ) 2
0 =
(1 + 2 )[(1 22 )2 21 ]
Dado que 1 = 1.1 e 2 = 0.18
(1 + 0.18) 2
0 =
(1 0.18)[(1 + 0.18)2 1.12 ]
(1.18) 2
= 7.9
(0.82)[0.182]

Como a mdia e a varincia no dependem do tempo, o processo {Yt } estacionrio em covarincia.


Para encontra as autocovarincias usamos j = j 0 :

1 = 1 0 = 0.9322 7.9 2 7.364

2 = 2 0 = 0.8545 7.9 2 6.75

3.3

0 + 1 L + 2 L2 + ... 1 0 L 1 1 L2 1 2 L3 ... 2 0 L2 2 1 L3 2 2 L4 ...


p 0 Lp p 1 Lp+1 p 2 Lp+2 ... = 1

0 + [1 1 0 ]L + [2 1 1 2 0 ]L2 + [3 1 2 2 1 3 0 ]L3
+ [4 1 3 2 2 3 1 4 0 ]L4 + ... + [j 1 j1 2 j2 ... p1 1 p 0 ]Lp = 1
Captulo 3. Processos ARMA estacionrios 4

Para j = p, p + 1, ....
Com isso temos o seguinte sistema de equaes:

0 = 1
1 1 0 = 0
2 1 1 2 0 = 0
3 1 2 2 1 3 0 = 0
4 1 3 2 2 3 1 4 0 = 0
..
.
j 1 j1 2 j2 ... p1 1 p jp = 0

Resolvendo a partir de 0 :

0 = 1
1 1 0 = 0 1 = 1
2 1 1 2 0 = 0 2 = 21 + 2
3 1 2 2 1 3 0 = 0 3 = 1 2 + 2 1 + 3 0
..
.
j 1 j1 2 j2 ... p1 1 p 0 = 0 j = 1 j1 + 2 j2 + ... + p1 1 + p jp

Para j = p, p + 1, ....
Portanto os valores de j so a soluo para a equao de diferenas de nsima ordem com valor inicial 0 = 1
e 1 = 2 = ... = p+1 = 0. Ento, dos resultados das equaes em diferena:

j 1

j1
0

= Fj .

.. .
. .


p+1 0

Isto
(j)
j = f11

3.4
c
(L)c = 0 c + 1 Lc + 2 L2 c + 3 L3 c + ... =
1 1 L 2 L2
como Lj c = c j
c
(L)c (1)c = 0 c + 1 c + 2 c + 3 c + ... =
1 1 2

3.5

X
|j | <
j=0

Deixe 1 e 2 satisfazerem 1 1 L 2 L2 = (1 1 L)(1 2 L), note que 1 e 2 ambos esto dentro do


crculo unitrio em um processo AR(2) estacionrio em covarincia.
Captulo 3. Processos ARMA estacionrios 5

Considere primeiro o caso em que as duas razes 1 e 2 sejam reais e distintas. Dado que j = c1 1 + c2 2 ,
temos:


|c1 j1 + c2 j2 |
X X
|j | =
j=0 j=0

|c1 j1 | + |c2 j2 |
X
<
j=0
|c1 | |c2 |
= +
(1 |1 |) (1 |2 |)
<

Considere o caso em que 1 e 2 sejam razes complexas conjugadas distintas. Deixe R |i | representar o
modulo de 1 ou 2 . Ento 0 6 R < 1. Dado que no caso de razes complexas conjugadas distintas,
c1 j1 + c2 j2 = 2Rj cos(j) + 2Rj sen(j).


|c1 j1 + c2 j2 |
X X
|j | =
j=0 j=0
X
= |2Rj cos(j) 2Rj sen(j)|
j=0

X
X
6 |2| Rj | cos(j)| + |2| Rj |sen(j)|
j=0 j=0
X
X
6 |2| |Rj | + |2| |Rj
j=0 j=0
(|| + ||)
=2
(1 R)

Por fim, para o caso de razes reais repetidas || < 1,



X
X
X
X
|j | = |k1 j + k2 jj1 | 6 |k1 | |j | + |k2 | |jj1 |.
j=0 j=0 j=0 j=0

Mas
X |k1 |
|k1 | ||j = <
j=0
(1 ||)
e

X
|jj1 | = 1 + 2|| + 3||2 + 4|3 +
j=0

= 1 + (|| + ||) + (||2 + ||2 + ||2 )


+ (||3 + ||3 + ||3 + ||3 ) +
= (1 + || + ||2 + ||3 + ) + (|| + ||2 + ||3 + ) + (||2 + ||3 + ) +
1 || ||2
= + + +
(1 ||) (1 ||) (1 ||)
1
=
(1 ||)
<
Captulo 3. Processos ARMA estacionrios 6

3.6 AR():
(1 + 1 L + 2 L2 + )(Yt ) = t

M A(q):
(Yt ) = (1 + 1 L + 2 L2 + + q Lq )t

Dado que as razes de 1 + 1 z + 2 z 2 + + q z q so todas reais e distintas e esto fora do crculo unitrio e
o processo M A(q) invertvel, temos:

(1 + 1 L + 2 L2 + )(1 + 1 L + 2 L2 + + q Lq ) = 1

Que ao multiplicarmos, resulta em:

1 = 1 + 1 L + 2 L2 +
+ 1 L + 1 1 L2 + 1 2 L3 +
+ 2 L2 + 2 1 L3 + 2 2 L4 +
..
.
+ q Lq + q 1 Lq+1 + q 2 Lq+1 +

Para j = q, q + 1, . colocando os Li s em evidncia:

1 = 1 + (1 + 1 )L
+ (2 + 1 1 + 2 )L2
+ (3 + 1 2 + 2 1 + 3 )L3
..
.
+ (j + 1 j1 + + q1 1 + q )Lj

Para j = q, q + 1, . Para a igualdade valer, os coeficientes dos Li s devem ser zero, ento:

1 + 1 = 0 1 = 1
2 + 1 1 + 2 = 0 2 = 1 1 2 = 2 + 12
3 + 1 2 + 2 1 + 3 = 0 3 = 1 2 2 1 3 = 13 + 21 2 3
..
.
j + 1 j1 + + q1 1 + q = 0 j = 1 j1 q1 1 q

3.7 AR():
(1 + 1 L + 2 L2 + )(Yt ) = t

M A(q):
( n )( q )
1
Y Y
Yt = (1 j L) (1 j L) t
j=0 j=n+1

Ento: ( n )( q )
(1 1
Y Y
(1 + 1 L + 2 L2 + ) (1 j L) j L) =1
j=0 j=n+1
Captulo 3. Processos ARMA estacionrios 7

Efetuando a multiplicao, temos:

( n )( q )
1
Y Y
1= (1 j L) (1 j L)
j=0 j=n+1
( n )( q )
1
Y Y
+ 1 L (1 j L) (1 j L)
j=0 j=n+1
( n )( q )
1
Y Y
2
+ 2 L (1 j L) (1 j L)
j=0 j=n+1
..
.

( )( )
1

2 n 2 q
1= 1 + 1 L + 2 L + + n L 1 q n+1 L + n+2 L + + q L
Q
j
j=n+1
( )( )
1

+ 1 L 1 + 1 L + 2 L2 + + n Ln 1 q n+1 L + n+2 L2 + + q Lq
Q
j
j=n+1
( )( )
1

+ 2 L2 1 + 1 L + 2 L2 + + n Ln 1 q n+1 L + n+2 L2 + + q Lq
Q
j
j=n+1
..
.

 
( 1 + 1 L + 2 L2 + + n Ln  )
1= 1 + 1 L + 2 L2 + + n Ln q n+1 L + n+2 L2 + + q Lq
Q
j
j=n+1
(
+ 1 L 1 + 1 L + 2 L2 + + n Ln
 
1 L1 + 1 L + 2 L2 + + n Ln  )
q n+1 L + n+2 L2 + + q Lq
Q
j
j=n+1
(
+ 2 L2 1 + 1 L + 2 L2 + + n Ln
 
2 L2 1 + 1 L + 2 L2 + + n Ln  )
2 q
q n+1 L + n+2 L + + q L
Q
j
j=n+1
..
.
Captulo 3. Processos ARMA estacionrios 8

Como no exerccio 6, devemos realizar as multiplicaes e isolar os Li s para derivar o algoritmo dos
coeficientes.

3.8
Yt = (1 + 2.4L + 0.8L2 )t

(1 1 z)(1 2 z) = 1 + 2.4z + 0.8z 2


1 = 0.4, 2 = 2

Ento 1 + 2.4z + 0.8z 2 = (1 + 0.4z)(12 z) como uma raiz, 2 est est fora do crculo unitrio, o termo
(1 + 0.4z)(1 + 2z) no invertvel. O operador invertvel

(1 + 0.4z)(1 + 0.5z) = (1 + 0.9z + 0.2z 2 ).

Funo geradora de autocovarincia e invertibilidade para um processo M A(2) :

gY (z) = 2 (1 + 1 z + 2 z 2 )(1 + 1 z 1 + 2 z 2 )
= 2 (1 + 1 z + 2 z 2 + 1 z 1 + 12 + 1 2 z + 1 z 2 + 1 2 z 1 + 22 z 2 )
= 2 [1 + 2 z 2 + (1 + 1 2 )z + (1 + 12 + 22 )z 0 + 2 z 2 + (1 + 1 2 )z 1 ]
2 [(1 1 z)(1 2 z)(1 1 z 1 )(1 2 z 1 )]

Como 2 = 2 est fora do crculo unitrio, substitumos por seu inverso 1


2 = 0.5. Devemos tambm
2 2 2 0
substituir por 2 .Lembrando que z = 1 para encontrarmos a autocovarincia de ordem zero:

gY = 2 22 [(1 1 z)(1 1 1 1 1
2 z)(1 1 z )(1 2 z )]
= (1)4[(1 + 0.4z)(1 + 0.5z)(1 + 0.5z 1 )(1 + 0.5z 1 )]
= 4[(1 + 0.9z + 0.2z 2 )(1 + 0.9z 1 + 0.2z 2 )]
= 4[z 0 + 0.9z + 0.2z 2 + 0.9z 1 + 0.18z 0 + 0.18z + 0.2z 2 + 0.018z 1 + 0.2z 0 ]

As autocovarincias podem ser encontradas derivando a funo geradora de autocovarincias com respeito a
z j em que j a ordem de defasagem desejada para a autocovarincia.
Lembrando que z 0 = 1 para encontrarmos a autocovarincia de ordem zero. Ento:

gy
0 = = 4[1 + 0.81 + 0.4] = 7.4
z 0
gy
1 = 1 = 4[0.9 + 0.18] = 4.32
z
gy
2 = 2 = 4[0.2] = 0.8
z

Que so as mesmas autocovarincias do processo Yt = (1 + 2.4L + 0.8L2 )t do exerccio 1.


Podemos concluir que o processo gerado pelo operador invertvel

(1 + 0.4z)(1 + 0.5z) = (1 + 0.9z + 0.2z 2 ),


Captulo 3. Processos ARMA estacionrios 9

tm a varincia 22 = 4 vezes menor que o processo gerado pelo operador no invertvel 1 + 2.4L + 0.8L2 .
Para verificao, vamos gerar as autocovarincias do processo invertvel, conforme a frmula padro. Como
1 = 0.9, 2 = 0.2 e 2 = 1, as autocovarincias so:

0 = [1 + 12 + 22 ] 2 = 1 + 0.81 + 0.04 = 1.85


1 = [1 + 1 2 ] 2 = 0.9 + 0.18 = 1.08
2 = 2 2 = 0.2

Isto ocorre pois a varincia, 2 das s s deveria ter sido substituda por 2 22 . Conclui-se que quando existe
uma raiz i fora do crculo unitrio, as autocovarincias do proceso invertvel associado devem ser infladas
por um fator de
m
Y
2i .
i=n+1

em que n , n+1 , , m so as razes fora do crculo unitrio, 1 , 2 , , n so as razes dentro do crculo


unitrio e m o nmero total de razes.
10

Captulo 4

Previso

4.1 Frmula 4.3.6:

h i
(m)0 0(m) 1(m) 2(m) m
(m)
h i
= 1 + 2 2 + 2 m + 2
1
1

0 + 2 1 + 2 m1 + 2




1 + 2 0 + 2 m2 + 2




. .. .. .. ..
..

. . . .


m1 + 2 m2 + 2 0 + 2

1
E Yt+1 X0t E Xt X0t
  
h i0
Para Xt = 1 Yt
1
h i 1 E[Yt ]
(1)0 = E[Yt+1 ] E[Yt+1 Yt ]
E[Yt ] E[Yt2 ]
" #
h i 1 0 + 2
= 1 + 2
0 1
1 h i
= 0 + 3 1 3 2 + 1 + 2
0
1 h i
= 0 1 1
0
h i
= (1 1 ) 1

E[Yt+1 |Yt ] = 0 Xt
" #
h i 1
= (1 1 ) 1
Yt
 
E Yt+1 |Yt = (1 1 ) + 1 Yt
Captulo 4. Previso 11

Portanto a previso de Yt+1 com base em informaes somente do perodo t uma mdia ponderada entre o
valor esperado de Yt () e Yt , em que o fator de ponderao o coeficiente de autocorrelao de primeira
defasagem, 1 .

a) Processo AR(1):
Yt = c + Yt1 + t
Equao 4.2.9:
(L)
E[Yt+s |t , t1 , ] = + t
Ls
Se o processo AR(1) for invertvel ele pode ser escrito da forma
c t
Yt = +
1 L 1 L
= + (L)t , (L) = 1 + L + 2 L2 +

Para Yt+1 o processo se torna:

Yt+1 = + t+1 + t + 2 t1 +

O preditor linear timo tem a forma:

E[Yt+1 |t , t1 , ] = + t + 2 t1 +

Dividindo (L) por Ls com s = 1


(L)
= L1 + + 2 L +
L
e tratando os L com expoente negativo como zero para derivar o operador de aniquilao, o preditor
timo para um perodo frente pode ser escrito em notao de operador de defasagem:
" #
(L)
E[Yt+1 |t , t1 , ] = + t
L
+

Que idntico equao 4.2.9 com s = 1.


b) Processo M A(1):
Yn = + n + n1
Equao 4.5.20:

[1 + 2 + 4 + + 2(n2) ]
 
E(Yn |Yn1 , Yn2 , , Y1 ) = + Yn1 E(Yn1 |Yn2 , Yn3 , , Y1 )
[1 + 2 + 4 + + 2(n1) ]

O processo M A(1) pode ser escrito como:

Yn = n + n1
As autocovarincias so:

0 = E[(Yn )2 ] = E(n + n1 )(n + n1 ) = E(2n + 2n n1 + 2 2n1 ) = 2 [1 + 2 ]


1 = E[(Yn )(Yn1 )] = E[(n + n1 )(n1 + n2 )]
= E(n n1 + n n2 + 2n1 + 2 n1 n2 ) = 2
j = 0 j = 2, 3, .
Captulo 4. Previso 12

Temos que para n = 2

E(Y2 |Y1 ) = + Cov(Y2 , Y1 )Var(Y22 )1 (Y1 E(Y1 ))



=+ (Y1 E(Y1 ))
1 + 2
Que idntico equao 4.5.20 com n = 2.
c) Dado que  
E Yt+1 |Yt = (1 1 ) + 1 Yt
Podemos rearranjar a expresso e obter
 
E Yt+1 |Yt = + 1 (Yt )

Como o coeficiente de correlao de primeira defasagem de um processo AR(2)

1
1 =
1 2
O preditor se torna
  1
E Yt+1 |Yt = + (Yt )
1 2
O resduo desta predio

" #
1
Yt+1|t = Yt+1 + (Yt )
1 2
1
= + 1 Yt + 2 Yt1 + t+1 (Yt )
1 2
!
1 1 2
= Yt + 2 Yt1 + t+1
1 2 1 2

Verificando correlao entre resduo e valores defasados:


(" ! #" #)
1 1 2
E(Yt+1|t Yt ) = E Yt + 2 Yt1 + t+1 + 1 Yt1 + 2 Yt2 + t
1 2 1 2
6= 0

Ento, Yt+1|t e Yt so correlacionados.

(" ! #" #)
1 1 2
E(Yt+1|t Y1 ) = E Yt + 2 Yt1 + t+1 + 1 Yt2 + 2 Yt3 + t1
1 2 1 2
6= 0

Ento, Yt+1|t e Yt1 tambm so correlacionados.

4.2 Como s = q = 1, temos um processo M A(1):

Yt = + t + t1

E a predio a ser realizada para um perodo frente:


Captulo 4. Previso 13

E[Yt+1 |Yt ].

Dado que o processo M A(1) possa ser escrito na forma

Yt = (1 + L)t .

Sendo a frmula de predio de Wiener-Kolmogorov para s = 1:


" #
(L)
Yt+1|t =+ t
L
+

Substituindo o processo
M A(1)
na frmula temos:
" #
1 + L (Yt )
Yt+1|t =+
L 1 + L
+

Para o processo M A(1):

h 1 + L i
=
L +

Ento podemos escrever a frmula de Wiener-Kolmogorov como

(Yt )
Yt+1|t = +
1 + L
Expandindo a soma infinita representada:

Yt+1|t = + (Yt ) 2 (Yt1 ) + 3 (Yt2 ) + (1)m1 m (Ytm+1 )

Equivalente equao 4.3.3.

4.3

1 2 3
= 2 6 4

3 4 12

1 0 0
E1 = 2 1 0

3 0 1

1 0 0 1 2 3 1 2 3
0
E1 E1 = H = 2 1 0 2 6 4 0 1 0

3 0 1 3 4 12 0 0 1

1 2 3 1 2 3
= 0 2 2 0 1 0

0 2 3 0 0 1

1 0 0
= 0 2 2

0 2 3
Captulo 4. Previso 14


1 0 0
E2 = 0 1 0

0 1 1

1 0 0 1 0 0 1 0 0
E2 HE2 0 = 0 1 0 0 2 2 0 1 1

0 1 1 0 2 3 0 0 1

1 0 0 1 0 0
= 0 2 2 0 1 1

0 0 1 0 0 1

1 0 0
= 0 2 0

0 0 1

1
E2 E1 E1 0 E2 0 = E2 E1 (E2 E1 )0 = A1 A0 =D
0
= ADA
1
1 0 0 1 0 0
A = (E2 E1 )1 = 0 1 0 2 1 0

0 1 1 3 0 1
1
1 0 0
= 2 1 0

5 1 1

1 0 0
= 2 1 0

3 1 1

1 0 0 1 0 0 1 2 3
0
AA = 2 1 0 0 2 0 0 1 1

3 1 1 0 0 1 0 0 1

4.4 No pois o coeficiente de Y2 da projeo linear de Y4 contra Y3 , Y2 e Y1 :


Dado que

1
Y4 = Y4 + k43 k33 Y3 + h41 h1 1
22 Y2 + 41 11 Y1 ,

temos ainda que:


Y1 = Y,
Y2 = Y2 21 1
11 Y1

Y3 = Y3 31 1 1 1
11 Y1 h32 h22 (Y2 21 11 Y1 )

Substituindo em Y4 nos d:
1
Y4 = Y4 + k43 k33 (Y3 31 1 1 1
11 Y1 h32 h22 (Y2 21 11 Y1 ))
+ h41 h1 1 1
22 (Y2 21 11 )Y1 + 41 11 Y1

Podemos observar que o coeficiente de Y2

h41 h1 1 1
22 k43 k33 h32 h22
Captulo 4. Previso 15

J o elemento (4, 2) de A

h41 h1
22

1
Dado que k43 k33 h32 h1
22 6= 0, os termos so diferentes e a resposta no.

4.5 Se Xt segue um processo AR(p) ele pode ser representado na forma

Xt = 1 Xt1 + 2 Xt2 + + p Xtp + t .


t
Xt =
1 1 L 2 L2 p Lp

Com t sendo um rudo branco. Ento o processo Yt = Xt + t se torna


t
Yt = + t .
1 1 L 2 L2 p Lp

Que por sua vez pode ser escrito como

t + (1 1 L 2 L2 p Lp )t
Yt =
(1 1 L 2 L2 p Lp )
t + t 1 t1 2 t2 p tp
= .
(1 1 L 2 L2 p Lp )

Que um processo ARM A(p, p) com i = i , i = 1, 2, , p.

4.6 Se Xt segue um processo AR(p) ele pode ser representado na forma

Xt = 1 Xt1 + 2 Xt2 + + p Xtp + t .


t
Xt =
1 1 L 2 L2 p Lp

Com t sendo um rudo branco. Se Zt segue um processo M A(q), ele pode ser escrito como

Zt = t + 1 t1 + 2 t1 + + q t1


= (1 + 1 L + 2 L2 + + q Lq )t

Somando os dois processos temos:

Yt = Xt + Zt
t
= + (1 + 1 L + 2 L2 + + q Lq )t
1 1 L 2 L2 p Lp
t + (1 1 L 2 L2 p Lp )(1 + 1 L + 2 L2 + + q Lq )t
=
1 1 L 2 L2 p Lp

Expandindo o termo (1 1 L 2 L2 p Lp )(1 + 1 L + 2 L2 + + q Lq ) temos:


Captulo 4. Previso 16

1 1 L 2 L2 p Lp
+ 1 L 1 1 L2 1 2 L3 1 p Lp+1
+ 2 L2 2 1 L3 2 2 L4 2 p Lp+2
.
+ ..
+ q Lq q 1 L1+q q 2 L2+q q p Lp+q

Ento a maior ordem de defasagem de tj p + q, j = 0, 1, 2, , p + q. Com isso o processo Yt um


processo ARM A(p, p + q).
17

Captulo 5

Estimao de Mxima Verossimilhana

5.1 Equao 5.4.16:


T T
T 1X 1X yt2
L () = log fY (y; ) = log(2) log(dtt ) .
2 2 t=1 2 t=1 dtt

os termos que possuem e 2 so as equaes 5.4.11

[1 + 2 + 4 + + 2(t2) ]
y = yt yt1 ,
[1 + 2 + 4 + + 2(t1) ]
e 5.4.12
1 + 2 + 4 + + 2t
dtt = E(Yt2 ) = 2 .
1 + 2 + 4 + + 2(t1)
as duas equaes so compostas por uma razo de somas finitas, com isso temos:

2(t2)
[1 + 2 + 4 + + 2(t2) ] [ 1
12
]
= 2(t1)
[1 + 2 + 4 + + 2(t1) ] 1
2
1
[1 2(t2) ]
=
1 2(t1)

e
12t
1 + 2 + 4 + + 2t 12
=
1 + 2 + 4 + + 2(t1) 12(t1)
12
1 2t
=
1 2(t1)

Se 2 = 2 e = , ento:

[1 + 2 + 4 + + 2(t2) ]
y = yt yt1 ,
[1 + 2 + 4 + + 2(t1) ]
[1 2(t2) ]
= yt yt1
1 2(t1)
Captulo 5. Estimao de Mxima Verossimilhana 18

1 + 2 + 4 + + 2t
dtt = E(Yt2 ) = 2
1 + 2 + 4 + + 2(t1)
1 2t
= 2
1 2(t1)

Agora se 2 = 2 2 e = 1 :

1 [1 + 2 + 4 + + 2(t2) ]
y = yt yt1 ,
[1 + 2 + 4 + + 2(t1) ]
[1 2(t2) ]
= yt 1 yt1
1 2(t1)

1 + 2 + 4 + + 2t
dtt = E(Yt2 ) = 2
1 + 2 + 4 + + 2(t1)
1 2t
= 2 2
1 2(t1)

As duas formas so equivalentes pois

[1 2(t2) ] [1 2(t2) ]
1
1 2(t1) 1 2(t1)
e
1 2t 1 2t
2 
1 2(t1) 1 2(t1)

5.2 Equao 5.7.6:


L () = 1.512 222
Equao 5.7.12:
(1) (0) = [H( (0) )]1 g( (0) ).
Dado que (0) = [1, 1]0 .

" # " #
31 3
g() = g( (0) ) =
42 4
" # " #
3 0 1 4 0
H( (0)
)= [H( (0) )]1 =
0 4 12 0 3

(1) (0) = [H( (0) )]1 g( (0) )


" # " #" #
1 1/3 0 3
(1) = +
1 0 1/4 4
" # " #
1 1
= +
1 1
" #
0
= 
0
Captulo 5. Estimao de Mxima Verossimilhana 19

5.3 a)
T
T T (yt )2
L (, 2 ; y1 , y2 , , yT ) =
X
log(2) log( 2 )
2 2 t=1
2 2

T
L X 2(yt )
=0 = 0,
t=1
2 2
T T
1
X X
yt = T = T yt
t=1 t=1

T
L T 2(yt )2
X  
= 0 = 0,
2 2 2 t=1
4 4
T T
T 1 X 2 2 1
X
= (y t ) = T (yt )2 
2 2 2 4 t=1 t=1

b)
T
2L X 2 T
= = 2
2 t=1
2 2

T T
2L X 4(yt ) X (yt )
2
= 4
=
t=1
4 t=1
4

T T
2L 2T X 4 2 (yt )2 T X (yt )2
= =
( 2 )2 4 4 t=1 4 8 2 4 t=1 6

T T
2L X 4(yt ) X (yt )
= =
2 t=1
4 4
t=1
4

Ento a matriz Hessiana fica:

T
(yt )
T2
P
2 L () t=1
4
=
0 PT
(yt ) T
T
(yt )2


P
4 2 4 6
t=1 t=1

Se multiplicada por T 1 e avaliada em = :

T

(yt )
T2
P
2 L ()
4


1
I2D = T T 1 t=1

=E

0 T T
P (yt ) T P (yt )2



=

4 2 4 6

t=1 t=1
Captulo 5. Estimao de Mxima Verossimilhana 20

Dado que E[yt ] = e E[(yt )2 ] = 2 :


" #
1/ 2 0
I2D =
0 1/2 4


c) A inversa de I2D :

" # " #
1 1/2 4 0 2 0
I2D = 2 6 2 =
0 1/ 0 2 4

Multiplicando por T 1 :
" #
1 1 2 /T 0
T I2D =
0 2 4 /T

com isso: " # " # " #!


2 /T 0
N ,
2 2 0 4
2 /T

21

Captulo 6

Anlise Spectral

6.1 Equao 6.1.12:


sY () = (2)1 2 [1 + 2 + 2 cos()].
equao 6.1.6:

1
 X 
sY () = 0 + 2 j cos(j) .
2 j=1

Autocovarincias de um processo M A(1):

0 = 2 [1 + 2 ]
1 = 2
k = 0 k > 2

Substituindo as autocovarincias na equao 6.1.6, temos:

1
 
sY () = 2 [1 + 2 ] + 2 2 cos()
2
= 2 1 2 [1 + 2 + 2 cos()] 

6.2 Equao 6.1.9:


2
sY () =
2
Equao 6.1.12:
sY () = (2)1 2 [1 + 2 + 2 cos()].
Equao 6.1.17: Z
sY ()d = 0

Integrando 6.1.9:
Z 2  
2
d =
2 2
2
= [ ()]
2
2
= 2
2
= 2
Captulo 6. Anlise Spectral 22

Integrando 6.1.12:
Z  
1 2 2 1 2 2
(2) [1 + + 2 cos()]d = (2) + + 2sen()

 
1 2 2 2
= (2) ( + + 2sen()) ( + () + 2sen())
 
= (2)1 2 ( + 2 + 2sen()) + + 2 2sen())
 
1 2 2
= (2) 2(1 + )

= 2 [1 + 2 ]

J que sen() = sen() = 0. 


23

Captulo 7

Teoria de distribuio assinttica

7.1 Por continuidade, |g(XT , cT ) g(, c)| > somente se |XT | + |cT c| > para algum . Mas cT c e
p
XT significa que existe um N tal que |cT c| < /2 para todo T N , com isso P {|cT c| > /2} = 0,
e tal que P {|XT | > /2} < para todo T N . Ento P {|XT | + |cT c| > } menor que para
todo T N , implicando que P {g(XT , cT ) g(, c)| > } < . 

7.2 a)

X
Yt = 0.8i ti = t
i=0
T
1X
Yt = t
T t=1
Var[Yt ] = E[Yt2 ] E[Yt ]2 , dado que E[Yt ] = 0
(" T
#2 )
1X
Var[Yt ] = E[Yt2 ] =E t
T t=1
T
1 X
 
= 2E (t + 0.8t1 + 0.82 t2 + )(t + 0.8t1 + 0.82 t2 + )
T t=1
T
1 X
 
= 2E 2t + 0.8t t1 + 0.82 t t2 + + 0.8t t1 + 0.82 2t1 + 0.83 t1 t2 +
T t=1
T 
1 X

2 4 6
= 2 1 + 0.8 + 0.8 + 0.8 +
T t=1
1 T 2.77
= 2 2
=
T 1 0.8 T
2.77
lim T Var[Yt ] = lim T = 
T T T

b) De uma distribuio normal padronizada, o valor da varivel z que possui 95% de confiana 1.645.
Portanto:


T
1.645 = 0.1 T = 751, 67
2.77

Ento a amostra deve ter mais de 751 observaes. 

7.3 No, pois uma sequncia de diferena martingale possui varincia que pode depender do tempo.
Captulo 7. Teoria de distribuio assinttica 24

7.4 Sim, pois uma sequncia de diferena martingale possui mdia zero, porm, com a adio do fato de que sua
varincia seja constante (no dependente do tempo), Yt se torna estacionrio em covarincia.

7.5 Uma sequncia {Yt } uniformemente integrvel se para cada > 0, existe um c > 0 tal que

E(|Yt | [|Yt |c] ) <

Para todo t, onde [|Yt |c] = 1 se |Yt | c e 0 caso contrrio.


Para a varivel aleatria de interesse temos:

X

 X 

E(|Xt,k | [|Yt |c] ) = E
u v [tu tkv E(tu tkv )] [|Yt |c]

u=0 v=0
X
X




E u v [tu tkv E(tu tkv )] [|Y |c]
t
u=0 v=0

Como {j }
j=0 absolutamente somvel podemos colocar o operador de esperana dentro do somatrio.

X
X





E(|Xt,k | [|Yt |c] ) = E u v [tu tkv E(tu tkv )] [|Yt |c]
u=0 v=0
X r 1/r 
E|Yt,k | (r1)/r
X  

u v E [tu tkv E(tu tkv )]
u=0 v=0
c

Em que a ltima desigualdade segue os mesmo argumentos de 7.A.6. Portanto


X  1/r 
E|Xt,k | (r1)/r

0
X
E(|Xt,k | [|Yt |c] ) u v M

u=0 v=0
c

Dado que E|Xt,k | seja limitado:


XX
E|Xt,k | = E
u v [tu tkv E(tu tkv )]
u=0 v=0
X
X



u v E [tu tkv E(tu tkv )]

u=0 v=0
=K

Temos que:

X
 1/r  (r1)/r
X 0 K
E(|Xt,k | [|Yt |c] ) u v M

u=0 v=0
c

Desde que {j }
j=0 seja absolutamente somvel, o lado direito da desigualdade pode ser suficientemente
pequeno (< ) se escolhermos c suficientemente grande. 
Captulo 7. Teoria de distribuio assinttica 25

p
7.6 Pela proposio 7.1, s preciso mostrar que Yt . Como a varincia de Yt converge para zero quando t
tende ao infinito ( 2 /T 0) e Yt , Yt converge em mdia quadrtica para e portanto tambm converge
em probabilidade.

7.7 a) Podemos mostrar que


T
1X m.s.
Yt .
T t=1
Ou seja, que
T 2
1X

E Yt < .
T t=1
Pela lei dos grandes nmeros para observaes serialmente correlacionadas (seo 7.2) temos que
m.s.
E(YT )2 0. Portanto YT , o que implica em
T
1X p
Yt
. 
T t=1

b) Note que E|t |r < para r = 4, tal que 7.2.14 estabelece


T
1 X p
Yt Ytk
E(Yt Ytk ).
T k t=k+1

Onde Yt Yt . Mas

T T
1 X 1 X
Yt Ytk = (Yt + )(Ytk + )
T k t=k+1 T k t=k+1
T T T
1 X 1 X 1 X
= Yt Ytk + Ytk + Ytk + 2
T k t=k+1 T k t=k+1 T k t=k+1
= E(Yt + )(Ytk + )
= E(Yt Ttk ). 
26

Captulo 8

Linear Regression Models

8.1 Por 8.1.13:

y0 X(X0 X)1 X0 y y0 X(X0 X)1 X0 y + y0 y y0 y


Ru2 =
y0 y y0 y
0 0 0 1
y y y [I X(X X) X ]y 0 y0 Mx Mx y
= = 1
y0 y y0 y
T
u2
P
u0 u t=1
t
=1 =1
y0 y T
yt2
P
t=1

y0 X(X0 X)1 X0 y T y 2 y0 X(X0 X)1 X0 y + y0 y y0 y T y 2


Rc2 =
y0 y T y 2 y0 y T y 2
0 0 0 1 0
y y y [I X(X X) X ]y T y 2 y0 Mx Mx y T y 2
= = 1
y0 y T y 2 y0 y T y 2
T T
u2 u2
P P
u0 u t=1
t
t=1
t
=1 =1 =1
y0 y T y 2 T T T
yt2 T y 2 yt2 y 2
P P P
t=1 t=1 t=1
T
u2
P
t
t=1
=1 T 
(yt y)2
P
t=1

8.2 O valor crtico a 5% para uma varivel 2 (2) 5.99. Uma varivel F (2, N ) ir ter um valor crtico que se
aproxime de 5.99/2 = 3.00 conforme N . necessrio um N em torno de 300 observaes antes que o
valor crtico de uma varivel F (2, N ) alcance 3.03, ou dentro de 1% de valor limite.

8.3 Mostrar que


T
1 X d
xt ut N (0, 2 Q)
T t=1

T p
1 0.
P
Se xt ut uma sequncia martingale, E(xt ut ) = 0 xu
T t=1 t t
Captulo 8. Linear Regression Models 27

J a varincia dada por


T T
1 X 1 X
xt ut xt ut
T t=1 T t=1
e
T T T
1 X 1 X 1X
 
E xt ut xt ut = E[xt ut ut x0t ]
T t=1 T t=1 T t=1

Por [8.2.26]
T
1X
lim E[xt ut ut x0t ] = 2 Q. 
T T
t=1

8.4 A proposio 7.5 e o resultado [7.2.14] estabelecem que

1
cT
P P P
1 (1/T ) yt1 (1/T ) ytp (1/T ) yt
P 2
(1/T ) yt1 ytp
P P P
1,T (1/T ) yt1 (1/T ) yt1 (1/T ) yt1 yt


. = .. .. .. ..
.
. . . . .


P 2
ytp yt1
P P P
p,T (1/T ) ytp (1/T ) (1/T ) y tp (1/T ) ytp yt
1
1

p 0 + 2 p1 + 2
1 + 2


.. .. .. ..
. . . .


p1 + 2 0 + 2 p + 2

que igual a (p) dado por [4.3.6].


28

Captulo 10

Processos Vetoriais Estacionrios em


Covarincia

10.1 Equao 10.2.19:


0 1 p1
01 0 p2 1
= [Ir2 A ] vec(Q).

vec .. .. .. ..
. . . .


0p1 0p2 0
Sendo que r = np e
A F(rr) F(rr)

Um processo escalar (n = 1) AR(p) tem o forma:

yt = 1 yt1 + 2 yt2 + + p ytp + t

Ou em forma vetorial:

t = F t1 + vt ,

Avaliando a frmula 10.2.19 para um processo escalar temos:



0 1 p1

1 0 p2 1
= [Ip2 A ] vec(Q).

vec .. .. .. ..
. . . .


p1 p2 0

Com
A F(pp) F(pp)

Temos ainda que Q para um processo escalar se torna:


Captulo 10. Processos Vetoriais Estacionrios em Covarincia 29



t


0

h i

0
Q = E[vv ] = E .
t 0 0
..





0

2t 0 0 1 0 0
0

0 0


2
0 0 0

=E
.. .. .. .. = .. .. .. ..

. . . . . . . .

0 0 0 0 0 0
Realizando a operao vec nos dois lados da equao 10.2.19 para o processo escalar:

0 1

1

0

..
.
.
. .



p1 0

1 0

0
0
.
1 2 ..

.
. = [Ip2 A ] .

p2 0
.. ..

. .

0
p1
p2 0

. .
. .
. .
0 0

dado que [Ip2 A ]1 uma matriz p2 p2 e o vetor coluna do lado direito tem dimenso P 2 1, o produto
dos dois termos pode ser feito da seguinte forma. Deixe que [Ip2 A ]1 seja igual a uma matriz H e que ela
seja particionada em p2 vetores coluna hj de dimenso p2 1 com j = 1, 2, , p2 .
h i
H = h1 h2 hp2

Ento o produto fica um vetor coluna de dimenso p2 1:



1
0
i
h h i h i
h1 h2 hp 2 .
= h1 (1) + h2 (0) + + hp2 (0) = h1
.. (p2 1) (p2 1)

o (p2 1)

Com isso os p primeiros termos do lado esquerdo do processo escalar empilhado o vetor coluna

0

1

2



..
.


p1
e os p primeiros termos do lado direito desta mesma equao um vetor composto pelos p primeiros elementos
do vetor h i
2 h1 2 ,
(p 1)
Captulo 10. Processos Vetoriais Estacionrios em Covarincia 30

que equivalente aos p primeiros elementos da primeira coluna de

2 H 2 [Ip2 A ]1 

10.2 a) Sendo y = (Xt , Yt )0 :

k = E[(yt )(ytk )0 ]

Dados que no exerccio X = Y = 0:

k = E[(yt )(ytk )0 ]
(" # )
Xt h i
=E Xtk Ytk
Yt
" #
Xt Xtk Xt Ytk
=E
Yt Xtk Yt Ytk

" #
Xt Xt Xt Yt
0 = E
Yt Xt Yt Yt
" #
(t + t1 )(t + t1 ) (t + t1 )(h1 Xt1 + ut )
=E
(h1 Xt1 + ut )(t + t1 ) (h1 Xt1 + ut )(h1 Xt1 + ut )
" #
(t + t1 )(t + t1 ) (t + t1 )(h1 (t1 + t2 ) + ut )
=E
(h1 (t1 + t2 ) + ut )(t + t1 ) (h1 (t1 + t2 ) + ut )(h1 (t1 + t2 ) + ut )
" #
2 [1 + 2 ] h1 2
=
h1 2 2 h21 [1 + 2 ] + u2

" #
Xt Xt1 Xt Yt1
1 = E
Yt Xt1 Yt Yt1
" #
(t + t1 )(t1 + t2 ) (t + t1 )(h1 Xt2 + ut1 )
=E
(h1 Xt1 + ut )(t1 + t2 ) (h1 Xt1 + ut )(h1 Xt2 + ut1 )
" #
(t + t1 )(t1 + t2 ) (t + t1 )(h1 (t2 + t3 ) + ut1 )
=E
(h1 (t1 + t2 ) + ut )(t1 + t2 ) (h1 (t1 + t2 ) + ut )(h1 (t2 + t3 ) + ut1 )
" #
2 0
=
h1 [1 + 2 ] h21 2
2

" #
Xt Xt2 Xt Yt2
2 = E
Yt Xt2 Yt Yt2
" #
(t + t1 )(t2 + t3 ) (t + t1 )(h1 Xt3 + ut2 )
=E
(h1 Xt1 + ut )(t2 + t3 ) (h1 Xt1 + ut )(h1 Xt3 + ut2 )
" #
(t + t1 )(t2 + t3 ) (t + t1 )(h1 (t3 + t4 ) + ut2 )
=E
(h1 (t1 + t2 ) + ut )(t2 + t3 ) (h1 (t1 + t2 ) + ut )(h1 (t3 + t4 ) + ut2 )
" #
0 0
=
h1 2 0

Temos ainda que j = 0 para j > 3. 


Captulo 10. Processos Vetoriais Estacionrios em Covarincia 31

b) Equao 10.4.3:

sy () = (2)1 Gy (ei ) = (2)1 k eik .
X

k=

Neste caso k = 1, 0, 1. Lembrando que k = 0k :

1
sy () = (2)1 k eik
X

k=1

Que de acordo com 10.4.11 fica:



2 (k) 2 (k)
XY {cos(k) i sen(k)}
P P
XX cos(k)
1
k=2 k=2
sy () =

2 2
2 (k) (k)
Y X {cos(k) i sen(k)}
P P
Y Y cos(k)

k=2 k=2

Analisando cada termo separadamente, lembrando que cos(0) = 1 e cos() = cos():


2
X (k)
sy ()11 = XX cos(k) = 2 cos() + 2 [1 + 2 ] + 2 cos()
k=2
= 2 [1 + 2 cos() + 2 ]

2
X (k)
sy ()22 = Y Y cos(k) = h21 2 cos() + 2 h21 [1 + 2 ]
k=2
+ u2 + h21 2 cos()
= 2 [h21 [1 + 2 ] + h21 2 cos()] + u2

2
(k)
XY eik = h1 2 ei2 + h1 2 [1 + 2 ]ei + h1 2
X
sy ()12 =
k=2

2
(k)
Y X eik = h1 2 + h1 2 [1 + 2 ]ei + h1 2 ei2
X
21
sy () =
k=2

O spectrum populacional fica:

" #
1 sy ()11 sy ()12
sy () =
2 sy ()21 sy ()22

O cospectrum entre X e Y :

cXY () = (2)1 h1 2 ( cos(2) + [1 + 2 ] cos() + )

E o quadrature spectrum entre X e Y :

qXY () = (2)1 h1 2 (sen(2) + [1 + 2 ]sen())


Captulo 10. Processos Vetoriais Estacionrios em Covarincia 32

c) Equao 10.4.45:
" #" #" #
1 0 sXX () 0 1 h(ei )
sy () =
h(e ) 1 0 sU U () 0 1
" #
sXX () sXX ()h(ei )
= i i ,
h(e )sXX () h(e )sXX ()h(ei ) + sU U ()

onde

h(ei ) = hk eik
X

k=

Que neste caso h(ei ) = h1 ei pois hk = 0 para k 6= 1.


(k)
sXX () = (2)1 XX eik
X

k=
 
= (2)1 2 ei + 2 [1 + 2 ] + 2 ei
 
= (2)1 2 1 + 2 cos() + 2

sU U () = (2)1 u2

 
sXX ()[h1 ei ] = (2)1 2 ei + 2 [1 + 2 ] + 2 ei [h1 ei ]
 
1 i2 i
= (2) h1 2 e + [1 + ]e 2
+
 
1
= (2) h1 2 {cos(2) isen(2)} + [1 + ]{cos() isen()} + 2

 
sXX ()h(ei ) = (2)1 2 ei + 2 [1 + 2 ] + 2 ei [h1 ei ]
 
1 i i2
= (2) h1 2 + [1 + ]e 2
+ e
 
1
= (2) h1 2 2
+ [1 + ]{cos() + isen()} + {cos(2) + isen(2)}

 
h(ei )sXX ()h(ei ) + sU U () = (2)1 h1 2 ei2 + [1 + 2 ]ei + [h1 ei ] + sU U
 
= (2)1 h21 2 e i 2
+ [1 + ] + e i
+ (2)1 u2
 
= (2)1 h21 2 2{cos()} + [1 + ] + (2)1 u2
2

d) Equao 10.4.49:
Z
1 sY X () ik
hk = (2) e d.
sXX ()
Captulo 10. Processos Vetoriais Estacionrios em Covarincia 33

Quando k = 1:

(2)1 [h1 2 + h1 2 [1 + 2 ]ei + h1 2 ei2 ] i


Z
h1 = (2)1   e d

(2)1 2 1 + 2 cos() + 2

[h1 2 ei + h1 2 [1 + 2 ] + h1 2 ei ]
Z
1
= (2)   d

2 1 + 2 cos() + 2
  
Z h1 2 ei + [1 + 2 ] + ei
= (2)1   d

2 1 + 2 cos() + 2
  
Z h1 2 1 + 2 cos() + 2
= (2)1   d

2 1 + 2 cos() + 2
Z
= (2)1 h1 d = h1

Quando k 6= 1:

Z
hk = (2)1 h1 ei eik d

Z
= (2)1 h1 e(k1)i d

Z Z
= (2)1 h1 cos([k 1])d + i(2)1 h1 sen([k 1])d

   
= ([k 1]2)1 h1 sen([k 1]) i([k 1]2)1 h1 cos([k 1])

=0 

También podría gustarte