Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Contents
1 Introduction
2 Processus stochastiques
2.1 Processus stationnaires . . . . . . . .
2.2 Ergodicite . . . . . . . . . . . . . . .
2.3 Innovations . . . . . . . . . . . . . .
2.4 Theor`eme de Wold . . . . . . . . . .
2.5 Autocovariances et totales et partielles
.
.
.
.
.
3
4
4
5
5
6
3 Densite spectrale
3.1 Le spectre de la population . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Estimation de la densite spectrale . . . . . . . . . . . . . . . . . . . . . . .
7
7
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Operateur retard
9
4.1 Inversion des polynomes . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5 Mod`eles parametriques usuels
5.1 Processus moyenne mobile .
5.2 Processus auto-regressifs . .
5.3 Equations de Yule et Walker
5.4 Processus ARMA . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
14
17
18
1 INTRODUCTION
6 Methodologies de specification
20
6.1 Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.2 Transformations et differentiation . . . . . . . . . . . . . . . . . . . . . . 21
6.3 Crit`eres dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
7 Conclusion
23
8 Lectures additionnelles
23
9 Exercices
9.1 Aliasing . . . . . . . . . . . . . .
9.2 Somme de deux MA(1) . . . . . .
9.3 Moments dun MA(2) . . . . . . .
9.4 Simulation dun AR(1) . . . . . .
9.5 Moments dun AR(2) . . . . . . .
9.6 Simulation dun ARMA(1,1) . . .
9.7 Simulation des densites spectrales
9.8 Densite spectrale dun ARMA(1,1)
9.9 Filtres . . . . . . . . . . . . . . .
9.10 Crit`eres dinformation . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
24
24
25
25
26
26
26
27
27
1 Introduction
La statistique se preoccupe de porter des jugements sur une population a` partir de lobservation
dun e chantillon de cette population. Si lon prend lexemple des donnees denquete,
lordre dans lequel sont e chantillonnees les observations na pas dimportance. On peut
quand meme parfois accorder de limportance aux unites qui sont e chantillonnees comme
par exemple les e l`eves dune meme classe ou dun meme e tablissement, les habitants
dun meme quartier. La dimension temporelle prend de limporance quand on decide de
reinterroger les memes personnes. On peut allor e tudier leur e vvolution dans le temps.
Dans le domaine de la statistique denomee analyse des series temporelles, la dimension
temporelle des observation devient primordiale. Une serie temporelle est definie comme
une suite dobservations indexees par le temps. Lattention va se focaliser sur les proprietes
e volutives dune variable aleatoire, tant pour sa prevision que dans sa relation avec son
passe. Comme exemple de serie temporelle, viennent immediatement a` lesprit toutes les
series macroeconomiques, mais aussi les series financi`eres.
Les series temporelles peuvent e tre observees de mani`ere continue ou de mani`ere discr`ete.
Les mod`eles de la finance par exemple reposent souvent sur une hypoth`ese de temps continu car sur un marche boursier les transaction paraissent tr`es rapprochees. Par contre les
donnees macroeconomiques sont typiquement des donnees observees en temps discret a` un
intervalle du mois, du trimestre ou meme de lannee. On rappellera la distinction usuelle
entre donnees de flux qui concernent des phenom`enes continus comme les prix ou les taux
dinteret, mais que lon a choisi de nobserver qu`a des intervalles reguliers et discrets,
et les donenes de stocks qui resultent dun phenom`ene daccumulation. Linvestissement
2 PROCESSUS STOCHASTIQUES
est un flux, tandis que le capital est un stock resultant dun cote de laccumulation des
investissements passes et de lautre cote dun phenom`ene de depreciation.
Lexamen graphique dune serie temporelle montre que la valeur prise au temps t
depend fortement de la valeur prise au temps t 1. Le processus qui les engendre est dynamique. On voudra en construisant un mod`ele, acquerir de linformation sur ce processus
theorique que lon appelle Processus de Generation des Donnees ou PGD. Le probl`eme est
alors de trouver le mod`ele pratique qui approchera le plus possible le processus theorique
et ensuite de lestimer. Une fois cette e tape franchie, on pourra faire de la prevision ou du
controle avec ce mod`ele. Les types de mod`eles que lon peut considerer sont nombreux.
En statistique on va sinteresser a` modeliser une serie univariee au moyen dun mod`ele
ARMA, ou bien considerer plusieurs series a` la fois et les modeliser conjointement dans
un mod`ele multivarie ou mod`ele VAR de mani`ere a` mettre a` jour les interactions entre
ces variables. En e conometrie, on sinteressera plutot a` une modelisation conditionnelle
qui e tudie la dynamique dune variable, conditionnellement a` dautre variables supposees
exog`enes.
La plupart des mod`eles supposent que les series e tudiees sont stationnaires. Les proprietes des estimateurs reposent sur cette hypoth`ese. Cependant la plupart des series que
lon a a` traiter croissent dans le temps, ou meme si elles ne sont pas croissantes, ont des
fluctuations qui ne sont pas reguli`eres. Elles sont non-stationnaires. Il est en general possible de trouver une transformation ou un filtre qui puisse rendre stationnaire les series
non-stationnaires. Mais la determination exacte de ce filtre nest pas triviale. Faut-il
differencier la serie, faut il retirer une tendance et laquelle? Et surtout ne perd-on pas
de linformation par ces operations? Le but de cet ouvrage est de prendre en compte la nature non-stationnaire des donnees e conomiques en montrant les probl`emes que cela pose.
Cest toute la question des racines unitaires et de la cointegration.
Ce chapitre a un but introductif. Il doit presenter dans un cadre univarie certains outils
mathematiques et mod`eles simples employes par la statistique des series temporelles. La
branche de la statistique mathematique qui sinteresse aux series temporelles a developpe
plusieurs mod`eles de representation des series temporelles dont nous allons tr`es bri`evement
rappeler les plus simples. Il sagira de preciser quelques notions sur les mod`eles AR, MA
et ARMA univaries et quelques outils mathematiques qui leurs sont relies.
2 Processus stochastiques
Un processus stochastique est une suite de variables aleatoires reelles qui sont indexees par
le temps:
(1)
Xt ,
t ZZ
Ici t appartient a` un espace discret, ce qui definit un processus en temps discret. Un processus stochastique est donc une famille de variables aleatoires X dont on va observer des
valeurs reelles issues de lespace S des e chantillons selon une certaine loi de probabilie.
Pour chaque point s de lespace des e chantillons S, la fonction qui a` t associe Xt (s) est
appelee la trajectoire du processus. Les observations successives forment lhistoire du processus. On peut les noter: X0t pour designer lhistoire du processus entre 0 et t.
2 PROCESSUS STOCHASTIQUES
2.2 Ergodicite
Pour estimer la loi dun processus, on cherche a` accumuler de linformation en faisant
tendre le nombre dobservations vers linfini. Pour que ce mecanisme daccumulation
fonctionne, il faut que le processus ait une memoire finie. Cest a` dire qu`a partir dun
certain nombre dobservation, il ny ait plus dinformation nouvelle, mais simplement confirmation des informations passees. Par exemple dans le probl`eme de lestimation de la
moyenne, on veut que la moyenne empirique soit un estimateur consistant et que la variance de cet estimateur tende vers zero. On se rend compte que si un processus est cyclique,
ce qui revient a` dire que des observations tr`es e loignees peuvent e tre correlees entre elles,
on narrivera pas a` accumuler de linformation. Cette propriete de limitation de la memoire
dun processus sappelle ergodicite avec la definition suivante:
2 PROCESSUS STOCHASTIQUES
lim
Une condition necessaire, mais non suffisante pour quun processus stationnaire au
second ordre soit ergodique est quil satisfasse la propriete suivante:
lim (h) = 0
(2)
2.3 Innovations
Un exemple de processus stationnaire est fourni par les bruits blancs. Ce sont des suites
de variables aleatoires de moyenne nulle, non correlees et de meme variance. Dans un
mod`ele de regression on requiert que les residus soient des bruits blancs. Tr`es proche de
cette notion de residu, on trouve dans la litterature lappellation innovation dun processus.
Cest la partie non previsible du processus. On aura:
Definition 4 Xt e tant un processus stationnaire au second ordre, on appelle innovation du
processus a` la date t la variable definie par:
Xt E(Xt |It1 )
o`u It1 est lensemble dinformation sur le processus disponible au temps t.
Lensemble dinformation peut comprendre tout le passe du processus. Lesperance
est prise ici au sens desperance conditionnelle. Il sagit de la meilleure prevision de Xt
conditionnellement a` un ensemble dinformation. Dans un contexte lineaire, la prevision
se fait au moyen dune fonction de regression.
i=0 bi ti
2 PROCESSUS STOCHASTIQUES
(h) =
(h) = (h)/(0)
Notez que lon utilise T observations pour calculer la moyenne et la variance, alors que
lon en utilise que T h pour calculer (h). Donc quand h T , lestimateur de (h) tend
vers zero si le processus est stationnaire en covariance.
Si le processus est stationnaire, lestimateur (h) est un estimateur consistant de (h)
pour tout h fini. Il est utile de tracer le graphe des autocorrelations empiriques. Celui-ci
peut e tre assez irregulier a` cause des erreurs dechantillonage. Il est donc utile de posseder
un indicateur qui permette de dire si une autoccorrelation peut e tre consideree comme nulle
ou non. Lhypoth`ese nulle que lon doit considerer consiste a` supposer que le processus des
x est un bruit blanc. Sous H0 , toutes les observations sont des realisations independantes
dun meme processus stochastique et les autocorrelations estimees (h) sont asymptotiquement normales
L
T (h) N (0, 1)
3 DENSITE SPECTRALE
3 Densite spectrale
On a definit jusqu`a present les processus stochastiques par rapport a` un indice temporel qui
indexe les observations et permet de decrire une trajectoire. Le theor`eme de Wold permet
ainsi decrire
yt = +
j tj
j=0
Z
0
Cette approche est particuli`erement utile pour e tudier des cycles. On pourra consulter
Priestley (1981) pour des complements mathematiques.
j=
(j)z j
3 DENSITE SPECTRALE
que lon appelle la fonction generatrice des auto-covariances. Il est commode de remplacer
largument muet z par un complexe situe sur le cercle unite
z = ei = cos() i sin()
o`u la derni`ere e galite resulte de la formule de Moivre.1 On obtient alors le spectre de la
population sy () en divisant par 2:
sy () =
1 X
(j)eij
2 j=
X
1
sy () =
((0) + 2
(j) cos(j))
2
j=1
On remarque que la densite spectrale repose sur la somme infinie des (h) et donc nexiste
que si la suite de celles-ci est absolument sommable. On a donc besoin de la stationnarite
du processus pour definir la densite spectrale.
On voit donc que la densite spectrale est enti`erement definie par la suite des (j). De
meme, on peut a` partir de la densite spectrale retrouver la suite des (j) au moyen de
(h) =
ih
sy () d =
cos(h)sy () d
sy ()dw
Dune mani`ere generale, on peut rechercher quelle est la variance attribuable a` certaines
frequences en calculant
Z 0
0 = 2
sy ()dw
0
4 OPERATEUR
RETARD
TX
1
1
(
(0) + 2
(j) cos(j))
2
j=1
Mais cet estimateur, appele le periodogramme, nest pas consistant et ceci est facile a` comprendre. Le nombre dautocovariances a` estimer crot avec la taille de lechantillon, ce qui
fait quil y a de moins en moins dobservations pour estimer les derni`eres autocovariances.
Il faut donc trouver une ponderation qui rende negligeable le poids des (j) a` partir dun
certain rang. Pour cela on va mettre en oeuvre un estimateur non-parametrique en utilisant
une fenetre. La plus courante est celle de Barlett (1950), ce qui donne
sy () =
l1
X
1
j
(
(0) + 2 (1 )
(j) cos(j))
2
l
j=1
o`u l est la longueur de la fenetre. Le resultat est bien sur tr`es sensible au choix de la fenetre.
On cherche une fenetre qui garantisse la consistence de lestimateur, cest a` dire une fenetre
qui tende vers linfini quand T tends lui meme vers linfini, mais dont le rapport l/T tende
lui vers zero. Au fur et a` mesure que T croit, on prendra de plus en plus dautocorrelations
en compte pour estimer sy (), mais que les autocorrelations retenues seront estimees avec
un nombre croissant dobservations. On trouvera dans le chapitre 7 de Priestley (1981) une
discussion approfondie sur ce th`eme. On peut retenir la suggestion suivante pour la fenetre
l = 4(T /100)1/4
Cette fenetre garanti la consistance de lestimateur de la densite spectrale.
4 Operateur retard
On aura souvent a` considerer une variable en fonction de son passe. Il est donc commode de
definir un operateur qui transforme une variable Xt en sa valeur passee. Cest loperateur
retard designe par la lettre L et tel que:
Xt L = Xt1 et Xt Lk = Xtk
(3)
(4)
(5)
Alors:
Les operations usuelles telles que laddition, multiplication, division et inverse sont possibles sur lensemble des polynomes de retard avec les memes proprietes que sur les series
4 OPERATEUR
RETARD
10
enti`eres. On retiendra en premier deux valeurs particuli`eres des polynomes de retard B(0)
qui donne la valeur du premier coefficient du polynome, son terme constant et B(1) qui
fournit lui la somme des coefficients de ce meme polynome. Enfin, loperateur 1 L joue
un role special dans la mesure o`u il permet de prendre la difference premi`ere dune serie:
(1 L)Xt = Xt Xt1
X
1
=
i Li
(L) =
1 L i=0
en utilisant lexpression de la somme dune progression geometrique. Considerons maintenant le polynome A(L) de degre p que lon note:
A(L) = 1 1 L 2 L2 . . . p Lp
On definit lequation caracteristique associee a` ce polynome comme lexpression en z
A(z) = 1 1 z 2 z 2 . . . p z p = 0
On a le theor`eme suivant
Theor`eme 3 Le polynome A(L) est inversible si les p racines lj de son e quation caracteristique associee sont toutes exterieures au cercle unite. Son inverse est donne par
A(L)1 =
p X
Y
1k
j=1 k=0
lj
)Lk ]
p
Y
(z lj ) r
j=1
On peut remarquer que le produit des racines est e gal a` 1/r car:
A(0) = 1 =
p
Y
(lj ) r
j=1
4 OPERATEUR
RETARD
11
z
)
lj
p
Y
(1
j=1
z
)
lj
On peut alors ramener le calcul de linverse de A(z) au calcul simple suivant que lon sait
effectuer:
p
Y
z
A1 (z) =
(1 )1
lj
j=1
car:
(1
z 1 X
1
) =
( )k z k
lj
k=0 lj
Cet inverse existe si les racines lj de lequation caracteristique sont toutes en dehors du
cercle unite.
2
4.2 Factorisation
Une operation tr`es pratique que lon peut operer sur les polynomes en general et les polynomes
de retard en particulier est ce que lon appelle la division des polynomes. Si lon range
un polynome par puissances decroissantes, on peut effectuer une division par un autre
polynome aussi facilement (ou a` peu pr`es) que ce que lon effectue la division Euclidienne
de deux nombres. Nous allons resoudre un exemple qui saverera tr`es utile par la suite, car
il permet de factoriser le polynome (1 L):
b2 L2 +
b1 L
(b2 L2
b2 L)
(b1 + b2 )L +
b0
L + 1
b2 L (b1 + b2 )
b0
((b1 + b2 )L (b1 + b2 ))
0
b0 + b1 + b2
(6)
5 MODELES
PARAMETRIQUES
USUELS
12
Si q est le degre du polynome B(L), le polynome B (L) sera de degre q 1 sans terme
constant avec:
B (L) = b1 L + b2 L2 + . . . + bq1 Lq1
et ses coefficients sont definis par:
bj =
q1
X
bi+1
j = 1, . . . , q 1
(7)
i=j
(8)
On peut montrer par une technique similaire de division de polynome les relations suivantes:
A(L) = A(1) + (1 L)[1 A(1) A (L)]
(9)
o`u les coefficients du polynome A (L) sont definis par:
p1
X
aj = (
ai+1 )
j = 1, . . . , p 1
(10)
i=j
Deux autres factorisations de ce polynome seront utiles dans la suite de cet ouvrage. Par
de simples manipulations algebriques, on arrive a` :
A(L) = A(1)L + (1 L)[1 A (L)]
(11)
(12)
et:
que lon ree crira parfois comme:
A(L) = (1 L) (1 L)A (L)
(13)
Cette e criture sera utilisee dans le chapitre sur les tests de racine unitaire en posant =
1A(1). Cette derni`ere e criture permet de montrer que si un polynome de retards comporte
une racine unitaire (1 L), alors la somme de ses coefficients est e gale a` zero. Il suffit pour
cela dy poser L = 1.
(14)
5 MODELES
PARAMETRIQUES
USUELS
13
(16)
(0) = (1 +
q
X
j2 )
(17)
j=1
(18)
(19)
et lon remarque quelle est toujours inferieure ou e gale a` un demi en valeur absolue. Il est
ensuite facile de voir que (2) = 0 pour un M A(1). La formule generale de (h) pour un
M A(q) est un peu plus complexe:
(h) = E(yt yth ) = E(
q
X
i ti
i=0
= 2 (h +
qh
X
i h+i )
q
X
j tjh )
(20)
i=0
si h q
(21)
i=1
= 0
si h > q
(22)
5 MODELES
PARAMETRIQUES
USUELS
14
et supposer facilement que cette expression est vraie pour un MA(q). On en deduit alors
que la densite spectrale dun MA(q) est donnee par
sy () =
2
B(ei )B(ei )
2
2
[1 + 2 + 2 cos()].
2
Cette densite est decroissante pour > 0 et croissante dans le cas contraire.
Un processus MA(q) est toujours stationnaire par definition. Mais on peut toujours
aussi definir lequation caracteristique associee au polynome B(L). Si les racines de cette
e quation sont toutes en dehors du cercle unite, alors ce polynome est inversible et le processus est dit aussi inversible. Il existe alors une representation auto-regressive infinie de
ce processus definie par:
B 1 (L) yt = t
(23)
Pour clore ce paragraphe, considerons deux processus MA(1) independants xt = ut +
aut1 et zt = vt + bvt1 avec u et v deux bruits blancs independants entre eux. Considerons
la somme de ces deux MA(1):
yt = xt + zt = ut + vt + aut1 + bvt1
Il est facile de voir que yt est de moyenne nulle, de variance la somme des variances de
xt et de zt et dauto-covariance, (h), la somme des auto-covariances de xt et de zt . On
verifie e galement que (h) = 0 pour h > 1. yt a donc toutes les proprietes dun MA(1).
On peut donc e crire
yt = t + t1
avec bruit blanc. Pour trouver les valeurs de et de 2 , il faut resoudre un syst`eme de
deux e quations a` deux inconnues.
On peut facilement generaliser le resultat precedent au cas de deux processus MA(q1 )
et MA(q2 ) independants. La somme de ces deux processus est un MA(max(q1 , q2 )).
(24)
o`u t est un bruit blanc de moyenne nulle et de variance 2 est appele processus autoregressif a` lordre un. On peut calculer la moyenne de ce processus en posant:
E(yt ) = E(yt1 ) + E(t ).
(25)
5 MODELES
PARAMETRIQUES
USUELS
15
E(t )
,
(1 )
(26)
ce qui montre que la moyenne est nulle. On peut generaliser lecriture du mod`ele pour
considerer une esperance non nulle avec:
yt = (yt1 ) + t .
(27)
Lesperance de yt sera alors e gale a` . Elevons maintenant au carre chacun des termes du
mod`ele AR(1) initial et prenons en lesperance. Ceci permet de calculer la variance du
processus:
2
E(yt2 ) = 2 E(yt1
) + E(2t ) + 2E(yt1 t )
(28)
que lon resout en:
2
.
(29)
1 2
Cette variance nexiste bien sur que si le processus est stationnaire. Lauto-covariance au
premier ordre sobtient aisement car:
(0) = Var(y) =
2
(1) = E(yt yt1 ) = E(yt1
) + E(t yt1 )
(30)
(31)
(h) = h (0),
(32)
(33)
(34)
(35)
Le processus AR(p) est stationnaire si toutes les racines de cette e quation caracteristique
sont a` lexterieur du cercle unite. Dans le cas dun processus AR(1) cette condition se
ram`ene a` || < 1.
5 MODELES
PARAMETRIQUES
USUELS
16
Quand un processus AR(p) est stationnaire, on peut toujours lui faire correspondre un
processus moyenne mobile infini MA():
yt = A1 (L) t
(36)
j tj
(37)
j=1
1
1 z
A partir de l`a on peut donc trouver lexpression de la densite spectrale dun AR(1)
sy () =
=
2 (1 ei )(1 ei )
1
2
2 1 + 2 2 cos()
Cette densite spectrale est decroissante en si > 0 et croissante si < 0. Il est tr`es
important de remarquer pour la suite le comportement particulier de la densite spectrale
en zero quand 1. Elle tend vers linfini. On remarquera de meme que si la fonction
dautocovariance decroit tr`es vite quand < 1, elle reste constante quand = 1. Ce sont
deux caracteristiques des processus non-stationnaires.
Considerons deux processus AR(1) independants pour en calculer la somme:
(1 aL)xt = ut
(1 bL)zt = vt
Si a = b, la somme de ces deux processus est facile a` faire et lon aura (1 aL)(xt + zt ) =
ut + vt , ce qui signifie que (1 aL)yt = t sera aussi un AR(1). Dans le cas general, il faut
se ramener au cas o`u les deux polynomes auto-regressifs sont identiques, ce qui sobtient
en multipliant chaque processus par le polynome de retard de lautre, ce qui fait
(1 aL)(1 bL)xt = (1 bL)ut
(1 aL)(1 bL)zt = (1 aL)vt
La somme de ces deux processus transformes donne alors
(1 (a + b)L + abL2 )(xt + zt ) = (1 bL)ut + (1 aL)vt
On obtient donc un nouveau processus auto-regressif, mais dordre 2 et dont les erreurs
suivent un MA(1). Il sagit dun ARMA(2,1). Ce resultat se generalise facilement. La
somme dun AR(p1 ) et dun AR(p2 ) independants donnera un ARMA(p1 +p2 , max(p1 , p2 )).
5 MODELES
PARAMETRIQUES
USUELS
17
(38)
(39)
p
X
i (i) + 2
(40)
i=1
et donc:
(0) =
Pp
i=1
(41)
i (i)
p
X
i (h i) , h > 0
(42)
i=1
On obtient une expression identique pour les auto-correlations en divisant par (0). En
e crivant cette expression pour h variant de 1 a` p et en tenant compte de la parite de (h),
on obtient les e quations dites de Yule-Walker qui forment un syst`eme de p e quations a` p
inconnues:
(1)
(2)
. =
.
(r)
1
(1)
..
.
(1)
1
..
.
(r 1)
(r 2)
(r 1)
1
(r 2)
2
..
..
.
.
1
(43)
5 MODELES
PARAMETRIQUES
USUELS
18
(44)
Ces processus jouent un tr`es grand role dans la modelisation statistique des series temporelles. Ils ont e te popularises par Box and Jenkins (1976). Ils permettent une representation
tr`es parcimonieuse des series temporelles. Intuitivement, un AR(1) resume un MA() et
un MA(1) resume un AR(). Un ARMA(1,1) devrait donc au moyen de deux param`etres
simplement representer raisonnablement bien une large classe de processus. On generalise
le mod`ele en considerant des polynomes dordre p et q pour obtenir un processus ARMA(p,q).
On peut rajouter une moyenne non nulle au processus en e crivant
A(L)(yt ) = B(L)t .
Ce processus est stationnaire si toutes les racines du polynome A(L) sont en dehors du
cercle unite et inversible si toutes les racines du polynome B(L) sont en dehors du cercle
unite. Il est assez difficile de calculer les auto-covariances de ce processus, contrairement
aux processus AR et MA simples. Aussi va-t-on se limiter au cas ARMA(1,1) qui est bien
utile dans la pratique.
On part du mod`ele
(45)
(1 L)(yt ) = (1 + L)t .
On calcule facilement lesperance
E(yt ) = E(yt1 ) + (1 ) + E(t ) + E(t1 ) =
1
=
1
5 MODELES
PARAMETRIQUES
USUELS
19
Pour calculer la variance, il est plus commode de supposer = 0 car on sait quelle sera
independante de . On va prendre le carre des deux membres de
yt = yt1 + t + t1
(46)
et en prendre lesperance:
2
E(yt2 ) = 2 E(yt1
) + E(2t ) + 2 E(2t1 )
(47)
2
= 2 E(yt1
) + 2 + 2 2 + 2 2
1 + 2 + 2
1 2
= (0) + 2
(48)
et lon arrive a`
(1) = 2
(1 + )( + )
1 2
h 2.
Mais a` linverse des processus AR purs, cette relation nest pas vraie pour h = 1. On a
la superposition de deux types dautocorrelation, celle du MA qui est nulle pour h 2 et
celle de lAR qui decroit rapidement avec h. Pour p > 1 ou q > 1, les formules deviennent
plus complexes.
Passons maintenant a` lexpression de la densite spectrale dun processus ARMA(1,1).
En se basant sur les resultats precedents, il est assez facile de montrer que
sy () =
2 1 + 2 + 2 cos()
2 1 + 2 2 cos()
2 1 + 1 ei + 2 ei2 + + q eiq
2 1 1 ei 2 ei2 p eip
6 METHODOLOGIES
DE SPECIFICATION
20
Elle permet de trouver lexpression de la densite spectrale en zero en fonction des param`etres
initiaux du mod`eles:
2 1 + 1 + 2 + + q
sy (0) =
.
2 1 1 2 p
Et lon remarque bien sur que si la partie AR comporte une racine unitaire, la somme
des coefficients i est e gale a` 1, ce qui fait que le denominateur devient nul et la densite
spectrale en 0 devient infinie.
Pour obtenir une expression generale de la densite spectrale qui permette deliminer les
nombres complexes, il faut pouvoir factoriser les deux polynomes de retard A(z) et B(z).
Supposons que les racines soient reelles et distinctes. Nous avons p racines j pour la partie
AR et q racines j pour la partie MA. La densite spectrale secrit alors
Q
q
2 j=1 [1 + j2 2j cos()]
sy () =
Q
2 pj=1 [1 + 2j 2j cos()]
6 Methodologies de specification
Les mod`eles AR sestiment par moindres carres. Les processus MA necessitent lusage
dune methode non-lineaire qui peut e tre le maximum de vraisemblance. Prenons lexemple
dun MA(1). On definit le residu du mod`ele par
ut = yt ut1
A partir du moment o`u lon connat une valeur de depart u0 que lon va fixer e gale a` zero et
que lon fixe une valeur pour et , on peut construire de mani`ere recursive la suite des ut .
On peut donc facilement construire un algorithme qui va minimiser la somme des carres
des residus pour t = 2, , T ou bien construire une fonction de vraisemblance conditionnelle si lon fait une hypoth`ese de normalite.
On voit bien que le seul probl`eme a` resoudre ne se resume pas a` estimer le mod`ele.
Il faut aussi decider dune valeur pour p et q la taille des parties AR et MA. Plusieurs
approches sont possibles: une approche basee sur les crit`eres dinformation et une approche
dite de Box et Jenkins qui se base sur lexamen des graphiques des auto-correlations totales
et partielles.
6.1 Box-Jenkins
Box and Jenkins (1976) ont promu une methodologie consistant a` modeliser les series
temporelles univariees au moyen des processus ARMA. Ces processus sont parcimonieux
et constituent une bonne approximation de processus plus generaux pourvu que lon se
restreigne au cadre lineaire. Les mod`eles ARMA donnent souvent de bon resultats en
prevision et ont beneficie de la vague de scepticisme quant a` linteret des gros mod`eles
e conometriques (voir par exemple Ashley (1988)).
La methodologie de Box et Jenkins peut se decomposer en quatre e tapes:
6 METHODOLOGIES
DE SPECIFICATION
21
6 METHODOLOGIES
DE SPECIFICATION
22
Une serie non stationnaire est une serie qui en general croit avec le temps. On peut
donc e tre tente de retirer par regression un trend temporel de cette serie. Lautre solution
consiste a` utiliser un filtre du type (1 L). On va alors differentier la serie. Si lon a tout
dabord pris le logarithme, la serie transformee
(1 L) log yt = log yt log yt1
representera les accroissement en pourcentage de la serie. Par exemple, au lieu de considerer un indice de prix, on modelisera un taux dinflation. Un indice de prix croit en
general toujours, ce qui fait quil nest pas stationnaire. Un taux dinflation aura lui beaucoup plus de chances detre stationnaire.
Si une serie presente une forte composante saisonni`ere, on peut e liminer celle-ci en
differenciant la serie non plus a` lordre un, mais a` lordre de la saisonnalite. Ainsi pour des
series trimestrielles, on pourra utiliser (1 L4 ). Ainsi on peut definir un taux dinflation
annuel glissant par
(1 L4 ) log Pt = log Pt log Pt4
Il faut toutefois e tre prudent dans lutilisation de ces transformations, car elles peuvent avoir des consequences sur le processus e tudie et introduire artificiellement des caracteristiques qui ne sy trouvaient pas. Ceci sera traite plus particuli`erement dans le chapitre
consacre aux racines unites.
log T
p
T
est lui fortement consistant (convergence presque sure). La consistance est obtenue a` condition que le p de depart soit plus grand que la vrai valeur du processus de generation des
donnees. En petit e chantillon, les crit`eres donnent toujours les resultats ordonnees suivants
SC(p) = log
T2 (p) +
7 CONCLUSION
23
ce qui fait que le crit`ere de Schwarz est celui choisit les mod`eles les plus parcimonieux.
Il est difficile dappliquer cette methode pour des mod`eles ARMA generaux. En effet,
on doit toujours partir dun mod`ele surparametre. Dans ce cas, les parties AR et MA
vont avoir des racines communes qui vont se simplifier et lalgorithme doptimisation ne
convergera pas. Hannan and Rissanen (1982) ont propose une methode approchee qui est
basee sur lutilisation des moindres carres en deux e tapes. Dans un premier temps, on
estime un mod`ele AR avec un ordre h maximal. On en tire des residus ut (h) que lon va
reutiliser dans la regression
yt = 1 yt1 + + p ytp + ut (h) + 1 ut1 (h) + + q utq (h) + et
Il faudra e tablir une grille sur p, q < h et estimer la variance des residus de cette regression
7 Conclusion
Dans ce chapitre, on avons examine les caracteristiques principales des processus stochastiques univaries en nous attachant principalement aux processus stationnaires. On a detaille
quelques processus parametriques usuels qui seront fort utiles par la suite. Le fil conducteur de cet ouvrage concerne la non-stationnarite. On a suggere plusieurs methodes pour
obtenir la stationnarite. On verra que ces methodes engendrent des probl`emes specifiques
tant au plan de la theorie asymptotique que de la modelisation proprement dite.
8 Lectures additionnelles
On consultera avec profit des ouvrages statistiques plus specialises sur la modelisation
des series temporelles comme par exemple Granger and Newbold (1986), Gourieroux and
Monfort (1990), ou Hamilton (1994). Pour ce dernier ouvrage, on consultera avec profit
les chapitres 3 et 6. Lutkepohl and Kratzig (2004) fournit toute une serie dexemples empiriques traites au moyen dun logiciel libre dacc`es. Les series utilisees sont disponibles
sur le site web de louvrage, ce qui permet de les refaire facilement.
9 Exercices
9.1 Aliasing
Considerez un processus MA(1) xt = t + t1 . Ecrivez lautocorrelation a` lordre 1 de
ce processus.
1) Trouvez les valeurs de pour lesquelles lautocorrelation est maximale en valeur
absolue.
9 EXERCICES
24
9 EXERCICES
25
1) Ecrire
lequation caracteristique et deduisez en les conditions de stationnarite du processus.
2) Calculez la moyenne et la variance du processus.
3) En utilisant les e quations de Yule-Walker, donner lauto-correlation du processus
( ) pour = 1, 2, 3.
4) Essayez de trouver une formule generale. Quen deduisez vous pour .
Idees de solutions Lequation caracteristique est 1 1 z 2 z 2 = 0. Quand on a
calcule les racines, il faut donner les conditions pour quelles soient plus grandes que
1. Pour calculer les moments, on utilise lhypoth`ese de stationnarite qui dit que les
moments de y sont les memes quelque soit t. On en deduit que lesperance est nulle
9 EXERCICES
26
2 1 + 2 + 2 cos()
2 1 + 2 2 cos()
REFERENCES
27
9.9 Filtres
Considerer un processus MA(1) yt = t + t1 et appliquez y le filtre (1 L). Que
deviennent les auto-covariances du processus transforme par rapport aux auto-covariances
initiales?
Idees de solution Le mod`ele filtre secrit yt = t + ( 1)t1 + t2 . On sait
que lauto-covariance a` lordre 1 est 2 et devient nulle d`es lordre 2. On peut
calculer simplement lauto-covariance a` lordre 1 et 2 du processus transforme pour
sapercevoir qu`a lordre 1 elle vaut ( 2 1) 2 et donc devient negative et qu`a
lordre 2 elle nest plus nulle et vaut 2 .
1) Ecrivez
ces trois crit`eres et donnez leur proprietes de convergence
2) Ces crit`eres sont-il adaptes a` la recherche de specification pour un mod`ele ARMA?
Justifiez votre reponse.
3) Derivez la methode alternative de Hannan et Rissanen (1982).
Idees de solution Le crit`eres dinformation (donnes avec seulement leur fonction de
penalite) sont les suivants: AIC (2p/T ) surestime p avec probabilite 1; HQ (2p log(log(T ))/T )
converge en probabilite vers p; SC (2p log(T )/T ) converge presque surement. Lutilisation
de ces crit`eres implique que lon estime un mod`ele sur-parametre. On se heurte donc
au probl`eme des facteurs communs dans un mod`ele ARMA. La methode de Hannan
et Rissanen (1982) permet de contourner cet e cueil. Elle consiste a` partir dun AR(h),
avec h grand do`u lon tire des residus u(h). Ensuite on estime le mod`ele
yt = yt1 + u(h) + u(h)t1 + t
par OLS et lon choisit la taille de et au moyen des crit`eres dinformation usuels.
References
A KAIKE , H. (1974): A New Look at the Statistical Model Identification, IEEE Transactions on Automatic Control, AC-19, 716723.
A SHLEY, R. (1988): On the relative worth of recent macroeconomic forecasts, International Journal of Forecasting, 4, 363376.
BARLETT, M. (1950): Periodogram analysis and continuous spectra, Biometrika, 37,
116.
REFERENCES
28
B OX , G., AND G. J ENKINS (1976): Time Series Analysis Forecasting and Control. San
Francisco.
G OURIEROUX , C., AND A. M ONFORT (1990): Series Temporelles et Mod`eles Dynamiques. Economica, Paris.
G RANGER , C. W. J.,
Diego.
AND
L UTKEPOHL
, H., AND M. K R ATZIG
(eds.) (2004): Applied Time Series Econometrics,
Themes in Modern Econometrics. Cambridge University Press, Cambridge.
P RIESTLEY, M. (1981): Spectral Analysis and Time Series. Academic Press, London.
S CHWARZ , G. (1978): Estimating the Dimension of a Model, The Annals of Statistics,
6, 461464.
W OLD , H. (1954): A Study in the Analysis of Stationary Time Series. Almquist and Wicksell, Uppsala.