Está en la página 1de 28

CHAPITRE I

Introduction a` la modelisation des series


temporelles univariees
Michel LUBRANO
Septembre 2008

Contents
1 Introduction

2 Processus stochastiques
2.1 Processus stationnaires . . . . . . . .
2.2 Ergodicite . . . . . . . . . . . . . . .
2.3 Innovations . . . . . . . . . . . . . .
2.4 Theor`eme de Wold . . . . . . . . . .
2.5 Autocovariances et totales et partielles

.
.
.
.
.

3
4
4
5
5
6

3 Densite spectrale
3.1 Le spectre de la population . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Estimation de la densite spectrale . . . . . . . . . . . . . . . . . . . . . . .

7
7
9

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

4 Operateur retard
9
4.1 Inversion des polynomes . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5 Mod`eles parametriques usuels
5.1 Processus moyenne mobile .
5.2 Processus auto-regressifs . .
5.3 Equations de Yule et Walker
5.4 Processus ARMA . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

12
12
14
17
18

1 INTRODUCTION

6 Methodologies de specification
20
6.1 Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.2 Transformations et differentiation . . . . . . . . . . . . . . . . . . . . . . 21
6.3 Crit`eres dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
7 Conclusion

23

8 Lectures additionnelles

23

9 Exercices
9.1 Aliasing . . . . . . . . . . . . . .
9.2 Somme de deux MA(1) . . . . . .
9.3 Moments dun MA(2) . . . . . . .
9.4 Simulation dun AR(1) . . . . . .
9.5 Moments dun AR(2) . . . . . . .
9.6 Simulation dun ARMA(1,1) . . .
9.7 Simulation des densites spectrales
9.8 Densite spectrale dun ARMA(1,1)
9.9 Filtres . . . . . . . . . . . . . . .
9.10 Crit`eres dinformation . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

23
23
24
24
25
25
26
26
26
27
27

1 Introduction
La statistique se preoccupe de porter des jugements sur une population a` partir de lobservation
dun e chantillon de cette population. Si lon prend lexemple des donnees denquete,
lordre dans lequel sont e chantillonnees les observations na pas dimportance. On peut
quand meme parfois accorder de limportance aux unites qui sont e chantillonnees comme
par exemple les e l`eves dune meme classe ou dun meme e tablissement, les habitants
dun meme quartier. La dimension temporelle prend de limporance quand on decide de
reinterroger les memes personnes. On peut allor e tudier leur e vvolution dans le temps.
Dans le domaine de la statistique denomee analyse des series temporelles, la dimension
temporelle des observation devient primordiale. Une serie temporelle est definie comme
une suite dobservations indexees par le temps. Lattention va se focaliser sur les proprietes
e volutives dune variable aleatoire, tant pour sa prevision que dans sa relation avec son
passe. Comme exemple de serie temporelle, viennent immediatement a` lesprit toutes les
series macroeconomiques, mais aussi les series financi`eres.
Les series temporelles peuvent e tre observees de mani`ere continue ou de mani`ere discr`ete.
Les mod`eles de la finance par exemple reposent souvent sur une hypoth`ese de temps continu car sur un marche boursier les transaction paraissent tr`es rapprochees. Par contre les
donnees macroeconomiques sont typiquement des donnees observees en temps discret a` un
intervalle du mois, du trimestre ou meme de lannee. On rappellera la distinction usuelle
entre donnees de flux qui concernent des phenom`enes continus comme les prix ou les taux
dinteret, mais que lon a choisi de nobserver qu`a des intervalles reguliers et discrets,
et les donenes de stocks qui resultent dun phenom`ene daccumulation. Linvestissement

2 PROCESSUS STOCHASTIQUES

est un flux, tandis que le capital est un stock resultant dun cote de laccumulation des
investissements passes et de lautre cote dun phenom`ene de depreciation.
Lexamen graphique dune serie temporelle montre que la valeur prise au temps t
depend fortement de la valeur prise au temps t 1. Le processus qui les engendre est dynamique. On voudra en construisant un mod`ele, acquerir de linformation sur ce processus
theorique que lon appelle Processus de Generation des Donnees ou PGD. Le probl`eme est
alors de trouver le mod`ele pratique qui approchera le plus possible le processus theorique
et ensuite de lestimer. Une fois cette e tape franchie, on pourra faire de la prevision ou du
controle avec ce mod`ele. Les types de mod`eles que lon peut considerer sont nombreux.
En statistique on va sinteresser a` modeliser une serie univariee au moyen dun mod`ele
ARMA, ou bien considerer plusieurs series a` la fois et les modeliser conjointement dans
un mod`ele multivarie ou mod`ele VAR de mani`ere a` mettre a` jour les interactions entre
ces variables. En e conometrie, on sinteressera plutot a` une modelisation conditionnelle
qui e tudie la dynamique dune variable, conditionnellement a` dautre variables supposees
exog`enes.
La plupart des mod`eles supposent que les series e tudiees sont stationnaires. Les proprietes des estimateurs reposent sur cette hypoth`ese. Cependant la plupart des series que
lon a a` traiter croissent dans le temps, ou meme si elles ne sont pas croissantes, ont des
fluctuations qui ne sont pas reguli`eres. Elles sont non-stationnaires. Il est en general possible de trouver une transformation ou un filtre qui puisse rendre stationnaire les series
non-stationnaires. Mais la determination exacte de ce filtre nest pas triviale. Faut-il
differencier la serie, faut il retirer une tendance et laquelle? Et surtout ne perd-on pas
de linformation par ces operations? Le but de cet ouvrage est de prendre en compte la nature non-stationnaire des donnees e conomiques en montrant les probl`emes que cela pose.
Cest toute la question des racines unitaires et de la cointegration.
Ce chapitre a un but introductif. Il doit presenter dans un cadre univarie certains outils
mathematiques et mod`eles simples employes par la statistique des series temporelles. La
branche de la statistique mathematique qui sinteresse aux series temporelles a developpe
plusieurs mod`eles de representation des series temporelles dont nous allons tr`es bri`evement
rappeler les plus simples. Il sagira de preciser quelques notions sur les mod`eles AR, MA
et ARMA univaries et quelques outils mathematiques qui leurs sont relies.

2 Processus stochastiques
Un processus stochastique est une suite de variables aleatoires reelles qui sont indexees par
le temps:
(1)
Xt ,
t ZZ
Ici t appartient a` un espace discret, ce qui definit un processus en temps discret. Un processus stochastique est donc une famille de variables aleatoires X dont on va observer des
valeurs reelles issues de lespace S des e chantillons selon une certaine loi de probabilie.
Pour chaque point s de lespace des e chantillons S, la fonction qui a` t associe Xt (s) est
appelee la trajectoire du processus. Les observations successives forment lhistoire du processus. On peut les noter: X0t pour designer lhistoire du processus entre 0 et t.

2 PROCESSUS STOCHASTIQUES

2.1 Processus stationnaires


Lorsque chacune des variables Xt verifie E(Xt ) < , la loi du processus est partiellement
resumee par lesperance des differentes variables et par leurs covariances. Ces moments
dependent en general du temps, ce qui est genant quand de lobservation de realisations
du processus on veut tirer de linformation sur la loi sous-jacente de ce processus. Pour
pouvoir obtenir une accumulation dinformation on est amene a` considerer des processus
dits stationnaires.
Definition 1 Un processus est stationnaire au second ordre si:
- t ZZ, E(Xt ) = independant de t
- t ZZ, E(Xt2 ) <
- t, h ZZ, Cov(Xt , Xt+h ) = (h) independant de t
Ce type de stationnarite est aussi une propriete dinvariance des deux premiers moments
par translation dans le temps. Mais on ne dit rien sur les moments dordre superieur, ce qui
fait que cette definition, tr`es commode par ailleurs, est sans doute trop floue.
Au lieu de considerer simplement les deux premiers moments dun processus, on peut
decider de sinteresser a` la distribution compl`ete des observations. On peut alors acceder a`
une definition plus stricte de la stationnarite.
Definition 2 Un processus stochastique sera dit strictement stationnaire si la distribution
jointe de Xt et Xt+h ne depend pas de t, mais seulement de h.
Ici, cest la distribution jointe qui est invariante par translation. Cette propriete est
plus forte que la precedente car un processus stationnaire au second ordre peut posseder
des moments dordre superieur qui ne sont pas invariants par translation. La notion de
stationnarite stricte et de stationnarite au second ordre se confondent par contre pour les
processus Gaussiens car ceux-ci sont enti`erement resumes par leurs deux premiers moments. Par contre d`es que lon sort du cadre Gaussien comme dans les mod`eles GARCH,
on na plus coincidence entre les deux notions. Il est cependant courrant de se contenter de
la stationnarite au second ordre, car elle est plus facile a` decrire.

2.2 Ergodicite
Pour estimer la loi dun processus, on cherche a` accumuler de linformation en faisant
tendre le nombre dobservations vers linfini. Pour que ce mecanisme daccumulation
fonctionne, il faut que le processus ait une memoire finie. Cest a` dire qu`a partir dun
certain nombre dobservation, il ny ait plus dinformation nouvelle, mais simplement confirmation des informations passees. Par exemple dans le probl`eme de lestimation de la
moyenne, on veut que la moyenne empirique soit un estimateur consistant et que la variance de cet estimateur tende vers zero. On se rend compte que si un processus est cyclique,
ce qui revient a` dire que des observations tr`es e loignees peuvent e tre correlees entre elles,
on narrivera pas a` accumuler de linformation. Cette propriete de limitation de la memoire
dun processus sappelle ergodicite avec la definition suivante:

2 PROCESSUS STOCHASTIQUES

Definition 3 Un processus stationnaire au second ordre est dit ergodique si:


T
1 X
(h) = 0
T T
h=1

lim

Une condition necessaire, mais non suffisante pour quun processus stationnaire au
second ordre soit ergodique est quil satisfasse la propriete suivante:
lim (h) = 0

(2)

Lergodicite est une forme faible de lindependance asymptotique.

2.3 Innovations
Un exemple de processus stationnaire est fourni par les bruits blancs. Ce sont des suites
de variables aleatoires de moyenne nulle, non correlees et de meme variance. Dans un
mod`ele de regression on requiert que les residus soient des bruits blancs. Tr`es proche de
cette notion de residu, on trouve dans la litterature lappellation innovation dun processus.
Cest la partie non previsible du processus. On aura:
Definition 4 Xt e tant un processus stationnaire au second ordre, on appelle innovation du
processus a` la date t la variable definie par:
Xt E(Xt |It1 )
o`u It1 est lensemble dinformation sur le processus disponible au temps t.
Lensemble dinformation peut comprendre tout le passe du processus. Lesperance
est prise ici au sens desperance conditionnelle. Il sagit de la meilleure prevision de Xt
conditionnellement a` un ensemble dinformation. Dans un contexte lineaire, la prevision
se fait au moyen dune fonction de regression.

2.4 Theor`eme de Wold


Un processus stochastique non parametrique se definit a` partir de la distribution jointe
des observations ou de ses premiers moments. Un processus stochastique parametrique se
definit au contraire a` partir dun mecanisme de generation qui est indexe par des param`etres.
Il est possible de caracteriser ce mecanisme de mani`ere tr`es generale au moyen du theor`eme
de Wold (1954) dans le cas lineaire. Ce theor`eme montre que tout processus stationnaire lineaire peut e tre represente de mani`ere unique par la somme de deux composantes
independantes, une composante reguli`ere parfaitement previsible parfois appelee deterministe
et une composante stochastique:
Theor`eme 1 Soit un processus stationnaire yt . Il est toujours possible de trouver une
composante reguli`ere dt et une composante stochastique ut telle que:
xt = dt + ut
ut =
o`u t un bruit blanc.

i=0 bi ti

2 PROCESSUS STOCHASTIQUES

Ce theor`eme est a` la base de la modelisation des series temporelles stationnaires. On


en donnera une version multivariee dans le chapitre 4. La composante stochastique est
exprimee sous la forme de ce que lon appelle un processus moyenne mobile infinie. Un
des buts de la modelisation consiste a` approximer cette moyenne mobile infinie par un
processus ayant un nombre fini de param`etres. Cest ce que lon verra en e tudiant les
processus AR, MA et ARMA.

2.5 Autocovariances et totales et partielles


La suite de toutes les auto-correlations dune serie contient toutes les informations sur la
memoire de cette serie. On lestime au moyen de
1 PT
)(xth x)
t=h+1 (xt x
T
1 PT
x =
t=1 xt
T

(h) =

(h) = (h)/(0)
Notez que lon utilise T observations pour calculer la moyenne et la variance, alors que
lon en utilise que T h pour calculer (h). Donc quand h T , lestimateur de (h) tend
vers zero si le processus est stationnaire en covariance.
Si le processus est stationnaire, lestimateur (h) est un estimateur consistant de (h)
pour tout h fini. Il est utile de tracer le graphe des autocorrelations empiriques. Celui-ci
peut e tre assez irregulier a` cause des erreurs dechantillonage. Il est donc utile de posseder
un indicateur qui permette de dire si une autoccorrelation peut e tre consideree comme nulle
ou non. Lhypoth`ese nulle que lon doit considerer consiste a` supposer que le processus des
x est un bruit blanc. Sous H0 , toutes les observations sont des realisations independantes
dun meme processus stochastique et les autocorrelations estimees (h) sont asymptotiquement normales

L
T (h) N (0, 1)

si bien que [1.96/ T , 1.96/ T ] forme un intervalle de confiance asymptotique a` 5% des


(h) autour de zero. Le graphique des autocorrelations accompagne de son intervalle de
confiance permet donc de juger si celles-ci sont nulles ou non.
On peut montrer que si un processus est non-stationnaire, lestimateur (h)T tend vers 1
pour T . Dans la pratique, cest a` dire pour T fini, les les auto-correlations dune serie
non-stationnaire vont decrotre lentement. Ce sera donc une indication pour differencier la
serie de mani`ere a` la rendre stationnaire. On e tudiera dans le chapitre 3 des procedures de
test rigoureuses pour determiner quand il faut differentier une serie pour la stationnariser.
Mais on peut dej`a retenir que le graphique des autocorrelations fournit une precieuse indication quant a` la stationnarite ou non dune serie temporelle.
La suite des autocorrelations totale fournit une description de la memoire dun processus et resume enti`erement ce processus. Il existe une mani`ere e quivalente de decrire la
memoire dune processus au moyen des auto-correlations partielles. Par partielle il faut
entendre conditionnelle a` une partie du passe. On a la definition suivante

3 DENSITE SPECTRALE

Definition 5 Le coefficient dauto-correlation partielle a(h) entre xt et xth est e gal a` la


correlation entre xt et xth , conditionnellement a` linformation disponible entre t et t h.
Il se note formellement
a(h) = Corr(xt , xth |xt1 , , xth+1 xth+1 ))
Une mani`ere simple destimer la suite des a(h) consiste a` utiliser la regression
xt = c + a1 xt1 + + ah xth + ut
et a` prendre a
(h) = a
h . Pour estimer la suite des h premi`eres auto-correlations partielles,
il faut donc effectuer h regressions distinctes. Une procedure moins couteuse passe par
lalgorithme recursif de Durbin qui qui donne la valeur de a(k) en fonction des autocorrelations partielles et totales precedentes. Cet algorithme est explique dans lannexe
3.2 du chapitre 3 de Box and Jenkins (1976). Mais il peut donner des solutions instables
quand le mod`ele est proche de la non-stationnarite.

3 Densite spectrale
On a definit jusqu`a present les processus stochastiques par rapport a` un indice temporel qui
indexe les observations et permet de decrire une trajectoire. Le theor`eme de Wold permet
ainsi decrire

yt = +

j tj

j=0

On a ensuite pu analyser les auto-covariances (h) du processus, cest a` dire la covariance


entre yt et yth . Cest lanalyse temporelle.
Mais il est e galement possible dexprimer la valeur de yt comme la somme du meme
terme constant et de fonctions periodiques sin(t) et cos(t) o`u est une frequence
sur [0, ]. Le theor`eme de representation spectrale est lequivalent, dans le domaine des
frequences du theor`eme de representation de Wold.
Theor`eme 2 Soient deux variables aleatoires (.) et (.) de moyenne nulle et non autocorrelees. Tout processus stationnaire yt peut se decomposer en une somme infinie de
termes deterministes cos(t) et sin(t) ponderes par ces deux variables aleatoires selon
yt = +

Z
0

[() cos(t) + () sin(t)] d

Cette approche est particuli`erement utile pour e tudier des cycles. On pourra consulter
Priestley (1981) pour des complements mathematiques.

3.1 Le spectre de la population


Considerons la suite des auto-covariances (h). On peut resumer cette suite au moyen de
la serie dargument formel z
gy (z) =

j=

(j)z j

3 DENSITE SPECTRALE

que lon appelle la fonction generatrice des auto-covariances. Il est commode de remplacer
largument muet z par un complexe situe sur le cercle unite
z = ei = cos() i sin()
o`u la derni`ere e galite resulte de la formule de Moivre.1 On obtient alors le spectre de la
population sy () en divisant par 2:
sy () =

1 X
(j)eij
2 j=

En utilisant la formule de Moivre et quelques proprietes de trigonometrie telles que cos(0) =


1, sin(0) = 0, sin() = sin(),cos() = cos(), sin2 () + cos2 () = 1, on arrive a`
lexpression usuelle de la densite spectrale

X
1
sy () =
((0) + 2
(j) cos(j))
2
j=1

On remarque que la densite spectrale repose sur la somme infinie des (h) et donc nexiste
que si la suite de celles-ci est absolument sommable. On a donc besoin de la stationnarite
du processus pour definir la densite spectrale.
On voit donc que la densite spectrale est enti`erement definie par la suite des (j). De
meme, on peut a` partir de la densite spectrale retrouver la suite des (j) au moyen de
(h) =

ih

sy () d =

cos(h)sy () d

On trouvera une preuve de ce resultat dans Hamilton (1994). On en deduit immediatement


la variance de y en posant h = 0
(0) =

sy ()dw

Dune mani`ere generale, on peut rechercher quelle est la variance attribuable a` certaines
frequences en calculant
Z 0
0 = 2
sy ()dw
0

o`u lon a utilise la propriete de symetrie de la densite spectrale autour de zero.


Une notion particuli`erement importante est la notion de densite spectrale a` la frequence
zero. Les basses frequences concernent le comportement de long terme dun processus. La
densite spectrale en zero va donc permettre de calculer ce que lon appelle la variance de
long terme dun processus.
1

On a aussi legalite ei = cos() + i sin() qui sera utile par la suite.


4 OPERATEUR
RETARD

3.2 Estimation de la densite spectrale


Une premi`ere facon destimer la densite spectrale consiste a` remplacer les covariances par
leur estimation empirique
sy () =

TX
1
1
(
(0) + 2
(j) cos(j))
2
j=1

Mais cet estimateur, appele le periodogramme, nest pas consistant et ceci est facile a` comprendre. Le nombre dautocovariances a` estimer crot avec la taille de lechantillon, ce qui
fait quil y a de moins en moins dobservations pour estimer les derni`eres autocovariances.
Il faut donc trouver une ponderation qui rende negligeable le poids des (j) a` partir dun
certain rang. Pour cela on va mettre en oeuvre un estimateur non-parametrique en utilisant
une fenetre. La plus courante est celle de Barlett (1950), ce qui donne
sy () =

l1
X
1
j
(
(0) + 2 (1 )
(j) cos(j))
2
l
j=1

o`u l est la longueur de la fenetre. Le resultat est bien sur tr`es sensible au choix de la fenetre.
On cherche une fenetre qui garantisse la consistence de lestimateur, cest a` dire une fenetre
qui tende vers linfini quand T tends lui meme vers linfini, mais dont le rapport l/T tende
lui vers zero. Au fur et a` mesure que T croit, on prendra de plus en plus dautocorrelations
en compte pour estimer sy (), mais que les autocorrelations retenues seront estimees avec
un nombre croissant dobservations. On trouvera dans le chapitre 7 de Priestley (1981) une
discussion approfondie sur ce th`eme. On peut retenir la suggestion suivante pour la fenetre
l = 4(T /100)1/4
Cette fenetre garanti la consistance de lestimateur de la densite spectrale.

4 Operateur retard
On aura souvent a` considerer une variable en fonction de son passe. Il est donc commode de
definir un operateur qui transforme une variable Xt en sa valeur passee. Cest loperateur
retard designe par la lettre L et tel que:
Xt L = Xt1 et Xt Lk = Xtk

(3)

Cet operateur sera utilise a` linterieur de polynomes notes par exemple:


B(L) = 0 + 1 L + 2 L2 + . . . + q Lq

(4)

B(L) Xt = 0 Xt + 1 Xt1 + 2 Xt2 + . . . + q Xtq

(5)

Alors:
Les operations usuelles telles que laddition, multiplication, division et inverse sont possibles sur lensemble des polynomes de retard avec les memes proprietes que sur les series


4 OPERATEUR
RETARD

10

enti`eres. On retiendra en premier deux valeurs particuli`eres des polynomes de retard B(0)
qui donne la valeur du premier coefficient du polynome, son terme constant et B(1) qui
fournit lui la somme des coefficients de ce meme polynome. Enfin, loperateur 1 L joue
un role special dans la mesure o`u il permet de prendre la difference premi`ere dune serie:
(1 L)Xt = Xt Xt1

4.1 Inversion des polynomes


Pour parler de linverse dun polynome de retard, il est commode dans un premier temps
de considerer un polynome particulier qui est le polynome de retard de degre un defini par:
A(L) = 1 L
Pour || < 1 ce polynome poss`ede un inverse, cest a` dire que lon peut definir:
1

X
1
=
i Li
(L) =
1 L i=0

en utilisant lexpression de la somme dune progression geometrique. Considerons maintenant le polynome A(L) de degre p que lon note:
A(L) = 1 1 L 2 L2 . . . p Lp
On definit lequation caracteristique associee a` ce polynome comme lexpression en z
A(z) = 1 1 z 2 z 2 . . . p z p = 0
On a le theor`eme suivant
Theor`eme 3 Le polynome A(L) est inversible si les p racines lj de son e quation caracteristique associee sont toutes exterieures au cercle unite. Son inverse est donne par
A(L)1 =

p X

Y
1k

j=1 k=0

lj

)Lk ]

La preuve de ce theor`eme utilise le resultat precedent en se ramenant a` une serie


doperations e lementaires o`u lon aurait a` inverser que des polynomes de degre un.
Preuve: Factoriser le polynome A(z) en utilisant les p racines de lquation caracteristique:
A(z) =

p
Y

(z lj ) r

j=1

On peut remarquer que le produit des racines est e gal a` 1/r car:
A(0) = 1 =

p
Y

(lj ) r

j=1


4 OPERATEUR
RETARD

11

Dautre part on a la factorisation:


(z lj ) = lj (1

z
)
lj

ce qui permet dexprimer le polynome en z sous la forme:


A(z) =

p
Y

(1

j=1

z
)
lj

On peut alors ramener le calcul de linverse de A(z) au calcul simple suivant que lon sait
effectuer:
p
Y
z
A1 (z) =
(1 )1
lj
j=1
car:
(1

z 1 X
1
) =
( )k z k
lj
k=0 lj

Cet inverse existe si les racines lj de lequation caracteristique sont toutes en dehors du
cercle unite.
2

4.2 Factorisation
Une operation tr`es pratique que lon peut operer sur les polynomes en general et les polynomes
de retard en particulier est ce que lon appelle la division des polynomes. Si lon range
un polynome par puissances decroissantes, on peut effectuer une division par un autre
polynome aussi facilement (ou a` peu pr`es) que ce que lon effectue la division Euclidienne
de deux nombres. Nous allons resoudre un exemple qui saverera tr`es utile par la suite, car
il permet de factoriser le polynome (1 L):
b2 L2 +

b1 L

(b2 L2

b2 L)

(b1 + b2 )L +

b0

L + 1
b2 L (b1 + b2 )

b0

((b1 + b2 )L (b1 + b2 ))
0

b0 + b1 + b2

Cet exemple permet de montrer que:


b2 L2 + b1 L + b0 = B(1) + (1 L)[b2 L (b1 + b2 )]
ou dune mani`ere generale:
B(L) = B(1) + (1 L)[b0 B(1) B (L)]

(6)

5 MODELES
PARAMETRIQUES
USUELS

12

Si q est le degre du polynome B(L), le polynome B (L) sera de degre q 1 sans terme
constant avec:
B (L) = b1 L + b2 L2 + . . . + bq1 Lq1
et ses coefficients sont definis par:
bj =

q1
X

bi+1

j = 1, . . . , q 1

(7)

i=j

Considerons maintenant le polynome A(L) de degre p:


A(L) = 1 a1 L a2 L2 . . . ap Lp

(8)

On peut montrer par une technique similaire de division de polynome les relations suivantes:
A(L) = A(1) + (1 L)[1 A(1) A (L)]
(9)
o`u les coefficients du polynome A (L) sont definis par:
p1
X

aj = (

ai+1 )

j = 1, . . . , p 1

(10)

i=j

Deux autres factorisations de ce polynome seront utiles dans la suite de cet ouvrage. Par
de simples manipulations algebriques, on arrive a` :
A(L) = A(1)L + (1 L)[1 A (L)]

(11)

A(L) = (1 [1 A(1)]L) (1 L)A (L)

(12)

et:
que lon ree crira parfois comme:
A(L) = (1 L) (1 L)A (L)

(13)

Cette e criture sera utilisee dans le chapitre sur les tests de racine unitaire en posant =
1A(1). Cette derni`ere e criture permet de montrer que si un polynome de retards comporte
une racine unitaire (1 L), alors la somme de ses coefficients est e gale a` zero. Il suffit pour
cela dy poser L = 1.

5 Mod`eles parametriques usuels


5.1 Processus moyenne mobile
Un processus qui est genere par lequation:
yt = t + t1

(14)

5 MODELES
PARAMETRIQUES
USUELS

13

est un processus moyenne mobile a` lordre 1, ou MA(1). Ce processus se generalise a`


lordre q:
yt = B(L) t
(15)
o`u B(L) est un polynome de retard de degre q avec 0 = 1. La moyenne du processus est
clairement nulle. On peut introduire une moyenne non nulle en considerant:
yt = B(L) t

(16)

La variance du processus se trouve directement:


2

(0) = (1 +

q
X

j2 )

(17)

j=1

Calculons lauto-covariance a` lordre un du processus M A(1):


(1) = E(yt yt1 ) = E[(t + t1 )(t1 + t2 )] = 2

(18)

On en deduit lauto-correlation a` lordre 1 :


(1) = /(1 + 2 )

(19)

et lon remarque quelle est toujours inferieure ou e gale a` un demi en valeur absolue. Il est
ensuite facile de voir que (2) = 0 pour un M A(1). La formule generale de (h) pour un
M A(q) est un peu plus complexe:
(h) = E(yt yth ) = E(

q
X

i ti

i=0

= 2 (h +

qh
X

i h+i )

q
X

j tjh )

(20)

i=0

si h q

(21)

i=1

= 0

si h > q

(22)

On verra, qu`a la difference des processus auto-regressifs, lauto-covariance sannule d`es


que lon depasse lordre du polynome B(L).
Le calcul de la densite spectrale necessite de passer par la fonction generatrice des
auto-correlations. Pour un MA(1), le resultat est assez simple car on a vu que les autoccorelations dordre superieur a` un sont nulles. On a donc
gy (z) =

(j)z j = (1)z 1 + (0)z 0 + (1)z 1

On peut alors factoriser cette expression en


gy (z) = 2 (1 + z)(1 + z 1 ) = 2 B(z)B(z 1 )

5 MODELES
PARAMETRIQUES
USUELS

14

et supposer facilement que cette expression est vraie pour un MA(q). On en deduit alors
que la densite spectrale dun MA(q) est donnee par
sy () =

2
B(ei )B(ei )
2

Pour un MA(1), on aura B(ei )B(ei ) = (1 + ei )(1 + ei ). En utilisant la formule


de Moivre, on trouve que ei + ei = 2 cos(). On arrive donc rapidement a`
sy () =

2
[1 + 2 + 2 cos()].
2

Cette densite est decroissante pour > 0 et croissante dans le cas contraire.
Un processus MA(q) est toujours stationnaire par definition. Mais on peut toujours
aussi definir lequation caracteristique associee au polynome B(L). Si les racines de cette
e quation sont toutes en dehors du cercle unite, alors ce polynome est inversible et le processus est dit aussi inversible. Il existe alors une representation auto-regressive infinie de
ce processus definie par:
B 1 (L) yt = t
(23)
Pour clore ce paragraphe, considerons deux processus MA(1) independants xt = ut +
aut1 et zt = vt + bvt1 avec u et v deux bruits blancs independants entre eux. Considerons
la somme de ces deux MA(1):
yt = xt + zt = ut + vt + aut1 + bvt1
Il est facile de voir que yt est de moyenne nulle, de variance la somme des variances de
xt et de zt et dauto-covariance, (h), la somme des auto-covariances de xt et de zt . On
verifie e galement que (h) = 0 pour h > 1. yt a donc toutes les proprietes dun MA(1).
On peut donc e crire
yt = t + t1
avec bruit blanc. Pour trouver les valeurs de et de 2 , il faut resoudre un syst`eme de
deux e quations a` deux inconnues.
On peut facilement generaliser le resultat precedent au cas de deux processus MA(q1 )
et MA(q2 ) independants. La somme de ces deux processus est un MA(max(q1 , q2 )).

5.2 Processus auto-regressifs


Un processus qui est genere par lequation:
yt = yt1 + t

(24)

o`u t est un bruit blanc de moyenne nulle et de variance 2 est appele processus autoregressif a` lordre un. On peut calculer la moyenne de ce processus en posant:
E(yt ) = E(yt1 ) + E(t ).

(25)

5 MODELES
PARAMETRIQUES
USUELS

15

Si le processus est stationnaire (|| < 1), on a alors:


E(y) =

E(t )
,
(1 )

(26)

ce qui montre que la moyenne est nulle. On peut generaliser lecriture du mod`ele pour
considerer une esperance non nulle avec:
yt = (yt1 ) + t .

(27)

Lesperance de yt sera alors e gale a` . Elevons maintenant au carre chacun des termes du
mod`ele AR(1) initial et prenons en lesperance. Ceci permet de calculer la variance du
processus:
2
E(yt2 ) = 2 E(yt1
) + E(2t ) + 2E(yt1 t )
(28)
que lon resout en:

2
.
(29)
1 2
Cette variance nexiste bien sur que si le processus est stationnaire. Lauto-covariance au
premier ordre sobtient aisement car:
(0) = Var(y) =

2
(1) = E(yt yt1 ) = E(yt1
) + E(t yt1 )

(30)

Comme le dernier terme est nul, il reste:


(1) = (0)

(31)

(h) = h (0),

(32)

que lon peut generaliser en:


ce qui montre que lauto-covariance dun processus AR(1) decrot tr`es rapidement.
Un processus AR(1) se generalise a` lordre p en considerant:
A(L) yt = t

(33)

o`u A(L) est un polynome de retards a` lordre p que lon e crit:


A(L) = 1 1 L 2 L2 . . . r Lp

(34)

Lequation caracteristique associee a` ce polynome se note:


A(z) = 1 1 z 2 z 2 r z p = 0

(35)

Le processus AR(p) est stationnaire si toutes les racines de cette e quation caracteristique
sont a` lexterieur du cercle unite. Dans le cas dun processus AR(1) cette condition se
ram`ene a` || < 1.

5 MODELES
PARAMETRIQUES
USUELS

16

Quand un processus AR(p) est stationnaire, on peut toujours lui faire correspondre un
processus moyenne mobile infini MA():
yt = A1 (L) t

(36)

Dans le cas dun AR(1), ceci se resout en:


yt =

j tj

(37)

j=1

On va calculer la densite spectrale dun AR(1) a` partir de son expression M A() et


utiliser la formule donnee plus haut. Si || < 1, on peut e crire la somme infinie comme
B(z) = A1 (z) =

1
1 z

A partir de l`a on peut donc trouver lexpression de la densite spectrale dun AR(1)
sy () =
=

2 (1 ei )(1 ei )
1
2
2 1 + 2 2 cos()

Cette densite spectrale est decroissante en si > 0 et croissante si < 0. Il est tr`es
important de remarquer pour la suite le comportement particulier de la densite spectrale
en zero quand 1. Elle tend vers linfini. On remarquera de meme que si la fonction
dautocovariance decroit tr`es vite quand < 1, elle reste constante quand = 1. Ce sont
deux caracteristiques des processus non-stationnaires.
Considerons deux processus AR(1) independants pour en calculer la somme:
(1 aL)xt = ut

(1 bL)zt = vt

Si a = b, la somme de ces deux processus est facile a` faire et lon aura (1 aL)(xt + zt ) =
ut + vt , ce qui signifie que (1 aL)yt = t sera aussi un AR(1). Dans le cas general, il faut
se ramener au cas o`u les deux polynomes auto-regressifs sont identiques, ce qui sobtient
en multipliant chaque processus par le polynome de retard de lautre, ce qui fait
(1 aL)(1 bL)xt = (1 bL)ut
(1 aL)(1 bL)zt = (1 aL)vt
La somme de ces deux processus transformes donne alors
(1 (a + b)L + abL2 )(xt + zt ) = (1 bL)ut + (1 aL)vt
On obtient donc un nouveau processus auto-regressif, mais dordre 2 et dont les erreurs
suivent un MA(1). Il sagit dun ARMA(2,1). Ce resultat se generalise facilement. La
somme dun AR(p1 ) et dun AR(p2 ) independants donnera un ARMA(p1 +p2 , max(p1 , p2 )).

5 MODELES
PARAMETRIQUES
USUELS

17

5.3 Equations de Yule et Walker


Considerons un processus auto-regressif dordre p defini par:
A(L) yt = t

(38)

et sa fonction dauto-covariance (h). Dans le cas o`u r = 1 on a vu comment calculer (h)


et montre que celle-ci dependait de facon unique du coefficient de A(L). Le calcul devient
un peu plus complexe d`es que r 2. On a recours pour ceci aux e quations dite de Yule et
Walker (voir par exemple Gourieroux and Monfort (1990), page 180). Multiplions par yt
les deux cotes du processus auto-regressif. On a:
yt2 = 1 yt yt1 + 2 yt yt2 + + r yt ytr + yt t

(39)

et en prenant lesperance, on obtient une expression de lauto-covariance a` lordre zero:


(0) =

p
X

i (i) + 2

(40)

i=1

et donc:
(0) =

Pp

i=1

(41)

i (i)

Si maintenant on cherche une relation de recurrence pour definir lauto-covariance a` lordre


h avec h strictement positif, il suffit deffectuer la meme operation, mais en prenant yth ,
ce qui donne:
(h) =

p
X

i (h i) , h > 0

(42)

i=1

On obtient une expression identique pour les auto-correlations en divisant par (0). En
e crivant cette expression pour h variant de 1 a` p et en tenant compte de la parite de (h),
on obtient les e quations dites de Yule-Walker qui forment un syst`eme de p e quations a` p
inconnues:

(1)

(2)

. =
.

(r)

1
(1)
..
.

(1)
1
..
.

(r 1)

(r 2)

(r 1)
1

(r 2)
2

..
..
.
.
1

(43)

Si les auto-correlations sont connues, la resolution de ce syst`eme permet de trouver les


valeurs des param`etres du processus auto-regressif dordre p qui les ont engendre. En
exprimant differemment le syst`eme, on peut trouver, connaissant la suite des p param`etres
i , les p premi`eres auto-correlations du processus. Les suivantes sont alors donnees par la
relation de recurrence precedente, en se servant des valeurs trouvees pour les p premi`eres.
Le syst`eme dequation nest pas difficile a` trouver pour chaque cas particulier.
Exemple 1: Considerons lAR(2) suivant:
yt = 1 yt1 + 2 yt2 + t

5 MODELES
PARAMETRIQUES
USUELS

18

Les e quations de Yule Walker permettent decrire:


(1) = 1 + (1) 2
(2) = (1) 1 + 2
do`u lon tire lexpression des deux premi`eres auto-correlations:
(1) = 1 /(1 2 )
(2) = 2 + 12 /(1 2 )
Il suffit ensuite dappliquer la relation de recurrence pour trouver:
(3) = 1 (2) + 2 (1)
(4) = 1 (3) + 2 (2)
(5) =

5.4 Processus ARMA


Les deux mod`eles precedents sont simples, mais ils necessitent parfois un grand nombre
de param`etres pour obtenir un ajustement correct aux donnees. Aussi il est interessant de
definir une classe de processus mixtes dit processus ARMA au moyen de lequation:
A(L) yt = B(L) t

(44)

Ces processus jouent un tr`es grand role dans la modelisation statistique des series temporelles. Ils ont e te popularises par Box and Jenkins (1976). Ils permettent une representation
tr`es parcimonieuse des series temporelles. Intuitivement, un AR(1) resume un MA() et
un MA(1) resume un AR(). Un ARMA(1,1) devrait donc au moyen de deux param`etres
simplement representer raisonnablement bien une large classe de processus. On generalise
le mod`ele en considerant des polynomes dordre p et q pour obtenir un processus ARMA(p,q).
On peut rajouter une moyenne non nulle au processus en e crivant
A(L)(yt ) = B(L)t .
Ce processus est stationnaire si toutes les racines du polynome A(L) sont en dehors du
cercle unite et inversible si toutes les racines du polynome B(L) sont en dehors du cercle
unite. Il est assez difficile de calculer les auto-covariances de ce processus, contrairement
aux processus AR et MA simples. Aussi va-t-on se limiter au cas ARMA(1,1) qui est bien
utile dans la pratique.
On part du mod`ele
(45)
(1 L)(yt ) = (1 + L)t .
On calcule facilement lesperance
E(yt ) = E(yt1 ) + (1 ) + E(t ) + E(t1 ) =

1
=
1

5 MODELES
PARAMETRIQUES
USUELS

19

Pour calculer la variance, il est plus commode de supposer = 0 car on sait quelle sera
independante de . On va prendre le carre des deux membres de
yt = yt1 + t + t1

(46)

et en prendre lesperance:
2
E(yt2 ) = 2 E(yt1
) + E(2t ) + 2 E(2t1 )

+ 2E(yt1 t1 ) + 2E(yt1 t ) + 2E(t t1 )

(47)

2
= 2 E(yt1
) + 2 + 2 2 + 2 2

ce qui fait que lon a


(0) = 2

1 + 2 + 2
1 2

Pour = 0, on retrouve la variance dun MA(1) et pour = 0, la variance dun AR(1).


Lauto-covariance a` lordre 1 sobtient dune mani`ere similaire en multipliant lequation
de depart par yt1 et en prenant lesperance:
2
E(yt yt1 ) = E(yt1
) + E(t1 yt1 ) + E(t yt1 )

= (0) + 2

(48)

et lon arrive a`
(1) = 2

(1 + )( + )
1 2

Pour h 2, on a la relation generale


(h) = (h 1),

h 2.

Mais a` linverse des processus AR purs, cette relation nest pas vraie pour h = 1. On a
la superposition de deux types dautocorrelation, celle du MA qui est nulle pour h 2 et
celle de lAR qui decroit rapidement avec h. Pour p > 1 ou q > 1, les formules deviennent
plus complexes.
Passons maintenant a` lexpression de la densite spectrale dun processus ARMA(1,1).
En se basant sur les resultats precedents, il est assez facile de montrer que
sy () =

2 1 + 2 + 2 cos()
2 1 + 2 2 cos()

On peut maintenant essayer de generaliser ce resultat au cas ARMA(p,q). Une premi`ere


expression, utilisant lecriture complexe est relativement commode
sy () =

2 1 + 1 ei + 2 ei2 + + q eiq
2 1 1 ei 2 ei2 p eip

6 METHODOLOGIES
DE SPECIFICATION

20

Elle permet de trouver lexpression de la densite spectrale en zero en fonction des param`etres
initiaux du mod`eles:
2 1 + 1 + 2 + + q
sy (0) =
.
2 1 1 2 p
Et lon remarque bien sur que si la partie AR comporte une racine unitaire, la somme
des coefficients i est e gale a` 1, ce qui fait que le denominateur devient nul et la densite
spectrale en 0 devient infinie.
Pour obtenir une expression generale de la densite spectrale qui permette deliminer les
nombres complexes, il faut pouvoir factoriser les deux polynomes de retard A(z) et B(z).
Supposons que les racines soient reelles et distinctes. Nous avons p racines j pour la partie
AR et q racines j pour la partie MA. La densite spectrale secrit alors
Q

q
2 j=1 [1 + j2 2j cos()]
sy () =
Q
2 pj=1 [1 + 2j 2j cos()]

6 Methodologies de specification
Les mod`eles AR sestiment par moindres carres. Les processus MA necessitent lusage
dune methode non-lineaire qui peut e tre le maximum de vraisemblance. Prenons lexemple
dun MA(1). On definit le residu du mod`ele par
ut = yt ut1
A partir du moment o`u lon connat une valeur de depart u0 que lon va fixer e gale a` zero et
que lon fixe une valeur pour et , on peut construire de mani`ere recursive la suite des ut .
On peut donc facilement construire un algorithme qui va minimiser la somme des carres
des residus pour t = 2, , T ou bien construire une fonction de vraisemblance conditionnelle si lon fait une hypoth`ese de normalite.
On voit bien que le seul probl`eme a` resoudre ne se resume pas a` estimer le mod`ele.
Il faut aussi decider dune valeur pour p et q la taille des parties AR et MA. Plusieurs
approches sont possibles: une approche basee sur les crit`eres dinformation et une approche
dite de Box et Jenkins qui se base sur lexamen des graphiques des auto-correlations totales
et partielles.

6.1 Box-Jenkins
Box and Jenkins (1976) ont promu une methodologie consistant a` modeliser les series
temporelles univariees au moyen des processus ARMA. Ces processus sont parcimonieux
et constituent une bonne approximation de processus plus generaux pourvu que lon se
restreigne au cadre lineaire. Les mod`eles ARMA donnent souvent de bon resultats en
prevision et ont beneficie de la vague de scepticisme quant a` linteret des gros mod`eles
e conometriques (voir par exemple Ashley (1988)).
La methodologie de Box et Jenkins peut se decomposer en quatre e tapes:

6 METHODOLOGIES
DE SPECIFICATION

21

1) Transformer la serie e tudiee de mani`ere a` la stationnariser. Loutil utilise est le


graphique des auto-covariances.
2) Determiner une valeur plausible pour lordre des parties AR et MA au moyen des
graphiques dauto-correlation et dauto-correlation partielle.
3) Estimer les param`etres
4) Verifier les qualites predictives hors e chantillon du mod`ele au moyen de tests.
Cette methodologie est interessante dans la mesure o`u elle fut la premi`ere a` poser
clairement la question de ladequation du mod`ele aux donnees en particulier en ce qui
concerne la specification dynamique. Elle decrit un enchanement de procedures de tests et
de procedures destimation.
1. Letape 1 cherche a` obtenir la stationnarite des donnees en interpretant le graphique
des auto-covariances. Un processus non-stationnaire a ses auto-covariances qui decroissent
tr`es lentement a` linverse dun processus stationnaire. Nous verrons ulterieurement
comment la litterature moderne a pu proposer des tests formels de stationnarite.
2. Letape 2 repose e galement sur linterpretation de graphiques pour choisir lordre des
parties AR et MA. On sait que les auto-correlations dun processus MA(q) deviennent nulles a` partir de lordre q + 1. Si le graphique des auto-correlations empiriques
chute brusquement apr`es h = q, on pourra donc dire que lon est en presence dun
MA(q). Si lon consid`ere maintenant les autocorrelation totales dun AR(p), on sait
quelles decroissent lentement dans le temps. Mais il nest gu`ere possible de deduire
une valeur de p a` partir de lexamen du correlogramme. On cherche donc une transformation du correlogramme qui soit plus interpretable. Il sagit du graphique des
auto-correlations partielles que lon a note aT (p). Les autocorrelations partielles ont
la propriete detre nulles a` partir de lordre p + 1 pour un processus AR(p).
3. Letape 3 consiste a` estimer le mod`ele choisi
4. Letape 4 consiste a` verifier si le mod`ele est bien specifie au moyen de tests de mauvaise specification. La litterature moderne en a fournit toute une batterie dont on
trouvera par exemple une recension dans le chapitre 1 de Lutkepohl and Kratzig
(2004).

6.2 Transformations et differentiation


Les mod`eles ARMA sont assez restrictifs dans la mesure o`u ils supposent que les observations sont stationnaires, que les param`etres sont constants et que les erreurs sont de variance
constante. Pour se ramener a` un tel cade, il faut souvent transformer les donnees.
La transformation log permet de stabiliser la variance dune serie si la variance de la
serie originale croit avec les valeurs de celle-ci. Cette transformation permet aussi parfois
de se rapprocher de la normalite.

6 METHODOLOGIES
DE SPECIFICATION

22

Une serie non stationnaire est une serie qui en general croit avec le temps. On peut
donc e tre tente de retirer par regression un trend temporel de cette serie. Lautre solution
consiste a` utiliser un filtre du type (1 L). On va alors differentier la serie. Si lon a tout
dabord pris le logarithme, la serie transformee
(1 L) log yt = log yt log yt1
representera les accroissement en pourcentage de la serie. Par exemple, au lieu de considerer un indice de prix, on modelisera un taux dinflation. Un indice de prix croit en
general toujours, ce qui fait quil nest pas stationnaire. Un taux dinflation aura lui beaucoup plus de chances detre stationnaire.
Si une serie presente une forte composante saisonni`ere, on peut e liminer celle-ci en
differenciant la serie non plus a` lordre un, mais a` lordre de la saisonnalite. Ainsi pour des
series trimestrielles, on pourra utiliser (1 L4 ). Ainsi on peut definir un taux dinflation
annuel glissant par
(1 L4 ) log Pt = log Pt log Pt4
Il faut toutefois e tre prudent dans lutilisation de ces transformations, car elles peuvent avoir des consequences sur le processus e tudie et introduire artificiellement des caracteristiques qui ne sy trouvaient pas. Ceci sera traite plus particuli`erement dans le chapitre
consacre aux racines unites.

6.3 Crit`eres dinformation


Les crit`eres dinformation cherchent a` minimiser le logarithme de la variance des residus
en tenant compte dune penalite additive basee sur la taille du mod`ele. Par exemple pour
un AR(p), on va chercher la valeur de p qui rend minimum
2
p.
T
Cest le crit`ere de Akaike (1974). On debutera la procedure en choisissant une valeur maximale pour p et lon procedera en reduisant cette valeur jusqu`a trouver le AIC minimum.
On conserve la meme valeur de T tout au long de la procedure. Le crit`ere dAkaike surestime asymptotiquement la valeur de p avec une probabilite positive, aussi a-t-on cherche
dans la litterature dautres crit`eres qui soient consistants. Le crit`ere de Hannan and Quinn
(1979)
2 log log T
p
HQ(p) = log
T2 (p) +
T
est consistant (convergence en probabilite). Le crit`ere de Schwarz (1978)
AIC(p) = log
T2 (p) +

log T
p
T
est lui fortement consistant (convergence presque sure). La consistance est obtenue a` condition que le p de depart soit plus grand que la vrai valeur du processus de generation des
donnees. En petit e chantillon, les crit`eres donnent toujours les resultats ordonnees suivants
SC(p) = log
T2 (p) +

p(SC) p(HQ) p(AIC)

7 CONCLUSION

23

ce qui fait que le crit`ere de Schwarz est celui choisit les mod`eles les plus parcimonieux.
Il est difficile dappliquer cette methode pour des mod`eles ARMA generaux. En effet,
on doit toujours partir dun mod`ele surparametre. Dans ce cas, les parties AR et MA
vont avoir des racines communes qui vont se simplifier et lalgorithme doptimisation ne
convergera pas. Hannan and Rissanen (1982) ont propose une methode approchee qui est
basee sur lutilisation des moindres carres en deux e tapes. Dans un premier temps, on
estime un mod`ele AR avec un ordre h maximal. On en tire des residus ut (h) que lon va
reutiliser dans la regression
yt = 1 yt1 + + p ytp + ut (h) + 1 ut1 (h) + + q utq (h) + et
Il faudra e tablir une grille sur p, q < h et estimer la variance des residus de cette regression

e (p, q). On choisira la combinaison p, q qui minimise un des crit`eres dinformation en


prenant p+q comme le nombre total de param`etres a` introduire dans la fonction de penalite.

7 Conclusion
Dans ce chapitre, on avons examine les caracteristiques principales des processus stochastiques univaries en nous attachant principalement aux processus stationnaires. On a detaille
quelques processus parametriques usuels qui seront fort utiles par la suite. Le fil conducteur de cet ouvrage concerne la non-stationnarite. On a suggere plusieurs methodes pour
obtenir la stationnarite. On verra que ces methodes engendrent des probl`emes specifiques
tant au plan de la theorie asymptotique que de la modelisation proprement dite.

8 Lectures additionnelles
On consultera avec profit des ouvrages statistiques plus specialises sur la modelisation
des series temporelles comme par exemple Granger and Newbold (1986), Gourieroux and
Monfort (1990), ou Hamilton (1994). Pour ce dernier ouvrage, on consultera avec profit
les chapitres 3 et 6. Lutkepohl and Kratzig (2004) fournit toute une serie dexemples empiriques traites au moyen dun logiciel libre dacc`es. Les series utilisees sont disponibles
sur le site web de louvrage, ce qui permet de les refaire facilement.

9 Exercices
9.1 Aliasing
Considerez un processus MA(1) xt = t + t1 . Ecrivez lautocorrelation a` lordre 1 de
ce processus.
1) Trouvez les valeurs de pour lesquelles lautocorrelation est maximale en valeur
absolue.

9 EXERCICES

24

2) A quelle condition le processus yt = t + t1 a les memes autocorrelations que la


processus xt . Quelles doit e tre la valeur de ?
3) Les deux processus peuvent-ils e tre inversibles en meme temps?
Idees de solutions Lautocorrelation a` lordre 1 est e gale a` /(1 + 2 ). Si = 1,
lautocorrelation vaut 0.5 qui est sa valeur maximale. Cette expression ne change pas
pour si lon remplace par 1/. On ne peut avoir linversibilite des deux processus
en meme temps car et ne peuvent e tre inferieur a` 1 en meme temps.

9.2 Somme de deux MA(1)


Soient processus MA(1) independants xt = ut +aut1 et zt = vt +bvt1 avec Var(ut ) = u2
et Var(vt ) = v2 . Considerons la somme de ces deux processus yt = xt + zt . On obtient :
yt = ut + vt + aut1 + bvt1 = t + t1
1) Calculez la moyenne, la variance et lauto-covariance a` lordre 1 de yt
2) Montrez que ces quantites sont e gales a` la somme des moyennes, variances et covariances des processus MA(1) initiaux.
3) Trouvez la valeur de en fonction des param`etres des processus MA(1) initiaux.
4) Donner la composition de t
Idees de solutions Lexpression de la moyenne et de la variance se deduit de lindependance
entre ut et vt . Pour calculer la covariance a` lordre 1, on profite du fait que lesperance
est nulle pour calculer simplement E(yt yt1 ) en utilisant les memes proprietes dindependance.
Une fois ces calculs faits, la reponse a` la question 2 est triviale. La valeur de
est simple a` trouver si les variances u2 et v2 sont e gales. Dans le cas contraire
sexprime comme une somme ponderee par les variances des coefficients initiaux.
Pour trouver lexpression de t , il faut trouver ses moments en fonction de ceux de
ut et vt .

9.3 Moments dun MA(2)


Soit un processus MA(2)
yt = t + 1 t1 + 2 t2
avec t N(0, 2 ).
1) Calculez la moyenne, la variance et lauto-covariance a` lordre ( ) de ce processus. Montrez que ( ) = ( ). Que se passe-t-il pour > 2?
2) Supposons que les param`etres du mod`ele aient e te estimes. Comment en calcule-t-on
les residus? Sous quelle condition cela est-il possible?

9 EXERCICES

25

3) Considerons lequation caracteristique 1 + 1 z + 2 z 2 = 0. Calculez les racines de


cette e quation. Donnez une factorisation du polynome de retard du mod`ele. Donnez
les restrictions que doivent remplir 1 et 2 pour que ce polynome soit inversible.
Idees de solutions Le calcul de la moyenne et de la variance ne pose pas de probl`eme.
Pour calculer lauto-covariance, on calculera lesperance des double produits qui sera
nulle selon la valeur de . On en deduit facilement la propriete ( ) = ( ). Pour
> 2, lauto-covariance sera e videmment nulle. Pour calculer les residus, il suffit
de remarquer que lon peut e crire le mod`ele sous la forme yt = B(L)t . Il suffit
alors dinverser le polynome B(L) pour trouver t = B(L)1 yt . Il faut donc que ce
polynome soit inversible. Pratiquement, on procedera par recurrence en supposant
que 1 = 2 = 0 et en calculant t = yt 1 t1 2 t2 . Lequation caracteristique
est un polynome de degre deux dont on va calculer le discriminant, ce qui donnera
directement les racines en zero. Les racines sont reelles si le discriminant est positif.
Elles doivent e tre plus grandes que 1.

9.4 Simulation dun AR(1)


Considerez lAR(1) suivant
yt = + yt1 + t
avec = 1. Simulez ce processus pour T = 50 avec differentes valeurs pour . On prendra
= 0.3, = 0.8, = 0.99 et = 1.01. Estimez pour chaque cas les autocorrelation et
faites en le graphique. Que pouvez vous conclure?

9.5 Moments dun AR(2)


Considerons le processus AR(2) suivant
yt = 1 yt1 + 2 yt2 + t

1) Ecrire
lequation caracteristique et deduisez en les conditions de stationnarite du processus.
2) Calculez la moyenne et la variance du processus.
3) En utilisant les e quations de Yule-Walker, donner lauto-correlation du processus
( ) pour = 1, 2, 3.
4) Essayez de trouver une formule generale. Quen deduisez vous pour .
Idees de solutions Lequation caracteristique est 1 1 z 2 z 2 = 0. Quand on a
calcule les racines, il faut donner les conditions pour quelles soient plus grandes que
1. Pour calculer les moments, on utilise lhypoth`ese de stationnarite qui dit que les
moments de y sont les memes quelque soit t. On en deduit que lesperance est nulle

9 EXERCICES

26

et la variance e gale a` 2 /(1 12 22 ). Les e quations de Yule-Walker permettent


decrire directement
1 = 1 + 1 2
2 = 1 + 1 2
3 = 1 2 + 2 2
Il suffit ensuite de resoudre les deux premi`eres e quations pour trouver les deux
premi`eres auto-correlations. La formule generale permet de voir que comme dans
le cas AR(1), r fait intervenir les coefficients 1 et 2 avec une puissance de r. De
ce fait lauto-correlation tend vers zero quand r tend vers linfini.

9.6 Simulation dun ARMA(1,1)


Considerons le processus ARMA(1,0,1) suivant
yt = yt1 + t + t1
et posons = 0.3 et = 0.6.
1) Simulez le processus en prenant N (0, 0.01) et T = 50.
2) Estimez les auto-correlation et les auto-correlations partielles pour = 1, ..., 20 et
faites en le graphique.
3) Recommencez le meme exercice pour T = 100, T = 500 et T = 5000. Quen
deduisez vous?

9.7 Simulation des densites spectrales


Programmer en Gauss la densite spectrale dun AR(1) et dun MA(1) pour des valeurs
comprises entre 0 et .
1) Tracer le graphique de la densite spectrale de lAR(1) pour differentes valeurs ci
coefficient dauto-regression . Que remarquez vous en = 0 pour des valeurs
e levees de ; pour des valeurs negatives de .
2) Faites la meme chose pour un MA(1).
3) Comparez le comportement des deux densites spectrales autour de = 0.

9.8 Densite spectrale dun ARMA(1,1)


Montrer que la densite spectrale dun ARMA(1,1) est
sy () =

2 1 + 2 + 2 cos()
2 1 + 2 2 cos()

Idees de solution On utilisera la fonction generatrice des auto-covariances et la formule de Moivre.

REFERENCES

27

9.9 Filtres
Considerer un processus MA(1) yt = t + t1 et appliquez y le filtre (1 L). Que
deviennent les auto-covariances du processus transforme par rapport aux auto-covariances
initiales?
Idees de solution Le mod`ele filtre secrit yt = t + ( 1)t1 + t2 . On sait
que lauto-covariance a` lordre 1 est 2 et devient nulle d`es lordre 2. On peut
calculer simplement lauto-covariance a` lordre 1 et 2 du processus transforme pour
sapercevoir qu`a lordre 1 elle vaut ( 2 1) 2 et donc devient negative et qu`a
lordre 2 elle nest plus nulle et vaut 2 .

9.10 Crit`eres dinformation


Pour faire du choix de mod`eles, on dispose de trois crit`eres generaux qui le crit`ere de
Akaike, le crit`ere de Hannan-Quin et le crit`ere de Schwarz. Tous minimisent le logarithme
de la variance des erreurs augmente dune penalite.

1) Ecrivez
ces trois crit`eres et donnez leur proprietes de convergence
2) Ces crit`eres sont-il adaptes a` la recherche de specification pour un mod`ele ARMA?
Justifiez votre reponse.
3) Derivez la methode alternative de Hannan et Rissanen (1982).
Idees de solution Le crit`eres dinformation (donnes avec seulement leur fonction de
penalite) sont les suivants: AIC (2p/T ) surestime p avec probabilite 1; HQ (2p log(log(T ))/T )
converge en probabilite vers p; SC (2p log(T )/T ) converge presque surement. Lutilisation
de ces crit`eres implique que lon estime un mod`ele sur-parametre. On se heurte donc
au probl`eme des facteurs communs dans un mod`ele ARMA. La methode de Hannan
et Rissanen (1982) permet de contourner cet e cueil. Elle consiste a` partir dun AR(h),
avec h grand do`u lon tire des residus u(h). Ensuite on estime le mod`ele
yt = yt1 + u(h) + u(h)t1 + t
par OLS et lon choisit la taille de et au moyen des crit`eres dinformation usuels.

References
A KAIKE , H. (1974): A New Look at the Statistical Model Identification, IEEE Transactions on Automatic Control, AC-19, 716723.
A SHLEY, R. (1988): On the relative worth of recent macroeconomic forecasts, International Journal of Forecasting, 4, 363376.
BARLETT, M. (1950): Periodogram analysis and continuous spectra, Biometrika, 37,
116.

REFERENCES

28

B OX , G., AND G. J ENKINS (1976): Time Series Analysis Forecasting and Control. San
Francisco.
G OURIEROUX , C., AND A. M ONFORT (1990): Series Temporelles et Mod`eles Dynamiques. Economica, Paris.
G RANGER , C. W. J.,
Diego.

AND

P. N EWBOLD (1986): Forecasting Economic Time Series. San

H AMILTON , J. D. (1994): Time Series Analysis. Princeton University Press, Princeton.


H ANNAN , E., AND B. Q UINN (1979): The determination of the order of an autoregression, Journal of the Royal Statistical Society, B41, 190195.
H ANNAN , E., AND J. R ISSANEN (1982): Recursive estimation of mixed autoregressivemoving average order, Biometrika, 69, 8194.

L UTKEPOHL
, H., AND M. K R ATZIG
(eds.) (2004): Applied Time Series Econometrics,
Themes in Modern Econometrics. Cambridge University Press, Cambridge.
P RIESTLEY, M. (1981): Spectral Analysis and Time Series. Academic Press, London.
S CHWARZ , G. (1978): Estimating the Dimension of a Model, The Annals of Statistics,
6, 461464.
W OLD , H. (1954): A Study in the Analysis of Stationary Time Series. Almquist and Wicksell, Uppsala.

También podría gustarte