P. 1
Céline Lévy-Leduc - Cours Econométrie (Etude des Séries Chronologiques)

Céline Lévy-Leduc - Cours Econométrie (Etude des Séries Chronologiques)

|Views: 219|Likes:
Cours d'économétrie: Etude des Séries Chronologiques
Cours d'économétrie: Etude des Séries Chronologiques

More info:

Published by: Abdelaziz El Idrissi on May 13, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

02/05/2014

pdf

text

original

Sections

Introduction `a l’Etude des S´eries Chronologiques

C´eline L´evy-Leduc
16 mai 2007
Chapitre 1
Introduction et Motivations
1.1 Introduction
1.1.1 D´efinitions et objectifs
D´efinition 1. Une s´erie chronologique est un ensemble d’observations, x
t
, chacune ´etant
enregistr´ee ` a un instant sp´ecifique t. L’intervalle d’observations sera not´e T
0
dans la suite.
L’´etude des s´eries chronologiques est utile lorsque l’on cherche `a analyser, comprendre ou
encore pr´evoir un ph´enom`ene ´evoluant dans le temps. Le but est donc de tirer des conclusions
`a partir des s´eries observ´ees. Nous consid`ererons les ´etapes suivantes :
1. Proposer un mod`ele probabiliste afin de repr´esenter les donn´ees.
2. Estimer les param`etres du mod`ele choisi et v´erifier la qualit´e de l’ajustement aux
donn´ees (validation du mod`ele).
3. Application du mod`ele (valid´e) : pr´evision.
Les domaines concern´es sont nombreux :
– ing´eni´erie, (EDF, pollution)
– sociologie, (chˆomage, gr`eves)
– finance, (ventes, bourse, passagers)
– industrie. (production, consommation)
1.1.2 Exemples de s´eries chronologiques
Exemple 1. Vente de vin rouge.
La Figure 1.1 montre les ventes mensuelles (en kilolitres) de vin rouge de janvier 1980
jusqu’`a octobre 1991. L’intervalle d’observations est T
0
= ¦1, 2, . . . , 142¦. La courbe sugg`ere
que les ventes ont une tendance croissante et un caract`ere saisonnier avec un maximum en
juillet et un minimum en janvier.
Exemple 2. Population des U.S.A., 1790 −1990
La population des U.S.A., mesur´ee tous les 10 ans, est repr´esent´ee par la Figure 1.2.
La courbe sugg`ere la possibilit´e d’adapter une tendance quadratique ou exponentielle aux
donn´ees.
On d´efinit maintenant la notion de processus stationnaires. Ceux-ci jouent un rˆole fonda-
mental dans l’´etude des s´eries chronologiques.
1
0 12 24 36 48 60 72 84 96 108 120 132 144
0
500
1000
1500
2000
2500
3000
mois (janvier1980−octobre1991)
v
e
n
te
s
m
e
n
s
u
e
lle
s
d
e
v
in
Fig. 1.1 – Ventes annuelles de vin rouge (en kilolitres) entre janvier 1980 et octobre 1991.
1790 1810 1830 1850 1870 1890 1910 1930 1950 1970 1990
0
50
100
150
200
250
m
illio
n
s
Fig. 1.2 – Population des U.S.A. en intervalles de 10 ans, 1790 −1990.
1.2 Stationnarit´e et stationnarit´e stricte
D´efinition 2. (Fonction d’autocovariance) Soit ¦X
t
, t ∈ Z¦ un processus al´eatoire tel que
V ar(X
t
) < ∞ pour tout t ∈ Z. La fonction d’autocovariance γ
X
(., .) de ¦X
t
¦ est d´efinie par
γ
X
(r, s) = Cov(X
r
, X
s
) = E ¦(X
r
−E(X
r
))(X
s
−E(X
s
))¦ , r, s ∈ Z.
D´efinition 3. (Stationnarit´e ou Stationnarit´e faible) La s´erie temporelle ¦X
t
, t ∈ Z¦ est dite
stationnaire ou faiblement stationnaire si
(i) E(X
2
t
) < ∞
(ii) E(X
t
) = m, ∀t ∈ Z
(iii) γ
X
(r, s) = γ
X
(r +t, s +t), ∀r, s, t ∈ Z.
Remarque 1. Si ¦X
t
, t ∈ Z¦ est stationnaire alors γ
X
(r, s) = γ
X
(r − s, 0) ∀r, s ∈ Z. Il
est donc plus agr´eable de red´efinir la fonction d’autocovariance d’un processus stationnaire
comme une fonction d’une seule variable d´efinie par
γ
X
(h) := γ
X
(h, 0) = Cov(X
t+h
, X
t
) ∀t, h ∈ Z.
D´efinition 4. (Stationnarit´e stricte) La s´erie temporelle ¦X
t
, t ∈ Z¦ est dite strictement
stationnaire si les lois jointes de (X
t
1
, . . . , X
t
k
) et de (X
t
1
+h
, . . . , X
t
k
+h
) pour tout entier
positif k et pour tous t
1
, . . . , t
k
, h ∈ Z.
Intuitivement, une s´erie chonologique strictement stationnaire doit avoir le mˆeme com-
portement statistique sur des intervalles de temps ´egaux.
2
1.2.1 Relation entre stationnarit´e faible et stricte
Un processus strictement stationnaire ayant ses moments d’ordre 2 finis est faiblement
stationnaire.
La r´eciproque n’est pas vraie en g´en´eral.
Contre-exemple : Soit ¦X
t
¦ une suite de variables al´eatoires ind´ependantes telle que
– X
t
∼ c(1), lorsque t est pair
– X
t
∼ ^(1, 1), lorsque t est impair
alors ¦X
t
¦ est stationnaire avec γ
X
(0) = 1 et γ
X
(h) = 0 lorsque h = 0. Cependant X
1
et X
2
n’ont pas la mˆeme loi donc ¦X
t
¦ n’est pas strictement stationnaire.
Cependant, il y a une classe importante de processus pour laquelle l’assertion : “ station-
narit´e (faible) implique stationnarit´e stricte ” est vraie : il s’agit des processus gaussiens.
En effet, ils sont caract´eris´es par leur esp´erance et leur covariance.
1.2.2 Quelques exemples
Exemple 3. Processus ` a moyenne mobile d’ordre 1 : MA(1)
Soit ¦Z
t
¦ une suite de variables iid d’esp´erance nulle et de variance finie σ
2
Z
. On pose
X
t
= Z
t
+θZ
t−1
.
La fonction d’autocovariance de X
t
est donn´ee par
Cov(X
t+h
, X
t
) = Cov(Z
t+h
+θZ
t+h−1
, Z
t
+θZ
t−1
)
=

(1 +θ
2

Z
2
, si h = 0
θσ
Z
2
, si h = +1 ou −1
0, si [h[ > 1.
¦X
t
¦ est donc un processus stationnaire. En fait, on peut montrer qu’il est aussi stationnaire
au sens strict.
Exemple 4.
Soit ¦Y
t
¦ une s´erie temporelle stationnaire. On d´efinit
X
t
=

Y
t
, si t est pair
Y
t
+ 1, si t est impair
Bien que Cov(X
t+h
, X
t
) = γ
Y
(h), ¦X
t
¦ n’est pas un processus stationnaire car il n’a pas une
esp´erance constante.
Exemple 5. Marche al´eatoire
Soit S
t
= X
1
+X
2
+ +X
t
o` u les X
i
sont iid d’esp´erance nulle et de variance σ
2
. Pour
h > 0,
Cov(S
t+h
, S
t
) = Cov

t+h
¸
i=1
X
i
,
t
¸
i=1
X
i

= Cov

t
¸
i=1
X
i
,
t
¸
i=1
X
i

= σ
2
t.
3
Donc ¦S
t
¦ n’est pas stationnaire.
Evidemment, la plupart des s´eries temporelles ne sont pas des r´ealisations de processus
stationnaires. Mais comme on va le voir dans les paragraphes qui suivent, on peut s’y ramener
en faisant subir `a la s´erie chonologique certaines transformations.
1.3 Mod´elisation des s´eries chronologiques
Une ´etape importante dans l’analyse des s´eries chronologiques (SC) est le choix d’un
mod`ele probabiliste pour les donn´ees. Afin de conclure sur le caract`ere al´eatoire des observa-
tions futures, il est naturel de supposer que chaque observation x
t
est une r´ealisation d’une
variable al´eatoire X
t
. La SC ¦x
t
, t ∈ T
0
¦ est une r´ealisation de la famille de variables al´eatoires
¦X
t
, t ∈ T
0
¦. Ces consid´erations sugg`erent de mod´eliser les donn´ees comme une r´ealisation
d’un processus al´eatoire ¦X
t
, t ∈ T¦ o` u T ⊇ T
0
.
1.3.1 Mod`ele g´en´eral
On mod´elise un processus par la somme d’une partie d´eterministe et d’une partie al´eatoire
(mod`ele additif), ou par le produit d’une partie d´eterministe et d’une partie al´eatoire (mod`ele
multiplicatif). Le mod`ele de d´ecomposition classique est le suivant (mod`ele additif) :
X
t
= m
t
+s
t
+e
t
1 ≤ t ≤ n. (1.1)
o` u d
t
= (m
t
+s
t
) repr´esente la partie d´eterministe du processus et e
t
sa partie al´eatoire, avec
1. m
t
une fonction qui varie lentement, appel´ee la composante de tendance. C’est une
fonction qui varie au cours du temps et traduit l’aspect g´en´eral de la s´erie.
2. s
t
une fonction p´eriodique de t avec la p´eriode d : s
t−d
= s
t
. C’est la composante
saisonni`ere de p´eriode 4, 12, 52...selon qu’il s’agit de donn´ees trimestrielles, mensuelles,
hebdomadaires....
3. e
t
un bruit al´eatoire, stationnaire, de moyenne nulle. Il correspond `a la notion d’´ecart
au mod`ele.
NB : Le mod`ele multiplicatif s’´ecrira X
t
= d
t
e
t
, o` u d
t
est la partie d´eterministe et e
t
la partie
al´eatoire.
La mod´elisation de la s´erie (trajectoire du processus) comporte deux parties :
– celle de la partie fixe,
– celle de la partie al´eatoire.
Nous nous int´eressons tout d’abord `a la premi`ere ´etape qui consiste `a voir s’il existe une
tendance, une composante saisonni`ere, etc....et `a les mod´eliser.
Pour d´etecter une tendance et/ou une saisonnalit´e, on peut s’aider des informations a priori,
notamment la nature des donn´ees et leur repr´esentation graphique ; par exemple, si le signal
observ´e est la consommation mensuelle d’´electricit´e par foyer, on pourra s’attendre `a une
certaine saisonnalit´e (mensuelle ? trimestrielle ?) et `a une tendance (lin´eaire ? quadratique ?).
4
1.3.2 Mod`eles avec tendance et composante saisonni`ere
Mod`eles avec tendance
Le mod`ele est de la forme :
X
t
= m
t
+e
t
(1.2)
o` u e
t
est un bruit al´eatoire de moyenne nulle.
Pour mod´eliser la tendance de la s´erie observ´ee, on peut par exemple chercher une fonction
param´etrique qui ressemble `a l’allure g´en´erale de la s´erie et estimer les param`etres de cette
fonction afin d’ajuster le mieux possible les observations.
Les fonctions les plus utilis´ees sont des fonctions :
• lin´eaires :
m
t
= a +bt. (1.3)
• polynomiales :
m
t
= a
0
+a
1
t +. . . a
d
t
d
. (1.4)
NB : on peut aussi mod´eliser par des fonctions de type exponentiel.
Il existe plusieurs m´ethodes pour estimer la fonction m
t
. Une des plus utiles est la m´ethode
des moindres carr´es. Les param`etres des fonctions sont choisis de fa¸ con `a minimiser l’erreur :
n
¸
t=1
(x
t
−m
t
)
2
. (1.5)
Un examen visuel de la s´erie permet en g´en´eral de se faire une id´ee du degr´e du po-
lynˆ ome `a utiliser. Il faut utiliser un polynˆome de degr´e le plus petit possible tout en ayant
un bon ajustement. Pour cela, on aimerait que les r´esidus fluctuent autour de 0 avec une
amplitude la plus faible possible.
NB : On peut aussi regarder l’erreur d´efinie en (1.5) : par exemple, si l’erreur pour un
polynˆome de degr´e d = 4 est proche de celle pour un polynˆome de degr´e d = 3, alors le choix
d = 4 n’am´eliore pas nettement l’ajustement.
Exemple 6. Population des U.S.A
On essaie d’ajuster un polynˆome de degr´e 2 (i.e d = 2 dans (1.4)). Pour obtenir les estim´ees
de a
0
, a
1
et a
2
, on ´ecrit
Y = A

¸
a
0
a
1
a
2
¸

+e o` u A =

¸
¸
¸
1 t
1
t
2
1
1 t
2
t
2
2
. . .
1 t
n
t
2
n
¸

, les t
i
´etant les instants d’observations.
On estime a
0
, a
1
et a
2
en utilisant le crit`ere des moindres carr´es

¸
´ a
0
´ a
1
´ a
2
¸

= (A
T
A)
−1
A
T
Y.
5
On repr´esente dans la Figure 1.3 : ˆ m = A( ´ a
0
´ a
1
´ a
2
)
T
. On peut s’en servir pour faire de la
pr´evision ce qui donne
Ann´ee 2000 : Population estim´ee = 2.74348 10
8
Ann´ee 2010 : Population estim´ee = 3.01466 10
8
Ann´ee 2020 : Population estim´ee = 3.29886 10
8
.
1750 1800 1850 1900 1950 2000
0
50
100
150
200
250
300
1750 1800 1850 1900 1950 2000
−8
−6
−4
−2
0
2
4
x 10
6
Fig. 1.3 – Ajustement polynomial et r´esidus pour les donn´ees : Population des U.S.A.
Mod`eles avec composante saisonni`ere
Pour repr´esenter un effet saisonnier, admettant du bruit mais pas de tendance, nous
utilisons le mod`ele simple suivant :
X
t
= s
t
+e
t
(1.6)
o` u s
t
est une fonction p´eriodique de t, de p´eriode d, i.e., pour tout t, s
t−d
= s
t
. Un choix
convenable pour s
t
est une somme de fonctions harmoniques d´efinies par
s
t
= a
0
+
k
¸
j=1
[a
j
cos(λ
j
t) +b
j
sin(λ
j
t)] ,
o` u a
0
, a
1
. . . , a
k
et b
1
. . . , b
k
sont des param`etres inconnus, et λ
1
. . . , λ
k
sont des fr´equences
fixes, chacune ´etant un multiple entier de 2π/d.
Exemple 7. Victimes des accidents de la route aux U.S.A entre 1973 et 1978
0 10 20 30 40 50 60 70 80
6500
7000
7500
8000
8500
9000
9500
10000
10500
11000
11500
Fig. 1.4 – Nombre mensuel de victimes des accidents de la route aux USA entre 1973 et 1978
6
On ajuste aux donn´ees une fonction p´eriodique avec une seule composante harmonique de
p´eriode 12 mois et une fonction p´eriodique avec deux composantes : l’une de p´eriode 6 mois
et l’autre de p´eriode 12 mois (voir Figure 1.5).
• 1er cas : k = 1, λ
1
= 2π/12

¸
´ a
0
´ a
1
´
b
1
¸

= (A
T
A)
−1
A
T
Y, o` u A =

¸
¸
¸
1 cos(λ
1
t
1
) sin(λ
1
t
1
)
1 cos(λ
1
t
2
) sin(λ
1
t
2
)
. . .
1 cos(λ
1
t
n
) sin(λ
1
t
n
)
¸

• 2`eme cas : k = 2, λ
1
= 2π/12, λ
2
= 2π/6

¸
¸
¸
¸
¸
´ a
0
´ a
1
´
b
1
´ a
2
´
b
2
¸

= (A
T
A)
−1
A
T
Y, o` u A =

¸
¸
¸
1 cos(λ
1
t
1
) sin(λ
1
t
1
) cos(λ
2
t
1
) sin(λ
2
t
1
)
1 cos(λ
1
t
2
) sin(λ
1
t
2
) cos(λ
2
t
2
) sin(λ
2
t
2
)
. . .
1 cos(λ
1
t
n
) sin(λ
1
t
n
) cos(λ
2
t
n
) sin(λ
2
t
n
)
¸

0 10 20 30 40 50 60 70 80
6500
7000
7500
8000
8500
9000
9500
10000
10500
11000
11500
0 10 20 30 40 50 60 70 80
6500
7000
7500
8000
8500
9000
9500
10000
10500
11000
11500
Fig. 1.5 – Ajustement de composantes saisonni`eres
Les diff´erentes composantes d´eterministes ayant ´et´e mod´elis´ees, il reste `a les ´eliminer pour
effectuer la deuxi`eme ´etape de mod´elisation, celle de la partie al´eatoire.
1.3.3 Elimination de la tendance et de la composante saisonni`ere par diff´erenciation
(Box et Jenkis (1970))
Op´erateur retard et op´erateur diff´erence
Op´erateur retard :
L’op´erateur retard B d´ecale le processus d’une unit´e de temps vers le pass´e :
BX
t
= X
t−1
.
Si on applique j fois cet op´erateur, on d´ecale le processus de j unit´es de temps :
B
j
X
t
= B(B(..BX
t
)) = X
t−j
.
Op´erateur diff´erence :
7
L’op´erateur diff´erence ∆ fait la diff´erence entre le processus et sa version d´ecal´ee de une
unit´e de temps :
∆X
t
= X
t
−X
t−1
= (1 −B)X
t
.
• Elimination de la tendance
L’op´erateur diff´erence ∆ ´elimine les tendances lin´eaires. Par exemple, pour un processus
de la forme
X
t
= a +bt +e
t
,
on a
∆X
t
= b +e
t
−e
t−1
.
De fa¸ con g´en´erale, l’op´erateur ∆
d
´elimine les tendances polynomiales de degr´e d. Par
exemple, pour une tendance de degr´e 2,

2
X
t
= ∆
2
(a +bt +ct
2
+e
t
) = (1 −B)
2
X
t
= 2c + (e
t
−2e
t−1
+e
t−2
).
Exemple 8. Population des U.S.A.
Apr`es deux applications de l’op´erateur ∆, on s’est ramen´e `a une s´erie stationnaire ce
qui confirme ce que l’on a obtenu pr´ec´edemment pour cette s´erie temporelle (voir Figure
1.6).
1780 1800 1820 1840 1860 1880 1900 1920 1940 1960 1980 2000
0
50
100
150
200
m
i
l
l
i
o
n
s
pop U.S.A.
1780 1800 1820 1840 1860 1880 1900 1920 1940 1960 1980 2000
0
10
20
m
i
l
l
i
o
n
s
pop U.S.A. − differenciation de degre 1
1780 1800 1820 1840 1860 1880 1900 1920 1940 1960 1980 2000
−5
0
5
10
m
i
l
l
i
o
n
s
pop U.S.A. − differenciation de degre 2
Fig. 1.6 – Diff´erenciation de la s´erie : Population des U.S.A
• Elimination de la composante saisonni`ere
L’op´erateur ∆
d
= (1 − B
d
) ´elimine une saisonnalit´e de degr´e d. Par exemple, pour un
mod`ele g´en´eral,
X
t
= m
t
+s
t
+e
t
,
o` u s
t
est de p´eriode d, on obtient,

d
= m
t
−m
t−d
+e
t
−e
t−d
.
8
avec m
t
−m
t−d
la tendance et e
t
−e
t−d
le bruit.
Exemple 9. Nombre de victimes des accidents de la route aux U.S.A.
On applique tout d’abord ∆
12
pour faire une d´esaisonnalisation d’ordre 12 et ensuite
on fait une diff´erenciation d’ordre 1 (voir Figure 1.7).
0 10 20 30 40 50 60 70
7000
8000
9000
10000
11000
n
o
m
b
r
e

d
e

v
i
c
t
i
m
e
s
0 10 20 30 40 50 60 70
−1500
−1000
−500
0
500
n
o
m
b
r
e

d
e

v
i
c
t
i
m
e
s
differenciation de degre 12 pour la saisonnalite
0 10 20 30 40 50 60 70
−1000
−500
0
500
1000
n
o
m
b
r
e

d
e

v
i
c
t
i
m
e
s
mois (janvier1973−decembre1978)
differenciation de degre 1 pour la tendance
Fig. 1.7 – D´esaisonnalisation et diff´erenciation de la s´erie : nombre de victimes des accidents
de la route aux U.S.A
1.3.4 M´ethode g´en´erale pour la mod´elisation des s´eries chronologiques
Les exemples que l’on a vus indiquent l’approche g´en´erale suivante pour la mod´elisation
des SC :
• tracer la s´erie et examiner les caract´eristiques du graphique. V´erifier en particulier si il
existe
1. une tendance,
2. une composante saisonni`ere
• mod´eliser la tendance et la composante saisonni`ere.
• enlever la tendance et la composante saisonni`ere afin d’obtenir des r´esidus station-
naires.
• choisir un mod`ele pour les r´esidus en utilisant des statistiques (empiriques) de la r´ealisation,
comme par exemple l’autocorr´elation (voir plus loin).
Ensuite, on peut faire de la pr´evision sur les r´esidus d’abord et puis en inversant les transfor-
mations sur les donn´ees.
9
1.4 Propri´et´es de la fonction d’auto-covariance d’un processus
stationnaire
1.4.1 Propri´et´es de la fonction d’auto-covariance
Proposition 1. Si γ(.) est la fonction d’autocovariance d’un processus stationnaire ¦X
t
, t ∈
Z¦ alors
(i) γ(0) ≥ 0,
(ii) [γ(h)[ ≤ γ(0), ∀h ∈ Z
(iii) γ(−h) = γ(h), ∀h ∈ Z.
D´emonstration. (i) : γ(0) = Var(X
t
) ≥ 0.
(ii) : Par l’in´egalit´e de Cauchy-Scwarz,
[E [¦X
t+h
−E(X
t+h
)¦ ¦X
t
−E(X
t
)¦][ ≤ Var(X
t+h
)
1/2
Var(X
t
)
1/2
.
(iii) γ(−h) = Cov(X
t−h
, X
t
) = Cov(X
t
, X
t+h
) = γ(h).
D´efinition 5. Une fonction κ : Z −→R est dite d´efinie positive si et seulement si
n
¸
i,j=1
a
i
κ(t
i
−t
j
)a
j
≥ 0
pour tous entiers positifs n et pour tous vecteurs a = (a
1
, . . . , a
n
)

∈ R
n
et t = (t
1
, . . . , t
n
)


Z
n
.
Th´eor`eme 1. (Caract´erisation des fonctions d’autocovariance)
Une fonction ` a valeurs r´eelles d´efinie sur les entiers est la fonction d’autocovariance d’une
s´erie temporelle stationnaire si et seulement si elle est paire et d´efinie positive.
D´emonstration. Montrons que la fonction d’autocovariance d’une s´erie temporelle ¦X
t
¦ est
d´efinie positive. Si a = (a
1
, . . . , a
n
)

∈ R
n
, t = (t
1
, . . . , t
n
) ∈ Z
n
et Z
t
= (X
t
1
−E(X
t
1
), . . . , X
t
n

E(X
t
n
))

alors
0 ≤ Var(a

Z
t
) = a

E(Z
t
Z

t
)a = a

Γ
n
a =
n
¸
i,j=1
a
i
γ(t
i
−t
j
)a
j
,
o` u Γ
n
= [γ(t
i
−t
j
)]
1≤i,j≤n
est la matrice de covariance de (X
t
1
, . . . , X
t
n
)

.
La r´eciproque est admise.
Exemple 10.
Montrons que la fonction suivante d´efinie sur Z :
κ(h) =

1 , si h=0
ρ , si h=+1 ou -1
0 , sinon.
est une fonction d’autocovariance si et seulement si [ρ[ ≤ 1/2.
En effet,
10
– Si [ρ[ ≤ 1/2, alors κ est la fonction d’autocovariance d’un MA(1) avec σ
2
= (1 +θ
2
)
−1
et θ = (2ρ)
−1
(1 ±

1 −4ρ
2
).
– Si ρ > 1/2, K = [κ(i−j)]
1≤i,j≤n
et a le vecteur de taille n d´efini par a = (1, −1, 1, −1, . . . )

alors
a

Ka = n −2(n −1)ρ < 0 lorque n > 2ρ/(2ρ −1),
ce qui montre que κ(.) n’est pas d´efinie positive et donc d’apr`es le th´eor`eme pr´ec´edent
κ n’est pas une fonction d’autocovariance.
– Si ρ < −1/2, on peut utiliser le mˆeme argument que pr´ec´edemment mais cette fois-ci
avec comme vecteur a : a = (1, 1, 1, . . . ).
1.4.2 Fonction d’auto-covariance empirique
A partir des observations ¦x
1
, . . . , x
n
¦ d’une s´erie chronologique stationnaire ¦X
t
¦, nous
aurons souvent besoin d’estimer la fonction d’autocovariance γ(.) du processus sous-jacent
¦X
t
¦ afin de mieux comprendre sa structure de d´ependance.
D´efinition 6. La fonction d’auto-covariance empirique de ¦x
1
, . . . , x
n
) est d´efinie par
ˆ γ
n
(h) = n
−1
n−h
¸
j=1
(x
j+h
− ¯ x)(x
j
− ¯ x), 0 ≤ h < n
et ˆ γ
n
(h) = ˆ γ
n
(−h) lorsque −n < h ≤ 0, ¯ x ´etant la moyenne empirique des x
i
: ¯ x =
n
−1
¸
n
j=1
x
i
.
D´efinition 7. La fonction d’auto-correlation empirique est d´efinie par
ˆ ρ(h) = ˆ γ
n
(h)/ˆ γ
n
(0), [h[ < n
Exemple 11. Autocorrelation empirique pour la s´erie : population aux U.S.A (voir Figure
1.8).
1750 1800 1850 1900 1950 2000
0
50
100
150
200
250
300
0 2 4 6 8 10 12 14 16 18 20
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Fig. 1.8 – Autocorrelation empirique pour la s´erie : Population aux U.S.A
Exemple 12. Autocorrelation empirique pour la s´erie : ventes de vin aux U.S.A (voir Figure
1.9)
11
0 12 24 36 48 60 72 84 96 108 120 132 144
0
500
1000
1500
2000
2500
3000
mois (janvier1980−octobre1991)
v
e
n
te
s
m
e
n
s
u
e
lle
s
d
e
v
in
0 5 10 15 20 25 30 35 40
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Fig. 1.9 – Autocorrelation empirique pour la s´erie : ventes de vin aux U.S.A.
12
Chapitre 2
Processus ARMA
Dans ce chapitre, nous introduisons une classe tr`es importante de s´eries chronologiques
¦X
t
, t ∈ Z¦ : les processus auto-r´egessifs `a moyenne mobile (Auto Regressive Moving Ave-
rage). De plus, pour toute fonction d’autocovariance γ telle que lim
h→∞
γ(h) = 0, il existe un
processus ARMA de fonction d’auto-covariance γ
X
telle que γ
X
(h) = γ(h), h = 0, 1, . . . , k
pour tout entier k > 0. C’est entre autres pour cette raison que les mod`eles ARMA jouent un
rˆole tr`es important dans l’´etude des s´eries temporelles.
2.1 Inversibilit´e et causalit´e des processus ARMA
D´efinition 8. (Bruit blanc)
Un processus ¦Z
t
¦ est un bruit blanc de moyenne nulle et de variance σ
2
not´e
¦Z
t
¦ ∼ WN(0, σ
2
), (WN est une abr´eviation pour White Noise)
si et seulement si ¦Z
t
¦ est de moyenne nulle et de fonction d’auto- covariance d´efinie par
γ(h) =

σ
2
, si h = 0,
0, si h = 0.
D´efinition 9. (Processus ARMA(p,q))
Le processus ¦X
t
, t ∈ Z¦ est un processus ARMA si ¦X
t
¦ est stationnaire et si pour tout t,
X
t
−φ
1
X
t−1
− −φ
p
X
t−p
= Z
t

1
Z
t−1
+ +θ
q
Z
t−q
,
o` u ¦Z
t
¦ ∼ WN(0, σ
2
). On dit que ¦X
t
¦ est un processus ARMA(p,q) de moyenne µ si ¦X
t
−µ¦
est un processus ARMA(p,q).
L’´equation ci-dessus peut ˆetre r´e´ecrite de fa¸ con symbolique comme suit
φ(B)X
t
= θ(B)Z
t
, t ∈ Z,
o` u φ(z) = 1 − φ
1
z − − φ
p
z
p
, θ(z) = 1 + θ
1
z + + θ
q
z
q
et B est un op´erateur de retard
defini par
B
j
X
t
= X
t−j
, j ∈ Z.
Exemple 13. Processus MA(q)
13
Si φ(z) est identiquement ´egal `a 1, alors
X
t
= θ(B)Z
t
et ¦X
t
¦ est appel´e processus `a moyenne mobile d’ordre q. Ainsi d´efini, ¦X
t
¦ est un processus
stationnaire. En effet,
E(X
t
) =
q
¸
j=0
θ
j
E(Z
t−j
) = 0,
o` u θ
0
= 1 et
Cov(X
t+h
, X
t
) =

σ
2
¸
q−|h|
j=0
θ
j
θ
j+|h|
, si [h[ ≤ q,
0, si [h[ > q.
Exemple 14. Processus AR(p)
Si θ(z) est identiquement ´egal `a 1, alors
φ(B)X
t
= Z
t
.
L’existence et l’unicit´e d’une solution stationnaire reste `a ´etablir. Nous allons examiner le cas
o` u p = 1 : φ(z) = 1 −φ
1
z i.e.
X
t
= Z
t

1
X
t−1
.
En it´erant l’´equation pr´ec´edente, on obtient
X
t
= Z
t

1
Z
t−1

2
1
Z
t−2
+ +φ
k
1
Z
t−k

k+1
1
X
t−k−1
.
• [φ
1
[ < 1
On en d´eduit qu’au sens de la convergence dans L
2
, on a
X
t
=

¸
j=0
φ
j
1
Z
t−j
. (2.1)
En effet, X
t
´etant une solution stationnaire,

X
t

k
¸
j=0
φ
j
1
Z
t−j

2
2
= E

¸
X
t

k
¸
j=0
φ
j
1
Z
t−j
¸

2
¸
¸
= φ
2k+2
1
E(X
2
t−k−1
) →0, lorsque k →∞.
On verra plus tard que l’´egalit´e est aussi valable au sens de la convergence p.s. autrement dit
X
t
(ω) =
¸
j≥0
φ
j
1
Z
t−j
(ω), ∀ω ∈ A
o` u A est tel que P(A) = 1. V´erifions qu’une telle solution (2.1) est bien stationnaire. On peut
le montrer de deux fa¸ cons diff´erentes.
14
– En utilisant la continuit´e du produit scalaire dans L
2
d´efini par 'X, Y ` = E(XY ) : si
X
n
converge vers X dans L
2
(|X
n
− X|
2
→ 0) et Y
n
converge vers Y dans L
2
alors
lim
n→∞
'X
n
, Y
n
` = 'X, Y `.
En effet, en ´ecrivant 'X, Y ` = '(X −X
n
) +X
n
, (Y −Y
n
) +Y
n
`, on obtient en utilisant
l’in´egalit´e de Cauchy-Schwarz
['X
n
, Y
n
` −'X, Y `[ ≤ ['(X −X
n
), (Y −Y
n
)`[ +['(X −X
n
), Y
n
`[ +['X
n
, (Y −Y
n
)`[
≤ |X −X
n
|
2
|Y −Y
n
|
2
+|X −X
n
|
2
|Y
n
|
2
+|Y −Y
n
|
2
|X
n
|
2
→0 .
On en d´eduit donc que E(X
t
) = lim
k→∞
E(
¸
k
j=0
φ
j
1
Z
t−j
) = 0 et que
Cov(X
t+h
, X
t
) = lim
n→∞
E

¸
n
¸
j=0
φ
j
1
Z
t+h−j
¸

n
¸
k=0
φ
k
1
Z
t−k

¸
¸
= σ
2
φ
|h|
1

¸
j=0
φ
2j
1
= σ
2
φ
|h|
1
/(1−φ
2
1
).
– En utilisant le th´eor`eme de Fubini

E

¸
¸
j≥0
φ
j
1
Z
t−j
¸

≤ E

¸
¸
j≥0

1
[
j
[Z
t−j
[
¸

Fubini-Tonnelli
=
¸
j≥0

1
[
j
E([Z
t−j
[)
Cauchy-Schwarz
≤ σ
2
¸
j≥0

1
[
j
< ∞.
D’apr`es le th´eor`eme de Fubini, E(X
t
) = E

¸
j≥0
φ
j
1
Z
t−j

=
¸
j≥0
φ
j
1
E(Z
t−j
) = 0.
Pour l’auto-covariance de ¦X
t
¦, on regarde
[E(X
t+h
X
t
)[ =

E

¸
¸
j≥0
φ
j
1
Z
t−j
¸
k≥0
φ
k
1
Z
t+h−k
¸

≤ E

¸
¸
j,k≥0

1
[
j

1
[
k
[Z
t−j
[[Z
t+h−k
[
¸

Fub-Ton,CS

¸
j,k≥0

1
[
j

1
[
k
σ
2
< ∞.
D’apr`es le th´eor`eme de Fubini,
E(X
t+h
X
t
) =
¸
j,k≥0
φ
j
1
φ
k
1
E(Z
t−j
Z
t+h−k
) = σ
2
φ
|h|
1

¸
j=0
φ
2j
1
= σ
2
φ
|h|
1
/(1 − φ
2
1
).
On a de plus unicit´e de la solution. En effet, soient X
t
et Y
t
deux solutions de l’´equation :
X
t
= φ
1
X
t−1
+Z
t
, on a alors : X
t
−φ
1
X
t−1
= Y
t
−φ
1
Y
t−1
soit encore X
t
−Y
t
= φ
1
(X
t−1
−Y
t−1
).
En it´erant, on obtient
X
t
−Y
t
= φ
k
1
(X
t−k
−Y
t−k
) .
Ainsi
E([X
t
−Y
t
[) = [φ
1
[
k
E([X
t−k
−Y
t−k
)[) ≤ 2[φ
1
[
k
σ
X
σ
Y
→0, lorsque k →∞.
D’o` u l’on d´eduit que X
t
= Y
t
p.s.
15
• [φ
1
[ > 1
Dans ce cas-l`a, la norme L
2
pr´ec´edente :

X
t

¸
k
j=0
φ
j
1
Z
t−j

2
2
= φ
2k+2
1
E(X
2
t−k−1
) diverge
lorsque k tend vers l’infini. Par contre, on peut r´e´ecrire l’´equation d´efinissant X
t
en fonction
de Z
t
comme suit
X
t
= −φ
−1
1
Z
t+1

−1
1
X
t+1
.
En it´erant l’´equation pr´ec´edente, on obtient
X
t
= −φ
−1
1
Z
t+1
−φ
−2
1
Z
t+2

−2
1
X
t+2
= . . .
= −φ
−1
1
Z
t+1
−φ
−2
1
Z
t+2
− −φ
−k−1
1
Z
t+k+1

−k−1
1
X
t+k+1
.
En utilisant exactement les mˆemes arguments que ceux employ´es pr´ec´edemment, on d´eduit
que la solution stationnaire dans ce cas vaut
X
t
= −
¸
j≥1
φ
−j
1
Z
t+j
.
Cette solution est non causale : elle d´epend du “futur” et non pas que du pass´e comme dans
le cas pr´ec´edent o` u dans ce cas la solution est causale dont une d´efinition pr´ecise est donn´ee
plus loin.
• [φ
1
[ = 1
Par stationnarit´e de X
t
,

X
t

k−1
¸
j=0
φ
j
1
Z
t−j

2
= φ
k
1
|X
t−k
|
2
= φ
k
1
|X
t
|
2
.
Or, le carr´e du terme de gauche est aussi ´egal `a
|X
t
|
2
2
+

k−1
¸
j=0
φ
j
1
Z
t−j

2
2
−2

X
t
,
k−1
¸
j=0
φ
j
1
Z
t−j
¸
.
Ainsi,

¸
k−1
j=0
φ
j
1
Z
t−j

2
2
= 2

X
t
,
¸
k−1
j=0
φ
j
1
Z
t−j

. De plus,

¸
k−1
j=0
φ
j
1
Z
t−j

2
2
=
¸
k−1
j=0
φ
2j
1
σ
2
Z
=

2
Z
. D’o` u, en utilisant l’in´egalit´e de Cauchy-Schwarz,

2
Z
≤ 2 (γ
X
(0))
1/2

k−1
¸
j=0
φ
j
1
Z
t−j

2
≤ 2 (γ
X
(0))
1/2
k
1/2
σ
Z
,
ce qui est impossible pour k grand.
Donc, dans ce cas, il n’existe pas de solution stationnaire.
D´efinition 10. Un processus ARMA(p,q) d´efini par les ´equations φ(B)X
t
= θ(B)Z
t
est dit
causal s’il existe une suite de constantes ψ
j
telles que
¸
j≥0

j
[ < ∞ et
X
t
=
¸
j≥0
ψ
j
Z
t−j
, t ∈ Z.
16
La signification de la somme pr´ec´edente est donn´ee par la proposition suivante.
Proposition 2. Soit ¦ψ
k
¦
k∈Z
une suite absolument sommable :
¸
k

k
[ < ∞, et ¦Z
t
¦
t∈Z
une suite de variables al´eatoires.
(i) Si sup
t∈Z
E[[Z
t
[] < ∞, alors pour tout t ∈ Z, la suite ¦X
n,t
¦
n∈N
d´efinie par
X
n,t
=
n
¸
k=−n
ψ
k
Z
t−k
,
converge presque sˆ urement vers une v.a. X
t
que l’on notera
¸
k∈Z
ψ
k
Z
t−k
. De plus,
E[[X
t
[] < ∞ (not´e aussi |X
t
|
1
< ∞) et X
t
est aussi la limite dans L
1
de la suite
¦X
n,t
¦
n∈N
.
(ii) Si sup
t∈Z
E[[Z
t
[
2
] < ∞, alors E[X
2
t
] < ∞ et X
t
est aussi la limite dans L
2
de la suite
¦X
n,t
¦
n∈N
.
D´emonstration.
Soit Y
n,t
=
¸
n
k=−n

k
[[Z
t−k
[ alors Y
n,t
ps
−→Y
t
=
¸
k∈Z

k
[[Z
t−k
[ ∈ L
1
.
Par le th´eor`eme de convergence monotone, encore appel´e th´eor`eme de Beppo-Levi, Y
n,t

¸
k∈Z

k
[[Z
t−k
[, (limite croissante) implique
E(Y
n,t
) →E

¸
k∈Z

k
[[Z
t−k
[

, en croissant.
Or,
E(Y
n,t
) ≤
n
¸
k=−n

k
[ sup
t
E([Z
t
[) ≤ sup
t
E([Z
t
[)
¸
k∈Z

k
[ < ∞
donc E
¸
k∈Z

k
[[Z
t−k
[

< ∞.
X
n,t
converge ps vers X
t
finie ps.
On d´eduit de la pr´ec´edente in´egalit´e qu’il existe un ensemble A tel que P(A) = 1 et tel
que ∀ω ∈ A,
¸
k∈Z

k
[[Z
t−k
(ω)[ < ∞.
Donc pour tout ω ∈ A,
[X
n,t
(ω) −X
t
(ω)[ ≤
¸
|k|>n

k
[[Z
t−k
(ω)[ →0 .
Ainsi pour tout ω ∈ A la suite X
n,t
(ω) est convergente et converge vers X
t
(ω) d’o` u l’on d´eduit
la convergence ps de X
n,t
vers X
t
.
X
t
est la limite dans L
1
de X
n,t
et est dans L
1
´egalement sous les hypoth`eses de (i).
17
Remarquons que
E([X
n,t
−X
p,t
[) ≤ sup
t
E([Z
t
[)

¸
n
¸
p+1

k
[ +
−(p+1)
¸
−n

k
[
¸

≤ ε, ∀n, p ≥ M
ε
d’apr`es le crit`ere de Cauchy pour des s´eries convergentes. Or,
E([X
t
−X
p,t
[) = E[lim
n
[X
n,t
−X
p,t
[]
= E(liminf
n
[X
n,t
−X
p,t
[)
Fatou
≤ liminf
n
E([X
n,t
−X
p,t
[) ≤ ε, ∀p ≥ M
ε
donc X
t
= lim
n
X
n,t
dans L
1
et X
t
∈ L
1
en ´ecrivant
E([X
t
[) ≤ E([X
t
−X
p,t
[) +E([X
p,t
[) ≤ ε + sup
t
E([Z
t
[)
¸
k∈Z

k
[ < ∞.
On aurait aussi pu utiliser pour conclure le fait que L
1
est complet et que donc tout suite de
Cauchy de L
1
est convergente dans L
1
et dont la limite est aussi dans L
1
.
La mˆeme chose est vraie dans L
2
sous les hypoth`eses de (ii).
E[[X
n,t
−X
p,t
[
2
] = E

n
¸
k=p+1
ψ
k
Z
t−k
+
−(p+1)
¸
k=−n
ψ
k
Z
t−k

2
¸
¸
≤ 2E

n
¸
k=p+1
ψ
k
Z
t−k

2
¸
¸
+2E

−(p+1)
¸
k=−n
ψ
k
Z
t−k

2
¸
¸
≤ 2 sup
t
E([Z
t
[
2
)

¸
(p+1)≤k,l≤n
([ψ
k
ψ
l
[ +[ψ
−k
ψ
−l
[)

≤ ε, ∀n, p ≥ M
ε
.
X
n,t
est donc une suite de Cauchy dans L
2
et converge donc dans L
2
vers X
t
∈ L
2
puisque
c’est un Hilbert (donc complet).
Rappels sur l’espace de Hilbert L
2
L’espace quotient L
2
(X ∼ Y si et seulement si X = Y ps) des variables al´eatoires r´eelles
d´efinies sur (Ω, /, P) de carr´e int´egrable muni du produit scalaire
'X, Y ` = E [XY ]
est un espace de Hilbert : c’est un espace vectoriel, muni d’un produit scalaire donc d’une
norme, et il est complet. L’espace est quotient´e pour que cette application soit bien un produit
scalaire.
Proposition 3. Soit ¦ψ
k
¦
k∈Z
une suite absolument sommable :
¸
k

k
[ < ∞, et ¦Z
t
¦
t∈Z
un
processus stationnaire, de moyenne µ
Z
et de fonction d’auto-covariance γ
Z
. Alors le processus
X
t
=
¸
k∈Z
ψ
k
Z
t−k
est stationnaire, de moyenne µ
X
= µ
Z
¸
k
ψ
k
et de fonction d’auto-
covariance
γ
X
(h) =
¸
j∈Z
¸
k∈Z
ψ
j
ψ
k
γ
Z
(h +k −j).
La limite
¸
k∈Z
ψ
k
Z
t−k
est ` a prendre au sens L
2
et p.s.
18
D´emonstration. – On v´erifie les conditions de la proposition pr´ec´edente, pour montrer
que la limite est au sens p.s. et L
2
: on a E[[Z
t
[] ≤ E[[Z
t
[
2
]
1/2
=

γ
Z
(0) +µ
2
Z

1/2
, donc
les esp´erances et les variances sont uniform´ement born´ees.
– Pour l’esp´erance E(X
t
) = E
¸
k∈Z
ψ
k
Z
t−k

. D’apr`es le th´eor`eme de Fubini-Tonnelli,

E

¸
k∈Z
ψ
k
Z
t−k


¸
k∈Z

k
[E([Z
t−k
[) ≤ sup
t
E([Z
t
[)
¸
k∈Z

k
[ < ∞.
D’apr`es le th´eor`eme de Fubini,
E(X
t
) = E

¸
k∈Z
ψ
k
Z
t−k

= µ
Z
¸
k∈Z
ψ
k
.
– Pour la covariance : E(X
t
X
t+h
) = E
¸
k∈Z
¸
r∈Z
ψ
k
ψ
r
Z
t−k
Z
t+h−r

. On a de plus
[E(X
t
X
t+h
)[ ≤
¸
k∈Z
¸
r∈Z

k
[[ψ
r
[E([Z
t−k
Z
t+h−r
[)
Cauchy-Schwarz

¸
k∈Z
¸
r∈Z

k
[[ψ
r

Z
(0) < ∞.
D’o` u l’on d´eduit
E(X
t
X
t+h
) =
¸
k∈Z
¸
r∈Z
ψ
k
ψ
r

Z
(k +h −r) +E(Z
t
)
2
),
ce qui conclut la preuve de la proposition.
La preuve peut aussi ˆetre faite en utilisant la continuit´e du produit scalaire dans L
2
comme
on l’a vu pr´ec´edemment.
La proposition suivante fournit une condition n´ecessaire et suffisante pour qu’un processus
ARMA soit causal.
Proposition 4. Soit ¦X
t
¦ un processus ARMA(p,q) tels que les polynˆ omes φ(.) et θ(.) n’ont
pas de racines communes. Alors ¦X
t
¦ est causal si et seulement si φ(z) = 0, pour tout z ∈ C
tel que [z[ ≤ 1. Les coefficients ¦ψ
j
¦ caract´erisant la solution causale ´evoqu´ee pr´ec´edemment
sont d´etermin´es par la relation
ψ(z) =
¸
j≥0
ψ
j
z
j
= θ(z)/φ(z), [z[ ≤ 1 .
D´emonstration. Supposons que φ(z) = 0 si [z[ ≤ 1. Ceci implique qu’il existe ε > 0 tel que
1/φ(z) a le d´eveloppement en s´erie enti`ere suivant
1/φ(z) =

¸
j=0
ξ
j
z
j
= ξ(z), [z[ < 1 +ε .
En cons´equence, ξ
j
(1 + ε/2)
j
→ 0 lorsque j → ∞ de telle sorte qu’il existe K ∈ (0, ∞) pour
lequel

j
[ < K(1 +ε/2)
−j
, ∀j = 0, 1, 2, . . .
En particulier,
¸

j=0

j
[ < ∞ et ξ(z)φ(z) = 1 pour [z[ ≤ 1.
19
D’apr`es la Proposition pr´ec´edente, on peut appliquer l’op´erateur ξ(B) aux deux membres
de l’´equation φ(B)X
t
= θ(B)Z
t
ce qui donne
X
t
= ξ(B)θ(B)Z
t
.
Ceci fournit la repr´esentation attendue :
X
t
=
¸
j≥0
ψ
j
Z
t−j
.
On suppose maintenant que ¦X
t
¦ est causal i.e : X
t
=
¸

j=0
ψ
j
Z
t−j
o` u
¸

j=0

j
[ < ∞. On
a alors
θ(B)Z
t
= φ(B)X
t
= φ(B)ψ(B)Z
t
.
Posons η(z) = φ(z)ψ(z) =
¸

j=0
η
j
z
j
, [z[ ≤ 1, on peut r´e´ecrire l’´equation pr´ec´edente sous la
forme
q
¸
j=0
θ
j
Z
t−j
=

¸
j=0
η
j
Z
t−j
.
On multiplie chaque membre de l’´equation pr´ec´edente par Z
t−k
et on prend l’esp´erance.
Comme Z
t
est un bruit blanc, on obtient que η
k
= θ
k
, k = 0, . . . , q et η
k
= 0, k > q. Ainsi
θ(z) = η(z) = φ(z)ψ(z), [z[ ≤ 1 .
Comme θ(z) et φ(z) n’ont pas de racines communes et [ψ(z)[ < ∞ pour [z[ ≤ 1, on conclut
que φ(z) ne peut pas s’annuler lorque [z[ ≤ 1.
Remarque 2. On retrouve ` a l’aide de la proposition pr´ec´edente ce que l’on avait trouv´e pour
l’AR(1).
On d´efinit maintenant ce qu’est un processus ARMA inversible.
D´efinition 11. Un processus ARMA(p,q) d´efini par φ(B)X
t
= θ(B)Z
t
est dit inversible s’il
existe une suite ¦π
j
¦ telle que
¸
j≥0

j
[ < ∞ et
Z
t
=
¸
j≥0
π
j
X
t−j
, t ∈ Z.
Le th´eor`eme suivant donne une condition n´ecessaire et suffisante pour qu’un processus
ARMA soit inversible.
Proposition 5. Soit ¦X
t
¦ un processus ARMA(p,q) tels que les polynˆ omes φ(.) et θ(.) n’ont
pas de racines communes. Alors ¦X
t
¦ est inversible si et seulement si θ(z) = 0, pour tout z ∈ C
tel que [z[ ≤ 1. Les coefficients ¦π
j
¦ caract´erisant la solution inversible ´evoqu´ee pr´ec´edemment
sont d´etermin´es par la relation
π(z) =
¸
j≥0
π
j
z
j
= φ(z)/θ(z), [z[ ≤ 1 .
D´emonstration. La preuve est similaire `a celle de la proposition pr´ec´edente.
Proposition 6. Si φ(z) = 0, pour tout z de module 1 alors l’´equation φ(B)X
t
= θ(B)Z
t
a
une unique solution stationnaire s’´ecrivant comme suit
X
t
=
¸
j∈Z
ψ
j
Z
t−j
,
o` u ψ
j
a la mˆeme d´efinition que celle donn´ee pr´ec´edemment.
20
2.2 Calcul de la fonction d’autocovariance d’un processus ARMA(p,q)
On donne `a pr´esent une m´ethode pour calculer la fonction d’auto-covariance d’un proces-
sus ARMA.
D’apr`es la Proposition 3, on a que la fonction d’autocovariance d’un processus ARMA(p,q)
causal solution de φ(B)X
t
= θ(B)Z
t
satisfait
γ(k) = σ
2

¸
j=0
ψ
j
ψ
j+|k|
(2.2)
o` u
ψ(z) =

¸
j=0
ψ
j
z
j
= θ(z)/φ(z), lorsque [z[ ≤ 1
et θ(z) = 1 + θ
1
z + θ
2
z
2
+ + θ
q
z
q
, φ(z) = 1 − φ
1
z − − φ
p
z
p
. Pour d´eterminer les
coefficients ψ
j
, on r´e´ecrit l’´equation pr´ec´edente sous la forme : ψ(z)φ(z) = θ(z) et on ´egalise
les coefficients de z
j
pour obtenir (en posant θ
0
= 1, θ
j
= 0 pour j > q et φ
j
= 0 pour j > p) :
ψ
j

¸
0<k≤j
φ
k
ψ
j−k
= θ
j
, 0 ≤ j < max(p, q + 1) (2.3)
et
ψ
j

¸
0<k≤p
φ
k
ψ
j−k
= 0, j ≥ max(p, q + 1) . (2.4)
Les deux relations pr´ec´edentes permettent, en utilisant (2.2) de calculer la fonction d’auto-
covariance d’un ARMA(p,q). En effet, la solution g´en´erale de (2.4) peut s’´ecrire sous la forme :
ψ
n
=
k
¸
i=1
r
i
−1
¸
j=0
α
ij
n
j
ξ
−n
i
, n ≥ max(p, q + 1) −p
o` u les ξ
i
, i = 1, . . . , k sont les racines distinctes de φ et r
i
est la multiplicit´e de ξ
i
. En
particulier,
¸
k
i=1
r
i
= p. Les p constantes α
ij
sont d´etermin´ees par les ´equations (2.3) ainsi
que les ψ
j
tels que 0 ≤ j < max(p, q + 1) −p.
Exemple 15.
On consid`ere le processus ARMA : (1 − B + B
2
/4)X
t
= (1 + B)Z
t
. On veut calculer sa
fonction d’auto-covariance. On a d’une part
ψ
0
= θ
0
= 1
ψ
1
= θ
1

0
φ
1
= θ
1

1
= 2
et d’autre part grˆace `a (2.4), on a
ψ
j
−ψ
j−1

j−2
/4 = 0, j ≥ 2 .
La solution de l’´equation pr´ec´edente est
ψ
n
= (α
10
+nα
11
)2
−n
, n ≥ 0 .
21
Les constantes α
10
et α
11
sont trouv´ees en utilisant que ψ
0
= 1 et ψ
1
= 2 grˆace aux deux
premi`eres ´equations, on en d´eduit
α
10
= 1 et α
11
= 3 .
Ainsi
ψ
n
= (1 + 3n)2
−n
, n = 0, 1, 2, . . .
On obtient donc, pour k ≥ 0,
γ(k) = σ
2
¸
j≥0
(1 + 3j)(1 + 3j + 3k)2
−2j−k
= σ
2
2
−k
¸
j≥0

(3k + 1)4
−j
+ 3(3k + 2)j4
−j
+ 9j
2
4
−j

= σ
2
2
−k
[4(3k + 1)/3 + 12(3k + 2)/9 + 180/27]
= σ
2
2
−k
[32/3 + 8k] .
22
Chapitre 3
Repr´esentation spectrale d’un
processus stationnaire
La repr´esentation spectrale d’un processus stationnaire ¦X
t
, t ∈ Z¦ consiste `a d´ecomposer
¦X
t
¦ en une somme de sinuso¨ıdes avec des coefficients al´eatoires d´ecorr´el´es. La repr´esentation
spectrale pour les processus stationnaires est l’analogue de la repr´esentation en s´eries de
Fourier pour les fonctions d´eterministes.
3.1 S´eries chronologiques `a valeurs complexes
D´efinition 12. Le processus ¦X
t
¦ est un processus stationnaire ` a valeurs complexes si E[X
t
[
2
<
∞, E(X
t
) et E(X
t+h
X
t
) sont ind´ependants de t.
D´efinition 13. La fonction d’autocovariance d’un processus stationnaire ` a valeurs complexes
¦X
t
¦ est d´efinie par
γ(h) = E(X
t+h
X
t
) −E(X
t+h
)E(X
t
) .
On donne maintenant les propri´et´es des fonctions d’autocovariance d’un processus `a va-
leurs complexes
γ(0) ≥ 0 (3.1)
[γ(h)[ ≤ γ(0), pour tout entier h (3.2)
γ(.) est hermitienne i.e. γ(h) = γ(−h) (3.3)
Th´eor`eme 2. Une fonction K(.) d´efinie sur les entiers est la fonction d’autocovariance d’un
processus stationnaire (` a valeurs complexes) si et seulement si K(.) est hermitienne et d´efinie
positive i.e. si et seulement si K(n) = K(−n) et
n
¸
i,j=1
a
i
K(i −j)a
j
≥ 0
pour tout entier positif n et pour tous nombres complexes (a
j
)
1≤j≤n
.
23
3.2 Distribution spectrale d’une combinaison lin´eaire de si-
nuso¨ıdes
On consid`ere le processus ¦X
t
¦ d´efini par
X
t
=
n
¸
j=1
A(λ
j
)e
itλ
j
,
o` u −π < λ
1
< λ
2
< < λ
n
= π et A(λ
1
), . . . , A(λ
n
) sont des coefficients al´eatoires `a valeurs
complexes d´ecorr´el´es tels que
E(A(λ
j
)) = 0, j = 1, . . . , n
et
E(A(λ
j
)A(λ
j
)) = σ
2
j
, j = 1, . . . , n .
¦X
t
¦ est un processus stationnaire puisque E(X
t
) = 0 et E(X
t+h
X
t
) =
¸
n
j=1
σ
2
j
e
ihλ
j
= γ(h)
sont ind´ependants de t. On remarque que
γ(h) =

[−π,π]
e
ihν
dF(ν)
o` u F(λ) =
¸
j:λ
j
≤λ
σ
2
j
.
On verra dans la suite que la fonction d’autocovariance de tout processus stationnaire
peut s’´ecrire sous la forme ci-dessus avec F born´ee.
3.3 Th´eor`eme de Herglotz
Th´eor`eme 3. Une fonction γ d´efinie sur les entiers et ` a valeurs complexes est d´efinie positive
si et seulement si
γ(h) =

[−π,π]
e
ihν
dF(ν), h ∈ Z (3.4)
o` u F(.) est continue ` a droite, croissante, born´ee sur [−π, π] et telle que F(−π) = 0. La
fonction f d´efinie par F(λ) =

λ
−π
f(ν)dν est appel´ee la densit´e spectrale de γ(.).
D´emonstration. Si γ(.) est d´efinie par (3.4) alors γ(.) est bien hermitienne et d´efinie positive
et donc une fonction d’autocovariance.
Inversement, supposons que γ(.) est une fonction d´efinie positive sur les entiers. On d´efinit
alors
f
N
(ν) =
1
2πN
N
¸
r,s=1
e
−irν
γ(r −s)e
isν
=
1
2πN
¸
|m|<N
(N −[m[)e
−imν
γ(m) .
γ(.) ´etant d´efinie positive, on a
f
N
(ν) ≥ 0, pour tout ν ∈ [−π, π].
Soit F
N
la fonction de r´epartition associ´ee `a la densit´e f
N
(.)1I
[−π,π]
(.). Ainsi, F
N
(λ) = 0, si
λ ≤ −π, F
N
(λ) = F
N
(π), si λ ≥ π et
F
N
(λ) =

λ
−π
f
N
(ν)dν, si −π ≤ λ ≤ π .
24
Alors pour tout entier h,

[−π,π]
e
ihν
dF
N
(ν) =
1

¸
|m|<N

1 −
[m[
N

γ(m)

π
−π
e
i(h−m)ν

i.e.

[−π,π]
e
ihν
dF
N
(ν) =

1 −
|h|
N

γ(h), si [h[ < N
0, sinon .
On applique le th´eor`eme de Helly pour d´eduire qu’il existe une fonction de r´epartition F et une
sous-suite F
N
k
de F
N
telle que pour toute fonction continue born´ee g v´erifiant g(−π) = g(π),
on ait

[−π,π]
g(ν)dF
N
k
(ν) →

[−π,π]
g(ν)dF(ν), lorsque k →∞.
En rempla¸ cant N par N
k
dans l’´egalit´e pr´ec´edente et en faisant tendre k vers l’infini, on
obtient
γ(h) =

[−π,π]
e
ihν
dF(ν),
qui est la repr´esentation spectrale attendue de γ(.).
Th´eor`eme 4. Si K(.) est une fonction complexe quelconque d´efinie sur les entiers telle que
¸
n∈Z
[K(n)[ < ∞
alors
K(h) =

π
−π
e
ihν
f(ν)dν, h ∈ Z
o` u
f(λ) =
1

¸
n∈Z
e
−inλ
K(n) .
D´emonstration.

π
−π
e
ihν
f(ν)dν =
1

π
−π
¸
n∈Z
e
i(h−n)ν
K(n) dν = K(h),
o` u on a pu intervertir le signe Σ et l’

par le th´eor`eme de Fubini puisque
¸
n∈Z
[K(n)[ <
∞.
Corollaire 1. Une fonction complexe absolument sommable γ(.) ` a valeurs complexes d´efinie
sur les entiers est la fonction d’autocovariance d’un processus stationnaire si et seulement si
f(λ) :=
1

¸
n∈Z
e
−inλ
γ(n) ≥ 0, pour tout λ ∈ [−π, π],
auquel cas f(.) est la densit´e spectrale de γ(.).
25
D´emonstration. Supposons que γ(.) est une fonction d’autocovariance. Puisque γ est d´efinie
positive et absolument sommable,
0 ≤ f
N
(λ) =
1
2πN
N
¸
r,s=1
e
−irλ
γ(r −s)e
isλ
=
1

¸
|m|<N

1 −
[m[
N

e
−imλ
γ(m) →f(λ), lorsque N →∞.
Ainsi f(λ) ≥ 0 pour tout λ ∈ [−π, π]. En utilisant le th´eor`eme pr´ec´edent, on a que γ(h) =

π
−π
e
ihν
f(ν)dν pour h ∈ Z.
Inversement, supposons uniquement que γ est absolument sommable. D’apr`es le th´eor`eme
pr´ec´edent, γ(h) =

π
−π
e
ihν
f(ν)dν. Si f(λ) ≥ 0, alors γ(h) =

π
−π
e
ihν
dF(ν) o` u F(λ) =

λ
−π
f(ν)dν. Ceci implique d’apres le th´eor`eme 3 de Herglotz que γ(.) est une fonction d’au-
tocovariance de densit´e spectrale f.
Exemple 16.
Nous pouvons prouver grˆace `a ce corollaire que la fonction K d´efinie par
K(h) =

1, si h = 0
ρ, si h = 1 et h = −1
0, sinon .
est une fonction d’autocovariance si et seulement si [ρ[ ≤ 1/2.
3.4 Densit´e spectrale des processus ARMA
Th´eor`eme 5. Soit ¦Y
t
¦ un processus stationnaire de moyenne nulle pouvant ˆetre ` a valeurs
complexes de fonction de r´epartition spectrale F
Y
(.) et ¦X
t
¦ le processus d´efini par
X
t
=
¸
j∈Z
ψ
j
Y
t−j
o` u
¸
j∈Z

j
[ < ∞,
alors ¦X
t
¦ est un processus stationnaire de fonction de r´epartition spectrale
F
X
(λ) =

[−π,λ]

¸
j∈Z
ψ
j
e
−ijν

2
dF
Y
(ν), −π ≤ λ ≤ π .
D´emonstration. D’apr`es ce que l’on a vu dans le chapitre sur les processus ARMA, ¦X
t
¦ est
un processus stationnaire de moyenne nulle et de fonction d’autocovariance
E(X
t+h
X
t
) =
¸
j,k∈Z
ψ
j
ψ
k
γ
Y
(h −j +k), h ∈ Z.
En utilisant la repr´esentation spectrale de γ
Y
, on obtient
γ
X
(h) =
¸
j,k∈Z
ψ
j
ψ
k

[−π,π]
e
i(h−j+k)ν
dF
Y
(ν)
=

[−π,π]

¸
¸
j∈Z
ψ
j
e
−ijν
¸

¸
k∈Z
ψ
k
e
ikν

e
ihν
dF
Y
(ν) =

[−π,π]
e
ihν

¸
j∈Z
ψ
j
e
−ijν

2
dF
Y
(ν)
26
ce qui permet d’identifier la fonction de r´epartition spectrale de ¦X
t
¦.
Remarque 3. Si ¦Y
t
¦ a pour densit´e spectrale f
Y
et si ¦X
t
¦ est d´efini par X
t
=
¸
j∈Z
ψ
j
Y
t−j
o` u
¸
j∈Z

j
[ < ∞, alors la densit´e spectrale de ¦X
t
¦ vaut
f
X
(λ) = [ψ(e
−iλ
)[
2
f
Y
(λ),
o` u ψ(e
−iλ
) =
¸
j∈Z
ψ
j
e
−ijλ
.
On peut en d´eduire la densit´e spectrale d’un processus ARMA(p,q).
Th´eor`eme 6. Soit ¦X
t
¦ un processus ARMA(p,q) (pas n´ecessairement causal ou inversible)
satisfaisant
φ(B)X
t
= θ(B)Z
t
, o` u ¦Z
t
¦ est un bruit blanc d’esp´erance nulle et de variance σ
2
o` u φ(z) = 1 −φ
1
z − −φ
p
z
p
et θ(z) = 1 +θ
1
z + +θ
q
z
q
n’ont pas de racines communes
et φ(z) n’a pas de racines sur le cercle unit´e. Alors, ¦X
t
¦ a pour densit´e spectrale
f
X
(λ) =
σ
2

[θ(e
−iλ
)[
2
[φ(e
−iλ
)[
2
, −π ≤ λ ≤ π .
D´emonstration. Trivial.
Exemple 17. Densit´e spectrale d’un MA(1)
Si X
t
= Z
t
+θZ
t−1
, o` u ¦Z
t
¦ est un bruit blanc d’esp´erance nulle et de variance σ
2
alors
f
X
(λ) =
σ
2

[1 +θe
−iλ
[
2
=
σ
2

(1 + 2θ cos(λ) +θ
2
), −π ≤ λ ≤ π .
Exemple 18. Densit´e spectrale d’un AR(1)
Si X
t
−φX
t−1
= Z
t
, o` u ¦Z
t
¦ est un bruit blanc d’esp´erance nulle et de variance σ
2
alors
f
X
(λ) =
σ
2

[1 −φe
−iλ
[
−2
=
σ
2

(1 −2φcos(λ) +φ
2
)
−1
, −π ≤ λ ≤ π .
3.5 Causalit´e, inversibilit´e et densit´e spectrale
Soit ¦X
t
¦ un processus ARMA(p,q) satisfaisant
φ(B)X
t
= θ(B)Z
t
, o` u ¦Z
t
¦ est un bruit blanc d’esp´erance nulle et de variance σ
2
o` u φ(z)θ(z) = 0 pour tout z de module 1.
On va montrer que l’on peut proposer une repr´esentation causale et inversible d’un pro-
cessus ARMA(p,q).
On factorise les polynˆomes φ et θ sous la forme
p
¸
j=1
(1 −a
−1
j
B)X
t
=
q
¸
j=1
(1 −b
−1
j
B)Z
t
27
o` u ¦Z
t
¦ est un bruit blanc d’esp´erance nulle et de variance σ
2
et
[a
j
[ > 1, 1 ≤ j ≤ r, [a
j
[ < 1, r < j ≤ p,
et
[b
j
[ > 1, 1 ≤ j ≤ s, [b
j
[ < 1, s < j ≤ q .
Le th´eor`eme pr´ec´edent donne pour ¦X
t
¦ la densit´e spectrale suivante
f
X
(λ) =
σ
2

¸
q
j=1
[1 −b
−1
j
e
−iλ
[
2
¸
p
j=1
[1 −a
−1
j
e
−iλ
[
2
.
D´efinissons `a pr´esent,
˜
φ(B) =
¸
1≤j≤r
(1 −a
−1
j
B)
¸
r<j≤p
(1 −a
j
B)
et
˜
θ(B) =
¸
1≤j≤s
(1 −b
−1
j
B)
¸
s<j≤q
(1 −b
j
B)
alors le processus ARMA d´efini par
˜
φ(B)
˜
X
t
=
˜
θ(B)Z
t
a pour densit´e spectrale
f
˜
X
(λ) =
σ
2

[
˜
θ(e
−iλ
)[
2
[
˜
φ(e
−iλ
)[
2
.
Puisque
[1 −b
j
e
−iλ
[ = [1 −b
j
e

[ = [b
j
[[1 −b
−1
j
e
−iλ
[,
f
˜
X
peut ˆetre r´e´ecrit sous la forme
f
˜
X
(λ) =
¸
s<j≤q
[b
j
[
2
¸
r<j≤p
[a
j
[
2
f
X
(λ) .
Ainsi le processus ARMA(p,q) ¦X
+
t
¦ d´efini par
˜
φ(B)X
+
t
=
˜
θ(B)
˜
Z
t
o` u
˜
Z
t
est un bruit blanc d’esp´erance nulle et de variance σ
2

¸
r<j≤p
[a
j
[

2

¸
s<j≤q
[b
j
[

−2
est causal et inversible et a exactement la mˆeme densit´e spectrale (et donc la mˆeme fonction
d’autocovariance) que ¦X
t
¦. En fait, ¦X
t
¦ a la repr´esentation causale et inversible
˜
φ(B)X
t
=
˜
θ(B)Z

t
o` u ¦Z

t
¦ est un bruit blanc ayant la mˆeme variance que ¦
˜
Z
t
¦ puisque les racines de
˜
φ et de
˜
θ
ont des racines de module strictement plus grand que 1.
Exemple 19.
Le processus ARMA
X
t
−2X
t−1
= Z
t
+ 4Z
t−1
,
o` u ¦Z
t
¦ est un bruit blanc de moyenne nulle et de variance σ
2
. ¦X
t
¦ a la repr´esentation
causale inversible donn´ee par
X
t
−0.5X
t−1
= Z

t
+ 0.25Z

t−1
,
o` u ¦Z

t
¦ est un bruit blanc d’esp´erance nulle et de variance 4σ
2
.
28
Chapitre 4
Pr´ediction de processus
stationnaires
Dans ce chapitre, nous nous int´eressons au probl`eme de la pr´ediction des valeurs ¦X
t
, t ≥
n + 1¦ d’un processus stationnaire `a partir des valeurs ¦X
1
, . . . , X
n
¦. Etant donn´e un sous-
espace ferm´e ´ de L
2
, le meilleur pr´edicteur de X
n+h
appartenant `a ´ est d´efini comme
l’´el´ement de ´´etant `a la plus petite distance (issue de la norme L
2
) de X
n+h
. D’apr`es ce que
l’on sait sur l’espace L
2
, il s’agit de la projection sur le sous-espace ferm´e ´. On s’int´eressera
dans ce chapitre `a la meilleure pr´ediction lin´eaire i.e. `a la meilleure combinaison lin´eaire de
1, X
1
, . . . , X
n
d´efinie par P
sp{1,X
1
,...,X
n
}
X
n+h
, o` u sp¦1, X
1
, . . . , X
n
¦ d´esigne la fermeture de
l’espace vectoriel engendr´e par 1, X
1
, . . . , X
n
.
4.1 Pr´ediction d’un processus stationnaire
On supposera dans tout ce chapitre que ¦X
t
¦ est d’esp´erance nulle. Ainsi,
P
sp{1,X
1
,...,X
n
}
X
n+h
= P
sp{X
1
,...,X
n
}
X
n+h
.
4.1.1 Pr´ediction `a “un pas”
Soit H
n
le sous-espace vectoriel ferm´e : sp¦X
1
, . . . , X
n
¦ et soit
ˆ
X
n+1
, n ≥ 0 le pr´edicteur
`a un pas d´efini par
ˆ
X
n+1
=

0, si n = 0
P
H
n
X
n+1
, si n ≥ 1 .
Puisque
ˆ
X
n+1
∈ H
n
, n ≥ 1, nous pouvons ´ecrire
ˆ
X
n+1
= φ
n1
X
n
+ +φ
nn
X
1
, n ≥ 1,
o` u φ
n1
, . . . , φ
nn
satisfont (puisque X
n+1
−P
H
n
X
n+1
est orthogonal `a H
n
) :

X
n+1

n
¸
i=1
φ
ni
X
n+1−i
, X
n+1−j
¸
= 0, , j = 1, . . . , n
soit encore

n
¸
i=1
φ
ni
X
n+1−i
, X
n+1−j
¸
= 'X
n+1
, X
n+1−j
` , j = 1, . . . , n
29
o` u 'X, Y ` = E(XY ). Les ´equations pr´ec´edentes peuvent s’´ecrire sous la forme
n
¸
i=1
φ
ni
γ(i −j) = γ(j), j = 1, . . . , n
ou de fa¸ con ´equivalente
Γ
n
φ
n
= γ
n
, (4.1)
o` u Γ
n
= [γ(i − j)]
i,j=1,...,n
, γ
n
= (γ(1), . . . , γ(n))

et φ
n
= (φ
n1
, . . . , φ
nn
)

. L’´equation (4.1) a
une seule solution si et seulement si Γ
n
est inversible auquel cas la solution vaut :
φ
n
= Γ
−1
n
γ
n
.
La proposition suivante fournit les conditions suffisantes assurant que Γ
n
est inversible
pour tout n. On a ainsi les conditions sous lesquelles on peut calculer le pr´edicteur `a “un
pas”.
Proposition 7. Si γ(0) > 0 et si γ(h) → 0 lorsque h → ∞ alors la matrice de covariance
Γ
n
= [γ(i −j)]
i,j=1,...,n
est inversible pour tout n.
D´emonstration. On fait une preuve par r´ecurrence. Γ
1
= γ(0) > 0 est donc inversible. Sup-
posons que Γ
r
est inversible, montrons que Γ
r+1
est inversible. Pour cela supposons que Γ
r+1
n’est pas inversible. On en d´eduit qu’il existe a non nul dans R
r+1
tel que a
r+1
= 0 et tel que
a

Γ
r+1
a = 0.
En effet, si l’on suppose que a
r+1
= 0,
0 = a

Γ
r+1
a = (˜ a

a
r+1
)

Γ
r
.
.
.
γ(0)

˜ a
a
r+1

= ˜ a

Γ
r
˜ a .
Or a = 0 donc ˜ a = 0 et ˜ a

Γ
r
˜ a = 0 ainsi Γ
r
est non inversible : contradiction.
On peut supposer sans perte de g´en´eralit´e que a
r+1
= 1.
Montrons que pour tout h ≥ 1, X
r+h
est une combinaison lin´eaire de X
1
, . . . , X
r
.
0 = a

Γ
r+1
a = a

E

(X
1
, . . . , X
r+1
)

(X
1
, . . . , X
r+1
)

a = E

r+1
¸
k=1
a
k
X
k

2
¸
¸
.
On en d´eduit que
X
r+1
= −
r
¸
k=1
a
k
X
k
=
r
¸
k=1
b
k
X
k
.
Par stationnarit´e de ¦X
t
¦, on a
E

(X
1
, . . . , X
r+1
)

(X
1
, . . . , X
r+1
)

= E

(X
h
, . . . , X
r+h
)

(X
h
, . . . , X
r+h
)

et donc
X
r+h
=
r
¸
j=1
b
j
X
j+h−1
, ∀h ≥ 1 .
On en d´eduit que pour tout n ≥ r + 1, X
n
est une combinaison lin´eaire de X
1
, . . . , X
r
i.e.
X
n
= b
(n)

(X
1
, . . . , X
r
)

.
30
A partir de l’´ecriture pr´ec´edente, on d´eduit
γ(0) = b
(n)

Γ
r
b
(n)
= b
(n)

UΛU

b
(n)
,
o` u les ´el´ements de la diagonale de Λ sont : 0 < λ
1
≤ ≤ λ
r
. Ainsi,
γ(0) ≥ λ
1
b
(n)

UU

b
(n)
= λ
1
r
¸
j=1
(b
(n)
j
)
2
ce qui montre que les b
(n)
j
sont born´es. On peut aussi ´ecrire γ(0) = Cov(X
n
,
¸
r
j=1
b
(n)
j
X
j
) et
on en d´eduit
0 < γ(0) ≤
r
¸
j=1
[b
(n)
j
[ [γ(n −j)[ .
On ne peut donc pas avoir que γ(0) > 0 puisque γ(h) → 0 lorsque h → ∞ : c’est une
contradiction. On en d´eduit donc que Γ
r+1
est inversible et donc, par r´ecurrence, on a le
r´esultat attendu.
Corollaire 2. Sous les hypoth`eses de la proposition pr´ec´edente, le meilleur pr´edicteur lin´eaire
ˆ
X
n+1
de X
n+1
en fonction de X
1
, . . . , X
n
est
ˆ
X
n+1
=
n
¸
i=1
φ
ni
X
n+1−i
, n = 1, 2, . . .
o` u φ
n
:= (φ
n1
, . . . , φ
nn
)

= Γ
−1
n
γ
n
, γ
n
= (γ(1), . . . , γ(n))

et Γ
n
= [γ(i −j)]
i,j=1,...,n
. L’erreur
quadratique moyenne vaut : v
n
= γ(0) −γ

n
Γ
−1
n
γ
n
.
D´emonstration. Le d´ebut a d´ej`a ´et´e vu. On calcule maintenant v
n
.
v
n
= E
¸

X
n+1

ˆ
X
n+1

2

= γ(0) +φ

n
Γ
n
φ
n
−2
n
¸
i=1
φ
ni
γ(i) = γ(0) +γ

n
Γ
−1
n
γ
n
−2γ

n
Γ
−1
n
γ
n
= γ(0) −γ

n
Γ
−1
n
γ
n
.
4.1.2 Pr´ediction `a “h pas”, h ≥ 1
Le meilleur pr´edicteur de X
n+h
en fonction de X
1
, . . . , X
n
pour tout h ≥ 1 peut se calculer
exactement de la mˆeme fa¸ con que
ˆ
X
n+1
et donc
P
H
n
X
n+h
= φ
(h)
n1
X
n
+ +φ
(h)
nn
X
1
, n, h ≥ 1
o` u φ
(h)
n
= (φ
(h)
n1
, . . . , φ
(h)
nn
)

est solution (unique si Γ
n
est inversible) de
Γ
n
φ
(h)
n
= γ
(h)
n
o` u γ
(h)
n
= (γ(h), γ(h + 1), . . . , γ(n +h −1))

.
31
4.2 Algorithmes r´ecursifs pour calculer les meilleurs pr´edicteurs
lin´eaires
L’utilisation d’algorithmes r´ecursifs est tr`es importante en pratique. En effet, on n’a ainsi
pas besoin d’inverser la matrice Γ
n
qui peut ˆetre de grande dimension lorsque n est tr`es grand.
D’autre part, les algorithmes r´ecursifs permettent d’utiliser le pr´edicteur lin´eaire calcul´e `a
partir de n observations lorsque le nombre d’observations devient ´egal `a n + 1 pour calculer
le pr´edicteur lin´eaire `a partir de n + 1 observations.
4.2.1 Algorithme de Durbin-Levinson
L’algorithme de Durbin-Levinson d´etaill´e dans la proposition suivante explique comment
calculer φ
n
= (φ
n1
, . . . , φ
nn
)

et v
n
correspondant `a l’erreur quadratique moyenne donn´ee par
v
n
= E

(X
n+1

ˆ
X
n+1
)
2

, n ≥ 1 .
Proposition 8. Si ¦X
t
¦ est un processus stationnaire de moyenne nulle et de fonction d’au-
tocovariance γ(.) telle que γ(0) > 0 et γ(h) → 0 lorsque h → ∞ alors les coefficients φ
ni
d´efinis par
ˆ
X
n+1
= φ
n1
X
n
+ +φ
nn
X
1
, n ≥ 1,
et v
n
d´efini ci-dessus satisfont : φ
11
= γ(1)/γ(0), v
0
= γ(0),
φ
nn
=

γ(n) −
n−1
¸
j=1
φ
n−1,j
γ(n −j)
¸
¸
v
−1
n−1
,

φ
n,1
.
.
.
φ
n,n−1
¸
¸
¸
=

φ
n−1,1
.
.
.
φ
n−1,n−1
¸
¸
¸
−φ
nn

φ
n−1,n−1
.
.
.
φ
n−1,1
¸
¸
¸
et
v
n
= v
n−1
(1 −φ
2
nn
) .
D´emonstration. Par d´efinition, /
1
= sp¦X
2
, . . . , X
n
¦ et /
2
= sp¦X
1
− P
K
1
(X
1
)¦ sont des
sous-espaces orthogonaux de H
n
= sp¦X
1
, . . . , X
n
¦. De plus, si Y ∈ L
2
, on a : P
H
n
(Y ) =
P
K
1
(Y ) +P
K
2
(Y ). Ainsi,
ˆ
X
n+1
= P
K
1
(X
n+1
) +P
K
2
(X
n+1
) = P
K
1
(X
n+1
) +a(X
1
−P
K
1
(X
1
))
o` u
a = 'X
n+1
, X
1
−P
K
1
(X
1
)` /|X
1
−P
K
1
(X
1
)|
2
.
En effet, en multipliant les deux membres de l’´egalit´e d´efinissant
ˆ
X
n+1
par X
1
−P
K
1
(X
1
), on
obtient :
a =

ˆ
X
n+1
, X
1
−P
K
1
(X
1
)

/|X
1
−P
K
1
(X
1
)|
2
,
d’autre part,

ˆ
X
n+1
−X
n+1
, X
1
−P
K
1
(X
1
)

= 0 puisque X
1
− P
K
1
(X
1
) est dans /
2
⊂ H
n
et
ˆ
X
n+1
−X
n+1
est orthogonal `a H
n
.
32
En utilisant la stationnarit´e du processus ¦X
t
¦, on a que (X
1
, . . . , X
n
) a la mˆeme fonction
d’autocovariance que (X
n
, X
n−1
, . . . , X
1
) et (X
2
, . . . , X
n+1
) et donc :
P
K
1
(X
1
) =
n−1
¸
j=1
φ
n−1,j
X
j+1
P
K
1
(X
n+1
) =
n−1
¸
j=1
φ
n−1,j
X
n+1−j
et
|X
1
−P
K
1
(X
1
)|
2
= |X
n+1
−P
K
1
(X
n+1
)|
2
= |X
n

ˆ
X
n
|
2
= v
n−1
.
On en d´eduit que
ˆ
X
n+1
= aX
1
+
n−1
¸
j=1

n−1,j
−aφ
n−1,n−j
) X
n+1−j
o` u
a =

¸
'X
n+1
, X
1
` −
n−1
¸
j=1
φ
n−1,j
'X
n+1
, X
j+1
`
¸

v
−1
n−1
=

¸
γ(n) −
n−1
¸
j=1
φ
n−1,j
γ(n −j)
¸

v
−1
n−1
.
D’apr`es les hypoth`eses de la proposition, la repr´esentation suivante est unique
ˆ
X
n+1
=
n
¸
j=1
φ
nj
X
n+1−j
.
En comparant les coefficients des deux d´ecompositions de
ˆ
X
n+1
, on a
φ
nn
= a
et
φ
nj
= φ
n−1,j
−aφ
n−1,n−j
, j = 1, . . . , n −1 .
On doit maintenant ´etablir le r´esultat concernant v
n
.
v
n
= |X
n+1

ˆ
X
n+1
|
2
= |X
n+1
−P
K
1
(X
n+1
) −P
K
2
(X
n+1
)|
2
= |X
n+1
−P
K
1
(X
n+1
)|
2
+|P
K
2
(X
n+1
)|
2
−2 'X
n+1
−P
K
1
(X
n+1
), P
K
2
(X
n+1
)`
= v
n−1
+a
2
v
n−1
−2a 'X
n+1
, X
1
−P
K
1
(X
1
)` .
D’apr`es la d´efinition de a, on a :
v
n
= v
n−1
(1 −a
2
) .
Remarque 4. Lien avec la fonction d’autocorr´elation partielle (voir TD).
33
4.2.2 Algorithme des innovations
L’id´ee centrale de la proposition pr´ec´edente consistait `a d´ecomposer H
n
en deux sous-
espaces orthogonaux : /
1
et /
2
. L’id´ee de l’algorithme des innovations consiste `a decomposer
H
n
en n sous-espaces orthogonaux au moyen de la proc´edure de Gram-Schmidt.
L’algorithme des innovations est plus facilement applicable puisque l’on permet `a ¦X
t
¦
de ne pas ˆetre un processus stationnaire. On le suppose uniquement de moyenne nulle et de
fonction d’autocovariance
κ(i, j) = E(X
i
X
j
) .
Rappelons que H
n
= sp¦X
1
, . . . , X
n
¦ et v
n
= |X
n+1

ˆ
X
n+1
|
2
. On a, en posant
ˆ
X
1
= 0,
H
n
= sp¦X
1

ˆ
X
1
, X
2

ˆ
X
2
, . . . , X
n

ˆ
X
n
¦, n ≥ 1
de telle sorte que
ˆ
X
n+1
=
n
¸
j=1
θ
nj

X
n+1−j

ˆ
X
n+1−j

.
L’algorithme des innovations d´ecrit dans la proposition suivante fournit une m´ethode r´ecursive
permettant de calculer (θ
nj
, j = 1, . . . , n ; v
n
), n = 1, 2, . . .
Proposition 9. Si ¦X
t
¦ a une moyenne nulle et E(X
i
X
j
) = κ(i, j), o` u la matrice [κ(i, j)]
i,j=1,...,n
est inversible pour tout n ≥ 1 alors
ˆ
X
n+1
=

0, si n = 0
¸
n
j=1
θ
nj
(X
n+1−j

ˆ
X
n+1−j
), si n ≥ 1
et

v
0
= κ(1, 1)
θ
n,n−k
= v
−1
k

κ(n + 1, k + 1) −
¸
k−1
j=0
θ
k,k−j
θ
n,n−j
v
j

, k = 0, 1, . . . , n −1,
v
n
= κ(n + 1, n + 1) −
¸
n−1
j=0
θ
2
n,n−j
v
j
.
D´emonstration. Par d´efinition de H
n
, (X
i

ˆ
X
i
) ∈ H
j−1
lorsque i < j et par d´efinition de
ˆ
X
j
,
on a que (X
j

ˆ
X
j
) est orthogonal `a H
j−1
. On consid`ere
ˆ
X
n+1
=
n
¸
j=1
θ
nj
(X
n+1−j

ˆ
X
n+1−j
)
et on fait le produit scalaire des deux membres de l’´egalit´e pr´ec´edente avec X
k+1

ˆ
X
k+1
,
0 ≤ k < n et on obtient

ˆ
X
n+1
, X
k+1

ˆ
X
k+1

= θ
n,n−k
v
k
.
Puisque (X
n+1

ˆ
X
n+1
) est orthogonal `a (X
k+1

ˆ
X
k+1
) lorsque 0 ≤ k < n, les coefficients
θ
n,n−k
, k = 0, . . . , n −1 sont donn´es par
θ
n,n−k
= v
−1
k

X
n+1
, X
k+1

ˆ
X
k+1

. (4.2)
En utilisant que
ˆ
X
k+1
=
k
¸
j=1
θ
kj
(X
k+1−j

ˆ
X
k+1−j
) =
k−1
¸
j=0
θ
k,k−j
(X
j+1

ˆ
X
j+1
),
34
θ
n,n−k
= v
−1
k

¸
κ(n + 1, k + 1) −
k−1
¸
j=0
θ
n,k−j

X
n+1
, X
j+1

ˆ
X
j+1

¸

.
D’apr`es (4.2),

X
n+1
, X
j+1

ˆ
X
j+1

= v
j
θ
n,n−j
, 0 ≤ j < n, l’´egalit´e ci-dessus se r´e´ecrit
θ
n,n−k
= v
−1
k

¸
κ(n + 1, k + 1) −
k−1
¸
j=0
θ
n,k−j
θ
n,n−j
v
j
¸

.
Prouvons `a pr´esent le r´esultat concernant v
n
:
v
n
= |X
n+1

ˆ
X
n+1
|
2
Pythagore
= |X
n+1
|
2
−|
ˆ
X
n+1
|
2
= κ(n + 1, n + 1) −
n−1
¸
k=0
θ
2
n,n−k
v
k
.
Exemple 20. Pr´ediction d’un processus MA(1) ` a l’aide de l’algorithme des innovations (cf
TD)
4.2.3 Calcul r´ecursif d’un pr´edicteur `a “h pas”
Notons P
n
l’op´erateur de projection sur H
n
alors le pr´edicteur `a h pas : P
n
(X
n+h
) peut
ˆetre calcul´e comme suit
P
n
(X
n+h
) = P
n
(P
n+h−1
(X
n+h
)) = P
n
(
ˆ
X
n+h
) = P
n

n+h−1
¸
j=1
θ
n+h−1,j

X
n+h−j

ˆ
X
n+h−j

¸
¸
.
Puisque (X
n+h−j

ˆ
X
n+h−j
) est orthogonal `a H
n
lorsque j < h, on a
P
n
(X
n+h
) =
n+h−1
¸
j=h
θ
n+h−1,j

X
n+h−j

ˆ
X
n+h−j

o` u les coefficients θ
nj
ont ´et´e d´etermin´es pr´ec´edemment.
De plus,
E

(X
n+h
−P
n
(X
n+h
))
2

Pythagore
= |X
n+h
|
2
−|P
n
(X
n+h
)|
2
= κ(n +h, n +h) −
n+h−1
¸
j=h
θ
2
n+h−1,j
v
n+h−j−1
.
35
Chapitre 5
Estimation de la moyenne et de la
fonction d’autocovariance
Si ¦X
t
¦ est un processus stationnaire alors sa moyenne µ et son autocovariance γ(.) contri-
buent `a sa caract´erisation. C’est pour cela que l’estimation de µ, de γ et de la fonction d’au-
tocorr´elation ρ(.) = γ(.)/γ(0) `a partir des observations X
1
, . . . , X
n
joue un rˆole crucial dans
la mod´elisation des donn´ees. Dans ce chapitre, on va proposer des estimateurs des diff´erents
param`etres pr´ec´edents et donner leurs propri´et´es statistiques.
5.1 Estimation de µ
Un estimateur sans biais naturel de la moyenne µ d’un processus stationnaire ¦X
t
¦ est la
moyenne empirique
¯
X
n
= (X
1
+ +X
n
)/n .
On commence par examiner le comportement de l’erreur quadratique moyenne : E

(
¯
X
n
−µ)
2

lorsque n tend vers l’infini.
Proposition 10. Si ¦X
t
¦ est un processus stationnaire de moyenne µ et de fonction d’auto-
covariance γ, alors, lorsque n tend vers l’infini
Var(
¯
X
n
) = E

(
¯
X
n
−µ)
2

→0, si γ(n) →0
et
nE

(
¯
X
n
−µ)
2


¸
h∈Z
γ(h), si
¸
h∈Z
[γ(h)[ < ∞.
D´emonstration.
nVar(
¯
X
n
) =
1
n
E

¸
n
¸
j=1
(X
j
−µ)
¸

2
¸
¸
=
1
n
E

n
¸
i,j=1
(X
i
−µ)(X
j
−µ)
¸
¸
=
1
n
n
¸
i,j=1
E [(X
i
−µ)(X
j
−µ)] =
1
n
n
¸
i,j=1
Cov(X
i
, X
j
) =
1
n
n
¸
i,j=1
γ(i −j)
36
=
n−1
¸
h=−(n−1)

1 −
[h[
n

γ(h) ≤
¸
|h|<n
[γ(h)[ .
L’´egalit´e
1
n
n
¸
i,j=1
γ(i −j) =
n−1
¸
h=−(n−1)

1 −
[h[
n

γ(h)
vient du fait que la matrice [γ(i −j)]
1≤i,j≤n
est une matrice de Toeplitz ayant (n−1) termes
sur la premi`ere surdiagonale tous ´egaux `a γ(1), (n −2) termes sur la deuxi`eme surdiagonale
tous ´egaux `a γ(2)...
Si γ(n) →0, alors par C´esaro, (
¸
|h|<n
[γ(h)[)/n →0 et donc Var(
¯
X
n
) →0.
Si
¸
k∈Z
[γ(h)[ < ∞, alors par le th´eor`eme de convergence domin´ee, on a le second r´esultat
attendu.
Remarque 5. Si
¸
h∈Z
[γ(h)[ < ∞, alors ¦X
t
¦ a une densit´e spectrale f et d’apr`es ce qui a
´et´e vu dans le chapitre sur la repr´esentation spectrale des processus stationnaires,
nVar(
¯
X
n
) →
¸
h∈Z
γ(h) = 2πf(0) .
Remarque 6. Si X
t
=
¸
j∈Z
ψ
j
Z
t−j
et que
¸
j∈Z

j
[ < ∞ alors
¸
h∈Z
[γ(h)[ < ∞ et donc
nVar(
¯
X
n
) →
¸
h∈Z
γ(h) = 2πf(0) = σ
2

¸
¸
j∈Z
ψ
j
¸

2
.
Remarque 7. Sous l’hypoth`ese
¸
h∈Z
[γ(h)[ < ∞, Var(
¯
X
n
) ∼ n
−1
¸
h∈Z
γ(h). Ceci sugg`ere
que, sous certaines conditions, on pourrait montrer que
¯
X
n
est asymptotiquement normal
d’esp´erance µ et de variance n
−1
¸
h∈Z
γ(h).
Proposition 11. Si ¦X
t
¦ est un processus stationnaire tel que
X
t
= µ +
¸
j∈Z
ψ
j
Z
t−j
o` u les Z
t
sont iid de moyenne nulle et de variance σ
2
,
¸
j∈Z

j
[ < ∞ et
¸
j∈Z
ψ
j
= 0 alors

n(
¯
X
n
−µ)
L
−→^(0, v)
o` u v =
¸
h∈Z
γ(h) = σ
2

¸
j∈Z
ψ
j

2
et γ est la fonction d’autocovariance de ¦X
t
¦.
D´emonstration. On d´efinit
X
tm
= µ +
m
¸
j=−m
ψ
j
Z
t−j
et
Y
nm
=
¯
X
nm
=

n
¸
t=1
X
tm

/n .
37
Lorsque n →∞,

n(Y
nm
−µ)
L
−→Y
m
,
o` u
Y
m
∼ ^

¸
0, σ
2

¸
m
¸
j=−m
ψ
j
¸

2
¸

.
Cette affirmation vient de l’application du th´eor`eme central limite pour les suites stric-
tement stationnaires m-d´ependantes. La propri´et´e de m-d´ependance g´en´eralise la notion
d’ind´ependance : des variables m-d´ependantes sont ind´ependantes pourvu qu’elles soient
s´epar´ees d’au moins m unit´es de temps. Par exemple, un processus MA(q) est m-d´ependant.
Lorsque m → ∞, σ
2

¸
m
j=−m
ψ
j

2
→ σ
2

¸
j∈Z
ψ
j

2
et donc, en utilisant le th´eor`eme
de Paul L´evy assurant l’´equivalence entre convergence en loi et convergence des fonctions
caract´eristiques correspondantes,
Y
m
L
−→^

¸
0, σ
2

¸
¸
j∈Z
ψ
j
¸

2
¸

.
En utilisant la remarque 6, on a
Var

n(
¯
X
n
−Y
nm
)

= nVar

¸
n
−1
n
¸
t=1
¸
|j|>m
ψ
j
Z
t−j
¸

¸
¸
|j|>m
ψ
j
¸

2
σ
2
lorsque n →∞.
Ainsi
lim
m→∞
limsup
n→∞
Var

n(
¯
X
n
−Y
nm
)

= 0 .
On en d´eduit que

n(
¯
X
n
−µ)
L
−→^

0, σ
2

¸
j∈Z
ψ
j

2

. En effet, le r´esultat se d´eduit de
la proposition suivante :
Soient (X
n
) et (Y
n,j
) des variables al´eatoires telles que
(i) Y
n,j
L
→Y
j
, lorsque n →∞ pour chaque j = 1, 2, . . .
(ii) Y
j
L
→Y , lorsque j →∞
(iii) lim
j→∞
limsup
n→∞
P([X
n
−Y
nj
[ > ε) = 0, ∀ε > 0,
alors
X
n
L
→Y, lorsque n →∞.
Cette proposition se d´emontre une fois encore en utilisant le th´eor`eme de Paul L´evy.
Remarque 8. Le th´eor`eme pr´ec´edent sert ` a fournir des intervalles de confiance asympto-
tiques pour µ. Si le processus ¦X
t
¦ est non seulement stationnaire mais aussi gaussien alors
on peut montrer que, pour n fini,

n(
¯
X
n
−µ) ∼ ^

¸
0,
¸
|h|<n

1 −
[h[
n

γ(h)
¸

.
38
5.2 Estimation de γ et de ρ
Les estimateurs que nous allons utiliser pour γ(h) et ρ(h) sont
ˆ γ(h) = n
−1
n−h
¸
t=1
(X
t

¯
X
n
)(X
t+h

¯
X
n
), 0 ≤ h ≤ n −1,
ˆ ρ(h) = ˆ γ(h)/ˆ γ(0) .
L’estimateur ˆ γ(h) est biais´e mais on peut montrer (voir plus loin) que, sous certaines hy-
poth`eses, il est asymptotiquement non biais´e i.e. que sa moyenne tend vers γ(h) lorsque
n →∞.
Les estimateurs ˆ γ(h) ont aussi la propri´et´e int´eressante suivante : pour tout n ≥ 1, la
matrice
ˆ
Γ
n
=

ˆ γ(0) ˆ γ(1) . . . ˆ γ(n −1)
ˆ γ(1) ˆ γ(0) . . . ˆ γ(n −2)
.
.
.
ˆ γ(n −1) ˆ γ(n −2) . . . ˆ γ(0)
¸
¸
¸
¸
¸
est d´efinie positive. Pour montrer cela, on ´ecrit
ˆ
Γ
n
= n
−1
TT

,
o` u T est la matrice n 2n suivante
T =

0 . . . 0 Y
1
Y
2
. . . Y
n
0 . . . 0 Y
1
Y
2
. . . Y
n
0
.
.
.
0 Y
1
Y
2
. . . Y
n
0 . . . 0
¸
¸
¸
¸
¸
et Y
i
= X
i

¯
X
n
, i = 1, . . . , n. Ainsi pour tout vecteur a de taille n 1,
a

ˆ
Γ
n
a = n
−1
(a

T)(a

T)

≥ 0 .
De plus, on peut montrer que det(
ˆ
Γ
n
) > 0, si ˆ γ(0) > 0.
La proposition suivante sera utile pour arriver `a savoir quel processus ARMA(p,q) corres-
pond le mieux `a la mod´elisation de la partie al´eatoire de certaines donn´ees. En effet, on sait
que ρ(k) = 0, ∀[k[ > q lorsque l’on a affaire `a un MA(q). La proposition suivante va servir `a
mettre au point un test pour savoir si ˆ ρ(k) est significativement diff´erent de 0 ou pas.
Proposition 12. Si ¦X
t
¦ est un processus stationnaire
X
t
−µ =
¸
j∈Z
ψ
j
Z
t−j
,
o` u les ¦Z
t
¦ sont iid d’esp´erance nulle et de variance σ
2
,
¸
j∈Z

j
[ < ∞ et E(Z
4
t
) < ∞ alors
pour tout h ∈ ¦1, 2, . . .¦

n(ˆ ρ
V
(h) −ρ
V
(h))
L
−→^(0, W) lorsque n →∞
39
o` u
ˆ ρ
V
(h)

= [ ˆ ρ(1), . . . , ˆ ρ(h)]
ρ
V
(h)

= [ρ(1), . . . , ρ(h)]
et W est une matrice de covariance dont l’´el´ement (i, j) est donn´e par la formule de Bartlett
w
i,j
=
¸
k≥1
[ρ(k +i) +ρ(k −i) −2ρ(i)ρ(k)] [ρ(k +j) +ρ(k −j) −2ρ(j)ρ(k)] .
Remarque 9.
L’hypoth`ese E(Z
4
t
) < ∞ peut ˆetre remplac´ee par
¸
j∈Z
[j[ψ
2
j
< ∞.
Application 1 : Tester si des observations sont iid
1`ere m´ethode : Fonction d’autocorr´elation empirique
Si les X
t
sont iid d’esp´erance nulle et de variance σ
2
alors ρ(l) = 0 si [l[ > 0 et donc
w
ij
=

1, si i = j,
0, sinon.
Pour n suffisamment grand, ˆ ρ(1), . . . , ˆ ρ(h) sont approximativement iid gaussiens d’esp´erance
nulle et de variance n
−1
. Donc si on trace les autocorr´elations empiriques ˆ ρ(k) en fonction de
k ≥ 1 et si celles-ci restent entre les bornes −1.96 n
−1/2
et 1.96 n
−1/2
alors ceci assure
que l’on a bien affaire `a des donn´ees iid.
2`eme m´ethode : Test de Portmanteau
Au lieu de regarder si chaque ˆ ρ(k) est bien dans l’intervalle de confiance pr´ec´edent, on
peut envisager une statistique globale
Q = n
h
¸
j=1
ˆ ρ(j)
2
.
Si les observations sont iid alors Q est la somme de h variables al´eatoires qui sont des carr´es
de gaussiennes centr´ees r´eduites, Q suit donc une loi χ
2
(h). Une valeur trop grande de Q
par rapport au (1 − α)-quantile d’une loi du χ
2
(h) nous am`ene `a rejeter l’hypoth`ese que les
observations sont iid.
Application 2 : Tester si un processus est un MA(q) ou un AR(1)
On utilise pour ce faire la formule de Bartlett et la proposition pr´ec´edente (voir TD).
40

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->