Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Systmes dalerte
Chapitre II Formalisme du problme de prvision
1. Lapproche baysienne et la prdiction
2. Distribution prdictive
3. Cas dune distribution normale
4. Ecriture du problme de prvision sous incertitude
5. Modle AR(1) de sries temporelles des dbits
(2)
|
=1/2 ; =/2
Loi Gamma inverse (dmonstration)
IG(,) : f(x|,) = (1/x+1) exp(-/x)/()
Avec E(X)= /( 1) ( >1); Var(X)= / (1)
y=1/x ; dy/dx=-1/x; x=1/y
f(y) dy= f(x) dx
f(y)= f(x) /|(dy/dx) |
f(y|,) = ((1/y) -1exp(-/y)/())/ | -1/x| = y 1- /y exp(/y)/() = y -(+1) exp(-/y)/()
f(y|,) =y -(+1) exp(-/y)/()
Loi Beta
f(x)=(a+b)/( (a) (b)) x(a-1) (1-x)(b-1) o 0<x<1; a, b >0
E(X)= a/(a+b)
Var(X)=ab/((a+b)(a+b+1))
Mode(X)=(a-1)/(a+b-2)
2. Distribution prdictive
La distribution prdictive peut servir prdire une valeur
centrale, ou la dispersion, ou un intervalle de confiance la
valeur prdite.
On note
Esprance de la variable u : E(u)= u (u) du
Variance de la variable u : Var(u)= (u-E(u)) (u) du
Si u est un vecteur, on a la covariance
Cov(u)= (u-E(u)) (u-E(u))T (u) du o (.)T est la transpose
Si u est conditionnelle v:
E(u)= E(u|v) (v) dv = E(E(u|v))
Ce qui signifie que la moyenne est la moyenne des moyennes
conditionnelles
De mme on montre que:
Var(u)= E(Var(u|v)) + Var (E(u|v))
Ce qui signifie quen moyenne, la variance conditionnelle est
plus faible que la variance a priori
E(Var(u|v))= Var(u) - Var (E(u|v))
Dmonstration:
E(Var(u|v)) + Var (E(u|v))=E(E(u|v)-E(u|v)) + E((E(u|v)))(E (E(u|v)))= E(u)- (E(u)) = Var(u)
La connaissance de la distribution prdictive permet de
construire un intervalle de confiance au seuil (1-) not HPD.
Cest lintervalle [u-/2, u/2] o Prob(u u/2)= 1- /2 ;
Prob(uu-/2)= /2
b=0
A= -
B= 0-
________
f(x0| x) = (1/2) 1-1 exp{-0.5[(x0- 1)/ 1]}
ou encore
1 = [ 0- / (- + 0-) ] 0 + [-/(- + 0-)] x =
1 = 0 0 + 1 x
La valeur a posteriori de la moyenne de la distribution est un
compromis entre la valeur a priori et la mesure x, les poids
attribus 0 et 1 sont proportionnels linverse des variances
a priori et de la mesure. (Linverse de la variance est ici une
mesure de la prcision).
1 =( 0- + -)-1
0= [ 0- / ( - + 0-) ]
1= [ - / ( - + 0-)]
La distribution prdictive dune valeur future xpred sachant
lobservation x est
f(xpred |x)= f(xpred |x0) f(x0 |x) dx0
o:
f(xpred |x0) est la fonction qui lie la valeur prdite x0 lorsque
x0 est donn.
On calcule :
f(xpred |x)= (1/2) -1 exp{-0.5[(xpred-x0)/]} (1/2) 1-1
exp{-0.5[(x0- 1)/ 1]} dx0
f(xpred |x) exp{-(0.5[(xpred-x0)/] +0.5[(x0- 1)/ 1])} dx0
Cest une distribution normale de moyenne E(xpred |x)= 1
Qui est la moyenne a posteriori de x0.
7
1/ n= 1/ 0 + n/
Si n est grand la distribution a posteriori dpend surtout de
et xmoy
Si la connaissance a priori est trop vague avec 0 tend vers
linfini, on dit que cest une distribution non informative ;
dans ce cas, f (x0|xi=1,n) est une N(n,n) avec
n = xmoy
n= /n
3.c Cas dune distribution normale de moyenne connue x0
et variance inconnue
f(x| x0, )= f(x| ) -nexp{-0.5i=1,n[ (xi-x0)/])}
on pose =1/n i=1,n(xi-x0)/
10
11