Está en la página 1de 30

Universit Paris XI

PCS0 Probabilits 2011/2012

Probabilits

Table des matires


1 Combinatoire 2
1.1 Choix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Les fonctions cruciales du dnombrement . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Ordonner un ensemble n lments . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Choisir p lments parmi n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Choisir p lments parmi n, sans se proccuper de lordre . . . . . . . . . . . 3
1.3 Quelques proprits avances de combinatoires . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Interprtation polynomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Coefficients multinomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Triangle de Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.4 Rangement de p lments indistincts dans n cellules . . . . . . . . . . . . . . 5
1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Fondations axiomatiques des probabilits 8


2.1 Langage de la thorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Espace des vnements et probabilits . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Trois exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.1 La situation finie quiprobable . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.2 La situation finie pondre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3.3 La situation infinie dnombrable . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Probabilits conditionnelles 10
3.1 Fondations axiomatiques des probabilits conditionnelles . . . . . . . . . . . . . . . . 10
3.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.1.2 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Deux thormes fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1 Formule des probabilits totales . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.2 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

4 Variable alatoire 14

1
4.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.2 Lois fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2.1 Loi quirpartie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2.2 Tirage de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.4 Loi gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.5 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.6 Loi hypergomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.3 Esprance, variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.1 Esprance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.2 Covariance, variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.3.3 Coefficient de corrlation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.4 Esprance et variance des lois fondamentales . . . . . . . . . . . . . . . . . . . . . . 19
4.4.1 Loi quirpartie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.2 Tirage de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.4 Loi gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.5 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.6 Loi hypergomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.5 Paradoxe du temps dattente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.5.1 Motivation et formalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.5.2 Deux exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.5.3 Cas gnral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.5.4 Conclusion et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.6.1 Lois binomiales itres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.6.2 Variance des lois binomiales pondres . . . . . . . . . . . . . . . . . . . . . . 26
4.6.3 Loi darrt pile ou face . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

1 Combinatoire
1.1 Choix
Soit E = {e1 , e2 , , en } un ensemble fini de cardinal n. Alors il existe n faons distinctes de choisir
un lment e de E. Le comptage du nombre de choix dun lment dans un ensemble revient donc
la dtermination du cardinal de cet ensemble. A cette fin, il est bon de se souvenir que lensemble
A B = {(a, b)|a A, b B} est de cardinal |A| |B|. En particulier, si r est un entier, le cardinal
de E r est |E|r . Il existe donc np faons diffrentes de choisir p fois de suite un lment dans un
ensemble ayant n lments.

2
Exemples : Il existe 7 12 = 84 choix dun jour de la semaine et dun mois de lanne. Il existe
63 = 216 rsultats possibles lorsque lon tire 3 fois de suite un d usuel ( six faces). A lheure
actuelle, il existe 14 candidats dclars llection prsidentielle de 2012. Sauf en cas de victoire
au premier tour, deux de ces candidats saffronteront au second tour. Il existe donc 14 2 = 28
possibilits distinctes (thoriques) de vote en cas dune lection deux tours.

1.2 Les fonctions cruciales du dnombrement


1.2.1 Ordonner un ensemble n lments

Soit E = {e1 , e2 , , en } un ensemble fini de cardinal n. Un ordre sur E est le choix dune nu-
mration des lments de E. Par dfinition, il existe factoriel n ordre sur E, ce que lon note n!.
Lentier n! est gal n (n 1) (n 2) 3 2 1. Ceci se dmontre par rcurrence de la
manire suivante. Pour ordonner un E, il suffit de choisir un lment e que lon place en premire
place. Ceci peut se faire de n faons distinctes. Ensuite, il reste ordonner lensemble E {e}, qui
est de cardinal n 1. Il existe donc (n 1)! faons de procder. Il y a donc n (n 1)! faons
dordonner E. Donc n! = n(n 1) 2 1.

1.2.2 Choisir p lments parmi n

Soit E = {e1 , e2 , , en } un ensemble fini de cardinal n et soit p un entier. Un p-arrangement


(eij )1jp de E est la donne de p lments distincts de E dans un ordre donn (donc (e1 , e2 ) et
(e2 , e1 ) ne sont pas le mme 2-arrangement). On dsigne le nombre de p-arrangements distincts
dlments de E par Apn .
Pour construire un p-arrangement, il faut choisir un lment e de E, que lon dsigne comme le
premier lment de larrangement, puis choisir un (p 1)-arrangement de E {e}. Rciproquement,
tous les p-arrangements sont construits de cette manire. Les p-arrangements vrifient donc la
relation Apn = nAp1
n1 . En rptant cette relation, on obtient :

Apn = n(n 1)Ap2 pp+1


n2 = n(n 1) (n p + 2)Anp+1 = n(n 1) (n p + 2)(n p + 1)

Notons que, un peu par convention et aussi un peu pour des raisons de cohrence interne, on
considre quil existe un unique 0-arrangement (et non pas 0) dans un ensemble n lments
lorsque n > 0. Donc A0n = 1.
De manire alternative, et quasiment quivalente, on peut remarquer quun p-arrangement se
prolonge en un ordre sur les n lments de E de (n p)! faons distinctes et que tous les ordres sur
E sont construits de cette manire. Donc :
n!
Apn =
(n p)!

1.2.3 Choisir p lments parmi n, sans se proccuper de lordre

Soit E = {e1 , e2 , , en } un ensemble fini de cardinal n et soit p un entier. Un p-uplet (eij )1jp
de E est la donne de p lments distincts
  de E sans ordre prescrit (donc (e1 , e2 ) et (e2 , e1 ) sont
n
le mme 2-uplet). On dsigne par le nombre de faons distinctes de choisir des p-uplet dans
p
E. Il est bon de remarquer quil existe une faon unique de choisir un 0-uplet dans E, car la seule

3
le p-uplet
possibilit estdeprendre   vide, tandis quil nexiste aucune faon de choisir un p-uplet si
n n
p < 0. Ainsi, = 1 et = 0 si p > 0.
0 p
Pour construire un p-uplet, il suffit de construire un p-arrangement. Par dfinition de p!, il existe
p! p-arrangements distincts qui produisent par cette construction le mme p-uplet. Donc :

Ap
 
n n(n 1) (n p + 2)(n p + 1) n!
= n = =
p p! p! p!(n p)!

Remarquons que choisir un p-uplet b dans E estlamme  choseque de choisir le (n p)-uplet des
n n
lments que lon na pas choisi dans b. Donc = . Cela est galement manifeste
p np
partir de la dernire expression de lquation prcdente.

1.3 Quelques proprits avances de combinatoires


1.3.1 Interprtation polynomiale

Considrons le polynme (x + y)n = (x + y)(x + y) (x + y). Lorsque que lon dveloppe ce


polynme, on doit pour chacune des n parenthses choisir x ou y. Le terme de degr xk correspond
donc
  au nombre de faons distinctes de choisir k fois x parmi n possibilits, et donc par dfinition
n
. Donc :
k
n  
n
X n k nk
(x + y) = x y
k
k=0
 
n
Cette interprtation permet de dmontrer certaines proprits des . Par exemple, remplacer x
k
et y par 1 montre que :
n  
n n
X n
(1 + 1) = 2 =
k
k=0
n ns
Soit s un entier. Lgalit (x + y) = (x + y) (x + y)s montre que :
n   s   ns
X 
X n X s n s j nsj
xk y nk = xi y si x y
k i j
k=0 i=0 j=0

En identifiant le terme en xk y nk de chaque ct de lquation prcdente, on obtient :


  Xk   
n s ns
=
k i ki
i=0

Ou encore :  
n X s n s
=
k i j
i+j=k

4
1.3.2 Coefficients multinomiaux

On peut gnraliser la notion de p-uplet en la notion de (p1 , , ps )-multiplet. tant donn des
entiers (pi )1is vrifiant p1 + p2 + + ps = n, un (p1 , , ps )-multiplet est la donne de p1
lments distincts, puis de p2 lments distincts parmi ceux qui restent,  et ainside suite. Le nombre
n
de (p1 , , ps )-multiplets est par dfinition le nombre multinomial . Les nombres mul-
p1 , , ps
tinomiaux vrifient la relation :
 
n n!
=
p1 , , ps p1 !p2 ! ps !

1.3.3 Triangle de Pascal

Pour construire un p-uplet dlments de E de cardinal n, il suffit de choisir tout dabord si ce p-uplet
contiendra ou non le dernier lment de E. Si oui, alors il reste choisir un (p1)-uplet de E {en }
de cardinal n 1. Sinon, alors notre p-uplet est un p-uplet de E  {en}. Rciproquement,
   tout  p-
n n1 n
uplet dlments de E est construit de la manire prcdente. Donc = + . Si
p p1 p1
lon dispose les coefficients binomiaux en un triangle dont les lignes correspondent n constant et
les colonnes p constant, alors la somme de deux termes conscutifs dun ligne est gale au terme
de la ligne suivante en dessous du deuxime terme. Le dessin que lon obtient est appel le triangle
de Pascal (mme sil est apparat dj dans les travaux de mathmaticiens indiens du X sicle).

1
11
121
1331
14641
1 5 10 10 5 1
1 6 15 20 15 6 1
1 7 21 35 35 21 7 1
1 8 28 56 70 56 28 8 1
1 9 36 84 126 126 84 36 9 1
1 10 45 120 210 252 210 120 45 10 1

1.3.4 Rangement de p lments indistincts dans n cellules

Supposons que lon dispose de n espaces et que lon souhaite y ranger p lments identiques. Voici
une faon de procder pour obtenir le nombre possible de tels rangements. On peut imaginer que le
rangement se fasse de la manire suivante : on compte partir de 1 le nombre dlments que lon
place dans la premire cellule ; tout moment, on peut crier stop et on sarrte puis on recommence
le comptage des lments dans la deuxime cellule, et lon continue jusqu atteindre p. Afin que
toutes les cellules soient remplies (mme de zro lment), il faut crier n 1 fois stop. Pour que
tous les lments soient placs, il faut compter de 1 p. La personne qui dcrit le rangement de
cette manire prononce donc n 1 + p mots.
 Le rangement
  est dfini  par la position des n 1 stops.
n1+p n+p1
Donc le nombre de tels rangements est = .
n1 p

5
1.4 Exercices
Un d usuel comporte 6 faces numrotes de 1 6. Un jeu de cartes usuel contient 52 cartes divises
en 13 cartes numrotes de 1 13 de 4 couleurs.

Exercice 1 De combien de faon diffrente peut-on obtenir 7 en lanant deux ds ? De combien


de faons diffrentes peut-on tirer une carte dans un jeu de cartes ? Deux cartes ? Cinq cartes ?
Combien existe-t-il de tirages de cinq cartes o toutes les cartes sont de la mme couleur ? Combien
existe-t-il de tirages de cinq cartes o deux cartes (au moins) parmi les cinq ont la mme valeur ?

Correction La valeur du premier d peut tre choisi parmi 6. Une fois connue la valeur du premier
d, la valeur du second d est impose. Il y adonc  6 tirages possibles dont la 
valeur
 est 7. Il existe
52 52
52 tirages dune carte dans un jeu. Il existe tirages de deux cartes et tirages de cinq
2 5
cartes. Un tirage de cinq cartes de la mme couleur correspond un choix dune  des
 cartes couleurs
13
puis au choix de 5 cartes parmi les 13 cartes de cette couleur. Il existe donc 4 tirages possibles
5
de cinq cartes dune mme couleur. Pour dnombrer les tirages contenant au moins une paire, il est
plus ais de compter les tirages ne comportant pas de paires. Dans ce cas, il faut choisir 5 valeurs
parmi les 13 possibles. Ensuite, il faut 
choisir
 lune des 4 couleurs pour chacune des 5 cartes. Donc
13
le nombre de tirages sans paire est 45 . Donc le nombre de tirage dont deux cartes au moins
5
   
52 13
ont la mme valeur est 45 .
5 5

Exercice 2 Un wagon de RER comporte 30 places assises. 18 voyageurs montent et sasseyent


tous. Combien de rpartition diffrentes des places occupes existe-t-il ? Si lon suppose que les
voyageurs sont tous distincts, de combien de faons diffrentes peuvent-ils sasseoir ?

Correction Une  rpartition des places occupes est un choix de 18 places parmi les 30. Il en
30
existe donc . Si de plus on supposer que les voyageurs sont tous distincts, une rpartition des
18
voyageurs est obtenue
  en choisissant une rpartition des places assises et un ordre sur les voyageurs.
30
Il y a donc 18! diffrentes rpartitions.
18

Exercice 3 Combien danagrammes du mot PROBABILITS peut on former ? Combien dana-


grammes peut-on former avec 11 des 12 lettres du mot PROBABILITS ?

Correction Si lon se souvient des coefficients multinomiaux, on remarque quune1 anagramme


de PROBABILITS correspond au choix de la position des deux i parmi les 12 possibles, puis des
deux
 b parmi les 10 restantes,
 puis du p, du r, du o, du a, du l, du t, du e et du s. Il y a donc
12
anagrammes possibles. Alternativement, on peut remarquer quil existe 12!
2, 2, 1, 1, 1, 1, 1, 1, 1, 1
ordres possibles sur les lettres de PROBABILITS, mais que la permutation des deux b et des deux
i produit la mme anagramme. Parmi ces 119750400 anagrammes, mon ordinateur massure quil
1 Ce nest pas une faute de frappe

6
nexiste que deux mots appartenant la langue franaise : probabilits et probabiliste. Pour former
une anagramme avec 11 des douze lettres, il faut commencer par choisir la lettre parmi les 10 que lon
va supprimer. Il y a donc 10 choix possibles. Si lon choisit lune des 8 lettres uniques, il reste alors
11! 11!
4 anagrammes. Sinon, on a choisi une des deux lettres doubles. Il reste alors 2 anagrammes.
Il existe donc en tout 3 11! anagrammes. Parmi ces 119750400 anagrammes (autant donc que
danagrammes compltes, mais cest une concidence), mon ordinateur massure quil nexiste que
deux mots appartenant la langue franaise : probabilit et bipolarits.

Exercice 4 Parmi n personnes, on dcide de former des groupes de travail. Un tel groupe est
form dun certain nombre de personnes et dun reprsentant du groupe (un groupe nest donc pas
vide). Combien de groupes diffrents peut-on former. En dduire la formule suivante :
n  
X n
s = n2n1
s
s=0

Correction Pour former un groupe, on peut commencer par choisir le reprsentant. Il y a alors
n choix. Ensuite, pour les n 1 personnes restantes, on a le choix entre les mettre dans le groupe
ou non. Il y a donc un choix entre deux possibilits pour chaque personne, donc 2n1 possibilits.
Il y a donc n2n1 groupes. Alternativement, pour construire un groupe,  on peut commencer par
n
choisir un nombre s de membres et les s membres du groupes. Il y a groupes s membres. Il
 s
n
faut ensuite encore choisir un reprsentant du groupe. Il y a donc s groupes de s membres. Il
s
y a donc
n  
X n
s = n2n1
s
s=0
groupes.

Exercice 5 Montrer :
n   n  
X n n
X
s n
=2 , (1) =0
s s
s=0 s=0

Correction La premire somme est le nombre total densemble dlments que lon peut former
avec n lments. Pour former un tel ensemble, il faut choisir pour chacun des n lments sil
appartient ou non lensemble. Il y a donc un choix parmi deux possibilits pour chacun des
lments, soit 2n choix. La seconde somme compare le nombre de s-uplets de cardinal pair avec le
nombre de p-uplets de cardinal impair. Si n est impair, le choix dun p-uplet pair revient au choix
dun (n p)-uplet impair. Il y a donc autant de p-uplet pair que de p-uplet impair. Si n est pair,
il y a daprs ce que lon vient de voir autant de p-uplet pairs ne contenant pas n que de p-uplets
impairs ne contenant pas n. Un p-uplet pair contenant n est la mme chose quun p-uplet impair
ne contenant pas n. Il y en a donc autant que de p-uplets pairs ne contenant pas n ; ce qui est aussi
le nombre de p-uplets impairs contenant n.
Alternativement, on peut remarquer que la deuxime somme est le dveloppement de (1 1)n .

7
2 Fondations axiomatiques des probabilits
2.1 Langage de la thorie des ensembles
On rappelle que si X est un ensemble, on peut effectuer les oprations dintersection, union et
passage au complmentaire sur les parties de X. On dit quun ensemble est dnombrable sil est
fini ou sil peut scrire sous la forme X = {x1 , x2 , x3 }.

2.2 Espace des vnements et probabilits


On considre un ensemble , que lon appelle lunivers ainsi quun sous-ensemble T des parties de
vrifiant les proprits suivantes :

1. T est non-vide.
2. Si A T (donc A ) alors le complmentaire A de A dans est aussi dans T .
3. Si A = {A1 , A2 } est un ensemble dnombrable dlments de T , alors lunion de tous les
Ai est galement dans T .

Dans le cas, frquent dans ce cours, o lensemble est un ensemble fini, on peut remplacer la
troisime condition par la condition suivante : si A et B sont dans T , alors A B est dans T . Un
sous-ensemble T vrifiant les proprits ci-dessus est appel une tribu sur les parties de .
Les lments de T sont appels les lments de lespace des vnements. Notons que daprs la
premire proprit de T , il existe un lment A T . Daprs la deuxime, le complmentaire A de
A est dans T . Daprs la troisime, lunion A A = est dans T . Lensemble tout entier est donc
toujours dans T . Son complmentaire, lensemble vide , est donc galement toujours dans T .
Une probabilit sur (, T ) est une fonction qui associe un vnement (donc un lment A T )
un nombre rel et qui vrifie les proprits suivantes :

1. Pour tout A T , 0 p(A) 1.


2. p() = 1.
3. Si A = {A1 , A2 } est un ensemble dnombrable dlments de T deux deux disjoints,
alors :

X
p(A1 A2 ) = p(Ai )
i=1

Dans le cas, frquent dans ce cours, o lensemble est un ensemble fini, on peut remplacer
la troisime condition par la condition suivante : si A et B sont dans T et A B = , alors
p(A B) = p(A) + p(B).
On appelle espace probabilis la donne de (, T, p).
= 1 p(A) et que p(A B) = p(A) + p(B)
Ces proprits impliquent que p() = 0, que p(A)
p(A B).

8
2.3 Trois exemples fondamentaux
2.3.1 La situation finie quiprobable

Considrons la situation o est lensemble fini des ventualits possibles dune exprience combi-
natoire. Prenons pour T lensemble des parties de . Dfinissons p par la formule p(A) = |A|/||.
Alors (, T, p) vrifient toutes les proprits des fondations axiomatiques des probabilits.

Exemples :

1. Pour modliser le lancer dun d quilibr, on peut prendre = {1, 2, 3, 4, 5, 6}. La probabilit
de tirer un 6 est alors p({6}) = 1/6. La probabilit de tirer un 3 ou un 4 est p({3, 4}) = 2/6 =
1/3. La probabilit de tirer un nombre pair est p({2, 4, 6}) = 3/6 = 1/2.
2. Pour modliser le lancer de deux pices quilibres, on peut prendre = {P P, P F, F P, F F }.
3. Pour modliser le choix dun groupe de trois personnes (sans ordre) dans un groupe de 20
(dont 14 hommes et 6 femmes), on peut prendre = {groupes de 3 personnes  parmi
  20}.

19 20
Alors la probabilit que ce groupe contienne une personne x donne est p(A) = / .
 2  3
14 20
La probabilit quun groupe ne contienne que des hommes est p(B) = / . La
3 3
probabilit quun groupe ne contienne que des hommes
  et une  personne x donne est p(A
13 20
B) = 0 si x nest pas un homme et p(A B) = / si x est un homme.
2 3

2.3.2 La situation finie pondre

Cest la mme situation que dans la situation finie quiprobable, mais on ne suppose plus que p est
dfinie par p(A) = |A|/||.

Exemples :

1. Deux joueurs de ping-pong ont remarqu que lorsquils jouent lun contre lautre, A gagne 2
fois sur 3 contre B. Ils dcident de jouer trois parties conscutives et de dclarer vainqueur
celui qui aura remport deux parties. On peut prendre pour lensemble suivant :

{Mots de trois lettres forms des lettres A et B}

Mais alors, la probabilit de p(AAA) est (2/3)3 tandis que la probabilit de BBB est (1/3)3 .
La probabilit que A lemporte est p(AAA) + 3p(AAB).
2. Certaines particules lmentaires sappellent des bosons (par exemple les photons, le noyau
de latome de Carbone, le noyau de latome dHlium) tandis que dautres sappellent des
fermions (par exemple les lections et les protons). Si lon considre p bosons pouvant occuper
n tats physiques
 discernables,
 la probabilit que le systme physique entier soit dans un tat
n+p1
donne est 1/ . Si lon considre p fermions pouvant occuper n tats physiques
p
 
n
discernables, la probabilit que le systme physique entier soit dans un tat donne est 1/ .
p
Si lon compare la situation combinatoire, ceci montre dune part que les bosons et les

9
fermions sont par nature indiscernables et dautre part que deux bosons ou plus peuvent
occuper le mme tat alors que deux fermions sont toujours dans des tats distincts.

2.3.3 La situation infinie dnombrable

Dans cette situation est infinie mais dnombrable. Les lments de peuvent donc tre identifis
si on le souhaite avec N. On prend pour T lensemble des parties de A. La probabilit p doit vrifier
lquation :
X
p(n) = p(0) + p(1) + p(2) + p(3) + = 1
n=0

En particulier, pour tout > 0, lensemble des tel que p() est fini. En effet, dans le cas
contraire, lingalit
N
X
p(n) |{0 N |p() }|
n=0

montre que la somme des p() de 0 N est plus grande que 1 pour N assez grand.

Exemples :

1. p(n) = e1 n!
1

2. Considrons la situation o un joueur lance une pice jusqu tomber sur pile et compte le
nombre de lancers quil doit faire. A priori, on ne peut exclure le fait que la pile ne tomber
jamais sur pile, et donc que le nombre de lancers sera infini. On peut modliser cette situation
en prenant p(n) = 1/2n et vrifier que la somme des probabilits est bien 1.
3. Plus gnralement, on peut associer une probabilit aux lments de N partir de toutes sries
(absolument) convergentes en normalisant la somme de la srie. Par exemple, la fonction p
dfinie par
p: N [0, 1]
(
0 si n = 0
n 7 6
2 n2 si n > 0

est une probabilit.

3 Probabilits conditionnelles
3.1 Fondations axiomatiques des probabilits conditionnelles
3.1.1 Dfinition

On considre un ensemble, T une tribu sur les parties de et p une probabilit sur T . Soit B
un vnement. Lensemble TB des parties de dfini par {A B|A T } est alors une tribu sur les
parties de B. Si de plus p(B) 6= 0, alors p(|B) dfinie par
p(|B) : TB R
p(A B)
A 7
p(B)

10
est une probabilit sur TB . On appelle la probabilit p(|B)la probabilit conditionnelle B. In-
tuitivement, elle mesure la probabilit quun vnement A se produise sachant que lvnement B
sest produit.

Exemples :

1. Quatre objets discernables sont placs dans quatre urnes discernables. Sachant que B les deux
premiers objets sont dans des urnes distinctes, calculons la probabilit que A trois objets soient
dans la mme urne (on suppose que tous les arrangements sont quiprobables). Trois objets
sont dans la mme urne si et seulement si les deux objets restants sont placs dans lurne du
premier objet ou dans lurne du deuxime objet. Deux rangements conviennent donc sur les
42 = 16 rangements possibles. La probabilit p(A|B) que trois objets soient dans la mme
urne est donc 1/8. Par ailleurs, p(B) est bien 3/4 et la probabilit de A B est bien 3/32.
2. Soit une famille ayant deux enfants. Sachant que B cette famille a un garon, quelle est la
probabilit que A les deux enfants soient des garons (on suppose que tous les arrangements
familiaux possibles sont quiprobables) ? Intuitivement, on a envie de rpondre que cette
probabilit est 1/2, car le sexe de lun des enfants na pas a priori dincidence sur le sexe
de lautre enfant. Nous allons voir que notre intuition nest pas bonne. En effet, p(B) =
3/4 et p(A B) = p(A) = 1/4. Donc p(A|B) = 1/3. Notre erreur provient du fait que
les trois rpartitions possibles des sexes de deux enfants ( savoir fille/fille, fille/garon et
garon/garon) ne sont pas quiprobables.

La formule p(A B) = p(A|B)p(B) permet de dduire la probabilit dune intersection de la


probabilit conditionnelle. Il est instructif de la gnraliser au cas dune intersection multiple.
p(A B C) = p(A (B C)) = p(A|B C)p(B C)
= p(A|B C)p(B|C)p(C)
Imaginons que C = C D dans les quations prcdentes. On obtient alors :
p(A B C D) = p(A (B C D)) = p(A|B C D)p(B C D)
= p(A|B C D)p(B|C D)p(C D)
= p(A|B C D)p(B|C D)p(C|D)p(D)
Et plus gnralement :
n
! n i1
\ Y \
p Ai = p(A1 ) p Ai | Aj (1)
i=1 i=2 j=1

3.1.2 Indpendance

Lorsque p(A|B) = p(A), on dit que les vnements A et B sont indpendants. Si p(A) 6= 0 et si A
et B sont indpendants, alors p(A|B) = p(AB) p(AB)
p(B) = p(A) donc p(B) = p(A) = p(B|A) donc B et
A sont indpendants. Lorsque deux vnements sont indpendants :
p(A B) = p(A)p(B)
Plus gnralement, si A1 , , An sont des vnements mutuellement indpendants, la formule (1)
donne : !
\n Yn
p Ai = Ai
i=1 i=1

11
Ces relations ne demeurent bien videmment pas vraies si A et B ne sont pas indpendants.

3.2 Deux thormes fondamentaux


3.2.1 Formule des probabilits totales

Thorme 1. Soit A un vnement et (Bi )1in une famille dvnements disjoints telle que
n
S
p( Bi ) = 1. Alors :
i=1
n
X
p(A) = p(A|Bi )p(Bi )
i=1

Dmonstration. Si i 6= j, alors Bi Bj = . Donc, (A Bi ) (A Bj ) = Donc :

p((A Bi ) (A Bj )) = p(A Bi ) + p(A Bj ) = p(A|Bi )p(Bi ) + p(A|Bj )p(Bj )

Soit C le complmentaire de lunion des Bi . Alors p(C) = 0. Donc :


n
[ n
[
p(A) = p((A C) (A Bi )) = p(A C) + p(A Bi )
i=1 i=1
n
X n
X
= p(A Bi ) = p(A|Bi )p(Bi )
i=1 i=1


Un cas frquent dapplication de ce thorme est celui o lon prend (Bi ) = (B, B).

3.2.2 Formule de Bayes

Thorme 2. Soit A et B deux vnements tels que p(A)p(B) 6= 0. Alors :

p(A|B)p(B) = p(B|A)p(A)

Dmonstration. En effet, les deux membres de lquation sont gaux p(A B).

Exemple : Chaque jour, la probabilit que le RER arrive en retard est de 1/4. Lorsque le RER
arrive en retard, un tudiant arrive en retard son cours avec une probabilit de 9/10. Lorsque
le RER arrive lheure, cet tudiant arrive en retard son cours avec une probabilit de 1/5.
Aujourdhui, ltudiant est arriv lheure. Quelle est la probabilit que le RER soit arriv en
retard ? Soit A lvnement ltudiant arrive lheure et B lvnement le RER arrive en retard.
Daprs lnonc, p(A|B) = 1/10, p(A|B) = 4/5 et p(B) = 1/4. Donc :

B)
p(A) = p(A|B)p(B) + p(A|B)p( = 1 1 + 43 = 5
10 4 5 4 8
Daprs la formule de Bayes :

p(B) 1 18 1
p(B|A) = p(A|B) = =
p(A) 10 4 5 25

12
3.3 Exemples
Prvalence dune allle rcessive dans une population htrozygote Dans une population,
environ 5% des hommes sont daltoniens. Supposons que le daltonisme soit li la prsence dune
certaine allle rcessive sur le chromosome X. Nous allons dterminer la prvalence de cette allle
parmi les chromosomes X de la population, en dduire la proportion des femmes touches par
le daltonisme, puis la proportion des personnes touches, et enfin la probabilit quune personne
daltonienne soit un homme. Notons H lvnement tre un homme, F lvnement tre une
femme, D lvnement tre daltonien, X1 lvnement porter lallle sur le premier chromosome
X et X2 lvnement porter lallle sur le second chromosome X. Alors p(D|H) = p(X1 |H) =
1/20. Il est raisonnable de considrer que les vnements X1 et H sont indpendants, que les
vnements X1 et F sont indpendants, que les vnements X1 F et X2 F sont indpendants
et enfin que la probabilit p(X2 F ) est gale p(X1 ).
Dans ces conditions, p(X1 ) = 1/20 et
p(X1 F X2 F )
p(D|F ) = p(X1 X2 |F ) =
p(F )
p(X1 F )p(X2 F ) p(X1 F )p(X1 )
= =
p(F ) p(F )
p(X1 )2 p(F ) 1
= = p(X1 )2 =
p(F ) 400
De plus :
p(D) = p(D|M )p(M ) + p(D|F )p(F )
donc p(D) = 20
800 + 1
800 = 21/800 et p(M |D) = p(D|M ) p(M )
p(D) donc p(M |D) =
5800
20021 = 20/21.

Contrle de qualit dans une chane de montage Une chane de montage est forme de trois
machines A, B et C. Elles produisent respectivement 25%, 35% et 40% de la production totale de
lusine. De plus, 5%, 4% et 2% de leur productions respectives prsentent un dfaut. Un objet est
choisi au hasard et lon constate quil est dfectueux. Quelle est la probabilit quil provienne de la
machine A ?
Daprs la formule des probabilits totales :
1 1 1 7 1 2
p(D) = p(D|A)p(A) + p(D|B)p(B) + p(D|C)p(C) = + + = 69/2000
20 4 25 20 50 5
Donc :
p(A) 1 2000
p(A|D) = p(D|A) = = 25/69 ' 36%
p(D) 20 69 4

Boite de chocolats Une boite de chocolat divise en 6 compartiments contient un nombre n


inconnu, mais compris entre 0 et 5, de chocolats. On suppose que toutes les valeurs possibles du
nombre de chocolat sont quiprobables et que toutes les rpartitions sont quiprobables. Vous vous
approchez du paquet pour prendre un chocolat dans le compartiment 1. Quelle est votre probabilit
dattraper effectivement un chocolat ? Juste avant de tendre la main, quelquun vous passe devant
et prend un chocolat dans le compartiment 1. Quelle est maintenant votre probabilit dattraper
un chocolat dans le compartiment 2 ?
On note i lvnement Il y a un chocolat dans le compartiment i et n lvnement Il y a n
chocolats dans la boite. Notons que par symtrie (ou par le calcul), la probabilit p(i) ne dpend

13
pas de i.
  une rpartition contenant n chocolat, la probabilit que le compartiment a soit plein
 Dans
5 6 2
/ . Donc la probabilit p(1) de trouver un chocolat dans le compartiment 1 est :
n1 n
5
X
p(1) = p(1|n)p(n)
n=0
 
5
5
X n1
=  
n=0 6
6
n
= 5/12 ' 0, 41

Calculons maintenant p(2|1). Dans une rpartition contenant


 n chocolats,
  la probabilit que les
4 6
deux compartiments 1 et 2 soient pleins est p(1 2|n) = / . Donc :
n2 n

p(1 2)
p(2|1) =
p(1)
 
4
5 12
X n2
=  
n=0 30
6
n
= 8/15 ' 0, 53

De faon peut tre contre-intuitive, voir quelquun manger un chocolat de la boite juste avant nous
augmente donc notre probabilit de manger un chocolat.

4 Variable alatoire
4.1 Dfinition
Une variable alatoire est une fonction dfinie sur un espace probabilis. Si X est une variable
alatoire valeurs dans un ensemble E dnombrable, alors la fonction

p(X = ) : E [0, 1]
xE 7 p(X = x)

est une fonction sur E valeurs dans [0, 1] que lon appelle la distribution de X. Si f est la
distribution dune variable alatoire X valeurs dans un ensemble E dnombrable, alors :
X
f (x) = 1
xE

Si X est une variable alatoire sur (, T, p) et si B T est de probabilit non-nulle alors X dfinit
par restriction (B, TB , p(|B)) une variable alatoire X|B sur (B, TB , p(|B)). La distribution de
X|B est p(X = |B).

2 On n
rappelle que le coefficient binomial est nul si p est strictement ngatif.
p

14
Soit X et Y deux variables alatoires sur (, T, p) valeurs dans E et F dnombrables. La
distribution jointe de X et de Y est la fonction

p(X = , Y = ) : EF [0, 1]
(x, y) E F 7 p(X = x Y = y)

La formule X
p(X = x) = p(X = x Y = y)
yF

montre que la distribution jointe de X et Y dtermine la distribution de X, et par symtrie celle de


Y . En revanche, la connaissance de la distribution de X et de celle de Y ne donne en gnral aucune
information sur la distribution jointe de X et Y . Soit F 0 le sous-ensemble {f F |p(Y = f ) > 0}.
La distribution conditionnelle de X connaissant Y est la fonction

p(X = |Y = ) : E F0 [0, 1]
0
(x, y) E F 7 p(X = x|Y = y)

Lorsque p(X = |Y = ) est gal la fonction p(X = )p(Y = ), on dit que les variables alatoires
X et Y sont indpendantes.

Exemples :

1. On lance 3 ds six faces. Soit = {1, , 6}3 . Les valeurs D1 , D2 et D3 obtenues sur
chaque d sont des variables alatoires sur lespace probabilis (, P(), p) valeurs dans
{1, , 6}. Les trois distributions de ces variables vrifient f (i) = 1/6 et sont donc gales.
La variable alatoire S = D1 + D2 + D3 est valeur dans {3, , 18}. La variable alatoire
Q = D1 /D2 est valeur dans [0, 6] (par exemple) mais sa distribution g vrifie g(x) = 0 si x /
{a/b|(a, b) {1, , 6}}. La variable alatoire N gale au nombre de 6 obtenus est valeurs
dans {0, 1, 2, 3}. Les variables alatoires D1 et D2 sont indpendantes tandis que les variables
alatoires S et N ne le sont pas : p(S = 18|N = 3) = 1 alors que p(S = 18)p(N = 3) = 1/69 .
2. Un tudiant estime avoir neuf chances sur dix dobtenir la moyenne chacun de ces 5 examens.
Le nombre dexamen o il aura effectivement obtenu la moyenne est une variable alatoire
X sur ( = {0, 1}5 , P(), p) valeurs dans {0, , 5}. Elle vrifie p(X = 0) = 1/105 et
p(X 3) ' 99%.
3. Chaque anne, un conducteur une probabilit x davoir un accident. La fonction X donnant
le nombre dannes avant son prochain accident est une variable alatoire sur (N, P(N), p). Ici,
on ne prcisera pas ce quest la probabilit p ; ce serait possible mais assez dlicat. Lvnement
X = k signifie que le conducteur na pas eu daccidents pendant k 1 anne puis quil a eu
un accident lanne k. Donc p(X = k) = (1 x)k1 x.

4.2 Lois fondamentales


4.2.1 Loi quirpartie

On dit quune variable X suit la loi quirpartie si X est valeur dans un ensemble fini de cardinal
n et si p(X = x) = 1/n.

15
4.2.2 Tirage de Bernoulli

On dit quune variable X suit la loi B(p) de tirage de Bernoulli de paramtre p si X est valeur
dans {0, 1} et si p(X = 1) = p.

4.2.3 Loi binomiale

On dit quune variable X suit la loi binomiale B(n, p) de paramtres n et p si X est valeur dans
{0, n} et si :  
n s
p(X = s) = p (1 p)ns
s
On remarque que la loi B(p) est la loi B(1, p) et que X suit la loi B(n, p) lorsque X compte le
nombre de succs (identifi avec la valeur 1) dans une rptition de n tirages de Bernoulli.

4.2.4 Loi gomtrique

On dit quune variable X suit la loi gomtrique G(p) de paramtre p si X est valeur dans N
et si p(X = n) = (1 p)n1 p. On remarque que X suit la loi gomtrique lorsque X compte le
nombre dessais avant le premier succs dans une rptition de tirages de Bernoulli.

4.2.5 Loi de Poisson

On dit quune variable X suit la loi de Poisson P () de paramtre si X est valeur dans N et si :

n
p(X = n) = e
n!

4.2.6 Loi hypergomtrique

On dit quune variable X suit la loi hypergomtrique H(N, n, p) de paramtres N , n et p si X est


valeur dans {0, n} et si :   
n N n
s Np s
p(X = s) =  
N
Np
Considrons un tirage (sans remise) de n boules dune urne contenantN boules, Nr = N p tant
N
rouges et Nn = N (1 p) tant noires. Le nombre de tels tirages est . Soit P le nombre de
n
tels tirages contenant exactement s boules rouges. Un tel tirage contient exactement n s boules
noires choisies parmi N (1 p) et s boules rouges choisies parmi N p. Donc
  
Np N (1 p)
P =
s ns

16
et la probabilit quun tirage comporte exactement s boules rouges est :
  
Np N (1 p)
s ns Nr !Nn !n!(N n)!
p=   =
N s!(Nr s)!(n s)!(Nn n + s)!N !
n
n! (N n)! Nr !
=
s!(n s)! (Nr s)!(N n Nr + s)! N !(Nr s)!
  
n N n
s Np s
=  
N
Np
On remarque donc que X suit la loi H(N, n, p) lorsque X compte le nombre de boules rouges tires
dans un tirage (sans remise) de n boules dune urne contenant N boules, N p tant rouges.

4.3 Esprance, variance


4.3.1 Esprance

Soit X une variable alatoire valeurs dans R. Lesprance de X est dfinie par
X
E(X) = xp(X = x) (2)
xR

lorsque la somme prcdente est convergente. Lesprance est en particulier bien dfinie lorsque
la variable alatoire X est valeurs dans un ensemble fini avec probabilit 1. En effet, la somme
(2) devient dans ce cas une somme finie. La dfinition montre galement quune variable alatoire
constante est gale son esprance et rciproquement quune variable alatoire est gale son
esprance si elle est constante avec probabilit 1. Il est usuel dinterprter lesprance de X comme
la valeur moyenne de X mais il nest pas si facile de donner un sens prcis cette assertion.
Thorme 3. Soit X, Y deux variables dont les esprances sont dfinies. Alors E(X +Y ) est dfinie
et E(X + Y ) = E(X) + E(Y ).

Dmonstration.
X
E(X + Y ) = (x + y)P (X = x Y = y)
(x,y)R2
X X
= xP (X = x Y = y) + yP (X = x Y = y)
(x,y)R2 (x,y)R2
X X X X
= x P (X = x Y = y) + y P (X = x Y = y)
xR yR yR xR

Or : X X
P (X = x Y = y) = P (X = x), P (X = x Y = y) = P (Y = y)
yR xR
Donc :
E(X + Y ) = E(X) + E(Y )

17
Lesprance est donc linaire, ce qui signifie que E(aX + bY ) = aE(X) + bE(Y ) pour tous rels
a, b et toutes variables alatoires X, Y .

4.3.2 Covariance, variance

Soit X et Y deux variables alatoires telles que X 2 et Y 2 aient une esprance. La covariance de X
et de Y est alors lesprance de (X E(X))(Y E(Y )). Soit :
Cov(X, Y ) = E ((X E(X)(Y E(Y ))))
Par additivit de lesprance, la covariance de X et Y est aussi E(XY )E(X)E(Y ). En particulier,
si X et Y sont indpendantes alors Cov(X, Y ) = 0. La rciproque nest pas vraie en gnral : il
existe des variables alatoires de covariance nulle et qui ne sont pas indpendantes. La covariance de
X avec elle-mme sappelle la variance et est note Var(X). Par additivit de lesprance, Var(X)
est gale E(X 2 ) E(X)2 .
Par dfinition, la variance est lesprance dune variable alatoire positive ou nulle donc est
positive ou nulle. Ceci montre que E(X 2 ) E(X)2 . En cas dgalit, la variable alatoire (X
E(X))2 est nulle donc X est gale son esprance avec probabilit 1, ou de manire quivalente,
X est constante avec probabilit 1.
Thorme 4. Soit X1 , , Xn des variables alatoires dont les variances sont dfinies. Soit Sn la
somme des Xs . Alors :
Xn X
Var(Sn ) = Var(Xs ) + 2 Cov(Xs , Xt )
s=1 s<t

En particulier, si les Xs sont mutuellement indpendantes, alors :


n
X
Var(Sn ) = E(Xs2 )
s=1

Dmonstration. En effet :
n n
!2
X X
E(Sn ) = E(Xs ), (Sn E(Sn ))2 = (Xs E(Xs ))
s=1 s=1

Donc :
n
X X
(Sn E(Sn ))2 = (Xs E(Xs ))2 + 2 (Xs E(Xs ))(Xt E(Xt ))
s=1 s<t

En prenant les esprances des deux cts de lquation prcdente, on obtient la premire assertion.
La seconde sen dduit car la covariance de deux variables alatoires indpendantes est nulle.

La variance nest pas linaire. Le thorme prcdent montre que Var(aX + b) = a2 Var(X).

4.3.3 Coefficient de corrlation

La formule Cov(aX, aY ) = a2 Cov(X, Y ) montre que la variance dune variable alatoire corres-
pondant une grandeur physique ayant une unit dpend du choix de lunit. Pour viter, cet effet
fcheux, il est commode dintroduire le coefficient de corrlation Cor(X, Y ) dfini par :
Cov(X, Y )
Cor(X, Y ) = p
Var(X) Var(Y )

18
Alors Cor(aX + b, cY + d) = Cor(X, Y ). Si X et Y sont des variables alatoires indpendantes,
alors Cor(X, Y ) = 0. Notons que la rciproque nest pas vraie : si Cor(X, Y ) = 0, tout ce que lon
peut conclure est que lune des variables nest pas une fonction linaire de lautre. Dun point de
vue scientifique, il est galement important de distinguer corrlation et explication : par exemple,
la consommation mensuelle de glaces est fortement corrle la frquence des accidents davions
lis aux oiseaux dans les aroports franais sans pour autant que lon puisse supposer que ce sont
les glaces qui provoquent des accidents davions ou rciproquement que les accidents davions font
acheter des glaces. La raison est tout simplement que les gens mangent plus de glaces lt et quil
y a plus doiseaux en France lt que lhiver.

4.4 Esprance et variance des lois fondamentales


4.4.1 Loi quirpartie

Soit X suivant la loi quirpartie valeurs dans {1, , n}. Alors :


n n
X 1X n+1
E(X) = s p(X = s) = s=
s=1
n s=1
2

Ceci montre que si les correcteurs notaient au hasard entre 0 et 20, alors les candidats pourraient
esprer obtenir la moyenne leurs examens (lesprance de la variable alatoire N qui reprsente
la note tant alors en effet gale 10).
La variance de X est dfinie par :
n  2
2 1X 2
2 n+1 (n + 1)(n 1)
Var(X) = E(X ) E(X ) = s =
n s=1 2 12

4.4.2 Tirage de Bernoulli

La dfinition montre directement que lesprance dun tirage de Bernoulli est p et que la variance
dun tirage de Bernoulli est p(1 p).

4.4.3 Loi binomiale

Soit X suivant la loi binomiale. Par dfinition :


n  
X n s
E(X) = s p (1 p)ns
s
s=0

On peut calculer lesprance de X en valuant cette somme (par exemple en reconnaissant la somme
dune drive et dune srie binomiale). Il est nanmoins beaucoup plus ais de remarquer que X
est la somme de n tirages de Bernoulli. Donc E(X) = np daprs le thorme 3. De mme :
n  
X n s
Var(X) = s2 p (1 p)ns n2 p2
s
s=0

A nouveau, on peut valuer cette somme (par exemple en reconnaissant une combinaison linaire
dune drive seconde, dune drive premire et dune srie binomiale). Il est nanmoins beaucoup

19
plus ais dappliquer le thorme 4. Les tirages de Bernoulli tant indpendants, on obtient ainsi :
n
X
Var(X) = Var(Xs ) = np(1 p)
s=0

4.4.4 Loi gomtrique

Soit X suivant la loi gomtrique G(p) de paramtre p. Calculons lesprance (en la considrant
implicitement comme une fonction de p) :

!0
X X
s1 s
E(X) = s(1 p) p = p (1 p)
s=1 s=1
 0
1 1
= p =
p p

Le calcul de la variance est similaire mais un peu plus complexe :



X
X
X
E(X 2 ) = s2 (1 p)s1 p = p s(s 1)(1 p)s1 + p (1 p)s1
s=1 s=1 s=1
 00
1 1 2p
= p(1 p) + =
p p p2

Donc :
1p
Var(X) =
p2

4.4.5 Loi de Poisson

Soit X une variable suivant la loi de Poisson P(). Alors :



X X n
E(X) = np(X = n) = ne
n=0 n=0
n!

!
n1

X d X n
= e n = e
n=0
n! d n=0
n!
d
= e (e ) =
d
Ce rsultat nous permets de dcrire beaucoup de variables alatoires suivant la loi de Poisson. Soit
M un phnomne alatoire qui a les caractristiques suivantes :

1. Une occurrence de M peut intervenir tout moment.


2. Toutes les occurrences de M sont indpendantes.

3. Lesprance du nombre doccurrences de M pendant un intervalle de temps de longueur t est


gale t.

20
Soit X la variable alatoire qui compte le nombre doccurrences de M pendant un intervalle donn
de longueur 1. Nous allons montr que X suit la loi de Poisson P(). Considrons en effet un
autre variable alatoire Y comptant le nombre doccurrences dun processus N vrifiant les mmes
proprits que M . Soit un intervalle de temps de longueur 1. Supposons que le nombre totale
n
doccurrences de M et N soit gal
 n pendant cet intervalle. Il existe alors 2 distributions distinctes
n
des occurrences de M et N et distributions distinctes ayant exactement s occurrences de M .
s
Donc :  
1 n
p(X = s|X + Y = n) = n
2 s
Or :
p(X = s Y = n s)
p(X = s|X + Y = n) = p(X = s Y = n s|X + y = n) =
p(X + Y = n)

Les variables X et Y sont indpendantes donc :

p(X = s)p(Y = n s)
p(X = s|X + Y = n) =
p(X + y = n)

Donc :  
p(X + Y = n) n
p(X = s)p(Y = n s) =
2n s
Appliquons lquation prcdente s = 0 et s = 1. Alors :

p(X + Y = n) np(X + Y = n)
p(X = 0)p(Y = n) = n
, p(X = 1)p(Y = n 1) =
2 2n
Donc :
p(X = 0)p(Y = n) 1
=
p(X = 1)p(Y = n 1) n
Soit encore :
1 p(X = 1)
p(Y = n) = p(Y = n 1)
n p(X = 0)
Notons = p(X = 1)/p(X = 0). Alors :

n
p(Y = n) = p(Y = n 1) = p(Y = 0)
n n!
La somme des probabilits doit tre gales 1 donc :

X X n
p(Y = n) = p(Y = 0) = p(Y = 0)e = 1
n=0 n=0
n!

Soit encore :
n
p(Y = 0) = e , p(Y = n) = e
n!
La variable alatoire Y suit donc la loi de Poisson P(). De plus, elle est desprance par hypothse.
Donc = . Par symtrie, la variable alatoire suit galement P(). Le calcul ci-dessus montre
galement que si X1 et X2 suivent toutes les deux des lois de Poisson de paramtres respectifs 1 et
2 et si X1 et X2 sont indpendantes, alors X1 + X2 suit la loi de Poisson de paramtre P(1 + 2 ).

21
Calculons maintenant E(X 2 ).

X s X s
E(X 2 ) = e s2 = e s
s=0
s! s=1
(s 1)!

X s X s
= e (s 1) + e
s=1
(s 1)! s=1
(s 1)!

2
X s2 X s1
= e + e
s=2
(s 2)! s=1
(s 1)!
= 2 +

Donc Var(X) = .

4.4.6 Loi hypergomtrique

Soit X une variable suivant la loi hypergomtrique H(N, n, p). On peut interprter X comme le
nombre de boules rouges tires dans un tirage de n boules rouges ou blanches (sans remplacement).
Donc X est la somme des variables alatoires Xs telles que Xs = 0 si la boule s nest pas rouge
et Xs = 1 si la boule s est rouge. Les boules jouant toutes le mme rle, les variables Xs suivent
toutes la mme loi. Fixer s = 1 montre que cette loi est un tirages de Bernoulli. Donc :
r rb
E(Xs ) = = p, Var(Xs ) = = p(1 p)
r+b (r + b)2

Donc E(X) = np. La variable alatoire Xs Xt est un tirage de Bernoulli de probabilit de succs
r(r 1)/(r + b)(r + b 1). Donc :

rb
Cov(Xs , Xt ) =
(r + b)2 (r
+ b 1)

Et :  
n1
Var(X) = np(1 p) 1
N 1
On remarque donc quun tirage sans remplacement la mme esprance et une variance plus faible
quun tirage avec remplacement.

4.5 Paradoxe du temps dattente


4.5.1 Motivation et formalisation

Un RER arrive en moyenne toutes les 6 minutes. Si lon arrive au hasard sur le quai du RER,
combien de temps va-t-on attendre en moyenne ? La rponse cette question est contre-intuitive
et un peu dprimante : au minimum 3 minutes, et parfois bien plus. Nous verrons que dans certain
cas, tout se passe comme si arriver au hasard sur le quai du RER revenait arriver juste aprs le
dernier passage.
Formalisons le problme de la manire suivante. Larrive du i-me RER est un vnement
alatoire Xi et on note Li la variable alatoire Xi+1 Xi . On suppose que toutes les variables Li
suivent la mme loi L et on suppose que Var(L) existe. Lassertion comme quoi un RER passe en
moyenne toutes les n minutes est lassertion que E(L) = n. On note As,n lvnement arriver sur

22
le quai dans la subdivision [s, s + 1] dun intervalle de longueur n sachant que lon sait que cet
intervalle est de longueur n. Lhypothse darrive au hasard sur le quai signifie que la probabilit
de As,n ne dpend pas de s. Soit T le temps dattente. On suppose pour simplifier que T |As,n est
n s 1/2 (alternativement, on pourrait considrer les vnements Ax,n arriver en x [0, n] et
poser T |Ax,n = n x ; les deux modlisations donnent le mme rsultat). On cherche calculer
E(T ).

4.5.2 Deux exemples

Supposons tout dabord que la variable alatoire L soit constante. Sa valeur est alors gale n. La
variable alatoire T suit alors la loi quirpartie sur {1/2, 3/2 , n 1 1/2, n 1/2} donc son
esprance est n/2.
Supposons maintenant que la variable alatoire L suive la loi gomtrique G(p) ; ce qui serait
le cas si au lieu dattendre le RER, on attendait le premier face dans une srie de pile ou face en
arrivant au hasard au milieu dune srie de lancers. Alors, au facteur 1/2 de normalisation prs, T
suit galement la loi gomtrie G(p) donc E(T ) = 1/p 1/2 = E(L) 1/2. Dans ce cas, on voit
quen arrivant au hasard, tout se passe comme si on venait de rater le dernier RER.

4.5.3 Cas gnral

Voici comment procder en gnral. Soit I la variable alatoire dfinie par la longueur de lintervalle
entre la dernire et la prochaine occurrence de X observe par lobservateur. La cl du problme est
de comprendre que I ne suit pas la mme loi que L. En effet, si p(L = `1 ) = p(L = `2 ) avec `1 < `2 ,
alors p(I = `1 ) p(I = `2 ) car un observateur arrivant au hasard a plus de chance darriver dans
un intervalle plus long que dans un intervalle plus court. Formellement, I est une variable alatoire
donc est une fonction :
I: (, , p) (N, P(N), p0 )
e 7 I(e) = n
Donc :
1 X np(L = n)
p(I = n) = p0 ({n}) = np(x) =
E(L) E(L)
xI 1 (n)

Lobservateur arrivant au hasard donc le temps dattente sachant que lintervalle observe est de
longueur n est quirpartie. Donc, pour 0 s n 1 et t = s + 1/2
1
p(T = t|I = n) =
n
Donc :
X p(L = n)
p(T = t) =
E(L)
nt

Et donc :
X n1
X p(L = n) 1 XX 1
E(T ) = t = (s + )p(L = n)
t=0
E(L) E(L) n=1 s=0
2
nt

1 X n2 E(L2 )
= p(L = n) =
E(L) n=1 2 2E(L)

23
Comme Var(L) = E(L2 ) E(L)2 :
 
E(L) Var(L)
E(T ) = 1+
2 E(L)2

4.5.4 Conclusion et applications

Le temps dattente observe est toujours suprieur E(L)/2 et lgalit est ralise si et seulement
si L est de variance nulle, donc constante. A esprance gale, mieux vaut toujours avoir une va-
riance faible si lon veut viter dattendre. Lorsque L suit la loi gomtrique, on retrouve bien que
lesprance du temps dattente est gale lesprance de la longueur de lintervalle entre deux RER
moins 1/2. Lorsque L suit la loi de Poisson, lesprance du temps dattente est mme gal les-
prance de la longueur de lintervalle entre deux RER. Dans ce cas, arriver au hasard revient donc
systmatiquement voir les portes se fermer juste devant soi. Le fait que le temps dattente soit
toujours suprieur lesprance du temps entre deux occurrences a des consquences importantes
en pratique. Tout dabord, cela explique pourquoi nous avons du mal croire la RATP quand elle
affirme quil y a un RER toutes les 10 minutes aux heures de pointe. En effet, nous avons tendance
croire que cela signifie que nous attendrons alors en moyenne cinq minutes et nous venons de voir
quil nen est rien. Ensuite, si au lieu dimaginer quelquun en train dattendre son RER, on imagine
quelquun qui mesure la fiabilit dune installation. Attendre le prochain incident et multiplier par
deux surestimera la fiabilit du rseau ; ce qui est bien videmment dommageable pour la scurit
de linstallation. Par exemple, si au moment de souscrire votre police dassurance, vous attendez
votre prochain accident puis vous multiplier le temps dattente par deux pour estimer combien
daccidents vous aurez en moyenne par an, vous souscrirez une assurance qui ne vous protgera
pas assez. Dans la mesure o beaucoup daccidents suivent la loi de Poisson, vous risquez mme de
prendre une police dassurance 2 fois trop laxiste.

4.6 Exercices
4.6.1 Lois binomiales itres

nonc Supposons donne une exprience dont le nombre de succs suit la loi binomiale B(n, p).
Lobjectif de cet exercice est de dterminer la loi suivie par le nombre de succs si lon rpte
lexprience pour les instances dchecs de la premire exprience.
Un groupe de n candidats passent un examen. Pour chacun dentre eux, la probabilit de russir
est p = 1/2 et celle dchouer est q = 1 p. Soit X1 la variable alatoire qui compte le nombre de
candidats reus.

1. Quelle est la loi de X1 et quelle est son esprance ?

Les candidats ayant chous peuvent passer une session de rattrapage. On note X2 le nombre de
succs dans la session de rattrapage.

2. (a) Montrer que si 0 r n s, on a :


 
n s r nsr
p(X2 = r|X1 = s) = p q
r

(b) Montrer lgalit :      


ns n nr n
= (3)
r s s r

24
(c) Montrer que :
nr
X
p(X2 = r) = p(X2 = r|X1 = s)p(X1 = s)
s=0

(d) Dduire de la question prcdente et de lquation (3) que X2 suit la loi binomiale
B(n, pq).
3. En dduire la loi suivie par le nombre de succs dans 3 itrations de ce procd, puis par s
itrations.

Correction

1. La variable alatoire X1 suit la loi binomiale B(n, p). Donc E(X1 ) = np.

2. (a) Le nombre de succs obtenus lorsque lon ralise n s tirages de Bernoulli indpendants
suit  binomiale de paramtres B(n s, p). La probabilit dobtenir r succs est donc
 la loi
n s r nsr
p q .
r
(b) Le terme de gauche de lquation est le nombre de couples (a, b) o a est un choix de s
lments parmi n et b un choix de r lments parmi les n s restants. Le terme de droite
de lquation est le nombre de couples (b, a) o b est un choix de r lments parmi n et
a un choix de s lments parmi les n r restants. Lapplication (a, b) 7 (b, a) est une
bijection entre ces deux ensembles donc ces deux nombres sont gaux. Alternativement,
on peut utiliser la dfinition :
  
ns n (n s)! n! n!
= =
r s r!(n s r)! s!(n s)! s!r!(n r s)!
  
(n r)! n! nr n
= =
s!(n r s)! r!(n r)! s r

(c) Si X2 = r, alors {X1 = s}s=0,1,...,nr est un systme complet dvnements. On applique


alors le thorme des probabilits totales pour obtenir lgalit demande.
(d) On a :
nr
X
p(X2 = r) = p(X2 = r|X1 = s)p(X1 = s)
s=0
nr
X   
n s r nsr n s ns
= p q p q
s=0
r s
nr
X n rn
= pr+s q 2n2sr
s=0
s r
  nr
X n r 
n r
= (pq) ps (q 2 )(nr)s
r s=0
s
 
n
= (pq)r (p + q 2 )nr
r

25
Or pq + p + q 2 = (p + q)q + p = p + q = 1. Si p2 = pq, on a donc bien :
 
n r
p(X2 = r) = p (1 p2 )nr
r 2
Ainsi, la variable alatoire X2 suit la loi binomiale B(n, pq). Alternativement, on peut
remarquer que X2 compte le nombre de succs dans n tirages de Bernoulli indpendants
pour lesquels le succs est dfini par la combinaison chec/russite dans deux passages
dexamens successifs, et donc dont la probabilit de succs est pq.
3. La variable alatoire X3 compte le nombre de succs dans n tirages de Bernoulli indpendants
pour lesquels le succs est dfini par la combinaison chec/chec/russite et sui donc la loi
binomiale B(n, p(1 p)2 ). Par le mme raisonnement, la variable alatoire Xs suit la loi
binomiale B(n, p(1)s1 ).

4.6.2 Variance des lois binomiales pondres

nonc Lobjectif de cet exercice est de dmontrer que parmi les variables alatoires comptant le
nombre de succs dans n tirages de Bernoulli indpendants et desprance np, cest la loi binomiale
(correspondant donc au cas o les tirages ont tous la mme probabilit de succs) qui a la plus
grande variance.
Soit X1 , X2 , , Xn des tirages de Bernoulli indpendants tels que la probabilit de succs de
Xi soit pi . Soit S la variable alatoire gale la somme des Xi .

1. Calculer lesprance de S.
2. Calculer la variance de S.
3. Soit 0 p 1. Parmi toutes les distributions de pi telles que
n
X
pi = np
i=1

quelle est celle telle que la variance de S soit maximale ?

Correction

1. Lesprance de Xi est gale pi donc :


n
X n
X
E(S) = E(Xi ) = pi
i=1 i=1

2. Les variables alatoires Xi sont indpendantes donc :


n
X n
X n
X n
X
Var(S) = Var(Xi ) = pi (1 pi ) = pi p2i
i=1 i=1 i=1 i=1

3. Daprs la question prcdente, la distribution des pi maximisant la variance de S est celle


qui minimise la somme des p2i sous la condition que :
n
X
pi = np
i=1

26
Posons di = pi p. Alors :
n
X
di = 0
i=1
n n
p2i signifie minimiser minimiser (di + p)2 et ceci est quivalent minimiser
P P
Minimiser
i=1 i=1
n
(di + p)2 np2 car np2 est constant. Or :
P
i=1

n
X n
X n
 X
(di + p)2 np2 = (di + p)2 p2 = d2i + 2pdi

i=1 i=1 i=1
n
X
= d2i
i=1

Cette dernire somme tant une somme de termes positifs, elle est minimale si et seulement
tous les di sont nuls. La variance de S est donc maximale lorsque tous les pi sont gaux
p et donc quand S suit la loi binomiale de paramtres B(n, p). Combin avec les rsultats
du paradoxe du temps dattente, cet exercice suggre que lUnivers fait tout pour que nous
arrivions le plus en retard possible (en effet, le retard dun RER, et donc la variance de
lintervalle entre deux RER peut tre modlis de manire raliste par une srie de tirages de
Bernoulli reprsentant chacun la possibilit dun incident entranant un retard ; une quipe de
maintenance va naturellement se concentrer sur les incidents les plus frquents et entranant les
retards les plus importants, ce qui aura pour tendantiellement leffet dgaliser les esprances
des tirages de Bernoulli, donc de maximiser la variance et donc de maximiser lesprance du
temps dattente).

4.6.3 Loi darrt pile ou face

nonc Lobjectif de cet exercice est de dmontrer que si lon ralise une srie de lancers pile
ou face, le fait de sarrter alatoirement ou de sarrter ds que lon a obtenu un face ne change
ni lesprance du nombre de piles, ni lesprance du nombre de faces, ni lesprance du nombre
de lancers. En revanche, cela change radicalement lesprance de la proportion du nombre de piles
parmi tous les lancers.
Un joueur lance une pice quilibre. Aprs chaque lancer, il dcide alatoirement de relancer la
pice avec une probabilit p = 1/2 ou de sarrter avec la mme probabilit. On appelle un tirage la
donne dune suite de piles et de faces obtenue par le lanceur jusqu ce quil sarrte. La longueur
dun tirage est le nombre de lancers effectus. On considre lespace probabilis (, P(), p) o
est lensemble des tirages possibles. On admettra que sous ces conditions, la probabilit dobtenir
un certain tirage ne dpend que de la longueur de ce tirage et que la probabilit dobtenir un tirage
de longueur n 1 est gale 22n . On note P la variable alatoire gale au nombre de piles quil a
obtenus, F la variable alatoire gale au nombre de faces obtenues, N = P + F la variable alatoire
gale au nombre de lancers effectus.

1. Vrifier que p est bien une probabilit.


2. Quelle est la loi suivie par la variable alatoire N ? Quelle est son esprance ?

3. Soit n 1 un entier. Quelle est la loi suivie par la variable alatoire P |(N = n) ? Que vaut
E(P |N = n) ?

27
4. Soit s 0 un entier. Montrer que :
X
p(P = s) = p(P = s|N = n)p(N = n)
n0

5. Calculer E(P ) (ou pourra ou bien utiliser la formule des probabilits totales pour relier p(P =
x) E(P |N = n) ou bien calculer dabord E(P + F )).
6. Montrer que :
  X n  
P X s P s X 1
E = p = |N = n p(N = n) = p(N = n) E(P |N = n)
N n=1 s=0
n N n n=1
n

7. En dduire que :  
P 1
E =
N 2

On suppose maintenant que le joueur jette le d jusqu obtenir un face, aprs quoi il sarrte. On
note P 0 , F 0 et N 0 le nombre de piles, le nombre de faces et le nombre total de lancers.

8. Quel est la loi suivie par F 0 ? Quelle est lesprance de F 0 ?


9. Quel est la loi suivie par N 0 ? Quelle est lesprance de N 0 ?

10. En dduire lesprance de P 0 .


 0
P
11. Montrer que lesprance E N 0 vaut environ 30, 6%.

12. Deux joueurs lancent leurs pices cte cte. Le premier suit la premire rgle, le second la
deuxime.
a) Si le vainqueur est celui qui obtient le plus de piles, qui a le plus de chance de lemporter ?
b) Si le vainqueur est celui qui obtient le plus de faces, qui a le plus de chance de lemporter ?
c) Si le vainqueur est celui qui obtient la plus grande proportion de piles, qui a le plus de
chance de lemporter ?

Correction

1. Il suffit de vrifier que :


X X
p(T ) = p(T de longueur n) = 1
T tirages possibles n1

2. La variable alatoire N compte le nombre dessais avant dobtenir un succs dans une rp-
tition de tirages de Bernoulli. Elle suit donc la loi gomtrique G(p). Son esprance est donc
1/p, soit 2.
3. La variable alatoire P |(N = n) compte le nombre de pile dans n rptition dun tirage de
Bernoulli. Elle suit donc la loi binomiale B(n, p) et son esprance est np soit n/2.

28
4. Soit s 0 un entier. La formule des probabilits totales applique la partition de donne
par les sous-ensembles vrifiant N = n donne :
X
p(P = s) = p(P = s|N = n)p(N = n)
n0

5. Nous donnons deux solutions. Les variables alatoires P et F jouent le mme rle dans lnonc
donc E(N ) = E(P + F ) = E(P ) + E(F ) = 2E(P ). Donc E(P ) = 1.
Alternativement :

X X
X
E(P ) = xp(P = x) = xp(P = x|N = n)p(N = n)
x=0 x=0n=1
X n
X
X
= p(N = n) xp(P = x|N = n) = p(N = n)E(P |N = n)
n=1 x=0 n=1

X n X n
= p(N = n) =
n=0
2 n=0
2n+1
=1

6.
  X s P  X X n  
P s s P s
E = p = = p = |N = n p(N = n)
N n N n n=1 s=0
n N n
s/nR

X 1
= p(N = n) E(P |N = n)
n=1
n

7. Daprs la question prcdente :


  X
P 1 X 1n 1X 1 1
E = p(N = n) E(P |N = n) = p(N = n) = n
=
N n=1
n n=1
n2 2 n=1 2 2

8. La variable alatoire F 0 est constante gale 1. Son esprance est donc 1.


9. La variable alatoire N 0 compte le nombre dessais avant un succs dans une rptition de
tirages de Bernoulli. Elle suit donc la loi gomtrique G(1/2). Son esprance est donc 2.
10. Lesprance est additive donc E(N 0 ) = E(P 0 + F 0 ) = E(P 0 ) + E(F 0 ) = 1 + E(P 0 ). Donc
E(P 0 ) = 1.
11. Dans un lancer du joueur 2, N 0 est gale P 0 + 1. Donc :
 0 X  0  X
P n P n n
E = p = = p(N 0 = n + 1)
N0 n=0
n + 1 N 0 n + 1 n=0
n + 1

X n
= = 1 log(2) ' 30, 6%
n=0
2n+1 (n + 1)

12. a) Lesprance de P est gale lesprance de P 0 . Les deux joueurs ont donc autant de
chance de lemporter lun que lautre.

29
b) Lesprance de F est gale lesprance de F 0 . Les deux joueurs ont donc autant de
chance de lemporter lun que lautre.
 0
P P

c) En revanche, E N = 1/2 tandis que E N 0 ' 0, 36. Il est donc trs nettement avan-
tageux de parier sur le premier joueur.

30

También podría gustarte