14 Variables Aleatoires Discretes
14 Variables Aleatoires Discretes
14 Variables Aleatoires Discretes
I - Généralités
1) Définition et exemples
Définition : Soit (Ω, A , P ) un espace probabilisé. Une variable aléatoire est une
application de Ω dans R telle que, pour tout intervalle I de R, l’ensemble
X −1 ( I ) = {ω ∈ Ω / X (ω) ∈ I } soit un événement, c’est-à-dire appartienne à A .
Si A = P (Ω) , toute application de Ω dans R est une variable aléatoire.
C’est en particulier le cas lorsque Ω est un ensemble fini ou infini dénombrable.
Exemple 1 : Dans un sac qui contient 4 jetons numérotés 0, 1, 2 et 3, on tire
successivement (sans remise) deux jetons et X est la somme des deux numéros
obtenus. Ω est l’ensemble des couples ω = (a, b) tels que a et b appartiennent à
{0 ,1, 2 , 3} avec a ≠ b . Et X est l’application qui au couple ω = (a, b) associe le réel
X (ω) = a + b .
Exemple 2 : Dans une urne qui contient 5 boules blanches et 5 boules rouges, on tire
simultanément 3 boules et X est le nombre de boules rouges obtenues. Ω est
l’ensemble des poignées (non ordonnées) de 3 boules. Et X est l’application qui à
chaque poignée ω associe le nombre (réel) X (ω) de boules rouges qu’elle contient.
Exemple 3 : Dans une urne qui contient 2 boules blanches et 1 boule rouge, on tire
successivement 3 boules (avec remise) et X est le nombre de boules rouges obtenues.
Ω est l’ensemble des triplets (donc ordonnés) de boules. Et X est l’application qui à
chaque triplet ω associe le nombre (réel) X (ω) de boules rouges qu’il contient.
Exemple 4 : Dans une urne qui contient 2 boules blanches et 1 boule rouge, on fait des
tirages successifs avec remise d’une boule et X est le rang de la première boule rouge
tirée. Ω est l’ensemble des suites infinies de couleurs B ou R, comme
ω = BBRBRR… C’est un ensemble infini dénombrable. Et X est l’application qui à
chaque suite infinie ω associe le rang (réel) X (ω) du premier R qu’elle contient.
Exemple 5 : On lance trois dés honnêtes. Si l’on obtient 1 six, on gagne 1€. Si l’on
obtient 2 six, on gagne 2€. Si l’on obtient 3 six, on gagne 3€. Si l’on n’obtient aucun
six, on perd 1€. Ω est l’ensemble des triplets ω = (a, b, c) obtenus où a, b et c
appartiennent à {1, 2 , 3 , 4 , 5 , 6}. Et X est l’application qui à tout triplet ω = (a, b, c)
associe le gain algébrique (réel) X (ω) défini précédemment.
2) Univers image
On détermine alors toutes les valeurs prises par la variable aléatoire X.
Définition : Si X est une variable aléatoire discrète définie sur un espace probabilisé
(Ω, A , P ) , alors l’univers image de X est l’ensemble de toutes les valeurs prises par
X, que l’on note X (Ω) . La variable aléatoire X est discrète si son univers image
X (Ω) est un ensemble fini ou infini dénombrable.
Dans le cas d’une variable aléatoire discrète, on peut alors numéroter les éléments de
son univers image X (Ω) . On notera alors X (Ω) = {x k / k ∈ I } , l’ensemble I étant soit
une partie finie de N (en général 1,.n ou 0,.n ), soit une partie infinie de N (en
général N ou N * ).
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -2 - ECS 1
Un cas assez fréquent est celui où la variable aléatoire prend des valeurs entières
positives : on note alors simplement x k = k .
Exemple 1 : X (Ω) = P1,5T car X (ω) = a + b avec 0 ≤ a ≤ 3 et 0 ≤ b ≤ 3 . Les valeurs 0
et 6 ne sont pas obtenues car 0 = 0 + 0 et 6 = 3 + 3 . Or : a ≠ b .
Exemple 2 : X (Ω) = P0,3T car le nombre de boules rouges est inférieur ou égal au
nombre de boules tirées.
Exemple 3 : X (Ω) = P0,3T pour la même raison.
Exemple 4 : X (Ω) = N * car il faut au minimum un tirage pour obtenir une boule
rouge et on peut tirer indéfiniment sans l’obtenir.
Exemple 5 : X (Ω) = {− 1,1, 2 , 3}. En effet, perdre 1€ revient à gagner (−1) €.
La détermination de l’univers image est la première chose à faire pour étudier une
variable aléatoire. En particulier, elle permet de distinguer les variables discrètes finies
des variables discrètes infinies.
Notation : On abrège l’écriture de certains événements liés à X. Par exemple :
( X = a ) = {ω ∈ Ω / X (ω) = a} ( X ≤ a ) = {ω ∈ Ω / X (ω) ≤ a}
( X > a ) = {ω ∈ Ω / X (ω) > a} (a < X ≤ b) = {ω ∈ Ω / a < X (ω) ≤ b}
3) Loi de probabilité
On détermine alors avec quelle probabilité la variable aléatoire prend chacune des
valeurs de son univers image. C’est la loi de probabilité de X.
Définition : Si X est une variable aléatoire discrète définie sur un espace probabilisé
(Ω, A , P ) et si son univers image est X (Ω) = {xk / k ∈ I } , alors la loi de probabilité
de X est l’ensemble des couples ( xk , p k ) où p k = P( X = xk ) pour k ∈ I .
Dans le cas d’un ensemble X (Ω) fini et ne contient pas un très grand nombre de
valeurs, on résume les résultats dans un tableau :
x1 x2 … xn
p1 = P( X = x1 ) p 2 = P( X = x 2 ) … p n = P( X = x n )
Si X prend un grand nombre de valeurs (éventuellement infini), la loi de probabilité ne
peut plus être résumée par un tableau. Alors, on établit une formule générale.
Dans tous les cas, on peut remarquer que pour tout ω ∈ Ω , X (ω) est une et une seule
des valeurs xk , donc que ω appartient à un et un seul des événements ( X = xk ) pour
k ∈ I . Cela revient à dire que ces événements sont incompatibles et que leur réunion
est l’univers Ω . De plus leur probabilité est non nulle car ce sont les valeurs prises
effectivement par X.
Théorème : Si X est une variable aléatoire discrète définie sur un espace probabilisé
(Ω, A , P ) et si son univers image est X (Ω) = {xk / k ∈ I } , alors la famille
( X = xk ) k∈I forme un système complet d’événements. Et donc ∑ P( X = xk ) = 1 .
k∈I
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -3 - ECS 1
4 1 2 1 2 1
De même : P ( X = 3) = = , P ( X = 4) = = et P ( X = 5) = = .
12 3 12 6 12 6
k 1 2 3 4 5
1 1 1 1 1
P( X = k )
6 6 3 6 6
5
On vérifie aisément que ∑ P( X = k ) = 1 .
k =1
Exemple 2 : X (Ω) = P0,3T . Il y a équiprobabilité et, puisque ce sont des tirages
3 10! 10 × 9 × 8
simultanés : Card(Ω) = C10 = = = 120 .
3!7! 6
C53 10 1
( X = 0) est réalisé si l’on a tiré 3 boules blanches : P( X = 0) = = = .
120 120 12
C52 C51 50 5
( X = 1) est réalisé si l’on a tiré 2 blanches et 1 rouge : P( X = 1) = = = .
120 120 12
1 2 3
C C 50 5 C 10 1
De même P( X = 2) = 5 5 = = et P( X = 3) = 5 = = .
120 120 12 120 120 12
k 0 1 2 3
1 5 5 1
P( X = k )
12 12 12 12
3
On vérifie aisément que ∑ P( X = k ) = 1 . La symétrie du tableau est due au fait qu’il
k =0
y a autant de boules blanches que de boules rouges.
Exemple 3 : Le raisonnement est identique : X (Ω) = P0,3T . Mais ici, les tirages ont
lieu avec remise, donc Card(Ω) = 9 3 .
3
2 8 63
( X = 0) est réalisé si l’on a tiré 3 boules blanches : P( X = 0) = 3
= = .
9 3 27
( X = 1) est réalisé si l’on a tiré 2 blanches et 1 rouge dans un ordre quelconque. Il y a
3 ordres possibles (RBB ou BRB ou BBR).
2
3 × 3 × 62 1 2 4
Donc P( X = 1) = = 3× × = .
93 3 3 9
2 3
3 × 32 × 6 1 2 2 33 1 1
De même P( X = 2) = = 3 × × = et P( X = 3) = 3 = = .
93 3 3 9 9 3 27
k 0 1 2 3
8 4 2 1
P( X = k )
27 9 9 27
3
On vérifie aisément que ∑ P( X = k ) = 1 .
k =0
Exemple 4 : X (Ω) = N * . Pour tout entier k ≥ 1 , on note Bk (respectivement Rk )
l’événement « La kème boule tirée est blanche (respectivement rouge) ».
1
( X = 1) est réalisé si on a une rouge au 1er tirage : P ( X = 1) = P ( R1 ) = .
3
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -4 - ECS 1
pour k ∈ {1, 2 , 3} . Les événements S k sont tous indépendants, et puisque les dés sont
1 5
honnêtes, leur probabilité est P ( S k ) = , et donc P ( S k ) = pour tout k ∈ {1, 2 , 3} .
6 6
L’événement ( X = −1) est réalisé si l’on n’obtient aucun six.
3
5 125
Donc P( X = −1) = P(S1 ∩ S 2 ∩ S 3 ) = P( S1 ) P( S 2 ) P( S 3 ) = = .
6 216
L’événement ( X = 1) est réalisé si l’on obtient un seul six. Il est obtenu sur n’importe
lequel des trois dés : ( X = 1) = ( S1 ∩ S 2 ∩ S 3 ) ∪ ( S1 ∩ S 2 ∩ S 3 ) ∪ ( S1 ∩ S 2 ∩ S 3 ) .
Par incompatibilité, puis indépendance des événements :
P ( X = 1) = P ( S1 ∩ S 2 ∩ S 3 ) + P ( S1 ∩ S 2 ∩ S 3 ) + P ( S1 ∩ S 2 ∩ S 3 )
2
1 5 25
P( X = 1) = P( S1 ) P( S 2 ) P (S 3 ) + P( S1 ) P(S 2 ) P( S 3 ) + P(S1 ) P( S 2 ) P( S 3 ) = 3 × × =
6 6 72
2 3
5 1 5 1 1
De même : P( X = 2) == 3 × × = et P( X = 3) = = .
6 6 72 6 216
k −1 1 2 3
125 25 5 1
P( X = k )
216 72 72 216
On vérifie aisément que P ( X = −1) + P ( X = 1) + P ( X = 2) + P ( X = 3) = 1 .
4) Fonction de répartition
Définition : Etant donnée une variable aléatoire réelle X, on appelle fonction de
répartition de X la fonction F définie par : ∀x ∈ R F ( x) = P ( X ≤ x) .
C’est une fonction définie sur R, bien que X ne prenne pas toute valeur réelle.
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -5 - ECS 1
Exemple 1 :
k 1 2 3 4 5
1 1 1 1 1
P( X = k )
6 6 3 6 6
Si x < 1 : ( X ≤ x) = Y , donc F ( x ) = 0 .
1
Si 1 ≤ x < 2 : ( X ≤ x) = ( X = 1) , donc F ( x ) = .
6
1 1 1
Si 2 ≤ x < 3 : ( X ≤ x) = ( X = 1) ∪ ( X = 2) , donc F ( x ) = + = .
6 6 3
1 1 1 2
Si 3 ≤ x < 4 : ( X ≤ x ) = ( X = 1) ∪ ( X = 2) ∪ ( X = 3) , donc F ( x) = + + = .
6 6 3 3
1 1 1 1 5
Si 4 ≤ x < 5 : ( X ≤ x) = ( X = 1) ∪ ... ∪ ( X = 4) , donc F ( x ) = + + + = .
6 6 3 6 6
Si x ≥ 5 : ( X ≤ x) = ( X = 1) ∪ ... ∪ ( X = 5) = Ω , donc F ( x) = 1 .
Si les valeurs prises par X sont rangées par ordre croissant ( x1 < x 2 < ... ), alors :
k
∀x ∈] − ∞, x1[ F ( x ) = 0 ∀x ∈ [ x k , x k +1[ F ( x) = ∑ pi
i =1
La fonction F est donc en escalier et croissante.
De plus, si X (Ω) est fini ( x1 < x 2 < ... < x n ) : ∀x ∈ [ x n ,+∞[ F ( x) = 1 .
Si X (Ω) est infini dénombrable, la suite ( x k ) k∈N* est strictement croissante. Donc
deux cas peuvent se produire :
• Soit elle est majorée, et donc elle converge : lim x n = a . Sa limite majore toutes
n→+∞
les valeurs prises par X, donc : ∀x ∈ [ a,+∞[ F ( x ) = P (Ω) = 1 .
• Soit elle n’est pas majorée, et donc elle diverge vers + ∞ . On peut remarquer que
n +∞
∀x ∈ [ x n ,+∞[ F ( x n ) ≤ F ( x ) ≤ 1 . Or lim F ( x n ) = lim
n→+∞ n→+∞
pk =
∑
pk = 1 . ∑
k =1 k =1
Donc lim F ( x ) = 1 .
x→+∞
Théorème : Si X est une variable aléatoire discrète, sa fonction de répartition est une
fonction en escalier, croissante sur R, qui vérifie : lim F ( x) = 0 et lim F ( x ) = 1 .
x →−∞ x→+∞
Elle permet d’exprimer les probabilités de certains événements liés à X :
P ( X ≤ a ) = F (a) P( X > a ) = 1 − F (a ) P ( a < X ≤ b ) = F ( b) − F ( a )
En effet : ( X > a ) = ( X ≤ a) et ( X ≤ b) = ( X ≤ a ) ∪ ( a < X ≤ b) (incompatibles).
Elle permet même de retrouver la loi de probabilité de X : p1 = F ( x1 ) et pour tout
entier k ≥ 2 , on a p k = F ( x k ) − F ( x k −1 ) En effet, parfois, il est plus facile de
déterminer la fonction de répartition de X que sa loi.
Exemple : On lance deux dés honnêtes, et X est le plus grand des deux numéros
obtenus. On a donc X (Ω) = P1,6T . Alors, on peut remarquer que, si l’on obtient
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -6 - ECS 1
5) Espérance mathématique
Définition : Soit X une variable aléatoire discrète X telle que X (Ω) = {x k / k ∈ I } pour
laquelle on pose : ∀k ∈ I p k = P( X = x k ) . Alors :
• Si X (Ω) est un ensemble fini (donc I fini), la variable X admet une espérance.
• Si X (Ω) est infini dénombrable (donc I infini), la variable X admet une espérance
à condition que la série de terme général x k p k soit absolument convergente.
Dans les deux cas, l’espérance de X est le réel : E ( X ) = ∑ xk P( X = xk ) = ∑ xk p k .
k∈I k∈I
Lorsque l’ensemble X (Ω) est fini, l’espérance mathématique existe donc toujours,
mais pas lorsque l’ensemble X (Ω) est infini dénombrable. Donc certaines variables
aléatoires n’ont pas d’espérance mathématique.
L’espérance mathématique est la valeur « moyenne » prise par la variable aléatoire X.
1 1 1 1 1
Exemple 1 : E ( X ) = 1 × + 2 × + 3 × + 4 × + 5 × . Donc E ( X ) = 3 .
6 6 3 6 6
On peut remarquer que ce résultat était prévisible étant donnée la symétrie du tableau.
1 5 5 1 3
Exemple 2 : E ( X ) = 0 × + 1 × + 2 × + 3 × . Donc E ( X ) = .
12 12 12 12 2
8 4 2 1
Exemple 3 : E ( X ) = 0 × + 1× + 2 × + 3 × . Donc E ( X ) = 1 .
27 9 9 27
Exemple 4 : Ici la variable X est infinie, donc il y a un problème de convergence. Mais
les valeurs étant positives, la convergence absolue équivaut à la convergence.
k −1
1 2
Or ici : ∀k ∈N* kP ( X = k ) = k . On reconnaît une série dérivée une fois
3 3
2
d’une série géométrique. Elle est convergente car − 1 < < 1 . Donc :
3
+∞ +∞ k −1 k −1
12 1 +∞ 2 1 1
E ( X ) = ∑ kP( X = k ) = ∑ k = ∑k = × = 3.
k =1 k =1 3 3 3 k =1 3 3 2 2
1 − 3
125 25 5 1 17
Exemple 5 : E ( X ) = −1 × + 1× + 2× + 3× . Donc : E ( X ) = − .
216 72 72 216 216
Cela signifie qu’en jouant à ce jeu, en moyenne, on perdra !
Définition : Une variable aléatoire X est centrée si E ( X ) = 0 .
On dit qu’un jeu est équitable si le gain X est une variable aléatoire centrée.
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -7 - ECS 1
X (ω) P ({ω}) . Donc : E ( X ) =
Donc E ( X ) =
∑ ∑ ∑
X (ω) P({ω})
k∈I ω∈( X = xk ) ω∈Ω
Cette nouvelle expression de l’espérance ne va pas servir dans les calculs, mais va
permettre de démontrer quelques propriétés de l’espérance.
Tout d’abord, si ϕ est une application de R dans R, la composée de ϕ avec une
variable aléatoire X, application de Ω dans R, est une application de Ω dans R, donc
une variable aléatoire notée Y = ϕ( X ) .
Théorème de transfert :
Si Y = ϕ( X ) , alors E (Y ) = ∑
ϕ( x k ) p k sous réserve de convergence absolue.
k∈I
En particulier : E (aX + b) = aE ( X ) + b E(X 2 ) = ∑ ( xk ) 2 pk
k∈I
En effet, si Y = ϕ( X ) est une variable aléatoire :
Y (ω) P ({ω}) .
E (Y ) = ∑ Y (ω) P ({ω}) =
∑ ∑
ω∈Ω k∈I ω∈( X = xk )
Or Y = ϕ( X ) , donc si ω ∈ ( X = x k ) , on a X (ω) = x k , et donc Y (ω) = ϕ( x k ) .
ϕ( x k ) P ({ω}) = ϕ( xk ) P ({ω}) .
Donc : E (Y ) =
∑ ∑ ∑ ∑
k∈I ω∈( X = xk ) k∈I ω∈( X = xk )
Donc: E (Y ) = ∑
ϕ( x k ) P ( X = x k ) = ∑
ϕ( x k ) p k .
k∈I k∈I
L’intérêt est de pouvoir calculer l’espérance de Y = ϕ( X ) sans avoir à déterminer sa
loi de probabilité.
En particulier, si Y = X 2 : E ( X 2 ) = ∑ ( xk ) 2 pk .
k∈I
Et si Y = aX + b :
E (Y ) = ∑ (axk + b) p k = ∑ ∑
( axk p k + bp k ) = a xk p k + b
∑
p k = aE ( X ) + b .
k∈I k∈I k∈I k∈I
Si a = 1 et b = − E ( X ) , on a Y = X − E ( X ) et E (Y ) = E ( X ) − E ( X ) = 0 .
Définition : Si X est une variable aléatoire discrète qui possède une espérance, la
variable aléatoire X − E ( X ) est la variable centrée associée à X.
Plus généralement, si X et Y sont deux variables aléatoires discrètes définies sur le
même espace probabilisé, ce sont des applications de Ω dans R, donc la somme
Z = X + Y est une variable aléatoire discrète.
E (Z ) = ∑
Z ( ω) P ({ω}) = ∑
[ X ( ω) + Y (ω)]P ({ω}) = ∑
X (ω) P ({ω}) + ∑
Y (ω) P ({ω}) .
ω∈Ω ω∈Ω ω∈Ω ω∈Ω
Théorème : E ( X + Y ) = E ( X ) + E (Y ) (linéarité de l’espérance).
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -8 - ECS 1
6) Variance
Les autres caractéristiques mesurent la dispersion de la variable aléatoire.
Définition : Etant donnée une variable aléatoire discrète X qui possède une espérance
E ( X ) , on appelle variance de X le réel, quand il existe :
V ( X ) = E ([ X − E ( X )]2 ) = E ( X 2 ) − [ E ( X )]2 .
Les deux expressions de V (X ) sont bien égales. En effet, en posant m = E ( X ) :
[ ]
E ([ X − m]2 ) = E X 2 − 2mX + m 2 = E ( X 2 ) − 2mE ( X ) + m 2 par linéarité.
Donc E ([ X − m]2 ) = E ( X 2 ) − 2m 2 + m 2 = E ( X 2 ) − m 2 .
L’existence de V (X ) est soumise à l’existence de E ( X 2 ) puisque E ( X ) existe.
5
1 1 1 1 1 32
Exemple 1 : E ( X ) = 2
∑ k 2 P( X = k ) = 12 × 6 + 2 2 × 6 + 32 × 3 + 4 2 × 6 + 5 2 × 6 = 3
k =1
32 5
Donc V ( X ) = −9 = .
3 3
3
1 5 5 1 17
Exemple 2 : E ( X 2 ) = ∑ k 2 P( X = k ) = 0 2 × 12 + 12 × 12 + 2 2 × 12 + 32 × 12 = 6
k =0
17 9 7
Donc V ( X ) = − = .
6 4 12
3
8 4 2 1 5
Exemple 3 : E ( X ) = 2
∑ k 2 P( X = k ) = 0 2 × 27 + 12 × 9 + 2 2 × 9 + 32 × 27 = 3 .
k =0
5 2
Donc V ( X ) = −1 = .
3 3
Exemple 4 : Pour calculer E ( X 2 ) et donc V (X ) , il est plus simple de calculer
d’abord E[ X ( X − 1)] car on fera ainsi apparaître des séries usuelles dont on connaît la
somme.
+∞ k −1 k −2
12 2 +∞ 2
E[ X ( X − 1)] = ∑
k (k − 1)
3 3
=
9 ∑
k (k − 1)
3
.
k =1 k =0
On reconnaît une série dérivée deux fois d’une série géométrique. Elle est convergente
2
car − 1 < < 1 .
3
2 2
Donc : E ( X 2 ) − E ( X ) = E[ X ( X − 1)] = × = 12 . Or E ( X ) = 3 .
9 2 3
1 −
3
Donc E ( X 2 ) = 15 et V ( X ) = 15 − 9 = 6 .
125 2 25 5 1 269
Exemple 5 : E ( X 2 ) = ( −1) 2 × +1 × + 22 × + 32 × = .
216 72 72 216 216
2
269 17 57 815
Donc : V ( X ) = − = .
216 216 46 656
Propriétés : V ( X ) ≥ 0
V (aX + b) = a 2V ( X )
La positivité de V (X ) vient de la première expression (carré donc positif).
Si Y = aX + b , alors E (Y ) = aE ( X ) + b . Donc Y − E (Y ) = a[ X − E ( X )] .
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes -9 - ECS 1
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 10 - ECS 1
σ2 σ2
Donc ∀a > 0 P (Y ≥ a ) ≤ . En particulier pour a = ε 2 : P[( X − m) 2 ≥ ε 2 ] ≤ 2 .
a ε
2
σ
Or : ( X − m) 2 ≥ ε 2 ⇔ X − m ≥ ε . Donc ∀ε > 0 P( X − m ≥ ε) ≤ 2 .
ε
2
σ
Et par conséquent : ∀ε > 0 P( X − m < ε) ≥ 1 − 2 .
ε
Remarque 1 : Ces inégalités justifient le fait que l’écart-type ou la variance mesurent
la dispersion de la variable aléatoire autour de sa moyenne.
En particulier, si la variance est nulle, alors ∀ε > 0 P( X − m < ε) = 1 . Donc
P ( X = m) = 1 . La variable aléatoire X est presque sûrement égale à m.
Remarque 2 : Ces inégalités n’ont d’intérêt que si ε > σ . Par exemple, cela permet de
voir qu’il y a au moins 75% de chances que X prenne ses valeurs dans
3
[m − 2σ, m + 2σ] car P ( X − m < 2σ) ≥ .
4
9) Moments d’ordre r
Définition : Soit r un entier naturel et X une variable aléatoire discrète. On appelle
moment d’ordre r de X l’espérance de X r si elle existe : mr ( X ) = E ( X r ) .
Pour toute variable aléatoire discrète : m0 ( X ) = 1 et m1 ( X ) = E ( X ) .
Mais la variance n’est pas le moment d’ordre 2. C’est un moment centré d’ordre 2.
Définition : Soit r un entier naturel et X une variable aléatoire discrète qui possède une
espérance E ( X ) . On appelle moment centré d’ordre r de X le moment d’ordre r de la
variable X − E ( X ) centrée associée à X : µ r ( X ) = E ([ X − E ( X )]r ) .
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 11 - ECS 1
Calcul de la variance :
k 2 1 n 2 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
n n
E( X 2 ) = ∑ k 2 P( X = k ) = ∑ n
=
n ∑ k = ×
n 6
=
6
.
k =1 k =1 k =1
(n + 1)(2n + 1) (n + 1) 2 (n + 1)(n − 1) n 2 − 1
V ( X ) = E ( X 2 ) − [ E ( X )]2 = − = = .
6 4 12 12
2
Théorème : Si X ⤻U (n) , alors E ( X ) = n 2+ 1 et V ( X ) = n 12− 1 .
On peut définir de même la loi uniforme sur un autre intervalle Pa, bT . Il contient
(b − a + 1) entiers qui doivent tous avoir la même probabilité d’apparition.
Définition : Soient a et b deux entiers naturels tels que a ≤ b . Une variable aléatoire X
⤻
suit la loi discrète uniforme sur Pa, bT , ce que l’on note X U (Pa, bT) , si :
1
X (Ω ) = P a , b T ∀k ∈ Pa, bT P ( X = k ) = .
b − a +1
On peut remarquer que Y = X − a + 1 prend ses valeurs dans P1, b − a + 1T et que toutes
ses valeurs ont la même probabilité d’apparition. Donc : Y U (b − a + 1) . ⤻
b−a+2 (b − a + 1) 2 − 1
Donc E (Y ) = et V (Y ) = . Or X = Y + a − 1 . Donc :
2 12
b−a+2 a+b (b − a + 1) 2 − 1
E ( X ) = E (Y ) + a − 1 = + a −1 = et V ( X ) = V (Y ) = .
2 2 12
n2 −1
Théorème : Si X ⤻U (Pa, bT) , E ( X ) = a +2 b et V ( X ) =
12
où n = Card(Pa, bT) .
3) Loi de Bernoulli
Définition : On appelle épreuve de Bernoulli toute expérience aléatoire modélisée par
un univers Ω qui ne contient que deux éventualités baptisées « succès » et « échec ».
Situation modèle : Il s’agit d’une épreuve de Bernoulli, p est la probabilité de succès et
X est le nombre de succès.
Définition : Une variable aléatoire discrète X suit la loi de Bernoulli de paramètre
⤻
p ∈]0,1[ , ce que l’on note X B ( p) ou X B (1, p) , si : ⤻
X (Ω) = {0,1} P ( X = 1) = p P ( X = 0) = 1 − p .
De manière générale, une variable aléatoire X est une variable de Bernoulli si elle ne
prend que les valeurs 0 et 1 avec des probabilités non nulles.
Calcul de l’espérance :
E ( X ) = 0 × (1 − p) + 1 × p = p .
Calcul de la variance :
E ( X 2 ) = 0 2 × (1 − p ) + 12 × p = p . Donc V ( X ) = E ( X 2 ) − [ E ( X )]2 = p − p 2 = p(1 − p ) .
⤻
Théorème : Si X B ( p) , alors E ( X ) = p et V ( X ) = p (1 − p ) .
Une telle variable, bien que très simple, est importante car elle peut caractériser la
réalisation d’un événement.
Définition : Soit A un événement dans un espace probabilisé (Ω, A , P ) . On appelle
variable aléatoire indicatrice de l’événement A la variable aléatoire X (souvent notée
1A ou χ A ) qui prend la valeur 1 si A est réalisé et 0 sinon :
X (ω) = 1 si ω ∈ A X (ω) = 0 si ω ∉ A
Elle suit la loi de Bernoulli de paramètre p = P( A) .
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 12 - ECS 1
4) Loi binomiale
Exemple : Dans une urne qui contient des boules blanches en proportion p, on effectue
une succession de n tirages avec remise d’une boule. X est le nombre de boules
blanches obtenues.
Donc X (Ω ) = P0, nT et l’événement ( X = k ) est réalisé si l’on obtient k boules
n
blanches et ( n − k ) autres dans n’importe quel ordre. Il y a ordres possibles et
k
pour chacun de ces ordres, la probabilité est la même : p k (1 − p ) n −k puisque le tirage
se fait avec remise, donc de manière indépendante.
n
Donc P( X = k ) = p k (1 − p) n−k .
k
Définition : On appelle schéma de Bernoulli la répétition en nombre fini ( n ∈ N * )
d’une épreuve de Bernoulli dans les mêmes conditions et de manière indépendante.
Situation modèle : Il s’agit d’un schéma de Bernoulli constitué de n épreuves de
Bernoulli de probabilité de succès p. X est le nombre total de succès.
Exemples : Nombre de boules blanches obtenues dans un tirage successif avec remise
de n boules dans une urne où la proportion de boules blanches est p.
Nombre d’objets défectueux quand on teste n objets indépendamment.
Nombre de feux rouges arrêtant un autobus qui rencontre n feux tricolores
non synchronisés.
Définition : Une variable aléatoire discrète X suit la loi binomiale de paramètres
n ∈ N * et p ∈]0,1[ , ce que l’on note X ⤻ B ( n, p ) , si :
n
X ( Ω) = P0, nT ∀k ∈ P0, nT P( X = k ) = p k (1 − p)n − k .
k
Pour les calculs, on pose souvent q = 1 − p (probabilité d’échec).
Calcul de l’espérance :
n n
n k n−k
D’abord, on remarque : ∑
P( X = k ) = p q ∑ = ( p + q) n = 1.
k =0
k =0
k
n n
n n n − 1
E( X ) = ∑ kP ( X = k ) = ∑ k k p k q n−k . Or, si k ≥ 1 : k k = n k − 1 .
k =0 k =1
n −1
n
n − 1 k n−k n − 1 j +1 n− j −1
Donc E ( X ) = n ∑
k − 1
p q
= n
∑j
p q
en posant j = k − 1 .
k =1 j =0
n −1
n − 1 j ( n−1)− j
Donc E ( X ) = np ∑ p q = np ( p + q) n−1 = np .
j =0
j
Calcul de la variance :
La même idée peut être retenue pour calculer E[ X ( X − 1)] .
n n
n
E[ X ( X − 1)] = ∑ k (k − 1) P ( X = k ) = ∑
k (k − 1) p k q n−k .
k
k =0 k =2
n n − 2
Or, si k ≥ 2 : k (k − 1) = n(n − 1) . Donc :
k k − 2
n−2
n
n − 2 k n−k n − 2 j + 2 n−2− j
E[ X ( X − 1)] = n(n − 1) ∑
k − 2
p q = n(n − 1) ∑ j
p q avec j = k − 2 .
k =2 j =0
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 13 - ECS 1
n−2
n − 2 j n−2− j
E[ X ( X − 1)] = n(n − 1) p 2 ∑ j
p q = n(n − 1) p 2 ( p + q ) n−2 si n ≥ 2 .
j =0
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 14 - ECS 1
a + b n
a b
On rappelle la formule de Vandermonde : = ∑
n k =0 k n − k
.
Np N (1 − p)
n
n
k n − k 1 n Np N (1 − p ) 1 Np + N (1 − p )
∑ P( X = k ) = ∑ N
=
N
∑
k n − k
=
N
×
n
= 1
k =0 k =0 k =0
n n n
Calcul de l’espérance :
Np N (1 − p)
n k
n
k n − k 1
n
Np N (1 − p)
E( X ) = ∑ kP( X = k ) = ∑ N
= ∑ k
N k =1 k n − k
.
k =0 k =0
n n
Np Np − 1 Np n Np − 1 N (1 − p)
Or on a vu que : k = Np
k k −1
. Donc : E ( X ) = ∑ .
N k =1 k − 1 n − k
n
Np n−1 Np − 1 N (1 − p)
En posant j = k − 1 : E ( X ) = ∑
N j =0 j n − 1 − j
. Donc :
n
Np N − 1 Np × ( N − 1)!n!( N − n)!
E( X ) = = = np (formule de Vandermonde)
N n − 1 N !(n − 1)!( N − n)!
n
Calcul de la variance :
Np N (1 − p)
n k ( k − 1)
n
k n − k
E[ X ( X − 1)] = ∑k (k − 1) P( X = k ) = ∑ N
.
k =0 k =2
n
Np Np − 2
Or on a vu que : k (k − 1) = Np ( Np − 1) .
k k −2
Np ( Np − 1) n Np − 2 N (1 − p )
Donc : E[ X ( X − 1)] =
N
∑ .
k − 2 n − k
k = 2
n
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 15 - ECS 1
Np ( Np − 1) n −2 Np − 2 N (1 − p)
En posant j = k − 2 : E[ X ( X − 1)] =
N
∑
j
n − 2 − j
.
j =0
n
Donc d’après la formule de Vandermonde :
Np ( Np − 1) N − 2 Np ( Np − 1) × ( N − 2)!n!( N − n)!
E[ X ( X − 1)] = =
N n − 2 N!(n − 2)!( N − n)!
n
np ( Np − 1)(n − 1) np( Np − 1)(n − 1)
Donc : E ( X 2 ) − E ( X ) = . Donc : E ( X 2 ) = + np .
N −1 N −1
np ( Np − 1)(n − 1) nNp − Np − n + 1 + N − 1 − nNp + np
V (X ) = + np − ( np) 2 = np .
N −1 N −1
− Np − n + N + np N −n
Donc : V ( X ) = np = np (1 − p) .
N −1 N −1
N −n
Théorème : Si X ⤻ H ( N , n, p) , alors E ( X ) = np et V ( X ) = np(1 − p) .
N −1
Dans le cadre du programme, seule la formule de l’espérance est à retenir.
Exemple 2 : On est exactement dans la situation modèle. L’urne contient N = 10
1
boules avec une proportion p = de boules rouges et on extrait simultanément n = 3
2
boules. X est le nombre de boules rouges obtenues. Donc : X ⤻ H 10,3, .
1
2
5 5 5 5
k 3 − k k 3 − k
Donc : ∀k ∈ {0,1,2,3} P( X = k ) = = .
10 120
3
1 3 1 1 10 − 3 7
Et donc E ( X ) = 3 × = et V ( X ) = 3 × × × = .
2 2 2 2 10 − 1 12
Remarque : Ces résultats ressemblent à ceux de la loi B ( n, p ) : seule la variance
diffère. Et on peut remarquer que si N tend vers l’infini, la variance de H ( N , n, p)
tend vers celle de B ( n, p ) . Pour N très grand, en moyenne, il revient sensiblement au
même de faire des tirages avec ou sans remise. De manière plus précise, si N tend vers
+ ∞ , n et p restant fixes :
N N! N ( N − 1)...( N − n + 1) N Nn
= = . Donc : ~ .
n n !( N − n)! n! n n!
Np ( Np ) k N (1 − p ) [ N (1 − p)]n− k
De même : ~ et ~ .
k k! n−k (n − k )!
( Np ) k [ N (1 − p )]n −k n! n
Donc : P( X = k ) ~ . Donc : P( X = k ) ~ p k (1 − p ) n − k .
k!(n − k )! N n
k
Donc lorsque N est très grand devant n, la loi hypergéométrique H ( N , n, p) peut être
approchée par la loi binômiale B ( n, p ) .
n
C’est un problème de comparaison de N et n car on néglige des termes de la forme .
N
n
Dans la pratique, on utilise cette approximation lorsque ≤ 0,1 .
N
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 16 - ECS 1
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 17 - ECS 1
1
1−
1 3 = 6.
Et donc E ( X ) = = 3 et V ( X ) = 2
13 1
3
2) Loi de Poisson
Situation modèle : Il n’y en a pas vraiment. Les lois de Poisson mesurent par exemple
des flux d’individus pendant un temps donné : nombre de clients à une caisse de
supermarché pendant une heure, ou nombre de voitures se présentant à un péage
d’autoroute pendant une période fixée.
Définition : Une variable aléatoire X suit la loi de Poisson de paramètre λ ∈]0, +∞[ , ce
λk −λ
que l’on note X ⤻P (λ) , si X (Ω) = N et si ∀k ∈ N P( X = k ) =
k!
e .
+∞
D’abord, on vérifie que : ∑ P( X = k ) = 1 .
k =0
On reconnaît une série exponentielle (donc convergente) :
+∞ +∞ +∞
λk − λ λk
∑ P( X = k ) = ∑
k!
e =e −λ
k! ∑
= e −λ × e λ = 1 .
k =0 k =0 k =0
Calcul de l’espérance :
Dans le calcul de E ( X ) , après avoir posé j = k − 1 , on reconnaît la même série :
+∞ +∞ +∞ +∞
λk −λ λk λj
E( X ) = ∑ kP( X = k ) = ∑ k×
k!
e = e −λ
( k∑ − 1)!
= λ e −λ ∑ j!
.
k =0 k =0 k =1 j =0
Donc : E ( X ) = λe −λ × e λ = λ .
Calcul de la variance :
De même, en posant j = k − 2 :
+∞ +∞ +∞ j
λk λ
E[ X ( X − 1)] = ∑ k (k − 1) P( X = k ) = e −λ ∑ ( k − 2)!
= λ2 e −λ ∑ j!
.
k =0 k =2 j =0
Donc : E ( X 2 ) − E ( X ) = E[ X ( X − 1)] = λ2 e −λ × e λ = λ2 et E ( X 2 ) = λ2 + λ .
Donc V ( X ) = E ( X 2 ) − [ E ( X )]2 = λ2 + λ − λ2 = λ .
Théorème : Si X ⤻P (λ ) , alors E ( X ) = λ et V ( X ) = λ .
Les calculs de probabilités sur la loi de Poisson se font soit à la calculatrice,
directement à partir des formules, soit par lecture des tables : elles donnent soit la loi
de probabilité, soit la fonction de répartition, soit les deux.
Exemple : On suppose que λ = 5 et on veut calculer P ( X = 7) et P (3 ≤ X ≤ 7) .
5 7 −5
Par la calculatrice : P ( X = 7) = e ≈ 0,104445 .
7!
7 5 k −5
P(3 ≤ X ≤ 7) =
k ! ∑
e ≈ 0,741976 .
k =3
Par les tables : P( X = 7) = F (7) − F (6) ≈ 0,8666 − 0,7622 ≈ 0,1044 .
P(3 ≤ X ≤ 7) = F (7) − F (2) ≈ 0,8666 − 0,1247 ≈ 0,7419 .
Remarque : Cette loi de Poisson est surtout importante car c’est une « loi limite ». En
effet, supposons qu’une variable aléatoire X suive la loi binomiale B (n, p ) et
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011
Variables aléatoires discrètes - 18 - ECS 1
voyons ce qui se passe quand n tend vers + ∞ . Pour tout entier k fixé et n ≥ k , on a vu
n nk (np) k ( n− k ) ln(1− p )
que : ~ . Donc : P( X = k ) ~ e .
k
k! k !
n − k ~ n et si p est petit : ln(1 − p) ~ − p . Donc (n − k ) ln(1 − p ) ~ − np . Donc :
(np ) k −np −npε n
(n − k ) ln(1 − p ) = −np(1 + ε n ) avec lim ε n = 0 . Donc : P( X = k ) ~ e e .
n→+∞ k!
lim ε n = 0 , donc si p est suffisamment petit pour que np ne tend pas vers l’infini,
n→+∞
Cours de mathématiques - ECS1 - Catherine Laidebeure - Lycée Albert Schweitzer, Le Raincy - 2011