Probabilités-IUA
Probabilités-IUA
Probabilités-IUA
Licence 3
3 Variables aléatoires 16
3.0.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.0.2 Loi de probabilités : densité de probabilités et fonction de répartition . 17
3.1 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.1 Fonction de répartition conjointe . . . . . . . . . . . . . . . . . . . . . 18
3.1.2 Loi conjointe : Cas des v.a. discrètes . . . . . . . . . . . . . . . . . . . 18
3.2 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Espérance d’une fonction d’une variable aléatoire . . . . . . . . . . . . . . . . 20
3.4 Variance et Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5 Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . 24
i
TABLE DES MATIÈRES ii
Ce chapitre constitue une révision de la Licence 1. Le lecteur est prié de le passer entièrement
en revue.
Exemple 1.1 On lance une pièce de monnaie symétrique une fois. L’ensemble des issus possibles
est
Ω = {Pile, Face} = {P, F} = {0, 1} = {échec, succès}.
1
1.1. EXPÉRIENCES ET ÉVÈNEMENTS ALÉATOIRES 2
Ici Card(Ω)=2.
La pièce étant symétrique les issus sont équiprobables et on attribuera la probabilité 1/2 à cha-
cune d’elle.
Exemple 1.2 On lance une pièce de monnaie symétrique trois fois de suite. L’ensemble des issus
possibles est
Ω = {PPP, PPF, PFF, FPF, PFP, FPP, FFP, FFF} = {000, 001, 011, 101, 101, 100, 110, 111}.
Ici Card(Ω)=23 = 8.
Dans ce chapitre, nous supposerons que Ω est toujours fini ou dénombrable c’est -à-dire
discret.
Définition 1.4 Les événements étant des ensembles, on utilisera 3 opérateurs définies sur les
ensembles :
1. L’union : l’événement A ∪ B se réalise si A se réalise ou B se réalise
2. L’intersection : A ∩ B se réalise si A se réalise et B se réalise
3. Le complémentaire : Ā se réalise si A ne se réalise pas.
On utilise parfois simultanément le langage de la théorie des ensembles et celui des probabili-
tés. Le dictionnaire suivant donne la correspondance entre les notions fréquemment utilisées.
1. P(A) ∈ [0, 1]
2. P(Ω) = 1
3. Si A et B sont des événements incompatibles, alors P(A ∪ B) = P(A) + P(B).
Ces trois propriétés vont servir d’axiomes dans le cas général où Ω n’est pas fini.
L’exemple fondateur de la théorie est le cas équiprobable (pour Ω fini) : tous les résultats
1 1
possibles (i.e. tous les ωi ) ont la même probabilité pi = = .
N card(Ω)
Donc dans ce cas équiprobable la probabilité d’un événement A est donnée par :
card(A) nombre de cas favorables
P(A) = = .
card(Ω) nombre de cas possibles
Exemple 1.3 On lance une pièce de monnaie symétrique trois fois de suite. L’ensemble des issus
possibles est
Ω = {PPP, PPF, PFF, FPF, PFP, FPP, FFP, FFF} = {000, 001, 011, 101, 010, 100, 110, 111}.
Ici Card(Ω)=23 = 8. La pièce étant symétrique toutes les issus sont équiprobables et on attribuera
la probabilité 1/8 à chacune des d’elle. Si à présent, on s’intéresse à la probabilité d’un sous-
ensemble A de Ω qu’on appellera évènement, on lui attribuera la probabilité
Card(A) Card(A)
P(A) = = .
Card(Ω) 8
Par conséquent l’évènement selon lequel on a obtenu au moins 2 fois piles (P) est le sous-ensemble
Card(A) 4 1
A = {PPF, PFP, PPP, FPP}, et sa probabilité est P(A) = = = .
Card(Ω) 8 2
Exemple 1.4 On lance un dé symétrique 2 fois de suite. L’ensemble des issues possibles est :
Ω = {(i, j) | 1 ≤ i, j ≤ 6}.
Ici Card(Ω) = 6 × 6 = 36.
Chaque évènement élémentaire ω = (i, j) étant équiprobable, on pose donc
P({ω}) = P(ω) = 1/36.
Soit A l’évènement selon lequel la somme des points est égale à 8 (i + j = 8), alors
A = {(i, j) ∈ Ω | i + j = 8}
= {(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)};
donc
Card(A) 5
P(A) = = .
Card(Ω) 36
Exemple 1.5 On repartie au hasard 3 boules différentes désignées par les lettres a, b et c dans
trois urnes. Soit Ω l’ensemble des issus possibles ; alors Card(Ω)= 33 = 27.
On suppose tous que les évènements élémentaires équiprobables de probabilité P(ω) = 1/27.
Soit A l’évènement selon lequel "Aucune urne n’est vide". Alors :
Card(A) = 3 × 2 × 1 = 3! = 6
et par suite
6
P(A) = = 2/9.
27
1.1. EXPÉRIENCES ET ÉVÈNEMENTS ALÉATOIRES 4
1.1.3 Généralisation
Définition 1.5 Soit Ω l’univers fini ou dénombrable. Une probabilité P est application de P(Ω)
dans [0, 1] vérifiant
(i) P(Ω) = 1 ;
(ii) pour toute famille (Ai )i∈N d’éléments de P(Ω), deux à deux disjoints, on a :
!
[
P An = ∑ P(An).
n∈N n∈N
Définition 1.6
1. Le couple {Ω, P(Ω)} est appelé espace probabilisable.
2. Le triplet {Ω, P(Ω), P} est appelé espace probabilisé.
Exercice 1.2 Soit A et B deux évènements tels que P(A) = 0.45 ; P(B) = 0.60 et P(A ∪ B) = 0.80
calculer P(A ∩ B) et P(A).
Corollaire 1.1 (Additivité dénombrable)
Si les évènements A1 , A2 , · · · , An sont deux à deux incompatibles, alors :
!
n
[ n
P Ai = ∑ P(Ai ).
i=1 i=1
1.2. ÉVÈNEMENTS INDÉPENDANTS 5
1. On jette 2 pièces honnêtes. Soient A : "la première donne pile" et B : "la seconde donne pile".
A et B sont indépendants.
2. On tire 2 cartes. Soient A : "la première donne pique" et B : "la seconde donne pique". Si
on tire sans remise A et B ne sont pas indépendants, si on tire avec remise A et B sont
indépendants.
Définition 1.7 Soient P une probabilité sur un espace probabilisable et A, B des évènements. A
et B sont indépendants si et seulement si :
P(A ∩ B) = P(A)P(B).
Il est très facile de vérifier que cette définition est compatible avec l’intuition donnée dans les
exemples précédents.
Exemple 1.7 On jette deux dés. Considérons les événements :
A : "la somme est 7",
B : "le premier dé donne 4"
C : "la différence est paire".
Ici l’ensemble fondamental est bien entendu
n o
Ω = (i ; j) avec i , j ∈ {1, 2, 3, 4, 5, 6} .
A = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}
B = {(4, 6), (4, 5), (4, 4), (4, 3), (4, 2), (4, 1)}
C = {(1, 1), (1, 3), (1, 5), (2, 2), (2, 4), (2, 6), . . . , (6, 2), (6, 4), (6, 6)}.
P(A) = 1/6, P(B) = 1/6, P(C) = 1/2, P(A ∩ B) = 1/36, P(A ∩C) = 0, P(B ∩C) = 1/12.
Des évènements peuvent être indépendants deux à deux sans être indépendants mutuelle-
ment. Si N évènements sont mutuellement indépendants ils sont indépendants deux à deux.
Proposition 1.1 Soit (Ai )1≤i≤N une suite d’évènements mutuellement indépendants.
1. Pour chaque i, 1 ≤ i ≤ N, posons Bi = Ai ou Bi = Ai c . Alors (Bi )1≤i≤N est une suite d’évène-
ments mutuellement indépendants.
2. Toute sous-famille de (Ai )1≤i≤N est constituée des évènements mutuellement indépendants.
Proposition 1.2 Soit (Ai )1≤i≤N une suite d’évènements mutuellement indépendants. Alors
P (A1 ∪ A2 ∪ . . . ∪ AN ) = 1 − P ((A1 ∪ A2 ∪ . . . ∪ AN )c )
= 1 − P (Ac1 ∩ Ac2 ∩ . . . ∩ AcN )
= 1 − P (Ac1 ) · P (Ac2 ) · . . . P (AcN ) .
Exemple 1.8 On suppose qu’une personne est soumise N fois à un risque p d’accident où
0 < p < 1. Quelle est la probabilité d’avoir au moins un accident ? Pour répondre à cette question
on pose Ai = " la ième expérience provoque un accident" et on suppose que les Ai sont mutuellement
indépendants. Avec p = P (Ai ) on a
P(A) = P(A ∩ B) + P (A ∩ Bc )
Si B et Bc sont de probabilité non nulle on peut utiliser des probabilités conditionnelles pour
calculer les probabilités d’intersections. Donc
Exemple 1.11 On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une
pièce au hasard et on la lance trois fois. Quelle est la probabilité d’obtenir trois piles ?
Exemple 1.12 On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une
pièce au hasard et on la lance trois fois. Quelle est la probabilité que la pièce choisie est la pièce
honnête si on a tiré trois piles ?
Chapitre 2
2.1 Le modèle
Nous commençons par introduire un modèle abstrait, qui généralise le jeu «pile ou face».
P (Xi = 1) = p et P (Xi = 0) = 1 − p.
Définition 2.1 On dit que Xi suit une loi de Bernoulli de paramètre p où p est la probabilité
de succès. On écrit
Xi B(p) ou Xi B(1, p).
9
2.2. LA LOI BINOMIALE 10
où xi ∈ {0, 1}. En particulier, si p = 1/2, chaque suite a la même probabilité 1/2n . Dans le cas
où le nombre d’expériences est infini l’ensemble fondamental du processus de Bernoulli est
∗
donné par E = {0, 1}N . Ω est l’ensemble de toutes les suites infinies indexées par 0 et 1.
Définition 2.2 On dit qu’une variable aléatoire X suit une loi binomiale de paramètre (n, p)
où n désigne le nombre d’expériences et p est la probabilité de succès dans un essai. On écrit
X B(n, p).
Exemple 2.1 On tire (avec remise) 5 boules dans une urne contenant 10 blanches, 15 noires et
25 rouges. Quelle est la probabilité de tirer 3 boules blanches ?
On décide ici que le tirage d’une boule blanche est un succès et que le tirage d’une boule rouge ou
10 1
d’une boule noire est un échec. Ainsi la probabilité p de succès pour chaque tirage est p = = .
50 5
Les tirages s’effectuant avec remise, nous sommes dans le cadre des tirages indépendants, i.e. d’un
processus de Bernoulli. Le nombre X de boules blanches tirées lors de 5 tirages avec remise suit
1
donc une loi binomiale de paramètres n = 5 et p = . Alors
5
3 2
3 1 4 32
P (X = 3) = C5 = .
5 5 625
Exercice 2.1 Un système de communication comporte 5 composants. Chacun d’entre eux fonc-
tionnera, indépendamment des autres, avec une probabilité 0.7. Le système total pourra fonc-
tionner si au moins la moitié de ces composants sont opérationnels. Calculer la probabilité que
le système ne fonctionne pas.
2.3. LOI GÉOMÉTRIQUE ET LOI BINOMIALE NÉGATIVE 11
P(T = 1) = p
P(T = 2) = (1 − p) · p
P(T = k) = (1 − p)k−1 · p
Définition 2.3 On dit que T suit une loi géométrique de paramètre p où p est la probabilité
de succès dans un essai. On écrit
1 5 1 5 5 1 91 ∼
P(T ≤ 3) = P(T = 1) + P(T = 2) + P(T = 3) = + · + · · = = 0.4212962963
6 6 6 6 6 6 216
On peut aussi calculer cette probabilité en passant par le complémentaire :
3
5 125 91
P(T ≤ 3) = 1 − P(T > 3) = 1 − = 1− = .
6 216 216
2.3. LOI GÉOMÉTRIQUE ET LOI BINOMIALE NÉGATIVE 12
P (Tr = n) = Cr−1 r
n−1 p (1 − p)
n−r
, ∀n ∈ {r , r + 1 , r + 2 , . . .}.
Définition 2.4 On dit que Tr suit une loi binomiale négative de paramètres p et r, où r désigne
le nombre de succès à achever et où p est la probabilité de succès dans un essai. On écrit
Tr BN (r, p).
P (Tr = k) = Cr−1 r
k−1 p (1 − p)
k−r
, ∀k ∈ {r , r + 1 , r + 2 , . . .}.
Tr est appelé variable aléatoire binomiale négative ou plus brièvement variable binomiale néga-
tive.
Quelle est la probabilité que A marque 2 points avant que B marque 9 points ?
1
Les deux joueurs réalisent des épreuves indépendantes dont la probabilité du succès est p = .
6
Nous cherchons la probabilité que r = 2 succès apparaissent avant m = 9 échecs, i.e. que le
deuxième succès survient au plus tard à la (r + m − 1) = 10-ième épreuve. Donc cette probabilité
est égale à P (T2 ≤ 10) et l’on a
10 10 2 k−2
1 1 5 10389767 ∼
P (T2 ≤ 10) = ∑ P (T2 = k) = ∑ Ck−1 = = 0.5154832513
k=2 k=2 6 6 20155392
2.3.4 Stabilité
La loi binomiale négative satisfait une propriété de stabilité. En particulier, chaque variable
binomiale négative s’écrit comme somme de variables géométriques indépendantes.
Proposition 2.1 Soient Y1 , . . . ,Yr des variables géométriques indépendantes de paramètre p.
Alors, la variable aléatoire Tr = Y1 + . . . +Yr suit une loi binomiale négative BN (r , p).
Corollaire 2.1 Soient Tr BN (r , p) et Ts BN (s , p) deux variables binomiales négatives
indépendantes. Alors, Tr + Ts suit une loi BN (r + s , p).
λk
P(X = k) = exp(−λ ) ·
k!
On écrit
X P(λ ).
Remarque 2.1 La loi de Poisson sert à modéliser une suite de réalisations successives non
simultanées, et indépendantes. Le paramètre λ est le nombre moyen de réalisations dans un
intervalle de temps donné.
De plus la loi de Poisson est utilisée de façon fondamentale pour modéliser certains phénomènes
rares et d’une manière générale dans les problèmes de file d’attente (quand on veut modéliser
2.4. THÉORÈMES LIMITES 14
par exemple le nombre de clients qui se présentent à un guichet, le nombre d’arrivées à un poste
de douane dans un intervalle de temps donné, il est naturel d’utiliser une loi de Poisson. Le
paramètre λ est le nombre moyen d’arrivées dans l’intervalle de temps considéré.) De même, le
nombre d’absents par jour dans une entreprise, le nombre annuel de sinistres dans un portefeuille
d’assurance, peuvent être décrits par une loi de Poisson.
Propriété 2.1 La somme de deux variables aléatoires indépendantes de lois de Poisson P(λ ) et
P(µ) suit la loi de Poisson P(λ + µ).
Proposition 2.2 Soit X une variable aléatoire binomiale de paramètres (n, p). Si n → ∞ et p → 0
tel que n · p → λ , alors pour tout entier positif k
λk
P (X = k) −→ exp(−λ ) · .
k!
Ainsi une variable de Poisson modélise le nombre de succès dans un très grand nombre d’ex-
λ
périences indépendantes où la probabilité de succès est petite (p ∼ ). L’approximation pois-
n
sonnienne fonctionne en fait assez bien même si n n’est pas très grand.
Exemple 2.4 On jette deux dés 12 fois et on considère le nombre U de double six. La variable U
1 12
satisfait une loi binomiale de paramètres n = 12 et p = , donc on pose λ = .
36 36
Comparer les probabilités exactes et les probabilités calculées en utilisant la loi de Poisson.
k (U = k) exp(−λ ) · λ k /k!
0 0.7131592556 0.7165313106
1 0.2445117448 0.2388437702
2 0.0384232742 0.0398072950
3 0.0036593594 0.0044230328
Propriété 2.2 Une variable aléatoire de loi exponentielle est une variable sans mémoire ; c’est-
à-dire :
P(X > t + s | X > s) = P(X > t) , ∀t , s ∈ R+ .
Remarque 2.2 À cause de la propriété d’absence de mémoire, la loi exponentielle est utilisée
quand on veut modéliser la durée de vie d’un composant électronique, ou le temps entre les
arrivées de deux clients successifs dans une file d’attente (il y a en particulier des liens très forts
λ
entre les lois exponentielles et les lois de Poisson). Le paramètre θ = , où λ est le nombre moyen
τ
d’arrivées dans l’intervalle de temps de longueur τ. C’est donc le nombre moyen d’arrivées par
unité de temps.
Chapitre 3
Variables aléatoires
16
17
Définition 3.2 (variables aléatoires discrètes) Une variable aléatoire X : Ω → E est dite dis-
crète si E = {x1 , x2 , . . .} est un sous ensemble discret des nombres réels.
Exemple 3.2 On jette un dé équilibré. Soit X le nombre des points obtenu. La fonction de masse
fX (x) est donnée par
1
fX (x) = P(X = x) = pour x ∈ {1, 2, 3, 4, 5, 6}.
6
Définition 3.4 Soit X : Ω −→ E une variable aléatoire réelle. Sa fonction de répartition FX (t)
est définie par
FX (t) = P(X ≤ t) pour tout t réel .
Étant donné une variable aléatoire discrète à valeurs dans E = {x1 , x2 , . . .}, sa fonction de ré-
partition n’est pas continue en les points xi et elle constante entre xi−1 et xi , pour tout i. Donc,
en général, la fonction de répartition d’une variable aléatoire discrète peut être représentée
par une fonction en escalier.
fX (x) = P(X = x) = ∑ fX,Y (x, y) (on somme sur toutes les valeurs prises par Y )
y
fY (y) = P(Y = y) = ∑ fX,Y (x, y) (on somme sur toutes les valeurs prises par X).
x
Exemple 3.4 Soit X et Y deux variables aléatoires à valeurs dans N telles que pour tout (i , j) ∈
N2
α
P(X = i , Y = j) = i+ j
2
1. Déterminer α.
2. Déterminer les lois marginales de X et de Y .
3. Les variables X et Y sont-elles indépendantes ?
3.2. ESPÉRANCE 19
3.2 Espérance
Définition 3.7 Soit X : Ω −→ E une variable aléatoire réelle discrète définie sur un espace pro-
babilisé (Ω, P(Ω), P). L’espérance de X, notée E(X), est définie par
x1 + · · · xN
E(X) =
N
E(X) = p
E(X) = E(X1 + X2 + · · · + Xn )
= E(X1 ) + E(X2 ) + · · · + E(Xn )
= p+ p+···+ p
= np.
E(X) = np
3.3. ESPÉRANCE D’UNE FONCTION D’UNE VARIABLE ALÉATOIRE 20
1
E(X) =
p
E(X) ≥ 0.
E(X) ≥ E(Y ).
E(X) = E(c) = c.
E(X)
P (X ≥ a) ≤ .
a
Var(X) = E (X − E(X))2 .
Définition 3.9 L’écart-type d’une variable aléatoire X est la racine carrée de la variance :
p
σX = Var(X).
Exemple 3.10 On considère une variable aléatoire suivant un loi uniforme sur l’ensemble {1, 2, . . . , 9}.
1. Calculer son espérance et sa variance.
2. Majorer la quantité P(|X − 5| ≥ 4) grâce à l’inégalité de Bienaymé-Tchebychev.
Exemple 3.11 On lance 300 fois un dé équilibré. Si Y est le nombre de 6 obtenus au cours de
ces lancers, minorer P(43 < Y < 57).
Définition 3.10
1. La covariance de deux variables aléatoires X et Y , notée Cov(X, y), est définie comme suit :
Proposition 3.5 En utilisant l’inégalité de Cauchy-Schwarz on obtient une borne sur la corréla-
tion de deux variables aléatoires X et Y :
−1 ≤ ρ(X,Y ) ≤ 1.
Var(λ X) = λ 2 Var(X).
2. Positivité
Var(X) ≥ 0.
et Var(X) = 0 si et seulement si X = E(X), i.e. X est une variable aléatoire constante.
3. Variance de la somme des deux variables aléatoires : en général, la variance n’est pas
additive. On a
Var(X +Y ) = Var(X) + Var(Y ) + 2 Cov(X , Y ).
Si les variables X et Y ne sont pas corrélées, i.e. Cov(X , Y ) = 0, la variance est additive.
4. Linéarité de la Covariance : la covariance Cov(X,Y ) est linéaire en chaque composante,
i.e.
Cov (a1 X1 + a2 X2 , Y ) = a1 Cov (X1 , Y ) + a2 Cov (X2 , Y ) .
3.4. VARIANCE ET COVARIANCE 23
N2 − 1
Var(X) =
12
Var(X) = p(1 − p)
Supposons qu X B(n, p). On peut calculer sa variance en partant du fait que X est la somme
de n variables de Bernoulli, toutes indépendantes, i.e. X = X1 + · · · + Xn .
En utilisant les propriétés de la variance, on obtient
Var(X) = np(1 − p)
mk = E(X k ).
Remarque 3.1
1. L’espérance est le moment d’ordre 1 : m1 = E(X).
2. La variance est la moment centré d’ordre 2 : mc,2 = Var(X).
4.1 Introduction
Les deux chapitres précédents ont été consacré à l’étude des variables aléatoires discrètes,
c-à-d à valeurs dans un ensemble dénombrable. Néanmoins dans de nombreuses situations,
nous sommes amenés à considérer des variables aléatoires à valeurs réelles ou à valeurs dans
des espaces plus généraux. Par exemple, on peut parler d’une v.a X prenant des valeurs dans
[0, 1]. Dans ces conditions, on peut se contenter de supposer que Ω est dénombrable et on ne
peut plus définir la probabilité de sous-ensemble de Ω.
On se propose de définir les v.a. comme des applications définies sur Ω, mais dans le cadre
général.
Définition 4.2 On dit qu’une v.a. X : Ω −→ R admet pour densité continue de probabilité f (x)
si pour tout intervalle I =]a, b[, −∞ ≤ a ≤ b ≤ +∞, on a
Z b
P(a < X < b) = f (x)dx.
a
Dans ces conditions , on dira aussi que la loi de X a pour densité f (x).
Remarque 4.1 (Importante)
Il convient de distinguer entre les v.a.r discrètes de X pour lesquelles les quantités f (x) = P(X = x)
ne sont pas nulles et définissent ce qu’on appelle densité discrète de X et les v.a.r à densité continue
pour lesquelles P(X = x) = 0, ∀ x ∈ R.
25
4.3. EXEMPLES DE DENSITÉS CONTINUES DE PROBABILITÉ 26
Théorème 4.1
1. X est une v.a.r de densité f (x) sur R si et seulement pour toute fonction g : R −→ R continue
bornée, on a : Z +∞
E [g(X)] = g(x) f (x)dx.
−∞
Z +∞
2. En particulier E(X) = x f (x)dx.
−∞
Z +∞
2
3. E(X ) = x2 f (x)dx.
−∞
4. Var(X) = E(X 2 ) − [E(X)]2
Théorème 4.2
1. Si X est une variable aléatoire, et a une constante, on a
Var(X + a) = Var(X).
Var(aX) = a2 Var(X).
2. L’inégalité de Markov et l’inégalité de Bienaymé-Tchebychev sont encore vraies dans les cas
des variables aléatoires continues.
Preuve :
Z +∞
• E(X) = x f (x)dx
−∞
Z b
1
= x dx
a b−a
Z b
1
= xdx
b−a a
2 b
1 x
=
b−a 2 a
b2 − a2 b+a
= = .
2(b − a) 2
Z +∞
2
• E(X ) = x2 f (x)dx
−∞
Z b
1
= x2 dx
a b−a
Z b
1
= x2 dx
b−a
a
3 b
1 x
=
b−a 3 a
b3 − a3 b2 + ab + a2
= = .
3(b − a) 3
On note X E (λ ).
4.3. EXEMPLES DE DENSITÉS CONTINUES DE PROBABILITÉ 28
Preuve :
Z +∞
• E(X) = x f (x)dx
−∞
Z +∞
= xλ e−λ x dx
0
Z +∞
= λ xe−λ x dx
0
Z +∞
• E(X 2 ) = x2 f (x)dx
−∞
Z +∞
= x2 λ e−λ x dx
0
Z +∞
= λ x2 e−λ x dx
0
• ∀n ∈ N, Γ(n + 1) = n!
Z +∞
Γ(a)
• ∀a > 0 , ∀c > 0, xa−1 e−cx dx = . (à l’aide d’un changement de variable)
0 ca
Définition 4.6 On dit qu’une variable aléatoire X suit une loi gamma de paramètre (a, c) si sa
densité de probabilité est donnée par :
a
c −cx a−1
ca −cx a−1
e x si x ≥ 0
f (x) = e x 1R+ (x) = Γ(a)
Γ(a)
0 sinon
On note X G (a , c).
Proposition 4.3 X G (a , c) alors
a
• E(X) = ;
c
a
• Var(X) = 2 .
c
Remarque 4.2
• X G (1 , λ ), on retrouve la loi exponentielle de paramètre λ . Ainsi, la loi exponentielle est
cas particulier de la loi gamma.
• La loi Gamma peut décrire des phénomènes de durée de vie, en assurance pour l’étude du
temps écoulé entre deux sinistres dans des portefeuilles à risques hétérogènes ou encore pour
prendre en compte cette hétérogénéité.
• Le paramètre c est le nombre de réalisations (évènements) par unité de temps. Si a est un entier
alors a est le nombre d’intervalle entre les deux réalisations.
Propriété 4.3 La somme de deux lois Gamma indépendantes G (r, λ ) et G (s, λ ) suit la loi Gamma
G (r + s, λ ).
On note X N (m , σ 2 ).
Remarque 4.3 X N (0 , 1), on dit alors que X suit la loi normale centrée réduite (ou loi
normale standard).
4.4. COUPLES DE VARIABLES ALÉATOIRES : LOI CONJOINTE ET LOI MARGINALE 30
Propriété 4.4
X −m
• Si X N (m , σ 2 ) alors la nouvelle variable aléatoire Y = N (0 , 1).
σ
• Inversement, si X N (0 , 1) alors la variable aléatoire Z = σ X + m N (m , σ 2 ).
Proposition 4.5 Soient X1 N (m1 , σ12 ) et X2 N (m2 , σ22 ) deux variables gaussiennes indé-
pendantes. Alors X1 + X2 N (m1 + m2 , σ12 + σ22 ).
P(X = x , Y = y)
P(X = x | Y = y) = .
P(Y = y)
P(X = x , Y = y)
P(Y = y | X = x) = .
P(X = x)