Probabilités (Partie 3)
Probabilités (Partie 3)
Probabilités (Partie 3)
https://www.youtube.com/channel/UCWrHPjpNXZiGHqSw6hseiLw?view_as=subscriber
https://ettahrifouad1.wixsite.com/prepasmarrakech
8 mars 2021
1
Probabilités (partie 3)
Sommaire
Proposition 1 (Propriétés de fX ).
Soit X une v.a.r de loi continue de fonction de densité fX . Alors
Remarque 1.
Comme FX est continue sur R, alors ∀a ∈ R, P(X = a) = 0.
si t ∈ [a, b]
(
1
fX (t) = b−a
0 si t ∈
/ [a, b]
On note X ∼ E(λ).
On note X ∼ N (µ, σ 2 ).
Lorsque X ∼ N (0, 1), on dit X suit la loi normale centrée réduite.
(b) Montrer que Y est une v.a.r de loi continue. Reconnaitre la loi de Z .
Solution
Soit x ∈ R.
Z +∞
¬ On a FY (x) = P(Y ≤ x) = P(−X + 1 ≤ x) = P(X ≥ 1 − x) = fX (t)dt,
( 1−x
λe−λt si t ≥ 0
Puisque X ∼ E(λ), alors fX (t) =
0 si t > 0
Z 0 Z +∞ Z +∞
I Si 1 − x ≤ 0, alors FY (x) = fX (t)dt + fX (t)dt = fX (t)dt = [−e−λt ]+∞
0 = 1.
1−x 0 0
Z +∞
I Si 1 − x > 0, alors FY (x) = fX (t)dt = [−e−λt ]+∞1−x = e
−λ(1−x)
.
( 1−x
e−λ(1−x) si x < 1
On en conclut que FY (x) =
1 si x ≥ 1
Comme FY est continue sur R est de classe C 1 sur R \ {1}, alors Y est une v.a.r à densité et on a
(
λe−λ(1−x) si x < 1
fY (x) =
0 si x ≥ 1
2
Z x
Comme X suit la loi normale centrée réduite, alors ∀x ∈ R, fX (x) = et FX (x) = fX (t)dt.
x
√1 e− 2
2π
−∞
√
1
= 2 FX ( x) −
2
( √
2FX ( x) − 1 si x ≥ 0
Ainsi FZ (x) =
0 si x < 0
√
On a FZ est continue sur R, puisque FX est de classe C 1 sur R et u 7→ u est de classe C 1 sur ]0, +∞[, alors FZ
est de classe C 1 sur R \ {0}, ainsi Z suit une loi à densité fZ donnée par :
√ √
F ( x) si x > 0
0
( (
(2FX ( x) − 1) si x > 0
0 1
2 2√ x X
fZ (x) = =
0 si x ≤ 0 0 si x ≤ 0
1
si x > 0 ( 2 )12 x 21 −1 e− x2 si x > 0
1
( x
√ 1 e− 2
= 2πx = Γ( 2 )
0 si x ≤ 0 0 si x ≤ 0
Il s'ensuit que Z ∼ Γ( 12 , 21 )
Exercice 2 (Exemple de calcul de la loi de Z = f (X, Y ))
Soit X et Y deux
variables aléatoires réelles sur l'espace probabilisé (Ω, T , P).
X ∼ E(1)
On suppose que Y ∼ B( 21 )
X et Y indépendantes
On pose Z = Y +1 .
X
¬ Si X est une variable aléatoire réelle discrète et Y une variable aléatoire réelle de loi continue.
Alors la variable aléatoire réelle S = X + Y est de loi continue et on a :
X
∀x ∈ R, fS (x) = P(X = k)fY (x − k)
k∈X(ω)
Exercice 3
Soit p ∈]0, 1[ et X ∼ B(p) et Y ∼ E(1) et X et Y sont indépendantes.
Montrer que S = X + Y est une variable aléatoire réelle à densité en déterminant fS .
Solution
En utilisant le théorème précédent, on en déduit que S est une variable aléatoire réelle de loi continue et on a :
X
∀x ∈ R, fS (x) = P(X = k)fY (x − k)
k∈X(ω)
si x < 0
0
(
e−t si t ≥ 0
Comme fY (t) = , alors fS (x) = pe −x
si 0 ≤ x < 1
0 si t < 0
+ (1 − p)ex−1 si x ≥ 1
−x
pe
Application 1.
¬ Si X et Y deux v.a.r indépendantes suivant la loi exponentielle de paramètre λ > 0, (X, Y ∼ E(λ)).
Alors X + Y suit la loi Gamma de paramètre (2, λ), (X + Y ∼ Γ(2, λ)).
Si X et Y deux v.a.r indépendantes suivant la loi normale , X ∼ N (µ1 , σ12 ), Y ∼ N (µ2 , σ22 ).
Alors X + Y ∼ N (µ1 + µ2 , σ12 + σ22 ).
1) Espérance
Dénition 6 (Espérance).
On dit que X admet une espérance si la fonction t 7−→ tfX (t) est intégrable sur R.
Z +∞
Dans ce cas, on note E(X) l'espérance de X et on a E(X) = tfX (t)dt.
−∞
(
0 si t ∈
/ [a, b] 2
λe −λt
si t ≥ 0
Exponentielle : X ∼ E(λ) f (t) = E(X) = 1
0 si t < 0 λ
( α
λ
t α−1 −λt
e si t > 0
Gamma : X ∼ Γ(α, λ) f (t) = Γ(α) E(X) = α
0 si t ≤ 0 λ
(t−µ)2
Normale : X ∼ N (µ, σ 2 ) f (t) = √1
σ 2π
e− 2σ 2 E(X) = µ
g(X) admet une espérance ⇐⇒ t 7−→ g(t)fX (t) est intégrable sur R
Z +∞
Dans ce cas : E(g(X)) = g(t)fX (t)dt.
−∞
Remarque 3.
Le théorème de transfert permet de calculer E(g(X)) sans avoir la loi g(X).
Exercice 4
Soit X une variable aléatoire réelle dénie sur un espace probabilisé (Ω, T , P) et suivant la loi normale centrée réduite.
Montrer que Y = X 2 admet une espérance et la calculer.
Solution
D'après le théorème de transfert Y admet une espérance si, et seulement si, t 7−→ t2 fX (t) intégrable sur R.
t2
On a t 7−→ t2 fX (t) = √12π t2 e− 2 est continue et paire sur R, comme t2 (t2 fX (t)) → 0, alors t 7−→ t2 fX (t) intégrable
t→+∞
sur R.
Ainsi Y admet une espérance et on a :
+∞ Z +∞
1
Z
t2
E(Y ) = t2 fX (t)dt = √ t2 e− 2 dt
−∞ 2π −∞
Z +∞ 0
1 t 2
= √ t −e− 2 dt
2π −∞
i+∞ Z +∞
1 h t2 1 t2
= √ −te− 2 +√ e− 2 dt
I.P.P 2π −∞ 2π −∞
Z +∞ Z +∞
1 t 2
= √ e− 2 dt = fX (t)dt = 1
2π −∞ −∞
Remarque 4.
En général, E(XY ) = E(X)E(Y ) =⇒ X et Y indépendantes est fausse.
2) Moments, Variance
a) Variance, Écart-type
Dénition 7 (Moments d'ordre k).
Soit k ∈ N∗ . On dit que X admet un moment d'ordre k si X k admet une espérance.
Dans ce cas E(X k ) s'appelle le moment d'ordre k de X .
Remarque 5.
X admet un moment d'ordre k =⇒ ∀j ∈ [[1, k]], X admet un moment d'ordre j .
I V(X) ≥ 0 et V(X) = 0 ⇐⇒ ∃c ∈ R, P(X = c) = 1 (on dit que X est constante presque sûrement.)
Remarque 6.
On suppose que X admet une variance tel que V(X) > 0, alors
I Y = X − E(X) est centrée.
I Z= X
σ(X)
est réduite.
I W = X−E(X)
σ(X)
est centrée réduite.
λe−λt si t ≥ 0
Exponentielle : X ∼ E(λ) f (t) = V(X) = 1
0 si t < 0 λ2
( α
λ
t α−1 −λt
e si t > 0
Gamma : X ∼ Γ(α, λ) f (t) = Γ(α) V(X) = α
0 si t ≤ 0 λ2
(t−µ)2
Normale : X ∼ N (µ, σ 2 ) f (t) = σ
√1
2π
e− 2σ 2 V(X) = σ 2
Remarque 7.
On dénit la covariance de deux variables aléatoires réelles quelconques, comme dans le cas de deux variables aléatoires
réelles discrètes et on a les mêmes propriétés.
Corollaire 2 (Généralisation ).
Soient X1 , ..., Xn des v.a.r admettant un moment d'ordre 2, alors
n n
! n
Xk admet une variance et on a : V C(Xi , Xj ).
X X X X
¬ Xk = V(Xk ) + 2
k=1 k=1 k=1 1≤i<j≤n
n
! n
Si de plus X1 , ..., Xn sont indépendantes, alors V V(Xk ).
X X
Xk =
k=1 k=1
Application 2.
n
1 X
Soit (Xn )n∈N∗ une suite de v.a.r indépendantes de même loi. Pour tout n ∈ N, on pose Sn = Xk . Alors
n k=1
V(X1 )
E(Sn ) = E(X1 ) et V(Sn ) =
n
Remarque 8.
On dénit le coecient de corrélation linéaire de deux variables aléatoires réelles quelconques, comme dans le cas de deux
variables aléatoires réelles discrètes et on a les mêmes propriétés.
1) Inégalités
Remarque 9.
La variance permet de contrôler l'écart entre X et son espérance.
Exercice 5
Soit n un entier naturel et X une variable aléatoire suivant la loi géométrique G( n1 ).
V(X) 1
P(X > 2n) = P(|X − E(X)| ≥ n) 6 =1−
n2 n
Théorème 5 (Inégalité de Jensen).
Soit X une variable aléatoire réelle, admettant une espérance et ϕ : R −→ R une fonction convexe.
Alors
ϕ (E(X)) ≤ E (ϕ(X))
2) Convergence
a) Convergence en probabilité
Dénition 10 (Convergence en probabilité).
Soit (Xn )n∈N une suite de variables aléatoires sur (Ω, T , P) et X une variable aléatoire réelle sur (Ω, T , P).
On dit que (Xn )n∈N converge en probabilité vers X si :
∀ε > 0, lim P(|Xn − X| ≥ ε) = 0
n→+∞
Exemples
¬ Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes sur (Ω, T , P) dénie par :
Xn (Ω) = {0, n}
1
P(Xn = 0) = 1 − n
1
P(Xn = n) = n
Soit (Xn )n∈N∗ une suite de variables aléatoires continues sur (Ω, T , P) telle que Xn ∼ U ([0, 1
n
]).
Alors (Xn )n∈N converge en probabilité vers la variable constante X = 0.
Solution
¬ Soit ε > 0,
∀n ≥ 1, (|Xn − X| ≥ ε) = (|Xn | ≥ ε) = (Xn ≥ ε) = (Xn = n).
Alors P(|Xn − X| ≥ ε) = P(Xn = n) = n1 → 0.
n→+∞
Soit ε > 0,
∀n ≥ 1, (|Xn − X| ≥ ε) = (|Xn | ≥ ε) = (Xn ≤ −ε) ∪ (Xn ≥ ε).
Alors P(|Xn − X| (≥ ε) = P(Xn ≤ −ε) + P(Xn ≥ ε).
1
= n si t ∈ [0, n1 Z −ε
]
Comme fXn (t) = , alors P(Xn ≤ −ε) = fXn (t)dt = 0.
1
n −0
0 si t ∈ [0, n1 ] −∞
Z +∞
Puisque 1
−→
n n→+∞
0 et ε > 0, alors il existe N ∈ N, ∀n ≥ N , 1
n
< ε, ainsi P(Xn ≥ ε) = fXn (t)dt = 0.
ε
Par suite ∀n ≥ N , P(|Xn − X| ≥ ε) = 0,
D'où P(|Xn − X| ≥ ε) → 0
n→+∞
Proposition 8.
Soit X une variable aléatoire sur (Ω, T , P) et (fn )n∈N une suite de fonctions de R vers R qui converge simplement vers
f : R −→ R.
Alors (fn (X))n∈N converge en probabilité vers f (X).
Exemple Soit (Xn )n∈N une suite de variables aléatoires continues sur (Ω, T , P) telle que Xn ∼ N (0, n1 ).
∗
Voici une caractérisation de la convergence en loi pour une suite (Xn )n∈N de variables aléatoires réelles discrètes sur (Ω, T , P)
à valeurs dans N.
Proposition 9 (Caractérisation).
Soit (Xn )n∈N une suite de variables aléatoires réelles sur (Ω, T , P) à valeurs dans N et X une variable aléatoire réelle
sur (Ω, T , P) à valeurs dans N.
Alors
(Xn )n∈N converge en loi vers X ⇐⇒ ∀k ∈ N, lim P(Xn = k) = P(X = k)
n→+∞
Application 3.
Soit (pn )n∈N une suite de réels de [0, 1] tel que lim npn = λ et (Xn )n∈N une suite de variable aléatoire telle que
n→+∞
Xn suit la loi binomiale de paramètre (n, pn ).
Alors la suite (Xn )n∈N converge en loi vers X où X suit la loi de Poisson de paramètre λ.
Preuve :
Soit k ∈ N, on a P(Xn = k) = nk pkn (1 − pn )n−k
nk k λk
Donc P(Xn = k) = n(n−1)···(n−k+1) pkn (1 − pn )n−k ∼ p (1 − pn )n−k ∼ (1 − pn )n−k
k! n→+∞ k! n n→+∞ k!
ln(1−pn )
Comme (1 − pn )n−k = e(n−k) ln(1−pn ) = e−(n−k)pn −pn −→ e−λ , car npn −→ λ et pn ∼ λ
−→ 0
n→+∞ n→+∞ n→+∞ n n→+∞
k k
Par suite λ
k!
(1 − pn )n−k −→ λ
e−λ = P(X = k), ainsi P(Xn = k) −→ P(X = k)
n→+∞ k! n→+∞
Proposition 10.
Soit (Xn )n∈N une suite de variables aléatoires réelles sur (Ω, T , P) et X une variable aléatoire réelle sur (Ω, T , P).
Si (Xn )n∈N converge en probabilité vers X , alors (Xn )n∈N converge en loi vers X .
Remarque 10.
En général, la réciproque est fausse, comme le montre l'exemple suivant : X ∈ B( 12 ) et ∀n ∈ N, Xn = 1 − X .
3) Théorèmes limites
Exercice 6
Appliquer le théorème central limite à une suite (Xn )n≥1 de variables aléatoires indépendantes de loi de Poisson de paramètre
n
nk 1
1, pour démontrer que .
X
lim e−n =
n→+∞
k=0
k! 2
Solution
Comme (Xn )n>1 est une suite de variables aléatoires
indépendantes
de même loi admettant un moment d'ordre 2 et E(Xn ) = 1,
V(Xn ) = 1, par le théorème central limite, X1 +...+X
√
n
n −n
converge en loi vers N où N suit la loi normale centrale réduite.
n≥1
En particulier P X1 +...+X
√ n −n ≤ 0
n
−→ P(N ≤ 0) = 21 , car fN est paire.
n→+∞
D'autrepart X1 + ... + Xn suit la loi de poisson de paramètre n,
n n
X1 + ... + Xn − n nk nk
donc P
X X
√ ≤0 = P(X1 + ... + Xn ≤ n) = e−n = e−n
n k=0
k! k=0
k!