Variables Aléatoires Discrètes 1
Variables Aléatoires Discrètes 1
Variables Aléatoires Discrètes 1
∀n ∈ N, θn ∈ [0 ; 1[.
k−1 n
X(Ω) = {n, n + 1, . . .} et P(X = k) = p (1 − p)k−n .
n−1
(b) Exprimer en fonction des termes de Pla suite (θn )n∈N , la probabilité P(T ≥ n).
En déduire la divergence de la série θn . (a) Soit X1 , . . . , Xn des variables aléatoires indépendantes suivant toutes une loi
géométrique de paramètre p.
(c) Inversement, soit (θn )n∈N une suite vériant
Montrer que X1 + · · · + Xn suit une loi binomiale négatives de paramètres n
et p.
∀n ∈ N, θn ∈ [0 ; 1[ et θn diverge.
X
(b) En déduire espérance et variance d'un loi binomiale négatives de paramètres
n et p.
Montrer que la suite (θn )n∈N est un taux de panne associé à une certaine
variable aléatoire T .
tirages opérés à l'arrêt du processus. Pour X un ensemble quelconque, on note 1X la fonction indicatrice de X .
Cette dernière hypothèse signie que, durant un laps de temps minime, la (a) Déterminer la valeur de a.
probabilité d'arrivée d'au moins deux clients est négligeable devant la probabilité (b) Reconnaître les lois marginales de X et Y .
d'arrivée d'un seul client.
(c) Les variables X et Y sont elles indépendantes ?
(a) Justier que la fonction p0 est décroissante et que
∀s, t ∈ R+ , p0 (s + t) = p0 (s)p0 (t).
Exercice 28 [ 04056 ] [Correction]
(b) Montrer que p0 est à valeurs strictement positives et qu'il existe un réel λ ≥ 0 Soient X et Y deux variables aléatoires à valeurs dans N.
vériant On suppose que la loi conjointe de X et Y vérie
∀t ∈ R+ , p0 (t) = e−λt .
j+k
(c) Justier ∀(j, k) ∈ N2 , P(X = j, Y = k) = a avec a ∈ R.
2j+k
p1 (t) = λt + o(t) et ∀n ≥ 2, pn (t) = o(t).
t→0+ t→0+ (a) Déterminer la valeur de a.
(d) Soit n ∈ N . Montrer
∗
(b) Déterminer les lois marginales X et Y .
n
(c) Les variables X et Y sont elles indépendantes ?
pk (s)pn−k (t).
X
∀s, t ≥ 0, pn (s + t) =
(d) Calculer P(X = Y ).
k=0
(b) On suppose que N suit une loi de Poisson de paramètre λ > 0. Montrer que
les variables X et Y sont indépendantes. Exercice 35 [ 04040 ] [Correction]
Soit X une variable aléatoire suivant une loi géométrique de paramètre p ∈ ]0 ; 1[.
Inversement, on suppose que les variables X et Y sont indépendantes et que la
variable N n'est pas presque sûrement nulle. On pose (a) Calculer
E X(X − 1) . . . (X − r + 1) .
pk = P(X = k) et q` = P(Y = `) pour tous k, ` ∈ N.
(b) Retrouver ce résultat par les fonctions génératrices.
(a) Justier que les pk et les q` sont tous strictement positifs.
(b) Vérier que
Exercice 36 [ 04024 ] [Correction]
(k + 1)pk+1 q` (1 − p) = (` + 1)pk q`+1 p pour tous k, ` ∈ N. Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ > 0.
(c) En déduire une relation de récurrence sur les termes de la suite (pk ) puis (a) Rappeler la fonction génératrice de la variable X .
identier la loi suivie par X . (b) Exploiter celle-ci pour calculer le moment centré d'ordre 3 de la variable X .
(d) En déduire que N suit une loi de Poisson.
Soit X une variable aléatoire à valeurs naturelles dont la loi est donnée par (e) Justier la dénition de
n+k k +∞
P(X = k) = a p (avec a > 0 et p ∈ ]0 ; 1[). pour t ∈ [0 ; 1]
X
k u(t) = uk tk
k=0
Calculer espérance et variance de X .
et montrer que u(t) = 1−f (t) .
1
(a) Soit GX , GS et GN les séries génératrices de X , S et N . Montrer On appelle entropie de la variable X le réel
∀t ∈ [0 ; 1], GS (t) = GN ◦ GX (t).
X
H(X) = − p(x) log p(x)
x∈X
(b) On suppose que X et N possèdent une espérance. Montrer que S possède une
où l'on convient 0 log 0 = 0.
espérance et la calculer.
(a) Vérier que H(X) est un réel positif. À quelle condition celui-ci est-il nul ?
(c) On suppose que X et N ont un moment d'ordre 2. Montrer que S possède un
Soient X et Y deux variables aléatoires à valeurs dans des ensembles nis X
moment d'ordre 2 et calculer la variance de S .
et Y .
On étudie la transmission du nom de famille au cours des générations dans une (b) On appelle entropie conjointe de X et Y , l'entropie de la variable Z = (X, Y )
société patriarcale. On suppose que le nombre de descendants masculins d'un simplement notée H(X, Y ).
individu suit une loi de Poisson de paramètre λ ∈ ]0 ; +∞[. On note Z0 le nombre On suppose les variables X et Y indépendantes, vérier
d'individus masculins au début de l'étude, Zn le nombre de descendants à la
n-ième génération. On suppose que Z0 = 1. H(X, Y ) = H(X) + H(Y ).
(d) Écrire une fonction Python renvoyant le nombre de descendants masculins à
(c) On appelle entropie de X sachant Y la quantité
la n-ième génération.
(e) Fixer λ et n. Calculer une moyenne, sur un grand nombre de mesures, du H(X | Y ) = H(X, Y ) − H(Y ).
nombre de descendants masculins. Comparer à E(Zn ).
Vérier X
H(X | Y ) = P(Y = y)H(X | Y = y)
y∈Y
Exercice 43 [ 04943 ] [Correction]
avec
(a) Donner le rayon de convergence de la série entière
P(X = x | Y = y) log(P(X = x | Y = y)).
X
H(X | Y = y) = −
X n2 + n + 1 x∈X
tn .
n!
n≥0
Indépendance
(b) Rappeler le développement en série entière de la fonction exponentielle et
calculer S(t) pour tout réel t convenable. Exercice 45 [ 04083 ] [Correction]
Une variable aléatoire X à valeurs dans N vérie GX (t) = λS(t) avec λ > 0. Soient X une variable aléatoire discrète dénie sur (Ω, A, P) et f une application
dénie sur X(Ω).
(c) Déterminer λ puis P(X = n) pour n ∈ N. À quelle condition les variables aléatoires X et Y = f (X) sont-elles
(d) Rappeler les expressions de l'espérance et de la variance à l'aide de la indépendantes ?
fonction génératrice et en déduire E(X) et V(X).
Moments
Applications
Exercice 46 [ 04023 ] [Correction]
Exercice 44 [ 04049 ] [Correction] Soit X une variable aléatoire discrète réelle. Sous réserve d'existence, on appelle
Soit X une variable aléatoire à valeurs dans un ensemble ni X . Pour chaque fonction génératrice des moments de X l'application
valeur x ∈ X , on pose
MX (t) = E etX .
p(x) = P(X = x).
(a) On suppose que X suit une loi de Poisson de paramètre λ. Déterminer MX (t). et
(b) On suppose que la fonction MX est dénie sur un intervalle ]−a ; a[. k
X
f − f (x) P(Xn = k/n) ≤ ε.
Montrer qu'elle y est de classe C ∞ et qu'on a n
k
| n −x|≤α
MX (0).
n (n)
E(X ) = (d) Conclure qu'à partir d'un certain rang, on a
∀x ∈ [0 ; 1], Bn (f )(x) − f (x) ≤ 2ε.
Inégalités de concentration
Ce résultat constitue une démonstration probabiliste du théorème de
Exercice 47 [ 04113 ] [Correction] Stone-Weierstrass assurant que toute fonction réelle continue sur un segment
Soit (Xn )n≥1 une suite de variables aléatoires deux à deux indépendantes avec Xn peut être uniformément approchée par une fonction polynôme.
suivant une loi de Bernoulli de paramètre pn . Montrer que pour tout ε > 0
Exercice 49 [ 04183 ] [Correction]
X + · · · + X n
1
pi < ε = 1.
1 n
X
lim P −
n→+∞ n n i=1 (a) Écrire une fonction S(n,p) qui simule une variable aléatoire Sn = Y /n, où Y
suit une loi binomiale B(n, p).
En déduire une fonction test(n,p) qui ache les courbes interpolant les
Exercice 48 [ 04122 ] [Correction] points (k, Sk ), puis
Soit f : [0 ; 1] → R une fonction continue et n ∈ N∗ . r ! r !
(a) Soit Sn une variable aléatoire suivant une loi binomiale de paramètres n et ln k ln k
k, p − et k, p + .
x ∈ [0 ; 1] et Xn = Sn /n k k
Donner les valeurs de l'espérance et de la variance de Xn . Justier
Que remarque-t-on ?
1
. (b) Soit t ∈ R et x ∈ [−1 ; 1]. Montrer que
∀α > 0, P |Xn − x| > α ≤
4nα2
1 1
(b) On introduit la variable aléatoire Yn = f (Xn ) et on pose Bn (f )(x) = E(Yn ). etx ≤ (1 − x)e−t + (1 + x)et .
Vérier que Bn (f )(x) est une fonction polynôme de la variable x. 2 2
Soit ε > 0. La fonction f étant continue sur le segment [0 ; 1], elle y est (c) On considère une variable aléatoire X telle que |X| ≤ 1 et E(X) = 0. Montrer
uniformément continue (théorème de Heine). Ceci assure l'existence d'un réel que exp(tX) est d'espérance nie et
α > 0 vériant
E exp(tX) ≤ ch t ≤ exp(t2 /2).
∀(x, y) ∈ [0 ; 1] , |y − x| ≤ α =⇒ f (y) − f (x) ≤ ε.
2
Au surplus, la fonction f étant continue sur un segment, elle y est bornée (d) Soit X1 , . . . , Xn des variables aléatoires centrées indépendantes telles que,
(théorème de la borne atteinte). Ceci permet d'introduire un réel M vériant pour tout i, |Xi | ≤ ai . On pose
n
∀x ∈ [0 ; 1], f (x) ≤ M .
Xi .
X
Sn =
(c) Avec les notations ci-dessus, établir i=1
Montrer
k M
X n
!
f − f (x) P(Xn = k/n) ≤ t2 X 2
a .
n 2nα2 E exp(tS) ≤ exp
k
| n −x|>α 2 i=1 i
2
E etX ≤ et /2 .
Xn (Ω).
[
Y (Ω) ⊂ ce qui détermine entièrement la loi de T .
n∈N Synthèse : Posons
n−1
On en déduit que l'ensemble Y (Ω) est au plus dénombrable. ∀n ∈ N, un = θn
Y
(1 − θk ).
De plus, pour tout y ∈ Y (Ω) k=0
ω ∈ Ω N (ω) = n et Xn (ω) = y On a
[
Y −1 ({y}) =
n∈N ∀n ∈ N, un ≥ 0.
et donc [ Vérions aussi (un )Q
n∈N de somme égale à 1.
Y −1 ({y}) = Introduisons Pn = k=0n−1
(1 − θk ). On a
N (ω) = n ∩ Xn (ω) = y
n∈N
est bien élément de la tribu T . n−1
ln(1 − θk ) −−−−−→ −∞.
X
ln Pn =
n→+∞
k=0
Exercice 2 : [énoncé]
En eet, la série des ln(1 − θk ) est divergente à terme négatifs et ce que la
(a) θn est une probabilité donc θn ∈ [0 ; 1]. suite (θn ) tend vers 0 ou non).
Si θn = 1 alors P(T = n) = P(T ≥ n) et donc P(T > n) = 0 ce qu'exclut les On a aussi P0 = 1 et Pn − Pn+1 = un , donc
hypothèses.
n
(b) On a P(T = n) = θn P(T ≥ n) et P(T = n) + P(T ≥ n + 1) = P(T ≥ n) donc
uk = P0 − Pn+1 −−−−−→ 1.
X
n→+∞
P(T ≥ n + 1) = (1 − θn )P(T ≥ n). k=0
Sachant P(T ≥ 0) = 1, on obtient On peut alors dénir une variable aléatoire T dont la loi vérie
n−1 n−1
(1 − θk ). (1 − θk ).
Y Y
P(T ≥ n) = P(T = n) = un = θn
k=0 k=0
(c) De façon immédiate E(Y ) = 0 et V(Y ) = σ 2 . On en déduit Notons que cette inégalité est une égalité lorsque X suit une loi de Bernoulli
de paramètre p = 1/2.
yP (Y = y) et y 2 P(Y = y) = σ 2 − s.
X X
t=−
y<0 y<0
Exercice 4 : [énoncé]
En appliquant à nouveau l'inégalité de Cauchy-Schwarz (a) Raisonnons par récurrence sur n ∈ N∗ .
Cas n = 1. Si X suit une loi binomiale négative de paramètres 1 et p alors
t2 ≤ (σ 2 − s)(1 − u).
k−1
P(X = k) = p(1 − p)k−1 .
(d) Ce qui précède fournit 0
On reconnaît une loi géométrique de paramètre p.
t2 ≤ min su, (σ 2 − s)(1 − u)
Supposons la propriété vraie au rang n ≥ 1.
L'évènement X1 + · · · + Xn+1 = k peut se décomposer en la réunion des
pour u ∈ [0 ; 1] et s ∈ [0 ; σ 2 ]. Sachant
évènements incompatibles suivants
su ≤ (σ 2 − s)(1 − u) ⇐⇒ s + σ 2 u ≤ σ 2 . X1 + · · · + Xn = ` et Xn+1 = k − ` pour ` ∈ Jn ; k − 1K.
Si s + σ 2 u ≤ σ 2 alors On en déduit par indépendance
Pk−1
min su, (σ 2 − s)(1 − u) = su ≤ σ 2 (1 − u)u ≤ σ 2 /4.
P(X1 + · · · + Xn+1 = k) = `=n ` − 1
et donc (c) Puisque le joueur ne peut disputer que n parties, son espérance de gain
devient
k − 1 n+1
P(X1 + · · · + Xn+1 = k) = p (1 − p)k−(n+1) . n +∞
!
n 1 1
− (2n − 1) × n = 0.
X [
n
1 × P(An ) − (2 − 1)P Ak =1− n
2 2
Récurrence établie. k=1 k=n+1
+∞ n−1
3 +1
+∞ n−1
3 +1 puis
= +∞.
X X N −k k
P(An ) =
N 5 pn 1
n=1
2 n=1
2 n+1
P(Sn+1 = k) = (1 − pn )N + .
k 6 1 − pn 6
1 1 + 5pn on obtient
p1 = et pn+1 = .
6 6 n N XN nk
5 N 5
La résolution de cette relation de récurrence donne P(T > n) = 1 − 1 − = (−1)k−1 .
6 k 6
n k=1
5
pn = 1 − . Par sommation géométrique
6
N
(b) Connaissant la loi de Sn , on peut déterminer directement la probabilité de N (−1)k−1 6k
.
X
E(T ) =
l'événement (Sn = N ) k=1
k 6k − 5k
N N
n N
5 Numériquement
P(Sn = N ) = 0
pn (1 − pn ) = 1 − −−−−−→ 1. Pour N = 1, E(T ) = 6 (on reconnaît l'espérance d'une loi géométrique)
N 6 n→+∞
Pour N = 2, E(T ) = 96/11 ' 8,7.
L'événement On peut même poursuivre un tableau de valeurs
A = il existe n tel que Sn = N N = 3, E(T ) = 10,5
N = 4, E(T ) = 11,9
est la réunion croissante des événements (Sn = N ). Par continuité croissante
N = 5, E(T ) = 13,0
P(A) = lim P(Sn = N ) = 1. et les valeurs de l'espérance qui suivent sont 13,9, 14,7, 15,4, . . .
n→+∞
Par conséquent, l'événement +∞ p=1 Ap est presque sûr. Ainsi, il existe presque
S
Nk − 1
E(T ) = . sûrement un rang pair en lequel il y a deux succès consécutifs. A fortiori , il
N −1
est presque sûr qu'il existe un rang (pair ou impair) en lequel il y a deux
Notons, même si ce n'est pas l'objet de cet exercice, qu'il est assez facile de succès consécutifs.
justier que le processus s'arrête presque sûrement. Considérons l'événement
(b) Pour n ≥ 2, on souhaite calculer pn = P(T = n).
B = le processus ne s'arrête pas Pour n = 2, l'événement (T = 2) correspond à (X1 = 1, X2 = 1) de
Pour voir que celui-ci est négligeable, on va l'inclure dans un événement (de probabilité p2 .
probabilité plus immédiatement accessible) en regroupant les tirages k par k : Pour n = 3, l'événement (T = 3) correspond à (X1 = 0, X2 = 1, X3 = 1) de
probabilité (1 − p)p2 .
+∞ Pour n ≥ 3, les choses se compliquent quelque peu. Considérons le système
{les tirages de rangs jk + 1, jk + 2, . . . , jk + k ne sont pas tous identiques}. complet d'événements
\
B⊂
j=0
(X1 = 0), (X1 = 1, X2 = 0), (X1 = 1, X2 = 1).
Par indépendance et continuité décroissante
J Par la formule des probabilités totales
1
P(B) ≤ lim 1− = 0. P(T = n) = PX1 =0 (T = n)P(X1 = 0) + PX1 =1,X2 =0 (T = n)P(X1 = 1, X2 =
J→+∞ N k−1 0) + PX1 =1,X2 =1 (T = n)P(X1 = 1, X2 = 1)
Or Exercice 9 : [énoncé]
PX1 =0 (T = n) = P(T = n − 1). (a) Le jeu dure inniment si, et seulement si, chaque lancer produit face ou
En eet, la première épreuve étant un échec, obtenir deux succès consécutifs bien chaque lancer produit pile . Notons An l'évènement :
au rang n revient maintenant à obtenir deux succès consécutifs au rang n − 1.
Par un argument analogue le n-ième lancer donne face .
car les deux succès consécutifs ont été obtenus au rang 2 et qu'ici n ≥ 3. Par continuité décroissante
Finalement, on obtient la relation de récurrence +∞
!
= lim P(A1 ∩ . . . ∩ An ) = 0.
\
P(T = n) = (1 − p)P(T = n − 1) + p(1 − p)P(T = n − 2). P An
n→+∞
n=1
varier les i1 , . . . , ik sur l'ensemble dénombrable des possibles, (Z = k) se Ainsi, on peut armer
comprend comme une réunion d'événements.
Enn, (Z = +∞) est aussi un événement car c'est le complémentaire de la ∀k ∈ N, P(ZN = k) −−−−−→ P(Z = k).
N →+∞
réunion dénombrable des événements (Z = k) pour k parcourant N.
(b) F est le complémentaire de (Z = +∞), c'est bien un événement. Pour tout M ,
M M
F correspond à l'ensemble des ω appartenant à une innité de En . On peut
X X
kP(Z = k) = lim kP(ZN = k)
l'écrire comme l'intersection décroissante k=0
N →+∞
k=0
avec
F = ∩N ∈N ∪n≥N En .
M
X +∞
X
Par continuité décroissante kP(ZN = k) ≤ kP(ZN = k)
k=0 k=0
lim P ∪n≥N En .
P(F ) = N
N →+∞ X
= E(ZN ) = E(1EN )
linéarité
Or n=0
P(En ) −−−−−→ 0.
X
P ∪n≥N En ≤ N +∞
P(En ).
X X
N →+∞ = P(En ) ≤
n≥N
n=0 n=0
On peut conclure P(F ) = 0 puis P(F ) = 1.
On a donc
(c) Posons ZN = 1En . Commençons par établir
PN
M +∞
n=0
P(En ) = M .
X X
kP(Z = k) ≤
∀k ∈ N, P(ZN = k) −−−−−→ P(Z = k). k=0 n=0
N →+∞
Les sommes partielles de la série à termes positifs des kP(Z = k) sont
Soit ε > 0. Il existe un rang N0 tel que pour tout N ≥ N0 bornées, cette série converge.
P(En ) ≤ ε.
X
P = False if P:
return n PP = True
P = True
def repete(n): else:
c = 0 P = False
for i in range(n): return n
c = c + T() On conjecture cette fois-ci une espérance égale à 6.
return c/n
(f) q2 est la probabilité de PP et q3 celle de FPP d'où les valeurs proposées. Pour
L'étude numérique amène à conjecturer E(T ) = 4. n ≥ 4, on considère le système complet constitué des événements commençant
(b) Posons A∞ l'événement par F, PF et PP et on obtient par argument de symétrie (quand on a obtenu
Le motif PF n'apparaît pas . F, ceci remet les compteurs à zéro )
L'événement A∞ est exactement la réunion des événements correspondant à 1 1 1
qn = qn−1 + qn−2 + × 0. (1)
une succession de F de longeur k ∈ N suivie exlcusivement de P ainsi que de 2 4 4
l'événement correspondant uniquement à l'obtention de F . L'événement A∞ (g) Commençons par vérier que les An avec n ≥ 2 constituent un système
est alors négligeable car réunion dénombrable d'événements de probabilités complet. Les événements An sont deux à deux incompatibles et la série des qn
nulles 2 . On en déduit que la réunion des Ai , avec i ≥ 2, est un événement converge. En sommant la relation (??) pour n supérieur à 2, on obtient après
presque sûr. glissement d'indice
(c) An est la réunion des congurations commençant par un certain nombre +∞ +∞ +∞
k ∈ N de F puis se poursuivant avec des P au nombre de ` ∈ N∗ tel que
X 1 1 1X 1X
qn = + + qn + qn
k + ` = n − 1 et se poursuivant enn par un F . Chacune de ces congurations n=2
4 8 2 n=3 4 n=2
est de probabilité 1/2n et donc qn = n−1
2n . puis
(d) La suite des nqn est sommable donc T admet une espérance et +∞
1 1X
+∞
1X
+∞
qn .
X
qn = + qn +
+∞ 4 2 n=2 4 n=2
X (n − 1)n 1 2 n=2
E(T ) = n
= · =4 On en tire que la somme des qn est égale à 1. On peut alors calculer
2 4 (1 − 1/2)3
n=2
l'espérance de T .
(la somme est calculée en dérivant deux fois la série entière géométrique). Pour t ∈ [−1 ; 1], la fonction génératrice de T en t est donnée par
(e) On adapte le code précédent +∞
1 2 1 3 t
t2
t2
+ GT (t). (2)
X
GT (t) = qn tn = t + t + GT (t) −
def T(): 4 8 2 4 4
n=2
n = 0
P = False On peut exprimer GT (t) par une fraction rationnelle dénie sur [−1 ; 1],
PP = False celle-ci est dérivable en 1 ce qui assure que T admet une espérance et, par
while (not PP): dérivation de (??),
n = n + 1 t 1 t t t2
x = rnd.random() G0T (t) = + GT (t) + G0T (t) + GT (t) + G0T (t).
2 2 2 2 4
if x < 0.5:
Pour t = 1, on obtient
2. Par exemple, la probabilité de n'obtenir que des F est par continuité décroissante la limite
des probabilités de commencer par n F à savoir 1/2n . Les autres calculs sont analogues et, de 1 1 1 1 1
façon générale, la probabilité d'obtenir un tirage inni précis est nulle. E(T ) = + + E(T ) + + E(T ).
2 2 2 2 4
Diusion autorisée à titre entièrement gratuit uniquement - dD
[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 19
avec
n
! n n
(λδσ(i),i − µ).
Y Y Y
E (λδσ(i),i − mσ(i),i ) = E(λδσ(i),i − mσ(i),i ) = E(Y − S) = (a − 1)mS + b
i=1 i=1 i=1
et
On en déduit V(Y − S) = V (a − 1)S + aB + b = (a − 1)2 σs2 + a2 σB
2
E χM (λ) = χA (λ)
car la covariance de S et B est nulle.
avec A la matrice dont tous les coecients sont égaux à µ. La poursuite des La quantité V(Y − S) est minimale pour
calculs donne
E χM (λ) = (λ + nµ)λn−1 .
σS2
a=
σS2 + σB 2
2
et l'on peut alors rendre le terme E(Y − S) nul pour
Exercice 13 : [énoncé]
On a 2 2 b = (1 − a)mS .
= V Y − (aX + b) + E Y − (aX + b) .
E Y − (aX + b)
Au nal
D'une part σS2 σB2
Y =
σS2 + σB2 X + 2 mS .
σS2 + σB
V Y − (aX + b) = V(Y − aX) = a2 V(X) − 2a Cov(X, Y ) + V(Y )
(b) Soit C = t a1 · · · an un vecteur propre de Σ associé à une valeur propre Exercice 17 : [énoncé]
λ.
On a t CΣC = λt CC = λkCk2 et, pour X = a1 X1 + · · · + an Xn , V(X) ≥ 0 Une variable aléatoire admet une variance nulle est presque sûrement
donc constante.
V(X)
λ= 2
≥ 0. Les variables aléatoires X1 et X2 sont presque sûrement bornées car elles suivent
kCk
la loi de la variable bornée X , elles admettent donc chacune une variance et on
peut aussi calculer la variance de leur somme :
Exercice 16 : [énoncé]
(a) Le plus ecace est sans doute de raisonner par les fonctions génératrices. On V(X1 + X2 ) = V(X1 ) + 2 Cov(X1 , X2 ) + V(X2 ).
obtient une loi binomiale de paramètres n et p.
Cependant,
(b) (U − 1)2 prend les valeurs 0 et 1 avec
1 V(X1 ) = V(X2 ) = V(X) et V(X1 + X2 ) = V(2X) = 4V(X).
P (U − 1)2 = 1 = P(U = 1) = .
2
On en déduit Cov(X1 , X2 ) = 2V(X) puis
Les variables (U − 1)2 et (V − 1)2 suivent chacune une loi de Bernoulli de
paramètre 1/2. Par indépendance de U et V , on a aussi celle de (U − 1)2 et V(X1 − X2 ) = V(X1 ) − 2 Cov(X1 , X2 ) + V(X2 ) = 0.
(V − 1)2 et donc S suit une loi B(2, 1/2).
(c) Par indépendance, l'espérance d'un produit est le produit des espérances La variable X1 − X2 est donc presque sûrement constante égale à 0 et on peut
conclure que X1 et X2 sont presque sûrement égales.
3 3
= 0.
E S(T − 1) = E (U − 1) E(V − 1) + E(U − 1)E (V − 1)
La variable T prend les valeurs 0, 1 et 2.
donc
Par indépendance
1 p
E = ln p. P(T ≤ n) = P(X1 ≤ n) . . . P(X5 ≤ n)
X p−1
avec n
5
P(Xi ≤ n) = 1 − P(Xi > n) = 1 − .
Exercice 21 : [énoncé] 6
L'évènement X est pair est la réunion dénombrable des évènements (X = 2k) Ainsi
pour k ∈ N. Sa probabilité vaut
n 5
5
P(T ≤ n) = 1 − .
+∞ +∞
6
λ2k 1 + e−2λ
.
X X
P(X = 2k) = e−λ = e−λ ch(λ) = (b) Sous réserve de convergence
(2k)! 2
k=0 k=0
+∞
P(T > n).
X
E(T ) =
n=0
Exercice 22 : [énoncé]
L'événement (X < Y ) peut être décomposé en la réunion disjointes des Ici
+∞ +∞ n 5
événements
5
.
X X
P(T > n) = 1− 1−
(X = k, Y > k) avec k ∈ N∗ . n=0 n=0
6
p0 (s + t) = p0 (s)p0 (t).
Exercice 24 : [énoncé]
Une matrice de la forme (b) Par l'hypothèse H3, la fonction p0 prend la valeur 1 en 0 et est continue. Si
a 1
par l'absurde cette fonction prend une valeur négative, elle s'annule en un
0 b certain t0 > 0. L'équation fonctionnelle obtenue ci-dessus donne par une
récurrence rapide
est diagonalisable si a 6= b (2 valeurs propres distinctes pour une matrice de taille ∀k ∈ N, ∀t ∈ R, p0 (kt) = p0 (t)k .
2) et ne l'est pas si a = b (1 seule valeur propre et n'est pas une matrice scalaire).
La probabilité recherchée n'est donc autre que En prenant t = t0 /k, on obtient
L'événement (X 6= Y ) est le complémentaire de l'événement (X = Y ) qui est la En passant à limite quand k tend vers l'inni, on obtient l'absurdité
p0 (0) = 0 !
réunion d'événements deux à deux disjoints
Puisqu'il est maintenant acquis que la fonction p0 est à valeurs strictement
(X = Y ) =
[
(X = n, Y = n). positives, on peut introduire la fonction f : R+ → R dénie par
n∈N∗
∀t ∈ R+ , f (t) = ln p0 (t) .
Par indépendance
L'équation fonctionnelle obtenue en a) se traduit
n−1
P(X = n, Y = n) = P(X = n)P(Y = n) = pq (1 − p)(1 − q) . ∀s, t ∈ R+ , f (s + t) = f (s) + f (t).
Ainsi pq Sachant la fonction f continue, on peut armer que celle-ci est linéaire : il
P(X = Y ) = . existe a ∈ R tel que
p + q − pq
∀t ∈ R+ , f (t) = at.
Finalement, la probabilité que la matrice soit diagonalisable vaut
Ainsi,
1 − P(X = Y ) =
p + q − 2pq
. ∀t ∈ R+ , p0 (t) = eat .
p + q − pq
Enn, puisque la fonction p0 est décroissante, le réel a est nécessairement
négatif ce qui permet de l'écrire −λ avec λ ∈ R+ .
(c) Par l'hypothèse H5 avec p0 (t) = + 1 − λt + o(t), on obtient (f) L'événement (X = n) a la probabilité de l'événement A(n, 0, T ) et donc
t→0
(a) La loi conjointe de X et Y déterminant une probabilité En réordonnant les sommes et en simpliant les zéros
+∞
+∞ X n
+∞ X +∞
n 1
.
X X
P(X = j, Y = k) = 1.
X
P(X = k, Y = n) = p 2a(1 − p) = p
n=0 k=0 n=0
1 − (2a(1 − p))
j=0 k=0
pour j = k = 0. pour k = n = 0.
Exercice 30 : [énoncé] Enn, l'inégalité a2 + b2 ≥ 2ab valable pour tous a et b réels permet
(a) En éliminant de l'univers des possibles l'événement négligeable où la pièce d'armer la comparaison
tombe toujours du même côté, la variable aléatoire X prend ses valeurs dans 2p(1 − p)
N∗ . De même, en éliminant aussi l'événement négligeable où la deuxième E(X) ≥
p(1 − p)
= 2 = E(Y )
succession est de longueur innie, la variable Y est aussi dénie à valeurs
dans N∗ . On poursuit l'étude en supposant être dans l'univers probabiliste
correspondant. Exercice 31 : [énoncé]
Pour k, ` ∈ N∗ , calculons P(X = k, Y = `). D'une part, l'événement
(X = k, Y = `) est réalisé lorsque les k premiers lancers tombent côté Pile, les
On détermine la loi conjointe de U et V an d'en déduire les lois de U et V
` suivants coté Face et le k + ` + 1-ième coté Pile. D'autre part, l'événement
puis d'étudier leurs indépendance.
(X = k, Y = `) est aussi réalisé dans la situation inverse où l'on échange Pile Les variables X et Y prennent leur valeurs dans N∗ . La variable U prend donc
et Face et dans nulle autre situation. Par incompatibilité de ces deux aussi ses valeurs dans N∗ tandis que la variable V prend les siennes dans N.
situations et par l'indépendance des lancers, on obtient Soient k ∈ N∗ et ` ∈ N. On peut décrire l'événement (U = k, V = `) à l'aide des
variables X et Y : l'une est égale à k et l'autre à k + `
P(X = k, Y = `) = pk (1 − p)` p + (1 − p)k p` (1 − p)
(U = k, V = `) = (X = k, Y = k + `) ∪ (X = k + `, Y = k)
(b) Les lois marginales de X et Y se déduisent de la loi conjointe. Pour tout
k ∈ N∗ , Si ` 6= 0, on obtient par réunion d'événements incompatibles puis indépendance
+∞
X des variables X et Y
P(X = k) = P(X = k, Y = `)
`=1 P(U = k, V = `) = P(X = k, Y = k + `) + P(X = k + `, Y = k)
ce qui donne après sommations géométriques de raisons 1 − p et p ∈ ]0 ; 1[ : = P(X = k)P(Y = k + `) + P(X = k + `)P(Y = k)
= pq(1 − p)k−1 (1 − q)k−1 (1 − p)` + (1 − q)`
P(X = k) = (1 − p)pk + p(1 − p)k
Un calcul analogue donne, pour ` ∈ N∗ , Si ` = 0, il vient
+∞
X P(U = k, V = 0) = P(X = k, Y = k) = P(X = k)P(Y = k)
P(Y = `) = P(X = k, Y = `) = p2 (1 − p)`−1 + (1 − p)2 p`−1
= pq(1 − p)k−1 (1 − q)k−1
k=1
On peut ensuite calculer les espérances de X et Y en rappelant 3 Ceci détermine la loi conjointe de U et V et on peut en déduire les lois des
variables U et V .
+∞
1
+∞
1 Pour k ∈ N∗ ,
et
X X
k(1 − p)k−1 p = kpk−1 (1 − p) =
p 1−p +∞
k=1 k=1 X
P(U = k) = P(U = k, V = `)
On obtient `=0
p 1−p p2 + (1 − p)2
E(X) = + = On isole de la somme le terme d'indice 0 et on poursuit le calcul à l'aide de
1−p p p(1 − p)
et sommations géométriques de raisons (1 − p) et (1 − q) ∈ ]0 ; 1[ :
p 1−p
E(Y ) = + =2 k−1 k−1 1−p 1−q
p 1−p P(U = k) = pq(1 − p) (1 − q) 1+ +
p q
3. Ces formules correspondent au calcul de l'espérance de lois géométriques de paramètres p et
1 − p. = (1 − p)k−1 (1 − q)k−1 (p + q − pq)
La variable U suit une loi géométrique 4 de paramètre r = p + q − pq . On reconnaît alors une somme exponentielle et on achève le calcul :
Pour ` ∈ N,
+∞ (pλ)k λ(1−p) (pλ)k
P(V = `) =
X
P(U = k, V = `)
P(X = k) = e−λ e = e−λp .
k! k!
k=1
Ainsi, X suit une loi de Poisson de paramètre pλ. Un calcul analogue montre
En distinguant le cas ` = 0 du cas général, on obtient au terme des calculs : que Y suit une loi de Poisson de paramètre (1 − p)λ et on vérie alors pour
pq pq tout (k, `) ∈ N2
et P(V = `) = (1−p)` +(1−q)` pour ` ≥ 1
P(V = 0) =
p + q − pq p + q − pq
λk+`
k+` k
P(X = k, Y = `) = p (1 − p)` e−λ = P(X = k)P(Y = `).
On peut alors conclure que les variables U et V sont indépendantes puisque k (k + `)!
Exercice 39 : [énoncé]
On introduit la fonction génératrice de X : Exercice 41 : [énoncé]
+∞
(a) import random as rnd
a X
GX (t) = (n + k) . . . (k + 1)(pt)k .
n! def atteint(k,p):
k=0
Y = 0
Puisque while Y < k:
+∞
X dn
1
n! x = rnd.random()
(n + k) . . . (k + 1)xk = = if x < p:
dxn 1−x (1 − x)n+1
k=0 Y = Y + 2
on obtient else:
a
GX (t) = . Y = Y + 1
(1 − pt)n+1 if Y == k:
Sachant GX (1) = 1, on en tire la valeur de a return 1
else:
a = (1 − p)n+1 . return 0
et on conclut GS = GN GX (t) .
l = 1.8
E = 0
(b) GN et GX sont dérivables en 1 donc aussi GN ◦ GX et alors S admet une for i in range(N):
espérance : E = E + generation(n,l)
E = E / N
E(S) = G0S (1) = G0X (1) × G0N GX (1) = E(X)E(N ).
return E, l**n
(c) GN et GX sont deux fois dérivables en 1 donc aussi GN ◦ GX et alors S car E(Zn+1 ) = E(X)E(Zn ) (car N correspond à Zn ) et donc E(Zn ) = λn .
admet un moment d'ordre 2.
et donc puis
+∞
n(n − 1) + 2n + 1 n
P(X = x)P(Y = y) log P(X = x) +log P(Y = y) .
X X
S(t) = t H(X, Y ) = −
n=0
n! (x,y)∈X ×Y
+∞ +∞ +∞
1 1 1 n On sépare la somme en deux et l'on somme tantôt d'abord en x, tantôt
X X X
= tn + 2 tn + t
n=2
(n − 2)! n=1
(n − 1)! n=0
n! d'abord en y et l'on obtient
= (t2 + 2t + 1)et = (t + 1)2 et .
H(X, Y ) = H(X) + H(Y )
(c) GX (1) = 1 détermine λ = e−1 /4. On en déduit
car
P(Y = y) = 1.
X X
n2 + n + 1 P(X = x) =
P(X = n) = . x∈X y∈Y
4e · n!
(d) Si GX est deux fois dérivable en 1, (c) On sait
2 P(X = x | Y = y) = P(X = x, Y = y)P(Y = y)
E(X) = G0X (1) et V(X) = G00X (1) + G0X (1) − G0X (1) .
donc
Ici, on obtient E(X) = 2 et V(X) = 3/2. X
P(Y = y)H(X | Y = y) = − P(X = x, Y = y)×
x∈X
Exercice 44 : [énoncé]
log P(X = x, Y = y) − log P(Y = y) .
H(X) ∈ R+ . On sépare la somme en deux et l'on somme le résultat sur y ∈ Y pour obtenir
Si H(X) = 0 alors, par somme nulle de positifs, on a
P(X = x, Y = y) log P(Y = y) .
X X
P(Y = y)H(X | Y = y) = H(X, Y )+
∀x ∈ X , p(x) log p(x) = 0 y∈Y (x,y)∈X ×Y
et donc Or
∀x ∈ X , p(x) = 0 ou p(x) = 1.
X
Sachant que
P(X = x, Y = y) log P(Y = y)
X
p(x) = P(X ∈ X ) = 1 (x,y)∈X ×Y
XX
x∈X = P(X = x, Y = y) log P(Y = y)
on peut armer qu'il existe x ∈ X tel que p(x) = P(X = x) = 1. y∈Y x∈X
La variable X est alors presque sûrement constante. avec
(b) Par dénition
X
P(X = x, Y = y) = P(Y = y)
x∈X
P(X = x, Y = y) log P(X = x, Y = y) .
X
H(X, Y ) = −
(x,y)∈X ×Y
donc
P(Y = y)H(X | Y = y) = H(X, Y ) − H(Y ).
X
Or les variables X et Y étant indépendantes y∈Y
Exercice 45 : [énoncé] Notons (xn )n∈N une énumération des valeurs de X . Pour t ∈ ]−a ; a[
Supposons les variables aléatoires X et Y = f (X) indépendantes. +∞ +∞
Il existe au moins une valeur x par X vériant P(X = x) > 0. En eet, la variable MX (t) =
X
P(X = xn )etxn =
X
un (t)
X étant discrète P(Ω) = 1 est la somme des probabilités des événements valeurs n=0 n=0
(X = x). Considérons ensuite la valeur y = f (x).
avec
P(f (X) = y ∩ X = x) un (t) = P(X = xn )etxn .
P(f (X) = y | X = x) = . Par hypothèse, la série de fonctions convergence simplement sur ]−a ; a[.
P(X = x)
Les fonctions un sont toutes de classe C ∞ avec
Or (X = x) ⊂ (f (X) = y), donc
u(k) k txn
n (t) = P(X = xn )xn e .
P(f (X) = y | X = x) = 1. Soit α > 0 tel que [−α ; α] ⊂ ]−a ; a[.
Pour t ∈ [−α ; α], on peut écrire
Cependant, les variables X et f (X) étant supposées indépendantes
un (t) ≤ P(X = xn )xkn eα|xn | .
(k)
P(f (X) = y | X = x) = P(f (X) = y).
Introduisons ρ ∈ ]α ; a[. On peut écrire
Ainsi, l'événement (f (X) = y) est presque sûr. La variable aléatoire Y est donc P(X = xn )|xn |k eα|xn | = |xn |k e(α−ρ)|xn | × P(X = xn )eρ|xn | .
presque sûrement constante. La réciproque est immédiate et donc X et Y = f (X)
sont indépendantes si, et seulement si, Y est presque sûrement constante. D'une part, la fonction t 7→ tk e(α−ρ)t est dénie et continue sur [0 ; +∞[ et de
limite nulle en +∞, elle est donc bornée ce qui permet d'introduire une
constante Mk vériant
Exercice 46 : [énoncé] ∀n ∈ N, |xn |k e(α−ρ)|xn | ≤ Mk .
(a) Soit t ∈ R, on a, avec convergence absolue D'autre part,
+∞
λk kt t P(X = xn )eρ|xn | ≤ P(X = xn )eρxn + P(X = xn )e−ρxn .
e = eλ(e −1) .
X
MX (t) = e−λ
k=0
k! En vertu de la convergence en ±ρ de la série dénissant MX (t), on peut
assurer la convergence de la série positive
(b) Si X ne prend qu'un nombre ni de valeurs {x1 , . . . , xn }, l'aaire est
P(X = xn )eρ|xn | .
X
entendue : la fonction génératrice des moments de X est développable en
série entière sur R avec La majoration uniforme
n
un (t) ≤ Mk P(X = xn )eρ|xn |
X (k)
MX (t) = etxk P(X = xk )
k=1
donne la convergence normale de u(k)n sur [−α ; α].
P
et après permutation des sommes Via convergence uniforme sur tout segment, on peut conclure que MX est de
classe C ∞ sur ]−a ; a[.
+∞
1X
n +∞
1 De plus, on a pour tout ordre de dérivation k et avec sommabilité la relation
E(X ` )t` .
X X
` `
MX (t) = (xk ) P(X = xk )t =
`! `! +∞ +∞
`=0 k=1 `=0
xkn P(X = xn ) = E(X k ).
(k)
X X
MX (0) = u(k)
n (0) =
Si X prend une innité de valeurs, c'est plus technique. . . n=0 n=0
Exercice 47 : [énoncé] (b) Sachant que les valeurs prises par Xn gurent parmi les k/n avec k ∈ J0 ; nK,
Posons la formule de transfert donne
X1 + · · · + Xn
X= . n
n k k k n k
avec P Xn = x (1−x)n−k .
X
E(Yn ) = f P Xn = = P(Sn = k) =
Par linéarité de l'espérance k=0
n n n k
n n
1 1 Ainsi
pi .
X X
E(X) = E(Xi ) = n
n k k
n i=1
n i=1 Bn (f )(x) =
X
f x (1 − x)n−k .
k n
k=0
Les variables étant deux à deux indépendantes
La fonction x 7→ Bn (f )(x) est bien une fonction polynôme.
n n
1 X
V(X) = 2
1 X
V(Xi ) = 2 pi (1 − pi ) ≤
1 (c) Sachant
n i=1 n i=1 4n k k
f
n − f (x) ≤ f + f (x) ≤ 2M
n
car x(1 − x) ≤ 1/4 pour tout x ∈ [0 ; 1]. on obtient
En appliquant l'inégalité de Bienaymé-Tchebychev, on écrit
V(X)
X k X
f − f (x) P(Xn = k/n) ≤ 2M P(Xn = k/n) = 2M P |Xn −x|
.
P X − E(X) ≥ ε ≤
n
ε2
k k
| n −x|>α |n −x|>α
Par l'inégalité de Bienaymé-Tchebychev, on peut armer (d) Pour n assez grand, on a M/2nα2 ≤ ε et alors
V(X )
n
.
P Xn − E(Xn ) > α ≤
X k X k
α2
Bn (f )(x)−f (x) ≤ f − f (x) P(Xn = k/n)+
f − f (x
n n
On en déduit
k k
| n −x|≤α | n −x|>α
x(1 − x)
1
P |Xn − x| > α ≤ 2
≤
nα 4nα2
car x(1 − x) ≤ 1/4 pour tout x ∈ [0 ; 1]. Exercice 49 : [énoncé]
(a) import random as rnd (d) On écrit Xi = ai Yi avec E(Yi ) = 0 et |Yi | ≤ 1 et alors
import math !
n
exp(tai Yi ) .
Y
E exp(tS) = E
def S(n,p):
i=1
R = 0
for k in range(n+1): Par indépendance et l'inégalité précédente
if rnd.random() < p: R = R + 1 n n n
!
return R/n t2 X 2
1 2 2
a .
Y Y
E exp(tS) = E exp(tai Yi ) ≤ exp t ai = exp
i=1 i=1
2 2 i=1 i
import matplotlib.pyplot as plt
Par l'inégalité de Markov
def test(n,p):
Lk = range(1,n) P(Sn > ε) = P exp(tSn ) > exp(tε) ≤ exp(−tε)E exp(tSn )
LS = [S(k,p) for k in Lk] ce qui donne l'inégalité voulue.
Linf = [p - math.sqrt(math.log(k)/k) for k in Lk]
Lsup = [p + math.sqrt(math.log(k)/k) for k in Lk] (e) On prend
ε
plt.clf() t = Pn .
a2i
plt.plot(Lk,LS) i=1
Pour t = r, il vient
2
P(X > r) ≤ e−r /2
.
En considérant X 0 = −X , on obtient
2
P(X < −r) ≤ e−r /2
et on conclut 2
P |X| > r ≤ 2e−r /2 .
Exercice 51 : [énoncé]
Par l'inégalité de Bienaymé-Tchebychev
σ2 1
= 2.
P X − E(X) ≥ ασ < 2
(ασ ) α