Variables Aléatoires Discrètes 1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 36

[http://mp.cpgedupuydelome.

fr] édité le 3 novembre 2017 Enoncés 1

Variables aléatoires discrètes Espérances et variances

Exercice 3 [ 04018 ] [Correction]


Variables aléatoires Soit X une variable aléatoire discrète à valeurs dans [a ; b].
(a) Montrer que X admet une espérance m et que celle-ci est élément de [a ; b].
Exercice 1 [ 04093 ] [Correction] La variable X admet aussi une variance σ 2 que l'on se propose de majorer.
Soit (Xn )n∈N une suite de variables aléatoires discrètes à valeurs dans un On introduit la variable aléatoire Y = X − m et les quantités
ensemble E et N une variable aléatoire à valeurs naturelles toutes dénies sur un
même espace probabilisable (Ω, T ). On dénit une fonction Y par y 2 P(Y = y) et u = P(Y ≥ 0).
X X
t= yP (Y = y), s =
y≥0 y≥0
∀ω ∈ Ω, Y (ω) = XN (ω) (ω).
(b) Vérier
Justier que Y est une variable aléatoire discrète. t2 ≤ su.

(c) Calculer espérance et variance de Y . En déduire

Exercice 2 [ 04094 ] [Correction] t2 ≤ (σ 2 − s)(1 − u).


Soit T une variable aléatoire à valeurs naturelles vériant
(d) En exploitant les deux majorations précédentes, obtenir
∀n ∈ N, P(T > n) > 0.
t2 ≤ σ 2 /4.
On appelle taux de panne associé à T la suite (θn )n∈N déterminée par
(e) Conclure
θn = P(T = n | T ≥ n). σ 2 ≤ (b − a)2 /4.

Typiquement, si T est la variable aléatoire indiquant l'instant où un matériel


tombe à panne, la quantité θn indique la probabilité qu'il tombe en panne à Exercice 4 [ 04028 ] [Correction]
l'instant présent alors qu'il est actuellement fonctionnel. On dit qu'une variable aléatoire X suit une loi binomiale négative de paramètres
(a) Justier n et p si

∀n ∈ N, θn ∈ [0 ; 1[.
 
k−1 n
X(Ω) = {n, n + 1, . . .} et P(X = k) = p (1 − p)k−n .
n−1
(b) Exprimer en fonction des termes de Pla suite (θn )n∈N , la probabilité P(T ≥ n).
En déduire la divergence de la série θn . (a) Soit X1 , . . . , Xn des variables aléatoires indépendantes suivant toutes une loi
géométrique de paramètre p.
(c) Inversement, soit (θn )n∈N une suite vériant
Montrer que X1 + · · · + Xn suit une loi binomiale négatives de paramètres n
et p.
∀n ∈ N, θn ∈ [0 ; 1[ et θn diverge.
X
(b) En déduire espérance et variance d'un loi binomiale négatives de paramètres
n et p.
Montrer que la suite (θn )n∈N est un taux de panne associé à une certaine
variable aléatoire T .

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 2

Exercice 5 [ 04032 ] [Correction] (a) Déterminer P(T = k) et P(T = k + 1).


On suppose qu'à la roulette d'un Casino, on obtient la couleur noire avec la (b) Soit n ≥ 1, établir
probabilité 1/2, la couleur rouge sinon (bref, on ne suppose pas de 0 vert. . . ). Un
joueur fortuné joue selon le protocole suivant : N −1
P(T = n + k) = P(T > n).
 il mise initialement 1 brouzouf sur la couleur noire ; Nk
 s'il gagne, il arrête de jouer et empoche le double de sa mise.
 s'il perd, il double sa mise et rejoue. (c) En déduire que la variable T admet une espérance et déterminer celle-ci.
(a) On suppose la fortune du joueur innie.
Montrer que le jeu s'arrête presque sûrement. Déterminer l'espérance de gain
du joueur. Exercice 8 [ 04130 ] [Correction]
On considère une suite (Xn )n≥1 de variables de Bernoulli indépendantes de même
(b) On suppose toujours la fortune du joueur innie.
paramètre p ∈ ]0 ; 1[ et l'on étudie la première apparition de deux succès
Que se passe-t-il si au lieu de doubler, il décide de tripler sa mise lorsqu'il
consécutifs dans cette suite.
rejoue ?
(c) Le joueur n'est en fait pas si fortuné qu'il le prétend : il ne possède que 2n − 1 (a) Montrer qu'il est presque sûr qu'il existe n ≥ 2 vériant
brouzoufs ce qui l'autorise à ne pouvoir jouer que n parties. Que devient son Xn = Xn−1 = 1.
espérance de gain ?
(b) On note T la variable aléatoire donnée par
Exercice 6 [ 04121 ] [Correction]
Un joueur dispose de N dés équilibrés. Il lance une première fois ceux-ci et on note T = min{n ≥ 2 | Xn = Xn−1 = 1} ∪ {+∞}.
X1 le nombre de  six  obtenus. Il met de côté les dés correspondants et relance
Calculer P(T = 2), P(T = 3) et exprimer, pour n ≥ 4, P(T = n) en fonction
les autres dés (s'il en reste). On note X2 le nombre de  six  obtenus et on répète de P(T = n − 1) et P(T = n − 2).
l'expérience dénissant ainsi une suite de variables aléatoires X1 , X2 , . . ..
La variable Sn = X1 + X2 + · · · + Xn correspond alors au nombre de  six  (c) Justier que T admet une espérance nie et calculer celle-ci.
obtenu après n lancers.
(a) Vérier que Sn suit une loi binomiale dont on précisera les paramètres.
Exercice 9 [ 04019 ] [Correction]
(b) Montrer qu'il est presque sûr qu'il existe un rang n pour lequel Sn = N .
On lance une pièce équilibrée jusqu'à ce que celle-ci ait produit au moins une fois
(c) On dénit alors la variable aléatoire  face  et une fois  pile .
T = min{n ≥ 1 | Sn = N } ∪ {+∞}. (a) Montrer qu'il est presque sûr que le jeu s'arrête.
Déterminer la loi de T . (b) On note X le nombre de lancers avant que le jeu cesse.
Montrer que X admet une espérance et déterminer celle-ci.
(d) Vérier que la variable T admet une espérance et donner une formule
exprimant celle-ci. Calculer cette espérance pour N = 1 et N = 2.
Exercice 10 [ 04184 ] [Correction]
Exercice 7 [ 04124 ] [Correction] Soit (Ω, T , P) un espace probabilisé et (En )n∈N une suite d'événements
Dans une urne gurent N boules numérotées de 1 à N (avec N ≥ 2). Dans celle-ci quelconques vériant
on opère des tirages successifs (avec remise) jusqu'à l'obtention d'une série de k +∞
P(En ) < +∞.
X
boules consécutives identiques (k ≥ 2). On admet qu'il est presque sûr que ce
processus s'arrête et on note T la variable aléatoire déterminant le nombre de n=0

tirages opérés à l'arrêt du processus. Pour X un ensemble quelconque, on note 1X la fonction indicatrice de X .

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 3

(a) Soit Z = +∞n=0 1En (on convient Z = +∞ si la série diverge). Covariances


P

Prouvez que Z est une variable aléatoire discrète.


(b) Soit Exercice 13 [ 04086 ] [Correction]
F = ω ∈ Ω ω n'appartient qu'à un nombre ni de En . Soient X et Y deux variables aléatoires réelles admettant chacune une variance.

On suppose V(X) > 0. Déterminer a, b ∈ R minimisant la quantité
Prouver que F est un événement et que P(F ) = 1.
(c) Prouver que Z admet une espérance.
 2 
E Y − (aX + b) .

Exercice 11 [ 04182 ] [Correction] Exercice 14 [ 04048 ] [Correction]


On s'intéresse à la première apparition du motif  PF  dans un tirage inni de Un signal est diusé via un canal et un bruit vient malheureusement s'ajouter à la
pile ou face, indépendants et non truqués. On note Ai l'événement transmission. Le signal est modélisé par une variable aléatoire discrète réelle S
 Le motif PF apparaît pour la première fois au rang i . d'espérance mS et de variance σS2 connues. Le bruit est modélisé par une variable
B indépendante de S d'espérance nulle et de variance σB 2
> 0. Après diusion, le
(c'est-à-dire que le P est en position i − 1 et le F en position i). On signal reçu est X = S + B .
pose qi = P(Ai ) et T la variable aléatoire donnant le rang d'apparition du motif. Déterminer a, b ∈ R pour que Y = aX + b soit au plus proche de S i.e. tel que
(a) Écrire un programme Python calculant la moyenne d'apparition du motif. l'espérance E (Y − S)2 soit minimale.
Conjecture ?
(b) Montrer que   Exercice 15 [ 04047 ] [Correction]
= 1. Soit X1 , . . . , Xn des variables aléatoires discrètes réelles. On appelle matrice de
[
P Ai
i≥2 covariance de la famille (X1 , . . . , Xn ) la matrice
(c) Décrire An , pour n ≥ 2 et en déduire la valeur de qn . Σ = Cov(Xi , Xj ) 1≤i,j≤n .

(d) Montrer que T est d'espérance nie et calculer son espérance.
On s'intéresse maintenant à la première apparition du motif  PP . On note (a) Soit X = a1 X1 + · · · + an Xn avec ai ∈ R.
toujours T la variable aléatoire donnant le rang de première apparition du motif Exprimer la variance de X en fonction de la matrice Σ.
et qn = P(T = n), pour n ≥ 2. (b) En déduire que les valeurs propres de la matrice Σ sont toutes positives.
(e) Calculer avec Python la moyenne d'apparition du motif. Conjecture ?
(f) Montrer que q2 = 1/4, q3 = 1/8 et Exercice 16 [ 04181 ] [Correction]
qn−1 qn−2 Soit (U, V ) un couple de variables aléatoires indépendantes suivant la loi
∀n ≥ 4, qn = + . binomiale B(2, 1/2).
2 4
(g) Montrer que T est d'espérance nie et calculer son espérance. (a) Montrer que la somme de n variables aléatoires réelles indépendantes qui
suivent la loi de Bernoulli de paramètre p ∈ ]0 ; 1[ suit une loi binomiale dont
on précisera les paramètres.
Exercice 12 [ 04949 ] [Correction] (b) On pose S = (U − 1)2 + (V − 1)2 . Déterminer la loi de S .
Pour un entier n ≥ 2, on donne une matrice M ∈ Mn (R) dont les coecients mi,j (c) On pose T = (U − 1)(V − 1) + 1. Calculer E S(T − 1) . Déterminer la loi de

sont des variables aléatoires indépendantes et identiquement distribuées selon une T . Calculer la covariance de (S, T ). Les variables S et T sont-elles
loi d'espérance µ. Pour λ ∈ R, calculer l'espérance de χM (λ). indépendantes ?

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 4

Exercice 17 [ 05001 ] [Correction] Exercice 23 [ 04126 ] [Correction]


Soient X1 et X2 deux variables aléatoires réelles suivant toutes les deux la loi On lance cinq dés. Après ce premier lancer ceux des dés qui ont donné un  As 
d'une variable aléatoire X bornée. sont mis de côtés et les autres sont relancés. On procède ainsi jusqu'à l'obtention
On suppose que X1 + X2 suit la loi de la variable 2X . Montrer que X1 = X2 des cinq  As . On note T la variable aléatoire déterminant le nombre de lancers
presque sûrement 1 . nécessaires.
(a) Calculer P(T ≤ n) pour n ∈ N∗
Lois usuelles (b) En déduire que T admet une espérance et déterminer celle-ci.

Exercice 18 [ 04021 ] [Correction]


Soit X et Y deux variables aléatoires discrètes indépendantes. Exercice 24 [ 04127 ] [Correction]
On suppose que celles-ci suivent une même loi géométrique de paramètre p. Soit X et Y deux variables aléatoires indépendantes suivant des lois géométriques
Déterminer la loi de Z = X + Y . de paramètres p et q > 0.
Quelle est la probabilité que la matrice suivante soit diagonalisable ?
 
X 1
Exercice 19 [ 04034 ] [Correction] A=
0 Y
.
Soit X une variable aléatoire de Poisson de paramètre λ > 0.
(a) Pour quelle valeur de n ∈ N, la probabilité de l'évènement (X = n) est-elle
maximale ? Exercice 25 [ 04129 ] [Correction]
(b) Inversement, n étant xé, pour quelle valeur du paramètre λ, la probabilité On souhaite modéliser le nombre d'arrivées de  clients  dans un  service 
de (X = n) est-elle maximale ? durant un laps de temps T .
Pour n ∈ N et s, t ∈ R avec 0 ≤ s ≤ t, on note A(n, s, t) l'événement

Exercice 20 [ 04036 ] [Correction]  il arrive n clients dans l'intervalle de temps de [s ; t[ 


Soit X une variable aléatoire suivant une loi géométrique de paramètre p. Calculer On admet l'existence d'un espace probabilisé permettant d'étudier la probabilité
 
1 de cet événement en supposant :
E . (H1) pour tous m, n ∈ N et tous réels 0 ≤ r ≤ s ≤ t, les événements A(m, r, s)
X
et A(n, s, t) sont indépendants ;
(H2) la probabilité de l'événement A(n, s, t) ne dépend que de n et du réel
t − s. On note
Exercice 21 [ 04045 ] [Correction]
pn (t) = P A(n, 0, t) .

Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ > 0.
Déterminer la probabilité que la valeur de X soit pair. (H3) la fonction p0 est continue et p0 (0) = 1 ;
(H4) pour tout t ∈ R+ ,
+∞
pn (t) = 1.
X
Exercice 22 [ 04115 ] [Correction]
Soit X et Y deux variables aléatoires indépendantes suivant des lois géométriques n=0

de paramètres p, q ∈ ]0 ; 1[. (H5) on a le développement asymptotique


Calculer P(X < Y ).
1 − p0 (t) − p1 (t) = + o p1 (t) .

1. Ceci signie P(X1 = X2 ) = 1. t→0

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 5

Cette dernière hypothèse signie que, durant un laps de temps minime, la (a) Déterminer la valeur de a.
probabilité d'arrivée d'au moins deux clients est négligeable devant la probabilité (b) Reconnaître les lois marginales de X et Y .
d'arrivée d'un seul client.
(c) Les variables X et Y sont elles indépendantes ?
(a) Justier que la fonction p0 est décroissante et que
∀s, t ∈ R+ , p0 (s + t) = p0 (s)p0 (t).
Exercice 28 [ 04056 ] [Correction]
(b) Montrer que p0 est à valeurs strictement positives et qu'il existe un réel λ ≥ 0 Soient X et Y deux variables aléatoires à valeurs dans N.
vériant On suppose que la loi conjointe de X et Y vérie
∀t ∈ R+ , p0 (t) = e−λt .
j+k
(c) Justier ∀(j, k) ∈ N2 , P(X = j, Y = k) = a avec a ∈ R.
2j+k
p1 (t) = λt + o(t) et ∀n ≥ 2, pn (t) = o(t).
t→0+ t→0+ (a) Déterminer la valeur de a.
(d) Soit n ∈ N . Montrer

(b) Déterminer les lois marginales X et Y .
n
(c) Les variables X et Y sont elles indépendantes ?
pk (s)pn−k (t).
X
∀s, t ≥ 0, pn (s + t) =
(d) Calculer P(X = Y ).
k=0

En déduire que la fonction pn est dérivable et


∀t ≥ 0, p0n (t) = λ(pn−1 (t) − pn (t)). Exercice 29 [ 04057 ] [Correction]
Soient X et Y deux variables aléatoires à valeurs dans N et p ∈ ]0 ; 1[.
(e) Obtenir l'expression de pn (t) (on pourra étudier qn (t) = eλt pn (t)). On suppose que la loi conjointe de X et Y vérie
(f) On note X la variable aléatoire déterminant le nombre de  clients  arrivant ( 
durant le laps de temps T > 0. Déterminer la loi de X . Comment interpréter
n
an p(1 − p)n si k ≤ n
P(X = k, Y = n) = k avec a ∈ R.
le paramètre λ ? 0 sinon
(a) Déterminer la valeur de a.
Loi conjointes, Loi marginales (b) Déterminer la loi marginale de Y .
(c) Sachant
Exercice 26 [ 04054 ] [Correction] +∞  
n n−k 1
Soient X et Y deux variables aléatoires à valeurs dans N. .
X
∀x ∈ ]−1 ; 1[, x =
k (1 − x)k+1
On suppose que X suit une loi de Poisson de paramètre λ > 0 et que la loi de Y n=k
sachant X = n est binomiale de paramètres n et p ∈ ]0 ; 1[. Reconnaître la loi de X
(a) Déterminer la loi conjointe de (X, Y ). (d) Les variables X et Y sont elle indépendantes ?
(b) Reconnaître la loi de Y .

Exercice 30 [ 05003 ] [Correction]


Exercice 27 [ 04055 ] [Correction] On réalise une suite de lancers indépendants d'une pièce ayant la probabilité
Soient X et Y deux variables aléatoires à valeurs dans N. p ∈ ]0 ; 1[ de tomber côté Pile. On note X la longueur de la première série de
On suppose que la loi conjointe de X et Y vérie lancers identiques et Y la longueur de la seconde série. Par exemple, les
P(X = j, Y = k) =
a
avec a ∈ R. successions de lancers PPFFFP. . . et FFPPPF. . . correspondent à X = 2 et
j!k! Y = 3.

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 6

(a) Déterminer la loi conjointe du couple (X, Y ). Fonctions génératrices


(b) Calculer les espérances de X et Y et comparer celles-ci.
Exercice 33 [ 04027 ] [Correction]
On considère une expérience aléatoire ayant la probabilité p > 0 de réussir et
Exercice 31 [ 05004 ] [Correction] 1 − p d'échouer.
Soient X et Y deux variables aléatoires indépendantes suivant chacune des lois On répète l'expérience indépendamment jusqu'à obtention de m succès et on note
géométriques de paramètres p et q ∈ ]0 ; 1[. On pose Tm le nombre d'essais nécessaires à l'obtention de ces m succès.
(a) Reconnaître la loi de T1 .
U = min(X, Y ) et V = max(X, Y ) − min(X, Y )(ou|X − Y |??)
(b) Déterminer la loi de Tm dans le cas général m ∈ N∗ .
Les variables U et V sont-elles indépendantes ? (c) Exprimer le développement en série entière de
1
.
Exercice 32 [ 05006 ] [Correction] (1 − t)m
Soit (Ui )i∈N∗ une suite de variables aléatoires mutuellement indépendantes suivant
chacune une loi de Bernoulli de paramètre p ∈ ]0 ; 1[. Soient N une variable à (d) Déterminer la fonction génératrice de Tm et en déduire son espérance.
valeurs dans N indépendantes des précédentes et X, Y les variables déterminées
par
N N
Exercice 34 [ 04039 ] [Correction]
et Y = N − Ui .
X X
X= Ui
Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ > 0.
i=1 i=1
(a) Calculer
(a) Vérier
E X(X − 1) . . . (X − r + 1) .

 
k+` k
P(X = k, Y = `) = p (1 − p)` P(N = k + `) pour tout (k, `) ∈ N2 . (b) Retrouver ce résultat par les fonctions génératrices.
k

(b) On suppose que N suit une loi de Poisson de paramètre λ > 0. Montrer que
les variables X et Y sont indépendantes. Exercice 35 [ 04040 ] [Correction]
Soit X une variable aléatoire suivant une loi géométrique de paramètre p ∈ ]0 ; 1[.
Inversement, on suppose que les variables X et Y sont indépendantes et que la
variable N n'est pas presque sûrement nulle. On pose (a) Calculer
E X(X − 1) . . . (X − r + 1) .

pk = P(X = k) et q` = P(Y = `) pour tous k, ` ∈ N.
(b) Retrouver ce résultat par les fonctions génératrices.
(a) Justier que les pk et les q` sont tous strictement positifs.
(b) Vérier que
Exercice 36 [ 04024 ] [Correction]
(k + 1)pk+1 q` (1 − p) = (` + 1)pk q`+1 p pour tous k, ` ∈ N. Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ > 0.
(c) En déduire une relation de récurrence sur les termes de la suite (pk ) puis (a) Rappeler la fonction génératrice de la variable X .
identier la loi suivie par X . (b) Exploiter celle-ci pour calculer le moment centré d'ordre 3 de la variable X .
(d) En déduire que N suit une loi de Poisson.

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 7

Exercice 37 [ 04091 ] [Correction] qui donne la position du pion à l'instant n,


On considère une expérience aléatoire ayant la probabilité p de réussir et q = 1 − p
+∞
d'échouer dénissant une suite de variables de Bernoulli indépendantes (Xn )n≥1 .
fi = P(Y1 = i) et f (t) = fi ti .
X
Pour m ∈ N∗ , on note Sm la variable aléatoire déterminant le nombre d'essais
i=1
jusqu'à l'obtention de m succès :
Enn, on introduit k ∈ N∗ .
Sm = k ⇐⇒ X1 + · · · + Xk = m et X1 + · · · + Xk−1 < m.
(a) On suppose que Y1 − 1 suit la loi de Bernoulli de paramètre p ∈ ]0 ; 1[.
(a) Déterminer la loi et la fonction génératrice de S1 . Écrire en Python une fonction qui prend un paramètre entier k et qui
(b) Même question avec Sm − Sm−1 pour m ≥ 2. renvoie 1 si le pion atteint la case k et 0 sinon.
Écrire une fonction qui, sur une trentaine d'essais, renvoie la proportion de
(c) Déterminer la fonction génératrice de Sm puis la loi de Sm
fois où le pion atteint la case k. Comparer à 1/E(Y1 ).
On note Ek l'événement :  le pion atteint la case k  et uk = P(Ek ).
Exercice 38 [ 04114 ] [Correction] (b) Décrire l'événement Ek à l'aide des variable aléatoires Sn .
Une urne contient 4 boules rapportant 0, 1, 1, 2 points. On y eectue n tirages (c) Calculer P Ek ∩ {Y1 = j} pour 1 ≤ j ≤ k.

avec remise et l'on note S le score total obtenu.
Déterminer la fonction génératrice de S et en déduire la loi de S . (d) En déduire
k
uk−j fj .
X
∀k ∈ N∗ , uk =
Exercice 39 [ 04117 ] [Correction]
j=1

Soit X une variable aléatoire à valeurs naturelles dont la loi est donnée par (e) Justier la dénition de
 
n+k k +∞
P(X = k) = a p (avec a > 0 et p ∈ ]0 ; 1[). pour t ∈ [0 ; 1]
X
k u(t) = uk tk
k=0
Calculer espérance et variance de X .
et montrer que u(t) = 1−f (t) .
1

(f) Calculer u dans le cas où Y1 − 1 suit une loi de Bernoulli de paramètre


Exercice 40 [ 04194 ] [Correction] p ∈ ]0 ; 1[ et en déduire les uk .
Montrer par les fonctions génératrices qu'il est impossible de  truquer  deux dés
(g) On suppose que Y1 prend un nombre ni de valeurs et que les entiers k tels
cubiques et indépendants pour que la somme d'un lancer suive une loi uniforme
que P(Y1 = k) 6= 0 sont premiers entre eux dans leur ensemble. Montrer que
sur J2 ; 12K
(uk ) tend vers 1/E(Y1 ).

Exercice 41 [ 04169 ] [Correction]


Exercice 42 [ 04180 ] [Correction]
Un pion se déplace sur des cases numérotées par les entiers naturels. Initialement,
Soit (Ω, T , P) un espace probabilisé, X une variable aléatoire à valeurs dans N ,
il se trouve sur la case 0 et à chaque instant, il se déplace d'un nombre strictement
(Xn )n≥1 une suite de variables aléatoires i.i.d suivant la loi de X et N une
positif de cases. On note Yi la variable aléatoire donnant le nombre de cases
variable aléatoire indépendante des Xi et à valeurs dans N. Pour ω ∈ Ω, on pose
parcourues lors de la i-ème étape. On suppose que les Yi sont indépendantes et
suivent la même loi. On pose N (ω)
n
Xk (ω).
X
X S(ω) =
Sn = Yi
k=1
i=1

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 8

(a) Soit GX , GS et GN les séries génératrices de X , S et N . Montrer On appelle entropie de la variable X le réel
∀t ∈ [0 ; 1], GS (t) = GN ◦ GX (t).
X 
H(X) = − p(x) log p(x)
x∈X
(b) On suppose que X et N possèdent une espérance. Montrer que S possède une
où l'on convient 0 log 0 = 0.
espérance et la calculer.
(a) Vérier que H(X) est un réel positif. À quelle condition celui-ci est-il nul ?
(c) On suppose que X et N ont un moment d'ordre 2. Montrer que S possède un
Soient X et Y deux variables aléatoires à valeurs dans des ensembles nis X
moment d'ordre 2 et calculer la variance de S .
et Y .
On étudie la transmission du nom de famille au cours des générations dans une (b) On appelle entropie conjointe de X et Y , l'entropie de la variable Z = (X, Y )
société patriarcale. On suppose que le nombre de descendants masculins d'un simplement notée H(X, Y ).
individu suit une loi de Poisson de paramètre λ ∈ ]0 ; +∞[. On note Z0 le nombre On suppose les variables X et Y indépendantes, vérier
d'individus masculins au début de l'étude, Zn le nombre de descendants à la
n-ième génération. On suppose que Z0 = 1. H(X, Y ) = H(X) + H(Y ).
(d) Écrire une fonction Python renvoyant le nombre de descendants masculins à
(c) On appelle entropie de X sachant Y la quantité
la n-ième génération.
(e) Fixer λ et n. Calculer une moyenne, sur un grand nombre de mesures, du H(X | Y ) = H(X, Y ) − H(Y ).
nombre de descendants masculins. Comparer à E(Zn ).
Vérier X
H(X | Y ) = P(Y = y)H(X | Y = y)
y∈Y
Exercice 43 [ 04943 ] [Correction]
avec
(a) Donner le rayon de convergence de la série entière
P(X = x | Y = y) log(P(X = x | Y = y)).
X
H(X | Y = y) = −
X n2 + n + 1 x∈X
tn .
n!
n≥0
Indépendance
(b) Rappeler le développement en série entière de la fonction exponentielle et
calculer S(t) pour tout réel t convenable. Exercice 45 [ 04083 ] [Correction]
Une variable aléatoire X à valeurs dans N vérie GX (t) = λS(t) avec λ > 0. Soient X une variable aléatoire discrète dénie sur (Ω, A, P) et f une application
dénie sur X(Ω).
(c) Déterminer λ puis P(X = n) pour n ∈ N. À quelle condition les variables aléatoires X et Y = f (X) sont-elles
(d) Rappeler les expressions de l'espérance et de la variance à l'aide de la indépendantes ?
fonction génératrice et en déduire E(X) et V(X).
Moments
Applications
Exercice 46 [ 04023 ] [Correction]
Exercice 44 [ 04049 ] [Correction] Soit X une variable aléatoire discrète réelle. Sous réserve d'existence, on appelle
Soit X une variable aléatoire à valeurs dans un ensemble ni X . Pour chaque fonction génératrice des moments de X l'application
valeur x ∈ X , on pose
MX (t) = E etX .

p(x) = P(X = x).

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 9

(a) On suppose que X suit une loi de Poisson de paramètre λ. Déterminer MX (t). et    
(b) On suppose que la fonction MX est dénie sur un intervalle ]−a ; a[. k
X
f − f (x) P(Xn = k/n) ≤ ε.

Montrer qu'elle y est de classe C ∞ et qu'on a n

k
| n −x|≤α

MX (0).
n (n)
E(X ) = (d) Conclure qu'à partir d'un certain rang, on a
∀x ∈ [0 ; 1], Bn (f )(x) − f (x) ≤ 2ε.

Inégalités de concentration
Ce résultat constitue une démonstration  probabiliste  du théorème de
Exercice 47 [ 04113 ] [Correction] Stone-Weierstrass assurant que toute fonction réelle continue sur un segment
Soit (Xn )n≥1 une suite de variables aléatoires deux à deux indépendantes avec Xn peut être uniformément approchée par une fonction polynôme.
suivant une loi de Bernoulli de paramètre pn . Montrer que pour tout ε > 0
Exercice 49 [ 04183 ] [Correction]
 
X + · · · + X n
1
pi < ε = 1.
1 n
X
lim P −

n→+∞ n n i=1 (a) Écrire une fonction S(n,p) qui simule une variable aléatoire Sn = Y /n, où Y
suit une loi binomiale B(n, p).
En déduire une fonction test(n,p) qui ache les courbes interpolant les
Exercice 48 [ 04122 ] [Correction] points (k, Sk ), puis
Soit f : [0 ; 1] → R une fonction continue et n ∈ N∗ . r ! r !
(a) Soit Sn une variable aléatoire suivant une loi binomiale de paramètres n et ln k ln k
k, p − et k, p + .
x ∈ [0 ; 1] et Xn = Sn /n k k
Donner les valeurs de l'espérance et de la variance de Xn . Justier
Que remarque-t-on ?
1
. (b) Soit t ∈ R et x ∈ [−1 ; 1]. Montrer que

∀α > 0, P |Xn − x| > α ≤
4nα2
1 1
(b) On introduit la variable aléatoire Yn = f (Xn ) et on pose Bn (f )(x) = E(Yn ). etx ≤ (1 − x)e−t + (1 + x)et .
Vérier que Bn (f )(x) est une fonction polynôme de la variable x. 2 2
Soit ε > 0. La fonction f étant continue sur le segment [0 ; 1], elle y est (c) On considère une variable aléatoire X telle que |X| ≤ 1 et E(X) = 0. Montrer
uniformément continue (théorème de Heine). Ceci assure l'existence d'un réel que exp(tX) est d'espérance nie et
α > 0 vériant
E exp(tX) ≤ ch t ≤ exp(t2 /2).

∀(x, y) ∈ [0 ; 1] , |y − x| ≤ α =⇒ f (y) − f (x) ≤ ε.
2

Au surplus, la fonction f étant continue sur un segment, elle y est bornée (d) Soit X1 , . . . , Xn des variables aléatoires centrées indépendantes telles que,
(théorème de la borne atteinte). Ceci permet d'introduire un réel M vériant pour tout i, |Xi | ≤ ai . On pose
n
∀x ∈ [0 ; 1], f (x) ≤ M .

Xi .
X
Sn =
(c) Avec les notations ci-dessus, établir i=1

    Montrer
k M
X n
!
f − f (x) P(Xn = k/n) ≤ t2 X 2
a .


n 2nα2 E exp(tS) ≤ exp
k
| n −x|>α 2 i=1 i

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Enoncés 10

Soit ε > 0. Montrer


n
!
t2 X 2
P(Sn > ε) ≤ exp −tε + a .
2 i=1 i

(e) En choisissant une bonne valeur de t, montrer


!
ε2
P(Sn > ε) ≤ exp − Pn .
2 i=1 a2i

(f) Commenter le résultat observé à la première question.

Exercice 50 [ 04948 ] [Correction]


Soit (Ω, T , P) un espace probabilisé et X une variable aléatoire centrée prenant
ses valeurs dans [−1 ; 1].
(a) Montrer que, pour tout x ∈ [−1 ; 1] et tout t ∈ R,
1 1
etx ≤ (1 − x)e−t + (1 + x)et .
2 2

(b) Soit t ∈ R. Montrer que E e existe et


tX


2
E etX ≤ et /2 .


(c) Soit r > 0. Établir


2
P X > r ≤ 2e−r /2 .


Exercice 51 [ 04087 ] [Correction]


Soit X une variable aléatoires réelle discrète admettant une variance σ 2 (avec
σ > 0). Montrer
1
∀α > 0, P X − E(X) < ασ ≥ 1 − 2 .

α

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 11

Corrections (c) Analyse : Si T est une variable aléatoire solution alors


n−1
Exercice 1 : [énoncé] P(T = n) = P(T ≥ n) − P(T ≥ n + 1) = θn
Y
(1 − θk )
Les Xn (Ω) sont des ensembles au plus dénombrables et k=0

Xn (Ω).
[
Y (Ω) ⊂ ce qui détermine entièrement la loi de T .
n∈N Synthèse : Posons
n−1
On en déduit que l'ensemble Y (Ω) est au plus dénombrable. ∀n ∈ N, un = θn
Y
(1 − θk ).
De plus, pour tout y ∈ Y (Ω) k=0

ω ∈ Ω N (ω) = n et Xn (ω) = y On a
[
Y −1 ({y}) =

n∈N ∀n ∈ N, un ≥ 0.
et donc [ Vérions aussi (un )Q
n∈N de somme égale à 1.
Y −1 ({y}) = Introduisons Pn = k=0n−1
(1 − θk ). On a

N (ω) = n ∩ Xn (ω) = y
n∈N
est bien élément de la tribu T . n−1
ln(1 − θk ) −−−−−→ −∞.
X
ln Pn =
n→+∞
k=0
Exercice 2 : [énoncé]
En eet, la série des ln(1 − θk ) est divergente à terme négatifs et ce que la
(a) θn est une probabilité donc θn ∈ [0 ; 1]. suite (θn ) tend vers 0 ou non).
Si θn = 1 alors P(T = n) = P(T ≥ n) et donc P(T > n) = 0 ce qu'exclut les On a aussi P0 = 1 et Pn − Pn+1 = un , donc
hypothèses.
n
(b) On a P(T = n) = θn P(T ≥ n) et P(T = n) + P(T ≥ n + 1) = P(T ≥ n) donc
uk = P0 − Pn+1 −−−−−→ 1.
X
n→+∞
P(T ≥ n + 1) = (1 − θn )P(T ≥ n). k=0

Sachant P(T ≥ 0) = 1, on obtient On peut alors dénir une variable aléatoire T dont la loi vérie
n−1 n−1
(1 − θk ). (1 − θk ).
Y Y
P(T ≥ n) = P(T = n) = un = θn
k=0 k=0

Puisque P(T ≥ n) −−−−−→ 0, on a On a alors


n→+∞ +∞ n−1
X Y
n−1 n−1
! P(T ≥ n) = uk = Pn = (1 − θk ) > 0
−−−−−→ −∞.
X Y
ln(1 − θk ) = ln (1 − θk ) k=n k=0
n→+∞
k=0 k=0 et
Ainsi, il y a divergence de la série ln(1 − θn )P
P
. P(T = n | T ≥ n) = θn .
Si la suite (θn )n∈N ne tend pas vers 0, la série θn est évidemment La variable aléatoire T est bien solution.
divergente.
Si la suite (θn )n∈N tend vers 0 alors ln(1 − θn ) ∼ −θn et, par équivalence
Pn→+∞
de séries à termes de signe constant, la série θn diverge. Exercice 3 : [énoncé]

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 12

(a) Posons M = max(−a, b). On a |X| ≤ M et la constante M admet une et


espérance. On en déduit que X admet une espérance. De plus (a − m)yP (Y = y) = −(a − m)t.
X X
y 2 P(Y = y) ≤
X X y<0 y<0
m = E(X) = xP (X = x) ≥ aP (X = x) = a On en déduit
x∈X(Ω) x∈X(Ω) σ 2 ≤ (b − a)t.
et de même m ≤ b. En élevant au carré
(b − a)2 2
(b) Par l'inégalité de Cauchy-Schwarz σ 4 ≤ (b − a)2 t2 = σ .
4
!2 Enn, que σ soit nul ou non, on obtient
P(Y = y) = su.
X X X
2
yP (Y = y) ≤ y P(Y = y) (b − a)2
y≥0 y≥0 y≥0 σ2 ≤ .
4

(c) De façon immédiate E(Y ) = 0 et V(Y ) = σ 2 . On en déduit Notons que cette inégalité est une égalité lorsque X suit une loi de Bernoulli
de paramètre p = 1/2.
yP (Y = y) et y 2 P(Y = y) = σ 2 − s.
X X
t=−
y<0 y<0
Exercice 4 : [énoncé]
En appliquant à nouveau l'inégalité de Cauchy-Schwarz (a) Raisonnons par récurrence sur n ∈ N∗ .
Cas n = 1. Si X suit une loi binomiale négative de paramètres 1 et p alors
t2 ≤ (σ 2 − s)(1 − u).  
k−1
P(X = k) = p(1 − p)k−1 .
(d) Ce qui précède fournit 0
On reconnaît une loi géométrique de paramètre p.
t2 ≤ min su, (σ 2 − s)(1 − u)

Supposons la propriété vraie au rang n ≥ 1.
L'évènement X1 + · · · + Xn+1 = k peut se décomposer en la réunion des
pour u ∈ [0 ; 1] et s ∈ [0 ; σ 2 ]. Sachant
évènements incompatibles suivants
su ≤ (σ 2 − s)(1 − u) ⇐⇒ s + σ 2 u ≤ σ 2 . X1 + · · · + Xn = ` et Xn+1 = k − ` pour ` ∈ Jn ; k − 1K.
Si s + σ 2 u ≤ σ 2 alors On en déduit par indépendance
Pk−1
min su, (σ 2 − s)(1 − u) = su ≤ σ 2 (1 − u)u ≤ σ 2 /4.
 
P(X1 + · · · + Xn+1 = k) = `=n ` − 1


n − 1pn (1 − p)`−n p(1 − p)k−`−1


Si s + σ 2 u > σ 2 , c'est analogue et la conclusion demeure.
puis
(e) On a Pk−1
y 2 P(Y = y). P(X1 + · · · + Xn+1 = k) = pn+1 (1 − p)k−(n+1)
 
`−1
X X
σ 2 = E(Y 2 ) = y 2 P(Y = y) + `=n
y≥0 y<0 n − 1.
Puisque Y est à valeurs dans [a − m ; b − m], on a Or par la formule du triangle de Pascal
 Pk−1
`−1
X X 
y 2 P(Y = y) ≤ (b − m)yP (Y = y) = (b − m)t `=n
k−1

y≥0 y≥0 n−1= n

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 13

et donc (c) Puisque le joueur ne peut disputer que n parties, son espérance de gain
  devient
k − 1 n+1
P(X1 + · · · + Xn+1 = k) = p (1 − p)k−(n+1) . n +∞
!
n 1 1
− (2n − 1) × n = 0.
X [
n
1 × P(An ) − (2 − 1)P Ak =1− n
2 2
Récurrence établie. k=1 k=n+1

(b) Par linéarité de l'espérance


n
E(X) = . Exercice 6 : [énoncé]
p
(a) Il est entendu que la variable Sn prend ses valeurs dans J0 ; N K.
Par indépendance des variables sommées Par récurrence sur n ≥ 1, montrons que Sn suit une binomiale de paramètres
1−p N et pn (avec pn à déterminer).
V(X) = n . Pour n = 1, S1 = X1 suit, compte tenu de la modélisation, une loi binomiale
p2
de paramètres N et 1/6.
Supposons que Sn suit une loi binomiale de paramètres N et pn .
Lors du(n + 1)-ième lancer, le joueur dispose de N − M dés avec M = Sn
Exercice 5 : [énoncé]
Xn+1 suit alors une loi binomiale de paramètres N − M et 1/6 (avec N − M
(a) Notons An l'évènement  le jeu dure au moins n parties . An+1 est la qui peut être nul auquel cas Xn+1 est une variable constante égale à 0). On a
conjonction des évènements indépendants An et le rouge sort au n + 1- ième donc
tirage . On en déduit   k  N −M −k
1 N −M 1 5
P(An+1 ) = P(An ). ∀k ∈ J0 ; N − M K, P(Xn+1 = k | Sn = M ) = .
2 k 6 6
Par continuité décroissante, on obtient On a alors, pour m ∈ J0 ; N K
!
k
= lim P(An ) = 0.
\
P(Sn = M )P(Xn+1 = k − M | Sn = M ).
X
P An P(Sn+1 = k) =
n→+∞
n∈N∗ M =0

L'arrêt du jeu est donc presque sûr. Ceci donne


Lorsque la partie s'arrête à la n-ième tentative, le joueur a perdu k     k−M  N −k
1 + 2 + · · · + 2n−1 brouzoufs et vient de gagner 2n brouzoufs. Au total, il N M N −M 1 5
.
X
P(Sn+1 = k) = pn (1 − pn )N −M
gagne 1 brouzouf. Son gain étant presque sûrement constant égal à 1 M k−M 6 6
M =0
brouzoufs, son espérance de gain vaut 1 brouzouf.
Or
(b) Avec ce nouveau protocole, lorsque la partie s'arrête à la n-ième tentative, le
     
N N −M N! N k
= =
gain du joueur vaut M k−M M !(k − M )!(N − k)! k M
3n−1 + 1 et donc
2.3n−1 − (1 + 3 + · · · + 3n−1 ) = . k 
 N −k X M  k−M
2
  
N 5 k pn 1
P(Sn+1 = k) = (1 − pn )N
L'espérance de gain est k 6 M 1 − pn
M =0
6

+∞ n−1
3 +1
+∞ n−1
3 +1 puis
= +∞.
X X  N −k  k
P(An ) =
 
N 5 pn 1
n=1
2 n=1
2 n+1
P(Sn+1 = k) = (1 − pn )N + .
k 6 1 − pn 6

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 14

On peut réorganiser (d) Pour calculer l'espérance de T , on exploite la formule


  k  N −k +∞
N 1 + 5pn 1 + 5pn
. P(T > n) avec P(T > n) = 1 − P(T ≤ n).
X
P(Sn+1 = k) = 1− E(T ) =
k 6 6
n=0

Ainsi, Sn+1 suit une loi binomiale de paramètres N et pn+1 = 1+5pn


6 . En exploitant la factorisation
Récurrence établie.
On peut préciser la probabilité pn sachant 1 − aN = (1 − a)(1 + a + · · · + aN −1 )

1 1 + 5pn on obtient
p1 = et pn+1 = .
6 6   n N XN    nk
5 N 5
La résolution de cette relation de récurrence donne P(T > n) = 1 − 1 − = (−1)k−1 .
6 k 6
 n k=1
5
pn = 1 − . Par sommation géométrique
6
N  
(b) Connaissant la loi de Sn , on peut déterminer directement la probabilité de N (−1)k−1 6k
.
X
E(T ) =
l'événement (Sn = N ) k=1
k 6k − 5k
 
N N
  n N
5 Numériquement
P(Sn = N ) = 0
pn (1 − pn ) = 1 − −−−−−→ 1. Pour N = 1, E(T ) = 6 (on reconnaît l'espérance d'une loi géométrique)
N 6 n→+∞
Pour N = 2, E(T ) = 96/11 ' 8,7.
L'événement On peut même poursuivre un tableau de valeurs
A =  il existe n tel que Sn = N  N = 3, E(T ) = 10,5
N = 4, E(T ) = 11,9
est la réunion croissante des événements (Sn = N ). Par continuité croissante
N = 5, E(T ) = 13,0
P(A) = lim P(Sn = N ) = 1. et les valeurs de l'espérance qui suivent sont 13,9, 14,7, 15,4, . . .
n→+∞

(c) Pour déterminer la loi de T , on va calculer la probabilité de l'événement Exercice 7 : [énoncé]


(T ≤ n). Ce dernier correspond à l'événement (Sn = N ) et donc Pour i ≥ 2, on introduit l'événement
Ai = La i-ème boule tirée est identique à la précédente 
  n N
5
P(T ≤ n) = 1− avec n ∈ N.
6
Compte tenu de la composition de l'urne, on peut armer
On a alors
P(Ai ) = 1/N .
P(T = n) = P(T ≤ n) − P(T ≤ n − 1)
et donc Compte tenu de l'expérience modélisée (tirage avec remise), les événements Ai
sont mutuellement indépendants.
  n N   n−1 N
5 5
P(T = n) = 1 − − 1− .
6 6 (a) L'événement (T = k) correspond à A2 ∩ . . . ∩ Ak et donc
En fait, la loi de T peut être comprise comme le max de N lois géométriques 1
indépendantes. P(T = k) = .
N k−1
Diusion autorisée à titre entièrement gratuit uniquement - dD
[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 15

L'événement (T = k + 1) correspond à A2 ∩ A3 ∩ . . . ∩ Ak+1 et donc Exercice 8 : [énoncé]


N −1 1 N −1 (a) Introduisons les événements
P(T = k + 1) = × k−1 = .
N N Nk
Ap = {X2p−1 + X2p ≤ 1} avec p ≥ 1.
(b) L'événement (T = n + k) correspond à (T ≤ n) ∩ An+1 ∩ An+2 ∩ . . . ∩ An+k et
Ces événements sont indépendants et
donc
N −1
P(T = n + k) = P(T > n) × k
. P(Ap ) = (1 − p)2 + 2p(1 − p) = 1 − p2 .
N
(c) Sous réserve de convergence, l'espérance de T peut s'écrire Par continuité décroissante
+∞ +∞
! N
!
P(T > n). Ap .
X \ \
E(T ) = P Ap = lim P
N →+∞
n=0 p=1 p=1

Ici Par indépendance


+∞ +∞
Nk X
P(T = n + k).
X
P(T > n) = P(T > 0) + N
! N
N − 1 n=1
P(Ap ) = (1 − p2 )N .
\ Y
n=0 P Ap =
Ce qui assure l'existence de l'espérance. De plus, puisque le processus s'arrête p=1 p=1
presque sûrement et que la variableT prend ses valeurs dans {k, k + 1, . . .}, on
a Par limite d'une suite géométrique de raison 1 − p2 ∈ ]0 ; 1[, on obtient
+∞ +∞
1
.
X X !
P(T = n + k) = P(T = n) − P(T = k) = 1 − +∞
N k−1 = 0.
\
n=1 n=k P Ap
On en déduit la valeur de l'espérance de T p=1

Par conséquent, l'événement +∞ p=1 Ap est presque sûr. Ainsi, il existe presque
S
Nk − 1
E(T ) = . sûrement un rang pair en lequel il y a deux succès consécutifs. A fortiori , il
N −1
est presque sûr qu'il existe un rang (pair ou impair) en lequel il y a deux
Notons, même si ce n'est pas l'objet de cet exercice, qu'il est assez facile de succès consécutifs.
justier que le processus s'arrête presque sûrement. Considérons l'événement
(b) Pour n ≥ 2, on souhaite calculer pn = P(T = n).
B =  le processus ne s'arrête pas  Pour n = 2, l'événement (T = 2) correspond à (X1 = 1, X2 = 1) de
Pour voir que celui-ci est négligeable, on va l'inclure dans un événement (de probabilité p2 .
probabilité plus immédiatement accessible) en regroupant les tirages k par k : Pour n = 3, l'événement (T = 3) correspond à (X1 = 0, X2 = 1, X3 = 1) de
probabilité (1 − p)p2 .
+∞ Pour n ≥ 3, les choses se compliquent quelque peu. Considérons le système
{les tirages de rangs jk + 1, jk + 2, . . . , jk + k ne sont pas tous identiques}. complet d'événements
\
B⊂
j=0
(X1 = 0), (X1 = 1, X2 = 0), (X1 = 1, X2 = 1).
Par indépendance et continuité décroissante
 J Par la formule des probabilités totales
1
P(B) ≤ lim 1− = 0. P(T = n) = PX1 =0 (T = n)P(X1 = 0) + PX1 =1,X2 =0 (T = n)P(X1 = 1, X2 =
J→+∞ N k−1 0) + PX1 =1,X2 =1 (T = n)P(X1 = 1, X2 = 1)

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 16

Or Exercice 9 : [énoncé]
PX1 =0 (T = n) = P(T = n − 1). (a) Le jeu dure inniment si, et seulement si, chaque lancer produit  face  ou
En eet, la première épreuve étant un échec, obtenir deux succès consécutifs bien chaque lancer produit  pile . Notons An l'évènement :
au rang n revient maintenant à obtenir deux succès consécutifs au rang n − 1.
Par un argument analogue  le n-ième lancer donne face .

PX1 =1,X2 =0 (T = n) = P(T = n − 2).


Par indépendance des lancers
n
1
Enn .
Y
P(A1 ∩ . . . ∩ An ) = P(Ak ) =
PX1 =1,X2 =1 (T = n) = 0 2n
k=1

car les deux succès consécutifs ont été obtenus au rang 2 et qu'ici n ≥ 3. Par continuité décroissante
Finalement, on obtient la relation de récurrence +∞
!
= lim P(A1 ∩ . . . ∩ An ) = 0.
\
P(T = n) = (1 − p)P(T = n − 1) + p(1 − p)P(T = n − 2). P An
n→+∞
n=1

(c) Par calculer l'espérance de T , on multiplie par n la relation précédente et on De même


somme +∞
!
= 0.
\
P An
+∞ +∞ +∞ n=0
nP (T = n − 2).
X X X
nP (T = n) = (1 − p) nP (T = n − 1) + p(1 − p)
L'évènement  le jeu ne s'arrête pas  est donc négligeable.
n=3 n=3 n=3
(b) X est à valeurs dans N \ {0, 1}.
Or Pour n ∈ N∗ , on a X > n si les n premiers lancers sont identiques. On en
+∞ +∞ +∞ déduit !
n n
1
X X X
nP (T = n − 1) = (n − 1 + 1)P(T = n − 1) = nP (T = n) + 1 .
\ \
P(X > n) = P Ak ∪ Ak =
n=3 n=3 n=2 2n−1
k=1 k=1

car n=2 P(T = n) = 1


P+∞ On en déduit
De même +∞ +∞
+∞ +∞ 1
= 3.
X X
E(X) = P(X > n) = 1 +
nP (T = n) + 2.
X X
nP (T = n − 2) = 2n−1
n=0 n=1
n=3 n=2

Ainsi En fait X − 1 suit une loi géométrique de paramètre 1/2.


+∞ +∞
P(T = n) + 1 + p − 2p2 .
X X
nP (T = n) − 2P (T = 2) = (1 − p2 ) Exercice 10 : [énoncé]
n=2 n=2
(a) La variable aléatoire prend ses valeurs dans l'ensemble dénombrable
Finalement, T admet une espérance nie et N ∪ {+∞}.
1+p Pour k ∈ N, on a Z(ω) = k lorsque ω appartient à exactement k événements
E(T ) = . parmi les En . Pour i1 < i2 < · · · < ik ∈ N, appartenir aux ensembles
p2
Ei1 , . . . , Eik et pas aux autres s'expriment comme une intersection
dénombrable d'événements Eik et Ej : c'est donc un événement. En faisant

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 17

varier les i1 , . . . , ik sur l'ensemble dénombrable des possibles, (Z = k) se Ainsi, on peut armer
comprend comme une réunion d'événements.
Enn, (Z = +∞) est aussi un événement car c'est le complémentaire de la ∀k ∈ N, P(ZN = k) −−−−−→ P(Z = k).
N →+∞
réunion dénombrable des événements (Z = k) pour k parcourant N.
(b) F est le complémentaire de (Z = +∞), c'est bien un événement. Pour tout M ,
M M
F correspond à l'ensemble des ω appartenant à une innité de En . On peut
X X
kP(Z = k) = lim kP(ZN = k)
l'écrire comme l'intersection décroissante k=0
N →+∞
k=0
avec
F = ∩N ∈N ∪n≥N En .
M
X +∞
X
Par continuité décroissante kP(ZN = k) ≤ kP(ZN = k)
k=0 k=0
lim P ∪n≥N En .

P(F ) = N
N →+∞ X
= E(ZN ) = E(1EN )
linéarité
Or n=0

P(En ) −−−−−→ 0.
 X
P ∪n≥N En ≤ N +∞
P(En ).
X X
N →+∞ = P(En ) ≤
n≥N
n=0 n=0
On peut conclure P(F ) = 0 puis P(F ) = 1.
On a donc
(c) Posons ZN = 1En . Commençons par établir
PN
M +∞
n=0
P(En ) = M .
X X
kP(Z = k) ≤
∀k ∈ N, P(ZN = k) −−−−−→ P(Z = k). k=0 n=0
N →+∞
Les sommes partielles de la série à termes positifs des kP(Z = k) sont
Soit ε > 0. Il existe un rang N0 tel que pour tout N ≥ N0 bornées, cette série converge.
P(En ) ≤ ε.
X

n≥N +1 Exercice 11 : [énoncé]


Posons G l'événement réunion des En pour n ≥ N + 1. Ce qui précède donne (a) import random as rnd
P(G) ≤ ε.
Or def T():
(ZN = k) ∩ G = (Z = k) ∩ G n = 0
P = False
et PF = False
while (not PF):
P (ZN = k) = P(ZN = k ∩ G) +P(ZN = k ∩ G)
| {z } n = n + 1
≤ε x = rnd.random()
P (Z = k) = P(Z = k ∩ G) +P(Z = k ∩ G) if x < 0.5:
| {z
≤ε
} P = True
elif P:
donc PF = True
P(ZN = k) − P(Z = k) ≤ 2ε. else:

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 18

P = False if P:
return n PP = True
P = True
def repete(n): else:
c = 0 P = False
for i in range(n): return n
c = c + T() On conjecture cette fois-ci une espérance égale à 6.
return c/n
(f) q2 est la probabilité de PP et q3 celle de FPP d'où les valeurs proposées. Pour
L'étude numérique amène à conjecturer E(T ) = 4. n ≥ 4, on considère le système complet constitué des événements commençant
(b) Posons A∞ l'événement par F, PF et PP et on obtient par argument de symétrie (quand on a obtenu
 Le motif PF n'apparaît pas . F, ceci remet les  compteurs à zéro )
L'événement A∞ est exactement la réunion des événements correspondant à 1 1 1
qn = qn−1 + qn−2 + × 0. (1)
une succession de F de longeur k ∈ N suivie exlcusivement de P ainsi que de 2 4 4
l'événement correspondant uniquement à l'obtention de F . L'événement A∞ (g) Commençons par vérier que les An avec n ≥ 2 constituent un système
est alors négligeable car réunion dénombrable d'événements de probabilités complet. Les événements An sont deux à deux incompatibles et la série des qn
nulles 2 . On en déduit que la réunion des Ai , avec i ≥ 2, est un événement converge. En sommant la relation (??) pour n supérieur à 2, on obtient après
presque sûr. glissement d'indice
(c) An est la réunion des congurations commençant par un certain nombre +∞ +∞ +∞
k ∈ N de F puis se poursuivant avec des P au nombre de ` ∈ N∗ tel que
X 1 1 1X 1X
qn = + + qn + qn
k + ` = n − 1 et se poursuivant enn par un F . Chacune de ces congurations n=2
4 8 2 n=3 4 n=2
est de probabilité 1/2n et donc qn = n−1
2n . puis
(d) La suite des nqn est sommable donc T admet une espérance et +∞
1 1X
+∞
1X
+∞
qn .
X
qn = + qn +
+∞ 4 2 n=2 4 n=2
X (n − 1)n 1 2 n=2
E(T ) = n
= · =4 On en tire que la somme des qn est égale à 1. On peut alors calculer
2 4 (1 − 1/2)3
n=2
l'espérance de T .
(la somme est calculée en dérivant deux fois la série entière géométrique). Pour t ∈ [−1 ; 1], la fonction génératrice de T en t est donnée par
(e) On adapte le code précédent +∞
1 2 1 3 t

t2

t2
+ GT (t). (2)
X
GT (t) = qn tn = t + t + GT (t) −
def T(): 4 8 2 4 4
n=2
n = 0
P = False On peut exprimer GT (t) par une fraction rationnelle dénie sur [−1 ; 1],
PP = False celle-ci est dérivable en 1 ce qui assure que T admet une espérance et, par
while (not PP): dérivation de (??),
n = n + 1 t 1 t t t2
x = rnd.random() G0T (t) = + GT (t) + G0T (t) + GT (t) + G0T (t).
2 2 2 2 4
if x < 0.5:
Pour t = 1, on obtient
2. Par exemple, la probabilité de n'obtenir que des F est par continuité décroissante la limite
des probabilités de commencer par n F à savoir 1/2n . Les autres calculs sont analogues et, de 1 1 1 1 1
façon générale, la probabilité d'obtenir un tirage inni précis est nulle. E(T ) = + + E(T ) + + E(T ).
2 2 2 2 4
Diusion autorisée à titre entièrement gratuit uniquement - dD
[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 19

On en tire E(T ) = 6. est minimale pour


Cov(X, Y ) V(X)E(Y ) − Cov(X, Y )E(X)
a= et b = .
V(X) V(X)
Exercice 12 : [énoncé]
On sait χM (λ) = det(λIn − M ). Par la formule dénissant le déterminant et la Ces valeurs de a et b réalisent une régression linéaire : elles donnent la meilleure
linéarité de l'espérance expression linéaire de Y en fonction de X .
n
!
(λδσ(i),i − mσ(i),i ) .
X Y
Exercice 14 : [énoncé]

E χM (λ) = ε(σ)E
σ∈Sn i=1 Par la formule de Huygens
Par indépendance des variables, on a pour tout σ ∈ Sn , E (Y − S)2 = V(Y − S) + E(Y − S)
 2

avec
n
! n n
(λδσ(i),i − µ).
Y Y Y
E (λδσ(i),i − mσ(i),i ) = E(λδσ(i),i − mσ(i),i ) = E(Y − S) = (a − 1)mS + b
i=1 i=1 i=1
et
On en déduit V(Y − S) = V (a − 1)S + aB + b = (a − 1)2 σs2 + a2 σB
2


E χM (λ) = χA (λ)
car la covariance de S et B est nulle.
avec A la matrice dont tous les coecients sont égaux à µ. La poursuite des La quantité V(Y − S) est minimale pour
calculs donne
E χM (λ) = (λ + nµ)λn−1 .
 σS2
a=
σS2 + σB 2

2
et l'on peut alors rendre le terme E(Y − S) nul pour
Exercice 13 : [énoncé]
On a  2  2 b = (1 − a)mS .
= V Y − (aX + b) + E Y − (aX + b) .

E Y − (aX + b)
Au nal
D'une part σS2 σB2
Y =
σS2 + σB2 X + 2 mS .
σS2 + σB
V Y − (aX + b) = V(Y − aX) = a2 V(X) − 2a Cov(X, Y ) + V(Y )


et donc Exercice 15 : [énoncé]


 (a) On a
V Y − (aX + b) = V(Y − aX) V(X) = Cov(X, X).
2
V(X)V(Y ) − (Cov(X, Y ))2

Cov(X, Y ) Par bilinéarité
= a− V(X) + .
V(X) V(X) n X
n
ai aj V(Xi , Xj ).
X
D'autre part V(a1 X1 + · · · + an Xn ) =
2 i=1 j=1
E Y − (aX + b) = 0 pour b = E(Y ) − aE(X).
Ce calcul est aussi le résultat du produit matriciel
On en déduit que
CΣC avec C = t a1 an .
 2  t

E Y − (aX + b) ···

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 20

(b) Soit C = t a1 · · · an un vecteur propre de Σ associé à une valeur propre Exercice 17 : [énoncé]


λ.
On a t CΣC = λt CC = λkCk2 et, pour X = a1 X1 + · · · + an Xn , V(X) ≥ 0 Une variable aléatoire admet une variance nulle est presque sûrement
donc constante.
V(X)
λ= 2
≥ 0. Les variables aléatoires X1 et X2 sont presque sûrement bornées car elles suivent
kCk
la loi de la variable bornée X , elles admettent donc chacune une variance et on
peut aussi calculer la variance de leur somme :
Exercice 16 : [énoncé]
(a) Le plus ecace est sans doute de raisonner par les fonctions génératrices. On V(X1 + X2 ) = V(X1 ) + 2 Cov(X1 , X2 ) + V(X2 ).
obtient une loi binomiale de paramètres n et p.
Cependant,
(b) (U − 1)2 prend les valeurs 0 et 1 avec
1 V(X1 ) = V(X2 ) = V(X) et V(X1 + X2 ) = V(2X) = 4V(X).
P (U − 1)2 = 1 = P(U = 1) = .

2
On en déduit Cov(X1 , X2 ) = 2V(X) puis
Les variables (U − 1)2 et (V − 1)2 suivent chacune une loi de Bernoulli de
paramètre 1/2. Par indépendance de U et V , on a aussi celle de (U − 1)2 et V(X1 − X2 ) = V(X1 ) − 2 Cov(X1 , X2 ) + V(X2 ) = 0.
(V − 1)2 et donc S suit une loi B(2, 1/2).
(c) Par indépendance, l'espérance d'un produit est le produit des espérances La variable X1 − X2 est donc presque sûrement constante égale à 0 et on peut
conclure que X1 et X2 sont presque sûrement égales.
3 3
= 0.
  
E S(T − 1) = E (U − 1) E(V − 1) + E(U − 1)E (V − 1)
La variable T prend les valeurs 0, 1 et 2.

P(T = 0) = P(U = 0, V = 2) + P(U = 2, V = 0) =


1 Exercice 18 : [énoncé]
8 Les variables X et Y sont à valeurs dans N∗ donc X + Y est à valeurs N \ {0, 1}.
et Pour k ∈ N \ {0, 1}, on a
1
P(T = 2) = P(U = 0, V = 0) + P(U = 2, V = 2) = .
8 k−1
P(X = `, Y = k − `).
X
On en tire P(T = 1) = 3/4. P(X + Y = k) =
Par la formule de Huygens `=1

Cov(S, T ) = E(ST ) − E(S)E(T ) Par indépendance



= E S(T − 1) + E(S) − E(S)E(T ) k−1
= 0 + 1 − 1 = 0. P(X = `)P(Y = k − `).
X
P(X + Y = k) =
`=1
La covariance nulle ne sut pas à armer l'indépendance de S et T .
Étudions l'événement (S = 0, T = 0). Il ne reste plus qu'à dérouler les calculs :
L'événement (S = 0) correspond à (U = 1, V = 1) alors que (T = 0)
correspond à (U = 0, V = 2) ∪ (U = 2, V = 0). Ceux-ci sont incompatibles et P(X + Y = k) = (k − 1)p2 (1 − p)k−2 .
donc
P(S = 0, T = 0) = 0 6= P(S = 0)P(T = 0).
Les variables S et T ne sont pas indépendantes. Exercice 19 : [énoncé]

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 21

(a) Posons On a donc


+∞
λn
un = P(X = n) = e−λ . P(X = k, Y > k).
X
P(X < Y ) =
n!
k=1
On a Par indépendance des variables X et Y , on a
un+1 λ
=
un n+1 P(X = k, Y > k) = P(X = k)P(Y > k)
donc si n + 1 ≤ λ alors un+1 ≥ un et si n + 1 > λ alors un+1 < un .
La valeur maximale de un est donc obtenue pour n = bλc. avec
P(X = k) = p(1 − p)k−1 et P(Y > k) = (1 − q)k .
(b) Il sut d'étudier les variations de la fonction λ 7→ e−λ λn . La probabilité sera
maximale si λ = n. On en déduit
n
k−1 p − pq
.
X
P(X < Y ) = p(1 − q) (1 − p)(1 − q) =
p + q − pq
Exercice 20 : [énoncé] k=1

Par la formule de transfert


+∞ +∞ Exercice 23 : [énoncé]
p X (1 − p)k
 
1 1
.
X
k−1
E
X
=
k
(1 − p) p=
1−p k (a) Distinguons les cinq dés et notons pour chacun X1 , . . . , X5 les variables
k=1 k=1 aléatoires donnant le nombre de lancers nécessaires avant que le dé
correspondant ne produise un  As . Ces variables aléatoires suivent des lois
Or pour x ∈ ]−1 ; 1[
+∞
géométriques indépendantes de paramètre p = 1/6 et T = max(X1 , . . . , X5 ).
X 1 k
x = − ln(1 − x) On a
k=1
k (T ≤ n) = (X1 ≤ n) ∩ . . . ∩ (Xn ≤ n).

donc  
Par indépendance
1 p
E = ln p. P(T ≤ n) = P(X1 ≤ n) . . . P(X5 ≤ n)
X p−1
avec  n
5
P(Xi ≤ n) = 1 − P(Xi > n) = 1 − .
Exercice 21 : [énoncé] 6
L'évènement X est pair est la réunion dénombrable des évènements (X = 2k) Ainsi
pour k ∈ N. Sa probabilité vaut
  n 5
5
P(T ≤ n) = 1 − .
+∞ +∞
6
λ2k 1 + e−2λ
.
X X
P(X = 2k) = e−λ = e−λ ch(λ) = (b) Sous réserve de convergence
(2k)! 2
k=0 k=0
+∞
P(T > n).
X
E(T ) =
n=0
Exercice 22 : [énoncé]
L'événement (X < Y ) peut être décomposé en la réunion disjointes des Ici
+∞ +∞  n 5
événements

5
.
X X
P(T > n) = 1− 1−
(X = k, Y > k) avec k ∈ N∗ . n=0 n=0
6

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 22

En développant la puissance Exercice 25 : [énoncé]


+∞ +∞  n +∞  2n +∞  3n (a) Pour s ≤ t, l'événement A(0, 0, s) contient l'événement A(0, 0, t) et donc
X X 5 X 5 X 5 p0 (s) ≥ p0 (t).
P(T > n) = 5 − 10 + 10
n=0 n=0
6 n=0
6 n=0
6 Pour s, t ≥ 0, l'événementA(0, 0, s + t) est la conjonction des événements
+∞  4n +∞  5n A(0, 0, s) et A(0, s, s + t). Par conséquent
X 5 X 5
−5 +
P(A(0, 0, s + t) = P A(0, 0, s) ∩ A(0, s, s + t) .

n=0
6 n=0
6

avec convergence des séries écrites. Par indépendance (hypothèse H1)


Finalement
P A(0, 0, s + t) = P A(0, 0, s) P A(0, s, s + t) .
  
5  
k−1 5 1
.
X
E(T ) = (−1)
k 1 − (5/6)k Or, l'hypothèse H2 donne P A(0, s, s + t) = P(A(0, 0, t)) et donc

k=1

p0 (s + t) = p0 (s)p0 (t).
Exercice 24 : [énoncé]
Une matrice de la forme (b) Par l'hypothèse H3, la fonction p0 prend la valeur 1 en 0 et est continue. Si

a 1

par l'absurde cette fonction prend une valeur négative, elle s'annule en un
0 b certain t0 > 0. L'équation fonctionnelle obtenue ci-dessus donne par une
récurrence rapide
est diagonalisable si a 6= b (2 valeurs propres distinctes pour une matrice de taille ∀k ∈ N, ∀t ∈ R, p0 (kt) = p0 (t)k .
2) et ne l'est pas si a = b (1 seule valeur propre et n'est pas une matrice scalaire).
La probabilité recherchée n'est donc autre que En prenant t = t0 /k, on obtient

P(X 6= Y ). ∀k ∈ N∗ , p0 (t0 /k) = 0.

L'événement (X 6= Y ) est le complémentaire de l'événement (X = Y ) qui est la En passant à limite quand k tend vers l'inni, on obtient l'absurdité
p0 (0) = 0 !
réunion d'événements deux à deux disjoints
Puisqu'il est maintenant acquis que la fonction p0 est à valeurs strictement
(X = Y ) =
[
(X = n, Y = n). positives, on peut introduire la fonction f : R+ → R dénie par
n∈N∗
∀t ∈ R+ , f (t) = ln p0 (t) .


Par indépendance
L'équation fonctionnelle obtenue en a) se traduit
n−1
P(X = n, Y = n) = P(X = n)P(Y = n) = pq (1 − p)(1 − q) . ∀s, t ∈ R+ , f (s + t) = f (s) + f (t).
Ainsi pq Sachant la fonction f continue, on peut armer que celle-ci est linéaire : il
P(X = Y ) = . existe a ∈ R tel que
p + q − pq
∀t ∈ R+ , f (t) = at.
Finalement, la probabilité que la matrice soit diagonalisable vaut
Ainsi,
1 − P(X = Y ) =
p + q − 2pq
. ∀t ∈ R+ , p0 (t) = eat .
p + q − pq
Enn, puisque la fonction p0 est décroissante, le réel a est nécessairement
négatif ce qui permet de l'écrire −λ avec λ ∈ R+ .

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 23

(c) Par l'hypothèse H5 avec p0 (t) = + 1 − λt + o(t), on obtient (f) L'événement (X = n) a la probabilité de l'événement A(n, 0, T ) et donc
t→0

p1 (t) + o(p1 (t)) = + λt + o(t). (λT )n


t→0 P(X = n) = pn (T ) = e−λT .
n!
Ainsi p1 (t) ∼ + λt ce qui peut encore s'écrire La variable X suit une loi de Poisson de paramètre λT . L'espérance de X
t→0
vaut alors λT et le paramètre λ se comprend comme le nombre moyen de
p1 (t) = + λt + o(t).
t→0 clients entrant par unité de temps.
Aussi, l'hypothèse H4 permet d'armer
∀n ≥ 2, pn (t) ≤ 1 − p0 (t) − p1 (t) = o(t)
t→0+
Exercice 26 : [énoncé]
et donc pn (t) = + o(t) pour tout n ≥ 2. (a) Pour (n, k) ∈ N2 . Si k ≤ n alors
t→0
(d) L'événement A(n, 0, s + t) est la réunion des événements deux à deux disjoints P(X = n, Y = k) = P(X = n)P(Y = k | X = n)
λn n k
 
A(k, 0, s) ∩ A(n − k, s, s + t) pour k ∈ J0 ; nK. = e−λ p (1 − p)n−k .
n! k
On en déduit par additivité et les hypothèses H1 et H2 l'identité
n n Si k > n alors P(X = n, Y = k) = 0.
pk (s)pn−k (t). (b) Pour k ∈ N
X X
pn (s + t) = P(A(k, 0, s))P(A(n − k, s, s + t)) =
k=0 k=0
+∞ +∞
Cette identité fournit le développement asymptotique P(X = n, Y = k).
X X
P(Y = k) = P(X = n, Y = k) =
n=0 n=k
pn (t + s) = + (1 − λs + o(s))pn (t) + λspn−1 (t) + o(s)
s→0
car Après réorganisation et glissement d'indice
+∞
p0 (s) = 1 − λs + o(s), p1 (s) = λs + o(s) et pk (s) = o(s) pour k ≥ 2. (λp)k −λ X 1 (λp)k
s→0+ s→0+ s→0+ P(Y = k) = e (1 − p)n λn = e−λp .
k! n! k!
On obtient alors n=0

1 La variable Y suit une loi de Poisson de paramètre λp.


pn (t + s) − pn (t) = + λpn−1 (t) − λpn (t) + o(1).

s s→0

On en déduit que la fonction pn est dérivable et


Exercice 27 : [énoncé]
p0n (t) = λ(pn−1 (t) − pn (t)). (a) La loi conjointe de X et Y déterminant une probabilité
(e) En introduisant qn (t) = eλt pn (t), on constate +∞ X
+∞
P(X = j, Y = k) = 1.
X
q0 (t) = 1 et qn0 (t) = λqn−1 (t).
j=0 k=0
Par récurrence
qn (t) =
(λt)n Or
+∞ X
+∞
n! X
puis P(X = j, Y = k) = ae2
(λt)n j=0 k=0
∀n ∈ N, ∀t ∈ R+ , pn (t) = e−λt .
n! donc a = e .
−2

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 24

(b) Pour j ∈ N (d) Par probabilités totales


+∞ −1
X e +∞ +∞
P(X = j) = P(X = j, Y = k) = 2n 1
= .
X X
j! P(X = Y ) = P(X = n, Y = n) =
k=0 2n+3
n=0 n=0
2 9
et donc X suit une loi de Poisson de paramètre λ = 1. Il en est de même pour
Y.
(c) Les variables sont indépendantes car l'on vérie aisément Exercice 29 : [énoncé]
P(X = j, Y = k) = P(X = j)P(Y = k). (a) La loi conjointe de X et Y déterminant une probabilité
+∞
+∞ X
P(X = k, Y = n) = 1.
X

Exercice 28 : [énoncé] k=0 k=0

(a) La loi conjointe de X et Y déterminant une probabilité En réordonnant les sommes et en simpliant les zéros
+∞
+∞ X n
+∞ X +∞
n 1
.
X X
P(X = j, Y = k) = 1.
X
P(X = k, Y = n) = p 2a(1 − p) = p
n=0 k=0 n=0
1 − (2a(1 − p))
j=0 k=0

Or On est donc amené à résoudre l'équation


+∞ X
X +∞
P(X = j, Y = k) = 8a 1 − 2a(1 − p) = p
j=0 k=0
ce qui conduit à la solution a = 1/2.
car
+∞ X
+∞
j
+∞
j 1 (b) Pour n ∈ N,
= 4.
X X
= =
2j+k 2j−1 (1 − 1/2)2 n n  
j=0 k=0 j=0 1 X n
p(1 − p)n = p(1 − p)n .
X
P(Y = n) = P(X = k, Y = n) =
On en déduit a = 1/8 k=0
2n k
k=0
(b) Pour j ∈ N
+∞ (c) Pour k ∈ N,
X j+1
P(X = j) = P(X = j, Y = k) =
2j+2 +∞   
n 1−p
n 
1−p
k
1
.
k=0
X
P(X = k) = p =p
k 2 2 1−p k+1
et pour k ∈ N

n=k 1− 2
+∞
k+1 En simpliant
.
X k
P(Y = k) = P(X = j, Y = k) =
 
1−p 1−p
j=0
2k+2 P(X = k) = 1− .
1+p 1+p
(c) Les variables ne sont par indépendantes car l'on vérie aisément (d) Les variables ne sont par indépendantes car l'on vérie aisément

P(X = j, Y = k) 6= P(X = j)P(Y = k) P(X = k, Y = n) 6= P(X = k)P(Y = n)

pour j = k = 0. pour k = n = 0.

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 25

Exercice 30 : [énoncé] Enn, l'inégalité a2 + b2 ≥ 2ab valable pour tous a et b réels permet
(a) En éliminant de l'univers des possibles l'événement négligeable où la pièce d'armer la comparaison
tombe toujours du même côté, la variable aléatoire X prend ses valeurs dans 2p(1 − p)
N∗ . De même, en éliminant aussi l'événement négligeable où la deuxième E(X) ≥
p(1 − p)
= 2 = E(Y )
succession est de longueur innie, la variable Y est aussi dénie à valeurs
dans N∗ . On poursuit l'étude en supposant être dans l'univers probabiliste
correspondant. Exercice 31 : [énoncé]
Pour k, ` ∈ N∗ , calculons P(X = k, Y = `). D'une part, l'événement
(X = k, Y = `) est réalisé lorsque les k premiers lancers tombent côté Pile, les
On détermine la loi conjointe de U et V an d'en déduire les lois de U et V
` suivants coté Face et le k + ` + 1-ième coté Pile. D'autre part, l'événement
puis d'étudier leurs indépendance.
(X = k, Y = `) est aussi réalisé dans la situation inverse où l'on échange Pile Les variables X et Y prennent leur valeurs dans N∗ . La variable U prend donc
et Face et dans nulle autre situation. Par incompatibilité de ces deux aussi ses valeurs dans N∗ tandis que la variable V prend les siennes dans N.
situations et par l'indépendance des lancers, on obtient Soient k ∈ N∗ et ` ∈ N. On peut décrire l'événement (U = k, V = `) à l'aide des
variables X et Y : l'une est égale à k et l'autre à k + `
P(X = k, Y = `) = pk (1 − p)` p + (1 − p)k p` (1 − p)
(U = k, V = `) = (X = k, Y = k + `) ∪ (X = k + `, Y = k)
(b) Les lois marginales de X et Y se déduisent de la loi conjointe. Pour tout
k ∈ N∗ , Si ` 6= 0, on obtient par réunion d'événements incompatibles puis indépendance
+∞
X des variables X et Y
P(X = k) = P(X = k, Y = `)
`=1 P(U = k, V = `) = P(X = k, Y = k + `) + P(X = k + `, Y = k)
ce qui donne après sommations géométriques de raisons 1 − p et p ∈ ]0 ; 1[ : = P(X = k)P(Y = k + `) + P(X = k + `)P(Y = k)
= pq(1 − p)k−1 (1 − q)k−1 (1 − p)` + (1 − q)`

P(X = k) = (1 − p)pk + p(1 − p)k
Un calcul analogue donne, pour ` ∈ N∗ , Si ` = 0, il vient
+∞
X P(U = k, V = 0) = P(X = k, Y = k) = P(X = k)P(Y = k)
P(Y = `) = P(X = k, Y = `) = p2 (1 − p)`−1 + (1 − p)2 p`−1
= pq(1 − p)k−1 (1 − q)k−1
k=1

On peut ensuite calculer les espérances de X et Y en rappelant 3 Ceci détermine la loi conjointe de U et V et on peut en déduire les lois des
variables U et V .
+∞
1
+∞
1 Pour k ∈ N∗ ,
et
X X
k(1 − p)k−1 p = kpk−1 (1 − p) =
p 1−p +∞
k=1 k=1 X
P(U = k) = P(U = k, V = `)
On obtient `=0
p 1−p p2 + (1 − p)2
E(X) = + = On isole de la somme le terme d'indice 0 et on poursuit le calcul à l'aide de
1−p p p(1 − p)
et sommations géométriques de raisons (1 − p) et (1 − q) ∈ ]0 ; 1[ :
p 1−p  
E(Y ) = + =2 k−1 k−1 1−p 1−q
p 1−p P(U = k) = pq(1 − p) (1 − q) 1+ +
p q
3. Ces formules correspondent au calcul de l'espérance de lois géométriques de paramètres p et
1 − p. = (1 − p)k−1 (1 − q)k−1 (p + q − pq)

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 26

La variable U suit une loi géométrique 4 de paramètre r = p + q − pq . On reconnaît alors une somme exponentielle et on achève le calcul :
Pour ` ∈ N,
+∞ (pλ)k λ(1−p) (pλ)k
P(V = `) =
X
P(U = k, V = `)
P(X = k) = e−λ e = e−λp .
k! k!
k=1
Ainsi, X suit une loi de Poisson de paramètre pλ. Un calcul analogue montre
En distinguant le cas ` = 0 du cas général, on obtient au terme des calculs : que Y suit une loi de Poisson de paramètre (1 − p)λ et on vérie alors pour
pq pq tout (k, `) ∈ N2
et P(V = `) = (1−p)` +(1−q)` pour ` ≥ 1

P(V = 0) =
p + q − pq p + q − pq
λk+`
 
k+` k
P(X = k, Y = `) = p (1 − p)` e−λ = P(X = k)P(Y = `).
On peut alors conclure que les variables U et V sont indépendantes puisque k (k + `)!

P(U = k, V = `) = P(U = k)P(V = `) pour tous k ∈ N et ` ∈ N∗ Les variables X et Y sont indépendantes.

(c) Pour k ∈ J0 ; nK, l'événement (X = k) contient (X = k, N = n).


Exercice 32 : [énoncé] La variable N n'étant pas presque sûrement constante, il existe n ∈ N∗ tel
(a) Soit (k, `) ∈ N2 . La somme des variables X et Y étant égales à N , on a que P(N = n) > 0. On a alors
l'égalité  
k+` k
pk = P(X = k) ≥ P(X = k, N = n) = p (1 − p)` P(N = n) > 0.
P(X = k, Y = `) = P(X = k, N = k + `) = P(X = k | N = k + `)P(N = k + `). k
(3)
Cependant, lorsque N vaut k + `, la variable aléatoire X suit une loi De la même façon, on établit qk > 0 pour tout k ∈ J0 ; nK. En particulier, on
binomiale de paramètres k + ` et p en tant que somme de k + ` variables de en déduit
Bernoulli indépendantes de même paramètre p. On en déduit
P(N = 2n) ≥ P(X = n, Y = n) = P(X = n)P(Y = n) = pn qn > 0
 
k+` k
P(X = k | N = k + `) = p (1 − p)` et l'ensemble des n ∈ N∗ tel que P(N = n) > 0 ne peut être majoré. Le
k
raisonnement qui précède peut alors être mené avec des valeurs de n
et l'égalité (??) donne alors celle voulue. arbitrairement grandes : les pk et q` sont tous strictement positifs.
(b) À partir de la loi conjointe de X et Y , on peut déterminer les lois marginales. (d) Les probabilités de (X = k + 1, Y = `) et de (X = k, Y = ` + 1) sont
Les variables X et Y sont à valeurs dans N et, pour tout k ∈ N, toutes deux liées à la probabilité de (N = k + ` + 1)
+∞ +∞  
k+` k λk+` Par l'égalité obtenue à la première question et l'indépendance des variables X
.
X X
P(X = k) = P(X = k, Y = `) = p (1 − p)` e−λ et Y , on a
k (k + `)!
`=0 `=0
 
k + ` + 1 k+1
Après simplication et factorisation des termes qui ne dépendent pas de `, pk+1 q` = P(X = k + 1, Y = `) = p (1 − p)` P(N = k + ` + 1)
k+1
+∞
(pλ)k X 1 ` et
P(X = k) = e−λ (1 − p)λ .
k! `!  
`=0 k+`+1 k
pk q`+1 = P(X = k, Y = ` + 1) = p (1 − p)`+1 P(N = k + ` + 1).
4. Voir sujet ? ? ?. k

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 27

Sachant (c) En exploitant le développement connu de (1 + u)α , on obtient


   
k+`+1 (k + ` + 1)! k+`+1 +∞ 
(k + 1) = = (` + 1) 1

n+m−1 n
k+1 k! `! k t pour t ∈ ]−1 ; 1[.
X
=
(1 − t)m m−1
on obtient n=0

(k + 1)pk+1 q` (1 − p) = (` + 1)pk q`+1 p.


(d) Par dénition
(e) La relation précédente pour ` = 0 donne +∞  
n−1
pm (1 − p)n−m tn .
X
1 pq1 GTm (t) =
pk+1 = · pk . n=0
m−1
k + 1 (1 − p)q0
En isolant les premiers termes nuls et en décalant l'indexation
On en déduit par une récurrence facile
k +∞ 
(pt)m

n+m−1

1 pq1 n
m .
X
pk = p0 pour tout k ∈ N. GTm (t) =
m−1
(pt)m (1 − p)t =
k! (1 − p)q0 n=0
1 − (1 − p)t
À un facteur près, l'expression de pk s'apparente à celle d'une loi de Poisson On en déduit
de paramètre m
pq1 E(X) = G0Tm (1) = .
λ= > 0. p
(1 − p)q0
La somme des pk devant être égale à 1, la valeur du facteur p0 ne peut être
autre que celle qui apparaît pour une loi de Poisson de paramètre λ. On en
Exercice 34 : [énoncé]
déduit que X suit cette loi de Poisson.
(f) Un calcul analogue montre que Y suit aussi une loi de Poisson et les variables (a) Par la formule de transfert
X et Y étant indépendantes, leur somme N suit encore une loi de Poisson 5 .
+∞
k! λk
= λr .
 X
E X(X − 1) . . . (X − r + 1) = e−λ
(k − r)! k!
Exercice 33 : [énoncé] k=r

(a) T1 suit une loi géométrique de paramètre p.


(b) La fonction génératrice de X est
(b) Notons (Xn )n∈N∗ la suite des variables de Bernoulli testant la réussite de
chaque expérience. GX (t) = E(tX ) = eλ(t−1) .
L'évènement (Tm = n) est la réunion correspond à l'évènement
X1 + · · · + Xn = m et Xn = 1 soit encore Celle-ci est indéniment dérivable sur R et
X1 + · · · + Xn−1 = m − 1 et Xn = 1. Par indépendance
GX (t) = E X(X − 1) . . . (X − r + 1)tX = λr eλ(t−1) .
(r) 
P(Tm = n) = P(X1 + · · · + Xn−1 = m − 1)P(Xn = 1).
Puisque X1 + · · · + Xn−1 ∼ B(n − 1, p) et Xn ∼ B(p), on obtient En particulier
 
n−1 m GX (1) = E X(X − 1) . . . (X − r + 1) = λr .
(r) 
P(Tm = n) = p (1 − p)n−m
m−1
et écriture vaut aussi quand n ≤ m car le coecient binomial est alors nul.
5. Voir sujet ? ? ?. Exercice 35 : [énoncé]

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 28

(a) Par la formule de transfert Exercice 37 : [énoncé]


+∞ (a) S1 suit une loi géométrique de paramètre p et
k(k − 1) . . . (k − r + 1)(1 − p)k−1 p.
 X
E X(X − 1) . . . (X − r + 1) =
pt
k=r GS1 (t) = .
1 − qt
Or
+∞
dr (b) Sm − Sm−1 suit la même loi géométrique de paramètre p.
 
X
k−r 1 r!
k(k − 1) . . . (k − r + 1)x = =
k=r
dxr 1−x (1 − x)r+1 (c) On peut écrire
m
donc Sk − Sk−1 avec S0 = 0.
X
Sm =
r!
E X(X − 1) . . . (X − r + 1) = (1 − p)r−1 r .

k=1
p
Or les variables aléatoires de cette somme sont indépendantes car la
(b) La fonction génératrice de X est probabilité de l'événement
p
pt p (S1 − S0 = n1 , S2 − S1 = n2 , . . . , Sm − Sm−1 = nm )
GX (t) = E(tX ) = = +
1−p
.
1 − (1 − p)t p − 1 1 − (1 − p)t
n'est autre que celle de l'événement
Celle-ci est indéniment dérivable sur R et
Xn1 = Xn1 +n2 = . . . = Xn1 +···+nm = 1.
p r!(1 − p)r
(r) X
.

GX (t) = E X(X − 1) . . . (X − r + 1)t =
1 − p (1 − (1 − p)t)r+1 et Xk = 0 pour les autres indice k de J1 ; n1 + · · · + nm K
En particulier et les variables X1 , . . . , Xn1 +···+nm sont indépendantes.
On en déduit m
(1 − p)r−1

pt
(r)
. .

GX (1) = E X(X − 1) . . . (X − r + 1) = r! GSm (t) =
pr 1 − qt
Puisque
+∞  
m + n − 1 n m n+m
Exercice 36 : [énoncé]
X
GSm (t) = q p t
n=0
m−1
(a) On a
+∞ on obtient  
 X
GX (t) = E tX = P(X = k)tk = eλ(t−1) . n − 1 n−m m
P(Sm = n) = q p pour n ≥ m.
n=0 m−1
(b) G0X (1) = E(X) = λ, G00X (1) = E X(X − 1) = λ2 et


GX (1) = E X(X − 1)(X − 2) = λ3 .


(3) 
Exercice 38 : [énoncé]
On en déduit Notons X1 , . . . , Xn les variables aléatoires fournissant les points obtenus lors des
E(X 2 ) = λ2 + λ et E(X 3 ) = λ3 + 3λ2 + λ tirages.
puis Les variables Xi suivent la même loi de fonction génératrice
E (X − λ)3 = E(X 3 ) − 3λE(X 2 ) + 3λ2 E(X) − E(X)3 = λ.

 2
1 2 1 1+t
GX (t) = + t + t2 = .
4 4 4 2

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 29

Puisque S = X1 + · · · + Xn avec X1 , . . . , Xn mutuellement indépendantes on a Exercice 40 : [énoncé]


2n La fonction génératrice d'une variable Y suivant une loi uniforme sur J2 ; 12K est la
fonction polynomiale

n 1+t
GS (t) = GX1 (t) . . . GXn (t) = GX (t) = .
2 1 2
t + t3 + · · · + t12 .

GY (t) =
En développant la somme 12

2n   Notons GX1 et GX2 les fonctions génératices de chacun des dés.


1 X 2n k
GS (t) = 2n t . GX1 (t) = p1 t + p2 t2 + · · · + p6 t6 et GX2 (t) = q1 t + q2 t2 + · · · + q6 t6 .
 
2 k
k=0
La fonction génératrice de la somme X1 + X2 est donnée par
Ceci détermine la loi de S :
GX1 +X2 (t) = GX1 (t) × GX2 (t) = t2 p1 + p2 t + · · · + p6 t5 q1 + q2 t + · · · + q6 t5 .
 
 
1 2n
∀k ∈ J0 ; 2nK, P(S = k) =
22n k Pour que GY = GX1 GX2 , il faut p1 q1 > 0 et p6 q6 > 0 auquel cas les facteurs de
degré 5 possèdent chacune une racine réelle non nulle. Cependant
S suit une loi binomiale de paramètre 2n et 1/2 : cela s'explique aisément car
l'expérience de chaque tirage peut être modélisée par deux tirages successifs d'une 1 2 1 − t11
GY (t) = t
pièce équilibrée. 12 1 − t
n'en possède pas !

Exercice 39 : [énoncé]
On introduit la fonction génératrice de X : Exercice 41 : [énoncé]
+∞
(a) import random as rnd
a X
GX (t) = (n + k) . . . (k + 1)(pt)k .
n! def atteint(k,p):
k=0
Y = 0
Puisque while Y < k:
+∞
X dn

1

n! x = rnd.random()
(n + k) . . . (k + 1)xk = = if x < p:
dxn 1−x (1 − x)n+1
k=0 Y = Y + 2
on obtient else:
a
GX (t) = . Y = Y + 1
(1 − pt)n+1 if Y == k:
Sachant GX (1) = 1, on en tire la valeur de a return 1
else:
a = (1 − p)n+1 . return 0

On peut ensuite calculer espérance et variance def repete(k,p,N):


p p x = 0
E(X) = G0X (1) = (n+1) et V(X) = G00X (1)+G0X (1)−G0X (1)2 = (n+1) . for i in range(N):
1−p (1 − p)2
x = x + atteint(k,p)
return x/N,1/(1+p)

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 30

(b) (f) Si Y1 suit une loi de Bernoulli


(Sn = k).
[
Ek =
1 1
n∈N f (t) = (1 − p)t + pt2 et u(t) = 2
= .
1 − (1 − p)t − pt (1 − t)(1 + pt)
(c) Si j = k,
P Ek ∩ (Y1 = j) = P(Y1 = k). Par décomposition en éléments simples


Si j < k, par incompatibilité des événements (Sn = k) (car les Yi prennent


1 1 p 1
des valeurs strictement positives) u(t) = · + ·
1 + p 1 − t 1 + p 1 + pt
+∞
et donc
 X 
P Ek ∩ (Y1 = j) = P Sn = k, Y1 = j
1 + (−1)k pk+1
n=1
uk = .
+∞
X (1 + p)
= P(Sn = k | Y1 = j)P(Y1 = j)
n=1 (g) La fonction f est un polynôme qui prend la valeur 1 en 1 :
+∞
X n
= P(Sn = k | Y1 = j)P(Y1 = j) f (t) =
X
fi t i .
n=2
i=1
+∞
X
= P(Sn−1 = k − j | P)(Y1 = j) Vérions que f (t) − 1 ne possède pas d'autres racines que 1 de module
n=2 inférieur à 1.
= P(Ek−j )P(Y1 = j). Supposons |t| ≤ 1. Si f (t) = 1, on a par inégalité triangulaire
(d) La famille des (Y1 = j) avec j ∈ N∗ est un système complet d'événements et
n

n n
donc
X X i X
1= i
fi t ≤ fi t ≤ fi = 1.

+∞

X  i=1 i=1 i=1
P(Ek ) = P Ek ∩ (Y1 = j)
j=1 On en déduit fi |t|i = fi pour tout i compris entre 1 et n. Les indices i tels
k que les fi sont non nuls étant premiers dans leur ensemble, il vient 6 |t| = 1.
De plus, par égalité dans l'inégalité triangulaire complexe, les fi ti ont le
X 
= P Ek ∩ (Y1 = j) + 0
j=1 même argument lorsqu'ils sont non nuls. Aussi, leur somme est égale à 1 et
k k on en tire que les ti sont tous égaux à 1. Par le même argument qu'au-dessus,
il vient t = 1.
X X
= P(Ek−j )P(Y1 = j) + P(Y1 = k) = uk−j fj
j=1 j=1 1 est racine simple de la fraction u et ses autres racines complexes sont de
en posant u0 = 1. modules strictement supérieurs à 1. La décomposition en éléments simples de
u donne l'écriture
(e) P
La suite uk est une suite de probabilité : elle est bornée et la série entière u(t) =
a
+ v(t)
uk tk est de rayon de convergence au moins égale à 1. 1−t
Par produit de Cauchy de série absolument convergentes avec a = f 0 (1) = E(Y1 ) et v(t) dont la décomposition en série entière est de
+∞ +∞ +∞ X +∞ rayon de convergence > 1 et dont les coecients sont donc de limite nulle. On
un tn = u(t) − 1. en déduit que uk tend vers E(Y1 ) quand k tend vers l'inni.
X X X X
f (t)u(t) = fi ti uk tk = fi uk tn =
i=1 k=0 n=1 i+k=n n=1
6. Si i1 , . . . , ip sont les indices pour lesquels fi 6= 0, il sut d'écrire |t| = |t|i1 u1 +···+ip up avec
On en déduit la relation proposée. u1 , . . . , up entiers tels que i1 u1 + · · · + ip up = 1.

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 31

Exercice 42 : [énoncé] import random as rnd


import math
(a) Pour t ∈ [−1 ; 1]
+∞ def poisson(l):
x = rnd.random()
X
m
GS (t) = P(S = m)t
m=0 n = 0
+∞ X+∞ p = math.exp(-l)
while x > p:
X
= P(N = n, X1 + · · · + Xn = m)tm
m=0 n=0 x = x - p
n = n + 1
car l'événement (S = m) est la réunion disjointe des événements p = p * l/n
(N = n, X1 + · · · + Xn = m). Par indépendance puis réoganisation du calcul return n
de la somme d'une famille sommable, il vient
+∞
+∞ X
def generation(n,l):
X Z = 1
GS (t) = P(N = n)P(X1 + · · · + Xn = m)tm
for k in range(n):
m=0 n=0
+∞ +∞
S = 0
for z in range(Z):
X X
= P(N = n) P(X1 + · · · + Xn = m)tm
n=0 m=0
S = S + poisson(l)
+∞ Z = S
P(N = n)GX1 +···+Xn (t). return Z
X
=
n=0
(e) def esperance(N):
n = 10
n
Enn, par indépendance, GX1 +···+X n (t) = GX1 (t) × · · · × GXn (t) = GX (t)

et on conclut GS = GN GX (t) .
 l = 1.8
E = 0
(b) GN et GX sont dérivables en 1 donc aussi GN ◦ GX et alors S admet une for i in range(N):
espérance : E = E + generation(n,l)
E = E / N
E(S) = G0S (1) = G0X (1) × G0N GX (1) = E(X)E(N ).

return E, l**n
(c) GN et GX sont deux fois dérivables en 1 donc aussi GN ◦ GX et alors S car E(Zn+1 ) = E(X)E(Zn ) (car N correspond à Zn ) et donc E(Zn ) = λn .
admet un moment d'ordre 2.

V(S) = E(S 2 ) − E(S)2 = E S(S − 1) + E(S) − E(S)2



2
= G00S (1) + G0S (1) − G0S (1) .
Exercice 43 : [énoncé]

Au terme des calculs, (a) Par application de la règle de d'Alembert, R = +∞.


(b) Pour tout t ∈ R
V(S) = E(N )V(X) + E(X)2 V(N ). +∞
X 1 n
et = t
(d) On évite d'écrire lambda qui est un mot clé Python. n=0
n!

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 32

et donc puis
+∞
n(n − 1) + 2n + 1 n
 
P(X = x)P(Y = y) log P(X = x) +log P(Y = y) .
X X 
S(t) = t H(X, Y ) = −
n=0
n! (x,y)∈X ×Y
+∞ +∞ +∞
1 1 1 n On sépare la somme en deux et l'on somme tantôt d'abord en x, tantôt
X X X
= tn + 2 tn + t
n=2
(n − 2)! n=1
(n − 1)! n=0
n! d'abord en y et l'on obtient
= (t2 + 2t + 1)et = (t + 1)2 et .
H(X, Y ) = H(X) + H(Y )
(c) GX (1) = 1 détermine λ = e−1 /4. On en déduit
car
P(Y = y) = 1.
X X
n2 + n + 1 P(X = x) =
P(X = n) = . x∈X y∈Y
4e · n!
(d) Si GX est deux fois dérivable en 1, (c) On sait
2 P(X = x | Y = y) = P(X = x, Y = y)P(Y = y)
E(X) = G0X (1) et V(X) = G00X (1) + G0X (1) − G0X (1) .
donc
Ici, on obtient E(X) = 2 et V(X) = 3/2. X
P(Y = y)H(X | Y = y) = − P(X = x, Y = y)×
x∈X
Exercice 44 : [énoncé]
 
log P(X = x, Y = y) − log P(Y = y) .


(a) Pour tout x ∈ X , on a −p(x) log p(x) ≥ 0 car p(x) ≤ 1. On en déduit




H(X) ∈ R+ . On sépare la somme en deux et l'on somme le résultat sur y ∈ Y pour obtenir
Si H(X) = 0 alors, par somme nulle de positifs, on a
P(X = x, Y = y) log P(Y = y) .
X X 
 P(Y = y)H(X | Y = y) = H(X, Y )+
∀x ∈ X , p(x) log p(x) = 0 y∈Y (x,y)∈X ×Y

et donc Or
∀x ∈ X , p(x) = 0 ou p(x) = 1.
X
Sachant que

P(X = x, Y = y) log P(Y = y)
X
p(x) = P(X ∈ X ) = 1 (x,y)∈X ×Y
XX 
x∈X = P(X = x, Y = y) log P(Y = y)
on peut armer qu'il existe x ∈ X tel que p(x) = P(X = x) = 1. y∈Y x∈X
La variable X est alors presque sûrement constante. avec
(b) Par dénition
X
P(X = x, Y = y) = P(Y = y)
x∈X
P(X = x, Y = y) log P(X = x, Y = y) .
X 
H(X, Y ) = −
(x,y)∈X ×Y
donc
P(Y = y)H(X | Y = y) = H(X, Y ) − H(Y ).
X
Or les variables X et Y étant indépendantes y∈Y

P(X = x, Y = y) = P(X = x)P(Y = y)

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 33

Exercice 45 : [énoncé] Notons (xn )n∈N une énumération des valeurs de X . Pour t ∈ ]−a ; a[
Supposons les variables aléatoires X et Y = f (X) indépendantes. +∞ +∞
Il existe au moins une valeur x par X vériant P(X = x) > 0. En eet, la variable MX (t) =
X
P(X = xn )etxn =
X
un (t)
X étant discrète P(Ω) = 1 est la somme des probabilités des événements valeurs n=0 n=0
(X = x). Considérons ensuite la valeur y = f (x).
avec
P(f (X) = y ∩ X = x) un (t) = P(X = xn )etxn .
P(f (X) = y | X = x) = . Par hypothèse, la série de fonctions convergence simplement sur ]−a ; a[.
P(X = x)
Les fonctions un sont toutes de classe C ∞ avec
Or (X = x) ⊂ (f (X) = y), donc
u(k) k txn
n (t) = P(X = xn )xn e .
P(f (X) = y | X = x) = 1. Soit α > 0 tel que [−α ; α] ⊂ ]−a ; a[.
Pour t ∈ [−α ; α], on peut écrire
Cependant, les variables X et f (X) étant supposées indépendantes
un (t) ≤ P(X = xn ) xkn eα|xn | .
(k)
P(f (X) = y | X = x) = P(f (X) = y).
Introduisons ρ ∈ ]α ; a[. On peut écrire
Ainsi, l'événement (f (X) = y) est presque sûr. La variable aléatoire Y est donc P(X = xn )|xn |k eα|xn | = |xn |k e(α−ρ)|xn | × P(X = xn )eρ|xn | .
presque sûrement constante. La réciproque est immédiate et donc X et Y = f (X)
sont indépendantes si, et seulement si, Y est presque sûrement constante. D'une part, la fonction t 7→ tk e(α−ρ)t est dénie et continue sur [0 ; +∞[ et de
limite nulle en +∞, elle est donc bornée ce qui permet d'introduire une
constante Mk vériant
Exercice 46 : [énoncé] ∀n ∈ N, |xn |k e(α−ρ)|xn | ≤ Mk .
(a) Soit t ∈ R, on a, avec convergence absolue D'autre part,
+∞
λk kt t P(X = xn )eρ|xn | ≤ P(X = xn )eρxn + P(X = xn )e−ρxn .
e = eλ(e −1) .
X
MX (t) = e−λ
k=0
k! En vertu de la convergence en ±ρ de la série dénissant MX (t), on peut
assurer la convergence de la série positive
(b) Si X ne prend qu'un nombre ni de valeurs {x1 , . . . , xn }, l'aaire est
P(X = xn )eρ|xn | .
X
entendue : la fonction génératrice des moments de X est développable en
série entière sur R avec La majoration uniforme
n
un (t) ≤ Mk P(X = xn )eρ|xn |
X (k)
MX (t) = etxk P(X = xk )
k=1
donne la convergence normale de u(k)n sur [−α ; α].
P

et après permutation des sommes Via convergence uniforme sur tout segment, on peut conclure que MX est de
classe C ∞ sur ]−a ; a[.
+∞
1X
n +∞
1 De plus, on a pour tout ordre de dérivation k et avec sommabilité la relation
E(X ` )t` .
X X
` `
MX (t) = (xk ) P(X = xk )t =
`! `! +∞ +∞
`=0 k=1 `=0
xkn P(X = xn ) = E(X k ).
(k)
X X
MX (0) = u(k)
n (0) =
Si X prend une innité de valeurs, c'est plus technique. . . n=0 n=0

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 34

Exercice 47 : [énoncé] (b) Sachant que les valeurs prises par Xn gurent parmi les k/n avec k ∈ J0 ; nK,
Posons la formule de transfert donne
X1 + · · · + Xn
X= . n        
n k k k n k
avec P Xn = x (1−x)n−k .
X
E(Yn ) = f P Xn = = P(Sn = k) =
Par linéarité de l'espérance k=0
n n n k
n n
1 1 Ainsi
pi .
X X
E(X) = E(Xi ) = n    
n k k
n i=1
n i=1 Bn (f )(x) =
X
f x (1 − x)n−k .
k n
k=0
Les variables étant deux à deux indépendantes
La fonction x 7→ Bn (f )(x) est bien une fonction polynôme.
n n
1 X
V(X) = 2
1 X
V(Xi ) = 2 pi (1 − pi ) ≤
1 (c) Sachant    
n i=1 n i=1 4n k k
f
n − f (x) ≤ f + f (x) ≤ 2M
n
car x(1 − x) ≤ 1/4 pour tout x ∈ [0 ; 1]. on obtient
En appliquant l'inégalité de Bienaymé-Tchebychev, on écrit
   
 V(X)
X k X
f − f (x) P(Xn = k/n) ≤ 2M P(Xn = k/n) = 2M P |Xn −x|

.

P X − E(X) ≥ ε ≤
n
ε2
k k
| n −x|>α |n −x|>α

En passant au complémentaire, on obtient et donc    


  X k M
.
n

f − f (x) P(Xn = k/n) ≤
X + · · · + X
1 n 1 X 1
n 2nα2
P − pi < ε ≥ 1 − −−−−−→ 1
k
n n i=1 4nε2 n→+∞ | n −x|>α

Aussi, lorsque |k/n − x| ≤ α, on a


ce qui permet de conclure.  
k
f
n − f (x) ≤ε

Exercice 48 : [énoncé]
et donc
(a) On sait E(Sn ) = nx et V(Sn ) = nx(1 − x). On en déduit    
X k
P(Xn = k/n) ≤ ε.
X
f − f (x) P(Xn = k/n) ≤ ε

x(1 − x)
E(Xn ) = x et V(Xn ) = . n

k k
n | n −x|≤α |n −x|≤α

Par l'inégalité de Bienaymé-Tchebychev, on peut armer (d) Pour n assez grand, on a M/2nα2 ≤ ε et alors
  V(X )
n
.

P Xn − E(Xn ) > α ≤
      
X k X k
α2

Bn (f )(x)−f (x) ≤ f − f (x) P(Xn = k/n) +

f − f (x
n n
On en déduit
k k
| n −x|≤α | n −x|>α
x(1 − x)
 1
P |Xn − x| > α ≤ 2

nα 4nα2
car x(1 − x) ≤ 1/4 pour tout x ∈ [0 ; 1]. Exercice 49 : [énoncé]

Diusion autorisée à titre entièrement gratuit uniquement - dD


[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 35

(a) import random as rnd (d) On écrit Xi = ai Yi avec E(Yi ) = 0 et |Yi | ≤ 1 et alors
import math !
n
exp(tai Yi ) .
 Y
E exp(tS) = E
def S(n,p):
i=1
R = 0
for k in range(n+1): Par indépendance et l'inégalité précédente
if rnd.random() < p: R = R + 1 n n n
!
return R/n t2 X 2
 
1 2 2
a .
 Y  Y
E exp(tS) = E exp(tai Yi ) ≤ exp t ai = exp
i=1 i=1
2 2 i=1 i
import matplotlib.pyplot as plt
Par l'inégalité de Markov
def test(n,p):  
Lk = range(1,n) P(Sn > ε) = P exp(tSn ) > exp(tε) ≤ exp(−tε)E exp(tSn )
LS = [S(k,p) for k in Lk] ce qui donne l'inégalité voulue.
Linf = [p - math.sqrt(math.log(k)/k) for k in Lk]
Lsup = [p + math.sqrt(math.log(k)/k) for k in Lk] (e) On prend
ε
plt.clf() t = Pn .
a2i
plt.plot(Lk,LS) i=1

plt.plot(Lk,Linf) (f) Sn est la somme de n variables de Bernoulli indépendantes. En centrant


plt.plot(Lk,Lsup) celle-ci, on peut (avec largesse) prendre ai = 1 et alors
On remarque que la courbe expérimentale est plutôt bien encadrée.  2
ε
(b) On a P(Sn − p > ε) ≤ exp − .
2n
1
tx = (1 − λ) × (−t) + λt avec λ= (1 + x) ∈ [0 ; 1].
Avec ε = (ln n)/n, on obtient
p
2
La convexité de la fonction exponentielle produit alors le résultat voulu.  r   
ln n ln n 1
(c) La variable aléatoire X est bornée donc aussi exp(tX) qui est alors P Sn > p + ≤ exp − =√ .
n 2 n
d'espérence nie. L'inégalité au-dessus permet d'écrire la comparaison
Par passage à l'opposé de Sn , on obtient l'autre inégalité.
1 1
exp(tX) ≤ (1 − X)e−t + (1 + X)et .
2 2
Par croissance et linéarité de l'espérance, il vient Exercice 50 : [énoncé]
 1 (a) On pose λ = (1 + x)/2 ∈ [0 ; 1] et la convexité de l'exponentielle donne
1
E exp(tX) ≤ 1 − E(X) e−t + 1 + E(X) et .
 
2 2 e(1−λ)(−t)+λt ≤ (1 − λ)e−t + λet
Enn, la nullité de l'espérance de X permet de conclure ce qui produit la comparaison voulue.
E exp(tX) ≤ ch t.
 (b) La variable X est bornée et donc Y = etx l'est aussi et par conséquent admet
une espérance. Par ce qui précède, on a la comparaison
En développant en série entière ch t et exp(t2 /2), on remarque 1 1
ch t ≤ exp(t2 /2) car on peut comparer les termes sommés respectifs. Y ≤ (1 − X)e−t + (1 + X)et .
2 2
Diusion autorisée à titre entièrement gratuit uniquement - dD
[http://mp.cpgedupuydelome.fr] édité le 3 novembre 2017 Corrections 36

Par croissance de l'espérance et nullité de l'espérance de X


1 −t 1 t
E(Y ) ≤ e + e = ch(t).
2 2
Par développement en série entière et en employant (2n)! ≥ 2n n! , on obtient
+∞ +∞
t2n t2n 2
= et /2 .
X X
ch(t) = ≤ n
n=0
(2n)! n=0
2 n!

(c) Par l'inégalité de Markov, on a pour tout t > 0,


2
P(X > r) = P etX > etr ≤ e−tr E etX ≤ e−tr+t /2 .
 

Pour t = r, il vient
2
P(X > r) ≤ e−r /2
.
En considérant X 0 = −X , on obtient
2
P(X < −r) ≤ e−r /2

et on conclut 2
P |X| > r ≤ 2e−r /2 .


Exercice 51 : [énoncé]
Par l'inégalité de Bienaymé-Tchebychev
σ2 1
= 2.

P X − E(X) ≥ ασ < 2
(ασ ) α

On conclut par considération d'évènement complémentaire.

Diusion autorisée à titre entièrement gratuit uniquement - dD

Vous aimerez peut-être aussi