FICM 2A Probabilités. TD 1. Espérance Conditionnelle (Corrigé) PDF

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 10

École des Mines de Nancy Année 2017-2018

Denis Villemonais, [email protected]

FICM 2A – Probabilités

TD 1. Espérance conditionnelle (corrigé)

Dans tous les exercices, (Ω, F , P) est un espace de probabilité sur lequel sont
définies les variables aléatoires considérées. Ces variables aléatoires sont donc
en particulier F -mesurables.

Exercice 1. Soit B ⊂ F une tribu. Soient X et Z des variables aléatoires réelles


telles que X et X Z sont intégrables, avec Z B-mesurable. Montrer que E(X Z ) =
E(E(X | B)Z ).

Solution. Nous commençons par démontrer que E(|X Z |) = E(E(|X | | B)|Z |) (ceci
est une conséquence du cours, mais nous le redémontrons car il est important
de comprendre comment cela fonctionne). En effet, nous avons

E(|X Z |) = E( lim |X Z |1|Z |≤n ) = lim E(|X Z |1|Z |≤n )


n→+∞ n→+∞

d’après le théorème de convergence monotone, puisque (|X Z |1|Z |≤n ) est une
suite positive croissante. Or E(|X Z |1|Z |≤n ) = E(E(|X | | B)|Z |1|Z |≤n ) par défini-
tion de l’espérance conditionnelle et en utilisant le fait que |X | est intégrable et
que |Z |1|Z |≤n est B-mesurable borné. Or E(|X | | B)|Z |1|Z |≤n est positive crois-
sante presque sûrement vers E(|X | | B)|Z |, donc, d’après le théorème de conver-
gence dominée,

lim E E(|X | | B)|Z |1|Z |≤n = E (E(|X | | B)|Z |) .


¡ ¢
n→+∞

En définitive,

E(|X Z |) = E (E(|X | | B)|Z |) . (1)

Nous savons que cette relation est vraie si Z est bornée et nous allons donc
nous ramener à cette situation en utilisant le théorème de convergence domi-
née. Pour tout n ∈ N, Z 1|Z |≤n est une variable aléatoire bornée B-mesurable.
Par conséquent, d’après la proposition 2.9 p 34,

E(X Z 1|Z |≤n ) = E(E(X | B)Z 1|Z |≤n ). (2)

1
Or
 
p.s. E(X | B)Z 1 p.s.
X Z 1
|Z |≤n −−−−→ X Z |Z |≤n − −−−→ E(X | B)Z
n→∞ et n→∞
|E(X | B)Z 1
|Z |≤n | ≤ E(|X | | B)|Z |, ∀n, p.s.
|X Z 1
|Z |≤n | ≤ |X Z |,

car |Z | est bornée B-mesurable. Or |X Z | et E(|X | | B)|Z | sont des variables


aléatoires intégrables (d’après l’égalité (1)), donc, d’après le théorème de conver-
gence dominée,

E(X Z 1|Z |≤n ) −−−−→ E(X Z ) et E(E(X | B)Z 1|Z |≤n ) −−−−→ E(E(X | B)Z ).
n→∞ n→∞

Par passage à la limite dans (2), on en déduit que

E(X Z ) = E(E(X | B)Z ).

Exercice 2. Soient (X , Y ) et (X 0 , Y 0 ) deux couples de variables aléatoires de même


loi, tels que X est intégrable.
1. Soit f une fonction mesurable telle que E(X | Y ) = f (Y ). Montrer que
E(X 0 | Y 0 ) = f (Y 0 ).
En particulier, cela implique que E(X | Y ) et E(X 0 | Y 0 ) ont même loi.
2. Supposons que X est symétrique, c’est-à-dire que X et −X ont même
loi. Déterminer E(X | |X |).
3. Soient X 1 , . . . , X n des variables aléatoires réelles indépendantes et de même
loi. Nous supposons que X 1 est positive presque sûrement ou intégrable.
Déterminer E(X 1 | X 1 + · · · + X n ).

Solution. 1. Pour toute variable aléatoire Z 0 bornée et σ(Y 0 )-mesurable, il


existe une fonction mesurable bornée h Z 0 telle que Z 0 = h Z 0 (Y 0 ). Ainsi,

E(X 0 Z ) = E(X 0 h Z 0 (Y 0 ))
= E(X h Z 0 (Y )) car (X , Y ) et (X 0 , Y 0 ) ont même loi
= E( f (Y )h Z 0 (Y )) car f (Y ) = E(X | Y )
= E( f (Y 0 )h Z 0 (Y 0 )) car (X , Y ) et (X 0 , Y 0 ) ont même loi
= E( f (Y 0 )Z 0 ).

Ceci étant vrai pour toute variable aléatoire bornée Z B-mesurable, on


déduit de la proposition 2.9 p. 34 que

E(X 0 | Y 0 ) = f (Y 0 ).

2
2. Les variables aléatoires X et −X ont même loi. Donc (X , |X |) et (−X , |X |)
ont même loi. D’après la question 1,

E(X | |X |) = E(−X | |X |).

Or, par linéarité de l’espérance conditionnelle,

E(X | |X |) + E(−X | |X |) = E(0 | |X |) = 0.

Par conséquent,

E(X | |X |) = E(−X | |X |) = 0.

3. Les vecteurs aléatoires (X 1 , (X 1 , . . . , X n )), ..., (X n , (X 1 , . . . , X n )) ont même


loi. Donc, d’après la question 1., il existe une fonction mesurable f telle
que

E(X i | X 1 + · · · + X n ) = f (X 1 + · · · + X n ), ∀i ∈ {1, . . . , n}.

Nous en déduisons que

1X n
E(X 1 | X 1 + · · · + X n ) = E(X i | X 1 + · · · + X n )
n i =1
1
= E(X 1 + . . . + X n | X 1 + · · · + X n ) par linéarité.
n
Or X 1 + · · · + X n est σ(X 1 + · · · + X n )-mesurable, donc

X1 + · · · + Xn
E(X 1 | X 1 + · · · + X n ) = .
n

Exercice 3. Soit X une variable aléatoire de loi uniforme sur [0, 1]. Posons Y =
1 X ≤1/2 et

1
Y1 = X , Y2 = X (1/2 − X ), Y3 = 1/X et Y4 = .
X − 1/2
Déterminer, si elles existent, E(Y1 | Y ), E(Y2 | Y ), E(Y3 | Y ) puis E(Y4 | Y ).

Solution. Y est une variable aléatoire à valeur dans l’ensemble fini {0, 1}, nous
allons donc chercher à appliquer la propriété 2.16 p.40.

3
1. La variable aléatoire Y1 est bornée, donc intégrable. Par conséquent, E(Y1 |
Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dé-
nombrable, on a d’après la proposition 2.16 p.40,
E(Y1 1Y =0 ) E(Y1 1Y =1 )
E(Y1 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y1 1Y =1 ) = E(X 1 X ≤1/2 ) = x1x≤1/2 d λ1 (x)
[0,1]
Z
= x d λ1 (x)
[0,1/2]
1
= .
8
De même,
Z
E(Y1 1Y =0 ) = E(X 1 X >1/2 ) = x1x>1/2 d λ1 (x)
[0,1]
Z
= x d λ1 (x)
]1/2,1]
3
= .
8
En définitive,
1 3
E(Y1 | Y ) = 1Y =1 + 1Y =0 .
4 4

2. La variable aléatoire Y2 est bornée, donc intégrable. Par conséquent, E(Y2 |


Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dé-
nombrable, on a d’après la proposition 2.16 p.40,
E(Y2 1Y =0 ) E(Y2 1Y =1 )
E(Y2 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y2 1Y =1 ) = E(X (1/2 − X )1 X ≤1/2 ) = x(1/2 − x)1x≤1/2 d λ1 (x)
[0,1]
x
Z
= − x 2 d λ1 (x)
[0,1/2] 2
1 1 1
= − = .
16 24 48

4
De même,
Z
E(Y2 1Y =0 ) = E(X (1/2 − X )1 X >1/2 ) = x(1/2 − x)1x>1/2 d λ1 (x)
[0,1]
x
Z
= − x 2 d λ1 (x)
]1/2,1] 2
3 7 5
= − =− .
16 24 48
Finalement,

1 5
E(Y2 | Y ) = 1Y =1 − 1Y =0 .
24 24

3. La variable aléatoire Y3 est positive presque sûrement. Par conséquent,


E(Y3 | Y ) est bien définie. De plus, Y étant à valeurs dans un espace au
plus dénombrable, on a d’après la proposition 2.16 p.40,

E(Y3 1Y =0 ) E(Y3 1Y =1 )
E(Y3 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y3 1Y =1 ) = E(1/X 1 X ≤1/2 ) = 1/x1x≤1/2 d λ1 (x) = +∞.
[0,1]

De même,
Z
E(Y3 1Y =0 ) = E(1/X 1 X >1/2 ) = 1/x1x>1/2 d λ1 (x)
[0,1]
Z
= 1/x d λ1 (x) = ln 2.
]1/2,1]

Finalement,

E(Y3 | Y ) = +∞ 1Y =1 + ln 2 1Y =0 .

4. La variable Y4 n’est ni positive, ni intégrable E(|Y4 |) = +∞ d’après une


application immédiate du théorème du transport. Par conséquent,

E(Y4 | Y ) n’est pas définie.

5
Exercice 4. Soient X et Y deux variables aléatoires réelles indépendantes. No-
tons F X +Y la fonction de répartition de la variable aléatoire réelle X + Y et F Y
celle de la variable aléatoire réelle Y .
1. Montrer que pour tout t ∈ R,

E(1 X +Y ≤t | X ) = F Y (t − X ) presque sûrement.

2. Supposons que X est une variable de loi uniforme sur [0, 1]. Montrer que
Z 1
∀t ∈ R, F X +Y (t ) = F Y (t − u) d u.
0

Solution. 1. Les variables aléatoires X et Y étant supposées indépendantes,


nous allons chercher à appliquer la proposition 2.30 p.51, avec h(x, y) =
1x+y≤t . Remarquons que h est bornée, donc h(X , Y ) est intégrable. Nous
avons donc

E(1 X +Y ≤t | X ) = g (X ),

avec
Z Z
g (x) = E(h(x, Y )) = h(x, y) d PY (y) = 1x+y≤t d PY (y)
R R
= PY (] − ∞, t − x]) = F Y (t − x),

par définition de la fonction F Y . En définitive,

E(1 X +Y ≤t | X ) = F Y (t − X ).

2. Nous avons

F X +Y (t ) = E(1 X +Y ≤t ) = E(E(1 X +Y ≤t | X )) = E(F Y (t − X )),

donc, d’après le théorème du transport,


Z
F X +Y (t ) = F Y (t − x) d λ1 (x).
[0,1]

Exercice 5 (DM1). Soit (X , Y , Z ) un vecteur gaussien centré de matrice de co-


variance  
2 −1 1
M =  −1 2 1 .
1 1 2

6
1. Déterminer E(X | Y , Z ).
2. Déterminer E(X | 2Y + Z ).
3. Déterminer E(X | X + Y , Y − Z ).

Solution. 1. La matrice de covariance du vecteur gaussien (Y , Z ) est


µ ¶ µ ¶
2 1 −1 1 2 −1
Γ(Y ,Z ) = , avec (Γ(Y ,Z ) ) =
1 2 3 −1 2

et la matrice de covariance de X est Γ X = (2). Par conséquent, (X , Y , Z )


étant un vecteur gaussien et Γ(Y ,Z ) ) étant inversible, on a d’après la pro-
position 2.38 p.53,
µµ ¶ µ ¶¶
−1 Y Y
E(X | Y , Z ) = E(X ) + (Γ X ,(Y ,Z ) (Γ(Y ,Z ) ) ) −E ,
Z Z

avec Γ X ,(Y ,Z ) = (−1, 1). Étant donné que le vecteur (X , Y , Z ), est centré,
nous en déduisons que
µ ¶µ ¶
1 2 −1 Y
E(X | Y , Z ) = (−1, 1) .
3 −1 2 Z

En définitive, nous obtenons

E(X | Y , Z ) = −Y + Z .

2. Le vecteur aléatoire (U ,V ) = (X , 2Y + Z ) est un vecteur gaussien centré,


en tant que transformation linéaire du vecteur gaussien centré (X , Y , Z ).
De plus, sa matrice de covariance est donnée par
 
µ 1 0
¶ µ ¶
1 0 0 2 −1
Γ(U ,V ) = M  0 2  = .
0 2 1 −1 14
0 1

Nous déduisons donc de la proposition 2.37 que

−1
E(X | 2Y + Z ) = E(U | V ) = V,
14
soit

2Y + Z
E(X | 2Y + Z ) = − .
14

7
3. Le vecteur aléatoire (U ,V,W ) = (X , X + Y , Y − Z ) est un vecteur gaussien
centré, en tant que transformation linéaire du vecteur gaussien centré
(X , Y , Z ). De plus, sa matrice de covariance est donnée par
     
1 0 0 1 1 0 2 1 −2
Γ(U ,V,W ) = 1 1 0  M 0 1 1  =  1 2 −1 .
0 1 −1 0 0 −1 −2 −1 2

Ainsi, la matrice de covariance de (V,W ) est


µ ¶ µ ¶
2 −1 −1 1 2 1
Γ(V,W ) = avec (Γ(V,W ) ) =
−1 2 3 1 2

et la matrice de covariance de U est ΓU = (2). Par conséquent, d’après la


proposition 2.38 p.53,
µµ ¶ µ ¶¶
−1 V V
E(U | V,W ) = E(U ) + (ΓU ,(V,W ) (Γ(V,W ) ) ) −E ,
W W

avec ΓU ,(V,W ) = (1, −2). Étant donné que le vecteur (U ,V,W ) est centré,
nous en déduisons que
µ ¶µ ¶
1 2 1 V
E(U | V,W ) = (1, −2) = −W.
3 1 2 W

En définitive,

E(X | X + Y , Y − Z ) = −Y + Z

Exercice 6 (DM1). Soient X ∈ L 2 (Ω, F , P) et B ⊂ F une tribu sur Ω. On appelle


variance conditionnellement à B la variable aléatoire

Var(X | B) = E (X − E(X | B))2 | B


¡ ¢

1. Supposons que E(X 2 ) = E(E(X | B)2 ). Montrer que X est B mesurable.


2. Montrer que, presque sûrement,

Var(X | B) = E(X 2 | B) − E(X | B)2 .

8
3. Montrer que
Var X = E (Var(X |B)) + Var (E(X | B))
et en déduire que
Var (E(X | B)) ≤ Var X .

4. Rappelons que si A ∈ F , P(A | B) = E(1 A | B). Montrer que pour tout


ε > 0, presque sûrement
Var(X |B)
P (|X − E(X | B)| ≥ ε | B) ≤ .
ε2

Solution. Remarquons dès à présent que X ∈ L 2 , donc E(X | B) ∈ L 2 , ce qui


justifie l’existence des espérances dans la suite de l’exercice.
1. D’après le théorème de Pythagore (applicable car X ∈ L 2 ), nous avons

E(X 2 ) = E(E(X | B)2 ) + E((X − E(X | B))2 ).

Par conséquent, sous l’hypothèse E(X 2 ) = E(E(X | B)2 ), nous obtenons


E((X − E(X | B))2 ) = 0. Or la variable aléatoire (X − E(X | B))2 est posi-
tive presque sûrement, donc (X − E(X | B))2 = 0 presque sûrement. En
définitive,

X = E(X | B) p.s.

En particulier, X est B-mesurable.


Remarque 1. En fait, nous pouvons en déduire que X est B-mesurable
si et seulement si B est complète, au sens où elle contient tous les en-
sembles négligeables de F . C’est une hypothèse que nous faisons donc
implicitement ici.
2. Nous avons

Var(X | B) = E(X 2 − 2X E(X | B) + E(X | B)2 | B)


= E(X 2 | B) − 2E(X E(X | B) | B) + E(E(X | B)2 | B)

par linéarité de l’intégrale conditionnelle. De plus, les variables aléa-


toires E(X | B) et E(X | B)2 étant B-mesurables,

Var(X | B) = E(X 2 | B) − 2E(X | B)E(X | B) + E(X | B)2 .

En définitive,

Var(X | B) = E(X 2 | B) − E(X | B)2 .

9
3. Nous avons

E (Var(X |B)) + Var (E(X | B)) = E E(X 2 | B) − E(X | B)2 + E E(X | B)2 − E (E(X | B))2
¡ ¢ ¡ ¢

= E E(X 2 | B) − E (E(X | B))2


¡ ¢

= E(X 2 ) − E(X )2 .

En définitive,

Var(X ) = E (Var(X |B)) + Var (E(X | B)) .

La variance conditionnelle étant positive presque sûrement par défini-


tion, nous en déduisons que

Var (E(X | B)) ≤ Var(X ).

4. Nous avons (en utilisant notamment la croissance de l’espérance condi-


tionnelle)

P (|X − E(X | B)| ≥ ε | B) = E 1|X −E(X |B)|≥ε | B


¡ ¢

|X − E(X | B)|2
µ ¶
≤ E 1|X −E(X |B)|≥ε |B
ε2
|X − E(X | B)|2
µ ¶
≤E |B .
ε2

Soit

Var(X | B)
P (|X − E(X | B)| ≥ ε | B) ≤ .
ε2

10

Vous aimerez peut-être aussi