Math F 105séance11corr
Math F 105séance11corr
Math F 105séance11corr
1. Grâce à la linéarité de l’espérance, un calcul immédiat permet d’obtenir le résultat. Ce résultat reste-t-il
valable si l’on ne suppose plus l’indépendance des variables aléatoires ?
2. Remarquons tout d’abord que, vu que les Xi sont i.i.d. de moyenne µ et de variance σ 2 , la moyenne
2
X̄ est elle-même de moyenne µ, mais de variance σn (à montrer). Dès lors, on a que
n
!
1X
E(W ) = E (Xi − X̄)2
n
i=1
n
!
1 X
= E Xi2 − nX̄ 2
n
i=1
n
!
1 X
= E(Xi2 ) − nE(X̄ ) 2
n
i=1
σ2
1 2 2 2
= n(µ + σ ) − n(µ + )
n n
n−1 2
= σ
n
σ2
= σ2 − ,
n
2
et donc le biais correspond à − σn . Notez qu’asymptotiquement ce biais est nul ; W est donc un
estimateur asymptotiquement sans biais de σ 2 .
3. De par la linéarité de l’espérance, il est clair que E(aX) = aE(X). Dès lors, pour se débarrasser de la
fraction n−1 n
n qui crée le biais, il suffit de multiplier W par n−1 pour obtenir un estimateur non biaisé
de σ 2 . Cet estimateur se note
n
2 1 X
S := (Xi − X̄)2 .
n−1
i=1
Exercice 11.2
Z
1. En résolvant l’équation fθ (x)dx = 1, on obtient k = 4.
R
2. Calculons l’espérance de X̄ :
E(X̄) = E(X1 ) (pourquoi ?)
Z θ 4
4x
= 4
dx
0 θ
4
= θ,
5
et on voit donc que X̄ n’est pas un estimateur sans biais de θ.
5
3. Une simple multiplication de X̄ par 4 permet d’enlever le biais. Ainsi donc un estimateur sans biais
de θ est
5
θ̂ = X̄.
4
Exercice 11.3
Regardons d’abord quels estimateurs sont sans biais (resp. sans biais asymptotique). Des calculs immédiats
montrent que
- E(p̂1 ) = p − n1 , donc estimateur biaisé, mais sans biais asymptotique.
- E(p̂2 ) = p, estimateur sans biais (et donc sans biais asymptotique).
- E(p̂3 ) = p, estimateur sans biais (et donc sans biais asymptotique).
Considérons à présent la convergence de chacun de ces estimateurs. En tenant compte de l’indépendance
des observations, on obtient que
p(1−p)
- Var(p̂1 ) = n , donc estimateur convergent.
p(1−p)
- Var(p̂2 ) = bn/2c , donc estimateur convergent.
p(1−p)
- Var(p̂3 ) = 10 , qui n’est clairement pas un estimateur convergent.
Finalement, comparons les 3 estimateurs sur base de leur efficacité, i.e. faisons une comparaison de leurs
variances (qu’on vient de calculer pour la convergence).
- Premièrement, il est clair que p(1−p)
n < p(1−p)
bn/2c (car n > bn/2c) et que
p(1−p)
n < p(1−p)
10 (puisque n > 10) ;
on en déduit donc que p̂1 est l’estimateur le plus efficace des trois.
- La comparaison entre p̂2 et p̂3 en termes d’efficacité dépend fortement du nombre d’observations. Ainsi,
p̂3 est plus efficace que p̂2 aussi longtemps que 10 > bn/2c, c’est-à-dire pour n ∈ [11, 19]. Pour n = 20
et n = 21, les deux estimateurs sont aussi efficaces l’un que l’autre, et à partir de n ≥ 22, p̂2 est plus
efficace que p̂3 .
Exercice 11.4
1. Rappelons aux distraits que si la variable aléatoire X suit une loi de Poisson de paramètre λ, alors
λk
P (X = k) = e−λ
k!
pour tout k ≥ 0. Donc,
∞
X
E(δ(X)) = E(1[X=0] ) = 1[k=0] P (X = k) = P (X = 0) = e−λ ,
k=0
ce qui montre que δ(X) est un estimateur sans biais pour e−λ .
2. Pour montrer que δ(X) est l’unique estimateur non biaisé de e−λ , il faut montrer que si g(X) est
un estimateur sans biais de e−λ défini sur tout R, alors nécessairement g(x) = δ(x) pour tout x ∈ N
(pourquoi l’égalité sur N suffit-elle ?).
N. B. Notez qu’ici on a écrit l’égalité entre 2 fonctions et non pas entre deux variables aléatoires et
ceci simplifie considérablement le débat. En effet, pour pouvoir écrire une égalité entre 2 fonctions de
v.a., il faut préciser la nature de cette égalité (p.s., en probabilité, en distribution), or ici on cherche
à montrer que les 2 fonctions doivent concider, et donc on travaille au niveau de variables réelles.
Comme g(X) est sans biais pour e−λ , on a que E(g(X)) = e−λ . Cette égalité donne alors lieu au
développement suivant :
E(g(X)) = e−λ
∞
X λk
⇔ g(k)e−λ = e−λ
k!
k=0
∞
X λk
⇔ g(k) = 1.
k!
k=0
Cette égalité doit être valable quel que soit le choix de λ > 0. On assiste donc à l’égalité entre deux
polynômes, ce qui ne peut se faire que si les coefficients des deux sont égaux ; ainsi donc on obtient
g(0) = 1, g(k) = 0 ∀k ≥ 1.
g(x) = δ(x) ∀x ∈ N.
Ceci nous permet de conclure que l’estimateur proposé au point précédent est bien le seul estimateur
sans biais de e−λ .
3. Pour voir si la statistique (−2)X est un estimateur sans biais pour e−3λ , il suffit d’en calculer
l’espérance. On obtient
∞ k ∞
X
k −λ λ −λ
X (−2λ)k
X
= e−λ e−2λ = e−3λ ,
E (−2) = (−2) e =e
k! k!
k=0 k=0
et donc (−2)X est bien un estimateur sans biais pour e−3λ . Toutefois cette statistique n’est pas un
bon estimateur du paramètre, et donc on ne s’intéresse pas aux 3 autres propriétés d’estimateurs.
4. Pour n = 0, il suffit de prendre 1 comme estimateur de 1. Pour n = 1, on a vu que le seul estimateur
sans biais de e−λ est 1[X=0] . Pour n ≥ 2, on déduit par le point 3. que (1 − n)X est un estimateur sans
biais de e−nλ (ce qui se démontre exactement de la même manière qu’au point 3.).
Exercice 11.5
1. Nous avons démontré à l’exercice 1.1 que X̄ était un estimateur sans biais pour µ ; il en va bien
évidemment de même pour X̄pond .
2. Il s’agit ici de comparer Var(X̄) et Var(X̄pond ). L’intuition (ou le flair ou le talent... ) nous indique
que Pn 2
σ2 2 P i=1 ai
≤σ .
n ( ni=1 ai )2
Pour le prouver, il suffit par exemple de remarquer que (après simplification par σ 2 ) :
Pn
1 a2
n ≤ Pni=1 i 2
( i=1 ai )
Pn 2
Pn 2
⇔ ( i=1 ai ) ≤ n( i=1 ai )
P Pn 2
⇔ n≥i>j≥1 2ai aj ≤ (n − 1) i=1 ai .
Arrivé à ce point, on remarque que dans le membre de droite on a une somme de carrés, où chaque
terme survient n−1 fois, et qu’à gauche on a n(n−1)
2 doubles produits constitués par les mêmes nombres
qu’à droite de l’équation. On constate donc qu’on peut former n(n−1)
2 carrés parfaits en retranchant
de part et d’autre tous les doubles produits, ce qui donne
X
0≤ (ai − aj )2 ,
n≥i>j≥1
égalité qui est toujours vraie. Donc on vient de montrer que la variance de la moyenne usuelle est
inférieure à celle de la moyenne pondérée, et donc la moyenne usuelle constitue un estimateur plus
efficace de µ.
3. La réponse à cette question dépond fortement de l’étudiant : un étudiant qui a régulièrement de très
bons points n’a pas intérêt à ce qu’il y ait une grande fluctuation par rapport à sa moyenne, les chances
de voir sa moyenne diminuer étant plus grandes que les chances de la voir augmenter. Il aurait donc
une préférence pour la moyenne usuelle. Bien évidemment, la situation est tout à fait inversée pour
un étudiant ayant des mauvaises notes, et il devrait avoir un penchant pour la moyenne pondérée. La
situation est moins claire pour un étudiant qui se situe à la frontière entre la réussite et l’échec.
De manière générale on peut dire que la moyenne usuelle est favorable aux étudiants ayant en général
des notes au-dessus de 13, qu’en-dessous de 11 la moyenne pondérée est préférable, et qu’entre 11 et
13 il n’y a pas de véritable différence (au niveau statistique et probabiliste) entre les deux moyennes.