Resume Stat-1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

INITIATEUR : Mahugnon Fréjus TANGNIHO

Tel : 94039009/97423056

Email : [email protected]

RESUME : STAT-PROBA

Soit X la variable aléatoire

PREMIERE PARTIE : les lois

Séquence 1 : La loi binomiale

A- Les critères justifiant la loi binomiale


Trois critères justifient la loi binomiale :
-l’évènement est répété n fois
-existence de succès (p) et d’échec (q=1-p) avec p+q=1
-les deux évènements sont indépendants
X→B(n,p) avec
n=la taille de l’échantillon
p=la probabilité du succès

B- Calcul de probabilité par la loi binomiale


𝑃(𝑋 = 𝑘) = 𝐶𝑛𝑘 𝑝𝑘 𝑞𝑛−𝑘 ; 𝑘 ∈ 𝐼𝑁

C- Quelques formules de calcul par la loi binomiale :

*Espérance mathématique E(X) de X : E(X)=n.p

*Variance de X notée V(X) : V(X)=npq

Et 𝝏(𝑿) = √𝑽(𝑿)=√𝒏𝒑𝒒

Séquence 2 : la loi de poisson/ la loi des phénomènes ou évènements rares

A. Critère de justification de la loi de poisson :


*le phénomène ou évènement en question est un phénomène ou évènement rare.
X→P(m) avec m la moyenne

B. Calcul de probabilité :
𝑚𝑘 𝑒 −𝑚
𝑃(𝑋 = 𝑘) = 𝑘!
; 𝑘 ∈ 𝐼𝑁

C. Quelques formules de calcul :

Page 1
̅̅̅𝑒 =m=V(X)
E(X)=𝑋
Mais 𝜕(𝑋) = √𝑉(𝑋)

D. Exemples de phénomènes rares :


Accidents, nombre d’appels dans un intervalle de temps donné, gare aéroport (heure
d’attente), nombre de naissances, épidémie et virus etc….
Remarque : La loi binomiale et la loi de poisson ne manipule pas le signe de supériorité/ça
peut être supérieur ou égal. On cherche l’évènement contraire (qui donnera un signe
d’infériorité) puis on décompose. En ce qui concerne le signe d’infériorité, on le décompose
directement.

Séquence 3 : La loi normale/la loi de Laplace Gauss


La loi normale ne se justifie pas, c’est l’exercice qui précise.
Avec cette loi, on a :
̅̅̅
𝑋𝑒 = 𝑀𝑜 = 𝑀𝑒
X→N(m, 𝜕) avec m=la moyenne et 𝜕 = 𝑙 ′ é𝑐𝑎𝑟𝑡 − 𝑡𝑦𝑝𝑒
NB : C’est avec la loi normale centrée réduite qu’on peut lire les valeurs de probabilités sur la
table. Autrement dit, c’est avec la loi normale centrée réduite qu’on calcule les probabilités.
La loi normale est dite centrée et réduite si et seulement si : m=0 et 𝝏 = 𝟏
Si la loi normale n’est pas centrée réduite, il faut centrer et réduire la loi à l’aide de la
𝑋−𝑚
formule suivante : 𝒕 = 𝝏
RETENONS :
Soit X la variable aléatoire
Nous avons :
►P(𝑋 ≤ 𝑎) = 𝑃(𝑋 < 𝑎)
► P(𝑋 > 𝑎) = 1 − 𝑃(𝑋 ≤ 𝑎) = 1 − 𝑃(𝑋 < 𝑎)
►P(𝑋 ≥ 𝑎) = 1 − 𝑃(𝑋 < 𝑎) = 1 − 𝑃(𝑋 ≤ 𝑎)
► P(𝑋 < −𝑎) = 1 − 𝑃(𝑋 < 𝑎) = 1 − 𝑃(𝑋 ≤ 𝑎)
► P(𝑋 ≤ −𝑎) = 1 − 𝑃(𝑋 ≤ 𝑎) = 1 − 𝑃(𝑋 < 𝑎)
► P(𝑋 ≥ −𝑎) = 1 − 𝑃(𝑋 ≤ −𝑎)
=1-[1 − P(𝑋 ≤ 𝑎)]
P(𝑋 ≥ −𝑎)=P(𝑋 ≤ 𝑎) = 𝑃(𝑋 < 𝑎)
► P(𝑋 > −𝑎) = 1 − 𝑃(𝑋 < −𝑎)
=1-[1 − P(𝑋 < 𝑎)]
P(𝑋 > −𝑎)= P(𝑋 < 𝑎) = 𝑃(𝑋 ≤ 𝑎)
►P(𝑎 < 𝑋 < 𝑏) = 𝑃(𝑋 < 𝑏) − 𝑃(𝑋 < 𝑎)
►P(−𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑋 ≤ 𝑏) − 𝑃(𝑋 ≤ −𝑎)
= 𝑃(𝑋 ≤ 𝑏) − [1 − P(𝑋 ≤ 𝑎)]
P(−𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃(𝑋 ≤ 𝑏) + P(𝑋 ≤ 𝑎) − 1
►P(−𝑎 ≤ 𝑋 ≤ −𝑏) = 1 − 𝑃(𝑋 ≤ 𝑏) − [1 − P(𝑋 ≤ 𝑎)]
P(−𝑎 ≤ 𝑋 ≤ −𝑏) = 𝑃(𝑋 ≤ 𝑎) − P(𝑋 ≤ 𝑏)

*Toutes les trois lois (binomiale, poisson et normale) ne manipule pas le signe de
supériorité. On écrit son évènement contraire puis on manipule.
Soit 𝑃(𝑋 ≤ 𝑎) + P(𝑋 > 𝑎) = 1
D’où P(𝑋 > 𝑎) = 1 − 𝑃(𝑋 ≤ 𝑎)
*La loi binomiale ne manipule pas les valeurs négatives. On écrit de cette manière :
𝑃(𝑋 ≤ −𝑏) = 1 − 𝑃(𝑋 ≤ 𝑏)

Page 2
VOICI QUELQUES EXPRESSIONS POUR LE CALCUL DES PROBABILITES :
*Exactement a →X=a
*Au plus a → 𝑋 ≤ 𝑎
*Plus de a → 𝑋 > 𝑎
*Au moins a → 𝑋 ≥ 𝑎
*Moins de a → 𝑋 < 𝑎
Séquence 4 : Approximation des lois
Noter ici que, lorsque l’approximation d’une loi à une autre loi est possible, c’est avec la
nouvelle loi qu’on calcule les probabilités.
Les conditions d’approximation sont les suivantes :
►La loi binomiale à la loi de poisson :
● n≥ 𝟑𝟎 ; 𝒑 ≤ 𝟎, 𝟏 𝒆𝒕 𝒏𝒑 ≤ 𝟏𝟎
● n≥ 𝟓𝟎 ; 𝒑 ≤ 𝟎, 𝟏 𝒆𝒕 𝒏𝒑𝒒 ≤ 𝟓
*Ainsi on aura :
X→P(m) avec m=np
►La loi binomiale à la loi normale :
● n≥ 𝟑𝟎 ; 𝒏𝒑 ≥ 𝟓 𝒆𝒕 𝒏𝒒 ≥ 𝟓
● n≥ 𝟓𝟎 ; 𝒑 ≤ 𝟎, 𝟏 𝒆𝒕 𝒏𝒑𝒒 > 𝟏𝟓
*Ainsi on aura :
X→N(m, 𝜕) avec m=np et 𝜕 = √𝒏𝒑𝒒
►La loi de poisson à la loi normale
●m> 𝟏𝟓
*Ainsi on aura :
X→ N(m ; √𝒎)

NB : Si deux conditions de l’un des deux critères vérifient, alors l’approximation est possible.
Ce n’est pas forcément les deux critères qui doivent vérifier et ce n’est pas forcément toutes
les conditions qui doivent vérifier. On vérifie deux conditions de l’un des critères.
Mais si dans un exercice, deux critères nous entrainent à deux approximations possibles, il
faut aller jusqu’à la troisième condition.
Exemple : Dans un exercice d’approximation, on trouve que n≥ 𝟓𝟎 ; 𝒑 ≤ 𝟎, 𝟏. Ces deux
conditions sont valables pour l’approximation de la loi binomiale à la loi de
poisson et à la loi normale, il faut aller vérifier la troisième condition du critère
correspondant pour distinguer.

Remarque : Si l’approximation est possible, c’est avec la nouvelle loi obtenue qu’on calcule
les probabilités tenant compte des nouvelles expressions des paramètres.

DEUXIEME PARTIE : Variables aléatoires


Séquence 1 : Variables aléatoires discrètes
A-Retenons que :
*Tout exercice de variables aléatoires est associé à un gain (profit ou perte), au lancement de
n objets.
*La majorité des exercices de la variable aléatoire discrète se règle avec un tableau cartésien
et la somme des probabilités est égale à 1.
B-Formules de calcul
●𝐸(𝑋) = ∑𝑛𝑖=1 𝑋𝑖 . 𝑃(𝑋 = 𝑋𝑖 )

Page 3
●𝑉(𝑋) = ∑𝑛𝑖=1 𝑋𝑖 2 . 𝑃(𝑋 = 𝑋𝑖 ) − [𝐸(𝑋)]2
C-Fonction de répartition F(X)= 𝑃(𝑋 ≤ 𝑋𝑖 )
𝑆𝑖 𝑋 ∈ ]−∞; 𝑋1 [ 0
𝐹(𝑋) = { 𝑆𝑖 𝑋 ∈ [𝑋1 ; 𝑎[ 𝑃(𝑋 ≤ 𝑎)
𝑆𝑖 𝑋 ∈ [𝑎; +∞[ 1
Les 𝑋𝑖 sont rangés dans l’ordre croissant.

Séquence 2 : Variables aléatoires continues


1) Notion de densité de probabilité
f est une densité de probabilité si et seulement si :
𝑓 𝑒𝑠𝑡 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑒 𝑝𝑎𝑟 𝑚𝑜𝑟𝑐𝑒𝑎𝑢
∀ 𝑥 ∈ [𝑎; 𝑏[ ; 𝑓(𝑥) ≥ 0
𝑏
∫ 𝑓(𝑥)𝑑𝑥 = 1
{ 𝑎
2) Formules de calculs
𝑏
● E(X)= ∫𝑎 𝑥𝑓(𝑥)𝑑𝑥
𝑏
● V(X)= ∫𝑎 𝑥 2 𝑓(𝑥)𝑑𝑥 − [𝐸(𝑋)]2
●𝜕(𝑋) = √𝑉(𝑋)

3) Fonction de répartition

𝑓(𝑥)𝑑𝑥 𝑠𝑖 𝑥 ∈ [𝑎; 𝑏]
𝐹(𝑥) = {∫
0 𝑠𝑖 𝑛𝑜𝑛
4) Calcul de probabilité
Il faut que les bornes de l’intervalle donné appartiennent à l’intervalle de départ
Si [𝑐; 𝑑]∁[𝑎; 𝑏] ;on a :
𝑃(𝑐 ≤ 𝑋 ≤ 𝑑 = 𝐹(𝑑) − 𝐹(𝑐)
𝑆𝑖 𝑙 ′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒 𝑑𝑜𝑛𝑛é 𝑛′ 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡 𝑝𝑎𝑠 à 𝑙 ′ 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝑑𝑒 𝑑é𝑝𝑎𝑟𝑡, 𝑙𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é 𝑑𝑜𝑛𝑛𝑒 0

TROISIEME PARTIE : Couples aléatoires ou loi de couples


Soit ce couple (x,y)
A- Lois marginales
P(X=𝑋𝑖 ) = 𝑃𝑖
On dresse un tableau à double entrées comportant les valeurs des variables et les
probabilités de chaque variable à travers un tableau cartésien préétabli.
B- Formules de calculs
1. Pour le calcul des probabilités :
P(X=𝑋𝑖 ; 𝑌 = 𝑌𝑗 ) = 𝑃𝑋𝑖𝑌𝑗
EX :P(X=1 ;Y=2)= 𝑃12
Le résultat est l’intersection de 𝑋𝑖 et 𝑌𝑗 dans le tableau de départ

2. Espérance mathématique :
𝐸(𝑋) = ∑𝑛𝑖=1 𝑋𝑖 𝑃𝑖. (à partir de la loi marginale de X)
𝑛

𝐸(𝑌) = ∑ 𝑌𝑗 𝑃.𝑗 (à 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒 𝑙𝑎 𝑙𝑜𝑖 𝑚𝑎𝑟𝑔𝑖𝑛𝑎𝑙𝑒 𝑑𝑒 𝑌)


𝑗=1

Page 4
𝑛

𝐸(𝑋𝑌) = ∑ 𝑋𝑖 𝑌𝑗 𝑃𝑖𝑗
𝑖=1;𝑗=1
𝑂𝑛 𝑓𝑎𝑖𝑡 𝑙𝑒 𝑝𝑟𝑜𝑑𝑢𝑖𝑡 𝑑𝑒 𝑋𝑖 , 𝑌𝑗 𝑒𝑡 𝑃𝑖𝑗 puis on fait la somme
3. Variance
𝑛

𝑉(𝑋) = ∑ 𝑋𝑖 2 𝑃𝑖. − [𝐸(𝑋)]2


𝑖=1
𝑛

𝑉(𝑌) = ∑ 𝑌𝑗 2 𝑃.𝑗 − [𝐸(𝑌)]2


𝑗=1

4. La covariance
Cov(X,Y)=E(XY)-E(X).E(Y)
La covariance indique le sens de l’évolution des deux variables.

C- Variables indépendantes
Les variables sont indépendantes si et seulement si :
𝑃𝑖𝑗 = 𝑃𝑖. × 𝑃.𝑗
On choisit des éléments de X et Y de son choix puis on vérifie.
EX : 𝑃21 = 𝑃2. × 𝑃.1

D- Loi conditionnelle
1) De X par rapport à Y
𝑃𝑖𝑗
P(X=𝑋𝑖 /𝑌 = 𝑌𝑗 ) = 𝑃.𝑗
𝑃21
EX : P(X=2/𝑌 = 1) =
𝑃.1
2) De Y par rapport à X
𝑃𝑖𝑗
P(Y=𝑌𝑗 /𝑋 = 𝑋𝑖 ) = 𝑃𝑖.
𝑃23
EX : P(Y=3/𝑋 = 2) =
𝑃2.

E- Remarque :
●V(X+Y)=V(X)+2Cov(XY)+V(Y)
●V(X-Y)=V(X)-2Cov(XY)+V(Y)
●V(aX+bY)= 𝑎2 𝑉(𝑋) + 2𝑎𝑏𝐶𝑜𝑣(𝑋𝑌) + 𝑏 2 𝑉(𝑌)
●V(aX-bY)= 𝑎2 𝑉(𝑋) − 2𝑎𝑏𝐶𝑜𝑣(𝑋𝑌) + 𝑏 2 𝑉(𝑌)
●V(a)=0
●E(a)=a ; E(aX)=aE(X)
QUATRIEME PARTIE : Estimation
On peut nous donner une distribution marginale (statistique descriptive) comme un
échantillon.

1. Estimation ponctuelle de la moyenne de la population mère :


Après le calcul de la moyenne de l’échantillon ; on estime celle de la population
mère :
L’estimation ponctuelle de la moyenne de la population mère est égale à la
moyenne de l’échantillon. D’où E(M)=𝑿 ̅ 𝒆 =la valeur de 𝑿
̅𝒆

Page 5
2. Estimation ponctuelle de l’écart-type de la population mère :
On calcule l’écart-type de l’échantillon puis on estime celui de la population
mère à travers les formules suivantes :
Tirage non exhaustif=Tirage avec Tirage exhaustif=tirage sans remise
remise (ou quand l’exo ne précise Ici, la taille N de la population est
pas, on suppose que c’est non connue (on précisera toujours la
exhaustif) taille)
𝑛
𝜕 = 𝜕𝑒 √ 𝜕𝑒 𝑁 − 𝑛
𝑛−1 𝜕= √
√𝑛 𝑁 − 1

Avec 𝜕 = é𝑐𝑎𝑟𝑡 − 𝑡𝑦𝑝𝑒 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑝𝑢𝑙𝑎𝑡𝑖𝑜𝑛 𝑚è𝑟𝑒


𝐸𝑡 𝜕𝑒 = é𝑐𝑎𝑟𝑡 − 𝑡𝑦𝑝𝑒 𝑑𝑒 𝑙′é𝑐ℎ𝑎𝑛𝑡𝑖𝑙𝑙𝑜𝑛
N=taille de la population mère et n=taille de l’échantillon

3. Intervalle de confiance :
̅ 𝒆 − 𝒕𝛼 𝝏 ; 𝑿
IC=[𝑿 ̅ 𝒆 + 𝒕𝛼 𝝏
]
√𝒏 √𝒏
Avec 𝑋̅𝑒 la moyenne de l’échantillon ; 𝜕=l’écart-type de la population mère et n
la taille de l’échantillon
*Comment retrouver 𝒕𝛼?
2−∝
●2𝜋(𝑡𝛼) = 2 − 𝛼 → 2𝜋(𝑡𝛼) =
2
1+𝑐
●2𝜋(𝑡𝛼) = 1 + 𝑐 → 2𝜋(𝑡𝛼) =
2
Avec 𝛼 le pourcentage du risque et c celui de confiance
EX : Pour 𝛼 = 0,5 t𝛼 = 1,96
4. Test d’hypothèse
Pour les tests d’hypothèse, nous avons les formulations suivantes : peut-on
considérer ; peut-on quantifier ; peut-on…etc
►Première méthode de résolution :
Risque 𝛼 → t𝛼
TH=[-t∝;t∝]
Après, on calcule 𝑡𝑐𝑎𝑙𝑐𝑢𝑙é à travers la formule suivante :
̅𝒆 − 𝑴
𝑿
𝑡𝑐𝑎𝑙 =
𝝏
√𝒏
-Si 𝑡𝑐𝑎𝑙 ∈ 𝑇𝐻, on considère l’hypothèse 𝐻𝑜 . C’est-à-dire qu’on prend la forme
affirmative de la question posée.
- Si 𝑡𝑐𝑎𝑙 𝑛′ 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡𝑝𝑎𝑠 à 𝑇𝐻, on ne considère pas l’hypothèse 𝐻𝑜

►Deuxième méthode de résolution :


𝝏 𝝏
TH==[𝑴 − 𝒕 ∝ ;𝑴 + 𝒕∝ ]
√𝒏 √𝒏
Avec M la nouvelle moyenne donnée par l’exercice.

Page 6
̅ 𝒆 ∈ 𝑇𝐻, on considère l’hypothèse 𝐻𝑜 . C’est-à-dire qu’on prend la forme
-Si 𝑿
affirmative de la question posée.
̅ 𝒆 𝑛′ 𝑎𝑝𝑝𝑎𝑟𝑡𝑖𝑒𝑛𝑡𝑝𝑎𝑠 à 𝑇𝐻, on ne considère pas l’hypothèse 𝐻𝑜 .
- Si 𝑿

5. ❶Estimation ponctuelle de la fréquence de la population mère :


L’estimation ponctuelle de la fréquence de la population mère est égale à la
fréquence de l’échantillon.
D’où E(f)=f=p
❷Estimation ponctuelle de l’écart-type de la fréquence de la population
mère :

Tirage non exhaustif=Tirage avec Tirage exhaustif=tirage sans remise


remise (ou quand l’exo ne précise Ici, la taille N de la population est
pas, on suppose que c’est non connue (on précisera toujours la
exhaustif) taille)
𝑓𝑓 ̅ 𝑓𝑓 ̅ 𝑁−𝑛
𝜕=√ 𝜕 =√ ×√
𝑛 𝑛 𝑁−1
Avec 𝑓 ̅ = 1 − 𝑓 Avec 𝑓 ̅ = 1 − 𝑓
Avec 𝑓 ̅ = 1 − 𝑓 ( on remplace pour trouver la formule en fonction de f
seulement)

❸-Estimation de l’intervalle de confiance de la fréquence de la population


mère :
𝑓𝑓̅ 𝑓𝑓̅
IC=[𝒇 − 𝒕𝛼√ 𝑛 ; 𝒇 + 𝒕𝛼√ 𝑛 ]

Avec 𝑓 ̅ = 1 − 𝑓

‘’Quels que soient les progrès des connaissances humaines, il y aura toujours
place pour l’ignorance et par la suite le hasard et la probabilité’’. Emile Borel

Page 7

Vous aimerez peut-être aussi