Plans D'experiences ch8 Anova 2F

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 13

Chapitre 8

ANOVA à deux facteurs fixes

Dans un grand nombre de situations expérimentales, plusieurs facteurs interviennent dans


la définition des traitements. Par exemple:

• l’effet du produit et de sa concentration sur les résultats;

• l’effet du type du sol et de la température sur le rendement d’une plante dans une
serre.

Dans ce chapitre, on s’intéresse à analyser des expériences visant à étudier les effets combinés
de plusieurs facteurs sur une même variable. Nous nous limitons cependant aux facteurs fixes,
c’est à dire où les modalités eux-mêmes sont d’intêret. Dans ce contexte un traitement est
une combinaison de modalités des facteurs à l’étude. Par exemple dans une expérience à
deux facteurs, le traitement (1,2) est appliquée à une unité si elle reçoit la modalité 1 du
premier facteur et la modalité 2 du deuxième.

8.1 Modèle et notation


Dans le cas où on a deux facteurs, le modèle se présente comme suit:

Yijk = µij + eijk , i = 1, · · · , I, j = 1, · · · , J, k = 1, · · · , nij , (8.1)

1
où Yijk est la variable réponse, µij la moyenne de la cellule (i, j) et nij la taille de l’échantillon
présent à la cellule (i, j). Dans ce chapitre, on ne considérera que les plans balancés, c’est
à dire où tous les nij sont égaux. Soit n leur valeur commune. La taille totale de tous les
échantillons combinés est N = nIJ.
Comme dans le modèle à un facteur fixe, les erreurs eijk sont supposées indépendantes et
identiquement distribuées selon N(µ, σ 2 ). Plusieurs paramétrisations sont possibles pour les
µij . Ici, on choisit la paramétrisation suivante:

µij = µ + αi + βj + γij i = 1, · · · , I, j = 1, · · · , J. (8.2)

Les paramètres αi , i = 1, · · · , I et βj , j = 1, · · · , J représentent les effets des modalités des


∑I ∑I
facteurs A et B respectivement. Ils satisfont aux contraintes i=1 αi = 0 et j=1 βj = 0. Les
paramètres γij representent l’interaction entre ces deux facteurs. Ils satisfont aux contraintes
∑I ∑J
i=1 γij = 0 pour j = 1, · · · , J et j=1 γij = 0 pour i = 1, · · · , I. Sous ces conditions, on a:

Yijk ∼ N(µ + αi + βj + γij , σ 2 ) (8.3)

En absence d’interaction, c’est à dire lorsque γij = 0 pour tout (i, j), on dit qu’on a un
modèle additif.

Exemple 8.1 Une étude vise à évaluer l’impact de deux facteurs sur la rentabilité d’un
commerce en détail: le type d’agglomération (centre urbain, petite ville ou zone rurale) et
taille du commerce (petite, moyenne et grande). Une absence d’interaction peut se traduire
ici par dire que la différence entre la rentabilité d’un grand et d’un moyen commerce (d’une
même zone) ne dépend pas du type d’agglomération.

En d’autres termes, l’absence d’interaction se traduit par: ∀(i, j), on a µij − µij ′ = µi′ j −
µi′ j ′ . Lorsque les deux facteurs n’interagissent pas, la poursuite de l’analyse est simplifiée. En
effet on étudie séparemmanet l’effet des facteurs A et B sur la variable dépendante à l’aide
des techniques vues en analyse de variance à un facteur (comparaisons multiples, contrastes).
Si les deux facteurs interagissent, il n’est pas opportun d’étudier les facteurs A et B
séparemment. En fait si A et B interagissent certains auteurs suggèrent de ne pas considérer
les test pour les effets individuels de A et B. Il faut être prudent ici; en présence d’interaction

2
les tests sur A et B peuvent identifier le facteur qui expliquent le plus les variations de Y .
Une interaction, même significative, est peut-être peu importante par rapport à des effets
marginaux fortement significatifs.

8.2 Distributions des moyennes


Définissons les différentes moyennes Ȳij. , Ȳi.. , Ȳ.j. et Ȳ... respectivement par:
1∑ n
Ȳij. = Yijk moyenne d’une cellule
n k=1
1∑ J
Ȳi.. = Ȳij. moyenne d’une ligne
J j=1
1∑ I
Ȳ.j. = Ȳij. moyenne d’une colonne
I i=1
1∑ I
Ȳ... = Ȳi.. moyenne de toutes les observations
I i=1
1∑ I
= Ȳ.j.
J j=1
1 ∑I ∑ J
= Ȳij.
IJ i=1 j=1

Pour un couple (i, j) fixé, les n variables aléatoires Yij1 , Yij2 , · · · , Yijn sont indépendantes et
identiquement distribuées selon N(µ + αi + βj + γij , σ 2 ). On en déduit que la moyenne de la
cellule Ȳij. est distribuée selon:
σ2
Ȳij. ∼ N(µ + αi + βj + γij ,
)
n
Pour i = 1, · · · , I, Ȳi.. est une combinaison linéaire de variables aléatoires indépendantes de
même variance mais d’espérances différentes. La moyenne de la ligne Ȳi.. est alors normale-
ment distribuée. Son espérance et sa variance sont égales à:
1∑ J
E[Ȳi.. ] = E[ Ȳij. ]
J j=1

3
1∑ J
= E[Ȳij. ]
J j=1
1∑ J
= {µ + αi + βj + γij }
J j=1
1 ∑J ∑J ∑J
= { (µ + αi ) + βj + γij }
J j=1 j=1 j=1

1 ∑
J ∑
J
= J(µ + αi ) = µ + αi car βj = γij = 0 ∀j = 1, · · · , J
J j=1 j=1

et

1∑ J
V ar[Ȳi.. ] = V ar[ Ȳij. ]
J j=1
1 ∑ J
= V ar[Ȳij. ]
J 2 j=1
1 ∑ J
σ2
=
J 2 j=1 n
1 Jσ 2 σ2
= =
J2 n Jn

respectivement.
On a alors
σ2
Ȳi.. ∼ N(µ + αi , ) ∀i = 1, · · · , I.
Jn
De même, on montre que

σ2
Ȳ.j. ∼ N(µ + βj , ) ∀j = 1, · · · , J.
In
En suivant un raisonnement similaire pour la moyenne globale Ȳ... , on obtient

σ2
Ȳ... ∼ N(µ, ).
N

4
8.3 Décomposition des sommes des carrés
La somme des carrés des erreurs SST ou sum of squares total, est définie par

I ∑
J ∑
n
SST = {Yijk − Ȳ... }2 .
i=1 j=1 k=1

En écrivant chaque terme {Yijk − Ȳ... }2 comme {(Yijk − Ȳij. ) + (Ȳij. − Ȳ... )}2 et en développant
le carré, on obtient SST = SSE + SSmodel où

I ∑
J ∑
n
SSE = {Yijk − Ȳij. }2
i=1 j=1 k=1

et

I ∑
J ∑
n
SSmodel = {Ȳij. − Ȳ... }2
i=1 j=1 k=1


I ∑
J
= n{Ȳij. − Ȳ... }2
i=1 j=1

Les sommes des produits (Yijk − Ȳij. )(Ȳij. − Ȳ... ) sont nuls.
D’autre part, on peut décomposer SSmodel selon

I ∑
J
SSmodel = n {Ȳij. − Ȳ... }2
i=1 j=1


I ∑
J
= n {(Ȳij. − Ȳi.. − Ȳ.j. + Ȳ... ) + (Ȳi.. − Ȳ... ) + (Ȳ.j. − Ȳ... )}2
i=1 j=1


I ∑
J ∑
I ∑
J ∑
I ∑
J
= n {Ȳi.. − Ȳ... }2 + n {Ȳ.j. − Ȳ... }2 + n {Ȳij. − Ȳi.. − Ȳ.j. + Ȳ... }2
i=1 j=1 i=1 j=1 i=1 j=1

Les différentes double sommes étant nulles, on a alors:



I ∑
J ∑
I ∑
J
SSmodel = nJ {Ȳi.. − Ȳ... }2 + nI {Ȳ.j. − Ȳ... }2 + n {Ȳij. − Ȳi.. − Ȳ.j. + Ȳ... }2
i=1 j=1 i=1 j=1
= SSA + SSB + SS(AB)

5
où

I
SSA = nJ {Ȳi.. − Ȳ... }2
i=1
∑J
SSB = nI {Ȳ.j. − Ȳ... }2
j=1


I ∑
J
SS(AB) = n {Ȳij. − Ȳi.. − Ȳ.j. + Ȳ... }2
i=1 j=1

On obtient finalement SST = SSA + SSB + SS(AB) + SSE.


On définit ensuite les moyennes des carrées par
SSA
M SA =
I −1
SSB
M SB =
J −1
SS(AB)
M S(AB) =
(I − 1)(J − 1)
SSE
M SE =
IJ(n − 1)

En utilisant des techniques de formes quadratiques, on montre le résultat suivant:

Proposition 8.1 Les statistiques M SA, M SB, M S(AB) et M SE sont indépendantes et


distribuées selon

(I − 1)M SA Jn ∑
I

2
∼ χI−1 ( 2
2
αi2 )
σ σ i=1
(J − 1)M SB In ∑
J

2
∼ χJ−1 ( 2
2
βj2 )
σ σ j=1
(I − 1)(J − 1)SS(AB) n ∑ I ∑ J
∼ χ 2
(I−1)(J−1) ( γ2 )
σ2 σ 2 i=1 j=1 ij
IJ(n − 1)M SE
∼ χ2IJ(n−1)
σ2

6
On en déduit que
IJ(n − 1)M Smodel n ∑
2
∼ χ2IJ−1 ( 2 (µij − µ)2 )
σ σ i,j

où M Smodel = SSmodel /(IJ − 1) et µ = ( i,j µij )/IJ.
Dans le cadre d’une ANOVA à deux facteurs, plusieurs tests sont possibles.
En absence d’interaction, les termes {Ȳij. − Ȳi.. − Ȳ.j. + Ȳ... }2 ont tendance à être petits.
On rejette l’absence d’une interaction entre les facteurs A et B si M S(AB) est elevé, ou si
FAB = M S(AB)/M SE est elevé. Or sous H0 , on a γij = 0 pour tout couple (i, j). M S(AB)
possède alors une loi de khi-deux centrée et FAB ∼ F(I−1)(J−1),IJ(n−1) . On rejette alors H0 si
FAB > F(I−1)(J−1),IJ(n−1),1−α .
Si le facteur A n’a pas d’effets, les termes {Ȳi.. − Ȳ... }2 ont tendance à être petits. On rejette
l’absence d’un effet du facteur A si M SA est élevé, ou si FA = M SA/M SE est elevé.
OR sous H0 , on a αi = 0 pour tout i. M SA possède alors une loi de khi-deux centrée et
FA ∼ FI−1,IJ(n−1) . On rejette alors H0 si FA > FI−1,IJ(n−1),1−α .
De même, on rejette l’absence d’un effet du facteur B si FB > FJ−1,IJ(n−1),1−α où FB =
M SB/M SE ∼ FJ−1,IJ(n−1) sous H0 .

8.4 Estimation des paramètres


À partir de la propriété (IJ(n − 1)M SE)/σ 2 ∼ χ2IJ(n−1) , on déduit un estimateur ponctuel
σ̂ 2 = M SE et par intervalle pour σ 2 :

IJ(n − 1)M SE IJ(n − 1)M SE


[ , 2 ]
χ2IJ(n−1),α/2 χIJ(n−1),1−α/2

Pour le paramètre µ, on sait que Ȳ... ∼ N(µ, σ 2 /N ) qu’on aussi écrire

Ȳ... − µ
√ ∼ N(0, 1).
σ2
N

On en déduit que:
Ȳ... − µ
√ ∼ tIJ(n−1)
M SE
N

7
L’estimation ponctuelle et par intervalle de confiance pour µ s’en suit: µ̂ = Ȳ... et un I.C
pour µ à 1 − α s’écrit:
√ √
M SE M SE
[Ȳ... − tIJ(n−1),α/2 , Ȳ... + tIJ(n−1),α/2 ]
N N
Pour les paramètres αi , à partir de
σ2
Ȳi.. ∼ N(µ + αi , )
Jn
σ2
Ȳ... ∼ N(µ, ),
N
on peut déduire que α̂i = Ȳi.. − Ȳ... peut être u estimateur sans biais de αi . Au fait c’est
l’estimateur de maximum de vraisemblance de αi . Des calculs similaires à ceux utilisés au
dédut de la section 4.5 nous donnent:
σ2 I − 1
Ȳi.. − Ȳ... ∼ N(αi , ( ))
Jn I
On en déduit que:
Ȳi.. − Ȳ... − αi
√ ∼ N(0, 1)
σ 2 I−1
Jn
( I )
et que
Ȳi.. − Ȳ... − αi
√ ∼ tIJ(n−1) .
M SE I−1
Jn
( I )
L’I.C. pour αi au niveau de confiance 1 − α s’écrit alors:
√ √
M SE I − 1 M SE I − 1
[Ȳi.. − Ȳ... − tIJ(n−1),α/2 , Ȳi.. − Ȳ... + tIJ(n−1),α/2 ]
Jn I Jn I
De même, on montre qu’un I.C. pour βj peut s’écrire:
√ √
M SE J − 1 M SE J − 1
[Ȳ.j. − Ȳ... − tIJ(n−1),α/2 , Ȳ.j. − Ȳ... + tIJ(n−1),α/2 ]
In J In J
Finalement, pour γij , on montre, en utilisant les mêmes techniques, que
σ 2 (I − 1)(J − 1)
Ȳij. − Ȳi.. − Ȳ.j. + Ȳ... ∼ N (γij , )
n IJ
On en déduit un I.C. pour γij au niveau 1 − α

M SE (I − 1)(J − 1)
[Ȳij. − Ȳi.. − Ȳ.j. + Ȳ... ± tIJ(n−1),α/2 ]
n IJ

8
8.5 Validation des hypothèses
La validation des hypothèses se fait comme pour l’ANOVA à un facteur car l’ANOVA à
deux facterus est un cas particulier de l’ANOVA à un facteur. La validation d’hypothèses
s’effectue sur les résidus. Ces derniers sont définis par

êijk = Yijk − (µ̂ + α̂j + β̂j + γ̂ij ).

8.6 Exemple
On a planifié une expérience pour étudier le voltage maximum d’une pile en fonction du
matériel utilisé pour faire la pile (facteur M AT avec I = 3 modalités) et de la température
ambiente (facteur T EM P avec J = 3 modalités). Des échantillons de taille n = 4 sont
observés pour chaque traitement.
Programme SAS de lecture des données.

data voltage;
do mat= 1 to 3;
do temp= 1 to 3;
do rep = 1 to 4;
input volt @; output; end;end;end;
datalines;
130 155 74 180
34 40 80 75
20 70 82 58
150 188 159 126
136 122 106 115
25 70 58 45
138 110 168 160
174 120 150 139
96 104 82 60

9
;
data voltage2; set voltage;
tempn=50; if temp=2 then tempn=65; if temp=3 then tempn=80; drop
temp rep; run;

Pour évaluer visuellement si les facteurs interagissent on fait le graphique d’interaction.


On fixe les modalités d’un facteur, disons M AT . Pour chaque modalité i de M AT , on fait la
ligne brisée de (j, Ȳij· ). On a alors trois lignes brisées. Si ces lignes sont à peu près parallèles,
il n’y a pas d’interaction. En effet dans ce cas Ȳij· − Ȳkj· , la différence entre les modalités i
et k de M AT , est à peu près la même pour toutes les modalités j de T EM P .
Le cose SAS pour faire ce graphique est donné par

proc sort data=voltage2;


by mat tempn; run;
proc means data=voltage2;
by mat tempn;
output out=moy mean=voltm;proc print data=moy;run;

symbol1 interpol=join
value=dot
height=2;

proc gplot data=moy; plot voltm*tempn=mat;run;

On remarque que les lignes sont à peu près parallèles sauf à la température 65. Cette
interaction est-elle significative. Pour poursuivre l’analyse on peut calculer la table ANOVA,
avec glm. Le programme SAS est

proc glm data=voltage2;


class tempn mat;
model volt= tempn mat tempn*mat;
lsmeans tempn*mat / slice=tempn; run;

10
Figure 8.1: Graphique d’interaction

11
Dependent Variable: volt
Sum of
Source DF Squares Mean Square F Value Pr > F

Model 8 59416.22222 7427.02778 11.00 <.0001

Error 27 18230.75000 675.21296

Corrected Total 35 77646.97222

Source DF Type III SS Mean Square F Value Pr > F

tempn 2 39118.72222 19559.36111 28.97 <.0001


mat 2 10683.72222 5341.86111 7.91 0.0020
tempn*mat 4 9613.77778 2403.44444 3.56 0.0186

L’énoncé slice permet de faire des tables ANOVA conditionnelles qui comparent les modalités
de M AT à chaque température (on conditionn sur le facteur qui explique le plus de variabilié).
Le résultat confirme ce que l’on voyait à la figure 1. C’est seulement à 65 degrés que les
modalités de M AT sont différentes!

tempn*mat Effect Sliced by tempn for volt

Sum of
tempn DF Squares Mean Square F Value Pr > F

50 2 886.166667 443.083333 0.66 0.5269


65 2 16553 8276.333333 12.26 0.0002
80 2 2858.666667 1429.333333 2.12 0.1400

12
8.7 Modèle sans interaction
En absence d’interaction, le modèle s’écrit

Yijk ∼ N(µ + αi + βj , σ 2 )

Sous ce modèle, on a
SST = SSA + SSB + SSE ′
où SSE ′ = SSE + SS(AB). On dit que le terme d’interaction est absorbé par l’erreur. La
nouvelle erreur est alors distribuée selon
(nIJ − I − J + 1)M SE ′
2
∼ χ2nIJ−I−J+1
σ
où M SE ′ = SSE ′ /(nIJ − I − J + 1).
Les tests des effets des facteurs A et B se font alors par l’intermédiare des statistiques
FA′ et FB′ définies par FA′ = M SA/M SE ′ et FB′ = M SB/M SE ′ respectivement. Sous H0 :
pas d’effet du facteur A équivalent à H0 = α1 = α2 = · · · = αI = 0, FA′ ∼ FI−1,nIJ−I−J+1 et
on rejette H0 si FA′ > FI−1,nIJ−I−J+1,α .
De même, on rejette l’existence d’un effet du facteur B si FB′ > FJ−1,nIJ−I−J+1,α .

8.8 Modèle avec une observation par cellule


Dans plusieurs situations, des contraintes (coût, temps, ...etc) obligent les expérimentateurs
à n’avoir qu’une observation par cellule (n = 1). Dans ce cas, on a SSE = 0 et SST =
SSA + SSB + SS(AB). C’est un modèle saturé sans erreur donc on ne peut pas effectuer
de tests, ni trouver des intervalles de confiance.
Néanmoins, si on a des connaissances antérieures que l’interaction entre les facteurs n’est
pas significative, on utilise alors le terme SS(AB) comme terme d’erreur à la place de SSE.
Ainsi, on estime la variance σ 2 par M S(AB) et on teste l’effet des facteurs A et B en utilisant
les statistiques FA′′ = M SA/M S(AB) et FB′′ = M SB/M S(AB) respectivement. En absence
d’effet du facteur A, FA′′ ∼ FI−1,(I−1)(J−1) . Ainsi, on rejette H0 si FA′′ > FI−1,(I−1)(J−1),α .
De même, on rejette l’absence d’un effet du facteur B lorsque FB′′ > FJ−1,(I−1)(J−1),α .

13

Vous aimerez peut-être aussi