Partie REGRESSION
Partie REGRESSION
Partie REGRESSION
régression linéaire
simple et multiple
1
Sommaire
Introduction
Ateliers 1 et 2
2
Introduction
Régression linéaire : technique de modélisation qui
permet de mettre en équation une relation entre une
variable endogène (à expliquer) et n variables
exogènes (explicatives).
Cette technique est couramment utilisée lorsque l’on
souhaite prédire la réalisation d’une variable de type
continue (intervalle ou ratio) à l’aide d’un ensemble de
variables, dits prédicteurs, du même type; des
prédicteurs de type catégoriels pouvant aussi être
considérés.
3
Introduction
La régression linéaire permet de modéliser une relation
entre une variable endogène (ou dépendante) Y et p
variables exogènes (ou indépendantes) X1, X2, …,Xp:
Y = β0 + β1 X1 +K+ βp Xp +ε
4
Introduction
Exemple : on veut représenter la consommation d’un agent
énergétique en fonction de facteurs explicatifs :
La température moyenne sur un mois d’un ménage
L’épaisseur de l’isolation du logement
Cosommation Isolation Température
Gallon/mois (en cm) Moyenne (°F)
1 275,30 3,00 40,00
2 363,80 3,00 27,00
3 164,30 10,00 40,00
4 40,80 6,00 73,00
5 94,30 6,00 64,00
6 230,90 6,00 34,00
7 366,70 6,00 9,00
8 300,60 10,00 8,00
9 237,80 10,00 23,00
10 121,40 3,00 63,00
11 31,40 10,00 65,00
12 203,50 6,00 41,00
13 441,10 3,00 21,00
14 323,00 3,00 38,00
15 52,50 10,00 58,00
5
Introduction
Exemple : consommation énergétique en fonction de la
température moyenne mensuelle et de l’épaisseur de l’isolation du
logement.
Yi = β 0 + β1 X 1i + β 2 X 2 i + ε i
Influence de
Observation i de la Terme constant l’isolation
Consommation
mensuelle
Influence de la
Température Erreur
aléatoire
6
Types de relations
7
Partie 2.1
R
Régression
égression L
Linéaire
inéaire S
Simple
imple
8
Droite de régression
Yi = β 0 + β1 X i + ε i
Y (Valeur moyenne prédite)
ε i = Erreur β1
La pente
β0
X
Valeurs observées deY
L’intercepte
9
Régression linéaire simple
La relation entre deux variables x et y est décrite par:
y = β 0+ β 1x+ ε
Où β0 et β1 sont deux constantes que l’on cherche à évaluer et
ε est un terme aléatoire que l’on appelle erreur.
10
Estimation des β : Méthode des MC
∑ ( yi − β − β xi
0 1
)2 = ∑ε i2
i i
On note yˆi = βˆ + βˆ xi
0 1
et ei = yi − yˆi
βˆ0 et βˆ1 sont les estimateurs des moindres carrés de
β 0 et β1.
11
Remarques:
La méthode des moindres carrés est une méthode
géométrique. Elle repose sur la seule hypothèse :
12
Mise en oeuvre sous SPSS de la RLS
Identification de la liaison linéaire
Exemple:
13
Rappel : Méthodologie pour l’élaboration de
Modèle de Régression
Oui
Identifier la Qualité de Estimation du Le modèle
l’ajustement modèle
Prévision
liaison linéaire est-il valide?
Non
On change le
modèle
14
Mise en oeuvre sous SPSS de la RLS
Identification de la liaison linéaire
15
Mise en oeuvre sous SPSS de la RLS
Identification de la liaison linéaire
Diagramme de Dispersion
16
Mise en oeuvre sous SPSS de la RLS
Identification de la liaison linéaire
Etude de la corrélation 19
Mise en oeuvre sous SPSS de la RLS
Identification de la liaison linéaire
Corrélations
Prix_Vente Prix_Achat
Prix_Vente Corrélation de Pearson 1 ,962
Sig. (bilatérale) ,000
N 30 30
Prix_Achat Corrélation de Pearson ,962 1
Sig. (bilatérale) ,000
N 30 30
Test de corrélation 20
Identification d’un modèle
Aussi bien le diagramme de dispersion que le test de
corrélation de Pearson suggèrent une relation linéaire entre
le prix de vente (variable dépendante) y et le prix d’achat
(variable indépendante) x:
y = β 0+ β 1x+ ε
21
Mise en oeuvre sous SPSS de la RLS
3ième Étape:
22
Mise en oeuvre sous SPSS de la RLS
Estimation par les moindres carrés
23
Mise en oeuvre sous SPSS de la RLS
Estimation par les moindres carrés
Coefficients a
,959
t
-5,688
17,816 ?
Signification
,000
,000
Bêta = B1*(SX/SY)
24
Mise en oeuvre sous SPSS de la RLS
Interprétation
y = -43,615+1,775 x
25
Hypothèses de la RLS
Ajustement vs Inférence
La régression linéaire (simple ou multiple) peut être utilisée
comme méthode :
Descriptive : pour décrire la relation linéaire entre deux
séries de données observées. On parle d’ajustement linéaire
et dans ce cas, les hypothèses requises sont assez
générales:
Hypothèse 1 : La relation entre X et Y doit être linéaire;
Hypothèse 2 : le nombre d’observations doit être supérieur au
nombre de variables;
Hypothèse 3 : les variables exogènes doivent être linéairement
indépendantes.
27
Hypothèses de la RL : Inférence
On suppose que Y1,Y2,…, Yn sont indépendants et pour
chaque i, Yi est N(β0+β1xi,σ2)
εi
X1i
28
Mise en oeuvre sous SPSS de la RLS
Inférence
Coefficients a
,959
t
?
-5,688
17,816
Signification
,000
,000
29
Mise en oeuvre sous SPSS de la RLS
Inférence
Statistiques permet
d’obtenir l’estimation
des coefficients de
la régression ainsi
que les intervalles
de confiance des
variables exogènes.
30
Mise en oeuvre sous SPSS de la RLS
Inférence
Coefficientsa
P-value
Statistique t pour
Estimation Ecart-type estimé de tester la signification
ponctuelle l’estimateur Estimation
par intervalle
Y R2 = 1, R = +1 Y R2 = 1, R= -1
^=b +b X
Yi 0 1 i
^=b +b X
Yi 0 1 i
X X
R 2 = .8, R = +0.9 R2 = 0, R = 0
Y Y
^=b +b X
Y ^=b +b X
Y
i 0 1 i i 0 1 i
X X
33
Mise en oeuvre sous SPSS de la RLS
Identification de la liaison linéaire
34
Qualité d’ajustement
Récapitulatif du modèle b
Erreur
standard de
Modèle R R-deux R-deux ajusté l'estimation
1 ,959a ,919 ,916 3,6273
a. Valeurs prédites : (constantes), Prix_A
b. Variable dépendante : Prix_V
35
Qualité d’ajustement (suite)
Le R2-Ajusté, est davantage utilisé que le R² car
il ne dépend pas du nombre de variables:
p (1 − R )
2
R 2
=R −
2
N − p −1
ajusté
36
Analyse de la variance (suite)
Yi
Y ∧
∑(Yi - Yi )2
SSE =∑
_ Yˆi = βˆ0 + βˆ1 X i
SST = ∑(Yi - Y)2
∧ _
SSR = ∑(Yi - Y)2
_
Y
X
Xi
∑ (Y ) ( )
N N N
∑ (Y
i=1
i − Y )² =
i=1
i − Y$ i ² + ∑ Y$ i − Y ²
i=1
37
Table de l’anova
H 0 : β i = 0 vs H 1 : β i ≠ 0 pour au moins un i
ANOVAb
Somme
Modèle des carrés ddl Carré moyen F Signification
1 SSR Régression 4206,671 1 4206,671 348,374 ,000a
SSE Résidu 338,105 28 12,075
SST Total 4544,775 29
a. Valeurs prédites : (constantes), Prix_Achat
b. Variable dépendante : Prix_Vente
SSR
F= k ≈ Fk ,n − k −1
SSE (n − k − 1)
38
Valeurs prédites et leurs écarts-types
39
Valeurs prédites et leurs écarts-types
Prédire une valeur moyenne
L’erreur standard estimée pour la valeur moyenne prédite de Y à X0
est :
40
Valeurs prédites et leurs écarts-types
Prédire une nouvelle valeur
Prix de vente d’une maison dont la valeur à l’achat est de 67K?
L’ES estimée pour la valeur prédite de Y à X0 est :
1 (X0 − X )
sYˆ ind = s 1+ +
n (n − 1) S X2
41
Valeurs prédites et leurs écarts-types
Intervalles de prévision
42
Violation des Hypothèses la RL
Normalité de Y
SPSS vous propose
plusieurs outils pour
étudier la normalité de la
variable endogène.
Le test de Kolmogorov-
Smirnov
43
Violation des Hypothèses la RL
Normalité de Y
Test de Kolmogorov-Smirnov à un échantillon
Prix_V
N 30
Paramètres normauxa,b Moyenne 92,495
Ecart-type
12,5189
44
Violation des Hypothèses la RL
Normalité de Y
On dispose également de plusieurs outils graphiques
permettant d’illustrer les tests proposés ci-dessus.
Graphes>Histogrammes ou Graphes>P-P donnent:
45
Violation des Hypothèses la RL
Résidus
En régression, les vrais erreurs εi sont supposés être
indépendants de moyenne 0 et de variance constante σ2.
Si le modèle est approprié pour les données, les résidus
observés :
ei = Yi − Yˆi
devraient avoir un comportement similaire.
46
Analyse des résidus
Vérifier la linéarité
Y Y
X
X
e
e
X X
y y
x x
SRE SRE
x x
Hétéroscédasticité Homoscédasticité
49
Violation des Hypothèses la RL
Résidus
En représentant les ei en fonction des Ŷ, on peut
visualiser les variances:
50
Violation des Hypothèses la RL
Résidus
51
Violation des Hypothèses la RL
Résidus
52
Violation des Hypothèses la RL
Analyse des résidus
Après avoir étudié ces premières phases, vous devez
impérativement regarder si certains individus ne sont pas
aberrants et ne risquent pas de fausser l’analyse.
54
Analyse des résidus
Diagnostic des observations a
Résidu
Numéro de l'observation standardisé Prix_V Prévision Résidu
7 2,351 93,5 84,971 8,5291
a. Variable dépendante : Prix_V
Valeur atypique
55
Analyse des résidus
Le traitement est très simple. L’objectif est de
neutraliser l’effet de cet individu atypique.
a
Coefficients
57
Analyse des résidus
L’observation 7 n’est plus atypique
58
Distribution des résidus
Le test de Kolmogorov-
Smirnov permet de tester la
normalité des résidus
(standardisés) préalablement
enregistrés:
59
Distribution des résidus
60
Distribution des résidus
Standardized
Residual
N 30
Paramètres normauxa,b Moyenne ,0000000
Ecart-type
,96490128
61
Distribution des résidus
40
al
évidente dans la suite des
esidu
0
e dR
valeurs des résidus.
ardiz
-20
n
Us n
ta d
-40
0 2 4 6 8 10 12 14 16
Numéro de séquence
∑ (e − e )²
N
t t −1
Durbin et Watson (d) d= t=2
N
∑e
t=2
t
2
f(Y )=ln(Y)
64
En résumé :
Construction de Modèles de RL
65
Atelier 1 : Régression linéaire simple
Données : Employés.sav
Variable à expliquer : Salaire actuel
Variable explicative : Salaire d’embauche
66
Partie 2.2
R
Régression
égression L
Linéaire
inéaire M
Multiple
ultiple
67
Sommaire
Introduction
Estimation
68
Introduction
La relation entre p variables Xi et Y est décrite par:
Y = β0 + β1 X1 + K + β p X p + ε
Où β0 , β1, … sont les constantes que l’on cherche à évaluer
et ε est un terme aléatoire que l’on appelle erreur.
Notation vectorielle:
Y1 X 11 L X 1 p β 1 ε 1
M =M M M
M +M
Y N X N 1 L X Np β p ε p
Y = Xβ + ε
69
Introduction (suite)
La méthode des moindres carrés consiste à trouver
^0, ^β1, …, β^p qui minimisent
les paramètres β
Y − β X Euclidienne
Le traitement de la régression multiple exigent les mêmes
hypothèses que pour le traitement d’une régression simple:
•Linéarité,
•linéaire indépendance des colonnes de la matrice X,
• indépendance des Yi,
• normalité et
• homoscedasticité.
70
Modèles de Régression Multiple :
Méthodologie
Non
On change le
modèle
71
Mise en oeuvre de la régression linéaire
multiple
Exemple: Un constructeur automobile cherche à étudier
les caractéristiques agissants sur le succès commercial
d’un véhicule.
Il dispose de données relatives aux ventes d’une grande
variétés de véhicules. Dans le but de déterminer les
caractéristiques pertinentes pour les performances
commerciales d’un véhicule, on cherche à établir une
relation entre les ventes et les caractéristiques.
Le fichier «car_sales.sav » contient les données relatives
aux 157 véhicules vendus dernièrement et sur lesquelles
nous allons travailler pour illustrer la procédure de la
régression linéaire de SPSS.
72
Mise en oeuvre de la régression linéaire
multiple
La variable «Sales : Ventes (en milliers)» constitue la
variable endogène du modèle. Toutes les autres vont
être considérées, a priori, comme étant des variables
explicatives à part entière.
Avant d’entamer une analyse de régression, nous allons
d’abord
1. Explorer les données :
1. Exploration (univariée) des variables indépendantes (Analyse >
Explorer)
2. Exploration de la variable dépendante (Analyse > Explorer)
73
Mise en oeuvre sous SPSS de la méthodologie
Interprétations et corrections (suite)
En ce qui concerne la linéarité, les graphiques ci-dessous laissent penser
que l’hypothèse de linéarité semble acceptable.
74
Corrélations
Plusieurs variables indépendantes sont fortement corrélées.
Corrélations
Corrélation de Pearson
sales resale price engine_s horsepow wheelbas width length curb_wgt fuel_cap
sales 1 -,279** -,305** ,020 -,198* ,358** ,141 ,255** ,009 ,087
resale -,279** 1 ,954** ,531** ,769** -,052 ,179 ,027 ,362** ,326**
price -,305** ,954** 1 ,627** ,840** ,111 ,329** ,157 ,526** ,423**
engine_s ,020 ,531** ,627** 1 ,837** ,472** ,690** ,541** ,760** ,663**
horsepow -,198* ,769** ,840** ,837** 1 ,286** ,539** ,393** ,610** ,500**
wheelbas ,358** -,052 ,111 ,472** ,286** 1 ,683** ,840** ,651** ,654**
width ,141 ,179 ,329** ,690** ,539** ,683** 1 ,710** ,721** ,656**
length ,255** ,027 ,157 ,541** ,393** ,840** ,710** 1 ,627** ,564**
curb_wgt ,009 ,362** ,526** ,760** ,610** ,651** ,721** ,627** 1 ,864**
fuel_cap ,087 ,326** ,423** ,663** ,500** ,654** ,656** ,564** ,864** 1
**. La corrélation est significative au niveau 0.01 (bilatéral).
*. La corrélation est significative au niveau 0.05 (bilatéral).
75
Mise en oeuvre sous SPSS de la méthodologie
Interprétations et corrections (suite)
76
Mise en oeuvre sous SPSS de la méthodologie
Interprétations et corrections (suite)
Cela se confirme par le test de Kolmogorov-Smirnov:
On rejette l’hypothèse
de normalité
77
Mise en oeuvre sous SPSS de la méthodologie
Interprétations et corrections (suite)
Ainsi nous avons affaire à une loi asymétrique (Skewed). Une
transformation du genre f(Y)=ln(Y) semble appropriée pour
s’approcher de la symétrie. Cela donne:
78
Corrélations
Plusieurs variables indépendantes sont fortement corrélées.
Corrélations
Corrélation de Pearson
lnsales resale price engine_shorsepowwheelbas width length curb_wgtfuel_cap mpg
lnsales 1 -,525** -,553** -,139 -,387** ,293** ,041 ,217** -,040 -,017 ,120
resale -,525** 1 ,954** ,531** ,769** -,052 ,179 ,027 ,362** ,326** -,401**
price -,553** ,954** 1 ,627** ,840** ,111 ,329** ,157 ,526** ,423** -,492**
engine_s -,139 ,531** ,627** 1 ,837** ,472** ,690** ,541** ,760** ,663** -,735**
horsepow -,387** ,769** ,840** ,837** 1 ,286** ,539** ,393** ,610** ,500** -,611**
wheelbas ,293** -,052 ,111 ,472** ,286** 1 ,683** ,840** ,651** ,654** -,498**
width ,041 ,179 ,329** ,690** ,539** ,683** 1 ,710** ,721** ,656** -,603**
length ,217** ,027 ,157 ,541** ,393** ,840** ,710** 1 ,627** ,564** -,447**
curb_wgt -,040 ,362** ,526** ,760** ,610** ,651** ,721** ,627** 1 ,864** -,818**
fuel_cap -,017 ,326** ,423** ,663** ,500** ,654** ,656** ,564** ,864** 1 -,802**
mpg ,120 -,401** -,492** -,735** -,611** -,498** -,603** -,447** -,818** -,802** 1
**.La corrélation est significative au niveau 0.01 (bilatéral).
79
Mise en oeuvre sous SPSS de la méthodologie
80
Régression Multiple :
Méthodes de sélection de variables
1. Entrée (régression) : Procédure de sélection de variables au
cours de laquelle toutes les variables d'un bloc sont
introduites en une seule opération.
2. Éliminer bloc : Procédure de sélection de variables dans
laquelle toutes les variables d'un bloc sont supprimées en
une seule étape.
3. Élimination descendante : Toutes les variables sont entrées
dans l'équation, puis éliminées une à une en commençant
par celle qui a la plus petite corrélation partielle avec la
variable dépendante. Toute variable qui répond aux critères
d'élimination est supprimée. La procédure prend fin quand
plus aucune variable de l'équation ne satisfait aux critères
d'élimination.
81
Régression Multiple :
Méthodes de sélection de variables (suite)
4. Introduction ascendante : Les variables sont introduites
séquentiellement dans le modèle. La première variable
considérée est celle qui a la plus forte corrélation positive ou
négative avec la variable dépendante lorsqu’elle satisfait le
critère d'introduction. La procédure s'interrompt lorsqu'il ne
reste plus de variables satisfaisant au critère d'introduction.
5. Pas à pas : A chaque étape, le programme saisit la variable
indépendante exclue de l'équation ayant la plus petite
probabilité de F, si cette probabilité est suffisamment faible.
Les variables déjà comprises dans l'équation de régression
sont éliminées si leur probabilité de F devient trop grande. Le
processus s'arrête lorsque aucune variable ne peut plus être
introduite ou éliminée.
82
Régression Multiple :
Méthodes de sélection de variables(suite)
83
Régression Multiple :
Méthodes de sélection de variables(suite)
84
Régression Multiple :
Choix du modèle
Récapitulatif du modèle
Erreur
standard de
Modèle R R-deux R-deux ajusté l'estimation
1 ,697a ,486 ,449 ,98960
a. Valeurs prédites : (constantes), Fuel efficiency, Length,
Coefficients a
Price in thousands, Vehicle type, Width, Engine size, Fuel
capacity, Wheelbase, Curb weight, Coefficients
Horsepowernon Coefficients
standardisés standardisés
Erreur
Modèle B standard Bêta t Signification
1 (constante) -3,017 2,741 -1,101 ,273
Vehicle type ,883 ,331 ,293 2,670 ,008
Price in thousands -,046 ,013 -,502 -3,596 ,000
Engine size ,356 ,190 ,281 1,871 ,063
Horsepower -,002 ,004 -,092 -,509 ,611
Wheelbase ,042 ,023 ,241 1,785 ,076
Width -,028 ,042 -,073 -,676 ,500
Length ,015 ,014 ,148 1,032 ,304
Curb weight ,156 ,350 ,075 ,447 ,655
Fuel capacity -,057 ,047 -,167 -1,203 ,231
Fuel efficiency ,081 ,040 ,262 2,023 ,045
a. Variable dépendante : Log-transformed sales
En plus du nombre élevé des variables indépendantes, plusieurs d’entre elles sont
statistiquement non significatives, et donc ne contribuent que très peu au modèle.
85
Régression Multiple :
Choix du modèle (suite)
86
Régression Multiple :
Choix du modèle (suite)
Pour la majorité des variables exogènes les coefficients
de corrélation partielle sont inférieurs aux coefficients de
corrélation totale. Cela indique, par exemple, qu’une
bonne partie de la variation de la variable endogène qui
est expliquée par « Price » est aussi expliquée par
d’autres variables.
Coefficientsa
87
Régression Multiple :
Choix du modèle (suite)
La tolérance est le pourcentage de la variation d’une variable exogène
qui ne peut pas être expliquée par les autres variables. Lorsque les
tolérance sont proches de 0, les variables exogènes sont fortement
linéairement dépendants ce qui se traduit par une inflation de la variance
des coefficients de la régression. VIF=1/Tolérance.
Coefficientsa
89
Régression Multiple :
Choix du modèle (suite)
90
Régression Multiple :
Exploration après transformation
Voici les résultats de l’analyse
Récapitulatif du modèle
Erreur
standard de
Modèle R R-deux R-deux ajusté l'estimation
1 ,552a ,304 ,300 1,11553
2 ,655b ,430 ,422 1,01357
a.
Valeurs prédites : (constantes), Zscore: Price in thousands
b. Valeurs prédites : (constantes), Zscore: Price in
thousands, Zscore: Wheelbase Coefficients a
91
Régression Multiple :
Choix du modèle Pas à Pas
Erreur
standard de
Modèle R R-deux R-deux ajusté l'estimation
1 ,697a ,486 ,449 ,98960
a. Valeurs prédites : (constantes), Fuel efficiency, Length,
Price in thousands, Vehicle type, Width, Engine size, Fuel
capacity, Wheelbase, Curb weight, Horsepower
Récapitulatif du modèle
Erreur
standard de
Modèle R R-deux R-deux ajusté l'estimation
1 ,552a ,304 ,300 1,11553
2 ,655b ,430 ,422 1,01357
a.
Valeurs prédites : (constantes), Zscore: Price in thousands
b. Valeurs prédites : (constantes), Zscore: Price in
thousands, Zscore: Wheelbase
92
Régression Multiple :
Choix du modèle (suite)
La méthode pas à pas a choisi les variables Price et
wheelbase comme variable exogènes. Les ventes sont
négativement affectées par le prix et positivement affectées
par la taille du véhicule. En guise de conclusion: Les
consommateurs préfèrent les voitures pas chères.
Coefficientsa
Il est intéressant d’examiner le choix des variable par la méthode pas à pas. Price a
été choisie en premier car c’est la variable la plus corrélée avec sales.
94
Mise en oeuvre sous SPSS de la méthodologie
Choix du modèle (suite)
Aucune autre variable ne peut être choisie car tous les niveaux de
sugnification sont > 5%.
95
Régression Multiple :
Choix du modèle (suite)
Afin de voir qu’il n’existe plus de d’éventuelle
variables exogène X, il est utile de représenter les
résidus standardisés ZRESID en fonction de X. Si
l’on remarque l’existence d’une relation, on devrait
inclure cette variable dans le modèle.
Arrivé à ce stade, il est utile d’analyser les résidus
en vue d’améliorer le modèle.
96
Mise en oeuvre sous SPSS de la méthodologie
Analyse des résidus
L’analyse des résidus est essentiellement graphique.
97
Mise en oeuvre sous SPSS de la méthodologie
Analyse des résidus
98
Mise en oeuvre sous SPSS de la méthodologie
Analyse des résidus
En choisissant d’étiqueter les observations par Model on
pourra facilement les identifier. Par exemple c’est le véhicule
3000GT qui semble se vendre le moins
(Résidu standardisé = - 4,905).
99
Mise en oeuvre sous SPSS de la méthodologie
Analyse des résidus
Pour vérifier L’hypothèse d’indépendance, on représente les
ZRESID en fonction de la variable temps que l’on crée:
100
Mise en oeuvre sous SPSS de la méthodologie
Analyse des résidus
101
Mise en oeuvre sous SPSS de la méthodologie
Détection d’observations atypiques
Une représentation des résidus standardisés ZRESID en
fonction des prédictions standardisées ZPRED permet de
détecter les observations atypiques.
102
Mise en oeuvre sous SPSS de la méthodologie
Détection d’observations atypiques
Les points à l’extérieur de la bande correspondent à des observations atypiques.
103
Mise en oeuvre sous SPSS de la méthodologie
Traitement des points atypiques
Selon le graphique ci-dessus, SPSS détecte la présence de cinq points
aberrants (les observations 53, 84, 109, 116 et 118).
Nous allons créer autant de variables indicatrices qu’il y a de points
aberrants en les incorporant dans le modèle une à une.
104
Mise en oeuvre sous SPSS de la méthodologie
Traitement des points atypiques
105
Mise en oeuvre sous SPSS de la méthodologie
Traitement des points atypiques
106
Mise en oeuvre sous SPSS de la méthodologie
Traitement des points atypiques
On constate qu’il existe encore des valeurs atypiques. Cela pourrait être dû
à l’existence de variables trop influentes. Comment les détecter?
107
Mise en oeuvre sous SPSS de la méthodologie
Détection de points atypiques influents
108
Atelier 2 :
Construction d’un modèle de RLM
109
Avec tout le monde