0% ont trouvé ce document utile (0 vote)
13 vues13 pages

Chapitre 4

cours universitaire

Transféré par

Kaoui Imed
Copyright
© © All Rights Reserved
Formats disponibles
Téléchargez comme PDF, TXT ou lisez en ligne sur Scribd
Télécharger au format pdf ou txt
0% ont trouvé ce document utile (0 vote)
13 vues13 pages

Chapitre 4

cours universitaire

Transféré par

Kaoui Imed
Copyright
© © All Rights Reserved
Formats disponibles
Téléchargez comme PDF, TXT ou lisez en ligne sur Scribd
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 13

Chapitre 4

L’analyse et l’interprétation des résultats de la recherche

1
1. L’analyse des données quantitatives

1.1 Les techniques statistiques

Dans une recherche quantitative, l’analyse des données repose sur l’utilisation de techniques
statistiques. A ce niveau, un premier choix se présente entre le recours à des statistiques
descriptives ou à des statistiques inférentielles ou encore l’utilisation combinée de ces deux
techniques.

Comme leur nom l’indique, les statistiques descriptives servent à décrire et à présenter les
données. Il s’agit d’indices de tendance centrale comme la moyenne, le mode, la médiane ou
encore d’indices qui révèlent l’allure de la distribution comme l’étendue, l’écart-type, la symétrie
ou l’aplatissement (kurtosis). Pour prolonger ces techniques descriptives, on trouve des
techniques dites exploratoires dont le but est de faciliter la visualisation des données par
l’utilisation de représentations graphiques adaptées. Ce type de statistique ne permet pas de faire
d’inférence ou de prédiction à partir des données recueillies mais rapportent simplement les
résultats sous une forme synthétique qui facilite leur interprétation.

Les statistiques inférentielles ont pour ambition de réaliser des inférences et des prédictions à
partir des données rassemblées. Il existe de nombreuses techniques inférentielles qui permettent
de tester des hypothèses en comparant des moyennes ou des variances (t de Student, analyse de
variance) ou encore de vérifier le lien entre des variables (corrélation et régression).

Le choix de la technique statistique qui sera utilisée pour traiter les données dépend aussi du type
de données (voir partie II, point 2.2) à savoir selon qu’il s’agit de données nominales, ordinales, à
intervalles ou métriques. Au fur et à mesure qu’on progresse dans la finesse des données (de
nominale à métrique) les techniques statistiques susceptibles d’être mobilisées se diversifient et
se raffinent de plus en plus (voir tableau 4.1).

Statistiques descriptives Statistiques inférentielles


Echelle nominale Mode Chi carré
Kolmogorov-Smirnov, rhô de
Echelle ordinale Médiane, percentile
Spearman
Echelle à intervalles et Moyenne, écart-type, Corrélation, t de Student,
métrique corrélation régression, analyse de variance

Tableau 4.1 : Choix de la technique statistique

1.2 L’analyse statistique exploratoire

L’analyse exploratoire consiste en un ensemble de techniques qui ont pour objet de faciliter la
visualisation des données, de révéler leur structure sous-jacente et d’extraire certaines variables
importantes. On y fait généralement appel, dans une recherche de type hypothético-déductive,
pour affiner les interprétations dans le cadre de la vérification des hypothèses ou des questions
de recherche. Dans une recherche exploratoire, elle constitue souvent le point de départ de
l’analyse des résultats lorsque les données recueillies peuvent donner lieu à une quantification.

2
Il existe de nombreuses techniques qui relèvent de l’analyse exploratoire. Tout d’abord des
techniques de base qui n’exigent que des calculs simples comme les diagrammes, les
histogrammes, les boites à moustache (boxplot), les diagrammes de série chronologique. A côté de
ces techniques, on trouve des méthodes d’analyses exploratoires qui exigent des calculs plus
complexes comme l’analyse factorielle en composantes principales, l’analyse des correspondances
ou encore l’analyse hiérarchique par cluster.

La représentation graphique des données permet au chercheur de faire comprendre en un coup


d’œil les résultats de sa recherche, de soutenir une idée ou d’étayer une argumentation. Il est
généralement utile, lorsqu’on rapporte les résultats d’une recherche, de fournir à la fois les
données sous forme de tableaux et sous forme de graphiques car ces derniers donnent plutôt des
ordres de grandeur que des valeurs exactes.

Il est important de s’assurer que les graphiques proposés soient les plus explicites possible de
sorte que le lecteur puisse, en lisant le titre et la légende puis en parcourant le diagramme,
comprendre directement le sens des résultats qui lui sont proposés.

On distingue ici quatre types de représentations graphiques : les diagrammes en barre, les
diagrammes angulaires, les histogrammes et les box plot.

Dans un diagramme à barres (verticales), la hauteur informe de la répartition entre les différentes
catégories. Ainsi, dans la figure 4.1, la hauteur des barres met en lumière la répartition en
pourcentage du nombre d’apprenants à une formation à distance selon la région d’origine.

Figure 4.1 : Répartition géographique des étudiants d’une formation à distance (Karsenti et al.
2009)

Dans un diagramme angulaire (ou diagramme en camembert), les données sont repérées par des
couleurs tandis que l’amplitude de l’angle caractérisant chacun des quartiers est calculée en
multipliant par 360 chaque fréquence exprimée en pourcentage. Il s’agit dans la figure 4.2 de la
répartition des réponses à une échelle de Likert à 5 catégories.
3
Figure 4.2 : Répartition des réponses à une échelle de Likert (Karsenti et al. 2009)

Les histogrammes sont utilisés pour représenter des variables ayant un caractère continu
(métriques) qui sont divisées en classes pour les besoins de la représentation graphique. Dans
l’exemple ci-dessous, la variable âge sera décomposée en six classes représentées en utilisant des
surfaces juxtaposées les unes aux autres.

Ce type de digramme paraît assez proche des diagrammes en barres mais il est en fait différent en
ce sens que c’est non plus la hauteur mais bien la surface des rectangles qui informe de
l’importance de chacune des classes.

Figure 4.3 : Répartition des apprenants inscrits à une formation à distance en fonction de leur âge
4
Le graphique chronologique permet de représenter des phénomènes qui se déroulent dans le
temps. La figure 4.4 décrit l’évolution du nombre d’usages d’un tableau de bord au fil des
semaines selon que les groupes travaillent par paire ou par trio. Son interprétation conduit à
mettre en évidence que, durant les quatre premières semaines, le comportement des paires et
des trios est assez différent alors qu’il converge à la semaine 5.

Figure 4.4 : Evolution de l’usage du tableau de bord au cours des semaines (Temperman, 2007)

Un autre type de graphique proposé par Tukey (1977) est également fort utilisé en analyse
exploratoire. Il s’agit de la boîte à moustaches qui relève de la catégorie plus générale des box
plot. La boîte à moustaches permet la présentation de cinq valeurs qui résument les données : le
minimum, les 3 quartiles Q1, Q2 (médiane), Q3 et le maximum.

Il s’agit d’une modalité de représentation intéressante car elle permet de mettre en évidence la
dispersion des données sur la base de calculs très simples à réaliser. Ainsi, la valeur médiane qui
correspond au quartile 2 divise la série de données en deux de manière à ce qu’il y ait autant de
valeurs en dessous de la médiane qu’au-dessus. Le quartile 3 partage le groupe du haut en deux
groupes égaux et le quartile 1 partage le groupe du bas en deux parties égales.

5
Dans la figure 4.5 qui représente l’âge des étudiants inscrits à trois cours à distance, on voit
clairement que la dispersion des trois groupes de sujets est différente Ainsi, les groupes « Art
plastique » et « Génie logiciel » ont des médianes assez proches mais une dispersion plus grande
pour le 1er groupe comme en témoigne l’étendue de la boîte. Le groupe « Contrôle de qualité »,
pour sa part, est caractérisé par une distribution symétrique comme en témoigne la place de la
médiane au milieu de la boîte alors que les deux autres groupes ont une distribution nettement
plus dissymétrique.

6
Figure 4.5 : Distribution de l’âge des étudiants inscrits à trois cours à distance

Dans la figure 4.5 qui représente l’âge des étudiants inscrits à trois cours à distance, on voit
clairement que la dispersion des trois groupes de sujets est différente Ainsi, les groupes « « Art
plastique » et « Génie logiciel » ont des médianes assez proches mais une dispersion plus grande
pour le 1er groupe comme en témoigne l’étendue de la boîte. Le groupe « Contrôle de qualité »
pour sa part est caractérisé par une distribution symétrique comme en témoigne la place de la
médiane au milieu de la boîte alors que les deux autres cours ont une distribution nettement plus
dissymétrique.

L’analyse hiérarchique par cluster permet de réaliser des regroupements de sujets en fonction de
certaines variables. Les résultats de l’analyse hiérarchique peuvent être visualisés sous la forme
d’un dendrogramme comme celui présenté dans la figure 4.6.

Le principe de l’analyse hiérarchique est assez simple. Au départ chaque individu forme une classe.
On cherche à réduire le nombre de classes par itérations successives. A chaque étape, on fusionne
deux classes, réduisant ainsi le nombre de classes. Les deux classes choisies pour être fusionnées
sont celles qui sont les plus proches c’est-à-dire celles dont la dissimilarité entre elles est
minimale, cette valeur de dissimilarité est appelée indice d'agrégation (ces indices figurent sur
l’axe horizontal dans la figure 4.6). Comme on rassemble d'abord les individus les plus proches, la
première itération a un indice d'agrégation faible, mais celui-ci va croître d'itération en itération.

Figure 4.6 : Dendrogramme représentant le regroupement des tuteurs selon leur expérience
pédagogique (Quintin, 2008)

Dans notre exemple, il s’agit ici de grouper des tuteurs à distance en fonction de leur nombre
d’années d’enseignement en présentiel et à distance ainsi que du nombre de formations à
distance encadrées. Plusieurs regroupements sont proposés dans ce dendrogramme. On retient
7
une organisation en deux groupes qui semble plus conforme aux données dont on dispose pour
qualifier l’expérience pédagogique des tuteurs. Le premier ensemble (C, D, E et F) rassemble des
enseignants qui se caractérisent essentiellement par le fait qu’ils possèdent une plus faible
expérience dans le suivi des étudiants à distance (d’une à trois formations). A ce titre, ils seront
considérés comme « néophytes » en matière de tutorat. Le second groupe de tuteurs (A, B et
G) disposent d’une expérience variable de l’enseignement mais relativement longue pour deux des
trois tuteurs (quinze et vingt-trois ans) et d’une expérience importante dans le suivi à distance (de
douze à trente formations). Pour ces raisons, ils seront qualifiés de « tuteurs expérimentés ».

1.3 Le traitement des données quantitatives et l’inférence statistique

Pour comprendre le principe de l’inférence statistique, il faut revenir à la notion


d’échantillonnage. L’inférence statistique consiste à se demander quelle est la probabilité pour
que les résultats obtenus à partir d’un échantillon soient identiques à ceux observés dans la
population. Par exemple, on se demandera quelle est la probabilité pour qu’une valeur mesurée
pour la moyenne dans un échantillon puisse être observée dans la population.

En réalité, il y a très peu de chance que ce résultat issu de l’échantillon soit observé au niveau de la
population. De même, si on tire plusieurs échantillons à partir d’une même population, il est très
peu probable que leur moyenne soit identique. En pratique, on travaillera sur la base d’un
intervalle de confiance en estimant la probabilité pour que la moyenne observée dans la
population se retrouve à l’intérieur de cet intervalle.

Considérant que les moyennes des échantillons se distribuent normalement, il est possible de
calculer un intervalle de confiance autour de la moyenne de l’échantillon à l’intérieur duquel la
probabilité de retrouver la moyenne de la population est de 95%. Selon les propriétés de la
distribution normale, cet intervalle est compris entre +1,96 écart-type au dessus de la moyenne et
-1,96 écart-type en dessous (figure 4.7). Pour une moyenne calculée de l’échantillon de 80 et un
écart-type égal à 0,75, cet intervalle est donc compris entre 78,63 et 91,47. Si on considère une
probabilité de 68%, l’intervalle est compris entre 79,25 et 80.75 (un écart-type de part et d’autre
de la moyenne).

Figure 4.7 : Distribution normale réduite et valeurs de l’écart-type qui incluent 68% et 95% de la
distribution

8
On peut remarquer, à partir de cet exemple, que plus l’intervalle s’agrandit plus la probabilité d’y
retrouver la moyenne de la population s’accroit. L’étendue de l’intervalle de confiance sera
estimée à partir de l’erreur standard sur la moyenne (écart-type de la distribution de la moyenne
pour tous les échantillons susceptibles d’être tirés de la population) qui est ici de 0,75. D’une
manière générale, plus la taille de l’échantillon sera grande, plus l’erreur standard sera petite et
plus l’intervalle de confiance sera réduit.

C’est sur cette base que seront construits les tests permettant l’inférence statistique. Par exemple,
pour déterminer si les moyennes de deux échantillons peuvent être considérées comme
différentes, on se demandera si la différence observée entre deux moyennes est probable en
considérant que les deux échantillons ayant servi au calcul des moyennes ont été tirés de la même
population. Si c’est le cas, on conclura que les deux échantillons sont bien issus de la même
population. Dans le cas contraire, on conclura qu’un élément est intervenu pour créer cette
différence entre les moyennes et que les deux échantillons ne peuvent pas être considérés comme
issus de la même population.

En application de ce principe, un test d’inférence statistique permettra de décider si la différence


entre les scores de deux groupes de sujets est simplement due au hasard (hypothèse nulle) ou
reflète une différence au niveau de la population. Par exemple, un test permettant de comparer
deux moyennes (comme le t de Student), fournira pour résultat la probabilité de l’hypothèse nulle
c’est-à-dire la probabilité que nos résultats soient simplement dus au hasard. En pratique, on
considère généralement que, pour conclure à une différence significative entre deux groupes, il
faut que la probabilité de l’hypothèse nulle soit égale ou inférieure à 5 % mais on peut aussi
prendre en considération un seuil plus exigeant (1%, par exemple).

Les tests d’inférence statistique sont particulièrement adaptés à la vérification d’hypothèses dans
le cadre d’une étude basée sur un plan expérimental. Dans la partie II (point 2.2.3), on a vu qu’il
était possible de formuler deux types d’hypothèses de recherche appelées : hypothèse
directionnelle et hypothèse nulle.

Lorsqu’ à l’occasion de la vérification d’une hypothèse (de recherche) directionnelle (par exemple :
Les étudiants ayant bénéficié d’un tutorat proactif réussissent mieux que les étudiants ayant
bénéficié d’un tutorat réactif) la différence observée entre deux groupes ne dépasse pas le seuil
de signification, c’est-à-dire si la probabilité de l’hypothèse nulle est supérieure à 5%, on déclarera
que l’hypothèse alternative est rejetée ou, plus précisément, qu’elle n’est pas supportée par les
données recueillies. Dans le cas contraire, c’est-à-dire lorsque la probabilité de l’hypothèse nulle
sera égale ou inférieure à 5%, on dira que l’hypothèse de recherche est supportée ou confirmée.

Pour ce qui est de l’hypothèse (de recherche) nulle qui définit qu’il n’y a pas de relation entre deux
variables ou qu’il n’y a pas de différence entre un post-test et un pré-test, on déclarera qu’elle
n’est pas supportée lorsque la probabilité de l’hypothèse nulle est inférieure ou égale à 5 % et
qu’elle est supportée lorsque cette probabilité est supérieure à 5%.

9
Tableau 4.2 : Conditions pour qu’une hypothèse de recherche soit confirmée

1.4 Les logiciels d’analyse quantitative

Pour prendre en charge le traitement des données quantitatives, deux approches sont
envisageables soit utiliser des logiciels génériques de type tableur soit faire appel à des logiciels
spécialisés.

Lorsqu’il s’agit de traitements relativement simples relevant de la statistique descriptive ou de


tests statiques simples (t de Student, Chi carré…), les recours à un tableur comme Excel peut se
révéler une solution intéressante.

Pour des traitements plus complexes, il sera préférable de faire appel à des logiciels spécialisés
dont les plus diffusés sont SPSS (http://www.spss.com/fr/) et SAS (http://www.sas.com).

2. L’analyse des données qualitatives

2.1 Principes

L’analyse des données qualitatives est souvent plus intuitive et moins systématique que lorsqu’il
s’agit de données quantitatives mais ce n’est pas pour autant qu’on doit sacrifier la rigueur auquel
tout chercheur est tenu.

2.1.1 Etape 1

La première étape d’une analyse qualitative consiste à organiser et à préparer les données. Cela
peut concerner la transcription des interviews, la mise au propre des notes prises sur le terrain, la
préparation et l’organisation des bandes vidéo …

Ensuite, sur la base du matériel organisé, il est important que le chercheur « passe à travers »
l’ensemble de ses données pour s’en faire une idée globale sans trop d’a priori par rapport à ce
qu’il va y trouver. Cela lui permet de donner du sens aux données et de préparer l’étape suivante

10
où il sera amené à organiser systématiquement ses données en fonction d’un nombre fini de
catégories.

2.1.2 Etape 2

La deuxième étape concerne le processus de codage des données où il s’agira d’organiser le


matériel en segments appelés unités de codage avant de donner du sens à ces unités en les
rattachant à une catégorie particulière du système de codage. Ce processus souvent désigné par
l’expression « analyse de contenu » consiste selon l’Écuyer (1990) à classer les éléments du
matériel analysé de manière à permettre au chercheur de mieux en connaître les caractéristiques
et la signification. Celui-ci se déroule en deux temps : la segmentation pour dégager les unités de
sens, puis le classement en fonction de catégories explicites et clairement décrites.

Le choix de l’unité de codage est une étape importante du processus de traitement des données
qualitatives en ce sens qu’elle déterminera la granularité de l’analyse et orientera l’interprétation
des éléments de contenu qui seront analysés. Deux approches sont envisageables à ce niveau soit
se référer à des critères de forme (mot, phrase, paragraphe, message…) soit se fonder sur le sens
en définissant des unités de sens par référence à la signification donnée aux éléments de contenu
(l’idée, l’acte de parole). La première approche permet une segmentation fiable du document à
analyser alors que la seconde offre plus de souplesse et prépare le codage en fonction des
catégories sémantiques qui interviendront par la suite. Rourke (2001), pour sa part, propose de
combiner les deux approches en tirant parti de la rigueur de la segmentation formelle et de la
richesse de la segmentation sémantique.

En ce qui concerne le système de codage qui sera utilisé, plusieurs choix se présentent au
chercheur. Soit utiliser un système de codage préconstitué et sélectionné en consultant la
littérature abondante qui existe sur le sujet, soit élaborer un système de codage original en se
référant à un modèle plus ou moins explicite du phénomène qui est étudié, soit combiner les deux
approches précédentes en partant d’une grille de codage disponible dans la littérature et en
l’adaptant aux spécificités de son étude.

Pour mettre au point une grille de codage en vue d’une analyse qualitative, on est souvent amené
à concevoir son système de codage au fur et à mesure du dépouillement des données en créant
des catégories en fonction des données qui se présentent tout en vérifiant leur cohérence avec les
catégories déjà créées. Après avoir épuisé une partie significative du corpus, il est judicieux de
revenir sur les catégories, de revoir leur définition et leur organisation, avant d’appliquer la grille à
l’ensemble des données recueillies. Si on veut être rigoureux, il est important de faire en sorte
que les catégories soient, dans toute la mesure du possible, mutuellement exclusives de sorte
qu’un élément du corpus puisse sans ambiguïté être placé dans une et une seule catégorie.
Lorsque ce n’est pas le cas, on peut soit revoir son système de classification soit s’interroger sur les
unités de sens choisies en se demandant s’il n’y a pas lieu de les revoir ou d’adopter des unités
plus petites.

Par la suite, un test de fidélité inter-codeurs peut aussi être réalisé pour s’assurer que le
classement est suffisamment indépendant de la personne qui a réalisé le codage. Pour cela, le
coefficient Kappa de Cohen peut être utilisé. Celui-ci fournit une valeur égale à 1 dans le cas d’un
accord complet entre les codeurs alors qu’une valeur ≤ 0 indique qu’il n’y a aucun accord entre les
codeurs (en dehors de que ce qui pourrait être expliqué par le hasard).

11
Pour obtenir une fidélité inter-correcteurs satisfaisante, il est généralement utile de définir une
grille de codage très précise comportant le nom des catégories de codage, une description précise
de celles-ci et quelques exemples de segments issus du corpus relevant de chacune de ces
catégories.

2.1.3 Etape 3

La troisième étape de l’analyse qualitative consiste à préparer l’interprétation en tentant de


dégager un certain nombre de thématiques générales à travers les catégories de codage. Après le
travail très analytique de codage, il convient de préparer progressivement la synthèse des
résultats. A ce niveau, les logiciels dont on parlera au point suivant pourront être très utiles pour
aider le chercheur à explorer les liens qui peuvent exister entre les catégories de codage.

Toujours pour préparer le travail d’interprétation qui interviendra par la suite, il est important que
le chercheur rassemble un maximum d’informations qui permettront de fonder la validité de sa
démarche de recherche. Il s’agit à ce niveau de documenter les différentes étapes de la recherche,
de justifier les outils utilisés, de décrire très précisément les contextes dans lesquels la recherche
s’est déroulée, de prendre note des problèmes rencontrés et des solutions apportées.

Les différentes données rassemblées devront également être structurées pour faciliter la
triangulation des informations provenant de sources différentes de manière à permettre, par la
suite, d’élargir les interprétations et de renforcer la validité des données sur lesquelles le
chercheur se basera.

2.2 Les logiciels d’analyse qualitative

La plupart des logiciels d’analyse qualitative des données sont conçus comme des outils
permettant d’assister le chercheur dans le processus d’analyse de contenu.

Les logiciels les plus couramment utilisés à ce niveau sont Ethnograph


(http://www.qualisresearch.com), ATLAS.ti (http://www.atlasti.com), HyperResearch
(http://www.researchware.com) et Nvivo
(http://www.qsrinternational.com/products_nvivo.aspx).

Ces logiciels facilitent surtout le travail du chercheur lorsqu’il s’agit de traiter des corpus de
données importants (plusieurs centaines de pages de notes, plusieurs dizaines d’heures de
dialogue). Certains systèmes tels que NVivo, ATLAS.ti et HyperResearch permettent également le
codage sur des données non textuelles (images, sons et vidéos).

En matière d’analyse de contenu, un logiciel produit par une équipe de chercheurs français adopte
une approche assez originale. En effet, le logiciel Alceste (http://www.image-
zafar.com/index_alceste.htm) prend en charge le processus de catégorisation, en mobilisant des
méthodes statistiques sophistiquées, sans que le chercheur n’ait à intervenir alors que, dans des
logiciels tels que NVivo, AtlasTi ou HyperResearch, c’est au chercheur que revient la tâche
d’élaborer les catégories en fonction desquelles les données seront regroupées.

12
3. L’interprétation des résultats

Une fois les données analysées, mises en forme et les traitements statistiques jugés utiles réalisés,
intervient la phase cruciale d’interprétation. En effet, cette phase sera particulièrement
importante parce qu’elle donnera tout son sens aux résultats. Faire l’interprétation des résultats
c’est proposer des relations plausibles, probables et significatives entre les données, suggérer ou
confirmer des modèles, élaborer des hypothèses qu’il s’agira de vérifier lors d’études ultérieures.

Les produits de l’interprétation pourront varier en fonction de la nature de la recherche. Pour une
recherche déductive, on s’attachera dans un premier temps à la vérification des hypothèses et des
questions de recherche puis on s’efforcera d’élargir ses résultats en les confrontant à un ou
plusieurs modèles. Dans une approche inductive, la priorité pour l’interprétation des résultats sera
de produire de nouvelles hypothèses ou des questions de recherche.

Dans la section 1.2, on s’est attaché à traiter et à structurer les résultats pour les rendre plus
parlants, plus explicites à travers l’usage de représentations graphiques, de tableaux ou de
matrices de résultats. L’interprétation consiste à ce niveau à commenter les graphiques, à dégager
les relations qui peuvent être mises en évidence ou encore à confirmer des intuitions qui sont
apparues au moment du traitement des données. Cette démarche, qui sert de fil conducteur
naturel pour une recherche exploratoire, peut aussi s’appliquer à une approche confirmatoire. Elle
permet, par exemple, d’affiner les conclusions issues d’une démarche de validation d’hypothèses
en essayant de mieux comprendre pourquoi certaines différences significatives sont apparues à
certains endroits et pas à d’autres.

Une phase importante de l’interprétation, qu’on désigne habituellement par le terme discussion,
consiste à relier les résultats au cadre conceptuel et à la problématique de la recherche en
montrant comment ceux-ci permettent de faire progresser les connaissances dans le domaine
considéré. A l’occasion de la discussion, il s’agit de rechercher des concepts, des relations ou des
modèles qui permettront de soutenir les résultats observés. Il n’est pas rare à ce niveau qu’on soit
amené à rechercher de nouvelles références dans la littérature faute de trouver dans la revue qui
a été réalisée les références qui permettent de soutenir ou d’expliquer nos résultats.

Le retour vers la littérature qu’on vient d’évoquer au point précédent est assez exemplaire quant à
la démarche réelle qui sera mise en œuvre par le chercheur au moment de l’interprétation. En
effet, pour réaliser un travail en profondeur à ce niveau, il est souvent nécessaire d’opérer des
retours en arrière vers les étapes précédentes et en particulier vers l’analyse des résultats pour
ajuster une représentation graphique ou approfondir un résultat statistique afin d’éclairer les
données en fonction de perspectives nouvelles qui donneront lieu à des interprétations
alternatives.

En matière de recherche, c’est souvent une erreur de se contenter de l’hypothèse ou du modèle


explicatif qui apparaît comme le plus plausible dans un premier temps. Bien souvent, en
approfondissant les choses, en envisageant d’autres perspectives, on découvre que les résultats
peuvent aussi être interprétés en fonction d’idées concurrentes. Cela fait partie de la déontologie
du chercheur de ne pas se contenter d’une seule explication à un phénomène mais d’envisager
toutes les explications alternatives qui se présentent à lui. Ce souci d’envisager plusieurs modèles
explicatifs procède aussi d’une volonté d’assurer la validité du processus d’interprétation des
résultats.

13

Vous aimerez peut-être aussi