0% ont trouvé ce document utile (0 vote)
26 vues

Quelles Approche

Ce document discute des approches et des types de données utilisés en recherche. Il explique que les données sont des représentations acceptées d'une réalité et non des objets indépendants. Le document analyse la distinction entre données primaires et secondaires, et entre approches qualitatives et quantitatives.

Transféré par

Amj91
Copyright
© © All Rights Reserved
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
26 vues

Quelles Approche

Ce document discute des approches et des types de données utilisés en recherche. Il explique que les données sont des représentations acceptées d'une réalité et non des objets indépendants. Le document analyse la distinction entre données primaires et secondaires, et entre approches qualitatives et quantitatives.

Transféré par

Amj91
Copyright
© © All Rights Reserved
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
Vous êtes sur la page 1/ 17

Quelles approches avec quelles données ?

Philippe BAUMARD Avec Jérôme IBERT, Chapitre IV in : R.A. Thiétart (Ed), Méthodologie de la recherche en
gestion, Nathan, 1998

L’un des choix essentiels que le chercheur doit opérer est celui d’une approche et de données adéquates
avec sa question de recherche. Il s’agit bien entendu d’une question à double entrée. D’une part, il y a la
finalité poursuivie : explorer, construire, tester, améliorer ce qui est connu, découvrir ce qui ne l’est pas.
D’autre part, il y a l’existant ; ce qui est disponible et accessible, ce qui est faisable — et qui a déjà été fait —
et ce qui ne l’est pas. Cette seconde entrée possède deux volets : celui de la donnée et celui de l’approche,
qui peut être qualitative ou quantitative. C’est donc une triple adéquation que le chercheur poursuit entre
finalité, approche et donnée. Intervenant très tôt dans le processus de recherche, cet agencement est
coûteux, non seulement parce qu’il va engager le chercheur à long terme, mais surtout parce que toutes les
dimensions implicites dans un tel choix ne sont pas réversibles. Dans ce chapitre, nous essaierons de donner
au lecteur les moyens de choisir, en l’éclairant sur les possibles incompatibilités entre certaines approches et
certaines données, mais surtout en estimant le coût de chaque décision en termes de temps, d’impact sur la
recherche et d’irréversibilité.

Notre analyse est organisée en deux sections.

Dans la première, nous nous interrogerons sur le statut de la " donnée ". Que peut-on appeler une " donnée
" ? Nous verrons que le statut ontologique que l’on accorde à nos données dénote une position
épistémologique qu’il s’agit de ne pas trahir par une approche qui supposerait une position contraire. Ce sera
surtout l’occasion de distinguer les données primaires des données secondaires, pour évaluer ce que
chacune peut apporter à une recherche. Nous explorerons les idées reçues quant à ces données de natures
différentes, afin de fournir au lecteur les clés de l’arbitrage. Nous examinerons également les contraintes qui
pèsent sur le recueil et l’analyse des données primaires et secondaires. Nous montrerons enfin en quoi ces
deux types de données sont tout à fait complémentaires.

Dans la seconde section, nous analyserons les caractéristiques censées permettre la distinction entre
l’approche qualitative et l’approche quantitative. Le premier critère que nous évaluerons consiste en la nature
de la donnée. Il s’agira en quelque sorte de préciser si l’on peut donner une acception déterministe de la
question : " quelles approches avec quelles données ? ". Nous évaluerons également l’influence sur le choix
d’une approche qualitative ou quantitative que peuvent avoir l’orientation de la recherche - construction ou
test de la théorie -, la position épistémologique du chercheur à l’égard de l’objectivité ou de la subjectivité des
résultats qu’il peut attendre de la recherche et la flexibilité dont il désire disposer. Enfin, nous montrerons en
quoi ces deux approches sont complémentaires, soit d’un point de vue séquentiel, soit dans la perspective
d’une triangulation.

Section 1. Le choix des données


1. Qu’est-ce qu’une " donnée " ?

Les " données " sont traditionnellement perçues comme les prémisses des théories. Les chercheurs
recherchent et rassemblent des données dont le traitement par une instrumentation méthodique va produire
des résultats et améliorer, ou renouveler, les théories existantes. Deux propositions non posées et
constestables se cachent derrière cette acception de bon sens. La première est que les données précèdent
les théories. La seconde, découlant de la première, est que les données existent en dehors des chercheurs,
puisqu’ils les " trouvent " et les " rassemblent " afin de leur infliger des traitements. La grammaire de la
recherche ne fait que valider de telles suppositions, puisqu’on distingue traditionnellement les phases de
recueil, de traitement, et d’analyse des données, comme si tout naturellement les " données " étaient des
objets indépendants de leur recueil, de leur traitement et de leur analyse. Bien évidemment, cette proposition
est tout à la fois fausse et vraie. Elle est fausse car les données ne précèdent pas les théories, mais en sont à
la fois le médium et la finalité permanente. On utilise tout autant que l’on produit des données, que l’on soit au
point de départ de la réflexion théorique ou proche de son achèvement. Les données sont à la fois des
réceptacles et des sources de théorisation. Avant toutes choses, la donnée est un postulat : une déclaration
au sens mathématique, ou une supposition acceptée. Cette acceptation peut se faire par voie déclarative, ou
implicitement, en présentant une information de telle façon qu’elle prend implicitement le statut de vérité. Il
s’agit avant tout d’une convention permettant de construire ou de tester une proposition. Le fait que cette
convention soit vraie ou fausse, au sens commun, n’a rien à voir avec sa vérité scientifique. Comme le
soulignait Caroll, " sur la question de savoir si une proposition doit, ou ne doit pas, être comprise comme
affirmant l’existence de son sujet, je soutiens que tout auteur a le droit d’adopter ses règles propres —
pourvu, bien sûr, que celles-ci soient cohérentes avec elles-mêmes et conformes aux données logiques
habituellement reçues " (Caroll, 1992, p. 192). Ainsi, les " données " ont avant tout un statut d’assertion
permettant au chercheur de poursuivre son travail sans avoir à lutter avec le statut de vérité des propositions
qu’il émet. La donnée permet d’éviter au chercheur de se résoudre à croire dans chaque proposition qu’il
émet. Elle lui permet d’évacuer de son espace de travail la question ontologique, du moins de la reléguer en
arrière plan afin d’opérationnaliser sa démarche.

1.1. La donnée comme représentation

Ainsi, les " données " sont des représentations acceptées d’une réalité que l’on peut ni empiriquement (par
les sensations), ni théoriquement (par l’abstraction) embrasser. La première raison est que la réalité n’est pas
réductible à une partie moindre qui peut toute entière l’exprimer. Le fait d’avoir " vécu " une réalité ne signifie
pas que l’on est porteur de celle-ci, mais tout au plus qu’on en a étreint certains aspects, avec une intensité
plus ou moins grande. La métaphore de l’accident de voiture peut permettre ici de mieux comprendre ce
paradoxe. Tout un chacun peut " décrire " avec plus ou moins de pertinence un accident de voiture, mais
ceux qui l’ont vécu possèdent une dimension supplémentaire qui ne peut être exprimée. Deux personnes
ayant vécu le même accident auront toutefois deux expériences différentes de ce même événement, que l’on
peut considérer comme une réalité partagée. Cependant, l’expérimentation commune d’un même événement
a produit deux ensembles de données distincts, mutuellement différents, et encore plus différents de la
représentation de l’événement par une personne ne l’ayant pas vécu.

On pourrait facilement contredire cet exemple en suggérant qu’il s’agit de données qualitatives, c’est-à-dire
constituées de récits, de descriptions, de retranscriptions de sensations qui rend cette différence évidente.
Cependant, le caractère quantitatif ou qualitatif de la donnée ne change pas fondamentalement le problème.
Si l’on demandait aux deux accidentés d’évaluer sur des échelles de 1 à 5 les différentes sensations de
l’accident, on aboutirait également à des perceptions différentes d’une même réalité, qui peut vouloir dire (a)
que la réalité de l’accident était différente pour les deux acteurs, ou que (b) la traduction d’une même réalité
sur une échelle par deux acteurs peut donner des résultats différents. Dans les deux cas, le chercheur aura
réuni des " données ", c’est-à-dire qu’il aura accepté l’idée que l’une ou l’autre façon de représenter le
phénomène (échelles ou récit) constitue une méthode acceptable de constitution de données. Ainsi, le statut
de " donnée " est partiellement laissé au libre arbitre du chercheur. Celui-ci pourra considérer qu’un
événement directement observable peut constituer une donnée, sans l’intermédiaire d’une instrumentation
transformant les stimuli en codes ou en chiffres (par exemple, via une catégorisation ou l’utilisation
d’échelles). Dans une seconde modalité, le chercheur fait face à des phénomènes non directement
observables, comme des attitudes. Il va avoir recours à une instrumentation lui permettant de transformer ces
" attitudes " en un ensemble de mesures, par exemple en utilisant des échelles où les acteurs pourront
qualifier leur attitude. Cette instrumentation néanmoins peut également être appliquée à des phénomènes
observables, comme des comportements. Il s’agit d’une troisième modalité de " constitution " des données
(cf. figure 1).

Figure 1: Trois modalités de constitution des données

Toutefois, même la retranscription des discussions d'un conseil d'administration reste un " ensemble de
représentations ". En ce sens, une donnée peut être définie comme " une représentation qui permet de
maintenir une correspondance bidirectionnelle entre une réalité empirique et un système symbolique
" (Stablein, 1993, p. 514). Par exemple, on peut utiliser des études de cas réalisées par d'autres chercheurs
comme des " données ". Les études de cas sont alors utilisées comme des représentations qui pourront être
confrontées à d'autres représentations recensées, assemblées ou construites par le chercheur à propos de
l’objet de recherche. Les représentations issues d’études de cas appartiennent à l’ensemble des " données ",
tandis que les autres appartiennent au système symbolique permettant la théorisation. Dès lors, on comprend
que si toutes les données sont des représentations, toute représentation n'est pas systématiquement une
donnée (Stablein, ibid.). Considérer qu'une représentation est ou n'est pas une donnée tient plus à un
positionnement épistémologique qu'à une méthodologie particulière de la recherche. De façon traditionnelle,
la recherche scientifique considère que le monde empirique existe en dehors du chercheur, et que celui-ci a
pour objet de le " découvrir " (Lakatos, 1965). Ceci implique que le chercheur croit dans l'existence d'un
monde objectif qui existe malgré lui, et possède un statut objectif. Kuhn (1970) en participant la structure des
révolutions scientifiques a pourtant su montrer que les paradigmes scientifiques sont des ensembles de
croyances partagées par des communautés de chercheurs. Les données utilisées par les chercheurs, dans le
cadre de la défense ou de la promotion de leur paradigme, sont autant de " conceptions ", c'est-à-dire de
représentations nées de l'intersubjectivité des chercheurs partageant ces croyances.

1.2. Le positionnement épistémologique du chercheur à l’égard de la donnée

On ne peut donc trancher de manière définitive ce qui appartient au positionnement épistémologique de


chaque chercheur. Toutefois, on peut considérer qu'une donnée est en même temps une " découverte " et
une " invention ". Établir une dichotomie entre découverte et invention peut introduire un biais dans la
construction de la théorie. Si le chercheur, en voulant absolument se tenir à l'objectivité de sa recherche,
décide de ne considérer que les " découvertes ", il peut entraver la partie créative de sa recherche en s'auto-
contraignant, c'est-à-dire en éludant volontairement une partie des données qu'il considérera trop subjective.
A contrario, une position considérant qu'il n'existe aucune donnée objective, aucune réalité en dehors de
l'interaction entre le chercheur et ses sources, c'est-à-dire que la réalité observée n'est qu'invention, risque de
bloquer la progression de la recherche dans des impasses paradoxales où " tout est faux, tout est vrai ".

La constitution des données (leur découverte-invention) est de fait un travail d'évaluation, de sélection, de
choix très impliquants pour le devenir de la recherche, et au-delà, va signer un positionnement
épistémologique de la recherche. Si l'accent a été mis dans cet ouvrage de façon transversale sur les
positionnements épistémologiques des chercheurs, c'est que cette question ne peut être éludée. Il ne s'agit
pas d'un choix pris une seule fois et acquis pour l'ensemble de la recherche. Le processus de construction
des données de la recherche s'inscrit dans un aller-retour incessant entre la théorie et ses fondements
empiriques. À chaque aller-retour, la question d'établir ce qui constitue, ou ne constitue pas, une donnée va
reposer au chercheur la question de son positionnement épistémologique. Faute de cette interrogation
constante, on risque de retrouver dans le travail final des contradictions épistémologiques : des recherches
s'affichant constructivistes, mais traitant les données de manière positive ; ou vice-versa, des recherches
s'affirmant positivistes, mais considérant des représentations intersubjectives comme des réalités objectives.

1.3. La subjectivité de la donnée due à la réactivité de sa source

Le terme " donnée " est un faux-ami. Il sous-entend la préexistence, ou l'existence objective en dehors du
chercheur, d'un ensemble d'informations et de connaissances formelles disponibles et prêtes à être
exploitées. En fait, rien n'est moins " donné " qu'une donnée! Les données peuvent être produites au travers
d’une relation observateur-observé. Lorsqu’elle est consciente de l’observation de ses comportements ou des
événements qui l’impliquent ou encore de l’évaluation de ses attitudes, la source de données est " réactive "
dans le processus de constitution de la base de données que nous avons décrit dans la figure 1. Comme l’a
fort justement écrit Girin, la "matière étudiée en management est non seulement " mouvante " mais " elle
pense ". " C’est très embêtant, parce que la matière pense notamment à nous. Elle nous attribue des
intentions qui, peut-être, ne sont pas les nôtres, mais qui vont conditionner la manière dont elle va nous
parler, ce qu’elle va choisir de nous montrer ou de nous cacher. " (Girin, 1989 : 3).

Si la réactivité de la source peut facilement être mise dans le cadre du recueil de données primaires dans les
recherches qualitatives, elle n’y est pas exclusivement attachée. Le fait que la donnée soit de source primaire
(c’est-à-dire de " première main ") ou secondaire (c’est-à-dire de " seconde main ") ne constitue pas un critère
suffisamment discriminant en termes de réactivité de la source. Le chercheur, peut collecter directement des
données comportementales par l’observation non participante sans que les sujets observés soient conscients
de cette observation et puissent affecter la donnée par leur réactivité (Bouchard, 1976). A contrario, les
acteurs d’organisation donnant accès à des données secondaires internes, rapport ou document, peuvent en
fait intervenir sur le processus de construction de la base de données, tant par ce qu’ils auront mis en
exergue que par ce qu’ils auront omis ou dissimulé. S’il est courant, à juste titre, de souligner la réactivité de
la source de données primaires, les données secondaires ne sont pas exemptes de ce type de phénomène.

L’approche méthodologique à l’égard de la donnée, qualitative ou quantitative, n’est pas un élément


satisfaisant pour cerner les situations d’interactivité avec les sources de données. Les données collectées au
travers d’enquêtes par questionnaires ou grâce à des entretiens en profondeur peuvent toutes deux être
affectées par la rétention d’information, son orientation dans un sens voulu par les sujets qui en sont les
sources. Quelle que soit l’approche, qualitative ou quantitative, le chercheur est contraint de qualifier et de
maîtriser sa présence dans le dispositif de collecte et de traitement des données (cf. chapitre 9, Ibert,
Baumard, Donada, et Xuereb).

La question déterminante est plutôt la suivante : " la donnée est-elle affectée par la réactivité de sa source à
l’égard du chercheur ?" En d’autres termes, il est utile de distinguer les données obtenues de façon " ouverte
" (" obstrusive " c’est à dire " indiscrète " dans la terminologie anglo-saxonne), c’est-à-dire au su des sujets-
sources, ou de façon "dissimulée" (" unobstrusive "), c’est-à-dire à l’insu des sujets-sources. Les données
collectées de façon " dissimulée " permettent de compléter, de recouper les données collectées de façon "
ouverte " empreintes d’une certaine subjectivité, due à la distorsion provoquée par les filtres perceptuels des
sujets (Starbuck & Milliken, 1988) ou à la sélectivité de leur mémoire, ou encore d’interpréter des
contradictions dans les données issues de sources réactives (Webb & Weick, 1979).

2. L’utilisation des données primaires et secondaires

2.1 Quand privilégier des données primaires ou secondaires ?

Si les données sont des représentations, un chercheur doit-il forcément créer son propre système de
représentations — ses propres données —, ou peut-il se contenter des représentations disponibles ? La
théorisation qui est issue de données uniquement secondaires a-t-elle un statut scientifique moindre de celle
qui est " ancrée " dans le terrain par le chercheur lui-même ? À dire vrai, beaucoup de chercheurs en
sciences sociales ont tendance à répondre par l’affirmative en critiquant vertement leurs collègues qui "
théorisent " à partir des données des autres. Ainsi, il est très souvent admis qu’on ne peut pas théoriser à
partir d’études de cas que l’on n’a pas soi même conduites sur le terrain. Un tel jugement est avant tout une
idée reçue. Comme le souligne Kœnig (1996, p. 63), un chercheur comme K.E. Weick " affectionne, en dépit
d’une médiocre réputation, l’utilisation de données de seconde main. Webb et Weick observent que c’est un
principe souvent considéré comme allant de soi que les données ne peuvent pas être utilisées en dehors du
projet qui en a justifié leur collecte. Ayant estimé qu’une telle prévention était tout à la fois naïve et
contreproductive (Webb et Weick, 1979: 652), Weick ne s’est pas privé d’exploiter les possibilités qu’offrent
des données secondaires. L’article qu’il a écrit sur l’incendie de Mann Gulch illustre bien les potentialités de la
méthode ". Pour sa recherche, K.E. Weick a utilisé comme source secondaire l’ouvrage de MacLean, Young
Men and Fire, qui décrit à force d’archives, d’entretiens et d’observations la mort de treize pompiers dans un
incendie dont on avait sous-estimé l’ampleur. La théorisation réalisée par Weick fut une contribution
importante dans les sciences de l’organisation, sans que Weick n’ait lui-même assisté aux événements. Il faut
bien sûr relativiser de telles expériences. La théorisation que Weick affine dans son article est le fruit d’une
longue maturation, et on pourrait considérer que l’ouvrage utilisée comme une donnée secondaire constitue
une pierre supplémentaire à une œuvre beaucoup plus large et progressive. On ne peut conseiller à un jeune
chercheur de s’engager directement sur ce type de recherche, sans avoir acquis sur le terrain une maturité
importante vis-à-vis des données et de leur constitution. A cet égard, le recueil de données primaires offrent
l’opportunité au chercheur de se confronter directement à la " réalité " qu’il a choisi d’étudier.

En définitive, le choix entre données primaires ou données secondaires doit être ramené à un ensemble de
dimensions simples : leur statut ontologique, leur possible impact sur la validité interne et externe de la
recherche, leur accessibilité et leur flexibilité.

u Quelques idées reçues sur les données primaires…

L’exemple de la théorisation menée par Karl Weick sur l’incendie de Mann Gulch, et l’accueil qu’elle reçut lors
de sa publication, témoignent des idées reçues qu’une audience scientifique peut avoir sur le statut d’une
recherche selon la nature des données sur lesquelles elle se fonde. La tentation est grande de céder à
l’idéologie et de se contraindre à produire des données même lorsque celles-ci sont disponibles, par souci de
se conformer aux attentes de son audience. La première idée reçue à propos des données primaires
concerne leur statut ontologique. On aura tendance à accorder un statut de vérité plus grande à une
recherche fondée sur des données primaires, parce que son auteur pourra " témoigner " de phénomènes qu’il
a vu de ses propres yeux. Ce syndrome de " Saint Thomas " peut cependant entraîner un excès de confiance
dans les déclarations des acteurs et amener le chercheur à produire des théories qui ne sont pas assez
abouties parce qu’elles n’ont pas su prendre suffisamment de distance avec le terrain. De même, les données
primaires sont généralement considérées comme une source de validité interne supérieure car le chercheur
aura établi un dispositif adapté au projet et à la réalité empirique étudiée. Cette croyance dans une validité
interne supérieure vient du fait que le chercheur, en recueillant ou produisant lui-même les données, est
censé avoir évacué les explications alternatives en contrôlant d’autres causes possibles. Cependant, la
relative liberté dont dispose le chercheur pour mener ces contrôles, et la relative opacité qu’il peut générer
dans son instrumentation, doivent relativiser une telle croyance. L’excès de confiance qui provient de
l’autonomie dans la production de la donnée peut au contraire pousser le chercheur à se contenter
d’esquisses peu robustes et à ignorer des variables explicatives ou intermédiaires.

À l’opposé, il est courant d’attribuer un effet négatif des données primaires sur la validité externe de la
recherche poursuivie. Parce que le chercheur sera le seul à avoir " interagi " avec " sa " réalité empirique, un
travail de recherche uniquement fondé sur des données primaires pourra susciter des doutes de l’audience. Il
s’agit également d’une idée reçue, qui amènera généralement le chercheur à " compenser " ses données
primaires par un excès de données secondaires " ad hoc " qu’il aura introduites pour " colmater " la validité
externe de son travail, réalisant en quelque sorte un cautère sur une jambe de bois.

Dans le même ordre d’idée, les données primaires sont souvent considérées comme difficilement accessibles
mais très flexibles. Ce n’est pas toujours le cas! Mais parce que le chercheur va considérer qu’il ne peut
accéder aux données primaires dont il a besoin, il privilégiera des données secondaires disponibles alors que
le projet poursuivi aurait mérité une instrumentation et la production de données spécifiques.

De même, l’excès de confiance dans une supposée " flexibilité " des données primaires peut amener le
chercheur à s’embourber dans un terrain se révélant beaucoup moins flexible que ne le suggérait la
littérature : les acteurs vont lui résister, vont faire de la figuration, lui fournir les réponses dont ils s’imaginent
qu’elles pourront lui faire plaisir, et ainsi continuellement, mais de bonne foi, biaiser sa recherche. Le tableau
suivant résume ces quelques idées reçues sur les données primaires, et les implications directes ou
indirectes qu’elles peuvent avoir sur une recherche quand on s’est résolu à y croire (cf. tableau 1) :

Idées reçues… Implications directes et indirectes

Quant à leur • Les données primaires ont un • Excès de confiance dans les
statut ontologique statut de vérité parce qu’elles déclarations des acteurs
proviennent directement du
terrain. • Théories trop intuitives ou
tautologiques

Quant à leur • Les données de " première • L’excès de confiance dans la


impact sur la main " (ex: interviews) ont une validité interne des données
validité interne validité interne immédiate. primaires pousse à éluder des
explications rivales ou à ignorer des
variables intermédiaires

Quant à leur • L’utilisation de données • On compense par des données


impact sur la essentiellement primaires secondaires qui n’ont pas de rapport
validité externe diminue la validité externe des avec la question de recherche.
résultats

Quant à leur • Les données primaires sont • On privilégie des données


accessibilité difficilement accessibles. secondaires accessibles mais
incomplètes, alors que l’objet de la
recherche mériterait le recueil de
données primaires (heuristique du
disponible)

Quant à leur • Les données primaires sont • On s’embourbe dans le terrain par
flexibilité très flexibles. le manque de disponibilité des
acteurs.

• Travestissement des données


primaires en les détournant de l’objet
pour lequel elles ont été recueillies.

Tableau 1: Idées reçues sur les données primaires


u Quelques idées reçues sur les données secondaires…

Les données secondaires font également l’objet d’un certain nombre d’idées reçues quant à leur statut
ontologique, leur impact sur la validité interne ou externe, leur accessibilité et leur flexibilité. La plus tenace
d’entre elles concerne sans doute leur statut ontologique. Parce qu’elles sont formalisées et publiées, les
données secondaires se voient attribuer un statut de " vérité " souvent exagéré. Leur objectivité est prise pour
argent comptant, et leur fiabilité est assimilée à la réputation de leur support. Ainsi, on accorde une intégrité
plus grande à une information institutionnelle qu’à une information privée de source discrétionnaire, sans
même s’interroger sur les conditions de production de ces différentes données. Ce phénomène est accentué
par l’utilisation de média électroniques qui fournissent les données dans des formats directement
exploitables. La formalisation des données dans un format prêt à l’exploitation peut amener le chercheur à
considérer pour acquis le caractère valide des données qu’il manipule.

Il en est de même pour leur impact sur la validité interne de la recherche. L’apparente robustesse de
l’organisation des données disponibles peut faire croire qu’il sera plus facile de maîtriser la validité interne de
la recherche ainsi menée. Cependant, comme le rappelle Stablein (1996: 516), la validité interne de la
recherche doit être démontrée à travers la validité des construits qu’elle utilise, c’est-à-dire en éclairant et en
justifiant les liens qui existent entre le construit et la procédure opérationnelle qui permet de le manipuler.
Selon une étude de Podsakoff et Dalton (1997), seulement 4,48 % des auteurs fournissent des preuves de la
validité de leur construit dans les articles publiés examinés. Ainsi, la formalisation peut être à tort assimilée à
une robustesse intrinsèque de la donnée secondaire. Cette dernière idée reçue amène le chercheur à croire
que sa recherche sera " sécurisée " par le recours à des données secondaires, tandis qu’en fait, il ne fait "
qu’externaliser ", confier à d’autres, les risques liés à la validité interne de ses travaux en attribuant un degré
de confiance a priori aux données secondaires qu’ils manipulent.

L’utilisation de données secondaires pour étendre la validité des résultats et produire leur généralisation est
affectée des mêmes travers. La validité externe est aussi conditionnée par la validité des travaux à l’origine
de la donnée secondaire.

Une autre idée reçue concerne la plus grande accessibilité des données secondaires. Une telle croyance
peut donner au chercheur le sentiment de complétude de sa recherche car il aura l’impression d’avoir eu
accès " à tout ce qui était accessible ". L’apparente facilité d’accès aux données secondaires peut amener le
chercheur soit à être vite débordé de données en quantité trop importante, soit à croire qu’il a fait " le tour de
la question ".

Parallèlement, un autre idée reçue, celle d’une croyance positive dans la faible flexibilité des données
secondaires (donc peu manipulables) peut amener le chercheur à croire que les données secondaires sont
plus fiables. Il s’agit là d’une croyance naïve car le fait que les données secondaires soient stabilisées et
formalisées ne signifie aucunement que les phénomènes qu’elles décrivent se soient figés ou stabilisés à
l’instar des données disponibles qui les décrivent. En d’autres termes, le recours aux données secondaires
peut entraîner une plus grande exposition à un biais de maturation (cf. chapitre 10, Drucker, Ehlinger &
Grenier)

Le tableau 2 résume ces quelques idées reçues sur les données secondaires.

Idées reçues… Implications directes et indirectes

• Les données secondaires ont • On ne s’interroge pas sur la finalité


un statut de vérité supérieur et les conditions des recueil et
aux données primaires car elles traitement initiaux.
ont été formalisées et publiées
Quant à leur statut • On oublie les limitations que les
ontologique auteurs avaient attachées aux
données qu’ils avaient produites.

• On reprend des propositions et on


leur attribut le statut de vérité.

Quant à leur • Le statut ontologique de • L’intégration de données


impact sur la véracité des données disponibles peut conduire à négliger
validité interne secondaires offre une maîtrise la robustesse des construits de la
de la validité interne. recherche.
Le chercheur "externalise" le risque
de validité interne (excès de
confiance).

• L’établissement de la validité • L’établissement de la validité


externe de la recherche est externe peut être biaisé par l’excès
Quant à leur facilitée par la comparaison de confiance dans les données
impact sur la avec des données secondaires. secondaires.
validité externe
• Le chercheur conclut à une
généralisation excessive de ses
résultats.

• Les données secondaires • La plus grande accessibilité peut


sont disponibles et facilement donner au chercheur le sentiment de
Quant à leur accessibles. complétude, tandis que sa base de
accessibilité données est incomplète.

• Les données secondaires • Croyance naïve : la formalisation


sont peu flexibles, donc plus des données secondaires ne gage
Quant à leur fiables car moins manipulables. pas de leur pérennité. Les données
flexibilité manquent d’actualisation et subissent
un biais de maturation.

Tableau 2: Idées reçues sur les données secondaires

Nous avons mis en avant les dangers qui pouvaient résider dans un choix fondé sur des idées reçues sur des
qualités que posséderaient les données primaires et les données secondaires. Il est donc fallacieux de bâtir
un projet de recherche sur des qualités que posséderaient a priori ces deux types de données. L’utilisation de
données primaires ou secondaires va entraîner un certain nombre de contraintes dans le processus de
recherche. Ces contraintes sont pour la plupart d’ordre logistique. Le caractère primaire ou secondaire des
données implique un ensemble de précautions spécifiques dans les phases de recueil et d’analyse.

2.2. Les contraintes inhérentes à l’utilisation des données primaires ou secondaires

u Les contraintes de recueil des données

Les données primaires posent des difficultés de recueil importantes. D’abord, il faut accéder à un terrain, puis
maintenir ce terrain, c’est-à-dire protéger cet accès et gérer l’interaction avec les répondants (que les
données primaires soient collectées par questionnaire, par entretiens ou par observation) (cf. chapitre 9, Ibert,
Baumard, Donada & Xuereb). L’utilisation de données primaires nécessite donc de maîtriser un système
d’interaction complexe avec le terrain, dont la gestion défaillante peut avoir des conséquences sur l’ensemble
de la recherche. À l’opposé, le recours à des données secondaires permet de limiter l’interaction avec le
terrain, mais offre moins de latitude au chercheur pour constituer une base de données adaptée à la finalité
de sa recherche. Ce travail peut être long et laborieux. Il peut nécessiter la collaboration d’acteurs autorisant
l’accès à certaines bases de données externes ou facilitant l’orientation du chercheur dans les archives
d’organisation.

u Les contraintes d’analyse des données

De même, données secondaires et primaires impliquent des difficultés d’analyse qui leur sont spécifiques.
Les distorsions dans l’analyse vont se situer à différents niveaux selon le caractère primaire ou secondaire
des données. L’utilisation de données primaires pose essentiellement des problèmes de contrôle des
interprétations réalisées. Le chercheur est en effet " juge et partie " dans la mesure où il recueille lui-même
les données qu’il va plus tard analyser. Il peut arriver qu’il poursuive implicitement son "modèle" ou son
"construit" à la fois dans le recueil des données (biais d’instrumentation) et dans leur analyse (non évacuation
des autres causalités possibles, focalisation sur le construit désiré). L’analyse de données secondaires
implique un autre type de contrainte. Si le chercheur est confrontée à des données secondaires partielles,
ambiguës ou contradictoires, il ne peut que rarement remonter à la source pour les compléter ou les clarifier.
Le chercheur est en effet contraint d’interroger des personnes citées dans des archives ou ayant collecté les
données, c’est-à-dire de recourir à des données primaires ad hoc. Cette démarche est coûteuse. L’accès aux
individus concernés n’est qu’exceptionnellement possible.

Le tableau 3 reprend les contraintes que nous venons d’exposer quant à l’utilisation des données primaires et
secondaires

Données primaires Données secondaires

Difficultés • Il est essentiel de maîtriser un • Le chercheur dispose d’une moins


de recueil système d’interaction complexe grande latitude pour constituer sa
avec le terrain. base de données.

• Le recueil implique l’accès à des


bases de données existantes.

Difficultés • Le fait d’être " juge et partie " • Le chercheur ne peut que rarement
d’analyse peut introduire des distorsions compléter ou clarifier des données
dans l’analyse des données partielles, ambiguës ou
produites (poursuite d’un modèle contradictoires.
implicite dans l’analyse).

Tableau 3: Les contraintes inhérentes aux données primaires et secondaires

2.3. La complémentarité des données primaires et secondaires

Les données primaires et secondaires sont complémentaires tout au long du processus du recherche.
L’incomplétude des données primaires peut être corrigée par des données secondaires, par exemple
historiques, pour mieux comprendre l’arrière-plan ou confronter le terrain avec des informations qui lui sont
externes. À l’inverse, une recherche dont le point de départ est constitué de données secondaires (par
exemple, sur une base de donnée statistiques d’investissements directs à l’étranger) pourra être utilement
appuyée par des données primaires (par exemple, des entretiens avec des investisseurs). La difficulté réside
dans l’évaluation de sa propre base d’information par le chercheur. Il est fort possible qu’il s’aperçoive que sa
base d’information était insuffisante lors de l’analyse des données, ce qui impliquera un retour à une phase
de recueil de données, soit primaires soit secondaires (voir figure 2).

Figure 2 : Des aller-retours entre données primaires et secondaires

Section 2. Le choix d’une approche : qualitatif et/ou quantitatif ?


La question qui se pose au chercheur réside dans le choix de l’approche qu’il va mettre en œuvre pour
collecter et analyser les données. En d’autres termes, comment va-t-il aborder la dimension empirique de sa
recherche ? Nous examinerons tout d’abord dans cette section ce qui distingue l’approche qualitative de
l’approche quantitative. Nous montrerons ensuite comment ces deux approches peuvent se révéler
complémentaires.

1. La distinction entre l’approche qualitative et l’approche quantitative

Il est de tradition en recherche de faire une distinction entre le qualitatif et le quantitatif (Grawitz, 1993).
Pourtant cette distinction est à la fois équivoque et ambiguë, ce qui conduit Brabet à s’interroger : " faut-il
encore parler d’approche qualitative et d’approche quantitative?" (1988). Comme le montre cet auteur, la
distinction est équivoque car elle repose sur une multiplicité de critères. Lorsqu’on consulte des ouvrages de
méthodologie de recherche à la rubrique portant sur la distinction entre le qualitatif et le quantitatif, on peut y
trouver des références aux " données qualitatives et quantitatives " (Evrard & al., 1993; Glaser & Strauss,
1967; Miles et Huberman, 1991; Silverman, 1993), aux variables qualitatives et quantitatives (Evrard & al.,
1993; Lambin, 1990) aux " méthodes qualitatives et quantitatives " (Grawitz, 1993) et enfin aux " études
qualitatives " (Lambin, 1990, Evrard, 1993). La distinction entre le qualitatif et le quantitatif est, de plus,
ambiguë car aucun de ces critères ne permet une distinction absolue entre l’approche qualitative et
l’approche quantitative. Nous nous livrerons à présent à un examen critique des différents critères que sont la
nature de la donnée, l’orientation de la recherche, le caractère objectif ou subjectif des résultats obtenus et la
flexibilité de la recherche.

Nous n’avons pas jugé utile de traiter du mode de collecte des données, qui est une des caractéristiques
distinctives des approches qualitative et quantitative. En effet, la collecte des données est présentée dans un
autre chapitre de cet ouvrage (cf. chapitre 9, Ibert, Baumard, Donada et Xuereb).

1.1. La distinction qualitatif/quantitatif selon la nature de la donnée.

La distinction entre qualitatif et quantitatif passe-t-elle par la nature même de la donnée?

De nombreux auteurs distinguent les données qualitatives et les données quantitatives. Pour Miles et
Huberman (1991), " les données qualitatives (...) se présentent sous forme de mots plutôt que de chiffres".
Selon Yin (1989 :88), les " données numériques " apportent des preuves de nature quantitative, tandis que
les " données non numériques " fournissent des preuves de nature qualitative. Toutefois, la nature de la
donnée ne dicte pas forcément un mode de traitement identique. Le chercheur peut très bien procéder, par
exemple, à un traitement statistique et, par conséquent, quantitatif avec des variables nominales.

Selon Evrard et al. (1991 :35), les données qualitatives correspondent à des variables mesurées sur des
échelles nominales et ordinales (c’est à dire non métriques), tandis que les données quantitatives sont
collectées avec des échelles d’intervalles (ou cardinales faibles) et de proportion (ou cardinales fortes ou
encore ratio). Ces échelles peuvent être hiérarchisées en fonction de la qualité de leurs propriétés
mathématiques. Comme le montre la figure 3, cette hiérarchie va de l’échelles nominale, la plus pauvre d’un
point de vue mathématique, à l’ échelle de proportion, l’élite des échelles de mesure.
Figure 3 : La hiérarchie des échelles de mesure

Comme le montre la figure 3, les variables mesurées sur des échelles nominales ne permettent que d’établir
des relations d’identification ou d’appartenance à une classe. Que ces classes soient constituées de nombres
ne change rien à leur propriété (exemple : un numéro de département ou encore un numéro arbitraire pour
identifier la classe). "Pour ce type de mesure, aucune des trois propriétés des nombres n’est rencontrée :
l’ordre est arbitraire, l’unité de mesure peut être variable et l’origine des nombres utilisés est également
arbitraire." (Lambin, 1990: 128). Le seul calcul statistique permis est celui de la fréquence. Avec les variables
mesurées sur des échelles ordinales, on peut obtenir un classement mais l’origine de l’échelle reste arbitraire.
Les intervalles entre catégories étant inégaux, les calculs statistiques se limitent à des mesures de position
(médiane, quartiles, déciles...). On ne pourra effectuer des opérations arithmétiques sur ces données. Dès
lors que les intervalles entre catégories deviennent égaux, on peut parler d’échelles d’intervalles. Les
variables mesurées sur ce type d’échelle peuvent être soumises à plus de calculs statistiques. On passe donc
à des données dites " quantitatives " ou à des échelles " métriques ". On peut dès lors opérer des
comparaisons d’intervalles, des rapports de différence ou de distance. Les calculs de moyenne et d’écarts-
types sont autorisés. Toutefois le zéro est défini de façon arbitraire. L’exemple le plus connu d’échelle
d’intervalles est celui de la mesure des températures. On sait que le zéro degré de l’échelle Celsius,
température de solidification de l’eau, correspond au 32 degrés de l’échelle Farenheit. On peut donc convertir
une donnée d’une échelle à une autre, moyennant une transformation linéaire positive (y = ax + b, avec a>0).
Par contre, en l’absence d’un zéro naturel, on ne peut effectuer des rapports entre grandeurs absolues. Par
exemple, on ne peut dire " qu’hier, il faisait deux fois plus chaud qu’aujourd’hui ", mais que " la température
était du double de degré Celsius qu’hier ". Si on convertit les deux températures en degrés Farenheit, on se
rend compte que ce " deux fois " est inapproprié. Le rapport entre les deux mesures n’est donc pas
indépendant du choix arbitraire du zéro de l’échelle de mesure. Avec l’existence d’un zéro naturel, on passe à
des échelles de proportion. C’est le cas des mesures monétaires, de longueur ou de poids. Ces données sont
donc les plus riches en termes de calcul statistiques puisque le chercheur pourra analyser des rapports de
grandeurs absolues sur des variables telles que l’ancienneté dans l’entreprise, les salaires... Le tableau 4
présente un bref résumé des opérations mathématiques permises sur les différentes données correspondant
à des variables mesurées sur les différents types d’échelle.

Données qualitatives Échelles non- Données


métriques quantitatives
Échelles
métriques

Opérations permises Nominales Ordinales Intervalles Proportion


Comparaison de base Oui - - - Oui Oui - - Oui Oui Oui Oui Oui
Oui - Oui
Identification, appartenance

Classement ordonné

Rapport de différences

Rapport de grandeurs
absolues

Tendance centrale Oui - - Oui Oui - Oui Oui Oui Oui Oui
Oui
Mode

Médiane

Moyenne

Dispersion -- Oui - Oui Oui Oui Oui

Écarts interfractiles

Variance, écart-type

Adapté de Peeters in Lambin (1990: 132)

Tableau 4 : Types d’opérations et types de données collectées

Les éléments que nous venons d’exposer sur les données qualitatives et sur les données quantitatives
montrent bien que la nature de la donnée ne dicte pas une approche de recherche quantitative ou qualitative.
Du reste, Evrard et al. précisent bien qu’il ne faut pas confondre les données qualitatives et les données
quantitatives avec les études portant le même vocable (1990: 583). Pour distinguer l’approche qualitative et
l’approche quantitative, il nous faut évaluer d’autres critères.

1.2. La distinction qualitatif/quantitatif selon l’orientation de la recherche : construire ou tester

La recherche en science de gestion est caractérisée par deux grandes orientations : la construction ou le test
d’un objet théorique. S’il s’oriente vers la vérification, le chercheur une idée claire et établie de ce qu’il
cherche. À l’opposé, si le chercheur s’oriente vers une démarche exploratoire, caractéristique de la
construction théorique, le chercheur ignore en grande partie la teneur de ce qu’il va mettre à jour (cf. chapitre
3, Charreire & Durieux). Comme l’a dit sans fard Coombs, " le problème du psychologue social, pour le dire
carrément consiste à se demander s’il sait ce qu’il cherche ou s’il cherche à savoir " (1974; cité par Grabet,
1988).

Il est classique de lier l’exploration à une approche qualitative et la vérification à une approche quantitative
(Grabet, 1988). À ce propos, Silverman distingue deux " écoles " en science sociale, l’une orientée sur le test
quantitatif d’hypothèses et l’autre tournée vers la génération qualitative d’hypothèses (1993). Il s’agit pourtant
encore une fois d’une idée reçue car pour construire ou pour tester, le chercheur peut adopter tout aussi bien
une approche quantitative qu’une approche qualitative (cf. chapitre 3, Charreire & Durieux). " Il n’y a pas de
conflit fondamental entre les buts et les potentialités des méthodes ou des données qualitatives et
quantitatives. (...) Chacune des formes de données est utile pour la vérification et la génération de théorie
" (Glaser & Strauss, 1967: 17-18). L’évolution des possibilités de traitement statistique obtenue grâce aux
progrès de l’informatique, a accru les potentialités de l’approche quantitative dans les démarches
exploratoires (Grabet, 1988). De manière symétrique, rien n’empêche un chercheur de réfuter une théorie au
travers d’une approche qualitative, en montrant son insuffisance à expliquer des faits de gestion
d’organisation. C’est ainsi que Whyte (1955) a réfuté, au travers d’une approche qualitative menée sur un
seul site essentiellement par observation participante, le modèle dominant de " désorganisation sociale " mis
en avant par l’école sociologique de Chicago pour rendre compte de la vie sociale dans les quartiers pauvres
des grandes villes américaines. Il faut cependant souligner que les chercheurs choisissent rarement une
approche qualitative avec la seule perspective de tester une théorie. En général, ce choix est accompagné
également d’une orientation encore plus marquée vers la construction. Cette tendance s’explique par le coût,
notamment en temps, d’une approche qualitative qui ne serait destinée qu’à tester une théorie. Imaginons
que le test s’avère positif. Le chercheur n’aura d’autre choix que de reconduire une autre campagne de
recueil et d’analyse. En effet, l’approche qualitative enferme le chercheur dans une démarche de falsification :
le seul objectif ne peut être que de réfuter la théorie et en aucun cas de la valider. Le rôle de l’approche
qualitative n’est pas de produire la généralisation d’une théorie existante. Stake souligne à propos de l’étude
de cas, qu’il positionne dans l’approche qualitative, que tout au plus " par le contre-exemple, l’étude de cas
invite à la modification d’une généralisation " (1995, p. 8). Cette modification implique une construction. La
limite de l’approche qualitative réside dans le fait qu’elle s’inscrit dans une démarche d’étude d’un contexte
particulier. Bien sûr, le recours à l’analyse de plusieurs contextes permet d’accroître la validité externe d’une
recherche qualitative selon une logique de réplication (cf. chapitre 10, Drucker, Ehlinger & Grenier).
Cependant, " les constats ont toujours un contexte qui peut être désigné mais non épuisé par une analyse
finie des variables qui le constituent, et qui permettrait de raisonner toutes choses égales par ailleurs
" (Passeron, 1991: 25). Ces limites de l’approche qualitative en terme de généralisation conduisent à
accorder plus de validité externe aux approches quantitatives. À l’opposé, l’approche qualitative offre plus de
garantie sur la validité interne des résultats. Les possibilités d’évaluation d’explications rivales du phénomène
étudié sont plus grandes que dans l’approche quantitative car le chercheur peut mieux procéder à des
recoupements entre les données. L’approche qualitative accroît l’aptitude du chercheur à décrire un système
social complexe (Marshall & Rossman, 1989).

Le choix entre une approche qualitative et une approche quantitative apparaît donc plus dicté par des critères
d’efficience par rapport à l’orientation de la recherche, construire ou tester. Bien que les garanties de validité
interne et de validité externe doivent être envisagées conjointement quel que soit le type de recherche, le
chercheur doit se déterminer sur la priorité qu’il accorde à la qualité des liens de causalité entre les variables
ou à la généralisation des résultats pour choisir entre une approche qualitative et une approche quantitative.
L’idéal serait évidemment de garantir au mieux la validité des résultats en menant conjointement les deux
approches.

1.3. La distinction qualitatif/quantitatif selon le caractère objectif ou subjectif des résultats obtenus

Il est généralement reconnu que l’approche quantitative offre une plus grande garantie d’objectivité. Les
impératifs de rigueur et de précision qui caractérisent les techniques statistiques plaident en ce sens. Il n’est
donc pas surprenant que l’approche quantitative soit ancrée dans le paradigme positiviste (Silverman, 1993).
Dans la comparaison entre les méthodes qualitatives et quantitatives, Grawitz pose, de façon presque
caricaturale, une interrogation fondamentale : " Vaut-il mieux trouver des éléments intéressants dont on n’est
pas certain, ou être sûr que ce que l’on trouve est vrai, même si ce n’est pas très intéressant ?" (1993: 321).
La question suggère que le caractère objectif ou subjectif des résultats constitue une ligne de séparation
entre l’approche qualitative et l’approche quantitative. Il convient donc d’analyser plus finement ce critère.
Nous verrons qu’il existe plusieurs subjectivités des résultats de la recherche qui peuvent qualifier différentes
approches qualitatives. Nous montrerons également que certains partisans de l’approche qualitative ont
entamé une réflexion pour réduire la subjectivité, historiquement attachée à cette tradition de recherche.

Sur la subjectivité plusieurs positions sont mises en avant. En premier lieu, le développement de l’approche
qualitative a été caractérisé par la prise en compte de la subjectivité du chercheur. Le repère suivant montre
en quoi l’objectivisme et le subjectivisme s’opposent quant à la posture et à l’approche du chercheur vis à vis
de l’objet de recherche.

Repère : Objectivisme versus subjectivisme (Coulon, 1987: 50-51)

" L’objectivisme isole l’objet de la recherche, introduit une séparation entre observateurs et
observés, relègue le chercheur dans une position d’extériorité, cette coupure épistémologique
étant jugée nécessaire à l’objectivité de l’observation. (...) La tradition objectiviste se donne des
objets de recherche qui acceptent les contraintes des méthodes d’observation et de production
qui sont les plus souvent assises sur la quantification, ou tout au moins sur l’obsession
horlogère de la mesure. (...) Le subjectivisme prend le contre-pied de ces conceptions : l’objet
n’est plus une entité isolée, il est toujours en interrelation avec celui qui l’étudie; il n’y a pas de
coupure épistémologique, la nécessaire objectivation de la pratique prend en compte les
implications de toute nature du chercheur, dont la subjectivité est rétablie et analysée comme
appartenant de plein droit au champ considéré.(...) Les méthodes employées relèvent
davantage de l’analyse qualitative, l’unique pouvant être significatif comme le non-mesurable."
Selon Erickson (1986), la caractéristique la plus distinctive de l’enquête qualitative réside dans la mise en
exergue de l’interprétation. Cette interprétation ne doit pas être celle du chercheur mais celles des individus
qui sont étudiés. Ce positionnement de l’approche qualitative s’apparente aux préceptes des tenants de
l’interactionnisme symbolique qui considèrent que " l’authentique connaissance sociologique " nous est livrée
" dans le point de vue des acteurs, quel que soit l’objet de l’étude, puisque c’est à travers le sens qu’ils
assignent aux objets, aux situations, aux symboles qui les entourent, que les acteurs fabriquent leur monde
social " (Coulon, 1987: 11). L’approche qualitative ne limite pas l’interprétation à l’identification de variables,
au développement d’instruments de collecte de données et à l’analyse pour établir des résultats. Il s’agit
plutôt pour le chercheur de se positionner comme un interprète du terrain étudié, même si sa propre
interprétation peut être plus appuyée que celle des sujets (Stake, 1995: 8). L’approche qualitative admet tout
à la fois, la subjectivité du chercheur et celle des sujets. Elle offre l’opportunité d’une confrontation avec des
réalités multiples car elle " expose plus directement la nature de la transaction " entre l’investigateur et le sujet
(ou l’ objet) et permet une meilleure évaluation de sa posture d’interaction avec le phénomène décrit (Lincoln
& Guba, 1985: 40).

Un positionnement constructiviste n’implique pas non plus que le critère d’objectivité soit éludé. Ce critère
d’objectivité peut être envisagé comme un " agrément intersubjectif ". " Si de multiples observateurs sont en
mesure d’émettre un jugement collectif sur un phénomène, on peut dire qu’il est objectif " (Lincoln & Guba,
1985: 292).

L’approche qualitative n’exclut pas une posture épistémologique d’objectivité de la recherche par rapport au
monde qu’elle étudie. Certains promoteurs de l’approche qualitative, Glaser & Strauss (1967) notamment, en
ont développé une conception positiviste. Dans leur ouvrage de référence sur l’approche qualitative, Miles et
Huberman postulent " que les phénomènes sociaux existent non seulement dans les esprits mais aussi dans
le monde réel et qu’on peut découvrir entre eux quelques relations légitimes et raisonnablement stables
" (1991: 31). Les deux auteurs plaident pour un " positivisme aménagé " et suggèrent la " construction d’une
chaîne logique d’indices et de preuves " à des fins d’objectivité des résultats. Le repère suivant précise en
quoi consiste et quel est le rôle d’une chaîne de preuves.

Repère : La chaîne de preuve

" Le chercheur de terrain construit peu à peu cet enchaînement de preuves, identifiant en
premier lieu les principaux facteurs, ébauchant les relations logiques qui les unissent, les
confrontant aux informations issues d’une nouvelle vague de recueil de données, les modifiant
et les affinant en une nouvelle représentation explicative qui, à son tour, est testée sur de
nouveaux sites ou dans des situations nouvelles. (...) Dans sa forme la plus achevée, la
méthode combine deux cycles imbriqués. Le premier s’intitule "induction par énumération" qui
consiste à recueillir des exemples nombreux et variés allant tous dans la même direction. Le
second est 1’ "induction par élimination", où l’on teste son hypothèse en la confrontant à
d’autres et où l’on recherche soigneusement les éléments pouvant limiter la généralité de sa
démonstration. Quand les chercheurs qualitatifs évoquent la "centration progressive", ils parlent
en fait d’induction par énumération et lorsqu’ils passent aux "comparaisons constantes" et aux
"corroborations structurales", ils adoptent un mode de travail plus proche de l'induction par
élimination. La logique du "modus operandi" utilisé comme outil de localisation de problèmes
dans plusieurs professions médecins légistes, garagistes, cliniciens, officiers de police,
enseignants - reflète bien ce va-et-vient entre l'induction par énumération et l'induction par
élimination." (Miles & Huberman, 1991: 412-413).

Yin assigne une autre fonction à la chaîne de preuves: " Le principe (du maintien de la chaîne
de preuve) est de permettre à un observateur externe – le lecteur de l’étude de cas, par
exemple – de suivre le cheminement de n’importe quelle preuve présentée de la question de
recherche initiale aux conclusions ultimes du cas. De plus, cet observateur externe doit être
capable de retracer les étapes dans n’importe quelle direction (de la conclusion en arrière vers
la question initiale, ou des questions vers la conclusion) " (Yin, 1984, p. 103).

En définitive, la collecte et l’analyse des données doivent rester cohérentes avec un positionnement
épistémologique explicite du chercheur. Si l’approche qualitative permet d’introduire une subjectivité
incompatible avec l’approche quantitative, elle ne peut cependant être circonscrite à une épistémologie
constructiviste.

1.4. La distinction qualitatif/quantitatif selon la flexibilité de la recherche

La question de la flexibilité dont dispose le chercheur pour mener à bien son projet de recherche est elle
aussi un élément crucial dans le choix d’une approche qualitative ou quantitative. " Dans le domaine de la
recherche sur la gestion et les organisations, il est clair que les événements inattendus et dignes d’intérêt
sont propres à bouleverser n’importe quel programme, et que la vraie question n’est pas celle du respect du
programme, mais celle de la manière de saisir intelligemment les possibilités d’observation qu’offrent les
circonstances" (Girin, 1989: 2) ".

Dans l’approche qualitative, la question de recherche peut être modifiée à mi-parcours afin que les résultats
soient vraiment issus du terrain (Stake, 1995). Il est évidemment difficile de modifier la question de recherche
dans la démarche plus rigide qu’induit l’approche quantitative, compte tenu du coût qu’une telle modification
entraînerait. Avec l’approche qualitative, le chercheur bénéficie en général d’une plus grande flexibilité dans
le recueil de données. L’approche quantitative n’offre pas cette souplesse car elle implique généralement un
calendrier plus rigide. Par ailleurs, une fois le questionnaire administré sur un grand échantillon d’une
population, il est difficile d’envisager d’évaluer de nouvelles explications rivales, à moins de remettre en
chantier le programme de recherche.

2. Les stratégies de complémentarité entre les approches : séquentialité et triangulation

Le chercheur peut tout d’abord avoir intérêt à utiliser la complémentarité des approches qualitative et
quantitative dans la perspective d’un processus séquentiel. Une étude exploratoire, menée au travers d’une
approche qualitative, constitue souvent un préalable indispensable à toute étude quantitative afin de délimiter
la question de recherche, de se familiariser avec cette question ou avec les opportunités et les contraintes
empiriques, de clarifier les concepts théoriques ou d’expliciter des hypothèses de recherche (Lambin, 1990).
Dans ce cas, l’approche qualitative constitue une étape nécessaire à la conduite d’une approche quantitative
dans les meilleures conditions. Rappelons que l’approche quantitative par son important degré d’irréversibilité
nécessite des précautions qui conditionneront le succès du projet de recherche.

Dans une toute autre perspective, le chercheur peut associer le qualitatif et le quantitatif par le biais de la
triangulation. Il s’agit d’utiliser simultanément les deux approches pour leurs qualités respectives. "
L’achèvement de construits utiles et hypothétiquement réalistes dans une science passe par l’utilisation de
méthodes multiples focalisées sur le diagnostic d’un même construit à partir de points d’observation
indépendants, à travers une sorte de triangulation " (Campbell et Fiske, 1959: 81). L’idée est d’attaquer un
problème formalisé selon deux angles complémentaires dont le jeu différentiel sera source d’apprentissages
pour le chercheur. La triangulation a donc pour objectif d’améliorer à la fois la précision de la mesure et celle

de la description (voir figure 4).

Figure 4: La triangulation

La triangulation permet de mettre le dispositif de recherche à l’épreuve en s’assurant que les découvertes ne
sont pas le seul reflet de la méthodologie (Bouchard, 1976). Il ne s’agit pas pour autant de confondre la
nature des données et celle des méthodes. Utiliser des données complémentaires ne constitue pas en soi
une triangulation, mais un fait naturel propre à la plupart des recherches (Downey et Ireland, 1979). C’est une
erreur de croire que le chercheur "qualitatif" n’utilise pas de données quantitatives et qu’il est en quelque
sorte opposée à la mesure (Miles, 1979). Le fait qu’un chercheur utilise un système symbolique numérique
pour traduire la réalité observée, ou un système symbolique verbal, ne définit pas fondamentalement le type
d’approche. Dans leur manuel d’analyse qualitative, Miles et Huberman suggèrent de procéder à un
comptage des items pour cerner leur récurrence : " les chiffres (...) sont plus économiques et plus
manipulables que les mots; on "voit" plus vite et plus facilement la tendance générale des données en
examinant leur distribution " (1989: 385).

La conjugaison des approches qualitatives et quantitatives, c’est-à-dire leur utilisation complémentaire et


dialectique permet au chercheur d’instaurer un dialogue différencié entre ce qui est observé (l’objet de la
recherche) et les deux façons de le symboliser. L’objectif de la triangulation est de tirer partie de ce que les
deux approches peuvent offrir : " les méthodes qualitatives représentent un mélange de rationalité, de
sérendipité et d’intuition dans lequel les expériences personnelles du chercheur sont souvent des
événements-clés à être interprétés et analysés comme des données. Les investigateurs qualitatifs tendent à
dévoiler les processus sociaux plutôt que les structures sociales qui sont souvent les points de focalisation
des chercheurs quantitativistes " (Van Maanen, 1979: 520). Ainsi, la triangulation permet au chercheur de
bénéficier des atouts des deux approches en contrebalançant les défauts d’une approche par les qualités de
l’autre (Jick, 1979).

Conclusion
L’articulation entre données, approches et finalités de la recherche est une étape essentielle du processus de
recherche. Les choix du chercheur sont cependant en partie déterminés par des facteurs extérieurs à l’objet
de la recherche lui-même. La limite des ressources temporelles peut en effet amener le chercheur à faire des
compromis entre l’exhaustivité nécessaire (en termes de validité interne et externe) et la volonté de produire
des résultats. Le chercheur peut opter pour un " opportunisme méthodique ". En se concentrant sur les unités
d’analyse les plus accessibles, il va réviser ses ambitions et adapter sa question de recherche. Il peut, à ce
titre, réduire les échantillons, préférer des populations exemplaires pour construire une théorie ou encore
tester seulement une partie des théories intialement envisagées. À l’opposé, il peut adopter une démarche
plus systématique et plus ambitieuse, en recourant à une triangulation à la fois des méthodes et des données
sollicitées. Entre ces deux extrêmes, le chercheur dispose d’une variété d’articulations entre données,
approches et finalités. Nous n’avons pas, à cet égard, décrit toutes les possibilités. Il nous a semblé plus
pertinent de souligner certaines incompatibilités afin d’inviter à un certain réalisme.

Le chercheur se préoccupe le plus souvent de sa " contribution à la littérature ". Cette formule laisse entendre
que l’essentiel d’un travail de recherche est de produire de nouveaux résultats. Il est pourtant une autre
contribution à la recherche en management, qui n’exclut pas celle que nous venons de désigner. Il s’agit des
innovations que le chercheur peut apporter dans l’articulation entre données, approches et finalités. En
montrant comment il faut aller à l’encontre des idées reçues tant sur les différents types de données, que sur
la portée des différentes approches, nous espérons avoir fait un apport utile. Enfin, il nous semble plus
constructif de prendre en compte la complémentarité, plutôt que l’opposition, entre les différents types de
données et les différentes approches permettant leur recueil et leur analyse.

Bibliographie indicative
Campbell D. T. et Fiske D.W. (1959), " Convergent and discriminent validation by the multitrait-
multimethod matrix ", Psychological Bulletin, 56, pp. 81-105.

Evrard, Y.; Pras, B. & Roux, E. (1993), Market. Études et recherches en marketing, Paris : Nathan.

Lambin, J.-J. (1990), La recherche marketing, Paris : McGraw-Hill.

Lincoln, Y., S. & Guba, E., G. (1985), Naturalistic inquiry, Beverly Hills, CA : Sage.

Miles, A. M. & Huberman, A. M. (1984), Analysing qualitative data : A source book for new methods.
Bervely Hills, CA : Sage. Traduction française (1991), Analyse des données qualitatives : Recueil de
nouvelles méthodes. Bruxelles: De Boeck.

Références
Blaug, M. (1982), La méthodologie économique, Paris: Economica.

Bouchard, T J. (1976), " Field Research Methods: Interviewing, Questionnaires, Participant


Observation, Systematic Observation, Unobstrusive Measures ", pp. 363-413 in: Marvin D. Dunette
(Ed.), Handbook of Industrial and Organizational Psychology, Chicago: Rand McNally College
Publishing Co.

Brabet, J. (1988), " Faut-il encore parler d’approche qualitative et d’approche quantitative ? ",
Recherches et Applications en Marketing, Vol. III, N° 1, pp. 75-89.

Campbell D. T. et Fiske D.W. (1959), " Convergent and discriminent validation by the multitrait-
multimethod matrix ", Psychological Bulletin, 56, pp. 81-105.

Caroll, L. (1992), La logique sans peine, rassemblement de textes tirés de Symbolic logic (1896) et de
Fallacies (1894), Paris: Hermann.

Coulon, A (1987), L’ethno-méthodologie. Coll. Que sais-je? Paris : Presses Universitaires de France.

Downey, K. H. et Ireland, D. R., (1979), " Quantitative versus Qualitative : Environment Assessment in
Organizational Studies ", Administrative Science Quaterly, 24, pp. 630-637.

Girin, J. (1989), "L’opportunisme méthodique dans les recherches sur la gestion des organisations ",
communication à la journée d’étude La recherche-action en action et en question, AFCET, Collège de
systémique, École Centrale de Paris (10 mars 1989), 11 pages.

Glaser, B. G., & Strauss, A. L. (1967), The Discovery of Grounded Theory. New York : Aldine
Publishing Company.

Grawitz, M. (1993), Méthodes des sciences sociales, Paris : Dalloz.

Erickson, F. (1986), "Qualitative methods in research on teaching". in M. Wittrock (Ed.), Handbook of


research on teaching, pp. 119-161, New-York : Macmillan.

Evrard, Y.; Pras, B. & Roux, E. (1993), Market. Études et recherches en marketing, Paris : Nathan.

Jick, T. D., (1979), " Mixing Qualitative and Quantitative Methods: Triangulation in Action ",
Administrative Science Quaterly, 24, 602-611.

Kœnig, G., (1996), " Karl E. Weick ", série les Constructeurs, Revue française de gestion, mars-avril,
N° 108, pp. 57-70.

Kuhn, T. (1970), The structure of scientific revolutions, Chicago: University of Chicago Press.

Lakatos, I. (1965), " Falsification and the methodology of scientific research programs ", in: I. Lakatos
et A. Musgrove (Eds.), Criticism and the Growth of Knowledge, Cambridge: Cambridge University
Press.

Lambin, J.-J. (1990), La recherche marketing, Paris : McGraw-Hill.

Lincoln, Y., S. & Guba, E., G. (1985), Naturalistic inquiry, Beverly Hills, CA : Sage.

Marshall, C. & Rossman, G., B. (1989), Designing Qualitative Research, Beverly Hills, CA : Sage.

Miles, A. M. & Huberman, A. M. (1984), Analysing qualitative data : A source book for new methods.
Bervely Hills, CA : Sage. Traduction française (1991), Analyse des données qualitatives : Recueil de
nouvelles méthodes. Bruxelles: De Boeck.

Miles, M. B. (1979), " Qualitative Data as an Attractive Nuisance : The Problem of Analysis ",
Administrative Science Quaterly, 24, pp. 590-601.

Passeron, J.-C. (1991), Le raisonnement sociologique, l’espace non-poppérien du raisonnement


naturel. Paris : Nathan.

Podsakoff, P. M. et Dalton D. R. (1987), " Research methodology in organization studies ", Journal of
Management, 13: 419-441.

Silverman, D. (1993), Interpreting Qualitative Data, London : Sage.

Stablein, Ralph (1996), "Data in Organization Studies", p. 509-525 in: S.R. Clegg, C. Hardy et W.R.
Nord (Eds.), Handbook of Organization Studies, Londres: SAGE.

Stake, R. E. (1995), The Art of the Case Study Research. Thousand Oaks, CA : Sage.
Starbuck W. H., Miliken F. J., (1988), "Executive Perceptual Filters: What they notice and how they
make sense", in D. Hambrick (Ed.), The Executive Effect: concepts and methods for studying top
managers, pp. 35-65, Greenwich, CT: JAI Press.

Van Maanen, J (1979), " Reclaiming Qualitative Methods for Organizational Research: A Preface ",
Administrative Science Quaterly, 24, pp. 520-526.

Webb, E. et Weick, K.E. (1979), " Unobstrusive Measures in Organizational Theory : A Reminder ",
Administrative Science Quaterly, Vol. 24, p. 651-659.

Weick, K. E., (1993), " The collapse of sense-making in organizations : the Mann Gulch disaster ",
Administrative Science Quaterly, 38, pp. 628-652.

Whyte, W. F. (1955), Street Corner Society. Chicago, Ill. : Chicago University Press. Traduction
française (1996), Street corner society, la structure sociale d’un quartier italo-américain. Paris: La
Découverte.

Yin, R. (1984, réed.1989), Case study research, Design and methods . Newbury Park. CA : Sage.

Vous aimerez peut-être aussi