Economie Industrielle Complet

Télécharger au format doc, pdf ou txt
Télécharger au format doc, pdf ou txt
Vous êtes sur la page 1sur 42

Economie Industrielle

Introduction : les développements de l’économie industrielle

L’économie industrielle a pour objet l’étude des firmes et des structures de marché
(monopole, oligopole, firme dominante, concurrence pure et parfaite). On s’intéresse aux liens
entre les stratégies des firmes et les structures de marché et à l’évolution des industries
(politiques publiques, le progrès technique).

L’Industrie renvoie à des activités de production manufacturière, de transformation de


matières premières et/ou de bien intermédiaires en produits et services. On parle aussi
d’industrie des services.

Une industrie correspond à l’ensemble des firmes qui produisent des biens ou des services
étroitement substituables (proches) qui se trouvent donc en concurrence sur le même marché.
L’élasticité croisée prix de ces biens est relativement élevé (augmentation du prix d'un bien
=> augmentation de la demande d'un autre bien) - Ed/p = dQ/dP . P/Q L’hypothèse de biens
homogènes n’existe pas dans la réalité car les firmes cherchent toujours à se différencier.

L’économie industrielle critique la micro économie standard. Elle est l’étude de la


concurrence imparfaite, donc de défaut ou de défaillance du marché (lorsqu’on s’éloigne de
l’équilibre de long terme). Ces défauts constituent ici la règle. On va donc lever les cinq
hypothèses de concurrence pure et parfaite :

- Atomicité != concurrence imparfaite (concentration industrielle)


- Fluidité != barrières a l’entrée
- Homogénéité du produit != différenciation du produit (prix pas fixés, stratégie de prix)
- Transparence du marché != information imparfaite des producteurs et consommateurs
- Libre circulation des facteurs de production

L’économie industrielle se caractérise par un dualisme méthodologique. Elle part toujours de


l’empirique pour essayer d’en déduire des liens de causalités (lois). La seconde préoccupation
est de nature théorique : construction de modèles théoriques pouvant faire avancer la réflexion
sur un phénomène industriel donné. L’approche sera inductive (ou positive) et non normative
(concurrence pure et parfaite). On développe des outils, des modèles, des concepts pour
mieux appréhender la réalité industrielle.

1
1. L’école anglo-américaine

1.1 Pères fondateurs de l’économie industrielle (IO)

1.1.1 Alfred Marshall (1842 – 1924)


Il s'est intéressé aux transformations du système productif dû à la révolution industrielle. Il
était un défenseur de la méthode empirique et de l'IO. Au départ ce terme désigne cette
nouvelle forme d’entreprise qui apparaît avec la révolution industrielle (grandes entreprises
qui produisent à grande échelle). Il insiste sur la nécessité d’une analyse dynamique qui tient
compte du temps historique (ajout de variables temporelles et surtout d’interactions entre
variables). Il faisait une différenciation entre le CT et le LT.

Il a introduit la notion de courbe d’expérience qui explique les rendements d’échelle. Les
firmes font des économies internes et des économies externes. Le CM diminue. Les
économies externes sont liées aux débouchées plus stable, à l’amélioration des prix des
fournisseurs et à la qualité des consommations intermédiaires.

|C
|
|
|
|
|
|
|_________________________ Q

Courbe d’expérience

Depuis 1840, l’accroissement des firmes est significatif et durable, et à la fin du 19ème les
premiers géants industriels apparaissent. Ce phénomène va-t-il mener à des monopoles dans
toutes les industries ? Marshall étudie le monopole sur l’exemple de la distribution de gaz et
se demande si l’état doit intervenir.

En 1890, la première loi antitrust est votée aux Etats Unis : Sherman Act. Cette loi prohibe le
monopole et les tentatives de monopolisation. Elle interdit aussi toute forme de collusion et
prévoit des pénalités en cas de non respect de la loi. Il faut garder un certain niveau de
concurrence pour l’efficience des marchés.

Il est le premier à travailler sur l’organisation territoriale de l'IO, et introduit le concept de


« districts industriels » (technopoles : silicone valley). Il suggère de localiser les firmes à
proximité les unes des autres. Cela permet des économies externes locales (limitation des coût
de transaction : transport, coordination, communication), et permet une dynamique positive de
recherche. Cela crée une « atmosphère industrielle » propice à une plus grande efficacité.
1.1.2. La concentration industrielle : Berles et Means (1932)
Une « industrie est concentrée » quand la production se répartie entre peu de firmes de
grandes tailles. Ils quantifient pour la première fois la concentration industrielle. En 1940, ils
montrent que la moitié du capital américain appartient à moins de 200 firmes, dont la taille
augmente encore. A la fin des années 1950 on arrive à moins de 100 firmes.

2
Le phénomène s’est ensuite ralenti avec une stabilisation progressive du degré de
concentration, avant tout en raison les lois antitrust. La forte croissance des 30 glorieuses a
aussi permis de créer de nouvelles entreprises et donc de diminuer la concentration.

Ils constatent aussi que les dirigeants d’entreprise possèdent en moyenne moins de 3% du
capital. Les dirigeants ne sont donc pas les véritables propriétaires. Les vrais propriétaires
sont les actionnaires qui ne dirigent pas l’entreprise. Ce phénomène de séparation est un
phénomène post industrialisation.

1.1.3. La concurrence imparfaite : Chamberlain et Robinson


Robinson est une post Keynésienne de l’école de Cambridge qui s’est intéressée à la
concurrence imparfaite et en particulier à l’exploitation monopolistique des facteurs de
production. Elle contredit Keynes qui pense que les facteurs de production sont rémunérés à
leur productivité marginale.

En concurrence imparfaite, les entreprises ont tendance à rémunérer leurs facteurs de


production à une valeur inférieure à leur produit marginal net. Ce qui implique que les
entreprises ont tendance à payer des salaires inférieurs au produit marginal du travail. Cela
constitue selon elle, une exploitation monopolistique du facteur travail et permet aux firmes
de réaliser des surprofits.

Dans son analyse elle travaille aussi sur les rendements croissants. Elle remet en cause
l'hypothèse de forme en U des fonctions de coûts (la simple observation de l’évolution de la
taille des firmes la remet en cause).

L’Analyse de Chamberlain porte également sur la concurrence imparfaite, mais selon lui,
l’imperfection de la concurrence est liée à l’action volontaire des firmes qui se délimitent un
domaine de marché.

Les firmes différencient leurs produits pour s’accaparer un segment de marché. Il existe
différentes formes de différenciations dont chaque forme apporte un élément de monopole. La
différenciation leur permet ainsi de pratiquer un prix plus élevés, ce qui génère un surprofit.
Ce surprofit est accepté par le consommateur qui a en contre partie, un choix plus important
de produits.

3
1.1.4. Analyse Schumpetérienne de la concurrence
Schumpeter met au cœur de l’évolution économique « l’entrepreneur innovateur »
(l'entrepreneur héroïque). L’innovation émerge comme le facteur clé de la croissance
économique. En innovant l’entrepreneur crée de la connaissance qui pourra servir à d’autres
secteurs ou d’autres agents. On parle « d'externalités positives »

Il distingue alors 5 types d’innovations : la production de nouveaux biens, l’utilisation de


nouvelles méthodes de production, l’émergence de nouvelles débouchées, l’utilisation de
nouvelles matières premières, de nouvelles formes d'organisation du travail.

Il montre que les innovations sont associées à des monopoles temporaires. Lorsqu’une
entreprise innove, elle protége ses innovations par des brevets afin d'amortir ses frais de R&D.
Il introduit aussi la notion d’imitation et de diffusion des technologies.

Ces innovations, moteur de la croissance, arrivent par grappes et sont à l’origine de cycles. La
« destruction créatrice » désigne la disparition de certaines industries alors que d’autres se
créent. (biotechnologies, industries lourdes)

1.2 Emergence de l'IO et du triptyque S-C-P

1.2.1 Les principes de l’école de Mason (1957)


C’est en 1941 que l’association économique américaine reconnaît l’IO comme une discipline
académique : l’étude des structures de marché en est le principal objet. Elle en définit 4
principes :

Sur le plan théorique, l’IO doit s’affranchir de la microéconomie qui utilise des concepts trop
abstraits et dont le modèle de concurrence pure et parfaite est trop statique.

Il faut combiner étroitement théorie et empirisme en privilégiant une approche inductive


plutôt qu’une approche normative.

Il faut remettre en cause le concept de marché définit par un produit homogène au profit de la
notion plus réaliste d’industrie au sens marshallien, c'est-à-dire constitué d’un nombre
variable de firmes produisant des produits hétérogènes plus ou moins substituables et où les
caractéristiques techniques de l’offre l’emportent sur celles de la demande. C’est l’offre qui
détermine le marché pertinent, non la demande.

Il faut adopter l’hypothèse selon laquelle le comportement des firmes et leur performance sont
largement déterminées par les structures de marché. C’est une approche structuraliste de
l’économie industrielle. La « triptyque S-C-P » :
Structures => Comportement => Performance
L’industrie est avant tout caractérisée par les conditions de base.

4
Conditions de base

Offre Demande

Matières premières Taux de croissance de la demande


Durée de vie des produits (alimentaire) Elasticités prix et revenus
Technologies de production (recherche) Caractéristiques cycliques
Règles juridiques particulières (pharmacie) Possibilités de substitution
Conditions de commercialisation

Structures de marché

Nombre d’offreurs et de demandeurs


Les barrières à l’entrée
Structures des coûts (rendement d’échelle)
Segmentation du marché
Relations verticales (intégration)

Comportements

Stratégies de prix
Stratégies de différenciation
Innovation en R&D et stratégie d’innovation
Stratégies marketing
Investissements en capacité de production (capital fixe : usines, machines etc..)

Performance

Efficacité de la production
Efficacité de l’allocation des ressources
Evolution des parts de marché
Evolution de l’emploi
Indicateurs financiers (taux de profit, taux de marge)
Dépôts de brevets, taux d’innovation

5
1.3 Les limites de l’approche S-C-P

 Les boucles de rétroaction : Schéma S-C-P Lorsque l’on modifie le P, les S et les C vont être
modifiés. Ils y a une dynamique qu’on doit prendre en place dans ce schéma. Pour l’instant
cela n’est pas pris en compte. La relation S-C-P ne devrait pas être envisagée que de façon
linéaire, il faudrait prendre en compte les boucles de rétroaction. Progressivement on a mis
en évidence le caractère rétroactif de ce schéma. Les comportementalistes (point de dép :le
comprotement) s’opposent alors aux structuralistes (point départ de la structure). Pour
l’école de Chicago, ce sont les performances qui influencent les structures de marché avec
pour conséquence que les plus efficaces deviennent monopoleurs.
Ces critiquent ont sophistiqué les approches.

 L’évaluation des performances : L’économie industrielle cherchant à mesurer les structures


les plus efficaces, il faut d’abord définir ce qu’est l’efficacité d’une industrie. La diversité des
indicateurs de performance est problématique. Il existe plusieurs critères de performance On
fait une différence entre « efficacité statique » et « efficacité dynamique ».

- L’efficacité statique est l’efficacité de l’allocation des ressources (en microéconomie


c’est le surplus qui est optimal en concurrence pure et parfaite).

- L’efficacité dynamique est l’efficacité de la création de ressources (on considère


alors que l’innovation est centrale). Il y a opposition car pour innover, une entreprise a besoin
d’un certain pouvoir de monopole, et d’une certaine capacité d’investissement.
En concurrence pure et parfaite, les profits sont nuls à LT et ne permettent pas d’innover.
(ex : Microsoft en abus de position dominante, se défendait par son innovation).

 L’analyse des comportements. Pour Mason, les comportements ne sont qu’un filtre entre les
structures et les performances, ils ne sont donc pas au centre de son analyse.
Les comportementalistes (behavioristes) pensent qu’il faut se recentrer sur le comportement
des firmes et leurs stratégies. Cette limite va être très vite dépassée car les économistes qui se
sont inscrits dans la lignée de Manson ont par la suite levés cette limite par leurs recherches.

- Les relations inter industries. Le triptyque S-C-P n’est fait que pour une seule industrie. On
l’étudie de manière isolée sans prendre en compte ses relations avec les autres industries. Ces
relations sont pourtant multiples : (certaines industries sont fournisseurs pour d’autres
industries, ex auto et énergie).Pas de prise en compte des co-industries dans le schéma (les
secteurs industriels s’influencent les uns, les autres). L’IEF critique particulièrement ce
dernier point.

2. L’économie industrielle française : EIF (1970)

L’IEF apparaît plus tard en France, car c’est l’un des derniers pays à s’être industrialisé. De
plus il y un regain d’intérêt pour deux raisons : Avec les grandes mutations (vagues de
concentrations industrielles), on se rend compte que les recommandations en terme de
politiques publiques ne sont pas très claires en IO. Or la France a une économie très
centralisée avec une intervention importante de l’Etat. A cette période on fait également des
progrès considérables en matière de statistiques et de collectes de données (création de
l’INSEE).

6
C’est dans ce contexte(+de données, grandes mutation et la puissance publique que l’EIF se
développe, de façon très empirique et avec pour question centrale : le découpage du système
productif. (Comment on le découpe se système productif ?)

2.1 Les principales caractéristiques de l’EIF

Analyse essentiellement empirique.


a) l’EIF veut se démarquer de l’IO et du triptyque S-C-P. Ils reprochent à l’IO une approche
trop microéconomique. L’EIF veut s’inscrire comme une école marshallienne, en rejetant un
déterminisme trop strict, et en prenant en compte le temps et les relations entres les entités.
Ils veulent une analyse qui se concentre sur les stratégies des acteurs et leur articulation au
sein du système industrielles.

b) Les analyses se concentrent sur les stratégies des acteurs et leurs articulations au sein du
système industriel (relation verticale, sous-traitance, stratégies de groupes).

c) Les travaux se consacrent aux analyses des différents découpages du système productif et
donc à la recherche de classification et de mode de découpage pertinent. (filières, secteur
primaires etc.)

d) L’approche dite englobante, cherche à intégrer l’ensemble des dimensions de la réalité


industrielle. Intégration des technologies, des rapports de trvail et ls considérations
institutionnelles et juridiques. (= ! approche décomposée)

e) Cette analyse des systèmes productifs est qualifiée de méso-économique, intermédiaire


entre la microéconomie (individus) et la macroéconomie (agrégats). Ce niveau intermédiaire
correspond à une industrie ou un ensemble d’industries, permettant de décrire et comprendre
les comportements des firmes et l’évolution industrielle.

La contradiction vient du lien au réel entre école anglo-saxonne et française. Les français sont
plus empiriques. Ils veulent tout prendre en compte. Les anglo-saxons sont trop théoriques, il
y a trop de limites. La question du lien à la réalité est centrale.

2.2 Les découpages du système productif


C’est de cette question que sont nés les concepts de secteurs, branches, filières.

Le principal critère est l’APE (activité principale exercée) qui correspond à la majeure partie
de son CA, les autres activités sont qualifiées de secondaires (E pluri productrices)

Le secteur représente l’ensemble des entreprises qui ont la même activité principale. Par
définition, une entreprise ne peut donc être que dans un secteur.

La branche regroupe l’ensemble des fractions d’entreprises (ou établissements) qui ont la
même activité, que ce soit à titre principal ou secondaire. Une entreprises peut donc appartenir
à plusieurs branches.

Exemple :

7
E1 productrice de biens : (APE = A)
E2 productrice de biens : (APE = A) + B
E3 productrice de biens : (APE = B) + A

Secteur A : E1, E2
Secteur B : E3
Branche A : E1, E2, E3
Branche B : E2, E3

L’unité juridique et économique du secteur est l’entreprise, et l’usine pour la branche. On


utilise le secteur quand on étudie l’entreprise dans son entité : attractivité, compétitivité,
rentabilité, financements, comparaisons internationales. Le problème est que plus l’entreprise
est pluri productrice et moins le concept de secteur est adapté. Pour une étude sur des
problèmes de production ou de valeur ajoutée on utilise le concept de branche. Le concept de
branche se rapproche de la notion de marché, car il est définit par rapport à un produit et non
par rapports aux entreprises.

Toutes les statistiques industrielles françaises sont références par un code de la nomenclature
NAF. Pour les comparaisons européennes on utilise la nomenclature NACE (nomenclature
des activités de la communauté européenne).

Plus les firmes sont diversifiées et plus le découpage est difficile à utiliser. Depuis les années
1980 il y a diversification des entreprises. En période de crise les grandes entreprises se
recentrent sur leur activité de base. Le découpage des industries à une période dépend de la
conjoncture économique de cette période.

- les relations entre secteurs industriels


L’EIF s’est concentrée sur les relations entre les secteurs industriels, en montrant que les
fluctuations au sein d’un secteur ne dépendent pas que du comportement des firmes au sein de
ce secteur. En particulier la relation de chaque industrie est conditionnée par la situation des
« secteurs débouchés ». De plus la situation des « secteurs débouchés » est elle même
déterminée par la conjoncture économique globale. Pour comprendre l’évolution d’une
industrie il faut aussi tenir compte des fluctuations conjoncturelles, de l’activité économique
et de la politique économique générale.

Sur le schéma du système productif, on observe deux types de relations :

Les relations verticales, des matières premières vers les biens finaux (ce sont des relations de
valorisations : on transforme la matière première en biens ou services).
Les relations transversales concernent des fonctions disponibles pour tout le système productif
(construction, énergie, transport, finance, communication). Lors d’une crise énergétique ou
financière, tout le système productif est impacté (tout est co-dépendant).

- Filières et groupes (supply chain)


L’EIF a cherché un niveau intermédiaire moins globalisant (mésoéconomique), et a proposé le
concept de filière et de groupes d’entreprises plutôt que la firme.

Le concept de filière est un concept franco-français qui s’est développé dans les années 1970
et qui est vite devenu le symbole de l’EIF. La filière est définit comme une succession
d’opérations de transformation aboutissant à la production de biens. Au départ la filière est

8
conçue comme un enchaînement d’activités permettant la mise à disposition sur le marché
d’un bien de consommation. Om privilégie la relation verticale.

9
Elle s’organise autour de trois types de relations :
- Les opérations techniques (de transformation), commerciales et financières (qui existent à
chaque niveau de la filière), stratégiques déployées par les firmes au sein de la filière (qui sont
des opérations économiques, ex : rachat, fusion, cession, acquisition).

Les 4 différentes utilisations de la filière :


- Outil de description technico-économique.
- Outil de découpage du système productif (en combien de filières se divisent l’industrie ?
plusieurs types de découpage)
- Méthode d’analyse des stratégies des firmes (les stratégies de filières et de groupes)
(ex : stratégie d’intégration verticale pour les grands groupes pétroliers : racheter toute les
activités de la filière, exploitation, transformation, distribution, cela permet de sécuriser la
chaîne pour l’industriel).
- Instrument de politique industrielle (intervention publique dans le domaine de l’industrie. La
filière est une référence originale et pertinente pour mettre en ouvre une politique
industrielle). Le Japon s’est industrialisé avec des politiques de filières, notamment
électronique et automobile (certaine forme de protectionnisme à l’origine). Une action isolée
sur une branche ou un secteur peut ne pas marcher si en amont ou en aval il y a un blocage
(1970). En France on a subventionné massivement certaines filières au travers de grand plan
de soutient. Elle est connotée comme une politique économique interventionniste. Après la
période libérale qui a préconisé l’interdiction de ces politiques, il y a eu avec la crise
financière un plan de soutient a l’automobile.

Les groupes industriels et financiers


L’économiste s’intéresse aux firmes, le gestionnaire et le financier au groupe.
Un groupe est un ensemble d’entreprise qui relève d’un même pole de décision. A la tête du
groupe il y a une holding qui détient et gère les activités du groupe. Cette holding va détenir et
contrôler plusieurs types de participations financières :
- dans les banques et assurances => capitaux
- majoritaires dans des activités d’industrie ou de services => activité principale
- minoritaires dans des activités secondaires => diversification du portefeuille

Dans les années 1980, l’industrie française s’est structurée autour de certains groupes.
Beaucoup de stratégies de groupes (rachat, fusion…), et de diversification. Dans les années
1990, dans un contexte de crise, les groupes ont cédé leurs activités secondaires et se sont
concentrés sur les activités principales. Aujourd’hui s’il reste une tradition, dans la recherche
cette approche reste marginale.

Conclusion : Peut on parler de désindustrialisation ?


La notion de désindustrialisation renvoie au recul du poids de l’industrie dans notre économie
concomitant à une forte croissance du secteur des services. Ce phénomène est commun à
l’ensemble des économies industrialisées. En France, entre 1980 et 2007, l’industrie française
perd 2 millions d’emplois, ce qui représente une baisse de 36% des effectifs (pour 97% dans
les industries manufacturières). Dans la même période, le poids de l’industrie dans le PIB est
passé de 24% à 14% alors les services aux entreprises sont passés de 45% à 56% et l’emploi y
a augmenté de 53%. Il y a un transfert de l’industrie manufacturière aux services. Selon le
secteur observé le phénomène change. En France c’est l’industrie des biens intermédiaires qui
a le plus chuté (41% des pertes d’emplois industriels)

10
Le principal facteur explicatif est l’externalisation de certaines tâches vers les services. Pour
baisser les coûts, les entreprises font appels à des prestataires de service (sécurité,
maintenance, entretient). Si on a créé autant d’emplois dans les services qu’on en a détruit
dans l’industrie, il y a un problème de qualification.

Les gains de productivité, grâce au progrès technique, ont été énormes. Ils expliquent une part
de la diminution de l’offre de travail (il y a eu transfert mais aussi destruction)

L’effet de la concurrence étrangère et de la démondialisation. Les délocalisations des activités


et industries européennes contribuent à diminuer l’emploi en France. La désindustrialisation a
commencé avant les vagues de délocalisation. On estime que les délocalisations n’expliquent
que 3% à 10% des pertes d’emplois industriels. C’est donc significatif mais ce n’est pas la
cause première.

Malgré cela l’industrie représente toujours 18% de l’emploi, 20% de la valeur ajoutée totale et
80% de la R&D. Il y a une marginalisation et de transformation des activités industrielles vers
des activités de plus en plus intensives en R&D mais moins intensives en main d’ouvre
productive.

11
1. Structures de marché et politiques de la concurrence

1.1 Les indicateurs de concentration industrielle


On cherche à mesurer le pouvoir de marché des firmes dominantes. L’EI s’est dotée de
différents indicateurs permettant de mesurer le degré de concentration de l’industrie.

Les indicateurs de concentration doivent avoir trois propriétés :


- varier quand le nombre d’unités (entreprises) du fait de la création ou la sortie de firmes
- varier lorsque la taille moyenne des unités varie (cession, acquisition, innovation, etc.)
- varier avec la distribution des unités et en particulier avec les asymétries de taille

Pour être fiable, il faut que l’indicateur ait 4 propriétés :


- non ambiguë
- non spécifique (à une industrie)
- qu’il augmente quand il y a un transfert de part de marché (fusion, etc.)
- qu’il diminue avec le nombre de firmes lorsque l’industrie est divisée en firmes de taille
approximativement égale.

Il faut choisir une unité et une variable comme critère :


- unité : établissements, entreprise, groupes
- variable : CA, effectif, part de marché
On calcule la part de marché de production : Pi = Qi / Σ Qj
Malgré tout, ces indicateurs ont leurs propres limites et ne peuvent pas refléter la diversité des
phénomènes de concentration. La concentration est également impactée par des phénomènes
conjoncturels (croissance) et structurels (mouvement de prise de contrôle, de fusion). Il faut
donc les combiner et compléter l’analyse par les barrières à l’entrée (etc. ?).

12
1.1 Indices de concentration

Le rapport de concentration
Pour N firmes dans l’industrie, Cn = Σ Pi , représente les parts de marché des n plus grands
firmes. On utilise généralement le C4. Il ne respecte pas le principe de non ambiguïté parce
qu’il dépend du choix de n et ne nous renseigne pas sur la distribution.
Cn A
B

L’indice de Hirschmann-Herfindahl
H = Σ P i2
Propriété remarquable
q = Q/N taille moyenne
σ2 = (1 / N) Σ (qi - q)2
V=σ/q (coefficient de variation de taille)
H = (V2 +1) / N (H augmente avec V et diminue avec N)
2 2 2
V =σ /q
C’est une mesure de concentration qui prend compte les inégalités de taille V.
Il surestime la concentration car les parts de marché sont élevés au carré, il surestime le poids
des grandes firmes.

0<H<1
Si monopole, H =1
Si oligopole avec répartition équitable des parts de marchés, H = (1 / N)

Utiliser l’indice H :
1/ H est l’équivalent de H. Il nous indique que l’industrie est concentrée comme si elle était
composée de 1 / H firmes de tailles égales.
H = 0,25 1/H = 4
N=6 1/N = 0,17
0,25 – 0,17 = 0,08 est la partie de la concentration due aux inégalités de taille (soit 1/3).
Ce n’est pas une industrie très concentrée mais il y a des inégalités de taille.

13
1.2 Indices d’inégalité de taille

Le coefficient d’entropie (concept de physique et de l’économie de l’information)


L’entropie est une mesure de l’incertitude associée à la conservation d’un client pris au
hasard. Il mesure donc l’inverse de la concentration.
E = Σ [Pi . ln (1/Pi)]

0 < E < ln (N)


Si monopole, E = 0
Si toutes les firmes ont la même taille, E = ln (N)
Plus E est grand, plus l’incertitude est élevée et moins la concentration est forte.

Le coefficient de Gini
C’est un indicateur de mesure des inégalités de taille, si toutes les firmes ont la même taille, al
courbe de Lorentz se confond avec la droite (0S)

% cumulé de la production
100% S

100%
0 T
Courbe de Lorentz % cumulé du nombre de firmes par ordre croissant de taille

G = [Surface au dessus de la courbe] / [Surface OST]

0<G<1
Si monopole, G = 1
Si toutes les firmes ont la même taille, G = 0

14
2. Les barrières naturelles à l’entrée

On différencie les barrières à l’entrée dites naturelles et les stratégies entre les firmes. Dans le
triptyque SCP on remet en cause la fluidité du marché, les entrées étant soumises à des
réglementations et à des conditions. Stigler définie la barrière à l’entrée est un coût de
production qui doit être supporté par une firme voulant entrer sur un marché alors que les
firmes déjà installées n’ont pas à supporter ce coût. Bain (1968) a proposé une analyse
systématique des barrières à l’entrée et les définit en terme d’avantages. Les barrières à
l’entrée sont les avantages que détiennent les firmes d’un secteur sur les entrants potentiels.
Ces avantages se manifestent dans leurs capacités à vendre au dessus du prix concurrentiel
sans attirer de nouvelles entreprises dans l’industrie. On distingue 4 types de barrières à
l’entrée dites naturelles.

2.1 Barrières à l’entrée réglementaires et juridiques


Malgré la libéralisation des marchés il subsiste toujours des conditions réglementaires et
juridiques qui réglementent l’entrée dans une industrie.

- Les modalités d’installation : possession d’un diplôme, agrément, autorisation, numerus


clausus, environnemental, les normes, (ex : pharmacie)
- Les monopoles publics ou quasi publics
- Les barrières protectionnistes : taxes, droits de douane, quotas
- Les brevets et les licences : Le brevet est un instrument juridique qui est un droits de
propriété sur une innovation (généralement pour 20 ans). Les brevets octroient un pouvoir de
monopole temporaire sur les innovations. Ils ont un impact fort sur l’entrée. Il est possible de
vendre des licences d’exploitation qui permettent la diffusion de l’innovation et d’obtenir des
royalties (revenus). (ex : dans la pharmacie, tout est breveté. principe actif pour une
pathologie, une fois le délai légal passé et que les brevets sont tombés dans le domaine public,
il y a eu une vague d’entrée de nouveaux concurrents, producteurs de génériques). Ces brevets
sont à la fois une barrière naturelle mais surtout stratégique. Cela a un impact fort sur les
industries ou l’on les utilise.

2.2 Les avantages absolus de coûts


Ils impliquent que dans une industrie donnée, les coût de production supportés par un entrant
sont supérieurs aux coûts de production des firmes installes pour un niveau de production
comparables. La différence de coût peut provenir des technologies de production (plus
efficaces), c’est lié à l’effet d’expérience ou également être liée à la R&D. Cela peut être due
à une situation privilégiée des firmes installées sur le marché des input (par leur ancienneté,
taille, intégration verticale). Il en est de même pour l’accès aux liquidités dont l’accès peut
être plus limité pour les entrants, avec un taux d’intérêt plus élevé,ce qui se répercute sur les
coûts de production.
CM(Q)

15
2.3 Les économies d’échelle et de variété
Le concept de théorie d’échelle met en relation l’échelle de la production et les coûts. C’est
une barrière à l’entrée importante et naturelle. Une fonction de production avec des
rendements d’échelle croissants conduit toujours à une fonction de coûts moyens à long terme
décroissante et donc à des économies d’échelle. Ces économies d’échelle vont conduire les
firmes à rechercher la taille optimale, c'est-à-dire la taille qui lui permet de minimiser ses
coûts. La TMO est la quantité minimale de production qui permet de produire au minimum du
coût moyen.

MinCM = plateau efficace

TMO

Les économies d’échelle sont source de barrière à l’entre car elles augmentent la TMO (taille
minimale optimale). Spécialisation du travail, les coûts fixes (amortissement), économies liées
aux coûts de fonctionnement. Toutes les industries sont caractérisées par des économies
d’échelle. C’est la TMO qui varie entre chaque industrie et la forme de la courbe de coût.
Cette remontée du coût moyen est due aux nouveaux coûts fixes nécessaires à l’augmentation
de la production.

Le terme d’économie de variété (ou gamme ou envergure, scope economics) concerne la pluri
production. Elles concernent les cas ou produire plusieurs bien différents permet à la firme de
réduire son coût moyen de production globale. Pour deux bien Q1, Q2, il y a économie de
variété si C(Q1, Q2) < C(Q1,0) + C(0,Q2) pour une même quantité de production. Il y a des
économies de variétés dues à la mise en commun de certains coûts, certains équipements. Il
existe parfois des effets de synergies ou de complémentarité. (ex : économie industrielle, on
récupère les copeaux de bois pour faire de nouveaux produits, les marchés très segmentés).
Une façon de bloquer le marché est de produire sur toute la segmentation du marché. La
prolifération est une stratégie dont le but est d’envahir le marché pour ne pas laisser de places
aux nouveaux entrants. C’est une stratégie de la firme.

2.4 Les barrières à la sortie : les coûts irrécupérables


Les barrières à la sortie expriment le fait que sortir d’une industrie ne se fait pas sans coûts,
dits irrécupérables ou irréversibles (sunk costs). On parle de coûts irrécupérables lorsque la
sortie d’une industrie ne peut se faire sans perte du capital supérieur au coût d’usage.
Inversement si l’entreprise peut sortir de l’industrie et récupérer le coût initial de ses
équipement moins les dépréciations on dit que le coût est récupérable. Cette propriété est
essentiellement liée à la spécificité des actifs. Un actif est très spécifique lorsqu’il est dédié à
la production d’un bien particulier. Plus un actif est spécifique, plus il y a de coûts
irrécupérables et donc plus il y a de coût de barrières à l’entrée. En particulier ces coûts
irrécupérables limitent, voir empêchent, les stratégies de raid (hit and run).

16
3. La politique de la concurrence

3.1 La politique de la concurrence aux US

3.1.1 Les lois anti trust


Le Sharman Act de 1890 est composé de deux parties
Tout contrat, toute association sous forme d’un trust ou sous toute autre forme, ou toute
entente destinée à restreindre les échanges ou le commerce entre les différents états ou avec
les pays étrangers sont illégaux.
Toute personne qui monopolisera, tentera de monopoliser le marché ou participera à une
association ou une entente avec d’autres personnes, se rendra coupable d’un délit.

La première partie indique que toute pratique visant à réduire la concurrence est interdite et
notamment sur les paix. La deuxième partie réglemente les pratiques monopolistiques et toute
pratique voulant volontairement monopoliser un marché.

Il a ensuite été complété du Clayton Act (1914) vise certaines pratiques et interdit notamment
la discrimination par les prix, les ventes liées, les clauses d’approvisionnements exclusifs et
les fusions lorsque cela réduit la concurrence. (ex révision obligatoire chez le concessionnaire
pour conserver la garanti du véhicule).

Nulle société relevant de la Federal Trade Commision ne peut acquérir tout ou partie des avoir
d’une société lorsque l’effet de cette acquisition risque d’affaiblir notablement la concurrence
ou de créer un monopole dans une branche quelconque du marché.

3.1.2 Les objectifs et les critères d’efficacité


Ces textes se sont développés dans une perspective structuraliste et donc la politique de la
concurrence dans son ensemble est très structuraliste. es autorités concurrentielles se sont
souvent appuyées sur le triptyque SCP pour justifier un besoin de renforcement de la
concurrence. Ces arguments ont été très critiqués par l’école de Chicago selon laquelle « la
rentabilité supérieure d’une grande firme n’est pas le fait d’une domination abusive du marché
mais provient d’une efficience supérieure » liée aux économies d’échelle, de gamme en
particulier, et dans ce cas pourquoi empêcher une telle firme de dominer le marché. Ils
insistent aussi sur le fait que la relation entre concentration et rentabilité des firmes doit
s’apprécier de façon dynamique. Seule les situations ou la position dominante est pérenne
dans le temps doit faire l’objet de réglementation. Le brevet est un pouvoir de monopole
temporaire qui ne pose pas de problème de concurrence.

La politique américaine s’est assouplie au cours du temps suite aux critiques de l’école de
Chicago. Il y a un arbitrage à faire dans l’efficacité. Il y a beaucoup de fusion qui permettent
des gains d’efficience technologique. Elles rationalisent leur production et il est fréquent
qu’après une fusion leur coût marginal de production baisse, ce qui apporte un surplus social.
Il appartient donc aux autorités de faire un arbitrage entre ce nouveau pouvoir de marché qui
leur permet d’augmenter le prix et la baisse du coup de production. Lorsqu’une fusion est
étudiée, elle va être évaluée en fonction de ces critères en estimant ex ante quels vont être
leurs impacts.

17
3.1.3 Délimitation du marché et définition du pouvoir de marché
La définition du marché doit non seulement spécifier le produit concerne mais aussi la zone
géographique à prendre en compte pour évaluer le degré de concurrence. Plus l’échelle
géographique est grande plus la fusion est limitée. Il faut également prendre en compte le
produit. Coca et Pepsi sont ils des cola / sodas / boissons. Il faut donc tout d’abord définir le
marché pertinent. Dans le code des fusions ont trouve une définition du marché pertinent : un
marché est le plus petit groupe de produits et la plus petite zone géographique qui permettrait
à un monopole hypothétique d’élever le prix au dessus du niveau courant et ce d’un certain
pourcentage. On étudie ensuite la corrélation des prix des différents produits qu l’on va
inclure dans la définition du marché, en évaluant l’élasticité croisée des biens. Pour évaluer le
pouvoir de marché on évalue la capacité a fixer un prix au dessus du taux marginal. Le taux
de marge = 1 - coût marginal / prix.

D’après le code des fusions :


H0 = indice Herfindahl (on calcule avant la fusion)
ΔH (on estime après la fusion)
H0 < 10% la fusion ne devrait pas avoir d’effet sur la concurrence
10% < H0 < 18% la fusion a des effets notables sur la concurrence, si ΔH > 1%
H0 > 18% la fusion a des effets notables sur la concurrence, si ΔH > 0,5%

3.2 La politique européenne de la concurrence


La politique européenne est largement basée sur la politique américaine. Le contrôle est plus
récent, il existe toujours deux niveaux de concurrence (national et européen). C’est la
direction générale de la concurrence qui est un organe de la commission européenne qui
évalue la concurrence. Cela repose sur 2 articles fondateurs.

Art 85 : Sont incompatibles avec le marché commun et interdits, tout accord entre entreprises,
toute décision d’association d’entreprises et toute pratique concertée qui sont susceptibles
d’affecter la concurrence entre les états membres et qui ont pour objet ou pour effet,
d’empêcher, de restreinte ou de fausser le jeu de la concurrence à l’intérieur du marché
commun. (fixer les prix, contrôler la production et les débouchés) répartir les marché ou les
sources d’approvisionnements, appliquer des conditions inégales à des partenaires
commerciaux et pratiquer les ventes liées).

Alinéas : Toute fois cet article peut être déclarer inapplicable à tout accord, toute décision, ou
pratique concertée qui contribue à améliorer la production ou la distribution des produits, ou à
promouvoir le progrès technique ou économique, tout en réservant aux utilisateurs ou aux
partenaires une partie équitable du profit qui en résulte. La commission subventionne des
Accords de Coopération en R&D (conciorcium). Ce qui constitue une forme d’entente. Le
Programme Cadre de R&D définit pour 4 ans les objectifs et les domaines prioritaires en
Europe. Il a donc fallu prévoir cette exception sous certaines conditions.

Art 86 : Est incompatible avec le marché commun et donc interdit, le fait par une ou plusieurs
entreprises d’exploiter de façon abusive une position dominante sur le marché.
(elle ne peut pas en abuser pour contrôler les prix ou la production)

18
Chapitre 2 – Théorie des marchés contestables (disputables)

Cette théorie a été développée à la fin des années 1970 par Baumol, Panzar, Willig
Elle a pour ambition de fournir une nouvelle analyse des structures de marché et en particulier
des monopoles. Elle met en avant la question des barrières à l’entrée et porte sur la
concurrence potentielle (des concurrents potentiels entrants par opposition à la concurrence
effective des firmes installées sur le marché).

Cette théorie montre que c’est la concurrence potentielle et non effective qui est déterminante.
On peut avoir des structures des marchés très concurrentielles même avec très peut de firme
en raison de la concurrence potentielle. Les entrants potentiels sont déterminés par les
barrières à l’entrée, dont certaines sont réglementaires. Cette théorie a justifiée les politiques
de déréglementation des certains marchés aux US.

Pour les auteurs, cette théorie n’est pas volontairement libérale, cela dit dans les faits, ces
auteurs ont apporté des arguments pour défendre la libéralisation des marchés.

1. Présentation de la théorie

1.1 Concept de marché contestable


Un marché est dit parfaitement contestable lorsque deux conditions sont réunies. (1) L’entrée
est libre, les firmes déjà installées ne disposent d’aucun avantage par rapport aux nouveaux
entrants. (2) la sortie du marché doit pouvoir s’effectuer sans coûts irrécupérables.

La première condition implique que les entrants peuvent utiliser les même technologie de
production et qu’ils peuvent servir les même demandes qu les firmes déjà installées. Il n’y a
donc pas de barrière à l’entrée au sens de Stigler. Le marché est parfaitement contestable
lorsqu’il est fluide, le pouvoir de marché peut être contesté à tout moment.

1.2 Détermination de l’équilibre


Le principe va être de chercher à minimiser le coût moyen de l’industrie. La différence avec la
microéconomie est que le nombre de firmes est ici endogène. On va chercher le nombre de
firmes qui minimise les coûts de production de l’industrie.

Structure industrielle efficace telle que :


Avec QMO = la quantité minimale pour produire au coût moyen
Si Q0/Q = TMO Q = demande totale du marché
n = Q/Q0

1.2.1 Sous additivité des coûts et monopoles naturels


La sous additivité des coûts est le cas ou il vaut mieux avoir une seule firme produisant toute
la production. C(Q) est sous additive si C(Q) < Σ C(Qi). Dans ce cas on a intérêt à agglomérer,
c'est-à-dire concentrer la production. Il y a de fortes chances qu’on arrive à une situation de
monopole naturel. La sous additivité des coûts est nécessaire à l’existence d’un monopole
naturel. Le terme naturel signifie qu’on tend naturellement vers ce monopole. Cette condition
n’est pas très contraignante car les économies d’échelle (coûts moyens décroissants) sont une
condition suffisante à la sous additivité des coûts (au niveau de l’industrie pas de la firme).

19
Ces monopoles naturels correspondent aux industries de réseau (qui nécessite la mise en place
d’un réseau de transport, de communication ou de distribution). Ce réseau nécessite un
investissement un coût fixe important, qui crée des économies d’échelle qui entraînent une
sous additivité des coûts. C’est ce type d’arguments qui justifiaient la nationalisation de ces
industries (monopoles publiques).
1.2.2 Concepts de configuration réalisable (workable) et soutenable
Ces deux concepts donnent lieu à un équilibre. Ils définissent l’équilibre par 3 variables, le
nombre de firmes n, les quantités produites Q et le prix P.

Une configuration est réalisable si


Σ Qi = D(P)
V i ; P.Qi – C(Qi) > O

Une configuration est dite soutenable si elle n’offre pas de possibilité d’entrée profitable.
- Toutes les entreprises ont accès à la même technologie de production
- L’entrant suppose que le prix de marché P ne sera pas modifié par son entrée
- Pe . Qe – C(Qe) < 0 pour tout P < Pe et Qe <Q(Pe)
Les firmes installées peuvent ici maintenir leur pouvoir de marché car un nouvel entrant ne
pourrait le faire mais qu’à perte.

Proposition : dans un marché parfaitement contestable seule une configuration réalisable et


soutenable peut constituer un équilibre.

1.3 Propriétés de l’équilibre

- L’efficacité technologique (c’est celle qui minimise les coûts au niveau de l’industrie)
L’argument intuitif : S’il existe une configuration technologiquement plus efficace, c'est-à-
dire pouvant réaliser la même production totale à un moindre coût que la configuration
d’équilibre, cela signifie qu’il y a au moins une firme de cette configuration alternative qui
pourrait entrer dans l’industrie et réaliser des profits (plus qu’elle à un coût plus faible) par
conséquent la configuration initiale n’était pas soutenable et ne peut pas constituer un
équilibre.

- L’égalité des coûts marginaux (que pour l’oligopole)


Si deux ou plusieurs firmes produisent le même bien à l’équilibre, leur production respective
est t elle que leurs coûts marginaux sont égaux.

- La tarification au coût marginal dans le cas de l’oligopole


Dans le cas où plusieurs firmes, produisent à l’équilibre, chaque firme produit à un niveau de
production tel que P = Cm. Si le prix est inférieur au Cm cela signifie qu’à l’équilibre une
firme peut ne pas faire de pertes avec un prix inférieur au Cm (configuration réalisable), ce
qui implique que l’on est dans la phase croissante du Cm au dessus du CM dans ce cas un
entrant pourrait entrer et faire un profit en proposant un prix légèrement inférieur à celui des
firmes déjà installées, donc la configuration n’est pas soutenable et donc pas d’équilibre. Le
prix ne peut pas non plus être supérieur au coût marginal sinon il subsisterait des opportunités
de profits pour les entrants qui pourraient entrer avec un prix légèrement inférieur, ce qui
implique que la configuration n’est pas soutenable et ne peut pas constituer un équilibre.

Cm, CM
Cm(Q)
20
P CM(Q)

- Une situation réalisable et soutenable requiert qu’aucune firme ne peut faire de profit
(monopole et oligopole)
Si les profits sont négatifs, la configuration n’est pas réalisable et si les profits sont
strictement positifs la configuration n’est pas soutenable (nouveaux entrants).

En situation de marché parfaitement contestable, les conditions d’équilibre peuvent donc se


résumer à :
pour n > 2 : efficacité technologique, p = Cm = Cm1 = Cm2, II = 0 => p* = CM
=> p* = Cm = min CM

pour monopole : efficacité technologique, II = 0 => p* = CM

Dans cette théorie l’équilibre concurrentiel de long terme est un cas particulier caractérisé par
l’atomicité du marché. Dans cette théorie il n’est pas nécessaire que l’industrie soit dans une
situation de concurrence pure et parfaite pour que le prix soit égal au coût marginal et que les
profits soient nuls, il suffit que le marché soit parfaitement contestable (pas de barrière à
l’entrée et pas de coûts irrécupérables).

2. Les configurations soutenables

2.1 Cas du monopole naturel


Il est moins coûteux qu’une seule firme produise tout, plutôt que de répartir la production
entre plusieurs firmes. avec des coûts sous additifs au niveau de l’industrie

P, CM

D(Q) CM(Q)

Pi’ Zone 1 Zone 2 Zone 3


pi

Qi Qi’ Qs Q

[Q ;Qs] = zone de sous additivité des coûts

Le monopole naturel est soutenable uniquement si la courbe de demande coupe la courbe du


coût moyen dans sa partie décroissante, avant ou au minimum

21
P3 : Si la courbe de demande coupe le coup moyen au-delà de son minimum mais à l’intérieur
de la zone de sous additivité des coûts (zone de monopole naturelle), il n’existe pas de
situation soutenable.

Dans la Zone 1 on a un monopole naturel soutenable, dans la zone 2 le monopole naturel est
constamment menacé par les entreprises, en Zone 3 on est dans le cas des oligopoles. En zone
2 il y a des déséconomies d’échelle (courbe en U), dans cette théorie il faut que l’autorité
publique protége le monopole.

2.2 Le cas de l’oligopole


L’équilibre est plus problématique et dépend de la courbe de fonction de coût.

P, CM (mettre des pointillés après que les courbes se coupent

D(Q)

p = Cm = min CM
QM Qs 3QM Q

Pour calculer la somme des coûts, on fait un ajout horizontal des coûts
On suppose que toutes les firmes ont la même technologie de production donc la même
fonction de coût.

Si la courbe de demande coupe la courbe du coût moyen qui est un entier multiple de QM alors
il existe une configuration soutenable, caractérisé par un nombre de firme égal à cet entier.
Dans ce cas on a un oligopole avec tarification au Cm = min CM et donc II =0

Si la courbe de demande coupe la courbe du coût moyen en un tout autre point alors il
n’existe pas de configurations soutenables parce qu’il reste des plans (opportunités) d’entrées
profitables.

Dans ce cas l’existence d’une configuration soutenable est rare est fortuite et cette limite est
liée à la forme en U du CM.

Pour répondre à cette critique, Baumol, Panzar, Willig affirment que les observations
empiriques montrent que les fonctions de CM sont rarement en U, mais qu’elles présentent
généralement une zone plate de rendement constant qui va étendre considérablement la zone
d’existence de configuration d’équilibre soutenable.

Ils démontrent qu’il suffit d’une petite zone de rendement constant pour que les conditions
d’existence d’une configuration soutenable se relâchent considérablement.

22
Faire graphique que l’industrie

La courbe des CM est plate entre 1 et 1,25


[1 ; 1,25] [2 ; 2,5] ; [3 ; 3,75] [4 ; 5] [5 ; +oo[

Proposition 4 : Si la courbe de CM individuelle est aplatie dans l’intervalle, [1, 1+k] la courbe
de CM de l’industrie est horizontale pour toutes les quantité Qi > h
avec h est l’entier le plus petit tel que (h . k) > 1

n
n=Q

6 n = Q(1+k)
5

6
Pour Q = 6 il y a deux possibilités n = 6 et q = 1 ou n = 5 et q = 1,2

Proposition 5 : Plus les technologies sont flexibles au sens de Stigler (plus la zone de
rendements constants est importante) plus petites est la valeur limite de la production à partir
de laquelle l’existence d’une configuration soutenable est assurée.

Dans ce cas il y a une multiplicité des configurations soutenables. Cependant une nouvelle
critique vient de la multiplicité des équilibres ce qui complique l’action des politiques
publiques. Dans leur théorie ce n’est pas le nombre de firme qui compte.

3. Portée et limites de la théorie des marchés contestables

3.1 Les principales critiques


Elles sont au nombre de cinq qui limitent la portée de la théorie:

- L’hypothèse d’absence de réaction des firmes installées. C’est une hypothèse implicite selon
laquelle la firme installée ne réagit pas à l’entrée d’une firme qui propose un prix plus bas.
C’est cette absence de réaction qui rend l’entrée profitable. Cette hypothèse est très restrictive.
En effet si les firmes sont parfaitement rationnelles elles doivent intégrer dans leurs calculs
économiques, non pas le prix qu’il y a sur le marché avant l’entrée, mais le prix après leur
entrée or ici l’entrant raisonne en fonction du prix avant son entrée. Cette hypothèse exclue
toute prise en compte des interactions stratégiques, ce qui contraint à une analyse statique.

- La contestabilité du marché implique la libre sortie qui suppose donc l’inexistante de coûts
irrécupérables. Cette hypothèse est là aussi extrêmement restrictive. Les études empiriques

23
ont montrés qu’il était très rare de ne pas avoir de coûts irrécupérables, surtout dans le
domaine industriel (car la plupart des équipements sont spécialisés et leur revente est très
difficile). La critique est d’autant plus forte que le montant des coûts irrécupérables est liée au
temps (plus la période est courte et plus les coûts sont importants). Il y a un antagonisme entre
la courte période de l’hypothèse d’absence de réaction et la récupération des coûts. S’il y a
des coûts irrécupérables, libéraliser l’entrée ne suffit pas pour assurer la contestabilité du
marché.

- L’hypothèse d’identité des fonctions de coûts et des technologies de production des firmes
installées et des entrantes. Cette hypothèse implique qu’il n’y a pas d’hétérogénéité des firmes
et donc cette théorie utilise l’hypothèse de firmes représentatives. Cette hypothèse est
fortement critiquable car il y a généralement des différences significatives entre les
technologies des entrants et les firmes déjà installées. Très critiqué dans la théorie de
l’innovation

- Il subsiste une incertitude forte quand à la définition du marché pertinent. Pour quelle
échelle de marché fonctionne cette théorie. Chaque marché n’est qu’un sous marché d’un
marché plus large. La déréglementation des marchés ont des impacts sur d’autres marchés (la
déréglementation du transport aérien a eu un impact sur le marché ferroviaire, tout processus
sur un secteur a des implications sur un autre marché ou d’autres secteurs).

- La théorie des marchés contestables suppose que l’unique variable décisive du


comportement du consommateur est le prix. Les consommateurs ont d’autres variables.
Certains consommateurs restent fidèles à une marque, à des services.

3.2 Les implications en termes de déréglementation des marchés


Il y a eu aux Etats-Unis un fort impact sur l’espace politique. En particulier dans la politique
anti-trust qui prend maintenant en compte la concurrence potentielle et pas seulement la
concurrence effective. Baumol se défend d’avoir voulu faire une théorie libérale. Lorsque les
marchés sont parfaitement contestables la plupart des réglementations sont inutiles, puisque
même des structures avec un petit nombre de firmes sont efficaces et ne pénalisent pas les
consommateurs. Il suffit de laisser jouer la concurrence potentielle pour que les structures
tendent vers des configurations soutenables, qui sont technologiquement efficace et qui
assurent une tarification au coût marginal. Par contre si le marché n’est pas contestable, il faut
intervenir pour le rendre contestable (restaurer les conditions de contestabilité), ce qui signifie
qu’il faut libéraliser l’entrée et la sortie. C’est cet argument qui a justifié les politiques de
déréglementation aux US et en particulier dans les industries de réseaux (libéraliser l’entrée
en déréglementant le marché et libéraliser la sortie en diminuant les coûts irrécupérables).
Pour diminuer les coûts irrécupérables on les met à la charge d’autres agents (ex RFF, FT). Le
but étant de laisser faire la concurrence potentielle pour arriver à la théorie des marchés
contestables.

Ces arguments ont surtout joués dans le cas des monopoles naturels. Si le marché est
parfaitement contestable et le monopole soutenable alors le monopole s’autorégulera sous la
pression de la concurrence potentielle et aucune intervention n’est nécessaire. Le seul cas
d’intervention nécessaire dans le cas du monopole naturel est lorsqu’il est non soutenable afin
de le protéger.

Commentaires sur le cas des transports aériens :

24
En 1978, (Airline Deregulation Act) ils ont été déréglementé avec pour conséquence une
libéralisation d’entrée et de tarification. B P et pensait que la déréglementation suffirait à
rendre le marché parfaitement contestable car selon eux, il n’ y avait pas de coûts
irrécupérables dans le transport aériens. Les flottes d’avions se revendent très facilement sur
le marché de l’occasion et le personnel peut changer d’entreprise. Les effets théoriques
attendus étaient des vagues d’entrée de nouvelles firmes, une baisse de prix (si possible
jusqu’au coût marginal) à plus de concurrence et à plus d’efficacité technologique. Selon eux
il n’ y avait pas d’économie d’échelle donc la concurrence aurait du être beaucoup plus
importante. Cela aurait du augmenter le surplus social.

L’un des premiers effets de la déréglementation du transport aérien aux US a été la


réorganisation des réseaux aériens vers des réseaux en étoiles (en hubs) pour trouver des
sources d’économies d’échelle (grandes firmes) et baisser les prix. C’est une réaction
stratégique des firmes. Cette réorganisation a également permis aux firmes installées
d’accroître leur pouvoir de monopole et en particuliers des monopoles locaux sur les hubs. Ici
les hubs sont les aéroports, or le nombre de places dans les aéroports est limité. Les firmes
négocient pour pouvoir utiliser les aéroports. Les low cost ont du créer leurs propres hub pour
rentrer sur le marché.

A cela s’ajoute les effets de congestion, ou effet de saturation (ici l’aéroport), qui limitent
l’entrée de la concurrence. 20 ans après la déréglementation, le marché américain est plus
concentré qu’avant. Il y a eu des vagues d’entrée, mais la plupart n’ont pas survécu ou ont été
rachetés par de grosses firmes.

La déréglementation a fait baissé certains prix mais on a assisté à des subventions croisées
(stratégie). La baisse de prix sur certains segments a été compensée par la hausse sur d’autres.
Certains vols internationaux ont profité d’une baisse de prix financés par un maintient ou une
hausse du prix sur les prix des vols domestiques.

Enfin des phénomènes de concentrations et de restructurations liées à la réorganisation des


réseaux qui s’accompagne de coûts sociaux qui sont la conséquence de la déréglementation.

Les plus gros opérateurs aériens ont installés des systèmes de réservations centralisées.
L’innovation technologique a permis aux plus grosses firmes d’accroître ou maintenir un
pouvoir de monopole sur le marché.

Les effets de congestion ont provoqué des retards, le coût social a provoqué du chômage. Au
final il y a très peu d’exemples qui se sont révélés être fidèles à la théorie des marchés
contestables. Ce sont toutes les stratégies mises en œuvre par les firmes qui bloquent les effets
escomptés (utiliser la théorie et ajouter les implications politiques).

25
Chapitre III - Analyse des stratégies des firmes

1. Les barrières stratégiques à l’entrée

1.1 La théorie du prix limite


Cette théorie repose sur le postulat de Sylos-Labini
En matière de prix, les firmes installées supposent qu’aucun entrant ne se présentera si elles
pratiquent un prix post entrée inférieur au coût moyen de longue période. En matière de
quantité les entrants font l’hypothèse que les firmes installées ne modifieront pas leur niveau
de production après l’entrée. Le prix qui permet d’empêcher l’entrée des concurrents est
appelé le prix limite. Le but est de le déterminer. Le modèle de Sylos Labini est un des
premiers modèles de prix limite.

(1) Il suffit de fixer un prix ou de menacer de fixer un prix après l’entrée inférieur au CM pour
qu’il n’y ait plus d’entrée. (2) L’hypothèse de comportement implique que les entrants
n’anticipent aucune réaction de la part des firmes installées.
Q = QI + QE => Q / => P \
L’entrant sait qu’il y aura une baisse de prix et l’entrant essaie de calculer s’il pourra dégager
un profit après la baisse de prix en fonction des quantités (type Cournot).

hypothèse : les deux firmes ont le même CM et produisent un bien homogène.


t0 : La firme installée produit Qi qu’elle vend au prix Pi
t1 : l’entrant prend sa décision d’entrer ou non
Si la firme installée produit une quantité Qi avant et après l’entrée, la demande résiduelle de
l’entrant correspond à la demande totale du marché – Qi. Par conséquent en fixant Qi, la firme
installée détermine la demande résiduelle de l’entrant. Plus la firme installée produit une
quantité élevée et moins il reste de demande pour l’entrant. La firme installée va chercher à
calculer Qi tel que la demande résiduelle de l’entrant corresponde à un prix inférieur au CM.

P, CM

CM
TMO

TMO QL QC Q

Qc quantité de l’équilibre concurrentiel de long terme.


Sachant qu’on ne produira jamais plus que Qc sur le marché (sinon produit à perte) et que
l’entrant va entrer au moins avec un quantité Q = TMO. La firme installée à intérêt de
produite une quantité QL = QC - TMO
Si la firme installée pratique (PL ; QL) elle dissuade l’entrée, car après l’entrée la quantité
totale sur le marché est inférieur au TMO.
Ce résultat ne tient que si la firme installée maintient sa production QL après l’entrée. Or cette
hypothèse n’est pas crédible et pose un problème de crédibilité de la menace (théorie des
jeux). Si l’entrant entre quand même, la firme installée aura un produit nul (problème de
crédibilité de la menace). La firme installée qui est rationnelle a intérêt a diminuer sa
production pour continuer à faire du profit, elle ne maintiendra pas sa quantité de production.

26
Ce problème de crédibilité de la menace est un problème récurent dans le domaine de la
théorie des jeux, pour les jeux non coopératifs. On distingue deux types de jeux, les jeux
coopératifs et les jeux non coopératifs. Ici il y a deux joueurs, la firme installée et l’entrant
potentiel. C’est un jeu stratégique car la firme installée doit mettre en place une stratégie pour
empêcher l’entrant d’entrer et non coopératif car chaque firme cherche à maximiser son
profit. La théorie des jeux va essayer d’expliquer comment la firme installée peut
effectivement dissuader l’entrant d’entrer grâce à une menace crédible.

1.2 La dissuasion de l’entrée : le modèle avec engagement

1.2.1 Le modèle de base


On suppose un jeu séquentiel avec une firme installée et un entrant.
étape 1 : entrer ou non (EP)
étape 2 : réaction de monopoleur (M)
La firme installée va devoir choisir entre accepter l’entrant (partager le marché) ou le rejeter
(guerre de prix). Au premier nœud de décision l’entrant va devoir décider s’il rentre ou non.

Graphique de théorie des jeux

L’équilibre de Nash est la situation où aucun des joueurs n’a intérêt à dévier unilatéralement
de sa stratégie d’équilibre.

Le vecteur de stratégie (S1*, S2*, … , Sn*) est un équilibre de Nash si et seulement si le pour
tout (i), IIi (Si*, S-i*) > IIi (Si, S-i*)

A NA
EP E (IId, IId) (IIg, IIg) Il y a deux équilibres de Nash :
NE (0, IIM) (0, IIM) (E, A) et (NE, NA)

Cependant (NE, NA) est non crédible car fondée sur une menace non crédible, parce que le
profit de duopole (IId, IId) est supérieur au profit de guerre des prix (IIg, IIg). Si le monopoleur
est rationnel, il préfèrera jouer A.

L’équilibre de Selten : Equilibre parfait en sous jeux (EPSJ)


Pour qu’un équilibre soit crédible il faut qu’il soit parfait en sous jeux. Le seul équilibre
parfait en sous jeux de ce jeu est (E, A).

27
1.2.2 Le jeu avec engagement
Un engagement est une action entreprise par un joueur qui tend à modifier le résultat du jeu en
sa faveur. Cette action doit le contraindre et être connu de tous les autres joueurs.

On va introduire C = le coût de l’engagement du monopoleur. Ce coût est irréversible et


connu de tous les autres joueurs.

Graphique du jeu avec engagement

Sous quelles conditions le monopoleur peut empêcher l’entrée ?

Crédibilité de l’engagement
IIg > IId – C
Rentabilité de l’engagement IId - IIg < C < IIM - IId
IIM - C > IId

IIM – IId représente le gain supplémentaire résultant du monopole sur le duopole


IId – IIg représente le gain supplémentaire qui résulte d’un duopole plutôt que d’une guerre des
prix.

Si cette condition est respectée l’entrée est effectivement bloquée et nous avons ce que l’on
appelle une barrière stratégique à l’entrée, barrière qui résulte du comportement stratégique de
la firme installée.

1.2.3 Les différentes formes d’engagement


Au départ l’engagement était présenté systématiquement comme un investissement en
capacité de production. Un investissement en capacité de production consiste à investir dans
une surcapacité de production (investissement en surcapacité de production). Grâce à ce type
d’investissement en surcapacité d’investissement la firme peut faire des économies d’échelle
et donc produire plus à moindre coût. Le monopoleur est prêt à faire une guerre des prix.

L’engagement peut aussi prendre la forme de R&D, dans le but de baisser son coût de
production. Les barrières stratégiques à l’entrée peuvent prendre beaucoup d’autres formes.
En plus de l’innovation, les firmes peuvent avoir recourt à la réglementation et avoir des
stratégies de capture réglementaire. C’est le cas du lobbying pour une réglementation stricte
du marché (vrai surtout dans le domaine de l’environnement où la commission écrit les
réglementations avec les grands groupes, ex : le cas Dupont de Nemours avec l’interdiction de
certains gaz dans les aérosols, dont il avait l’innovation, pour contrôler le marché) (dans
l’informatique les grands groupes imposent des standards) (les stratégies d’intégration
verticales.)

28
2 La différenciation du produit

2.1 Les différentes formes de différenciation


En levant l’homogénéité du produit l’économie industrielle se détache de la microéconomie.
Les firmes cherchent à se distinguer de leurs concurrents dans le but d’influencer les choix
des consommateurs et si possible de s’approprier une partie du marché en fidélisant une partie
de la clientèle, afin de se procurer un petit pouvoir de monopole local. On ne peut modéliser
la différenciation seulement si on prend en compte que les consommateurs ne voient pas que
le prix comme variable de décision. Il a fallu prendre en compte que le consommateur
raisonne aussi à partir des caractéristiques du produit.

Lancaster a proposé de voir les produits comme un vecteur de caractéristiques.


Q = (q1, q2, … , qn) (dans le cas des voitures les principales caractéristiques sont la
consommation et le prix)

Lancaster distingue deux grands types de différenciation, objective et subjective.

(1) La différenciation subjective n’agit pas sur le bien lui-même mais sur la perception qu’en
ont les consommateurs. On ne change pas intrinsèquement le produit mais son image. C’est le
domaine du marketing et de la publicité. La différenciation objective, par définition, confère
au produit une réelle différence en termes de caractéristiques

(2) La différenciation objective horizontale


Deux biens sont dits différenciés horizontalement si tout en étant identiques du point de vue
de la qualité, ils présentent des caractéristiques objectivement différentes. Dans ce cas, même
pour un prix identique, les préférences des consommateurs sont hétérogènes. Les différences
portent sur autre chose que sur la qualité, comme le design par exemple.

(3) La différenciation objective verticale


Deux biens sont dits différenciés verticalement si vendus au même prix, les préférences des
consommateurs sont homogènes parce que les biens présentent des différences objectives de
qualité. La différenciation se fait sur la qualité, il y a homogénéité des préférences.

2.2 La différenciation horizontale : les modèles de localisation


Ce terme de localisation nous vient d’un terme très ancien, de la cité linéaire, développé par
Otelling. Le terme de localisation est au départ entendu au sens géographiquement. Dans sa
première version, il considère que les biens peuvent être définis par leur localisation
géographique.

a x* b
|----------|---------|----------|---------|
0 EA EB 1

Le concept de cité linéaire : Soit une cité linéaire qui se résume à un segment de longueur
unitaire. Les consommateurs sont distribués uniformément sur ce segment et n’achètent
qu’une unité de bien (cela représente donc la demande) Il y a deux entreprises A et B qui
cherchent à se localiser sur ce segment et offrir un bien (le même bien). La seule chose qui

29
différencie le bien est donc la localisation géographique sur ce segment. On suppose que les
consommateurs payent un coût de transport proportionnel à la distance. Pour savoir comment
se répartissent les consommateurs entre les deux firmes, on utilise le concept de
consommateur indifférent. Le consommateur indifférent x est tel que :

1) Définition du consommateur indifférent


P + t(x-a) = P + t(b-x)
 P + tx – at = p + tb – xt
 x = (a + b)/ 2
avec P = le prix du bien T = le coût du transport

2) Fonctions de demande
DA = x* = (a+b)/2
DB = 1 – x* = 1 – (a+b)/2

3) Fonctions de profit II
c -> cout unitaire
IIA = (P – c) . DA = (p – c) . (a+b)/2
IIB = (P – c) . DB = (p – c) . [1 - (a+b)/2]

4) A l’équilibre chaque firme max son II


Max IIA => dIIA/da = ((p-c)/2)> 0
Max IIB => dIIB/db =- ((p – c)/2) < 0
Le profit de la firme A augmente quand (a) augmente et le profit de la firme B augmente
quand (b) diminue. A l’équilibre a* = b* = 1/2 et IIA* = IIB* = (P – C)/2

Ce résultat s’appelle le principe de différenciation minimale. C’est parce qu’il n’y a pas de
différence de prix, ce qui fait que les firmes n’ont pas intérêt à se différencier. La
différenciation permet à la firme d’accroître son pouvoir de marché, autrement dit fixer son
prix au dessus de son coût. Dans ce modèle les firmes n’ont pas de pouvoir de marché. Elles
ont donc intérêt à se positionner au milieu afin de se partager le marché et récupérer le
maximum de part de marché, c'est-à-dire la moitié.

Ce principe de différenciation minimale montre 2 choses :


La concurrence en prix est nécessaire pour avoir de la différenciation
Il y a dans ce cas une agglomération (ou concentration) des acteurs du marché.
D’une manière empirique, beaucoup de commerces concurrents se localisent au même endroit
que leurs concurrents et spécifiquement lorsque la concurrence en prix est très limitée.

2.2.2 Modèle de différenciation maximale D’Aspremont et al (1979)

(a, PA) x* (b, PB)


|----------|---------|----------|---------|
0 EA EB 1

Dans ce modèle les firmes peuvent choisir leur prix et on pose l’hypothèse de transports
quadratiques. Ainsi le prix des transports a une part plus importante dans le choix du
consommateur. P + t.x2

30
1) Définition du consommateur indifférent
PA + t . (x – a)2 = PB + t . (b – x)2
PA + t.x2 – t.2ax + t.a2 = PB + t.b2 – t.2bx + t.x2
x* = [(PB – PA) / (2t . (b-a))] + [(a+b)/2]

2) Fonctions de demande
DA = x* = [(PB – PA)/(2t . (b-a))] + [(a+b)/2]
DB = 1 – x* = 1 – [(PB – PA)/(2t . (b-a))] – [(a+b)/2]

3) Fonctions de profit II
IIA = (PA – C) . DA = (PA– C) . [(PB – PA)/(2t . (b-a))] + [(a+b)/2]
IIB = (PB – C) . DB = (PB – C) . [1 – [(PB – PA)/(2t . (b-a))] – [(a+b)/2]]

4) A l’équilibre chaque firme max son II (a et b donnés)


Max IIA => dIIA/dPA = 0
[PB / 2.t.(b-a)] – [2.PA / 2.t.(b-a)] + [(a+b) / 2] + [C / 2.t.(b-a)] = 0
2.PA / 2.t.(b-a) = …
PA* = [(PB + C) / 2] + [t.(b-a).(b+a) / 2]

Max IIB => dIIB/dPB = 0


1 - [2PB / 2.t.(b-a)] – [PA / 2.t.(b-a)] – [(a+b) / 2] + [C / 2.t.(b-a)] = 0
2.PB / 2.t.(b-a) = ...
PB* = t.(b-a) – [t.(b-a).(b+a) / 2] + [(PA + C) / 2]

PB* = t.(b-a) – [t.(b-a).(b+a) / 2] + [c/2] + [(PB+C) / 4] + [t.(b-a).(b+a) / 4]

31
PB* = [t.(b-a).(4-a-b) / 3] + C
PA* = [t.(b-a).(2+b+a) / 3] +C
Les prix d’équilibre constituent une marge liée à la différenciation

dPB*/db > 0
dPA*/da < 0
Le prix de la firme B augmente quand (b) augmente et le prix de la firme A augmente quand
(a) diminue. Dans ce modèle les prix sont croissants avec la différenciation.

On cherche la localisation optimale a* et b*


IIA(a,b) = (PA* - C) . DA => dIIA/da = 0
IIB(a,b) = (PB* - C) . DB => dIIB/da = 0

On veut maximiser les profits, mais la fonction de profit dépend de (a) et (b) qui interviennent
à plusieurs niveaux dans la fonction.
IIA(a,b) = [PA*(a,b) – C] . DA[a, b, PA*(a,b), PB*(a, b)]

On va utiliser le théorème de l’enveloppe : Comme la firme maximise IIA par rapport au prix
dans un 2nd temps, on aura des dIIA/dPA = 0. Pour Max IIA on peut ne prendre en compte que
l’effet direct de (a) sur IIA (effet demande) et l’effet indirect (effet stratégique) par rapport à
PB(a,b). DA : La demande de A dépend directe de (a,b) et indirectement de PB, prix choisi par
B.

dIIA/da = (PA* – c) . [dDA/da + dDA/dPB . dPB/da]



dDA/da = [2 + b – 5a] / [6 . (b-a)] (effet direct : demande)

dDA/dPB . dPB/da = [1 / (2.t.(b-a)] . [t/3] . [-4 + 2a]


...
dDA/dPB . dPB/da = [a – 2] / [3.(b-a)] (effet indirect : stratégique)

dIIA/da = [PA* – C] . [ [2 + b – 5a] / [6 . (b-a)] + [a – 2] / [3.(b-a)]]


dIIA/da = [PA* – C] . [ (b – 3a – 2) / (6 . (b-a))]
dIIA/da < 0 ce qui signifie que le profit de la firme A diminue quand (a) augmente.

Symétriquement dIIB/db > 0. La maximisation des profits conduit à l’Equilibre de Nash tel
que a*= 0 et b*= 1. C’est ce qu’on appelle le principe de différenciation maximale. Cet
équilibre résulte de deux effets opposés, l’effet demande et l’effet stratégique.

Effet Demande
Si a < 1/2 => dDA/da > 0
C’est l’effet part de marché qui incite à se déplacer vers le centre (effet centripète).

Effet stratégique
dDA/dPB . dPB/da < 0
Si le firmes se rapprochent (si (a) augmente), la firme B va baisser son prix (car la
concurrence en prix va augmenter). Si la firme B baisse son prix, cela va avoir un effet négatif
sur les parts de marché de A. C’est l’effet guerre de prix. Pour éviter cet effet, les firmes vont
chercher à se différencier au maximum. Dans ce modèle se différencier au maximum signifie

32
se localiser aux extrémités (effet centrifuge). Dans ce modèle l’effet centrifuge domine ;’effet
centripète ce qui conduit à un Equilibre de Nash avec différenciation maximale.

Nous avons vu les deux modèles extrêmes de différenciation minimale et de différenciation


maximale. Il faut savoir que les firmes sont toujours confrontées à un arbitrage entre ces deux
effets. Ce qui signifie qu’en réalité il existe un niveau optimal de différenciation puisqu’il
existe toujours un intérêt de se différencier pour se protéger de la guerre des prix, mais trop de
différenciation limite la part de marché.

Après Otelling, i l y a eu le modèle de cité linéaire qui supprime les effets de bords (sur un
cercle). Ce segment n’est pas forcément une question d’emplacement géographique mais il
peut représenter toute différenciation. Il sert à disposer une variable de différenciation (en
terme de goût, de taille, etc.)

35 minutes

3) Les fonctions de Profits


II1 = (P1 – C) . [ (p2-p1)/ ΔQ – Omin)
II2 = (P2 – C) . [Omax – P2 – P1/ ΔQ]

4) Maximisation par rapport aux prix


Max II => dII1/P1 =

C’est une concurrence par la qualité et par les prix. L’équilibre de Nash se trouve à
l’intersection des deux courbes de réaction (Comme pour Cournot qui est une concurrence en
quantité mais ici c’est une concurrence de prix).
S’il n’y a pas de différence de qualité on retrouve une tarification au coût marginal avec un
profit nul, c’est la guerre de prix du duopole de Bertrand. La différenciation permet
normalement aux firmes de dégager des marges.

P1* = C + (Δ* – 2Δ)/3


P2* = C + (2Δ – Δ*)/5

(1)P2* > P1* la firme qui offre la qualité la plus élevé fait payer un prix plus élevé
(2) (P2*-P1*) = (Θmax – Θmin) . (q2 – q1) / 2
(1) Dans le modèle à différenciation verticale, la firme qui offre le niveau de qualité le plus
élevé peut pratiquer un prix supérieur. La différenciation par la qualité est donc bien source de
pouvoir de marché.

(2) Le différentiel de prix P2 – P1 est croissant avec le différentiel de qualité et avec


l’hétérogénéité des préférences des consommateurs pour la qualité (Θmax – Θmin).
(Θmax – Θmin) constitue la taille de notre segment.

A l’équilibre (P2*, P1*)


D1 = (Θmax – 2Θmin) / 3
D2 = (2Θmin – Θmax) / 3

33
II1 = (Θmax – 2Θmin)2 . Δq / 9
II2 = (2Θmax – Θmin)2 . Δq / 9

Les 2 firmes ont intérêt à avoir une différenciation maximale. Elles ont intérêt à maximiser
Δq. Elles ont toutes les deux intérêt à produire avec une qualité élevée. Il y a donc deux
équilibres de Nash : La firme 1 produit la qualité la plus élevée et la firme 2 la qualité la
moins élevé ou l’inverse.
q2* = qmax et q1*=qmin ou l’inverse

Les niveaux de qualité d’équilibre correspondent à une différenciation maximale (aux


extrémités du segment de qualité. Il y a une indétermination dans le modèle puisque nous
avons 2 équilibres de Nash possibles et que chaque firmes préfèrent produire une qualité
élevée (un peu comme dans le duopole de Stackelberg. Si les choix sont séquentiels la
première firme choisira toujours la qualité max.

Tout comme dans la différenciation horizontale on voit dans ce modèle que la différenciation
vertical est avant tout source de pouvoir de marché et que don elle a pour but d’éviter la
guerre de prix et de permet aux firmes de fixer des prix plus élevés. Ce qui est nouveau c’est
que le rapport qualité / prix joue un rôle central
j* = (P2 – P1) / (Qualité1 – Qualité2)
La différence de prix entre les niveaux de qualité est proportionnelle à l’hétérogénéité des
consommateurs par rapport à leur préférence pour la qualité. C’est pour cette raison que sur
les produits de consommation courante on a une énorme hétérogénéité des produits et
beaucoup moins sur les marché très spécialisés.
On retrouve la différenciation maximale à l’équilibre qui est lié au fait que les firmes ont
intérêt à se différencier au maximum car elles peuvent traduire ça sur les prix et donc en terme
de profit.

Les principales limites sont :

L’identité des coûts de production, en particulier en fonction de la qualité produite. Soit


produire des produits de qualité différents génère des coûts différents. Dans ce cas les prix
traduiront les différences de coûts et les firmes chercheront de la même manière à se
différencier. On aura des prix P1* et P2* avec une différence C1 et C2. Soit produire des niveaux
de qualités différentes ne modifie pas le coût. On est alors à la frontière entre la
différenciation et la discrimination par les prix. Empiriquement les deux cas existent. Par
exemple dans les cométiques la même chaîne de production peut produire un produit pour
différentes marques avec des prix variant du simple au triple. Le coût de production est le
même mais les coûts marketing sont différents ainsi que l’emballage. Segmentation du
marché bas de gamme en grande surface dans un emballage simple, un produit un peu plus
cher dans un emballage moyen en pharmacie, un produit dans un bel emballage avec des
campagnes de communication pour un prix plus élevé. Les firmes combinent les différentes
formes de différenciations.

Tous ces modèles ne fonctionnent que si les consommateurs sont capables de percevoir et
d’évaluer parfaitement la qualité des biens. Cette hypothèse est la plus critiquable parce que
les consommateurs ne sont que très rarement capable d’évaluer la qualité d’un bien. Dans la
plupart des cas, la perception de la qualité est subjective et propre à chaque consommateur.

34
Il existe différents types de biens. Les biens d’expériences pour lequel on ne peut évaluer la
qualité qu’avec l’expérience (goût : alimentaire), les biens de recherche pour évaluer la
qualité il faut chercher l’information (matières premières : vêtements). C’est pourquoi les
signaux de qualité sont essentiels comme les labels qualités pour aider le consommateur à
percevoir plus vite les différents segments. La différenciation verticale est généralement
couplée à des labels qualités.
Les derniers travaux essaient de concevoir des modèles où les consommateurs perçoivent
différentes qualités en fonction de leur niveau d’éducation et d’autres paramètres.

3. La discrimination par les prix

3.1 Présentation générale du concept

3.1.1 Définition
On remet en cause l’hypothèse du prix unique. Il est difficile de le définir car une différence
de prix n’est pas toujours le résultat d’une discrimination par les prix. Pigou est le premier
économiste à avoir essayé de théoriser la discrimination par les prix, sans en donner une
définition synthétique. Finalement c’est Robinson : le fait de vendre le même bien produit par
une seule entreprise à des prix différents à des consommateurs différents. Cette définition
n’est pas suffisante car elle ne tient pas compte des coûts. Philips en 1983 la définit : La
discrimination par les prix implique que deux variétés d’un bien sont vendus par la même
entreprise à deux acheteurs différents à des prix nets différents. Le prix net étant définit
comme le prix payé par le consommateur corrigé des coûts associés à la différenciation du
produit. Le concept de prix net permet de tenir compte des coûts liés à la différenciation et de
faire la différence entre la différenciation et la discrimination. Dans l’exemple des places
SNCF 1ère et 2nd classe, la différence de prix n’est pas liée au coût. Il s’agit donc de
discrimination. Dans le cas des places de cinéma, le bien est le même, il s’agit de
discrimination pure.

Pourquoi les firmes pratiquent elles la discrimination et comment ?


Cela leur permet de s’accaparer une partie du surplus du consommateur (profit).

3.1.2 Les conditions nécessaires (il y en a 5)


- Les firmes doivent disposer d’un certain pouvoir de marché (suffisant) pour fixer leurs prix.
C’est pour cela qu’on va se concentrer sur les monopoles.
- Il faut une certaine imperfection de l’information du coté des consommateurs. En effet si les
consommateurs ont une information parfaite sur les caractéristiques des produits et les coûts
de production, ils ne seront pas prêts à payer le bien à des prix nets différents. Les firmes
exploitent ces imperfections de l’information.
- Il faut que la firme puisse identifier différentes catégories de consommateurs disposés à
payer des prix nets différents pour un même produit. En d’autres termes, les firmes doivent
être capable d’opérer une segmentation de leur marché en différents sous marchés, notamment
sur la base des élasticités prix de la demande.

S’ajoute deux conditions de non transférabilité. Dans l’absolue il n’y a jamais de


transférabilité ou d’intransférabilité totale. Il y a toujours un coût permettant d’accroître le
champ d’application de la discrimination (ex : voitures)
- Il faut qu’il y ait non transférabilité des biens. En effet, si le transfert des biens est possible
librement et sans coût alors la discrimination ne l’est pas. Les consommateurs ayant payé le

35
prix faible sont capables de revendre le bien à ceux susceptibles de l’acheter à un prix plus
élevé. Il existe les barrières réglementaires.
- Il faut qu’il y ait une relative non transférabilité de la demande entre les différents segments
de marché sinon tous les consommateurs vont aller vers le segment où le bien est le moins
cher. Il faut qu’il y ait des contraintes d’incitation efficaces qui fassent que les gens d’eux
mêmes aillent se localiser sur les segments qui leur correspondent payer le prix associés.

3.1.3 Les trois degrés de discrimination (selon Pigou)


Le premier degré correspond à une discrimination parfaite. Chaque unité d’un même bien est
vendu à un prix différent à chaque consommateur de telle sorte que le prix payé par chaque
consommateur soit égal à son prix de réserve (prix maximum qu’il est prêt à payer).

La discrimination par les prix au second degré. La firme n’a pas d’information sur les prix de
réserve des consommateurs mais elle est quand même en mesure de segmenter son marché et
de fixer n prix différents de telle sorte que les consommateurs qui ont un prix de réserve
supérieur à P1 vont payer P1, les consommateurs qui ont un prix de réserve inférieur à P1 mais
supérieur à P2 vont payer P2, etc. mais elle ne sait pas qui est sur chaque segment de marché. Il
va y avoir un mécanisme d’autorévélation des préférences. La SNCF offre un couple prix
qualité et le consommateur se révèle en choisissant.

La discrimination au troisième degré, l’entreprise est capable de distinguer grâce à un critère


exogène et directement observable les différents segments de marché et les consommateurs de
chaque segment (tarif étudiant). Dans ce cas l’entreprise fixe un prix différent sur chaque
segment de marché en fonction de l’élasticité prix.

3.2 La discrimination parfaite


On se concentre sur le cas du monopole pour simplifier et parce que c’est eux qui ont le plus
de pouvoir de marché.

Monopole :
II = RT(Q) – CT(Q)
II = P . Q – CT(Q)
Max II => dII/dQ= 0
Rm = Cm (condition d’équilibre du monopole)

Monopole ordinaire
Hypothèse : Cm = CM = C

P, Rm
A Surplus du producteur est le carré P EM C
P* EM Surplus social = carré + triangle
B Cm = CM D parfaite \/i, Pi = PiR tant que Pi > C
C Q* = Q*DP
SC = 0 et II = SP = ABC
Rm RMD = P(Q) Le SS et le II augmentent
* *
Q Q DP

Il y a une forte augmentation du profit du monopoleur qui s’explique par une récupération des
2 triangles. Le monopoleur s’accapare du SC (AEMP*) et augmente sur les quantités échangés

36
sur le marché Q* -> Q*DP. Grâce à la discrimination, l’infinie segmentation permet d’avoir
certains prix plus bas, donc de nouveaux consommateurs ont accès au marché. Il y a donc un
effet négatif mais également un effet positif.

Avec une tarification en 2 parties : un forfait et un prix unitaire, on peut arriver au même
résultat. Avec 2 catégories de consommateurs :

P2R
P* = C
P1R T1 = |\
C T2 = |\

37
3.3 La discrimination du second degré
Dans ce cas le monopoleur n’a pas l’information sur les prix de réserves et il ne connaît pas
les préférences des consommateurs mais il sait qu’il y a des segments avec des
consommateurs prêts à payer plus et consommer plus. Le monopoleur va chercher à fixer des
structures de prix tel que les consommateurs choisissent des couples, prix - qualité ou prix -
quantité en fonction de leurs préférences.

(P, Q) -> (P1, Q1) <-- Autorévélation des préférences Consommateurs


-> (P2, Q2) <------------------------------------ Préférences
-> (P3, Q3) <-- U1, U2, Um

Q peut être associé à la qualité (prestations) ou à la quantité (tarifs non linéaires), par
assortiments (bundling). Il y a une incitation d’acheter un article avec un autre / frontière avec
la vente liée (interdite)

Tarifs non linéaires


Hypothèses : Monopoleur avec deux catégories de consommateur G1 et G2. Il souhaiterait
vendre Q1 biens à V1 euros (prix total) et Q2 bien à V2 euros. Il sait ou estime qu’il y a des
différences d’utilité des consommateurs. Estimation monétaire de l’utilité.
U(Q,G2) > U(Q,G1) et dU(Q/G2)/dQ > dU(Q/G1)/dQ

U(Q,G2) > U(Q,G1) => G2 est prêt à payer plus que G1


dU(Q/G2)/dQ > dU(Q/G1)/dQ => la pmc de G2 > la pmc G1
Les consommateurs du groupe sont donc prêt à payer plus et à consommer plus.

U(G2)
U(G1)

Comment le monopoleur va-t-il fixer V1 et V2 pour que les consommateurs aillent


naturellement vers les produits qui leurs correspondent.

Contraintes :
U(Q1, G1) – V1 > 0
U(Q2, G2) – V2 > 0 Les consommateurs ont intérêt à consommer

Contrainte d’incitation compatible ou contrainte d’auto sélection


U(Q1, G1) – V1 > U(Q2, G1) – V2
U(Q2, G2) – V2 > U(Q1, G2) – V1

Si ces 4 contraintes sont respectées alors la discrimination par les prix peut fonctionner.

38
II monopoleur
V1 = U(Q1,G1)
V2 = U(Q2, G2) – U(Q1, G2) + U (Q1, G1) = U(Q2, G2) – U(Q1, G2) + V1

Hypothèse :
a = part de marché G1
(1 – a) = part de marché G2
C = coût unitaire de production

II = a (V1 – C.Q1) + (1 – a) . (V2 – C.Q2)


II = a (U(Q1,G1) – C.Q1) + (1 – a) . (U(Q2, G2) – U(Q1, G2) + U(Q1,G1) – C.Q2)

Max II => dII/dQ2 = 0 et dII/dQ1 = 0


(Q1, Q2)

dII/dQ2 = 0  [U – a] . [dU(Q2 , G2)/dQ2 . C]  Um(G2) = C


dII/dQ1 = 0  a [dU(Q1 , G1)/dQ1 . C] + (1 – a) . [dU(Q1 , G1)/dQ1 – dU(Q1 , G2)/dQ1 = 0
dII/dQ1 = 0  dU(Q1 , G1)/dQ1 = C + [(1 – a)/a] . [dU(Q1 , G2)/dQ1 – dU(Q1 , G1)/dQ1]
Ici, l’utilité marginale = coût marginal + quelque chose
Si l’utilité augmente ça veut dire que les quantités vont diminuer
[(1 – a)/a] =
[dU(Q1 , G2)/dQ1 – dU(Q1 , G1)/dQ1] = différence d’utilités marginales entre G1 et G2

Ces deux conditions expriment que pour maximiser son profit le monopoleur va pratiquer une
tarification non linéaire telle que :
(1) Les consommateurs du groupe 2 à forte demande consomment une quantité Q2 telle qu’ils
valorisent une unité supplémentaire exactement à son coût marginal. On retrouve là une
condition d’optimisation tel que le monopoleur exploite au maximum le potentiel de demande
de ce groupe.
(2) Pour les consommateurs du groupe 1 qui ont une faible demande, la valeur affectée à une
unité supplémentaire du produit est supérieure à son coût marginal. Ceci implique que ces
consommateurs ne consomment pas le maximum de ce qu’ils pourraient consommer mais le
monopoleur s’arrange pour leur faire payer exactement ce qu’ils sont prêt à payer (ils n’ont
donc pas de surplus) et leur vendre une quantité Q1 qui va dépendre de la répartition du
marché entre les deux groupes et de la différence de préférence entre ces deux groupes
(différences d’utilités marginales) Plus la différence entre les deux groupes est grande (en
terme de parts ou d’utilité marginale) plus le monopoleur va vendre d’avantage de quantités
au groupe 2 plutôt qu’au groupe 1.

39
U ² pente = C + 1-a …
U(G2)

U(G1)
V2
V1

Q1 Q2 Q

Q2 telle que : Um(G2) = C


Q1 telle que : Um(G1) = C + [(1 – a)/a] . [dU(Q1 , G2)/dQ1 – dU(Q1 , G1)/dQ1]

V1 = U(Q1,G1)
V2 = U(Q2, G2) – U(Q1, G2) + V1

On commence par déterminer Q2 en traçant une tangente à U(G2) qui a pour pente le coût C
(ici au hasard). On déduit Q1 en traçant une tangente à U(G1) de pente C + a… donc de pente
supérieure. On déduit ensuite le prix V1 au point où la tangente et la courbe se coupent. On
mesure à ce point l’écart entre U(G1) et U(G2) et on enlève cet écart du point où la courbe et la
tangente se coupent pour obtenir V2.

On en déduit 4 grands principes :


(1) Avec la discrimination du second degré les consommateurs du groupe 1 ne récupèrent pas
de surplus net, alors que les consommateurs à demande élevée font un surplus positif. Les
consommateurs du groupe 2 tirent profit de cette discrimination à l’inverse des
consommateurs du groupe 1. Avec la tarification non linéaire c’est toujours les plus gros
consommateurs qui récupèrent un surplus.

(2) La contrainte d’incitation compatible ou d’auto sélection est telle que les consommateurs à
demande élevé ne choisissent pas le couple (Q1, V1) mais le couple (Q2, V2). Ce principe est
essentiel puisque c’est ce qui permet l’autorévélation des préférences qui est le but de la
discrimination du 2nd degré.

(3) Les consommateurs demande élevé consomment la quantité socialement optimale, alors
que les consommateurs de G1 consomment une quantité sous optimale.

(4) Plus la différence entre les deux groupes est forte en terme de part de marché et de
propension à consommer, plus le monopoleur à intérêt à vendre une part importante au groupe
le plus intéressant, c'est-à-dire le groupe à demande élevée.

40
Il faut noter qu’on peut appliquer le même raisonnement en terme de qualité, c'est-à-dire avec
des prix nets (différenciation incluse). On peut aussi pratiquer cela avec des tarifications en 2
parties. Les professionnels ont souvent un abonnement plus cher mais un coût à la seconde
moins cher.

3.4 La discrimination du troisième degré


C’est lié aux tarifs étudiants, retraités, chômeurs, lieu de résidence. Les firmes ont un critère
exogène et directement observable. A chaque segment de marché correspond une élasticité
prix différente.

Monopoleur -> G1 P1(Q1)


-> G2 P2(Q2)
Max II = [P(Q1) . Q1] / RTG1 + [P2(Q2) . Q2] / RTG2 – C(Q1) – C(Q2)
(Q1, Q2)

dII/dQ1 = 0 => P1(Q1) + dP1(Q1)/dQ1 = Cm


dII/dQ2 = 0 => P2(Q2) + dP2(Q2)/dQ2 = Cm

eQ1/P1 = dQ1/dP1 . P1/Q1


eQ2/P2 = dQ2/dP2 . P2/Q2

P1(Q1) . [ 1 – 1 / eQ1/P1] = Cm
P2(Q2) . [ 1 – 1 / eQ2/P2] = Cm

Le groupe à forte élasticité prix gagne à cette discrimination et inversement. Pour pratiquer
des prix proche du coût marginal on fait payer les consommateurs à plus faible élasticité prix.

41
Penser aux structures de marché et les stratégies. On a vu différents types de variables sur
lesquelles les firmes élaborent des stratégies (barrières, prix, différenciation). Dans une étude
de cas il faut manger ces trois choses. La prof peut demander soit un exercice de type
différenciation, soit une étude de cas. Une entreprise propose tant de produits à tels prix, il
faut ensuite analyser la stratégie de la firme. Dans ce cas il faut mobiliser l’ensemble des
connaissances.

Pour l’examen : 3 possibilités


Exercice 1 : exercice type micro avec barrière à l’entrée.
Exercice 1’ : sur la théorie du prix limite. (TMO équilibres cpp monopole)
Exercice 2 : étude de cas
Exercice 3 : texte

42

Vous aimerez peut-être aussi