Economie Industrielle Complet
Economie Industrielle Complet
Economie Industrielle Complet
L’économie industrielle a pour objet l’étude des firmes et des structures de marché
(monopole, oligopole, firme dominante, concurrence pure et parfaite). On s’intéresse aux liens
entre les stratégies des firmes et les structures de marché et à l’évolution des industries
(politiques publiques, le progrès technique).
Une industrie correspond à l’ensemble des firmes qui produisent des biens ou des services
étroitement substituables (proches) qui se trouvent donc en concurrence sur le même marché.
L’élasticité croisée prix de ces biens est relativement élevé (augmentation du prix d'un bien
=> augmentation de la demande d'un autre bien) - Ed/p = dQ/dP . P/Q L’hypothèse de biens
homogènes n’existe pas dans la réalité car les firmes cherchent toujours à se différencier.
1
1. L’école anglo-américaine
Il a introduit la notion de courbe d’expérience qui explique les rendements d’échelle. Les
firmes font des économies internes et des économies externes. Le CM diminue. Les
économies externes sont liées aux débouchées plus stable, à l’amélioration des prix des
fournisseurs et à la qualité des consommations intermédiaires.
|C
|
|
|
|
|
|
|_________________________ Q
Courbe d’expérience
Depuis 1840, l’accroissement des firmes est significatif et durable, et à la fin du 19ème les
premiers géants industriels apparaissent. Ce phénomène va-t-il mener à des monopoles dans
toutes les industries ? Marshall étudie le monopole sur l’exemple de la distribution de gaz et
se demande si l’état doit intervenir.
En 1890, la première loi antitrust est votée aux Etats Unis : Sherman Act. Cette loi prohibe le
monopole et les tentatives de monopolisation. Elle interdit aussi toute forme de collusion et
prévoit des pénalités en cas de non respect de la loi. Il faut garder un certain niveau de
concurrence pour l’efficience des marchés.
2
Le phénomène s’est ensuite ralenti avec une stabilisation progressive du degré de
concentration, avant tout en raison les lois antitrust. La forte croissance des 30 glorieuses a
aussi permis de créer de nouvelles entreprises et donc de diminuer la concentration.
Ils constatent aussi que les dirigeants d’entreprise possèdent en moyenne moins de 3% du
capital. Les dirigeants ne sont donc pas les véritables propriétaires. Les vrais propriétaires
sont les actionnaires qui ne dirigent pas l’entreprise. Ce phénomène de séparation est un
phénomène post industrialisation.
Dans son analyse elle travaille aussi sur les rendements croissants. Elle remet en cause
l'hypothèse de forme en U des fonctions de coûts (la simple observation de l’évolution de la
taille des firmes la remet en cause).
L’Analyse de Chamberlain porte également sur la concurrence imparfaite, mais selon lui,
l’imperfection de la concurrence est liée à l’action volontaire des firmes qui se délimitent un
domaine de marché.
Les firmes différencient leurs produits pour s’accaparer un segment de marché. Il existe
différentes formes de différenciations dont chaque forme apporte un élément de monopole. La
différenciation leur permet ainsi de pratiquer un prix plus élevés, ce qui génère un surprofit.
Ce surprofit est accepté par le consommateur qui a en contre partie, un choix plus important
de produits.
3
1.1.4. Analyse Schumpetérienne de la concurrence
Schumpeter met au cœur de l’évolution économique « l’entrepreneur innovateur »
(l'entrepreneur héroïque). L’innovation émerge comme le facteur clé de la croissance
économique. En innovant l’entrepreneur crée de la connaissance qui pourra servir à d’autres
secteurs ou d’autres agents. On parle « d'externalités positives »
Il montre que les innovations sont associées à des monopoles temporaires. Lorsqu’une
entreprise innove, elle protége ses innovations par des brevets afin d'amortir ses frais de R&D.
Il introduit aussi la notion d’imitation et de diffusion des technologies.
Ces innovations, moteur de la croissance, arrivent par grappes et sont à l’origine de cycles. La
« destruction créatrice » désigne la disparition de certaines industries alors que d’autres se
créent. (biotechnologies, industries lourdes)
Sur le plan théorique, l’IO doit s’affranchir de la microéconomie qui utilise des concepts trop
abstraits et dont le modèle de concurrence pure et parfaite est trop statique.
Il faut remettre en cause le concept de marché définit par un produit homogène au profit de la
notion plus réaliste d’industrie au sens marshallien, c'est-à-dire constitué d’un nombre
variable de firmes produisant des produits hétérogènes plus ou moins substituables et où les
caractéristiques techniques de l’offre l’emportent sur celles de la demande. C’est l’offre qui
détermine le marché pertinent, non la demande.
Il faut adopter l’hypothèse selon laquelle le comportement des firmes et leur performance sont
largement déterminées par les structures de marché. C’est une approche structuraliste de
l’économie industrielle. La « triptyque S-C-P » :
Structures => Comportement => Performance
L’industrie est avant tout caractérisée par les conditions de base.
4
Conditions de base
Offre Demande
Structures de marché
Comportements
Stratégies de prix
Stratégies de différenciation
Innovation en R&D et stratégie d’innovation
Stratégies marketing
Investissements en capacité de production (capital fixe : usines, machines etc..)
Performance
Efficacité de la production
Efficacité de l’allocation des ressources
Evolution des parts de marché
Evolution de l’emploi
Indicateurs financiers (taux de profit, taux de marge)
Dépôts de brevets, taux d’innovation
5
1.3 Les limites de l’approche S-C-P
Les boucles de rétroaction : Schéma S-C-P Lorsque l’on modifie le P, les S et les C vont être
modifiés. Ils y a une dynamique qu’on doit prendre en place dans ce schéma. Pour l’instant
cela n’est pas pris en compte. La relation S-C-P ne devrait pas être envisagée que de façon
linéaire, il faudrait prendre en compte les boucles de rétroaction. Progressivement on a mis
en évidence le caractère rétroactif de ce schéma. Les comportementalistes (point de dép :le
comprotement) s’opposent alors aux structuralistes (point départ de la structure). Pour
l’école de Chicago, ce sont les performances qui influencent les structures de marché avec
pour conséquence que les plus efficaces deviennent monopoleurs.
Ces critiquent ont sophistiqué les approches.
L’analyse des comportements. Pour Mason, les comportements ne sont qu’un filtre entre les
structures et les performances, ils ne sont donc pas au centre de son analyse.
Les comportementalistes (behavioristes) pensent qu’il faut se recentrer sur le comportement
des firmes et leurs stratégies. Cette limite va être très vite dépassée car les économistes qui se
sont inscrits dans la lignée de Manson ont par la suite levés cette limite par leurs recherches.
- Les relations inter industries. Le triptyque S-C-P n’est fait que pour une seule industrie. On
l’étudie de manière isolée sans prendre en compte ses relations avec les autres industries. Ces
relations sont pourtant multiples : (certaines industries sont fournisseurs pour d’autres
industries, ex auto et énergie).Pas de prise en compte des co-industries dans le schéma (les
secteurs industriels s’influencent les uns, les autres). L’IEF critique particulièrement ce
dernier point.
L’IEF apparaît plus tard en France, car c’est l’un des derniers pays à s’être industrialisé. De
plus il y un regain d’intérêt pour deux raisons : Avec les grandes mutations (vagues de
concentrations industrielles), on se rend compte que les recommandations en terme de
politiques publiques ne sont pas très claires en IO. Or la France a une économie très
centralisée avec une intervention importante de l’Etat. A cette période on fait également des
progrès considérables en matière de statistiques et de collectes de données (création de
l’INSEE).
6
C’est dans ce contexte(+de données, grandes mutation et la puissance publique que l’EIF se
développe, de façon très empirique et avec pour question centrale : le découpage du système
productif. (Comment on le découpe se système productif ?)
b) Les analyses se concentrent sur les stratégies des acteurs et leurs articulations au sein du
système industriel (relation verticale, sous-traitance, stratégies de groupes).
c) Les travaux se consacrent aux analyses des différents découpages du système productif et
donc à la recherche de classification et de mode de découpage pertinent. (filières, secteur
primaires etc.)
La contradiction vient du lien au réel entre école anglo-saxonne et française. Les français sont
plus empiriques. Ils veulent tout prendre en compte. Les anglo-saxons sont trop théoriques, il
y a trop de limites. La question du lien à la réalité est centrale.
Le principal critère est l’APE (activité principale exercée) qui correspond à la majeure partie
de son CA, les autres activités sont qualifiées de secondaires (E pluri productrices)
Le secteur représente l’ensemble des entreprises qui ont la même activité principale. Par
définition, une entreprise ne peut donc être que dans un secteur.
La branche regroupe l’ensemble des fractions d’entreprises (ou établissements) qui ont la
même activité, que ce soit à titre principal ou secondaire. Une entreprises peut donc appartenir
à plusieurs branches.
Exemple :
7
E1 productrice de biens : (APE = A)
E2 productrice de biens : (APE = A) + B
E3 productrice de biens : (APE = B) + A
Secteur A : E1, E2
Secteur B : E3
Branche A : E1, E2, E3
Branche B : E2, E3
Toutes les statistiques industrielles françaises sont références par un code de la nomenclature
NAF. Pour les comparaisons européennes on utilise la nomenclature NACE (nomenclature
des activités de la communauté européenne).
Plus les firmes sont diversifiées et plus le découpage est difficile à utiliser. Depuis les années
1980 il y a diversification des entreprises. En période de crise les grandes entreprises se
recentrent sur leur activité de base. Le découpage des industries à une période dépend de la
conjoncture économique de cette période.
Les relations verticales, des matières premières vers les biens finaux (ce sont des relations de
valorisations : on transforme la matière première en biens ou services).
Les relations transversales concernent des fonctions disponibles pour tout le système productif
(construction, énergie, transport, finance, communication). Lors d’une crise énergétique ou
financière, tout le système productif est impacté (tout est co-dépendant).
Le concept de filière est un concept franco-français qui s’est développé dans les années 1970
et qui est vite devenu le symbole de l’EIF. La filière est définit comme une succession
d’opérations de transformation aboutissant à la production de biens. Au départ la filière est
8
conçue comme un enchaînement d’activités permettant la mise à disposition sur le marché
d’un bien de consommation. Om privilégie la relation verticale.
9
Elle s’organise autour de trois types de relations :
- Les opérations techniques (de transformation), commerciales et financières (qui existent à
chaque niveau de la filière), stratégiques déployées par les firmes au sein de la filière (qui sont
des opérations économiques, ex : rachat, fusion, cession, acquisition).
Dans les années 1980, l’industrie française s’est structurée autour de certains groupes.
Beaucoup de stratégies de groupes (rachat, fusion…), et de diversification. Dans les années
1990, dans un contexte de crise, les groupes ont cédé leurs activités secondaires et se sont
concentrés sur les activités principales. Aujourd’hui s’il reste une tradition, dans la recherche
cette approche reste marginale.
10
Le principal facteur explicatif est l’externalisation de certaines tâches vers les services. Pour
baisser les coûts, les entreprises font appels à des prestataires de service (sécurité,
maintenance, entretient). Si on a créé autant d’emplois dans les services qu’on en a détruit
dans l’industrie, il y a un problème de qualification.
Les gains de productivité, grâce au progrès technique, ont été énormes. Ils expliquent une part
de la diminution de l’offre de travail (il y a eu transfert mais aussi destruction)
Malgré cela l’industrie représente toujours 18% de l’emploi, 20% de la valeur ajoutée totale et
80% de la R&D. Il y a une marginalisation et de transformation des activités industrielles vers
des activités de plus en plus intensives en R&D mais moins intensives en main d’ouvre
productive.
11
1. Structures de marché et politiques de la concurrence
12
1.1 Indices de concentration
Le rapport de concentration
Pour N firmes dans l’industrie, Cn = Σ Pi , représente les parts de marché des n plus grands
firmes. On utilise généralement le C4. Il ne respecte pas le principe de non ambiguïté parce
qu’il dépend du choix de n et ne nous renseigne pas sur la distribution.
Cn A
B
L’indice de Hirschmann-Herfindahl
H = Σ P i2
Propriété remarquable
q = Q/N taille moyenne
σ2 = (1 / N) Σ (qi - q)2
V=σ/q (coefficient de variation de taille)
H = (V2 +1) / N (H augmente avec V et diminue avec N)
2 2 2
V =σ /q
C’est une mesure de concentration qui prend compte les inégalités de taille V.
Il surestime la concentration car les parts de marché sont élevés au carré, il surestime le poids
des grandes firmes.
0<H<1
Si monopole, H =1
Si oligopole avec répartition équitable des parts de marchés, H = (1 / N)
Utiliser l’indice H :
1/ H est l’équivalent de H. Il nous indique que l’industrie est concentrée comme si elle était
composée de 1 / H firmes de tailles égales.
H = 0,25 1/H = 4
N=6 1/N = 0,17
0,25 – 0,17 = 0,08 est la partie de la concentration due aux inégalités de taille (soit 1/3).
Ce n’est pas une industrie très concentrée mais il y a des inégalités de taille.
13
1.2 Indices d’inégalité de taille
Le coefficient de Gini
C’est un indicateur de mesure des inégalités de taille, si toutes les firmes ont la même taille, al
courbe de Lorentz se confond avec la droite (0S)
% cumulé de la production
100% S
100%
0 T
Courbe de Lorentz % cumulé du nombre de firmes par ordre croissant de taille
0<G<1
Si monopole, G = 1
Si toutes les firmes ont la même taille, G = 0
14
2. Les barrières naturelles à l’entrée
On différencie les barrières à l’entrée dites naturelles et les stratégies entre les firmes. Dans le
triptyque SCP on remet en cause la fluidité du marché, les entrées étant soumises à des
réglementations et à des conditions. Stigler définie la barrière à l’entrée est un coût de
production qui doit être supporté par une firme voulant entrer sur un marché alors que les
firmes déjà installées n’ont pas à supporter ce coût. Bain (1968) a proposé une analyse
systématique des barrières à l’entrée et les définit en terme d’avantages. Les barrières à
l’entrée sont les avantages que détiennent les firmes d’un secteur sur les entrants potentiels.
Ces avantages se manifestent dans leurs capacités à vendre au dessus du prix concurrentiel
sans attirer de nouvelles entreprises dans l’industrie. On distingue 4 types de barrières à
l’entrée dites naturelles.
15
2.3 Les économies d’échelle et de variété
Le concept de théorie d’échelle met en relation l’échelle de la production et les coûts. C’est
une barrière à l’entrée importante et naturelle. Une fonction de production avec des
rendements d’échelle croissants conduit toujours à une fonction de coûts moyens à long terme
décroissante et donc à des économies d’échelle. Ces économies d’échelle vont conduire les
firmes à rechercher la taille optimale, c'est-à-dire la taille qui lui permet de minimiser ses
coûts. La TMO est la quantité minimale de production qui permet de produire au minimum du
coût moyen.
TMO
Les économies d’échelle sont source de barrière à l’entre car elles augmentent la TMO (taille
minimale optimale). Spécialisation du travail, les coûts fixes (amortissement), économies liées
aux coûts de fonctionnement. Toutes les industries sont caractérisées par des économies
d’échelle. C’est la TMO qui varie entre chaque industrie et la forme de la courbe de coût.
Cette remontée du coût moyen est due aux nouveaux coûts fixes nécessaires à l’augmentation
de la production.
Le terme d’économie de variété (ou gamme ou envergure, scope economics) concerne la pluri
production. Elles concernent les cas ou produire plusieurs bien différents permet à la firme de
réduire son coût moyen de production globale. Pour deux bien Q1, Q2, il y a économie de
variété si C(Q1, Q2) < C(Q1,0) + C(0,Q2) pour une même quantité de production. Il y a des
économies de variétés dues à la mise en commun de certains coûts, certains équipements. Il
existe parfois des effets de synergies ou de complémentarité. (ex : économie industrielle, on
récupère les copeaux de bois pour faire de nouveaux produits, les marchés très segmentés).
Une façon de bloquer le marché est de produire sur toute la segmentation du marché. La
prolifération est une stratégie dont le but est d’envahir le marché pour ne pas laisser de places
aux nouveaux entrants. C’est une stratégie de la firme.
16
3. La politique de la concurrence
La première partie indique que toute pratique visant à réduire la concurrence est interdite et
notamment sur les paix. La deuxième partie réglemente les pratiques monopolistiques et toute
pratique voulant volontairement monopoliser un marché.
Il a ensuite été complété du Clayton Act (1914) vise certaines pratiques et interdit notamment
la discrimination par les prix, les ventes liées, les clauses d’approvisionnements exclusifs et
les fusions lorsque cela réduit la concurrence. (ex révision obligatoire chez le concessionnaire
pour conserver la garanti du véhicule).
Nulle société relevant de la Federal Trade Commision ne peut acquérir tout ou partie des avoir
d’une société lorsque l’effet de cette acquisition risque d’affaiblir notablement la concurrence
ou de créer un monopole dans une branche quelconque du marché.
La politique américaine s’est assouplie au cours du temps suite aux critiques de l’école de
Chicago. Il y a un arbitrage à faire dans l’efficacité. Il y a beaucoup de fusion qui permettent
des gains d’efficience technologique. Elles rationalisent leur production et il est fréquent
qu’après une fusion leur coût marginal de production baisse, ce qui apporte un surplus social.
Il appartient donc aux autorités de faire un arbitrage entre ce nouveau pouvoir de marché qui
leur permet d’augmenter le prix et la baisse du coup de production. Lorsqu’une fusion est
étudiée, elle va être évaluée en fonction de ces critères en estimant ex ante quels vont être
leurs impacts.
17
3.1.3 Délimitation du marché et définition du pouvoir de marché
La définition du marché doit non seulement spécifier le produit concerne mais aussi la zone
géographique à prendre en compte pour évaluer le degré de concurrence. Plus l’échelle
géographique est grande plus la fusion est limitée. Il faut également prendre en compte le
produit. Coca et Pepsi sont ils des cola / sodas / boissons. Il faut donc tout d’abord définir le
marché pertinent. Dans le code des fusions ont trouve une définition du marché pertinent : un
marché est le plus petit groupe de produits et la plus petite zone géographique qui permettrait
à un monopole hypothétique d’élever le prix au dessus du niveau courant et ce d’un certain
pourcentage. On étudie ensuite la corrélation des prix des différents produits qu l’on va
inclure dans la définition du marché, en évaluant l’élasticité croisée des biens. Pour évaluer le
pouvoir de marché on évalue la capacité a fixer un prix au dessus du taux marginal. Le taux
de marge = 1 - coût marginal / prix.
Art 85 : Sont incompatibles avec le marché commun et interdits, tout accord entre entreprises,
toute décision d’association d’entreprises et toute pratique concertée qui sont susceptibles
d’affecter la concurrence entre les états membres et qui ont pour objet ou pour effet,
d’empêcher, de restreinte ou de fausser le jeu de la concurrence à l’intérieur du marché
commun. (fixer les prix, contrôler la production et les débouchés) répartir les marché ou les
sources d’approvisionnements, appliquer des conditions inégales à des partenaires
commerciaux et pratiquer les ventes liées).
Alinéas : Toute fois cet article peut être déclarer inapplicable à tout accord, toute décision, ou
pratique concertée qui contribue à améliorer la production ou la distribution des produits, ou à
promouvoir le progrès technique ou économique, tout en réservant aux utilisateurs ou aux
partenaires une partie équitable du profit qui en résulte. La commission subventionne des
Accords de Coopération en R&D (conciorcium). Ce qui constitue une forme d’entente. Le
Programme Cadre de R&D définit pour 4 ans les objectifs et les domaines prioritaires en
Europe. Il a donc fallu prévoir cette exception sous certaines conditions.
Art 86 : Est incompatible avec le marché commun et donc interdit, le fait par une ou plusieurs
entreprises d’exploiter de façon abusive une position dominante sur le marché.
(elle ne peut pas en abuser pour contrôler les prix ou la production)
18
Chapitre 2 – Théorie des marchés contestables (disputables)
Cette théorie a été développée à la fin des années 1970 par Baumol, Panzar, Willig
Elle a pour ambition de fournir une nouvelle analyse des structures de marché et en particulier
des monopoles. Elle met en avant la question des barrières à l’entrée et porte sur la
concurrence potentielle (des concurrents potentiels entrants par opposition à la concurrence
effective des firmes installées sur le marché).
Cette théorie montre que c’est la concurrence potentielle et non effective qui est déterminante.
On peut avoir des structures des marchés très concurrentielles même avec très peut de firme
en raison de la concurrence potentielle. Les entrants potentiels sont déterminés par les
barrières à l’entrée, dont certaines sont réglementaires. Cette théorie a justifiée les politiques
de déréglementation des certains marchés aux US.
Pour les auteurs, cette théorie n’est pas volontairement libérale, cela dit dans les faits, ces
auteurs ont apporté des arguments pour défendre la libéralisation des marchés.
1. Présentation de la théorie
La première condition implique que les entrants peuvent utiliser les même technologie de
production et qu’ils peuvent servir les même demandes qu les firmes déjà installées. Il n’y a
donc pas de barrière à l’entrée au sens de Stigler. Le marché est parfaitement contestable
lorsqu’il est fluide, le pouvoir de marché peut être contesté à tout moment.
19
Ces monopoles naturels correspondent aux industries de réseau (qui nécessite la mise en place
d’un réseau de transport, de communication ou de distribution). Ce réseau nécessite un
investissement un coût fixe important, qui crée des économies d’échelle qui entraînent une
sous additivité des coûts. C’est ce type d’arguments qui justifiaient la nationalisation de ces
industries (monopoles publiques).
1.2.2 Concepts de configuration réalisable (workable) et soutenable
Ces deux concepts donnent lieu à un équilibre. Ils définissent l’équilibre par 3 variables, le
nombre de firmes n, les quantités produites Q et le prix P.
Une configuration est dite soutenable si elle n’offre pas de possibilité d’entrée profitable.
- Toutes les entreprises ont accès à la même technologie de production
- L’entrant suppose que le prix de marché P ne sera pas modifié par son entrée
- Pe . Qe – C(Qe) < 0 pour tout P < Pe et Qe <Q(Pe)
Les firmes installées peuvent ici maintenir leur pouvoir de marché car un nouvel entrant ne
pourrait le faire mais qu’à perte.
- L’efficacité technologique (c’est celle qui minimise les coûts au niveau de l’industrie)
L’argument intuitif : S’il existe une configuration technologiquement plus efficace, c'est-à-
dire pouvant réaliser la même production totale à un moindre coût que la configuration
d’équilibre, cela signifie qu’il y a au moins une firme de cette configuration alternative qui
pourrait entrer dans l’industrie et réaliser des profits (plus qu’elle à un coût plus faible) par
conséquent la configuration initiale n’était pas soutenable et ne peut pas constituer un
équilibre.
Cm, CM
Cm(Q)
20
P CM(Q)
- Une situation réalisable et soutenable requiert qu’aucune firme ne peut faire de profit
(monopole et oligopole)
Si les profits sont négatifs, la configuration n’est pas réalisable et si les profits sont
strictement positifs la configuration n’est pas soutenable (nouveaux entrants).
Dans cette théorie l’équilibre concurrentiel de long terme est un cas particulier caractérisé par
l’atomicité du marché. Dans cette théorie il n’est pas nécessaire que l’industrie soit dans une
situation de concurrence pure et parfaite pour que le prix soit égal au coût marginal et que les
profits soient nuls, il suffit que le marché soit parfaitement contestable (pas de barrière à
l’entrée et pas de coûts irrécupérables).
P, CM
D(Q) CM(Q)
Qi Qi’ Qs Q
21
P3 : Si la courbe de demande coupe le coup moyen au-delà de son minimum mais à l’intérieur
de la zone de sous additivité des coûts (zone de monopole naturelle), il n’existe pas de
situation soutenable.
Dans la Zone 1 on a un monopole naturel soutenable, dans la zone 2 le monopole naturel est
constamment menacé par les entreprises, en Zone 3 on est dans le cas des oligopoles. En zone
2 il y a des déséconomies d’échelle (courbe en U), dans cette théorie il faut que l’autorité
publique protége le monopole.
D(Q)
p = Cm = min CM
QM Qs 3QM Q
Pour calculer la somme des coûts, on fait un ajout horizontal des coûts
On suppose que toutes les firmes ont la même technologie de production donc la même
fonction de coût.
Si la courbe de demande coupe la courbe du coût moyen qui est un entier multiple de QM alors
il existe une configuration soutenable, caractérisé par un nombre de firme égal à cet entier.
Dans ce cas on a un oligopole avec tarification au Cm = min CM et donc II =0
Si la courbe de demande coupe la courbe du coût moyen en un tout autre point alors il
n’existe pas de configurations soutenables parce qu’il reste des plans (opportunités) d’entrées
profitables.
Dans ce cas l’existence d’une configuration soutenable est rare est fortuite et cette limite est
liée à la forme en U du CM.
Pour répondre à cette critique, Baumol, Panzar, Willig affirment que les observations
empiriques montrent que les fonctions de CM sont rarement en U, mais qu’elles présentent
généralement une zone plate de rendement constant qui va étendre considérablement la zone
d’existence de configuration d’équilibre soutenable.
Ils démontrent qu’il suffit d’une petite zone de rendement constant pour que les conditions
d’existence d’une configuration soutenable se relâchent considérablement.
22
Faire graphique que l’industrie
Proposition 4 : Si la courbe de CM individuelle est aplatie dans l’intervalle, [1, 1+k] la courbe
de CM de l’industrie est horizontale pour toutes les quantité Qi > h
avec h est l’entier le plus petit tel que (h . k) > 1
n
n=Q
6 n = Q(1+k)
5
6
Pour Q = 6 il y a deux possibilités n = 6 et q = 1 ou n = 5 et q = 1,2
Proposition 5 : Plus les technologies sont flexibles au sens de Stigler (plus la zone de
rendements constants est importante) plus petites est la valeur limite de la production à partir
de laquelle l’existence d’une configuration soutenable est assurée.
Dans ce cas il y a une multiplicité des configurations soutenables. Cependant une nouvelle
critique vient de la multiplicité des équilibres ce qui complique l’action des politiques
publiques. Dans leur théorie ce n’est pas le nombre de firme qui compte.
- L’hypothèse d’absence de réaction des firmes installées. C’est une hypothèse implicite selon
laquelle la firme installée ne réagit pas à l’entrée d’une firme qui propose un prix plus bas.
C’est cette absence de réaction qui rend l’entrée profitable. Cette hypothèse est très restrictive.
En effet si les firmes sont parfaitement rationnelles elles doivent intégrer dans leurs calculs
économiques, non pas le prix qu’il y a sur le marché avant l’entrée, mais le prix après leur
entrée or ici l’entrant raisonne en fonction du prix avant son entrée. Cette hypothèse exclue
toute prise en compte des interactions stratégiques, ce qui contraint à une analyse statique.
- La contestabilité du marché implique la libre sortie qui suppose donc l’inexistante de coûts
irrécupérables. Cette hypothèse est là aussi extrêmement restrictive. Les études empiriques
23
ont montrés qu’il était très rare de ne pas avoir de coûts irrécupérables, surtout dans le
domaine industriel (car la plupart des équipements sont spécialisés et leur revente est très
difficile). La critique est d’autant plus forte que le montant des coûts irrécupérables est liée au
temps (plus la période est courte et plus les coûts sont importants). Il y a un antagonisme entre
la courte période de l’hypothèse d’absence de réaction et la récupération des coûts. S’il y a
des coûts irrécupérables, libéraliser l’entrée ne suffit pas pour assurer la contestabilité du
marché.
- L’hypothèse d’identité des fonctions de coûts et des technologies de production des firmes
installées et des entrantes. Cette hypothèse implique qu’il n’y a pas d’hétérogénéité des firmes
et donc cette théorie utilise l’hypothèse de firmes représentatives. Cette hypothèse est
fortement critiquable car il y a généralement des différences significatives entre les
technologies des entrants et les firmes déjà installées. Très critiqué dans la théorie de
l’innovation
- Il subsiste une incertitude forte quand à la définition du marché pertinent. Pour quelle
échelle de marché fonctionne cette théorie. Chaque marché n’est qu’un sous marché d’un
marché plus large. La déréglementation des marchés ont des impacts sur d’autres marchés (la
déréglementation du transport aérien a eu un impact sur le marché ferroviaire, tout processus
sur un secteur a des implications sur un autre marché ou d’autres secteurs).
Ces arguments ont surtout joués dans le cas des monopoles naturels. Si le marché est
parfaitement contestable et le monopole soutenable alors le monopole s’autorégulera sous la
pression de la concurrence potentielle et aucune intervention n’est nécessaire. Le seul cas
d’intervention nécessaire dans le cas du monopole naturel est lorsqu’il est non soutenable afin
de le protéger.
24
En 1978, (Airline Deregulation Act) ils ont été déréglementé avec pour conséquence une
libéralisation d’entrée et de tarification. B P et pensait que la déréglementation suffirait à
rendre le marché parfaitement contestable car selon eux, il n’ y avait pas de coûts
irrécupérables dans le transport aériens. Les flottes d’avions se revendent très facilement sur
le marché de l’occasion et le personnel peut changer d’entreprise. Les effets théoriques
attendus étaient des vagues d’entrée de nouvelles firmes, une baisse de prix (si possible
jusqu’au coût marginal) à plus de concurrence et à plus d’efficacité technologique. Selon eux
il n’ y avait pas d’économie d’échelle donc la concurrence aurait du être beaucoup plus
importante. Cela aurait du augmenter le surplus social.
A cela s’ajoute les effets de congestion, ou effet de saturation (ici l’aéroport), qui limitent
l’entrée de la concurrence. 20 ans après la déréglementation, le marché américain est plus
concentré qu’avant. Il y a eu des vagues d’entrée, mais la plupart n’ont pas survécu ou ont été
rachetés par de grosses firmes.
La déréglementation a fait baissé certains prix mais on a assisté à des subventions croisées
(stratégie). La baisse de prix sur certains segments a été compensée par la hausse sur d’autres.
Certains vols internationaux ont profité d’une baisse de prix financés par un maintient ou une
hausse du prix sur les prix des vols domestiques.
Les plus gros opérateurs aériens ont installés des systèmes de réservations centralisées.
L’innovation technologique a permis aux plus grosses firmes d’accroître ou maintenir un
pouvoir de monopole sur le marché.
Les effets de congestion ont provoqué des retards, le coût social a provoqué du chômage. Au
final il y a très peu d’exemples qui se sont révélés être fidèles à la théorie des marchés
contestables. Ce sont toutes les stratégies mises en œuvre par les firmes qui bloquent les effets
escomptés (utiliser la théorie et ajouter les implications politiques).
25
Chapitre III - Analyse des stratégies des firmes
(1) Il suffit de fixer un prix ou de menacer de fixer un prix après l’entrée inférieur au CM pour
qu’il n’y ait plus d’entrée. (2) L’hypothèse de comportement implique que les entrants
n’anticipent aucune réaction de la part des firmes installées.
Q = QI + QE => Q / => P \
L’entrant sait qu’il y aura une baisse de prix et l’entrant essaie de calculer s’il pourra dégager
un profit après la baisse de prix en fonction des quantités (type Cournot).
P, CM
CM
TMO
TMO QL QC Q
26
Ce problème de crédibilité de la menace est un problème récurent dans le domaine de la
théorie des jeux, pour les jeux non coopératifs. On distingue deux types de jeux, les jeux
coopératifs et les jeux non coopératifs. Ici il y a deux joueurs, la firme installée et l’entrant
potentiel. C’est un jeu stratégique car la firme installée doit mettre en place une stratégie pour
empêcher l’entrant d’entrer et non coopératif car chaque firme cherche à maximiser son
profit. La théorie des jeux va essayer d’expliquer comment la firme installée peut
effectivement dissuader l’entrant d’entrer grâce à une menace crédible.
L’équilibre de Nash est la situation où aucun des joueurs n’a intérêt à dévier unilatéralement
de sa stratégie d’équilibre.
Le vecteur de stratégie (S1*, S2*, … , Sn*) est un équilibre de Nash si et seulement si le pour
tout (i), IIi (Si*, S-i*) > IIi (Si, S-i*)
A NA
EP E (IId, IId) (IIg, IIg) Il y a deux équilibres de Nash :
NE (0, IIM) (0, IIM) (E, A) et (NE, NA)
Cependant (NE, NA) est non crédible car fondée sur une menace non crédible, parce que le
profit de duopole (IId, IId) est supérieur au profit de guerre des prix (IIg, IIg). Si le monopoleur
est rationnel, il préfèrera jouer A.
27
1.2.2 Le jeu avec engagement
Un engagement est une action entreprise par un joueur qui tend à modifier le résultat du jeu en
sa faveur. Cette action doit le contraindre et être connu de tous les autres joueurs.
Crédibilité de l’engagement
IIg > IId – C
Rentabilité de l’engagement IId - IIg < C < IIM - IId
IIM - C > IId
Si cette condition est respectée l’entrée est effectivement bloquée et nous avons ce que l’on
appelle une barrière stratégique à l’entrée, barrière qui résulte du comportement stratégique de
la firme installée.
L’engagement peut aussi prendre la forme de R&D, dans le but de baisser son coût de
production. Les barrières stratégiques à l’entrée peuvent prendre beaucoup d’autres formes.
En plus de l’innovation, les firmes peuvent avoir recourt à la réglementation et avoir des
stratégies de capture réglementaire. C’est le cas du lobbying pour une réglementation stricte
du marché (vrai surtout dans le domaine de l’environnement où la commission écrit les
réglementations avec les grands groupes, ex : le cas Dupont de Nemours avec l’interdiction de
certains gaz dans les aérosols, dont il avait l’innovation, pour contrôler le marché) (dans
l’informatique les grands groupes imposent des standards) (les stratégies d’intégration
verticales.)
28
2 La différenciation du produit
(1) La différenciation subjective n’agit pas sur le bien lui-même mais sur la perception qu’en
ont les consommateurs. On ne change pas intrinsèquement le produit mais son image. C’est le
domaine du marketing et de la publicité. La différenciation objective, par définition, confère
au produit une réelle différence en termes de caractéristiques
a x* b
|----------|---------|----------|---------|
0 EA EB 1
Le concept de cité linéaire : Soit une cité linéaire qui se résume à un segment de longueur
unitaire. Les consommateurs sont distribués uniformément sur ce segment et n’achètent
qu’une unité de bien (cela représente donc la demande) Il y a deux entreprises A et B qui
cherchent à se localiser sur ce segment et offrir un bien (le même bien). La seule chose qui
29
différencie le bien est donc la localisation géographique sur ce segment. On suppose que les
consommateurs payent un coût de transport proportionnel à la distance. Pour savoir comment
se répartissent les consommateurs entre les deux firmes, on utilise le concept de
consommateur indifférent. Le consommateur indifférent x est tel que :
2) Fonctions de demande
DA = x* = (a+b)/2
DB = 1 – x* = 1 – (a+b)/2
3) Fonctions de profit II
c -> cout unitaire
IIA = (P – c) . DA = (p – c) . (a+b)/2
IIB = (P – c) . DB = (p – c) . [1 - (a+b)/2]
Ce résultat s’appelle le principe de différenciation minimale. C’est parce qu’il n’y a pas de
différence de prix, ce qui fait que les firmes n’ont pas intérêt à se différencier. La
différenciation permet à la firme d’accroître son pouvoir de marché, autrement dit fixer son
prix au dessus de son coût. Dans ce modèle les firmes n’ont pas de pouvoir de marché. Elles
ont donc intérêt à se positionner au milieu afin de se partager le marché et récupérer le
maximum de part de marché, c'est-à-dire la moitié.
Dans ce modèle les firmes peuvent choisir leur prix et on pose l’hypothèse de transports
quadratiques. Ainsi le prix des transports a une part plus importante dans le choix du
consommateur. P + t.x2
30
1) Définition du consommateur indifférent
PA + t . (x – a)2 = PB + t . (b – x)2
PA + t.x2 – t.2ax + t.a2 = PB + t.b2 – t.2bx + t.x2
x* = [(PB – PA) / (2t . (b-a))] + [(a+b)/2]
2) Fonctions de demande
DA = x* = [(PB – PA)/(2t . (b-a))] + [(a+b)/2]
DB = 1 – x* = 1 – [(PB – PA)/(2t . (b-a))] – [(a+b)/2]
3) Fonctions de profit II
IIA = (PA – C) . DA = (PA– C) . [(PB – PA)/(2t . (b-a))] + [(a+b)/2]
IIB = (PB – C) . DB = (PB – C) . [1 – [(PB – PA)/(2t . (b-a))] – [(a+b)/2]]
31
PB* = [t.(b-a).(4-a-b) / 3] + C
PA* = [t.(b-a).(2+b+a) / 3] +C
Les prix d’équilibre constituent une marge liée à la différenciation
dPB*/db > 0
dPA*/da < 0
Le prix de la firme B augmente quand (b) augmente et le prix de la firme A augmente quand
(a) diminue. Dans ce modèle les prix sont croissants avec la différenciation.
On veut maximiser les profits, mais la fonction de profit dépend de (a) et (b) qui interviennent
à plusieurs niveaux dans la fonction.
IIA(a,b) = [PA*(a,b) – C] . DA[a, b, PA*(a,b), PB*(a, b)]
On va utiliser le théorème de l’enveloppe : Comme la firme maximise IIA par rapport au prix
dans un 2nd temps, on aura des dIIA/dPA = 0. Pour Max IIA on peut ne prendre en compte que
l’effet direct de (a) sur IIA (effet demande) et l’effet indirect (effet stratégique) par rapport à
PB(a,b). DA : La demande de A dépend directe de (a,b) et indirectement de PB, prix choisi par
B.
Symétriquement dIIB/db > 0. La maximisation des profits conduit à l’Equilibre de Nash tel
que a*= 0 et b*= 1. C’est ce qu’on appelle le principe de différenciation maximale. Cet
équilibre résulte de deux effets opposés, l’effet demande et l’effet stratégique.
Effet Demande
Si a < 1/2 => dDA/da > 0
C’est l’effet part de marché qui incite à se déplacer vers le centre (effet centripète).
Effet stratégique
dDA/dPB . dPB/da < 0
Si le firmes se rapprochent (si (a) augmente), la firme B va baisser son prix (car la
concurrence en prix va augmenter). Si la firme B baisse son prix, cela va avoir un effet négatif
sur les parts de marché de A. C’est l’effet guerre de prix. Pour éviter cet effet, les firmes vont
chercher à se différencier au maximum. Dans ce modèle se différencier au maximum signifie
32
se localiser aux extrémités (effet centrifuge). Dans ce modèle l’effet centrifuge domine ;’effet
centripète ce qui conduit à un Equilibre de Nash avec différenciation maximale.
Après Otelling, i l y a eu le modèle de cité linéaire qui supprime les effets de bords (sur un
cercle). Ce segment n’est pas forcément une question d’emplacement géographique mais il
peut représenter toute différenciation. Il sert à disposer une variable de différenciation (en
terme de goût, de taille, etc.)
35 minutes
C’est une concurrence par la qualité et par les prix. L’équilibre de Nash se trouve à
l’intersection des deux courbes de réaction (Comme pour Cournot qui est une concurrence en
quantité mais ici c’est une concurrence de prix).
S’il n’y a pas de différence de qualité on retrouve une tarification au coût marginal avec un
profit nul, c’est la guerre de prix du duopole de Bertrand. La différenciation permet
normalement aux firmes de dégager des marges.
(1)P2* > P1* la firme qui offre la qualité la plus élevé fait payer un prix plus élevé
(2) (P2*-P1*) = (Θmax – Θmin) . (q2 – q1) / 2
(1) Dans le modèle à différenciation verticale, la firme qui offre le niveau de qualité le plus
élevé peut pratiquer un prix supérieur. La différenciation par la qualité est donc bien source de
pouvoir de marché.
33
II1 = (Θmax – 2Θmin)2 . Δq / 9
II2 = (2Θmax – Θmin)2 . Δq / 9
Les 2 firmes ont intérêt à avoir une différenciation maximale. Elles ont intérêt à maximiser
Δq. Elles ont toutes les deux intérêt à produire avec une qualité élevée. Il y a donc deux
équilibres de Nash : La firme 1 produit la qualité la plus élevée et la firme 2 la qualité la
moins élevé ou l’inverse.
q2* = qmax et q1*=qmin ou l’inverse
Tout comme dans la différenciation horizontale on voit dans ce modèle que la différenciation
vertical est avant tout source de pouvoir de marché et que don elle a pour but d’éviter la
guerre de prix et de permet aux firmes de fixer des prix plus élevés. Ce qui est nouveau c’est
que le rapport qualité / prix joue un rôle central
j* = (P2 – P1) / (Qualité1 – Qualité2)
La différence de prix entre les niveaux de qualité est proportionnelle à l’hétérogénéité des
consommateurs par rapport à leur préférence pour la qualité. C’est pour cette raison que sur
les produits de consommation courante on a une énorme hétérogénéité des produits et
beaucoup moins sur les marché très spécialisés.
On retrouve la différenciation maximale à l’équilibre qui est lié au fait que les firmes ont
intérêt à se différencier au maximum car elles peuvent traduire ça sur les prix et donc en terme
de profit.
Tous ces modèles ne fonctionnent que si les consommateurs sont capables de percevoir et
d’évaluer parfaitement la qualité des biens. Cette hypothèse est la plus critiquable parce que
les consommateurs ne sont que très rarement capable d’évaluer la qualité d’un bien. Dans la
plupart des cas, la perception de la qualité est subjective et propre à chaque consommateur.
34
Il existe différents types de biens. Les biens d’expériences pour lequel on ne peut évaluer la
qualité qu’avec l’expérience (goût : alimentaire), les biens de recherche pour évaluer la
qualité il faut chercher l’information (matières premières : vêtements). C’est pourquoi les
signaux de qualité sont essentiels comme les labels qualités pour aider le consommateur à
percevoir plus vite les différents segments. La différenciation verticale est généralement
couplée à des labels qualités.
Les derniers travaux essaient de concevoir des modèles où les consommateurs perçoivent
différentes qualités en fonction de leur niveau d’éducation et d’autres paramètres.
3.1.1 Définition
On remet en cause l’hypothèse du prix unique. Il est difficile de le définir car une différence
de prix n’est pas toujours le résultat d’une discrimination par les prix. Pigou est le premier
économiste à avoir essayé de théoriser la discrimination par les prix, sans en donner une
définition synthétique. Finalement c’est Robinson : le fait de vendre le même bien produit par
une seule entreprise à des prix différents à des consommateurs différents. Cette définition
n’est pas suffisante car elle ne tient pas compte des coûts. Philips en 1983 la définit : La
discrimination par les prix implique que deux variétés d’un bien sont vendus par la même
entreprise à deux acheteurs différents à des prix nets différents. Le prix net étant définit
comme le prix payé par le consommateur corrigé des coûts associés à la différenciation du
produit. Le concept de prix net permet de tenir compte des coûts liés à la différenciation et de
faire la différence entre la différenciation et la discrimination. Dans l’exemple des places
SNCF 1ère et 2nd classe, la différence de prix n’est pas liée au coût. Il s’agit donc de
discrimination. Dans le cas des places de cinéma, le bien est le même, il s’agit de
discrimination pure.
35
prix faible sont capables de revendre le bien à ceux susceptibles de l’acheter à un prix plus
élevé. Il existe les barrières réglementaires.
- Il faut qu’il y ait une relative non transférabilité de la demande entre les différents segments
de marché sinon tous les consommateurs vont aller vers le segment où le bien est le moins
cher. Il faut qu’il y ait des contraintes d’incitation efficaces qui fassent que les gens d’eux
mêmes aillent se localiser sur les segments qui leur correspondent payer le prix associés.
La discrimination par les prix au second degré. La firme n’a pas d’information sur les prix de
réserve des consommateurs mais elle est quand même en mesure de segmenter son marché et
de fixer n prix différents de telle sorte que les consommateurs qui ont un prix de réserve
supérieur à P1 vont payer P1, les consommateurs qui ont un prix de réserve inférieur à P1 mais
supérieur à P2 vont payer P2, etc. mais elle ne sait pas qui est sur chaque segment de marché. Il
va y avoir un mécanisme d’autorévélation des préférences. La SNCF offre un couple prix
qualité et le consommateur se révèle en choisissant.
Monopole :
II = RT(Q) – CT(Q)
II = P . Q – CT(Q)
Max II => dII/dQ= 0
Rm = Cm (condition d’équilibre du monopole)
Monopole ordinaire
Hypothèse : Cm = CM = C
P, Rm
A Surplus du producteur est le carré P EM C
P* EM Surplus social = carré + triangle
B Cm = CM D parfaite \/i, Pi = PiR tant que Pi > C
C Q* = Q*DP
SC = 0 et II = SP = ABC
Rm RMD = P(Q) Le SS et le II augmentent
* *
Q Q DP
Il y a une forte augmentation du profit du monopoleur qui s’explique par une récupération des
2 triangles. Le monopoleur s’accapare du SC (AEMP*) et augmente sur les quantités échangés
36
sur le marché Q* -> Q*DP. Grâce à la discrimination, l’infinie segmentation permet d’avoir
certains prix plus bas, donc de nouveaux consommateurs ont accès au marché. Il y a donc un
effet négatif mais également un effet positif.
Avec une tarification en 2 parties : un forfait et un prix unitaire, on peut arriver au même
résultat. Avec 2 catégories de consommateurs :
P2R
P* = C
P1R T1 = |\
C T2 = |\
37
3.3 La discrimination du second degré
Dans ce cas le monopoleur n’a pas l’information sur les prix de réserves et il ne connaît pas
les préférences des consommateurs mais il sait qu’il y a des segments avec des
consommateurs prêts à payer plus et consommer plus. Le monopoleur va chercher à fixer des
structures de prix tel que les consommateurs choisissent des couples, prix - qualité ou prix -
quantité en fonction de leurs préférences.
Q peut être associé à la qualité (prestations) ou à la quantité (tarifs non linéaires), par
assortiments (bundling). Il y a une incitation d’acheter un article avec un autre / frontière avec
la vente liée (interdite)
U(G2)
U(G1)
Contraintes :
U(Q1, G1) – V1 > 0
U(Q2, G2) – V2 > 0 Les consommateurs ont intérêt à consommer
Si ces 4 contraintes sont respectées alors la discrimination par les prix peut fonctionner.
38
II monopoleur
V1 = U(Q1,G1)
V2 = U(Q2, G2) – U(Q1, G2) + U (Q1, G1) = U(Q2, G2) – U(Q1, G2) + V1
Hypothèse :
a = part de marché G1
(1 – a) = part de marché G2
C = coût unitaire de production
Ces deux conditions expriment que pour maximiser son profit le monopoleur va pratiquer une
tarification non linéaire telle que :
(1) Les consommateurs du groupe 2 à forte demande consomment une quantité Q2 telle qu’ils
valorisent une unité supplémentaire exactement à son coût marginal. On retrouve là une
condition d’optimisation tel que le monopoleur exploite au maximum le potentiel de demande
de ce groupe.
(2) Pour les consommateurs du groupe 1 qui ont une faible demande, la valeur affectée à une
unité supplémentaire du produit est supérieure à son coût marginal. Ceci implique que ces
consommateurs ne consomment pas le maximum de ce qu’ils pourraient consommer mais le
monopoleur s’arrange pour leur faire payer exactement ce qu’ils sont prêt à payer (ils n’ont
donc pas de surplus) et leur vendre une quantité Q1 qui va dépendre de la répartition du
marché entre les deux groupes et de la différence de préférence entre ces deux groupes
(différences d’utilités marginales) Plus la différence entre les deux groupes est grande (en
terme de parts ou d’utilité marginale) plus le monopoleur va vendre d’avantage de quantités
au groupe 2 plutôt qu’au groupe 1.
39
U ² pente = C + 1-a …
U(G2)
U(G1)
V2
V1
Q1 Q2 Q
V1 = U(Q1,G1)
V2 = U(Q2, G2) – U(Q1, G2) + V1
On commence par déterminer Q2 en traçant une tangente à U(G2) qui a pour pente le coût C
(ici au hasard). On déduit Q1 en traçant une tangente à U(G1) de pente C + a… donc de pente
supérieure. On déduit ensuite le prix V1 au point où la tangente et la courbe se coupent. On
mesure à ce point l’écart entre U(G1) et U(G2) et on enlève cet écart du point où la courbe et la
tangente se coupent pour obtenir V2.
(2) La contrainte d’incitation compatible ou d’auto sélection est telle que les consommateurs à
demande élevé ne choisissent pas le couple (Q1, V1) mais le couple (Q2, V2). Ce principe est
essentiel puisque c’est ce qui permet l’autorévélation des préférences qui est le but de la
discrimination du 2nd degré.
(3) Les consommateurs demande élevé consomment la quantité socialement optimale, alors
que les consommateurs de G1 consomment une quantité sous optimale.
(4) Plus la différence entre les deux groupes est forte en terme de part de marché et de
propension à consommer, plus le monopoleur à intérêt à vendre une part importante au groupe
le plus intéressant, c'est-à-dire le groupe à demande élevée.
40
Il faut noter qu’on peut appliquer le même raisonnement en terme de qualité, c'est-à-dire avec
des prix nets (différenciation incluse). On peut aussi pratiquer cela avec des tarifications en 2
parties. Les professionnels ont souvent un abonnement plus cher mais un coût à la seconde
moins cher.
P1(Q1) . [ 1 – 1 / eQ1/P1] = Cm
P2(Q2) . [ 1 – 1 / eQ2/P2] = Cm
Le groupe à forte élasticité prix gagne à cette discrimination et inversement. Pour pratiquer
des prix proche du coût marginal on fait payer les consommateurs à plus faible élasticité prix.
41
Penser aux structures de marché et les stratégies. On a vu différents types de variables sur
lesquelles les firmes élaborent des stratégies (barrières, prix, différenciation). Dans une étude
de cas il faut manger ces trois choses. La prof peut demander soit un exercice de type
différenciation, soit une étude de cas. Une entreprise propose tant de produits à tels prix, il
faut ensuite analyser la stratégie de la firme. Dans ce cas il faut mobiliser l’ensemble des
connaissances.
42