L'économie de L'intélligence Artificielle

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 21

Centre des Études Doctorales : Laboratoire Études et Recherche en

Management des Organisations et des Territoires(ERMOT)

Projet de thèse

Sous le thème

L’économie de l’intelligence artificielle

Préparé par : Mariyame TAGZOUTI

Année universitaire : 2023-2024

1
Présentation du sujet :

L’intelligence artificielle (IA) fait l’objet d’un nombre croissant de publications


qui ont contribué à forger dans l’opinion publique une nouvelle « mythologie digitale »
suscitant à la fois des espoirs (tech for good) et des craintes (tech for worst). Les progrès
de l’IA font espérer une relance de la consommation, une croissance de la productivité
dans la plupart des métiers, une meilleure gestion des risques, mais font parallèlement
craindre la destruction massive d’emplois dans les pays développés, une large
reconversion des compétences, un creusement de la fracture numérique au sein du corps
social et, plus largement, une transhumanisation de la société (Bostrom, 2017). La
plupart des observateurs – praticiens, universitaires, usagers – conviennent que l’IA est
le levier de la « 3e transformation de l’histoire économique » après celle de l’industrie
au xix e siècle et celle de l’informatique au xx e siècle (Baldwin, 2019).

L’IA est considérée comme l’un des moteurs de la révolution des technologies,
des organisations et de la société du début du xxi e siècle, mais elle est de plus en plus
affectée par une crise de confiance dans ses modèles et ses algorithmes, parfois
considérés comme étant des « boîtes noires » et manquant de robustesse, bien que de
nouvelles avancées tirant parti des principes de l’« intelligence collective » (Servan
Schreiber, 2018) commencent à infléchir cette vision.

Notre sujet vise à construire une représentation exploratoire des effets


économiques attendus du développement de l’IA, grâce à l’analyse des dernières
publications et notamment des articles et des rapports émis par des universitaires, des
cabinets de conseil et des think tanks. Il est difficile d’identifier et a fortiori de mesurer
ces effets, dans la mesure où ils diffèrent selon les types d’activités, les niveaux de
développement économique et les horizons explorés. Ils sont également variables en
fonction des synergies pouvant être dégagées entre l’IA et d’autres technologies, comme
le big data, la blockchain, l’internet-des-objets (IoT, internet of things), etc. Ils sont

2
conditionnés par les rythmes d’innovations plus ou moins disruptives et les délais plus
ou moins prévisibles de mise en marché des nouvelles solutions d’IA. Les projections
de ces effets peuvent être enfin biaisées par les modèles et/ou les algorithmes d’IA
appliqués par les économistes.

Cette réflexion liminaire souligne l’importance des choix méthodologiques


adoptés dans les études des impacts économiques de l’IA. En première analyse, ces
derniers peuvent être classés en fonction des trois types de leviers de création de valeur
les plus mentionnés, que sont les effets sur la productivité, sur la consommation et sur
la maîtrise des risques.

L’IA : une technologie générique complexe

On peut considérer que le concept d’IA est né en 1950, avec le test qu’Alan
Turing a décrit dans Computing Machinery and Intelligence : si une personne qui
discute avec plusieurs interlocuteurs n’est pas capable de discerner lequel est un
ordinateur, alors celui-ci a réussi le test.

L’IA a ensuite été définie par Marvin Lee Minsky en 1956, comme étant « la
construction de programmes informatiques qui s’adonnent à des tâches pour l’instant
accomplies de façon non satisfaisante par des êtres humains, car elles demandent des
processus mentaux de haut niveau tels que l’apprentissage perceptuel, l’organisation de
la mémoire et le raisonnement critique ». Cette définition est reprise dans la plupart des
rapports sur l’IA et notamment dans le « rapport Villani » (Villani, 2018) et dans le
dernier livre blanc de Finance Innovation (2019). L’IA repose sur des solutions
composites organisées en briques de logiciels ou d’algorithmes traitant des données
massives ou big data.

Le concept de big data fait référence non seulement au volume de données


stockées supérieures de plusieurs ordres de grandeur aux bases de données
traditionnelles, mais aussi à la nature de ces données : des connaissances structurées ou
non structurées, des langages, des perceptions de sens, des reconnaissances d’objets, des
3
informations géographiques, etc. Les technologies classiques de traitement de
l’information sont alors dépassées. Il faut avoir recours à des technologies d’IA pour les
analyser et donc les valoriser.

L’IA recouvre une rationalité artificielle qui optimise la résolution de problèmes


plus ou moins complexes, sur un mode logico-déductif et dans des champs spécifiques.
Elle s’inscrit dans le cadre des sciences cognitives et dans l’écosystème de l’internet,
qui comprend également l’IoT, le big data, le cloud computing et la blockchain, dont les
interactions démultiplient les effets. La diffusion de l’IA ne peut donc pas être aussi
inclusive et systématique que celle des ordinateurs ou de l’internet, car l’IA recouvre un
ensemble de modèles et de méthodes dont les champs et les modes d’application sont
hétérogènes. La reconnaissance d’images en 3D est, par exemple, utilisée pour faire des
diagnostics médicaux et pour diriger des voitures autonomes.

L’IA est aujourd’hui segmentée en deux principaux courants dont les maturités
sont différentes : l’« IA symbolique » où l’on programme l’ordinateur pour qu’il puisse
manipuler des connaissances (les systèmes experts restent aujourd’hui l’une des
techniques omniprésentes et incontournables des outils d’IA quoi que l’on en dise),
l’« apprentissage automatique » couvrant des modèles statistiques évolués et dans lequel
on retrouve notamment les réseaux de neurones (Le Cun, 1987). Ces derniers, qui
apprennent seuls par itérations en traitant des données plus ou moins qualifiées de
mégadonnées (big data), deviennent l’une des techniques majeures de l’IA grâce à la
puissance de calcul des ordinateurs actuels. Malheureusement, les algorithmes
apprenants ne savent pas expliquer ce qu’ils ont appris, ce qui limite souvent leur
acceptabilité. Une troisième vague est en train de naître qui combine IA symbolique,
apprentissage automatique et langage naturel, capable de fusionner les connaissances
d’origines diverses et surtout pour laquelle explication et transparence sont des
propriétés principales (Pearl et Mackenzie, 2018).

4
Mais si l’IA peut résoudre des problèmes complexes, elle ne peut se substituer à
toutes les formes de l’intelligence humaine, incluant l’intuition et l’émotion (Houdé,
2019). « L’IA faible » où un algorithme est toujours limité à la tâche qui lui a été dévolue
par le concepteur est maintenant omniprésente et opérationnelle. L’« IA forte » dotée de
volonté, de conscience et d’émotions reste un fantasme. Si l’IA a des effets tangibles sur
l’économie réelle et sur l’économie financière, elle ne peut à elle seule en bouleverser
les paradigmes.

L’IA : une révolution technologique

Les évolutions des technologies du traitement de l’information ont déjà largement


impacté le champ des activités économiques. La mécanographie inventée à la fin
du xix e siècle suivie par l’informatique née au milieu des années 1960 et l’avènement
des télécommunications numériques (le protocole TCP/IP date de 1973) ont permis des
gains de productivité majeurs. La robotique industrielle, l’automatisation de tâches
répétitives plus ou moins compliquées sont à l’origine d’une transformation des métiers
aussi variés que ceux de la maintenance industrielle, des architectes et des ingénieurs,
de la grande distribution, de la banque, etc. Dans de nombreux cas, la miniaturisation et
l’accroissement des performances des composants et des logiciels accélèrent encore la
digitalisation en permettant aux clients (self care) d’intervenir eux-mêmes dans les actes
de gestion comme, par exemple, dans la consultation des comptes bancaires ou la
réalisation de transactions de paiement.

L’automatisation des processus par RPA (robotic automatisation process)


élimine des tâches fastidieuses, réduit les coûts et le nombre d’erreurs. Robotisation et
digitalisation en tant que telles sont donc porteuses de gains même si elles n’intègrent
pas d’IA.

L’IA est une véritable révolution car elle permet d’aller beaucoup plus loin que
les technologies déjà mentionnées dans la complexité des tâches réalisées. Elle apprend,
s’entraîne, détecte des corrélations de manière infiniment plus complète que n’importe

5
quel humain. Les algorithmes produits par l’IA sont donc potentiellement plus
performants que n’importe quel programme informatique codé par un humain.

L’automatisation faisant recours à l’IA améliore la productivité, non parce que


des informaticiens l’ont codée ainsi, mais parce qu’elle a elle-même appris ce qu’il
fallait faire ou décider, sur une couverture fonctionnelle aussi large que celle des
échantillons d’apprentissages utilisés et avec une instantanéité de réaction.
C’est en ce sens que l’IA peut faire peur parce qu’elle échappe à la capacité de
maîtrise totale par l’homme. Le pendant de la puissance de l’IA est sa propension à se
tromper, et surtout à se tromper d’une manière totalement différente des humains. Les
questions d’éthiques qui en découlent sont nombreuses : si l’IA décide de la sélection
de candidats, comment se prémunir contre les discriminations ? Si l’IA d’un véhicule
autonome provoque un accident, qui en est responsable ?

L’IA : un nouveau levier de productivité

L’IA contribue à modifier la relation entre la machine et l’homme (ainsi


« augmenté »). Les avancées de l’IA favorisent l’automatisation et l’autonomisation des
systèmes de production et des supply chains. Le programme allemand « industrie 4.0 »
repose sur la « cobotique », alliant robotique et collaboration (Kohler et Weisz, 2014).
Il vise le développement d’un « système cyber-physique » conjuguant des acteurs agiles
et des facteurs hybrides relevant de l’IoT (régulation à distance ou autonome des chaînes
productives et logistiques, interopérabilité entre machines) et de l’internet des services
(cloud computing, software as a service, process virtuels, etc.). L’IA contribue ainsi à
réduire les coûts des processus opératoires, mais elle permet dans le même temps de
renforcer l’ergonomie et la sécurité des postes de travail. Grâce à l’IA, les coûts
marginaux de production, de livraison, de maintenance (à distance), de contrôle et de
communication « tendent vers 0 » (Rifkin, 2013). Le cabinet McKinsey (2018) prévoit
ainsi que les technologies basées sur l’IA devraient permettre à moyen terme
d’augmenter l’efficacité du travail de 20 % à 40 % selon les pays industriels. Il estime

6
que la réduction des coûts devrait entraîner un surcroît de croissance économique
annuelle d’au moins 0,5 % dans les pays industriels, mais qu’il pourrait atteindre 1,5 %
si l’automatisation était accompagnée de dispositifs innovants en faveur du bien-être au
travail.

Malgré ces apports attendus de l’IA, une augmentation significative de la


productivité du travail n’a pu encore être observée, confirmant ainsi le paradoxe de
Solow. Selon Gantz et Michaels (2015), les secteurs regroupés sous le terme
« robotique » n’auraient majoré que de 0,4 % par an le PIB des dix-sept premiers pays
industriels, entre 1993 et 2007. Selon Brynjolfsson et McAfee (2014), l’IA n’apporterait
pas, à court ou moyen terme, de gain significatif de productivité (sauf dans quelques
activités spécifiques), mais elle entraînerait de vastes changements dans le monde de
l’emploi.

Cette prédiction est dans l’ensemble confirmée par les travaux récents de Furman
et Seamans (2018), chercheurs au MIT.

Mais si les effets de la « cobotique » sur l’emploi demeurent encore incertains,


ceux de la « globotique » (ou globalisation des ressources dues à l’IA) sont déjà
observés. Selon Baldwin (2019), l’IA accélérerait le phénomène de délocalisation des
emplois (dans des centres d’appel et des usines offshore) vers les pays à faible coût du
travail. Elle intensifierait les phénomènes de dématérialisation et de désintermédiation
des processus productifs et des échanges commerciaux. Elle permettrait de raccourcir
les chaînes de création de valeur et les circuits de prise de décision au sein des
organisations et de leurs écosystèmes. Elle favoriserait l’émergence de nouvelles formes
d’open innovation et de co-working, en principe plus agiles et moins coûteuses, qui
s’étendent de la recherche-développement (living labs, fablabs, etc.) et de la production
coopérative (microfabrication numérique, do-it-yourself, makerspace, etc.) à la
consommation collaborative (hébergement peer-to-peer, covoiturage, etc.).

7
L’IA : nouveau moteur de la consommation

L’IA est également considérée comme étant un moteur de création de nouveaux


modèles d’affaires dans de nombreux secteurs d’activité. L’étude « Sizing the Prize »
publiée par le cabinet d’audit PWC en 2017 identifie huit principaux secteurs d’activité
directement impactés par l’IA :
 la santé : assistance au diagnostic permise par la donnée, identification des
pandémies, diagnostic par imagerie, prédiction des maladies par le génome
humain, robots chirurgicaux, etc. ;
 l’automobile : flottes autonomes pour le covoiturage, voitures intelligentes et
assistance à la conduite, maintenance prédictive et autonome, etc. ;
 les services financiers (banques et assurances) : automatisation de la relation
avec la clientèle et des transactions (notamment grâce aux robo-advisors), offre
financière personnalisée, détection des fraudes et lutte contre le blanchiment
d’argent, etc. ;
 la distribution : conception personnalisée des produits, génération de données
clients, gestion automatisée des stocks et des livraisons, etc. ;
 la communication et le divertissement : archivage et recherche de médias,
création de contenus (films, musiques, etc.), assistants personnels, etc. ;
 la production manufacturière (« industrie 4.0 ») : contrôle renforcé et
autocorrection des process, optimisation de la supply chain et de la fabrication,
production à la demande, etc. ;
 l’énergie : compteurs intelligents, fonctionnement optimisé du réseau et du
stockage, maintenance intelligente des infrastructures, etc. ;
 la logistique : livraisons autonomes (par camions, drones, etc.), contrôle de la
circulation et réduction des embouteillages, sécurité routière renforcée, etc.

Dans les activités de distribution, l’IA contribue à stimuler la consommation, car


ses solutions permettent de mieux connaître les besoins des clients (BtoC, BtoB, AtoC),
d’améliorer la qualité des produits et de personnaliser leur offre. Cette démarche fondée

8
sur l’expérience-client (ou UX) passe par une perception des signaux émis par l’usager,
notamment à partir des données massives issues des réseaux sociaux et professionnels
(big data). La pratique de l’UX vise à fidéliser l’usager par des transactions plus rapides,
plus fiables et mieux adaptées à son profil « à toute heure et en tout lieu ». La démarche
est d’autant plus complexe que la demande du client évolue dans le temps et dans
l’espace, car, sous l’effet des réseaux internet, elle est sensible à la conjoncture et aux
offres de la concurrence (Pine et Gilmore, 1998).

L’IA favorise la construction de plateformes digitales de transactions de produits


et de services de plus en plus complexes. La plateforme constitue la « brique élémentaire
de la révolution numérique » (Rifkin, 2013). L’intermédiation par une plateforme
permet de réduire les asymétries d’information entre les parties et de mieux apparier
leurs demandes et leurs offres. La rémunération de ses promoteurs et exploitants prend
la forme d’une commission sur les transactions entre les « deux faces » du marché. Cette
structure désintermédiée de « marché à deux faces » (two-sided market) introduit une
nouvelle forme de coopétition (ou de coopération-concurrence) entre les entreprises
(Rochet et Tirole, 2003).

L’IA : un facteur de gestion des risques

L’IA permet d’améliorer les outils conventionnels de gestion des risques utilisés
par les banquiers, les assureurs, les courtiers, les experts-comptables, les managers,
etc. : scoring de crédit, détection de fraude, optimisation des stratégies de recouvrement
de créance, détection et interprétation rapides des signaux faibles, construction de
modèles économiques, etc. Certaines applications d’IA contribuent à analyser et à
sécuriser les flux de données rendus de plus en plus massifs par les nouvelles
réglementations imposées aux entreprises. Elles permettent, par exemple, de mieux
« probabiliser les risques judiciaires ».

9
Les start-up dites de « justice prédictive » permettent d’« apprendre à
comprendre » les critères de décision des juges et ainsi de choisir entre l’engagement
d’un contentieux ou d’une procédure de règlement amiable d’un litige, de préparer une
plaidoirie ou une négociation, et de provisionner les pénalités éventuelles. Certains
logiciels d’IA permettent de mieux protéger les organisations contre des piratages
informatiques et de renforcer la lutte contre la fraude comptable (non collaborative entre
membres d’un réseau). Toutefois, plusieurs observateurs (Bahuon et Pluchart, 2018)
révèlent a contrario que la cybercriminalité et certaines manipulations comptables
peuvent être favorisées par les progrès de l’IA. La conjugaison des nouvelles
technologies et la difficile conformité aux nouvelles réglementations sur la protection
des données personnelles démultiplient les risques pénaux, financiers, fiscaux et sociaux
encourus par les entreprises et leurs dirigeants.

L’IA associée à la technologie de la blockchain permet de créer de la valeur en


favorisant la gestion du risque et la lutte contre la fraude. Elle se présente comme un
nouveau tiers de confiance entre une organisation et ses parties prenantes (Leloup,
2017). Elle symbolise la « 2e révolution numérique » fondée sur une « IA éthique ».

La technologie blockchain (ou distributer ledger technology) recouvre un


système automatisé permettant de valider des transactions par des communautés dites
« de minage ». Elle permet de vérifier, réaliser et enregistrer en temps réel divers types
de transactions (paiements, transferts d’argent, de documents, etc.), à de faibles coûts et
dans de courts délais, parce que sans intermédiaires. Les flux échangés sur le web (à
moyen terme, « tous les types d’actes » selon les experts) sont cryptés (donc
confidentiels), non modifiables, ni falsifiables. La blockchain contribue ainsi à éliminer
les tiers de confiance conventionnels et à introduire le paradigme de la « confiance
numérique », fondée sur des algorithmes plutôt que sur des institutions. Pour ces raisons,
Andersen (2016) considère que le développement de la blockchain constitue à la fois
une opportunité et une menace pour les métiers à l’interface des différents maillons des

10
chaînes de création de valeur, représentés notamment par les courtiers, les mandataires,
les auditeurs, les huissiers, etc.

Les systèmes de la blockchain et de l’IA permettent de rendre plus « transparents,


infalsifiables et décentralisés » la conservation (dans un registre général) et les échanges
de documents (pièces comptables, contrats, etc.) au sein de l’entreprise et entre cette
dernière et ses parties prenantes. Ils permettent d’authentifier les transactions grâce à
leurs signatures électroniques horodatées. Ils transforment des systèmes d’information
cloisonnés et centralisés en systèmes partagés et autocertifiés. De nouvelles plateformes
numériques associant des applications de blockchain et d’IA sont ainsi expérimentées
afin d’assurer le transit, la traçabilité et la conformité des marchandises dans le cadre
des transactions transfrontalières.

L’IA : un facteur de transformation des compétences

Les études sur la mutation des compétences engendrée par l’IA débouchent sur
des résultats incertains ou contradictoires.

Le cabinet McKinsey (2018) considère que 90 % des emplois seront transformés


par l’IA. Seulement 1 % d’entre eux pourraient être intégralement automatisés, mais
60 % pourraient l’être pour au moins un tiers des tâches. Il a dressé une liste des vingt-
cinq compétences clés d’une économie et a projeté leur évolution à l’horizon 2030. Il
estime que les tâches répétitives en interaction avec les clients, les manipulations
standards et certaines fonctions support d’administration, de comptabilité, etc. sont
menacées, tandis que les activités de manager, d’expert et de technicien (notamment du
numérique) devraient prospérer.

Le cabinet Boston Consulting Group (2018) estime que 32 % des entreprises en


Chine ont déjà adopté l’IA dans leur processus quotidien, contre 22 % aux États-Unis et
20 % en France et en Allemagne. Cette adaptation est opérée suivant des cycles
d’innovation généralement courts, avec des équipes pluridisciplinaires et un
management agile pratiquant le design thinking. La rapidité du processus d’adaptation
11
dépendrait de facteurs difficilement pondérables : l’ampleur et la rapidité des gains de
productivité apportés par l’IA, l’élasticité de la demande engendrée par les baisses de
prix consécutives à ces gains, la pénétration du marché par les nouveaux services
apportés par l’IA (les data-scientists ont notamment pour rôle de rendre les applications
plus accessibles aux utilisateurs et de personnaliser les services apportés).

L’OCDE (2019) considère que l’impact de l’IA sur les emplois et les
compétences au sein des pays développés devrait être profondément différent d’un
secteur d’activité à l’autre. Plus de la moitié des activités ne seraient pas ou peu affectées
par l’IA. L’OCDE rejette l’hypothèse d’un « chômage technologique de masse » et
souligne l’urgence d’une reconversion partielle et progressive des agents exerçant des
métiers robotisables à faibles compétences vers des métiers phygitalisables à plus fortes
compétences. Les emplois les plus concernés seraient ceux de la grande industrie
manufacturière, de la logistique, du commerce, de la banque (de détail) et de l’assurance.
L’OCDE plaide en faveur d’une réduction de la fracture numérique au sein des
populations, notamment grâce à une meilleure intégration de l’IA dans les programmes
d’enseignement sous l’effet de l’edtech.

L’IA : un facteur de croissance économique

Si la conjugaison de ces facteurs engendrés par l’IA devrait contribuer à stimuler


la croissance économique mondiale, peu d’économistes se hasardent à mesurer les effets
de l’IA sur les PIB futurs.

Dans son étude de 2017, le cabinet PWC estime à 15 700 Md$ l’apport spécifique
de l’IA au PIB mondial entre 2018 et 2030, soit une augmentation de 14 %. La création
de valeur devrait être supérieure en Asie Pacifique (26 %) et en Amérique du Nord
(14,5 %) à celle de l’Europe (de 9,9 % à 11,5 %) et des pays en développement. Elle
serait principalement due à des gains de productivité (55 %) et à une relance de la
consommation (45 %) jusqu’en 2030, mais ce rapport devrait s’inverser au-delà, en
raison d’un plafonnement de la productivité.

12
Le cabinet d’audit Accenture (2017) soutient que l’IA pourrait multiplier par
deux les taux de croissance de douze principaux pays occidentaux à l’horizon 2035,
grâce à de « nouvelles relations entre le vendeur et le client et entre l’homme et la
machine ». L’impact des technologies basées sur l’IA devrait notamment améliorer
l’efficacité du travail de près de 40 % dans certains pays (20 % en France).

Selon l’économiste Philippe Aghion, l’IA devrait toutefois avoir également des
effets négatifs sur la croissance économique, en raison des freins (ou des coûts cachés)
qui pèsent sur le développement de l’IA. Ces freins sont principalement de nature :
 technologique : certaines technologies ont atteint un stade insuffisant de maturité
pour en évaluer les retombées économiques, comme pour le véhicule autonome
qui est au stade expérimental ou pour l’ordinateur quantique qui est au stade
exploratoire ;
 juridique : la protection des données personnelles, la cybersécurité,
l’environnement concurrentiel de l’écosystème de l’IA demeurent
insuffisamment encadrés ;
 socioprofessionnelle : les effets des déficits de compétences et des résistances au
changement organisationnel sont difficilement mesurables ;
 organisationnelle : les modèles d’IA dans les systèmes actuels de gestion des
entreprises et des administrations sont encore insuffisamment intégrés ;
 institutionnelle : l’action publique sur la formation (initiale et continue) à l’IA,
afin de réduire la fracture numérique et de favoriser la reconversion des métiers,
est inégale selon les pays et les régions.

Les freins potentiels peuvent être également de nature concurrentielle. Les


marchés de l’IA sont contrôlés par des « oligopoles à franges », avec
quelques leaders en situation de quasi-monopole sur leurs segments de marché (les
GAFA – Google, Amazon, Facebook et Apple) et une galaxie de petits acteurs (les start-
up et les pépites). Afin de conquérir des avantages concurrentiels pionniers, les grands

13
acteurs absorbent ou contrôlent les start-up les plus innovantes, renforçant ainsi leurs
positions dominantes et le contrôle de leurs marchés. Les GAFA contrôlaient ainsi plus
des deux tiers du trafic mondial d’internet en 2018.

L’économie de l’IA : entre vision prospective et prédictive

Les réflexions précédentes laissent apparaître que la mesure des effets


économiques de l’IA se heurte aux paradoxes attachés à l’IA et aux limites des modèles
actuels de recherche.

L’économie de l’IA est essentiellement immatérielle. La technologie de l’IA


accélère le mouvement de dématérialisation des processus et des produits. Elle entraîne
une augmentation de la part des actifs immatériels (compétences, brevets et marques,
fonds de commerce, images de marque, etc.) dans les bilans des entreprises. Les actifs
immatériels (incorporels ou intangibles) représentent une part de plus en plus importante
du capital productif de l’entreprise. Cette part ne cesse de s’accroître sous l’effet de la
digitalisation des processus et de la multiplication des brevets et des marques. Elle
représente près de 99 % des actifs totaux des GAFAM (Google, Amazon, Facebook,
Apple et Microsoft) et des start-up internet.

La valorisation économique de ces dernières par des méthodes classiques (à


partir de prix de marché, de projections de cashflow, de comparaison d’indicateurs, etc.)
est rendue difficile par le caractère disruptif de certains nouveaux modèles d’affaires,
par la gratuité de certains modèles (accessibles en open source) et services en ligne, par
la volatilité des cours sur les nouveaux marchés. Les investissements intangibles sont
classés en trois catégories (selon Haskel et Westlake, 2017) : les données informatiques,
la propriété de l’innovation et les compétences économiques. La rentabilité d’un
investissement dans un actif immatériel est difficilement prévisible en raison de ses
spécificités : il peut être facilement répliqué à grande échelle (scalibility) ; il tend à être
un coût irrécupérable (sunk cost) ; il comporte des externalités positives et négatives
pour l’environnement (spillover) et bénéficie de fortes synergies avec d’autres

14
technologies. La valeur engendrée par l’IA ne repose pas que sur l’utilité et la rareté,
ainsi que sur le travail et le marché, selon les paradigmes néoclassiques. Elle est un
« bien commun » au service de la production collective et du bien-être. Elle résulte d’un
processus d’apprentissage collectif basé sur la confiance, dont l’étude implique de
convoquer des théories et des méthodologies à la fois économiques et sociologiques
(Orléan, 2011).

L’économie de l’IA porte essentiellement sur des données (Agrawal et al., 2016).
Les résultats des études économiques sur l’IA sont hétérogènes par manque de « données
sur les flux de données » générés par l’IA. Les méthodologies de recherche appliquées
à l’écosystème de l’IA reposent sur des approches de type soit top-down (à partir
d’hypothèses de création de valeur), soit bottum-up (par la consultation d’usagers et
d’experts). Ils dépendent de la notion d’IA (plus ou moins précise) retenue, des secteurs
d’activité (plus ou moins larges) observés, des zones géographiques (plus ou moins
cadrées) et de l’horizon de projection (plus ou moins lisible). Les méthodologies
classiques de recherche sont soit quantitatives (basées sur des données réelles
d’observation), soit qualitatives (étayées par des représentations mentales de
phénomènes). Les premières ne disposent pas de données sur des échelles de temps
suffisantes, tandis que les secondes engendrent des représentations parfois floues ou
fantasmatiques.

La protection des données à caractère personnel soulève de nouvelles


problématiques qui révèlent la nature de « science morale » (Sen, 2003) présentée par
l’économie de l’IA. Le vote du Règlement général de protection des données à caractère
personnel (RGPD) voté par le Parlement européen le 27 avril 2016 a soulevé des
questionnements de nature à la fois économique et philosophique : le contrôle de leurs
données personnelles par les salariés et les consommateurs constitue-t-il un frein à la
recherche scientifique, à l’innovation, à la vente en ligne et/ou à la gestion des risques ?
Les systèmes d’autorégulation et de protection des données mis en place par les GAFA
préservent-ils suffisamment la dignité des personnes et l’intégrité de leurs identités ?

15
Leur consentement à l’exploitation de leurs données personnelles répond-il toujours à
leur libre volonté, face aux progrès des techniques de nudging (ou de management
incitatif) ?
L’économie de l’IA est une économie analytique. Elle fait appel à des analyses à
la fois prospectives et prédictives (Vayre, 2016). Les données issues des algorithmes
projettent des futurs qui traduisent des réalités déclinées à partir de méga-données (big
data) sur le passé. Les projections sont ainsi déclinées suivant les logiques dictées par
leurs développeurs (les data-scientists) et leurs utilisateurs (les économistes). Du
croisement des logiques de prospection et de prédiction qui sous-tendent l’IA émerge
une contradiction : certains algorithmes prédisent des futurs largement autodéterminés
et émettent donc des prophéties autoréalisatrices (Krivine, 2018).

L’économie de l’IA exige une IA éthique. La validité de certaines analyses


prédictives est de plus en plus contestée en raison de certains biais méthodologiques qui
affectent le génie algorithmique (biais de sur-échantillonnage, d’histoire, de
confirmation, d’ancrage, de prophétie autoréalisatrice, de « pensée magique »). Le
caractère « apprenant » de certains logiciels peut par ailleurs être détourné au profit
d’intérêts marchands ou de visées partisanes, par des questions orientées, des
segmentations spécieuses d’enquêtés, des tarifications discriminatoires, etc. Ces biais
rendent contestable le qualitatif de « prédictif » parfois attribué au traitement
insuffisamment robuste de bases de données juridiques (la justice prédictive),
commerciales (le marketing prédictif), économiques (l’économie prédictive),
financières (la finance prédictive). C’est pourquoi les algorithmes font de plus en plus
l’objet d’une surveillance accrue de la part d’administrations, d’universités (notamment
celle de Columbia) et d’associations de défense des consommateurs.

Le principe d’opt-in impose aux plateformes de soumettre aux utilisateurs le


droit d’exploiter leurs données personnelles. Le CNIL en France et le
système Marktwachter en Allemagne assurent une veille algorithmique. Le projet
Transalgo (Inria) vise à partager les expériences en matière de génie algorithmique. La

16
plateforme Opal (Orange) organise le partage des capacités d’analyse des plateformes
au service du bien commun. Un écosystème apprenant dédié au machine learning est en
voie de constitution.

L’économie de l’IA est un nouveau modèle économique. Elle requiert


l’application de méthodes novatrices de recherche qui pourraient s’inspirer de
l’approche design thinking. Cette méthode pratiquée par les chercheurs en IA pourrait
être appliquée non seulement à ses composantes technologiques, mais également à sa
dimension économique. Le design thinking – inspiré des travaux de Simon et de Row –
recouvre un nouveau type d’intelligence collective. C’est une forme de pensée collective
et d’organisation du travail – héritée du brain storming – qui s’efforce de concevoir des
solutions innovantes aux besoins des utilisateurs, tout en stimulant leurs motivations et
donnant un sens à leurs comportements. La démarche repose sur cinq principes :

 les comportements des acteurs sont observés et analysés grâce au big data et à
l’IA ;
 toutes les parties prenantes (chercheurs, praticiens, usagers, etc.) sont impliquées
dans la recherche de solutions aux questionnements soulevés ;
 les concepts et les méthodes sont compris par toutes les parties prenantes à
l’étude ;
 toutes les hypothèses et options possibles sont étudiées et croisées ;
 la validité, la viabilité et l’acceptabilité de chaque solution envisagée sont
systématiquement testées.

L’application de cette méthode enchaîne trois types d’actions : l’observation


empathique des acteurs impliqués ; la fertilisation croisée de méthodes différentes de
traitement des données quantitatives et qualitatives (par des techniques de machine
learning et/ou deep learning) ; l’itération des solutions en fonction des jeux
d’hypothèses ; le feedback des chercheurs (effet-miroir) impliqués dans la construction
des solutions.

17
Projet de plan :

L’IA : une technologie générique complexe


L’IA : une révolution technologique
L’IA : un nouveau levier de productivité
L’IA : nouveau moteur de la consommation
L’IA : un facteur de gestion des risques
L’IA : un facteur de transformation des compétences
L’IA : un facteur de croissance économique
L’économie de l’IA : entre vision prospective et prédictive

18
Bibliographie :

ccenture (2017), L’IA à l’horizon 2035, rapport, www.accenture.com/fr-


fr/company-news-release-artificial-intelligence-2035.
Agrawal A., Gans J. et Goldfarb A. (2016), « The Simple Economics of
Machine Intelligence », Harvard Business Review.
Andersen N. (2016), Blockchain Technology: a Game Changer in Accounting,
Rapport du cabinet Deloitte & Touch.
Bahuon A.-P. et Pluchart J.-J. (2018), Le financier, le juriste et le geek,
maxima.
Baldwin R. (2019), The Globotics Upheaval: Globalisation, Robotics and the
Future of Work, Weidenfeld & Nicolson.
Bostrom N. (2017), Superintelligence, Dunod.
Brynjolfsson A. et McAfee E. (2014), Machine, Platform, Crowd: Harnassing
our Digital Future, MIT.
Canguilhem G. (1977), Idéologie et rationalité dans l’histoire des sciences de
la vie, Vrin.
En ligneDesbiolles J.-P. (2018), « Finance et intelligence artificielle (IA) :
d’une révolution industrielle à une révolution humaine, tout est à
repenser », Annales des mines.
Finance Innovation (2019), Intelligence artificielle, blockchain et technologies
quantiques au service de la finance de demain, Livre blanc RB Édition.
Foucault M. (1976), La volonté de savoir, Gallimard.
Furman J. et Seamans R. (2018), AI and the Eeconomy, SSRN.
En ligneGallana L. (2018), « Les conséquences économiques de l’intelligence
artificielle », Idées économiques et sociales, n° 182.
Gantz G. et Michaels G. (2015), « Robots at Work », London School of
Economics, CEP Discussion Paper, n° 1135.
Geerolf F. et Zucman G. (2012), Repenser l’économie, La Découverte.

19
Haskel J. et Westlake S. (2017), Le capitalisme sans capital, PUF.
Houdé O. (2019), L’intelligence humaine n’est pas un algorithme, Odile Jacob.

20
Calendrier du projet de thèse en précisant clairement les échéances et
le planning de réalisation de notre projet de thèse

Etapes Objectifs Durée maximale


Première étape Recherche bibliographique, Un an et demi
maîtrise des outils de travail
(Janvier 2024-Juin 2024)

Deuxième étape Collecte et traitement des Six mois


données
(Juin 2024-novembre 2024)

Troisième étape Analyse des résultats, Un an


finalisation du travail et
(novembre 2024-novembre
préparation de la soutenance
2025)

Trois ans

21

Vous aimerez peut-être aussi