L'économie de L'intélligence Artificielle
L'économie de L'intélligence Artificielle
L'économie de L'intélligence Artificielle
Projet de thèse
Sous le thème
1
Présentation du sujet :
L’IA est considérée comme l’un des moteurs de la révolution des technologies,
des organisations et de la société du début du xxi e siècle, mais elle est de plus en plus
affectée par une crise de confiance dans ses modèles et ses algorithmes, parfois
considérés comme étant des « boîtes noires » et manquant de robustesse, bien que de
nouvelles avancées tirant parti des principes de l’« intelligence collective » (Servan
Schreiber, 2018) commencent à infléchir cette vision.
2
conditionnés par les rythmes d’innovations plus ou moins disruptives et les délais plus
ou moins prévisibles de mise en marché des nouvelles solutions d’IA. Les projections
de ces effets peuvent être enfin biaisées par les modèles et/ou les algorithmes d’IA
appliqués par les économistes.
On peut considérer que le concept d’IA est né en 1950, avec le test qu’Alan
Turing a décrit dans Computing Machinery and Intelligence : si une personne qui
discute avec plusieurs interlocuteurs n’est pas capable de discerner lequel est un
ordinateur, alors celui-ci a réussi le test.
L’IA a ensuite été définie par Marvin Lee Minsky en 1956, comme étant « la
construction de programmes informatiques qui s’adonnent à des tâches pour l’instant
accomplies de façon non satisfaisante par des êtres humains, car elles demandent des
processus mentaux de haut niveau tels que l’apprentissage perceptuel, l’organisation de
la mémoire et le raisonnement critique ». Cette définition est reprise dans la plupart des
rapports sur l’IA et notamment dans le « rapport Villani » (Villani, 2018) et dans le
dernier livre blanc de Finance Innovation (2019). L’IA repose sur des solutions
composites organisées en briques de logiciels ou d’algorithmes traitant des données
massives ou big data.
L’IA est aujourd’hui segmentée en deux principaux courants dont les maturités
sont différentes : l’« IA symbolique » où l’on programme l’ordinateur pour qu’il puisse
manipuler des connaissances (les systèmes experts restent aujourd’hui l’une des
techniques omniprésentes et incontournables des outils d’IA quoi que l’on en dise),
l’« apprentissage automatique » couvrant des modèles statistiques évolués et dans lequel
on retrouve notamment les réseaux de neurones (Le Cun, 1987). Ces derniers, qui
apprennent seuls par itérations en traitant des données plus ou moins qualifiées de
mégadonnées (big data), deviennent l’une des techniques majeures de l’IA grâce à la
puissance de calcul des ordinateurs actuels. Malheureusement, les algorithmes
apprenants ne savent pas expliquer ce qu’ils ont appris, ce qui limite souvent leur
acceptabilité. Une troisième vague est en train de naître qui combine IA symbolique,
apprentissage automatique et langage naturel, capable de fusionner les connaissances
d’origines diverses et surtout pour laquelle explication et transparence sont des
propriétés principales (Pearl et Mackenzie, 2018).
4
Mais si l’IA peut résoudre des problèmes complexes, elle ne peut se substituer à
toutes les formes de l’intelligence humaine, incluant l’intuition et l’émotion (Houdé,
2019). « L’IA faible » où un algorithme est toujours limité à la tâche qui lui a été dévolue
par le concepteur est maintenant omniprésente et opérationnelle. L’« IA forte » dotée de
volonté, de conscience et d’émotions reste un fantasme. Si l’IA a des effets tangibles sur
l’économie réelle et sur l’économie financière, elle ne peut à elle seule en bouleverser
les paradigmes.
L’IA est une véritable révolution car elle permet d’aller beaucoup plus loin que
les technologies déjà mentionnées dans la complexité des tâches réalisées. Elle apprend,
s’entraîne, détecte des corrélations de manière infiniment plus complète que n’importe
5
quel humain. Les algorithmes produits par l’IA sont donc potentiellement plus
performants que n’importe quel programme informatique codé par un humain.
6
que la réduction des coûts devrait entraîner un surcroît de croissance économique
annuelle d’au moins 0,5 % dans les pays industriels, mais qu’il pourrait atteindre 1,5 %
si l’automatisation était accompagnée de dispositifs innovants en faveur du bien-être au
travail.
Cette prédiction est dans l’ensemble confirmée par les travaux récents de Furman
et Seamans (2018), chercheurs au MIT.
7
L’IA : nouveau moteur de la consommation
8
sur l’expérience-client (ou UX) passe par une perception des signaux émis par l’usager,
notamment à partir des données massives issues des réseaux sociaux et professionnels
(big data). La pratique de l’UX vise à fidéliser l’usager par des transactions plus rapides,
plus fiables et mieux adaptées à son profil « à toute heure et en tout lieu ». La démarche
est d’autant plus complexe que la demande du client évolue dans le temps et dans
l’espace, car, sous l’effet des réseaux internet, elle est sensible à la conjoncture et aux
offres de la concurrence (Pine et Gilmore, 1998).
L’IA permet d’améliorer les outils conventionnels de gestion des risques utilisés
par les banquiers, les assureurs, les courtiers, les experts-comptables, les managers,
etc. : scoring de crédit, détection de fraude, optimisation des stratégies de recouvrement
de créance, détection et interprétation rapides des signaux faibles, construction de
modèles économiques, etc. Certaines applications d’IA contribuent à analyser et à
sécuriser les flux de données rendus de plus en plus massifs par les nouvelles
réglementations imposées aux entreprises. Elles permettent, par exemple, de mieux
« probabiliser les risques judiciaires ».
9
Les start-up dites de « justice prédictive » permettent d’« apprendre à
comprendre » les critères de décision des juges et ainsi de choisir entre l’engagement
d’un contentieux ou d’une procédure de règlement amiable d’un litige, de préparer une
plaidoirie ou une négociation, et de provisionner les pénalités éventuelles. Certains
logiciels d’IA permettent de mieux protéger les organisations contre des piratages
informatiques et de renforcer la lutte contre la fraude comptable (non collaborative entre
membres d’un réseau). Toutefois, plusieurs observateurs (Bahuon et Pluchart, 2018)
révèlent a contrario que la cybercriminalité et certaines manipulations comptables
peuvent être favorisées par les progrès de l’IA. La conjugaison des nouvelles
technologies et la difficile conformité aux nouvelles réglementations sur la protection
des données personnelles démultiplient les risques pénaux, financiers, fiscaux et sociaux
encourus par les entreprises et leurs dirigeants.
10
chaînes de création de valeur, représentés notamment par les courtiers, les mandataires,
les auditeurs, les huissiers, etc.
Les études sur la mutation des compétences engendrée par l’IA débouchent sur
des résultats incertains ou contradictoires.
L’OCDE (2019) considère que l’impact de l’IA sur les emplois et les
compétences au sein des pays développés devrait être profondément différent d’un
secteur d’activité à l’autre. Plus de la moitié des activités ne seraient pas ou peu affectées
par l’IA. L’OCDE rejette l’hypothèse d’un « chômage technologique de masse » et
souligne l’urgence d’une reconversion partielle et progressive des agents exerçant des
métiers robotisables à faibles compétences vers des métiers phygitalisables à plus fortes
compétences. Les emplois les plus concernés seraient ceux de la grande industrie
manufacturière, de la logistique, du commerce, de la banque (de détail) et de l’assurance.
L’OCDE plaide en faveur d’une réduction de la fracture numérique au sein des
populations, notamment grâce à une meilleure intégration de l’IA dans les programmes
d’enseignement sous l’effet de l’edtech.
Dans son étude de 2017, le cabinet PWC estime à 15 700 Md$ l’apport spécifique
de l’IA au PIB mondial entre 2018 et 2030, soit une augmentation de 14 %. La création
de valeur devrait être supérieure en Asie Pacifique (26 %) et en Amérique du Nord
(14,5 %) à celle de l’Europe (de 9,9 % à 11,5 %) et des pays en développement. Elle
serait principalement due à des gains de productivité (55 %) et à une relance de la
consommation (45 %) jusqu’en 2030, mais ce rapport devrait s’inverser au-delà, en
raison d’un plafonnement de la productivité.
12
Le cabinet d’audit Accenture (2017) soutient que l’IA pourrait multiplier par
deux les taux de croissance de douze principaux pays occidentaux à l’horizon 2035,
grâce à de « nouvelles relations entre le vendeur et le client et entre l’homme et la
machine ». L’impact des technologies basées sur l’IA devrait notamment améliorer
l’efficacité du travail de près de 40 % dans certains pays (20 % en France).
Selon l’économiste Philippe Aghion, l’IA devrait toutefois avoir également des
effets négatifs sur la croissance économique, en raison des freins (ou des coûts cachés)
qui pèsent sur le développement de l’IA. Ces freins sont principalement de nature :
technologique : certaines technologies ont atteint un stade insuffisant de maturité
pour en évaluer les retombées économiques, comme pour le véhicule autonome
qui est au stade expérimental ou pour l’ordinateur quantique qui est au stade
exploratoire ;
juridique : la protection des données personnelles, la cybersécurité,
l’environnement concurrentiel de l’écosystème de l’IA demeurent
insuffisamment encadrés ;
socioprofessionnelle : les effets des déficits de compétences et des résistances au
changement organisationnel sont difficilement mesurables ;
organisationnelle : les modèles d’IA dans les systèmes actuels de gestion des
entreprises et des administrations sont encore insuffisamment intégrés ;
institutionnelle : l’action publique sur la formation (initiale et continue) à l’IA,
afin de réduire la fracture numérique et de favoriser la reconversion des métiers,
est inégale selon les pays et les régions.
13
acteurs absorbent ou contrôlent les start-up les plus innovantes, renforçant ainsi leurs
positions dominantes et le contrôle de leurs marchés. Les GAFA contrôlaient ainsi plus
des deux tiers du trafic mondial d’internet en 2018.
14
technologies. La valeur engendrée par l’IA ne repose pas que sur l’utilité et la rareté,
ainsi que sur le travail et le marché, selon les paradigmes néoclassiques. Elle est un
« bien commun » au service de la production collective et du bien-être. Elle résulte d’un
processus d’apprentissage collectif basé sur la confiance, dont l’étude implique de
convoquer des théories et des méthodologies à la fois économiques et sociologiques
(Orléan, 2011).
L’économie de l’IA porte essentiellement sur des données (Agrawal et al., 2016).
Les résultats des études économiques sur l’IA sont hétérogènes par manque de « données
sur les flux de données » générés par l’IA. Les méthodologies de recherche appliquées
à l’écosystème de l’IA reposent sur des approches de type soit top-down (à partir
d’hypothèses de création de valeur), soit bottum-up (par la consultation d’usagers et
d’experts). Ils dépendent de la notion d’IA (plus ou moins précise) retenue, des secteurs
d’activité (plus ou moins larges) observés, des zones géographiques (plus ou moins
cadrées) et de l’horizon de projection (plus ou moins lisible). Les méthodologies
classiques de recherche sont soit quantitatives (basées sur des données réelles
d’observation), soit qualitatives (étayées par des représentations mentales de
phénomènes). Les premières ne disposent pas de données sur des échelles de temps
suffisantes, tandis que les secondes engendrent des représentations parfois floues ou
fantasmatiques.
15
Leur consentement à l’exploitation de leurs données personnelles répond-il toujours à
leur libre volonté, face aux progrès des techniques de nudging (ou de management
incitatif) ?
L’économie de l’IA est une économie analytique. Elle fait appel à des analyses à
la fois prospectives et prédictives (Vayre, 2016). Les données issues des algorithmes
projettent des futurs qui traduisent des réalités déclinées à partir de méga-données (big
data) sur le passé. Les projections sont ainsi déclinées suivant les logiques dictées par
leurs développeurs (les data-scientists) et leurs utilisateurs (les économistes). Du
croisement des logiques de prospection et de prédiction qui sous-tendent l’IA émerge
une contradiction : certains algorithmes prédisent des futurs largement autodéterminés
et émettent donc des prophéties autoréalisatrices (Krivine, 2018).
16
plateforme Opal (Orange) organise le partage des capacités d’analyse des plateformes
au service du bien commun. Un écosystème apprenant dédié au machine learning est en
voie de constitution.
les comportements des acteurs sont observés et analysés grâce au big data et à
l’IA ;
toutes les parties prenantes (chercheurs, praticiens, usagers, etc.) sont impliquées
dans la recherche de solutions aux questionnements soulevés ;
les concepts et les méthodes sont compris par toutes les parties prenantes à
l’étude ;
toutes les hypothèses et options possibles sont étudiées et croisées ;
la validité, la viabilité et l’acceptabilité de chaque solution envisagée sont
systématiquement testées.
17
Projet de plan :
18
Bibliographie :
19
Haskel J. et Westlake S. (2017), Le capitalisme sans capital, PUF.
Houdé O. (2019), L’intelligence humaine n’est pas un algorithme, Odile Jacob.
20
Calendrier du projet de thèse en précisant clairement les échéances et
le planning de réalisation de notre projet de thèse
Trois ans
21