Fiche IA

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 9

Fiche

L’intelligence artificielle, le
futur des entreprises ?
Vous avez parfois l’impression que votre expérience en ligne est personnalisée de manière
magique ? Que la barrière de la langue n'est plus un obstacle ? Vous êtes toujours surpris de
pouvoir converser avec des assistants virtuels tels qu’ALEXA ou SIRI ? Bienvenue dans le
monde fascinant de l'intelligence artificielle, ou IA en abrégé, une révolution technologique
qui façonne notre vie quotidienne de manière subtile et surprenante. L'IA, c'est tout cela et
bien plus encore. C'est un domaine de l'informatique qui émerveille par sa capacité à créer des
systèmes informatiques capables de résoudre des énigmes complexes qui, autrefois, étaient
réservées aux esprits humains les plus brillants. Et le plus incroyable, c'est que l'IA est déjà
partout dans votre quotidien, même si vous ne vous en rendez pas toujours compte.

Cette fiche va vous permettre d’en apprendre davantage sur l'intelligence artificielle, les
différents concepts qui y sont associés et la manière dont cette technologie influence notre
quotidien et ce qu’elle pourrait signifier pour notre avenir.

http://www.hub-charleroi.be

[email protected]

Partenaires
Fiche Intelligence artificielle

L’intelligence artificielle

Définition
L’intelligence artificielle (IA) désigne un domaine de l’informatique consacré à la
création de systèmes informatiques capables d’exécuter des tâches nécessitant
généralement des capacités cognitives humaines. Les logiciels et algorithmes
conçus par l’IA doivent être capables de simuler des processus mentaux humains,
tels que, entre autres, la reconnaissance visuelle ou le traitement du langage naturel
afin de comprendre des données, résoudre des problèmes, prendre des décisions et
s’adapter à de nouvelles situations.

L’intelligence artificielle repose sur des techniques telles que le machine learning (ou
apprentissage automatique), le deep learning (les réseaux de neurones artificiels) et
le traitement automatique du langage naturel pour analyser d’énormes quantités de
données, en extraire des modèles et informations pertinentes.

Origine et évolution de l’IA

L'histoire de l'intelligence artificielle s'étend sur un peu plus de 60 ans et est une
discipline multidisciplinaire qui vise à reproduire les capacités cognitives humaines
en utilisant des sciences, des théories et des techniques telles que la logique
mathématique, les statistiques, la neurobiologie computationnelle et l'informatique.

Les Pionniers de l'IA


L'IA a émergé après la Seconde Guerre mondiale, notamment grâce aux travaux de
Norbert Wiener, un pionnier de la cybernétique, qui cherchait à unifier la théorie
mathématique, l'électronique et l'automatisation. En 1943, Warren McCulloch et
Walter Pitts ont développé le premier modèle mathématique du neurone
biologique.

John Von Neumann et Alan Turing


Dans les années 1950, John Von Neumann et Alan Turing ont joué un rôle
fondamental en formalisant l'architecture des ordinateurs modernes et en
démontrant leur capacité à exécuter des programmes. Turing a également posé la
question de l'intelligence des machines dans son célèbre article de 1950,
introduisant le concept du "test de Turing" pour évaluer l'intelligence artificielle.
Fiche Intelligence artificielle

John McCarthy et la Conférence de Dartmouth


Le terme "intelligence artificielle" a été popularisé par John McCarthy du MIT, qui a
défini l'IA comme la construction de programmes informatiques capables de réaliser
des tâches exigeant des processus mentaux de haut niveau. La conférence de
Dartmouth en 1956 est considérée comme fondatrice de la discipline.

Stagnation de l’IA
Dans les années 70, le regard de l’opinion publique sur l’IA n’est pas favorable :
l’intelligence artificielle est vivement critiquée et subit de fortes réductions de
financement (ils sembleraient que les chercheurs aient minimisés les défis associés à
son développement). Il y a néanmoins de nouvelles idées qui émergent, notamment
dans le domaine de la programmation logique.

Les systèmes Experts


Dans les années 1980 et 1990, l'IA a connu une période axée sur les systèmes
experts, des systèmes conçus pour reproduire les processus cognitifs d'experts dans
des domaines spécifiques,tels que DENDRAL et MYCIN, qui utilisaient un moteur
d'inférence pour résoudre des problèmes spécifiques. Cependant, ces systèmes
étaient coûteux à maintenir et avaient leurs limites.

L'avènement du Deep Learning


Depuis 2010, l'IA connaît un nouvel essor grâce à l'accès à d'énormes quantités de
données et à la puissance de calcul accrue des ordinateurs. Les techniques
d'apprentissage profond (deep learning), promues notamment par Geoffrey Hinton,
Yoshua Bengio et Yann LeCun, ont révolutionné l'IA en permettant aux machines
d'apprendre par elles-mêmes grâce à la corrélation et la classification des données.
Cela a conduit à des avancées notables dans des domaines tels que la
reconnaissance vocale, la reconnaissance d'images et la recherche d'informations.

L'IA actuelle et future


L'intelligence artificielle continue de progresser à un rythme soutenu, avec des
réalisations notables telles que la victoire d'AlphaGo contre les champions
mondiaux de Go en 2016. En parallèle, Google, en tant que premier moteur de
recherche mondial, a joué un rôle fondamental dans le développement et la
promotion de l'intelligence artificielle. La société a révolutionné la recherche en
ligne en mettant en place une IA capable de saisir les besoins, les préférences et les
intentions des utilisateurs.

Cependant, il reste encore de nombreux défis à relever afin de créer des systèmes
d'IA qui comprennent pleinement le texte et les intentions humaines.
Fiche Intelligence artificielle

Le machine learning

Définition
Le machine learning, ou apprentissage automatique, est une discipline qui repose
sur un principe essentiel : l’entraînement de modèles sur des échantillons de
données. Ces modèles sont ensuite utilisés pour prendre des décisions et faire des
prédictions sur de nouvelles données inconnues. En d’autres termes, il s’agit de
prédire l’avenir en se basant sur les exemples du passé.
Les performances des modèles de machines learning vont fortement dépendre de la
qualité des données sur lesquelles ils ont été formés; des données d'entraînement
de hautes qualités donneront des prédictions plus précises. Le machine learning
nécessite une intervention humaine importante pour extraire les caractéristiques
pertinentes des données, traiter les informations et classifier les données afin de
garantir que le modèle apprend de manière appropriée.

Par exemple, si votre modèle de machine learning doit être capable de reconnaître
automatiquement des images de chiens parmi une collection de photos, il va
d’abord falloir ;

1. constituer un ensemble de données provenant de diverses sources (web, bases


de données d’images,...) contenant un grand nombre d’images de chiens ainsi
que des images ne contenant aucun chien.
2. Ensuite, un humain doit examiner et annoter chaque image (association d’une
étiquette) et indiquer si elle contient ou non un chien.
3. Ces images annotées forment un ensemble d’entraînement qui est utilisé pour
former un modèle de machine learning à reconnaître des chiens.
4. Après l'entraînement, le modèle doit être testé sur un ensemble de validation
afin d’évaluer ses performances et si besoin, ré-entraîner le modèle après avoir
fait les ajustements nécessaires.
Les types de machine learning
L’apprentissage automatique se décline en plusieurs types, chacun adapté à un
contexte spécifique :
l’apprentissage supervisé : chaque ensemble de données est associé à une
étiquette ( aussi appelée “cible”) et vont constituer les données d'entraînement
pour former le modèle à prédire l’étiquette correcte pour les nouveaux points
de données.
l’apprentissage non supervisé : il n’y a aucune étiquette associée aux données
de formation. Le modèle va plutôt chercher les structures ou relations cachées
dans les données.
Fiche Intelligence artificielle
l’apprentissage par renforcement : l’apprentissage se fait à partir de l’interaction
avec un environnement, au moyen de récompenses et pénalités comme moyens
de retour.
l’apprentissage semi supervisé : cet apprentissage se fait grâce à l’exploitation
de données étiquetées et non étiquetées.

Le deep learning

Définition
Le deep learning, souvent désigné par “apprentissage profond” est une sous-
catégorie de l'apprentissage automatique (machine learning). Il est qualifié de
“profond” en raison de son niveau d’avancement supérieur car il s'appuie sur un
réseau de neurones artificiels pour simuler le fonctionnement de l'intelligence
humaine.
Le deep learning nécessite un très grand ensemble de données et une très grande
puissance de calcul car il modélise des données complexes. Contrairement au
machine learning, il ne nécessite pas d’extraction manuelles des caractéristiques car
il apprend directement à partir des données brutes.
Un réseau de neurones profonds
Un réseau de neurones artificiels est constitué de nombreux nœuds de traitement
et chaque nœud se connecte à un autre, comme les neurones d’un cerveau humain !
La connexion d’un nœud peut se faire à différents autres nœuds en de nombreuses
couches, au-dessus ou en dessous de lui. Un réseau neuronal profond, autrement
dit de deep learning, comprend trois types de couches (appelées “couches nodales”)
:
1. La couche d'entrée (qui concerne les données d’entrée),
2. les couches cachées (qui peuvent être multiples, et qui concernent les valeurs
transmises entre les neurones)
3. et la couche de sortie (qui concerne les résultats et prédictions).

Illustration d’un réseau de neurones artificiels provenant du site IBM


Fiche Intelligence artificielle
Chaque nœud est essentiel dans le réseau neuronal, ils reçoivent chacun des
signaux des autres nœuds et chaque signal est pondéré en fonction de son
importance, et ces pondérations sont appelées "poids". Le nœud effectue ensuite
une somme pondérée de ces signaux, puis applique une règle : si la somme dépasse
un certain seuil, le nœud est activé et envoie un signal aux nœuds suivants. Sinon, il
n’envoie rien.

Lorsque ces réseaux de neurones artificiels apprennent à faire des choses comme
reconnaître des images ou comprendre le langage, ils ont besoin d'énormément de
données. Ils passent par ces données à plusieurs reprises, ajustant les poids à
chaque itération pour devenir plus précis dans leurs décisions. Chaque erreur est
examinée, et les poids sont modifiés pour minimiser ces erreurs. En d'autres termes,
ces réseaux apprennent de leurs erreurs. Chaque couche nodale s’entraîne donc en
utilisant les résultats générés par la couche précédente.. Plus le réseau comporte de
couches, plus il saura reconnaître et traiter des informations complexes.

Application de l’IA dans les entreprises

La reconnaissance d’images
Le deep learning a considérablement amélioré les performances de la
reconnaissance d’images, que ce soit pour identifier des lieux, des individus ou et
des objets dans une image fixe ou dans une vidéo. Cross Data souligne que cela a
des répercussions positives sur l’optimisation des processus et de la production. En
effet, il devient possible de détecter des éléments clés afin de prédire une situation,
ce qui peut conduire à l’automatisation de divers processus métier. Cette
technologie est largement exploitée dans les domaines de la reconnaissance faciale
(voir le site DataSciencetest pour son fonctionnement), la détection d’objets dans
les véhicules autonomes et la catégorisation d’images sur les réseaux sociaux.
Un autre cas d’application du traitement d’images est dans le domaine médical. On
peut maintenant repérer des mélanomes sur les photos de peau, dépister des
rétinopathies diabétique via des images de rétines, des cancers du sein,..

Le traitement du langage naturel (NLP)


Le traitement du langage naturel est un domaine de l’IA qui permet aux ordinateurs
de comprendre le langage humain. Le deep learning permet d’extraire
automatiquement le sens d’un texte grâce aux algorithmes et est utilisé dans tout ce
qui concerne la génération de texte, l’analyse des sentiments, la réponse aux
questions, la traduction automatique,... Il vient améliorer les performances des
systèmes de traitement automatique du langage naturel. On retrouve son utilisation
dans les assistants vocaux (Siri, Alexa, Google Assistant,...) et plus largement
Fiche Intelligence artificielle
les chatbots par exemple, qui utilisent le deep learning pour comprendre et
répondre par la parole humaine.

Les véhicules autonomes


Le deep learning est utilisé pour modéliser le monde environnant d’une voiture
autonome, permettant à celle-ci de prendre des décisions de conduite. Ces modèles
s’appuient sur une grande quantité de données et d’image de conduite, nécessitant
une puissance de calcul élevée afin de permettre à la voiture de prendre
continuellement des décisions sans interruption.

La recommandation de produit et publicité en ligne


Les algorithmes vont se baser sur votre historique d’achat, vos recherches en ligne
,.. afin de vous recommander des produits susceptibles de vous intéresser.
D’ailleurs, Netflix et Amazon utilisent une infrastructure de machine learning afin de
vous proposer des films et produits en fonction de vos préférences passées. Il en
est de même pour les plateformes publicitaires. Facebook va vous proposer des
annonces en fonction de vos intérêts et de votre comportement de navigation.

La détection de fraude
L’intelligence artificielle, permet, dans le domaine financier, de prévoir les tendances
du marché, de gérer les risques,... Elle est surtout avancée et implantée dans les
banques pour détecter les transactions frauduleuses et anormales en analysant les
modèles d’activités des clients. Mastercard compte 2,2 milliards de cartes en
circulation dans 330 pays. Grâce au machine learning, le système peut analyser plus
de 160 millions de transactions par heure en quelques millisecondes et appliquer
jusqu’à 1,9 million de règles différentes pour vérifier chaque transaction.

Médecine et santé
Selon Briganti, les algorithmes d'IA en médecine peuvent apporter une analyse
approfondie des données des patients, permettant d'identifier des modèles et des
tendances potentiellement complexes, échappant parfois à la détection humaine.
Des robots sont désormais utilisés en chirurgie pour assister les médecins ou
effectuer des opérations difficiles (Da Vinci, Hearlander,...). L’intelligence artificielle
peut également alléger la charge de travail des médecins en automatisant des
tâches fastidieuses et chronophages. De plus, l'IA a la capacité d'explorer une vaste
quantité de littérature médicale pour mettre en lumière des articles et des résultats
pertinents liés à un patient spécifique ou à une condition médicale particulière.
L’utilisation croissante de l’intelligence artificielle en médecine soulève de plus en
plus de questions éthiques et pratiques.
Fiche Intelligence artificielle
L’INSERM indique notamment que si un professionnel de la santé est guidé par un
système décisionnel automatique, il se doit d’en informer le patient afin de lui
expliquer les raisons qui sous-tendent cette décision et le processus qui y a mené.
Le praticien devrait avoir la liberté de rejeter les recommandations faites par l’IA s’il
juge celles-ci erronées, de même que le patient devrait pouvoir refuser une
recommandation provenant de l’IA. La question de la responsabilité légale se pose
en cas de divergences entre les recommandations de l’IA et les normes générales.
L’INSERM souligne la nécessité de considérer la formation des professionnels de la
santé à l’utilisation de l’IA : elle ne remplace pas leur expertise mais elle devient
incontournable dans le domaine.

La traduction
Les logiciels de traduction utilisant le machine learning font ce qu’on appelle de la
traduction automatique statistique : ils utilisent des traductions humaines existantes
et recherchent des modèles statistiques. Au lieu de règles linguistiques, ces logiciels
se basent sur des prédictions statistiques afin de traduire de nouveaux textes; et
ces prédictions reposent sur la probabilité que certaines phrases ou mots se
correspondent à d’autres dans la langue cible. Un exemple de ces logiciels est
Google Translate.

Dans l’illustration ci-dessous, les zones jaunes marquent les segments traduits,
montrant une traduction correcte pour la première phrase mais une confusion dans
la deuxième, où "a sauté" devrait être traduit par "skipped" dans les deux cas. Dans
la première phrase, "sauté un repas" est traduit comme un seul segment, éliminant
l'ambiguïté. Cependant, dans la deuxième phrase, "a sauté" est dissocié de "un
repas", créant une ambiguïté que le système résout en choisissant la traduction avec
le score le plus élevé. Pour corriger cela, il faudrait tenir compte du contexte global.

Illustration de la traduction automatique statistique avec Google Translate provenant du site


Interstices
Fiche Intelligence artificielle
Automatisation industrielle, maintenance prédictive et surveillance des
équipements
De plus en plus d’entreprises manufacturières utilisent des algorithmes de machine
learning et de deep learning entraînés avec des données de l’Internet industriel des
objets (IIoT) pour prédire les pannes de machines, les défaillances d’un équipement
et planifier la maintenance avant qu'elles ne surviennent. L’intelligence artificielle
est capable de surveiller en temps réel l’état des équipements et d’identifier des
comportements inhabituels et de diagnostiquer divers types de dysfonctionnement.
Les avantages de l’IA pour une entreprise est qu’elle apprend des données
historiques et s’adapte aux évolutions, elle offre donc une solution flexible et
évolutive. De plus, la maintenance prédictive permet de réduire les coûts de
maintenance et les pertes relatives aux interruptions de services.
La tarification dynamique
L’optimisation intelligente des prix grâce au machine learning intéresse de
nombreux secteurs, surtout l’industrie du voyage, l’hôtellerie, les compagnies
aériennes,... car il permet d’avoir un ajustement régulier et en temps réel des prix en
fonction des besoins et tendances du marchés, des attentes et comportements des
clients, de la demande actuelle, des données historiques sur les prix, des niveaux de
stocks, des évènements saisonniers, de la concurrence,... L’objectif est d’optimiser
les prix afin de maximiser les revenus ou les marges bénéficiaires. La tarification
dynamique peut être personnalisée en fonction du profil du client grâce aux
données relatives au comportement d’achat, les préférences individuelles,...
Besoin d'une aide supplémentaire ?

Le Hub-C dans le cadre de ses services d’accompagnement numérique organise


des workshops et groupes de travail en lien avec les nouvelles technologies de
prototypages. Vous souhaitez un accompagnement pour votre projet innovant ou
vous souhaitez participer à un prochain workshop? N'hésitez pas à contacter un
membre du Hub !
Vous avez une question spécifique à propos d’une fiche?
Elles sont réalisées par les experts du CETIC (Centre
d'Excellence en Technologies de l'Information et de la
Communication), un centre de recherche appliquée en
informatique situé à Charleroi. Vous trouverez toutes les
coordonnées ici.
Les fiches pdf et illustrations de la trousse à outils du Hub-C sont réalisées grâce au site Canva.

http://www.hub-charleroi.be

[email protected]

Partenaires

Vous aimerez peut-être aussi